JP2001070293A - Radio-diagnostic device - Google Patents

Radio-diagnostic device

Info

Publication number
JP2001070293A
JP2001070293A JP25192299A JP25192299A JP2001070293A JP 2001070293 A JP2001070293 A JP 2001070293A JP 25192299 A JP25192299 A JP 25192299A JP 25192299 A JP25192299 A JP 25192299A JP 2001070293 A JP2001070293 A JP 2001070293A
Authority
JP
Japan
Prior art keywords
command
ray
fingertip
monitor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25192299A
Other languages
Japanese (ja)
Inventor
Tomio Maehama
登美男 前濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP25192299A priority Critical patent/JP2001070293A/en
Publication of JP2001070293A publication Critical patent/JP2001070293A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a radio-diagnostic device capable of performing the various operation without moving a line of sight of an operator from a monitor screen. SOLUTION: This radio-diagnostic device is provided with a bed 8 to be loaded with a subject, an X-ray tube and an X-ray detecting unit 3 for picking up an image of the body to be examined with the X-ray, a monitor 6 for displaying the X-ray image data picked up by the X-ray image pickup unit, an image processing unit 5 for processing image of the X-ray image data, and an input unit 9 for inputting commands related with the operation of the bed, the operation of the X-ray imaging unit, and image processing. The input unit 9 has a noncontact operation input unit 9 capable of detecting position of a finger tip of the operator within the predetermined space without a contact so as to select a desirable command among a list of the command displayed in the monitor.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被検体内部をX線
で撮影し、また透視するX線診断装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an X-ray diagnostic apparatus for imaging the inside of a subject with X-rays and for performing fluoroscopy.

【0002】[0002]

【従来の技術】周知の通り、循環器系疾患の画像診断と
しては、超音波検査、X線コンピュータ断層撮影法、磁
気共鳴映像法(MRI)等があるが、末梢まで血管の走
行や血管内壁の状態を直接的に観察することができるこ
とから、血管に挿入したカテーテルから造影剤を注入し
てX線撮影をするX線診断法が最終確定診断に用いられ
ている。最近では、カテーテルは、血管撮影だけでな
く、塞栓剤を注入して血管を閉塞させて治療したり、バ
ルーン付きカテーテルで血管の狭窄部分を拡張するよう
な治療にまで用いられるようになっている。
2. Description of the Related Art As is well known, there are ultrasonic examination, X-ray computed tomography, magnetic resonance imaging (MRI) and the like as image diagnosis of circulatory system diseases. The X-ray diagnostic method in which a contrast agent is injected from a catheter inserted into a blood vessel and X-ray imaging is performed is used for the final definitive diagnosis because the state of the X-ray can be directly observed. In recent years, catheters have been used not only for angiography, but also for treatments such as injecting an embolic agent to occlude a blood vessel, or for treating a stenotic part of a blood vessel with a balloon catheter. .

【0003】このような手技を行う際には、検査室の検
査用寝台に患者を寝かせ、検査用寝台の横に術者(医
師)が立ち、患者の皮膚を切開して、血管にカテーテル
を挿入し、検査室内のモニタに写し出されたX線の透視
画像で確認しながらカテーテルを目的付近まで少しずつ
奥へと進めていく。
In performing such a procedure, a patient is laid on an examination bed in an examination room, an operator (doctor) stands next to the examination bed, the patient's skin is incised, and a catheter is inserted into a blood vessel. The catheter is inserted, and the catheter is advanced gradually to the vicinity of the target while confirming the X-ray fluoroscopic image projected on the monitor in the examination room.

【0004】このカテーテル作業と並行して、術者は、
寝台天板の移動、X線撮像系の位置決め、造影画像の拡
大縮小等の画像処理等に対する様々な操作をこなしてい
かなければならない。
[0004] In parallel with this catheter operation, the surgeon
It is necessary to perform various operations for image processing such as movement of the couch top, positioning of the X-ray imaging system, enlargement and reduction of a contrast image, and the like.

【0005】このため術者は、操作が必要になる都度、
図7に示すように、モニタ画面と、操作卓との間で視線
を移動しなければならず、非常に煩わしいばかりか、作
業が遅延し、検査又は治療時間が長時間化してしまうこ
ともある。
[0005] For this reason, each time the operator needs to operate,
As shown in FIG. 7, it is necessary to move the line of sight between the monitor screen and the console, which is not only very troublesome, but also delays the work and may lengthen the examination or treatment time. .

【0006】[0006]

【発明が解決しようとする課題】本発明の目的は、操作
者がモニタ画面から視線を動かさずに様々な操作を行う
ことのできるX線診断装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an X-ray diagnostic apparatus which allows an operator to perform various operations without moving his / her eyes from a monitor screen.

【0007】[0007]

【課題を解決するための手段】(1)本発明は、被検体
を載置する寝台と、前記被検体をX線で撮影するX線撮
像部と、前記X線撮像部で撮影したX線画像データを表
示するモニタと、前記X線画像データに対して画像処理
を行う画像処理部と、前記寝台の操作、前記X線撮像部
の操作、前記画像処理に関わるコマンドを入力するため
の入力手段とを具備するX線診断装置において、前記入
力手段は、前記コマンドの候補を前記モニタに一覧表示
させるコマンド表示手段と、前記一覧表示されたコマン
ドの候補の中から所望のコマンドを選択するためのコマ
ンド選択手段とを有し、前記コマンド選択手段は、所定
空間内で操作者の指先の位置を非接触にして検出する非
接触指先検出手段と、音声認識手段と、視点検出手段と
の少なくとも1つの手段を有することを特徴とする。
(1) The present invention provides a bed on which a subject is placed, an X-ray imaging unit for taking an X-ray image of the subject, and an X-ray image taken by the X-ray imaging unit. A monitor that displays image data, an image processing unit that performs image processing on the X-ray image data, and an input for inputting commands related to the operation of the bed, the operation of the X-ray imaging unit, and the image processing Means for displaying a list of the command candidates on the monitor, and selecting a desired command from the list of command candidates. Non-contact fingertip detection means for detecting the position of the operator's fingertip in a non-contact manner in a predetermined space, voice recognition means, and viewpoint detection means. One Characterized in that it has a means.

【0008】(2)本発明は、(1)の装置において、
前記非接触指先検出手段は、視野が一部重畳する位置関
係に配置された複数台のテレビカメラと、前記重畳する
視野内に挿入された指先の3次元位置を、前記複数台の
テレビカメラで撮像した複数の画像データから計算する
計算機とを有することを特徴とする。
(2) The present invention relates to the apparatus of (1),
The non-contact fingertip detection means, the plurality of television cameras arranged in a positional relationship where the visual field partially overlaps, and the three-dimensional position of the fingertip inserted in the overlapping visual field, the plurality of television cameras, A calculator for calculating from a plurality of captured image data.

【0009】(3)本発明は、(2)の装置において、
前記入力手段は、前記計算機で計算された指先の3次元
位置のXY位置に対応する前記モニタの画面内の位置に
ポインタを表示させる手段と、前記ポインタで選択され
たコマンドの表示態様を変化させる手段と、前記計算機
で計算された指先の3次元位置のZ位置の変化に基づい
て前記ポインタで選択されたコマンドを確定する手段と
をさらに有することを特徴とする。
(3) The present invention relates to the apparatus of (2),
The input unit displays a pointer at a position on the monitor screen corresponding to the XY position of the three-dimensional position of the fingertip calculated by the computer, and changes a display mode of a command selected by the pointer. Means for determining the command selected by the pointer based on a change in the Z position of the three-dimensional position of the fingertip calculated by the calculator.

【0010】(4)本発明は、(1)の装置において、
前記コマンド表示手段は、前記コマンドの候補を優先順
位に従って昇順に配列して表示することを特徴とする。
(4) The present invention relates to the apparatus of (1),
The command display means displays the command candidates arranged in ascending order according to priority.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して、本発明を
好ましい実施形態により詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The preferred embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】(第1実施形態)図1に、第1実施形態に
係るX線診断装置の構成を示している。寝台8に載置さ
れた被検体を挟んで、X線管1とX線検出器3とが対向
されている。X線高電圧発生装置2から高電圧を印加さ
れると、X線管1からX線が発生する。このX線は、被
検体を透過して、X線検出部3で検出される。X線検出
部3は、イメージインテンシファイヤ(I.I.)と光
学系とテレビカメラとを組み合わせたタイプでもよい
し、半導体固体検出器でもよい。
(First Embodiment) FIG. 1 shows a configuration of an X-ray diagnostic apparatus according to a first embodiment. The X-ray tube 1 and the X-ray detector 3 are opposed to each other with the subject placed on the bed 8 therebetween. When a high voltage is applied from the X-ray high voltage generator 2, X-rays are generated from the X-ray tube 1. This X-ray passes through the subject and is detected by the X-ray detector 3. The X-ray detector 3 may be of a type combining an image intensifier (II), an optical system, and a television camera, or may be a solid-state semiconductor detector.

【0013】なお、寝台8には、図示しないが天板の長
手方向のスライド、短手方向の微移動、昇降といった多
くの可動部があり、またX線管1とX線検出器3とを支
持する図示しない支持機構には、回転、チルト、接近、
離反といった多くの可動部があり、操作者(術者)はこ
れら可動部を自由に動かして最適な姿勢で撮影又は透視
ができるようになっている。
Although not shown, the bed 8 has many movable parts such as a longitudinal slide of the top plate, a fine movement in a short direction, and a vertical movement, and the X-ray tube 1 and the X-ray detector 3 are connected to each other. Rotation, tilt, approach,
There are many movable parts such as separation, and an operator (operator) can freely move these movable parts to take a picture or see through in an optimal posture.

【0014】X線検出部3から出力される入射X線の強
度に応じた信号は、A/D変換器4でディジタルデータ
に変換され、画像処理部5に画像データとして供給され
る。画像処理部5は、強調処理、平滑化処理、拡大縮小
処理、サブトラクション(差分)処理、補正処理、補間
処理等の様々な画像処理機能を備えており、操作者(術
者)により選択された画像処理を、画像データに対して
実行するようになっている。画像データ又は処理された
画像データは、モニタ6に表示され、また画像記録部7
に記録される。
The signal corresponding to the intensity of the incident X-ray output from the X-ray detector 3 is converted into digital data by an A / D converter 4 and supplied to an image processor 5 as image data. The image processing unit 5 has various image processing functions such as enhancement processing, smoothing processing, enlargement / reduction processing, subtraction (difference) processing, correction processing, and interpolation processing, and is selected by an operator (operator). Image processing is performed on image data. The image data or the processed image data is displayed on the monitor 6 and is stored in the image recording unit 7.
Will be recorded.

【0015】操作者は、モニタ6の画面に写し出された
動画像(透視画像)や静止画像(撮影画像)を見なが
ら、カテーテル操作等の作業を行うことができる。この
作業中に、操作者は、カテーテル操作だけを行えばよい
わけではなく、透視と撮影を切り換えたり、上述した寝
台や支持機構の可動部を動かして撮像姿勢を変えたり、
画像データに画像処理をかけたり、その画像処理を選択
したり、さらにその画像処理に関する条件を設定すると
いったX線診断装置に対する様々な命令(コマンド)を
入力する操作が必要とされる。
The operator can perform operations such as catheter operation while viewing a moving image (perspective image) or a still image (photographed image) displayed on the screen of the monitor 6. During this work, the operator does not have to perform only the catheter operation, switches between fluoroscopy and imaging, changes the imaging posture by moving the movable part of the bed and the support mechanism described above,
An operation of inputting various commands (commands) to the X-ray diagnostic apparatus, such as applying image processing to image data, selecting the image processing, and setting conditions relating to the image processing, is required.

【0016】これら様々なコマンドを、操作者がモニタ
6の画面から視線を動かさずに入力することを目的とし
て、このX線診断装置には、非接触操作入力部9と入力
処理部10とが装備されている。これら非接触操作入力
部9と入力処理部10の詳細を、図2を参照して以下に
説明する。
The X-ray diagnostic apparatus includes a non-contact operation input unit 9 and an input processing unit 10 for the purpose of inputting these various commands from the screen of the monitor 6 without moving the eyes. Equipped. Details of the non-contact operation input unit 9 and the input processing unit 10 will be described below with reference to FIG.

【0017】非接触操作入力部9は、視野が互いに一部
重畳する位置関係に配置されている2台のテレビカメラ
11,12を有しており、寝台8の近くで作業している
術者が操作し易い例えばベッドサイドの手元付近に設置
することができる。この視野が重複している空間(3次
元位置検出領域)に操作者が手を入れると、その指先の
3次元位置が3次元位置検出部13により2台のテレビ
カメラ11,12で撮影した2枚の画像データに基づい
て計算される。つまり、3次元位置検出部13は、2枚
の画像データ各々から背景と区別して手の像を抽出し、
その手の像の先端(指先)の2次元座標を求め、それら
2次元座標の差(視差)に基づいて指先の3次元位置
(X,Y,Z)を計算するものである。
The non-contact operation input unit 9 includes two television cameras 11 and 12 arranged in a positional relationship where the visual fields partially overlap each other, and an operator working near the bed 8 Can be easily installed, for example, near the bedside. When the operator puts his hand in the space (three-dimensional position detection area) where the visual fields overlap, the three-dimensional position of the fingertip is photographed by the two television cameras 11 and 12 by the three-dimensional position detection unit 2. It is calculated based on the image data of one sheet. That is, the three-dimensional position detection unit 13 extracts a hand image from each of the two pieces of image data while distinguishing it from the background,
The two-dimensional coordinates of the tip (fingertip) of the image of the hand are obtained, and the three-dimensional position (X, Y, Z) of the fingertip is calculated based on the difference (parallax) between the two-dimensional coordinates.

【0018】この指先位置情報は、UI処理部14に送
られる。このUI処理部14の動作について図3を参照
して説明する。UI処理部14は、指先位置情報が3次
元位置検出部13から送られてくると(S1)、それを
トリガとして、使用頻度等による優先順位に従って複数
のコマンドの候補をソートし、コマンドメニューを作成
し、このコマンドメニューのグラフィックデータと、カ
ーソルのようなUIポインタのグラフィックデータとを
表示指令と共に画像処理部5に供給する。これにより、
作成したコマンドメニューが、UIポインタと共に、被
検体画像が表示されているモニタ6の画面に表示される
(S2)。このコマンドメニューは、可動部や画像処理
等のコマンドの種類に従って分類され、階層構造になっ
ており、操作者は種類項目がリストされたメインコマン
ドメニューから、サブメニューへと順番に絞り込んでい
って、所望のコマンドまで簡単に到達できるようになっ
ている。
The fingertip position information is sent to the UI processing unit 14. The operation of the UI processing unit 14 will be described with reference to FIG. When the fingertip position information is sent from the three-dimensional position detection unit 13 (S1), the UI processing unit 14 sorts a plurality of command candidates in accordance with the priority order based on the use frequency and the like by using the fingertip position information as a trigger. Then, the graphic data of the command menu and the graphic data of the UI pointer such as a cursor are supplied to the image processing unit 5 together with the display command. This allows
The created command menu is displayed together with the UI pointer on the screen of the monitor 6 displaying the subject image (S2). This command menu is classified according to the types of commands such as movable parts and image processing, and has a hierarchical structure. The operator narrows down the main command menu in which the type items are listed to the sub menu in order. , A desired command can be easily reached.

【0019】3次元位置検出部13では指先位置情報が
フレーム周期で繰り返し計算され、この最新の指先位置
情報が次々とUI処理部14に送られてくる(S3)。
このとき操作者が手を上下左右に動かすと、指先位置情
報のXY座標が変化する。これに従ってUI処理部14
は、画面内でUIポインタを移動する(S4)。また、
UI処理部14は、UIポインタがコマンドメニューの
あるコマンド候補の上にあるとき、そのコマンド候補の
表示態様を、反転表示や点滅表示等により他と識別でき
るように変化させる(S5)。
The three-dimensional position detector 13 repeatedly calculates the fingertip position information at a frame cycle, and sends the latest fingertip position information to the UI processor 14 one after another (S3).
At this time, when the operator moves the hand up, down, left, and right, the XY coordinates of the fingertip position information change. According to this, the UI processing unit 14
Moves the UI pointer in the screen (S4). Also,
When the UI pointer is over a command candidate in the command menu, the UI processing unit 14 changes the display mode of the command candidate so that it can be distinguished from the others by reverse display, blinking display, and the like (S5).

【0020】操作者は、手を上下左右に動かして、所望
のコマンドを選択することができる。そして、手を手前
又は奥に所定距離以上動かすと、指先位置情報のZ座標
が所定量以上変化する。これに従って、UI処理部14
は、そのときに選択状態にあるコマンドを確定し(S
7)、そのコマンド情報を対応する送り先、例えばその
コマンドが透視と撮影との切り換えであればそれを制御
している図示しないシステムコントローラに送り、また
撮像姿勢を変えるコマンドであればそれを制御している
図示しない可動部コントローラに送り、さらに画像処理
の選択やその画像処理条件の設定であれば画像処理部5
に送る。これによりコマンドに応じた操作が実行される
(S8)。
The operator can select a desired command by moving his hand up, down, left, and right. When the hand is moved forward or backward by a predetermined distance or more, the Z coordinate of the fingertip position information changes by a predetermined amount or more. Accordingly, the UI processing unit 14
Determines the selected command at that time (S
7) The command information is sent to a corresponding destination, for example, if the command is switching between fluoroscopy and imaging, it is sent to a system controller (not shown) that controls it. The image processing unit 5 sends the image data to a movable unit controller (not shown), and further selects image processing and sets image processing conditions.
Send to As a result, an operation corresponding to the command is executed (S8).

【0021】以上のように、本実施形態では、2台のテ
レビカメラ11,12の視野が重畳している3次元位置
検出領域に手を入れることで、複数のコマンドの候補
が、画像と同じモニタ6の画面に一覧表示される。ま
た、その3次元位置検出領域の中で手を上下左右に動か
すことで、所望のコマンドを選択することができる。さ
らに、手を手前又は奥に動かすことで、選択したコマン
ドを確定して、そのコマンドを実行させることができ
る。つまり、操作者は、視線を図4に示すようにモニタ
6の画面に固定したまま、大体の位置が分かっている手
元の非接触操作入力部9の3次元位置検出領域という比
較的広い空間範囲に手を入れ、そして動かすだけで、様
々なコマンド入力を行うことができる。また、従来のよ
うに操作卓を触らないで済むので、感染等に対する安全
性も高くなる。
As described above, in the present embodiment, by putting a hand in the three-dimensional position detection area in which the visual fields of the two television cameras 11 and 12 are superimposed, a plurality of command candidates become the same as the image. A list is displayed on the screen of the monitor 6. In addition, a desired command can be selected by moving the hand up, down, left, and right in the three-dimensional position detection area. Further, by moving the hand forward or backward, the selected command can be determined and the command can be executed. That is, the operator keeps his / her gaze fixed on the screen of the monitor 6 as shown in FIG. You can enter various commands simply by touching and moving the. In addition, since it is not necessary to touch the console as in the related art, safety against infection and the like is increased.

【0022】なお、画面を注視したままでコマンド選択
及び確定操作を行うことができるように、非接触操作入
力部9を採用したが、その他に、音声認識技術や視線検
出技術(注目点検出技術)を応用して同様の効果を奏す
ることができる。以下に、これら技術を組み合わせた実
施形態を説明する。
Although the non-contact operation input unit 9 is employed so that the command selection and the determination operation can be performed while watching the screen, the voice recognition technology and the gaze detection technology (the attention point detection technology) ) Can be applied to achieve the same effect. An embodiment combining these techniques will be described below.

【0023】(第2実施形態)第2実施形態は、視線を
モニタ6に固定したままでコマンドを入力する作業を、
第1実施形態の非接触操作入力部9による操作の一部
を、音声認識技術で代替え可能にすることで、簡易にし
て操作者の負担をさらに減らそうとするものである。
(Second Embodiment) In the second embodiment, the operation of inputting a command while keeping the line of sight fixed on the monitor 6 is described.
A part of the operation by the non-contact operation input unit 9 of the first embodiment can be replaced by a voice recognition technology, thereby simplifying the operation and further reducing the burden on the operator.

【0024】図5には、第2実施形態によるX線診断装
置のコマンド入力に関わる部分の構成を示している。な
お、図5において、図2と同じ部分には同じ符号を付し
て詳細な説明は省略するものとする。本実施形態では、
第1実施形態の非接触操作入力部9に加えて、操作者の
近くに配置され、操作者が発生する音声を拾って電気信
号(音声信号)に変換するためのマイク15と、このマ
イク15から出力される音声信号を認識する音声認識部
17とが設けられている。また、UI処理部16は音声
認識部17の認識結果に対応する機能が追加されてい
る。
FIG. 5 shows a configuration of a part related to command input of the X-ray diagnostic apparatus according to the second embodiment. In FIG. 5, the same parts as those in FIG. 2 are denoted by the same reference numerals, and detailed description is omitted. In this embodiment,
In addition to the non-contact operation input unit 9 of the first embodiment, a microphone 15 arranged near the operator for picking up voice generated by the operator and converting it into an electric signal (voice signal); And a voice recognizing unit 17 for recognizing a voice signal output from the PC. The UI processing unit 16 has a function corresponding to the recognition result of the speech recognition unit 17.

【0025】次に、本実施形態の動作について説明す
る。操作者が、非接触操作入力部9の3次元位置検出領
域に手を挿入すると、3次元位置検出部13からの指先
位置情報にトリガされ、UI処理部16は、音声認識モ
ードに入り、モニタ6に音声認識中であるメッセージを
表示する。
Next, the operation of the present embodiment will be described. When the operator inserts his hand into the three-dimensional position detection area of the non-contact operation input unit 9, the UI processing unit 16 is triggered by fingertip position information from the three-dimensional position detection unit 13, enters the voice recognition mode, and enters the monitor mode. 6 displays a message indicating that speech recognition is in progress.

【0026】操作者が、コマンドの種類を音声で発する
と、その種類に属する複数のコマンド候補が第1実施形
態のようにメニューで、それまで操作者が画像を注視し
ているモニタ6に表示される。このコマンドメニューも
第1実施形態と同様に使用頻度等の優先順位に従ってソ
ートされている。
When the operator utters the type of command by voice, a plurality of command candidates belonging to the type are displayed in a menu as in the first embodiment, and are displayed on the monitor 6 where the operator is watching the image up to that point. Is done. This command menu is also sorted according to the priority such as the frequency of use as in the first embodiment.

【0027】このコマンドメニューから所望のコマンド
を選択し、それを確定する動作は、第1実施形態と同様
に、非接触操作入力部9の3次元位置検出領域の中で手
を上下左右に動かすことで、所望のコマンドを選択する
ことができ、さらに、手を手前又は奥に動かすことで、
選択したコマンドを確定して、そのコマンドを実行させ
ることができる。
The operation of selecting a desired command from the command menu and confirming it is performed by moving the hand up, down, left, and right in the three-dimensional position detection area of the non-contact operation input unit 9 as in the first embodiment. By doing so, you can select the desired command, and by moving your hand forward or backward,
The selected command can be determined and the command can be executed.

【0028】このように、本実施形態によれば、第1実
施形態と同様に、操作者は、視線をモニタ6の画面に固
定したまま、手の動きと音声とでコマンド入力を行うこ
とができる。なお、非接触操作入力部9によらず、コマ
ンドメニューの表示から、コマンド選択、さらにコマン
ド確定までの操作を音声だけで行うようにしてもよい。
As described above, according to the present embodiment, similarly to the first embodiment, the operator can input a command by hand movement and voice while keeping his / her gaze fixed on the screen of the monitor 6. it can. Instead of the non-contact operation input unit 9, the operations from the display of the command menu to the selection of the command and the finalization of the command may be performed only by voice.

【0029】(第3実施形態)第3実施形態は、視線を
モニタ6に固定したままでコマンドを入力する作業を、
第1実施形態の非接触操作入力部9を使わないで、音声
認識技術と視線検出技術(注目点検出技術)とを使って
実現するものである。
(Third Embodiment) In the third embodiment, the operation of inputting a command while keeping the line of sight fixed to the monitor 6 is described.
This is realized by using a voice recognition technology and a gaze detection technology (point of interest detection technology) without using the non-contact operation input unit 9 of the first embodiment.

【0030】図6には、第3実施形態によるX線診断装
置のコマンド入力に関わる部分の構成を示している。な
お、図6において、図2、図5と同じ部分には同じ符号
を付して詳細な説明は省略するものとする。本実施形態
では、非接触操作入力部9は装備されていなくて、第2
実施形態のマイク15及び音声認識部17に加えて、角
膜の小光源からの反射光の方向を検出するタイプや赤外
線による瞳孔中心位置を検出するタイプのアイカメラ1
8が操作者に装着され、そしてこのアイカメラ18で検
出した反射光の方向や瞳孔中心位置に基づいて視線(注
目点)を計算する視点検出部19が設けられている。
FIG. 6 shows a configuration of a part related to command input of the X-ray diagnostic apparatus according to the third embodiment. In FIG. 6, the same parts as those in FIGS. 2 and 5 are denoted by the same reference numerals, and detailed description thereof will be omitted. In the present embodiment, the non-contact operation input unit 9 is not provided,
In addition to the microphone 15 and the voice recognition unit 17 of the embodiment, an eye camera 1 of a type that detects the direction of reflected light from a small light source of the cornea or a type that detects a pupil center position by infrared rays
Reference numeral 8 is attached to the operator, and a viewpoint detecting unit 19 for calculating a line of sight (point of interest) based on the direction of the reflected light detected by the eye camera 18 and the pupil center position is provided.

【0031】次に、本実施形態の動作について説明す
る。モニタ6にはUI処理部20により音声認識開始ア
イコンが表示される。操作者が音声認識開始アイコンを
注目すると、UI処理部20は、そのアイコンの位置に
対応した視点位置情報を視点検出部19から受け取り、
音声認識モードに入り、モニタ6に音声認識中であるメ
ッセージを表示する。
Next, the operation of this embodiment will be described. The speech recognition start icon is displayed on the monitor 6 by the UI processing unit 20. When the operator pays attention to the voice recognition start icon, the UI processing unit 20 receives viewpoint position information corresponding to the position of the icon from the viewpoint detection unit 19,
The voice recognition mode is entered, and a message indicating that voice recognition is being performed is displayed on the monitor 6.

【0032】操作者が、コマンドの種類を音声で発する
と、その種類に属する複数のコマンド候補がメニュー
で、それまで操作者が画像を注視しているモニタ6に表
示される。このコマンドメニューも第1実施形態と同様
に使用頻度等の優先順位に従ってソートされている。
When the operator issues a command type by voice, a plurality of command candidates belonging to the type are displayed as a menu on the monitor 6 on which the operator is watching the image. This command menu is also sorted according to the priority such as the frequency of use as in the first embodiment.

【0033】そして、このコマンドメニューから所望の
コマンドを注目すると、その視点位置情報に従ってその
コマンド候補の表示態様がUI処理部20で選択状態に
なる。そのコマンド候補でよければ、操作者が確定を意
味する所定の音声を発生する。その音声に従って、当該
コマンドが実行されるようになっている。
When a desired command is focused on from the command menu, the display mode of the command candidate is selected by the UI processing unit 20 in accordance with the viewpoint position information. If the command candidate is acceptable, the operator generates a predetermined voice that means confirmation. The command is executed according to the voice.

【0034】このように、本実施形態によれば、第1、
第2実施形態と同様に、操作者は、視線をモニタ6の画
面に固定したまま、音声と視点移動とでコマンド入力を
行うことができる。なお、コマンドメニューの表示か
ら、コマンド選択、さらにコマンド確定までの操作を、
視点移動だけで行うようにしてもよい。
As described above, according to the present embodiment, the first,
As in the second embodiment, the operator can input a command by voice and viewpoint movement while keeping the line of sight fixed on the screen of the monitor 6. In addition, the operation from the command menu display, command selection, and further command confirmation,
It may be performed only by moving the viewpoint.

【0035】本発明は、上述した実施形態に限定される
ことなく、種々変形して実施可能である。上述の説明で
は、非接触操作入力技術、この非接触操作入力技術と音
声認識技術との組み合わせ、この音声認識技術と視点検
出技術との組み合わせにより、コマンドメニューの表示
から、コマンド選択、さらにコマンド確定までの操作を
行うようになっていたが、この一連の操作をそれぞれ単
独で行うようにしてもよいし、非接触操作入力技術と視
点検出技術との組み合わせにより行うようにしてもよい
し、さらに非接触操作入力技術と音声認識技術と視点検
出技術とを全て組み合わせて行うようにしてもよい。
The present invention is not limited to the above embodiment, but can be implemented in various modifications. In the above description, the non-contact operation input technology, the combination of the non-contact operation input technology and the voice recognition technology, and the combination of the voice recognition technology and the viewpoint detection technology allow the user to select a command from a command menu display and further determine a command. Although the operations up to this point were performed, this series of operations may be performed independently, or may be performed by a combination of the non-contact operation input technology and the viewpoint detection technology, and The non-contact operation input technology, the voice recognition technology, and the viewpoint detection technology may all be performed in combination.

【0036】また、非接触操作入力技術としては、上述
したように2台のテレビカメラを使うだけでなく、発信
コイルにより交流の磁界を発生し、その磁界中で、操作
者の指先に取り付けた計測コイルで磁束の変化を検出
し、その磁束の変化により磁界内での位置、方向を検出
する方式を採用してもよい。
As a non-contact operation input technique, not only two television cameras are used as described above, but also an alternating magnetic field is generated by a transmitting coil, and attached to a fingertip of an operator in the magnetic field. A method may be adopted in which a change in the magnetic flux is detected by the measurement coil, and the position and direction in the magnetic field are detected based on the change in the magnetic flux.

【0037】[0037]

【発明の効果】本発明によれば、コマンドの候補が、画
像と同じモニタの画面に一覧表示され、この一覧表示さ
れたコマンドの候補を見ながら、非接触指先検出手段
と、音声認識手段と、視点検出手段との少なくとも1つ
の手段を使って所望のコマンドを選択することができ
る。つまり、従来のようにコマンド入力の都度、モニタ
と操作卓との間で視線を動かす必要が無くなり、モニタ
画面をほとんど注視したままで様々なコマンドを入力を
行うことができる。これにより操作者(術者)は、視線
移動の煩わしさから開放され、それに伴って検査や治療
の進行が速くなって検査や治療の短時間化及び患者負担
の軽減を図ることができる。
According to the present invention, command candidates are displayed in a list on the same monitor screen as the image, and the non-contact fingertip detecting means and the voice recognizing means are displayed while viewing the list of command candidates. , A desired command can be selected using at least one of the viewpoint detection means. That is, it is not necessary to move the line of sight between the monitor and the console every time a command is input, as in the related art, and various commands can be input while almost closely watching the monitor screen. As a result, the operator (operator) is released from the troublesome movement of the line of sight, and accordingly, the progress of the examination and the treatment is accelerated, so that the examination and the treatment can be shortened and the burden on the patient can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態に係るX線診断装置の構
成図。
FIG. 1 is a configuration diagram of an X-ray diagnostic apparatus according to a first embodiment of the present invention.

【図2】図1の非接触操作入力部と入力処理部の構成
図。
FIG. 2 is a configuration diagram of a non-contact operation input unit and an input processing unit of FIG. 1;

【図3】第1実施形態の動作流れ図。FIG. 3 is an operation flowchart of the first embodiment.

【図4】第1実施形態のX線診断装置における操作者の
視線を示す図。
FIG. 4 is a diagram showing a line of sight of an operator in the X-ray diagnostic apparatus of the first embodiment.

【図5】本発明の第2実施形態に係るX線診断装置の入
力部と入力処理部の構成図。
FIG. 5 is a configuration diagram of an input unit and an input processing unit of an X-ray diagnostic apparatus according to a second embodiment of the present invention.

【図6】本発明の第3実施形態に係るX線診断装置の入
力部と入力処理部の構成図。
FIG. 6 is a configuration diagram of an input unit and an input processing unit of an X-ray diagnostic apparatus according to a third embodiment of the present invention.

【図7】従来のX線診断装置における操作者の視線移動
を示す図。
FIG. 7 is a diagram showing a line of sight movement of an operator in a conventional X-ray diagnostic apparatus.

【符号の説明】[Explanation of symbols]

1…X線管、 2…X線高電圧発生装置、 3…X線検出部、 4…A/D変換器、 5…画像処理部、 6…表示モニタ、 7…画像記憶部、 8…寝台、 9…非接触入力部、 10…入力処理部、 11…テレビカメラ、 12…テレビカメラ、 13…3次元位置検出部、 14…UI処理部。 DESCRIPTION OF SYMBOLS 1 ... X-ray tube, 2 ... X-ray high voltage generator, 3 ... X-ray detection part, 4 ... A / D converter, 5 ... Image processing part, 6 ... Display monitor, 7 ... Image storage part, 8 ... Bed 9 Non-contact input unit 10 Input processing unit 11 Television camera 12 Television camera 13 Three-dimensional position detection unit 14 UI processing unit

フロントページの続き Fターム(参考) 4C093 AA01 CA15 CA17 CA18 EB02 EB13 EC21 EC28 ED06 ED07 EE01 EE30 FD07 FF01 FF06 FF07 FF13 FF34 FG11 FG13 5C054 AA01 AA05 AA06 CA02 CA04 CE01 EB05 FC01 FC11 FC15 FE16 FE19 FF01 HA12 5D015 AA02 DD02 KK01 Continued on front page F-term (reference) 4C093 AA01 CA15 CA17 CA18 EB02 EB13 EC21 EC28 ED06 ED07 EE01 EE30 FD07 FF01 FF06 FF07 FF13 FF34 FG11 FG13 5C054 AA01 AA05 AA06 CA02 CA04 CE01 EB05 FC01 FC01 DD02 FC01 DD

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 被検体を載置する寝台と、 前記被検体をX線で撮影するX線撮像部と、 前記X線撮像部で撮影したX線画像データを表示するモ
ニタと、 前記X線画像データに対して画像処理を行う画像処理部
と、 前記寝台の操作、前記X線撮像部の操作、前記画像処理
に関わるコマンドを入力するための入力手段とを具備す
るX線診断装置において、 前記入力手段は、前記コマンドの候補を前記モニタに一
覧表示させるコマンド表示手段と、前記一覧表示された
コマンドの候補の中から所望のコマンドを選択するため
のコマンド選択手段とを有し、 前記コマンド選択手段は、所定空間内で操作者の指先の
位置を非接触にして検出する非接触指先検出手段と、音
声認識手段と、視点検出手段との少なくとも1つの手段
を有することを特徴とするX線診断装置。
1. A bed on which a subject is placed, an X-ray imaging unit that captures the subject with X-rays, a monitor that displays X-ray image data captured by the X-ray imaging unit, and the X-ray In an X-ray diagnostic apparatus comprising: an image processing unit that performs image processing on image data; and an operation of the bed, an operation of the X-ray imaging unit, and input means for inputting a command related to the image processing. The input means has command display means for displaying a list of the command candidates on the monitor, and command selection means for selecting a desired command from the list of command candidates. The selection means has at least one of a non-contact fingertip detection means for detecting a position of a fingertip of the operator in a non-contact manner in a predetermined space, a voice recognition means, and a viewpoint detection means. X-ray diagnostic apparatus.
【請求項2】 前記非接触指先検出手段は、視野が一部
重畳する位置関係に配置された複数台のテレビカメラ
と、前記重畳する視野内に挿入された指先の3次元位置
を、前記複数台のテレビカメラで撮像した複数の画像デ
ータから計算する計算機とを有することを特徴とする請
求項1記載のX線診断装置。
2. The non-contact fingertip detecting means, comprising: a plurality of television cameras arranged in a positional relationship in which a visual field partially overlaps; and a three-dimensional position of a fingertip inserted in the superimposed visual field, the plurality of television cameras. 2. The X-ray diagnostic apparatus according to claim 1, further comprising: a calculator for calculating from a plurality of image data captured by one of the television cameras.
【請求項3】 前記入力手段は、前記計算機で計算され
た指先の3次元位置のXY位置に対応する前記モニタの
画面内の位置にポインタを表示させる手段と、前記ポイ
ンタで選択されたコマンドの表示態様を変化させる手段
と、前記計算機で計算された指先の3次元位置のZ位置
の変化に基づいて前記ポインタで選択されたコマンドを
確定する手段とをさらに有することを特徴とする請求項
2記載のX線診断装置。
3. The input means includes means for displaying a pointer at a position on the monitor screen corresponding to the XY position of the three-dimensional position of the fingertip calculated by the computer, and a command for a command selected by the pointer. 3. The apparatus according to claim 2, further comprising: means for changing a display mode; and means for determining a command selected by the pointer based on a change in the Z position of the three-dimensional position of the fingertip calculated by the calculator. The X-ray diagnostic apparatus according to claim 1.
【請求項4】 前記コマンド表示手段は、前記コマンド
の候補を優先順位に従って昇順に配列して表示すること
を特徴とする請求項1記載のX線診断装置。
4. The X-ray diagnostic apparatus according to claim 1, wherein the command display unit displays the command candidates arranged in ascending order according to a priority order.
JP25192299A 1999-09-06 1999-09-06 Radio-diagnostic device Pending JP2001070293A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25192299A JP2001070293A (en) 1999-09-06 1999-09-06 Radio-diagnostic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25192299A JP2001070293A (en) 1999-09-06 1999-09-06 Radio-diagnostic device

Publications (1)

Publication Number Publication Date
JP2001070293A true JP2001070293A (en) 2001-03-21

Family

ID=17229974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25192299A Pending JP2001070293A (en) 1999-09-06 1999-09-06 Radio-diagnostic device

Country Status (1)

Country Link
JP (1) JP2001070293A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003204957A (en) * 2001-10-09 2003-07-22 General Electric Co <Ge> Voice-activated diagnosis and imaging control user interface
WO2006070441A1 (en) * 2004-12-27 2006-07-06 Celltec Project Management Co., Ltd. Operator supporting system
WO2006104132A1 (en) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. User interface system
JP2007195892A (en) * 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
JP2008099971A (en) * 2006-10-20 2008-05-01 Shimadzu Corp X-ray diagnostic equipment
JP2009061028A (en) * 2007-09-05 2009-03-26 Nemoto Kyorindo:Kk Image processing apparatus and medical workstation equipped with the same
JP2009254665A (en) * 2008-04-18 2009-11-05 Ge Medical Systems Global Technology Co Llc Control unit for diagnostic imaging equipment and diagnostic imaging system
WO2011096571A1 (en) * 2010-02-08 2011-08-11 株式会社ネクステッジテクノロジー Input device
WO2012056693A1 (en) * 2010-10-28 2012-05-03 富士フイルム株式会社 Distance measurement/display method and device, and 3d image display method and device
JP2014000332A (en) * 2012-06-20 2014-01-09 Canon Inc Image processing system and image processing method
JP2014004364A (en) * 2012-06-26 2014-01-16 Siemens Aktiengesellschaft Method and medical imaging device for communication between control unit and patient and/or operator
JP2014012208A (en) * 2007-12-03 2014-01-23 Data Physics Research Inc Efficient imaging system and method
JP2014086085A (en) * 2012-10-19 2014-05-12 Samsung Electronics Co Ltd Display device and control method thereof
JP2014108277A (en) * 2012-12-03 2014-06-12 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
WO2014092147A1 (en) * 2012-12-12 2014-06-19 株式会社 東芝 X-ray diagnostic apparatus and medical image display apparatus
JP2014516595A (en) * 2011-03-16 2014-07-17 コントローラッド システムズ、インコーポレイテッド Radiation control and minimization system and method
JP2015514254A (en) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Audio input from user
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system
JP2019203987A (en) * 2018-05-23 2019-11-28 富士電機株式会社 System, method, and program
JP2021060824A (en) * 2019-10-07 2021-04-15 株式会社Fuji Substrate work machine

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003204957A (en) * 2001-10-09 2003-07-22 General Electric Co <Ge> Voice-activated diagnosis and imaging control user interface
WO2006070441A1 (en) * 2004-12-27 2006-07-06 Celltec Project Management Co., Ltd. Operator supporting system
US7810050B2 (en) 2005-03-28 2010-10-05 Panasonic Corporation User interface system
WO2006104132A1 (en) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. User interface system
JP4702959B2 (en) * 2005-03-28 2011-06-15 パナソニック株式会社 User interface system
JPWO2006104132A1 (en) * 2005-03-28 2008-09-11 松下電器産業株式会社 User interface system
JP2007195892A (en) * 2006-01-30 2007-08-09 Toshiba Corp Ultrasonic diagnostic equipment and image processing program thereof
US8491475B2 (en) 2006-01-30 2013-07-23 Kabushiki Kaisha Toshiba Ultrasonic diagnostic apparatus, ultrasonic diagnostic method, and imaging processing program for ultrasonic diagnostic apparatus
JP2008099971A (en) * 2006-10-20 2008-05-01 Shimadzu Corp X-ray diagnostic equipment
JP2009061028A (en) * 2007-09-05 2009-03-26 Nemoto Kyorindo:Kk Image processing apparatus and medical workstation equipped with the same
JP2014012208A (en) * 2007-12-03 2014-01-23 Data Physics Research Inc Efficient imaging system and method
JP2009254665A (en) * 2008-04-18 2009-11-05 Ge Medical Systems Global Technology Co Llc Control unit for diagnostic imaging equipment and diagnostic imaging system
WO2011096571A1 (en) * 2010-02-08 2011-08-11 株式会社ネクステッジテクノロジー Input device
WO2012056693A1 (en) * 2010-10-28 2012-05-03 富士フイルム株式会社 Distance measurement/display method and device, and 3d image display method and device
JP2014516595A (en) * 2011-03-16 2014-07-17 コントローラッド システムズ、インコーポレイテッド Radiation control and minimization system and method
JP2015514254A (en) * 2012-04-27 2015-05-18 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. Audio input from user
US9626150B2 (en) 2012-04-27 2017-04-18 Hewlett-Packard Development Company, L.P. Audio input from user
JP2014000332A (en) * 2012-06-20 2014-01-09 Canon Inc Image processing system and image processing method
JP2014004364A (en) * 2012-06-26 2014-01-16 Siemens Aktiengesellschaft Method and medical imaging device for communication between control unit and patient and/or operator
JP2014086085A (en) * 2012-10-19 2014-05-12 Samsung Electronics Co Ltd Display device and control method thereof
JP2014108277A (en) * 2012-12-03 2014-06-12 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
US9986962B2 (en) 2012-12-12 2018-06-05 Toshiba Medical Systems Corporation Medical image display apparatus and X-ray diagnosis apparatus
WO2014092147A1 (en) * 2012-12-12 2014-06-19 株式会社 東芝 X-ray diagnostic apparatus and medical image display apparatus
JP2014133103A (en) * 2012-12-12 2014-07-24 Toshiba Corp X-ray diagnostic apparatus and medical image display apparatus
WO2017038241A1 (en) * 2015-08-28 2017-03-09 富士フイルム株式会社 Instrument operation device, instrument operation method, and electronic instrument system
US20180160881A1 (en) * 2015-08-28 2018-06-14 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
EP3342326A4 (en) * 2015-08-28 2018-08-22 FUJIFILM Corporation Instrument operation device, instrument operation method, and electronic instrument system
US10506913B2 (en) 2015-08-28 2019-12-17 Fujifilm Corporation Apparatus operation device, apparatus operation method, and electronic apparatus system
JP2019203987A (en) * 2018-05-23 2019-11-28 富士電機株式会社 System, method, and program
JP2021060824A (en) * 2019-10-07 2021-04-15 株式会社Fuji Substrate work machine

Similar Documents

Publication Publication Date Title
JP2001070293A (en) Radio-diagnostic device
US20230086592A1 (en) Augmented reality interventional system providing contextual overylays
JP4745080B2 (en) X-ray diagnostic apparatus, image processing apparatus, and program
US8971601B2 (en) Medical image diagnosis device and medical image processing method
JP5725745B2 (en) X-ray diagnostic apparatus and medical image diagnostic apparatus
JP5637775B2 (en) Medical device
US20150164440A1 (en) Setting a recording area
US20080317195A1 (en) Medical-diagnosis assisting apparatus, medical-diagnosis assisting method, and radiodiagnosis apparatus
EP2213236B1 (en) X-ray diagnosis apparatus
US7777731B2 (en) System and method for selection of points of interest during quantitative analysis using a touch screen display
CN110584782B (en) Medical image processing method, medical image processing apparatus, medical system, computer, and storage medium
JP6139118B2 (en) X-ray diagnostic apparatus and control program
KR101645624B1 (en) Method and apparatus for providing medical information
US20190059914A1 (en) Optical camera selection in multi-modal x-ray imaging
JP3499946B2 (en) Diagnostic imaging device
JP2002238884A (en) Automatic condition setting mechanism of x-ray device
JP2021194268A6 (en) Blood vessel observation system and blood vessel observation method
JP2020127672A (en) X-ray diagnostic apparatus, medical information processing apparatus, and program
US20230070457A1 (en) Medical image processing apparatus, x-ray diagnostic apparatus, and storage medium
JP7246952B2 (en) Medical information processing device, X-ray diagnostic device and program
JP7292871B2 (en) Medical information processing device and X-ray diagnostic device
JP2014130519A (en) Medical information processing system, medical information processing device, and medical image diagnostic device
US20240081772A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
EP4335374A1 (en) X-ray diagnostic apparatus and x-ray diagnostic method
JP7262968B2 (en) Medical image processing device, X-ray diagnostic device and medical image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100216