JP2015198824A - Medical image diagnostic apparatus - Google Patents
Medical image diagnostic apparatus Download PDFInfo
- Publication number
- JP2015198824A JP2015198824A JP2014080296A JP2014080296A JP2015198824A JP 2015198824 A JP2015198824 A JP 2015198824A JP 2014080296 A JP2014080296 A JP 2014080296A JP 2014080296 A JP2014080296 A JP 2014080296A JP 2015198824 A JP2015198824 A JP 2015198824A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- unit
- image
- gantry
- diagnostic apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 30
- 230000033001 locomotion Effects 0.000 claims abstract description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 24
- 230000003287 optical effect Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 36
- 239000000284 extract Substances 0.000 claims description 5
- 238000005452 bending Methods 0.000 claims description 4
- 238000002059 diagnostic imaging Methods 0.000 claims 1
- 210000003128 head Anatomy 0.000 description 14
- 238000000605 extraction Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 210000000883 ear external Anatomy 0.000 description 10
- 210000000038 chest Anatomy 0.000 description 8
- 238000013500 data storage Methods 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000000034 method Methods 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 241001669679 Eleotris Species 0.000 description 2
- 210000001015 abdomen Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 210000004279 orbit Anatomy 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003187 abdominal effect Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Abstract
Description
本発明の実施形態は、X線CT装置等の医用画像診断装置に関し、被検体を撮影する際の被検体の位置決めを容易にするとともに、被検体の被曝量を低減することができる医用画像診断装置に関する。 FIELD Embodiments described herein relate generally to a medical image diagnostic apparatus such as an X-ray CT apparatus, which facilitates positioning of a subject when imaging the subject and can reduce the exposure dose of the subject. Relates to the device.
従来、医用画像診断装置(例えばX線CT装置)による検査において、技師等の操作者は検査室内で寝台に寝た被検体の位置決めを行うが、位置決めは、操作者が投光器(レーザー)を用いて目視で行っている。位置決めが終わると、操作者は検査室から操作室に移動して、CTコンソールからスキャンプランを選択し、スキャノ像の撮影を行い、CTコンソールからスキャノ像を確認し、撮影範囲を決定する。またスキャノ像を確認した際に、被検体の体が曲がっていたり、ガントリの回転中心からずれている場合は、操作者が操作室から検査室に移動し、被検体の位置を調整するようにしている。 Conventionally, in an examination using a medical image diagnostic apparatus (for example, an X-ray CT apparatus), an operator such as an engineer positions a subject who has slept on a bed in an examination room. The operator uses a projector (laser) for positioning. It is done visually. When positioning is completed, the operator moves from the examination room to the operation room, selects a scan plan from the CT console, captures a scanogram, confirms the scanogram from the CT console, and determines an imaging range. When checking the scanogram, if the subject's body is bent or deviated from the center of rotation of the gantry, the operator should move from the operation room to the examination room and adjust the position of the subject. ing.
しかしながら病院によっては、1日に20〜30人の検査を実施しており、操作者の検査室への出入りは検査のワークフローにおいて障害となる可能性がある。また被検体の位置を調整した後、操作者は再び検査室から操作室に移動し、再度スキャノ像の撮影を行うため、被検体の被ばく量が増える。特に、経験の浅い操作者にとっては、灯光器を用いた目視による位置決めでは回転中心に合わないことがあり、頭部の位置決めの際には、被検体の目にレーザーが当たるリスクもある。 However, depending on the hospital, 20 to 30 people are inspected per day, and entry / exit of the operator into the inspection room may be an obstacle in the inspection workflow. Further, after adjusting the position of the subject, the operator moves again from the examination room to the operation room and again takes a scano image, so the exposure amount of the subject increases. In particular, for an inexperienced operator, visual positioning using a lamp may not be aligned with the center of rotation, and there is a risk that the subject's eyes will be hit with a laser when the head is positioned.
特許文献1には、被検体の中心位置がスキャンセンタからずれたか否かを検出し、操作者に報知するX線CT装置が開示されている。また特許文献2には、X線の推定曝射範囲の画像と被検体の画像とを重ねて表示させることで、被検体の位置決めを容易にするX線CT装置が開示されている。しかしながら、操作者による作業が多く、かつ被検体への被曝を低減するため、さらなる改善が求められている。 Patent Document 1 discloses an X-ray CT apparatus that detects whether or not the center position of a subject has shifted from a scan center and notifies an operator. Patent Document 2 discloses an X-ray CT apparatus that facilitates positioning of a subject by displaying an image of an estimated X-ray exposure range and a subject image in an overlapping manner. However, further work is required by the operator, and further improvement is required to reduce exposure to the subject.
発明が解決しようとする課題は、天板上での被検体の傾きを警告し、また、被検体の特徴部位が撮影手段の撮影位置にくるように天板の移動量を算出して、天板を移動可能にする医用画像診断装置を提供することにある。 The problem to be solved by the invention is to warn of the inclination of the subject on the top, and to calculate the amount of movement of the top so that the characteristic part of the subject comes to the imaging position of the imaging means. An object of the present invention is to provide a medical image diagnostic apparatus that allows a plate to move.
実施形態に係る医用画像診断装置は、被検体を載置する天板を備えた寝台と、前記被検体の医用画像を収集する撮影手段を含むガントリと、前記被検体の光学画像を取得する画像取得部と、前記光学画像に基づいて、前記被検体の特徴部位の3次元的な位置情報を取得する位置算出部と、前記特徴部位の位置情報に基づいて、前記天板に対する前記被検体の傾き量を求め、求めた前記傾き量に基づいて警告の要否を判断する判断部と、前記判断部で、警告要と判断されたときに警告を出力する警告部と、を備える。 The medical image diagnostic apparatus according to the embodiment includes a bed provided with a top plate on which a subject is placed, a gantry including an imaging unit that collects a medical image of the subject, and an image that acquires an optical image of the subject. An acquisition unit; a position calculation unit that acquires three-dimensional position information of the characteristic part of the subject based on the optical image; and a position of the subject relative to the top plate based on the position information of the characteristic part. A determination unit that determines an amount of inclination and determines whether or not a warning is necessary based on the calculated amount of inclination, and a warning unit that outputs a warning when the determination unit determines that a warning is necessary.
以下、発明を実施するための実施形態について、図面を参照して説明する。尚、各図において同一箇所については同一の符号を付す。 Embodiments for carrying out the invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected about the same location.
(第1の実施形態)
図1は本発明の一実施形態に係る医用画像診断装置の全体構成を示す側面図(a)と正面図(b)である。以下の説明では、医用画像診断装置としてX線CT装置を例に説明する。
(First embodiment)
FIG. 1 is a side view (a) and a front view (b) showing an overall configuration of a medical image diagnostic apparatus according to an embodiment of the present invention. In the following description, an X-ray CT apparatus will be described as an example of a medical image diagnostic apparatus.
図1において、X線CT装置100は、ガントリ10を有している。ガントリ10内には回転部が設けられ、回転部内には、X線管とX線検出器が対向して配置されており、回転部の中心部分は開口し、開口部11に寝台の天板15(点線で示す)が挿入可能になっている。尚、ガントリ10の回転部の回転中心をSで示す。以下の説明では、Sを「ガントリ10の回転中心S」と称す。 In FIG. 1, the X-ray CT apparatus 100 has a gantry 10. A rotator is provided in the gantry 10, and an X-ray tube and an X-ray detector are arranged to face each other in the rotator, the central portion of the rotator is opened, and the top plate of the bed is opened in the opening 11. 15 (indicated by a dotted line) can be inserted. The rotation center of the rotating part of the gantry 10 is indicated by S. In the following description, S is referred to as “the rotation center S of the gantry 10”.
ガントリ10の開口部11の周囲には特徴部位検出部24と、3次元情報検出部25と、表示部26、及び操作パネル27を備えている。これらの詳細については後述する。ガントリ10は、チルト制御部(後述)によって傾斜することができる。 Around the opening 11 of the gantry 10, a characteristic site detection unit 24, a three-dimensional information detection unit 25, a display unit 26, and an operation panel 27 are provided. Details of these will be described later. The gantry 10 can be tilted by a tilt control unit (described later).
図2は、ガントリ10をチルトさせた状態を示している。図2では、前方向に傾斜させた状態を示しているが、後方にも傾斜することができる。 FIG. 2 shows a state where the gantry 10 is tilted. Although FIG. 2 shows a state in which it is tilted forward, it can also be tilted backward.
図3は一実施形態に係るX線CT装置100の全体構成を示すブロック図である。図3において、X線CT装置100は、ガントリ10を有している。ガントリ10内には、開口部11の外周に回転部12が設けられ、回転部12は回転機構によって回転する。回転部12には、X線管13と、X線検出器14が対向して配置されている。また開口部11には寝台の天板15に載置された被検体Pが挿入される。 FIG. 3 is a block diagram showing the overall configuration of the X-ray CT apparatus 100 according to one embodiment. In FIG. 3, the X-ray CT apparatus 100 has a gantry 10. In the gantry 10, a rotating part 12 is provided on the outer periphery of the opening 11, and the rotating part 12 is rotated by a rotating mechanism. An X-ray tube 13 and an X-ray detector 14 are disposed facing the rotating unit 12. A subject P placed on the couch top 15 is inserted into the opening 11.
被検体Pを透過したX線はX線検出器14で電気信号に変換され、データ収集部16で増幅され、デジタルデータに変換される。このデジタルデータは、データ伝送装置17を介して投影データとして操作コンソール30(後述)に伝送される。X線検出器14は、多数のX線検出素子が被検体Pの体軸方向(スライス方向)及び体幅方向(チャンネル方向)にマトリクス状に配列されており、スライス方向に配列された検出器列毎に投影データを収集する。X線管13及びX線検出器14は、被検体Pの医用画像を収集する撮影手段を構成する。 X-rays that have passed through the subject P are converted into electrical signals by the X-ray detector 14, amplified by the data acquisition unit 16, and converted into digital data. This digital data is transmitted as projection data to the operation console 30 (described later) via the data transmission device 17. The X-ray detector 14 includes a number of X-ray detection elements arranged in a matrix in the body axis direction (slice direction) and body width direction (channel direction) of the subject P, and the detector arranged in the slice direction. Collect projection data for each column. The X-ray tube 13 and the X-ray detector 14 constitute imaging means for collecting medical images of the subject P.
また、ガントリ10にはガントリ制御部18、スリップリング19、チルト制御部20を設けている。ガントリ制御部18は回転部12の回転を制御する。天板15は、寝台21に設けた寝台駆動装置22によってガントリ10の開口部11に進退可能であり、かつ寝台21(天板15)の高さ位置を調整することができる。寝台駆動装置22には寝台制御部23から駆動信号が供給される。 The gantry 10 is provided with a gantry control unit 18, a slip ring 19, and a tilt control unit 20. The gantry control unit 18 controls the rotation of the rotating unit 12. The couchtop 15 can be moved back and forth to the opening 11 of the gantry 10 by a couch drive device 22 provided on the couch 21, and the height position of the couch 21 (top plate 15) can be adjusted. A driving signal is supplied from the bed control unit 23 to the bed driving device 22.
寝台21には、天板15のスライス方向(被検体Pの体軸方向)の位置を電気的に検出する検出器を備えており、寝台21は寝台制御部23に対して寝台の位置情報を送る。したがって、回転部12の回転と天板15の移動によって連続スキャンが可能であり、連続スキャンにより多方向の投影データを時系列的に収集することができる。 The bed 21 includes a detector that electrically detects the position of the top plate 15 in the slice direction (the body axis direction of the subject P), and the bed 21 provides the position information of the bed to the bed control unit 23. send. Therefore, continuous scanning is possible by the rotation of the rotating unit 12 and the movement of the top 15, and multidirectional projection data can be collected in time series by continuous scanning.
さらに、ガントリ10の開口部11の周囲には、被検体の光学画像を取得する画像取得部(特徴部位検出部24と3次元情報検出部25で成る)と、表示部26、及び操作パネル27を備えている。特徴部位検出部24は、例えばカメラであり、以下、カメラ24として説明する。 Further, around the opening 11 of the gantry 10, an image acquisition unit (consisting of a characteristic part detection unit 24 and a three-dimensional information detection unit 25) that acquires an optical image of the subject, a display unit 26, and an operation panel 27. It has. The feature part detection unit 24 is a camera, for example, and will be described as the camera 24 below.
またX線CT装置100は、操作コンソール30を備えている。操作コンソール30は、コンピュータシステムを構成するもので、前処理部31を有し、データ伝送装置17からのデータが前処理部31に送られる。前処理部31では、信号強度の補正や信号欠落の補正等の処理を行い、投影データをバスライン301上に出力する。バスライン301にはシステム制御部32が接続されている。 The X-ray CT apparatus 100 includes an operation console 30. The operation console 30 constitutes a computer system and has a preprocessing unit 31, and data from the data transmission device 17 is sent to the preprocessing unit 31. The preprocessing unit 31 performs processing such as correction of signal intensity and correction of signal loss, and outputs projection data on the bus line 301. A system control unit 32 is connected to the bus line 301.
システム制御部32には、入力部33が接続されている。またバスライン301には、データ記憶部34、再構成処理部35、画像処理部36、表示手段37及びネットワークインタフェース(I/F)38が接続されている。またシステム制御部32は高電圧発生部39に接続されている。 An input unit 33 is connected to the system control unit 32. In addition, a data storage unit 34, a reconstruction processing unit 35, an image processing unit 36, a display unit 37, and a network interface (I / F) 38 are connected to the bus line 301. The system control unit 32 is connected to a high voltage generation unit 39.
システム制御部32(制御部)は、ホストコントローラとして機能し、CPUやROMを含み、操作コンソール30の各部の動作や、ガントリ制御部18、チルト制御部20、寝台制御部23、高電圧発生部39を制御する。さらにシステム制御部32には、被検体Pの3次元的な位置を検出するために、カメラ24で撮影した被検体Pの画像が入力されるとともに3次元情報検出部25から被検体Pの3次元情報が入力される。さらにシステム制御部32は、操作パネル27からの情報が入力され、かつ表示部26に表示情報を出力する。 The system control unit 32 (control unit) functions as a host controller and includes a CPU and a ROM. The operation of each unit of the operation console 30, the gantry control unit 18, the tilt control unit 20, the bed control unit 23, and the high voltage generation unit 39 is controlled. Further, in order to detect the three-dimensional position of the subject P, the system control unit 32 receives an image of the subject P photographed by the camera 24 and 3D of the subject P from the three-dimensional information detection unit 25. Dimension information is input. Further, the system control unit 32 receives information from the operation panel 27 and outputs display information to the display unit 26.
入力部33はキーボード、マウス等を有し、技師等の操作者によって操作され、データ処理する上で各種の設定を行う。また、入力部33は被検体の状態や検査方法等の各種情報を入力したり、マウス操作により検査部位の設定を行う。 The input unit 33 includes a keyboard, a mouse, and the like, and is operated by an operator such as an engineer to perform various settings for data processing. The input unit 33 also inputs various information such as the state of the subject and the examination method, and sets the examination site by operating the mouse.
データ記憶部34は、収集した投影データから得た断層画像データ(生データ)を記憶する。再構成処理部35は、データ記憶部34に記憶した断層画像データから関心領域或いは関心臓器を抽出し、3D画像データ等を再構成する。画像処理部36は、再構成処理部35で再構成した画像を処理して、表示手段37へ表示用の画像を出力する。 The data storage unit 34 stores tomographic image data (raw data) obtained from the collected projection data. The reconstruction processing unit 35 extracts a region of interest or an organ of interest from the tomographic image data stored in the data storage unit 34, and reconstructs 3D image data and the like. The image processing unit 36 processes the image reconstructed by the reconstruction processing unit 35 and outputs a display image to the display unit 37.
表示手段37は、画像処理部36によって得られた各種の画像等を表示する。高電圧発生部39は、スリップリング19を介してX線管13に電力を供給し、X線の曝射に必要な電力(管電圧、管電流)を与える。X線管13は、被検体Pの体軸方向に平行なスライス方向と、それに直交するチャンネル方向の2方向に広がるビームX線を発生する。 The display unit 37 displays various images obtained by the image processing unit 36. The high voltage generator 39 supplies power to the X-ray tube 13 via the slip ring 19 and supplies power (tube voltage and tube current) necessary for X-ray exposure. The X-ray tube 13 generates beam X-rays that spread in two directions: a slice direction parallel to the body axis direction of the subject P and a channel direction perpendicular thereto.
また、バスライン301にはネットワークインタフェース(I/F)38が接続されている。システム制御部32は、バスライン301及びI/F38を介してネットワークに接続され、例えばRISやHISに接続された管理サーバ、オーダ発行サーバ等と通信を行う。 A network interface (I / F) 38 is connected to the bus line 301. The system control unit 32 is connected to the network via the bus line 301 and the I / F 38, and communicates with, for example, a management server, order issue server, and the like connected to RIS and HIS.
図4は、本実施形態の主要部を構成する位置設定部40を示すブロック図である。位置設定部40は、システム制御部32内に設けられ、カメラ24からの画像、3次元情報検出部25からの3次元情報、及び操作パネル27からの情報が入力され、かつ表示部26に警告(メッセージを含む)の表示を行う。 FIG. 4 is a block diagram showing a position setting unit 40 that constitutes a main part of the present embodiment. The position setting unit 40 is provided in the system control unit 32, receives an image from the camera 24, three-dimensional information from the three-dimensional information detection unit 25, and information from the operation panel 27, and warns the display unit 26. (Including message) is displayed.
位置設定部40は、システム制御部32(制御部)の制御のもとに天板15上の被検体の位置を設定するものであり、検査情報取得部41、3次元情報検出部25、カメラ42、位置算出部43、移動量算出部44、チルト角算出部45を備え、位置算出部43は表示部26に接続している。また移動量算出部44とチルト角算出部45は、駆動部46に接続されている。駆動部46は、寝台21及びガントリ10を駆動し、寝台21の高さ、天板15の水平位置、ガントリ10のチルト角を制御するものであり、駆動部46は、チルト制御部20と寝台駆動装置22及び寝台制御部23を含む。 The position setting unit 40 sets the position of the subject on the top 15 under the control of the system control unit 32 (control unit), and includes an examination information acquisition unit 41, a three-dimensional information detection unit 25, and a camera. 42, a position calculation unit 43, a movement amount calculation unit 44, and a tilt angle calculation unit 45, and the position calculation unit 43 is connected to the display unit 26. The movement amount calculation unit 44 and the tilt angle calculation unit 45 are connected to the drive unit 46. The drive unit 46 drives the bed 21 and the gantry 10 and controls the height of the bed 21, the horizontal position of the top plate 15, and the tilt angle of the gantry 10. The drive unit 46 includes the tilt control unit 20 and the bed. A driving device 22 and a bed control unit 23 are included.
図5は、位置設定部40の動作を概略的に説明するフローチャートである。図5において、ステップS1で検査情報取得部41は、技師が入手した検査情報や、CT検査予約情報から位置決め部位(頭部、胸部等)の情報を取得する。検査情報取得部41は、例えばRIS又はHISから予約情報を取得することができる。ステップS2で、3次元情報検出部25は、寝台21上に寝ている被検体の3次元情報を検出する。3次元情報には、頭部、胸部、腹部等の(ピクセルごとの)座標が含まれる。 FIG. 5 is a flowchart for schematically explaining the operation of the position setting unit 40. In FIG. 5, in step S <b> 1, the examination information acquisition unit 41 acquires information on positioning parts (head, chest, etc.) from examination information obtained by a technician and CT examination reservation information. The examination information acquisition unit 41 can acquire reservation information from, for example, RIS or HIS. In step S <b> 2, the three-dimensional information detection unit 25 detects three-dimensional information of the subject sleeping on the bed 21. The three-dimensional information includes coordinates (for each pixel) such as the head, chest, and abdomen.
ステップS3で、特徴部位抽出部42は、カメラ24の画像及び3次元情報検出部25からの3次元情報をもとに、位置決めに必要な特徴部位、例えば、耳の形、OMライン(眼窩中心と外耳孔の中心を結ぶ眼窩外耳孔線: Orbitomeatal line)、頸部や両肩の位置などを抽出する。ステップS4で、位置算出部43は、カメラ24及び3次元情報検出部25で取得した光学画像に基づいて、被検体の特徴部位の3次元的な位置情報を取得し、特徴部位のガントリ10に対する相対的な座標を算出する。 In step S3, the feature part extraction unit 42, based on the image of the camera 24 and the three-dimensional information from the three-dimensional information detection unit 25, the feature parts necessary for positioning, such as an ear shape, an OM line (orbital center) Orbital outer ear line connecting the center of the outer ear canal and the position of the neck and both shoulders. In step S <b> 4, the position calculation unit 43 acquires the three-dimensional position information of the characteristic part of the subject based on the optical images acquired by the camera 24 and the three-dimensional information detection unit 25, and the characteristic part with respect to the gantry 10. Calculate relative coordinates.
ステップS5で、移動量算出部44は、被検体Pを位置決めしたあとの特徴部位とガントリ10の相対的な座標が0となるために必要な寝台21の移動量を算出する。つまり、位置算出部43で算出した座標をもとに、被検体Pをガントリ10に対して位置合わせするに必要な天板15の移動量を算出する。移動量算出部44は、算出した移動量をもとに駆動部46を制御し、寝台(天板)の位置を制御する。 In step S <b> 5, the movement amount calculation unit 44 calculates the movement amount of the bed 21 that is necessary for the relative coordinates of the characteristic part after positioning the subject P and the gantry 10 to be zero. That is, based on the coordinates calculated by the position calculation unit 43, the amount of movement of the top 15 necessary to align the subject P with the gantry 10 is calculated. The movement amount calculation unit 44 controls the drive unit 46 based on the calculated movement amount, and controls the position of the bed (top plate).
ステップS6で、チルト角算出部45は、特徴部位抽出部42が抽出したOMラインを基に、ガントリ10の最適なチルト角を算出して提示する。チルト角算出部45は、算出したチルト角をもとに駆動部46を制御し、ガントリ10の傾斜角を制御する。そしてステップS7では、位置算出部43が算出した座標を基に、表示部26に、体の曲がり具合が大きい場合等に警告やメッセージを表示する。 In step S <b> 6, the tilt angle calculation unit 45 calculates and presents the optimum tilt angle of the gantry 10 based on the OM line extracted by the feature part extraction unit 42. The tilt angle calculation unit 45 controls the drive unit 46 based on the calculated tilt angle and controls the tilt angle of the gantry 10. In step S7, based on the coordinates calculated by the position calculation unit 43, a warning or message is displayed on the display unit 26 when the degree of bending of the body is large.
以下、位置設定部40の動作を具体的に説明する。検査情報取得部41は、技師が入手した検査情報やCT検査予約情報をもとに、主に、位置決め部位(頭部、胸部等)の情報を取得する。取得先は、RIS,HISなどの情報システムである。或いは、操作者が検査開始時に入力した情報を取得する。 Hereinafter, the operation of the position setting unit 40 will be specifically described. The examination information acquisition unit 41 mainly acquires information on positioning parts (head, chest, etc.) based on the examination information and CT examination reservation information obtained by the technician. The acquisition destination is an information system such as RIS or HIS. Alternatively, information input by the operator at the start of the inspection is acquired.
図6は、操作コンソール30の表示手段37での予約情報取得画面を示している。予約情報取得画面をマウスで操作することにより、例えばRISやHISに接続された管理サーバ或いはオーダ発行サーバ等と通信を行い、被検体名、被検体IDをもとに検査予定日や検査開始時刻の情報を取得することができる。また検査予約情報を取得することで検査部位がどこであるかを知ることができる。 FIG. 6 shows a reservation information acquisition screen on the display means 37 of the operation console 30. By operating the reservation information acquisition screen with a mouse, for example, it communicates with a management server or order issuing server connected to RIS or HIS, etc., and the scheduled examination date and examination start time based on the subject name and subject ID Information can be acquired. In addition, it is possible to know where the examination site is by acquiring examination reservation information.
3次元情報検出部25は、寝台21上で寝ている被検体の3次元情報を検出する。3次元情報には、頭部、胸部、腹部等の(ピクセルごとの)座標が含まれる。3次元情報検出部25としては、例えばKinect(登録商標)、Leap(登録商標)等の市販のセンサを利用することができる。 The three-dimensional information detection unit 25 detects the three-dimensional information of the subject sleeping on the bed 21. The three-dimensional information includes coordinates (for each pixel) such as the head, chest, and abdomen. As the three-dimensional information detection unit 25, for example, a commercially available sensor such as Kinect (registered trademark) or Leap (registered trademark) can be used.
図7は、3次元情報検出部25の一例を示すブロック図であり、例えば、Kinect(登録商標)のセンサを用いた例を示す。3次元情報検出部25は、ガントリ10の開口部11の上部(図1参照)に取り付けられ、天板15の上の被検体Pを検知し、被検体の動作情報と被検体Pを撮影した動画情報を収集する。Kinect(登録商標)は、人の動きを認識するものであり、RGBカラー・カメラ、深度センサ、マイクアレイ等を含み、カメラに被検体を映すことで、被検体までの距離を計測し、被検体の骨格の様々な動きを検出することができる。 FIG. 7 is a block diagram illustrating an example of the three-dimensional information detection unit 25. For example, an example using a Kinect (registered trademark) sensor is illustrated. The three-dimensional information detection unit 25 is attached to the upper part of the opening 11 of the gantry 10 (see FIG. 1), detects the subject P on the top plate 15, and images the subject's operation information and the subject P. Collect video information. Kinect (registered trademark) recognizes human movement, and includes RGB color cameras, depth sensors, microphone arrays, etc., and measures the distance to the subject by projecting the subject on the camera. Various movements of the skeleton of the specimen can be detected.
図7において、3次元情報検出部25は、カラー画像収集部51と、距離画像収集部52と、情報生成部53とを有する。カラー画像収集部51は、RGBカラー・カメラを含み、天板15上の被検体Pを撮影し、カラー画像情報を収集する。例えば、被検体Pの表面で反射される光を受光素子(例えばCMOSやCCD)で検知し、可視光を電気信号に変換する。そして、電気信号をデジタルデータに変換することにより、撮影範囲に対応する1フレームのカラー画像情報を生成する。 In FIG. 7, the three-dimensional information detection unit 25 includes a color image collection unit 51, a distance image collection unit 52, and an information generation unit 53. The color image collection unit 51 includes an RGB color camera, photographs the subject P on the top board 15, and collects color image information. For example, light reflected on the surface of the subject P is detected by a light receiving element (for example, CMOS or CCD), and visible light is converted into an electrical signal. Then, by converting the electrical signal into digital data, one frame of color image information corresponding to the shooting range is generated.
この1フレーム分のカラー画像情報には、例えば、撮影時刻情報と、この1フレームに含まれる各画素にRGB値が対応付けられた情報とが含まれる。カラー画像収集部51は、次々に検知される可視光から連続する複数フレームのカラー画像情報を生成することで、撮影範囲を撮影する。 The color image information for one frame includes, for example, shooting time information and information in which an RGB value is associated with each pixel included in the one frame. The color image collection unit 51 captures a photographing range by generating color image information of a plurality of continuous frames from visible light detected one after another.
距離画像収集部52は、被検体Pを撮影し距離画像情報を収集する。距離画像収集部52は、例えば、赤外線を周囲に照射し、照射波が被検体の表面で反射された反射波を受光素子(例えばCMOSやCCD)で検知する。そして、照射波とその反射波との位相差や、照射から検知までの時間に基づいて、被検体との距離を求め、撮影範囲に対応する1フレームの距離画像情報を生成する。 The distance image collection unit 52 photographs the subject P and collects distance image information. For example, the distance image collection unit 52 irradiates the surroundings with infrared rays and detects a reflected wave obtained by reflecting the irradiation wave on the surface of the subject with a light receiving element (for example, CMOS or CCD). Then, based on the phase difference between the irradiation wave and the reflected wave and the time from irradiation to detection, the distance to the subject is obtained, and one frame of distance image information corresponding to the imaging range is generated.
1フレーム分の距離画像情報には、例えば、撮影時刻情報と、撮影範囲に含まれる各画素に対応する被検体との距離情報とが含まれる。距離画像収集部52は、次々に検知される反射波から連続する複数フレームの距離画像情報を生成することで、撮影範囲を撮影する。距離画像収集部52によって算出される距離の単位は、例えば、メートル[m]である。 The distance image information for one frame includes, for example, imaging time information and distance information with respect to the subject corresponding to each pixel included in the imaging range. The distance image collection unit 52 captures an imaging range by generating distance image information of a plurality of continuous frames from reflected waves detected one after another. The unit of distance calculated by the distance image collection unit 52 is, for example, meters [m].
情報生成部53は、被検体Pの情報を生成する。概略的に説明すると、情報生成部53は、人体パターンを用いたパターンマッチングにより、距離画像収集部52によって生成される距離画像情報から、人体の骨格を形成する各関節の座標を得る。距離画像情報から得られた各関節の座標は、距離画像の座標系(以下、「距離画像座標系」と呼ぶ)で表される値である。 The information generation unit 53 generates information on the subject P. In brief, the information generation unit 53 obtains the coordinates of each joint forming the skeleton of the human body from the distance image information generated by the distance image collection unit 52 by pattern matching using a human body pattern. The coordinates of each joint obtained from the distance image information are values represented by a distance image coordinate system (hereinafter referred to as “distance image coordinate system”).
情報生成部53は、次に、距離画像座標系における各関節の座標を、天板15上の被検体Pがいる3次元空間の座標系(以下、「世界座標系」と呼ぶ)で表される値に変換する。この世界座標系で表される各関節の座標が、1フレーム分の骨格情報となる。また、複数フレーム分の骨格情報が3次元の情報となる。 Next, the information generation unit 53 represents the coordinates of each joint in the distance image coordinate system in a three-dimensional space coordinate system (hereinafter referred to as “world coordinate system”) where the subject P on the top 15 is located. Converted to a value. The coordinates of each joint represented in this world coordinate system become the skeleton information for one frame. Also, the skeleton information for a plurality of frames becomes three-dimensional information.
図8(a)は、3次元情報検出部25から被検体Pまでの距離を白黒の濃淡で表現した図を示している。図8(b)は、3次元情報検出部25によって得られる全身の骨格情報を示している。骨格情報は、各関節の座標情報を含んでいる。 FIG. 8A shows a diagram expressing the distance from the three-dimensional information detection unit 25 to the subject P in black and white. FIG. 8B shows whole body skeleton information obtained by the three-dimensional information detection unit 25. The skeleton information includes coordinate information of each joint.
図8(b)において、複数の黒丸(a〜t)は、頭部から両肩、腰、左右の肘、左右の手首、左右の臀部、左右の膝、左右の足首、左右の足根などの関節部分を示す。3次元情報検出部25は、被検体Pの骨格を形成する各関節の座標情報をもとに骨格情報を取得する。また各関節の位置の変化を算出することで被検体Pの動き、つまりモーション情報を得ることができる。 In FIG. 8 (b), a plurality of black circles (at) are from the head to both shoulders, waist, left and right elbows, left and right wrists, left and right buttocks, left and right knees, left and right ankles, left and right tarsals The joint part is shown. The three-dimensional information detection unit 25 acquires skeleton information based on the coordinate information of each joint forming the skeleton of the subject P. In addition, the movement of the subject P, that is, motion information can be obtained by calculating the change in the position of each joint.
特徴部位抽出部42は、検査情報取得部41で入手した検査予約情報をもとに被検体の位置決め部位(頭部、胸部等)を指定する。また3次元情報検出部25からの3次元情報及びカメラ24の撮影画像をもとに、位置決めに必要な特徴部位、例えば、頭部検査の場合は、外耳孔、OMライン、両方の目、顔の輪郭などを抽出する。胸部検査の場合は、肩の骨格点、腹部の骨格点、胸の中心点などを抽出する。 The feature part extraction unit 42 designates the positioning part (head, chest, etc.) of the subject based on the examination reservation information obtained by the examination information acquisition part 41. Further, on the basis of the three-dimensional information from the three-dimensional information detection unit 25 and the captured image of the camera 24, a characteristic part necessary for positioning, for example, in the case of a head examination, the external ear hole, the OM line, both eyes, the face Extract the outline of the. In the case of a chest examination, shoulder skeleton points, abdominal skeleton points, breast center points, and the like are extracted.
図9は、3次元情報検出部25によって得た全身の骨格情報及び顔の輪郭情報と、カメラ24によって被検体Pの耳部を撮影した画像とを処理してOMラインを抽出する動作説明図である。図9(a)は、カメラ24で撮影した耳部の画像であり、(b)は、色や距離の情報もとに画像を2値化したものである。そして特徴部位抽出部42は、(c)で示すように外耳孔を抽出する。 FIG. 9 is an operation explanatory diagram for extracting an OM line by processing the whole body skeleton information and facial contour information obtained by the three-dimensional information detection unit 25 and an image obtained by photographing the ear part of the subject P by the camera 24. It is. FIG. 9A is an ear image captured by the camera 24, and FIG. 9B is a binarized image based on color and distance information. And the characteristic part extraction part 42 extracts an outer ear hole as shown in (c).
また特徴部位抽出部42は、図9(d)に示すように、3次元情報検出部25によって得た顔の骨格情報(d1)をもとに、顔の輪郭情報(d2)を生成する。そして、特徴部位抽出部42は、図9(e)に示すように眼窩中心と外耳孔の中心を結ぶOMラインを抽出する。 Further, as shown in FIG. 9D, the feature part extraction unit 42 generates face contour information (d2) based on the face skeleton information (d1) obtained by the three-dimensional information detection unit 25. Then, the feature part extraction unit 42 extracts an OM line connecting the center of the orbit and the center of the ear canal as shown in FIG.
位置算出部43は、3次元情報検出部25の取り付け位置の情報を基に、特徴部位抽出部42が抽出した特徴部位の、ガントリ10の回転中心Sに対する座標(特徴部位座標)を算出する。3次元情報検出部25の取り付け位置は、図1に示すように予め設定されており、取り付け位置の情報も例えばデータ記憶部34に記憶されている。したがって、
特徴部位の座標(X,Y,Z)=回転中心Sに対する3次元情報検出部25の取付位置の座標(X0,Y0,Z0)+3次元情報検出部25に対する特徴部位の座標(X1,Y1,Z1)
となる。
The position calculation unit 43 calculates the coordinates (feature part coordinates) of the feature part extracted by the feature part extraction unit 42 with respect to the rotation center S of the gantry 10 based on the information on the attachment position of the three-dimensional information detection unit 25. The attachment position of the three-dimensional information detection unit 25 is set in advance as shown in FIG. 1, and information on the attachment position is also stored in, for example, the data storage unit 34. Therefore,
Feature part coordinates (X, Y, Z) = Coordinates of attachment position of the three-dimensional information detection unit 25 with respect to the rotation center S (X0, Y0, Z0) + Coordinates of feature parts with respect to the three-dimensional information detection unit 25 (X1, Y1, Z1)
It becomes.
また位置算出部43は、判断部431を含み、判断部431は特徴部位抽出部42が抽出した特徴部位の情報をもとに、天板15上での被検体の傾き量を算出する。被検体Pは、通常状態では、頭部から足の先端に向かう体軸が天板15の長手方向の軸と平行になるように載置されるが、体軸が天板15の長手方向の軸に対して傾斜することがある。天板15上での被検体の傾きは、例えば特徴部位抽出部42が抽出した両肩の骨格点を結ぶ線や、両方の目と目を結ぶ線などをマークにして、天板15の長手方向の軸に対してマークとなる線が直交しているか否かを判断して傾きを検出する。また判断部43は、被検体の傾き量をもとに警告を表示するか否かを判断し、直交すべき線が予め設定した角度以上に傾いたときは、表示部26に警告を表示する。 The position calculation unit 43 includes a determination unit 431, and the determination unit 431 calculates the amount of inclination of the subject on the top 15 based on the information on the characteristic part extracted by the characteristic part extraction unit 42. In a normal state, the subject P is placed so that the body axis from the head to the tip of the foot is parallel to the longitudinal axis of the top plate 15. May tilt with respect to the axis. The inclination of the subject on the top 15 is determined by using, for example, a line connecting the skeletal points of both shoulders extracted by the feature part extraction unit 42 or a line connecting both eyes and the eye, and the like. The inclination is detected by determining whether or not the line to be marked is orthogonal to the direction axis. Further, the determination unit 43 determines whether or not to display a warning based on the tilt amount of the subject, and displays a warning on the display unit 26 when the line to be orthogonally tilted more than a preset angle. .
移動量算出部44は、回転中心Sと特徴部位の相対的な座標がゼロとなるために必要な寝台の移動量を算出する。図10(a)は、頭部の位置決めを示す説明図である。頭部の位置決めでは、外耳孔の中心とガントリ10の回転中心Sとを位置合わせする。このため、被検体Pの外耳孔の中心がガントリ10の回転中心Sに対してずれているときは、算出した移動量をもとに例えば、図10(b)に示すように、「寝台を495mm上方向に、1351mm奥方向に移動して下さい」といったメッセージを表示部26に表示する。 The movement amount calculation unit 44 calculates the movement amount of the bed necessary for the relative coordinates of the rotation center S and the characteristic part to be zero. FIG. 10A is an explanatory diagram showing positioning of the head. In positioning the head, the center of the outer ear hole and the rotation center S of the gantry 10 are aligned. Therefore, when the center of the outer ear hole of the subject P is deviated from the rotation center S of the gantry 10, for example, as shown in FIG. The message “Please move 495 mm upward and 1351 mm deep” is displayed on the display unit 26.
また移動量算出部44は、外耳孔の中心とガントリ10の回転中心Sの位置が合うように、最適な寝台位置を算出して操作パネル27に表示してもよい。図11(a)は、操作パネル27上に表示される寝台位置の数値を示す説明図である。操作パネル27には、ガントリ10のチルト角度、寝台の高さ位置、及び天板15の水平動位置の数値が表示される。また表示部26には、図11(b)に示すように、例えば、「寝台高さを1105mmに、天板水平動位置を245mmに合わせてください。」といったメッセージが表示される。操作者は、操作パネル27や表示部26に表示された数値を入力部33又は操作パネル27に入力して駆動部46を駆動して、寝台21の高さや天板15の水平動位置を移動することにより、被検体の外耳孔の中心とガントリ10の回転中心Sを合わせることができる。 Further, the movement amount calculation unit 44 may calculate an optimal couch position and display it on the operation panel 27 so that the center of the outer ear hole and the rotation center S of the gantry 10 are aligned. FIG. 11A is an explanatory diagram showing numerical values of the bed position displayed on the operation panel 27. On the operation panel 27, numerical values of the tilt angle of the gantry 10, the height position of the bed, and the horizontal movement position of the top 15 are displayed. Further, as shown in FIG. 11B, for example, a message such as “Set the bed height to 1105 mm and the top plate horizontal movement position to 245 mm” is displayed on the display unit 26. The operator inputs the numerical value displayed on the operation panel 27 or the display unit 26 to the input unit 33 or the operation panel 27 and drives the drive unit 46 to move the height of the bed 21 or the horizontal movement position of the top 15. By doing so, the center of the outer ear hole of the subject and the rotation center S of the gantry 10 can be matched.
チルト角算出部45は、特徴部位抽出部が抽出したOMラインを基に、ガントリ10の最適なチルト角を提示する。図12(a)はガントリ10が垂直方向に直立し、OMラインに対して所定の角度がある状態を示している。チルト角算出部45は、図12(b)に示すように、表示部26に、例えば「ガントリを12度チルトしてください」といったメッセージを表示する。操作者は表示部26に表示された角度情報をもとに入力部33又は操作パネル27にチルト角度を入力して、駆動部46を駆動してガントリ10のチルト角度を制御する。図12(c)は、ガントリ10のチルト角度が制御された状態を示している。チルト角度とOMラインの角度が一致することで、被検体Pの目にX線が直接当たるのを防ぐことができる。 The tilt angle calculation unit 45 presents the optimum tilt angle of the gantry 10 based on the OM line extracted by the feature part extraction unit. FIG. 12A shows a state in which the gantry 10 stands upright in the vertical direction and has a predetermined angle with respect to the OM line. As shown in FIG. 12B, the tilt angle calculation unit 45 displays a message such as “Tilt the gantry 12 degrees” on the display unit 26. The operator inputs a tilt angle to the input unit 33 or the operation panel 27 based on the angle information displayed on the display unit 26 and drives the drive unit 46 to control the tilt angle of the gantry 10. FIG. 12C shows a state in which the tilt angle of the gantry 10 is controlled. By matching the tilt angle and the angle of the OM line, it is possible to prevent the X-ray from directly hitting the eye of the subject P.
表示部26は、特徴部位座標算出部45が算出した座標を基に、体の曲がり具合が大きい場合などに警告、メッセージを表示する。 The display unit 26 displays a warning and a message based on the coordinates calculated by the feature part coordinate calculation unit 45 when the degree of bending of the body is large.
図13(a)は、被検体Pの両肩が天板15の長手方向の軸に対して垂直にある正規の状態を示し、(b)は両肩が天板15の長手方向の軸に対して垂直ではなく曲がっている(傾いている)状態を示している。被検体Pの両肩が曲がっているか否かの判断は3次元情報検出部25からの情報をもとに位置検出部43の判断部431で判断する。 FIG. 13A shows a normal state in which both shoulders of the subject P are perpendicular to the longitudinal axis of the top plate 15, and FIG. 13B shows both shoulders on the longitudinal axis of the top plate 15. On the other hand, it shows a state of being bent (tilted) rather than vertical. Whether or not both shoulders of the subject P are bent is determined by the determination unit 431 of the position detection unit 43 based on information from the three-dimensional information detection unit 25.
判断部431は、例えば、3次元情報検出部25で検出した被検体の特徴部位、例えば両肩の骨格点を結ぶ線や、両方の目と目を結ぶ線などをマーク画像60とし、マーク画像60が、天板15の長手方向の軸に対して直交しているか否かを判断する。またマーク画像60は、表示部26に表示される。そして、図13(b)に示すように、マーク画像60が天板15の長手方向の軸に対して直交せず、予め設定した角度以上に傾いたときは、表示部26に警告を表示する。 The determination unit 431 uses, for example, the characteristic part of the subject detected by the three-dimensional information detection unit 25, for example, a line connecting the skeleton points of both shoulders or a line connecting both eyes and the eye as the mark image 60, and the mark image It is determined whether 60 is orthogonal to the longitudinal axis of the top plate 15. The mark image 60 is displayed on the display unit 26. And as shown in FIG.13 (b), when the mark image 60 does not orthogonally cross with respect to the longitudinal axis of the top plate 15, but inclines more than the preset angle, a warning will be displayed on the display part 26. FIG. .
したがって、表示部26には、図13(c)で示すように、例えば「体(両肩)が曲がっています。」、「確認してください。」といったメッセージが表示される。操作者は、従来、投光器のレーザーを頼りに被検体の位置決めを行っていたが、目視では曲がっているかどうかを判断するのが難しいため、体の曲がりを警告表示することは有用である。 Therefore, as shown in FIG. 13C, for example, messages such as “the body (both shoulders are bent)” and “please confirm” are displayed on the display unit 26. Conventionally, the operator has positioned the subject by relying on the laser of the projector, but since it is difficult to determine whether or not the subject is bent visually, it is useful to display a warning about the bending of the body.
尚、警告は、図13(c)のように、表示部26に表示する形態でも良いし、音声で報知する形態、或いは表示と音声の両方で報知する形態でもよい。したがって表示部26は、警告要と判断されたときに警告を出力する警告部を構成する。また表示部26には、マーク画像60だけでなく、被検体の光学画像を表示し、光学画像上にマーク画像60を重畳して表示するようにしても良い。 As shown in FIG. 13C, the warning may be displayed on the display unit 26, may be notified by voice, or may be notified by both display and voice. Therefore, the display unit 26 constitutes a warning unit that outputs a warning when it is determined that a warning is required. The display unit 26 may display not only the mark image 60 but also an optical image of the subject, and the mark image 60 may be superimposed on the optical image.
図14(a)は、頭部の位置決めにおいて、被検体Pの外耳孔の中心がガントリ10の回転中心Sに対してずれている状態を示している。このとき、表示部26には、図14(b)で示すように、例えば「高さが中心からずれています。」といったメッセージを表示する。 FIG. 14A shows a state in which the center of the outer ear hole of the subject P is deviated from the rotation center S of the gantry 10 in positioning the head. At this time, as shown in FIG. 14B, for example, a message such as “the height is shifted from the center” is displayed on the display unit 26.
図15(a)は、ガントリ10が傾斜したときに、チルト角度とOMラインの角度が異なっている状態を示している。このとき、表示部26には、図15(b)で示すように、例えば「チルト角度が最適ではありません。」といったメッセージを表示する。 FIG. 15A shows a state where the tilt angle and the angle of the OM line are different when the gantry 10 is tilted. At this time, as shown in FIG. 15B, for example, a message “Tilt angle is not optimal” is displayed on the display unit 26.
駆動部46は、移動量算出部44及びチルト角算出部45の算出結果をもとに、被検体の位置が最適となるよう、寝台21、天板15及びガントリ10を駆動させる。 The drive unit 46 drives the bed 21, the top plate 15, and the gantry 10 so that the position of the subject is optimized based on the calculation results of the movement amount calculation unit 44 and the tilt angle calculation unit 45.
図16は、CT検査の流れを示すフローチャートである。例えばX線CT装置等のモダリティを用いて被検体を検査・診断する場合は、図16で示すようなフローチャートに従って画像処理やスキャンが実行される。 FIG. 16 is a flowchart showing the flow of CT examination. For example, when examining and diagnosing a subject using a modality such as an X-ray CT apparatus, image processing and scanning are executed according to a flowchart shown in FIG.
スキャンする場合、図16のステップS11では検査予約のために被検体登録を行い、被検体ID、氏名、性別、年齢などを入力する。ステップS12では患者(被検体)をセッティングして撮影の準備に入る。ステップS13では、撮影位置(撮影部位)を決め、エキスパートプランを選択して、スキャノ像(スキャン計画をたてるための画像)を撮影する。またスキャン計画でX線の照射時間や照射条件等を決定した後、スキャンを実行する。また必要に応じて追加のスキャンを行う。そしてスキャンによって収集した画像データは、ステップS14で画像処理される。また画像データをフィルムに印刷する場合は、ステップS15のフィルミングの処理が行われる。 When scanning, in step S11 of FIG. 16, subject registration is performed for examination reservation, and subject ID, name, gender, age, and the like are input. In step S12, a patient (subject) is set and preparation for imaging starts. In step S13, an imaging position (imaging site) is determined, an expert plan is selected, and a scanogram (an image for creating a scan plan) is captured. Further, after determining the X-ray irradiation time, irradiation conditions, and the like in the scan plan, the scan is executed. Additional scans are performed as necessary. The image data collected by scanning is subjected to image processing in step S14. When image data is printed on a film, the filming process in step S15 is performed.
患者のセッティングステップS12では、一般的に患者の検査準備、患者を寝台に固定するため固定具を寝台に装着、患者を寝台に乗せる、患者を固定する、といったステップが必要となるが、撮影条件の選択や位置決めは正確に行う必要があり、位置決めが適切でない場合、アーチファクトやCT値のずれを生じ、画像に影響が出る。また撮影中に被検体が動くとアーチファクトの原因となる。 In the patient setting step S12, it is generally necessary to perform steps such as preparation for examination of the patient, mounting of a fixture on the bed, fixing the patient on the bed, and fixing the patient to fix the patient on the bed. Selection and positioning must be performed accurately. If positioning is not appropriate, artifacts and CT value deviation occur, and the image is affected. In addition, if the subject moves during imaging, an artifact may be caused.
したがって、本実施形態のように、撮影する被検体の特徴部位の座標やOMラインを検出して自動的に寝台の高さや天板の位置を設定することにより、スキャノ画像を撮影することなく、被検体の位置決めを行うことができる。また被検体が動いた場合や、寝台の高さや天板の位置、ガントリのチルト角度が正しくないときは、操作者が検査室を出る前に認識することができる。 Therefore, as in this embodiment, by detecting the coordinates of the characteristic part of the subject to be imaged and the OM line and automatically setting the height of the bed and the position of the top plate, without taking a scano image, The subject can be positioned. In addition, when the subject moves, or when the bed height, the position of the top plate, or the tilt angle of the gantry is not correct, the operator can recognize it before leaving the examination room.
以上述べた実施形態によれば、操作者の位置決めにかかる手間を低減できる。またレーザーが被検体の目に当たるリスクを回避することができる。 According to the embodiment described above, it is possible to reduce the time and effort required for positioning the operator. Moreover, the risk that the laser hits the subject's eyes can be avoided.
尚、第1の実施形態では、被検体の撮影の基準線としてOMラインを抽出してガントリ10のチルト角を制御する例を述べたが、被検体の眼窩下縁と外耳孔上部を結ぶReid基準線(RBライン:Reid’s Base Line)を抽出してガントリ10のチルト角を制御するようにしても良い。 In the first embodiment, an example in which the OM line is extracted as a reference line for imaging of the subject and the tilt angle of the gantry 10 is controlled has been described. However, Reid that connects the lower edge of the subject's eye socket and the upper ear canal. A reference line (RB line: Reid's Base Line) may be extracted to control the tilt angle of the gantry 10.
また、以上述べた実施形態では、頭部の撮影を行う例を述べたが、他の部位を撮影することもできる。例えば、胸部の撮影では、被検体の胸部正中線を抽出し、被検体の中心位置が正中線上になるように位置決めを行って撮影をするとよい。 また以上述べた実施形態では、X線CT装置を例に説明したが、MRI装置など、被検体を天板上に位置決めして撮影する医用画像診断装置に適用することができる。 In the embodiment described above, an example of photographing the head is described, but other parts can also be photographed. For example, in chest imaging, the chest midline of the subject may be extracted and positioned so that the center position of the subject is on the midline. In the embodiment described above, the X-ray CT apparatus has been described as an example. However, the present invention can be applied to a medical image diagnostic apparatus such as an MRI apparatus that positions and images an object on a top plate.
尚、本発明のいくつかの実施形態を述べたが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 In addition, although several embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and gist of the invention.
10…ガントリ
15…天板
20…チルト制御部
21…寝台
23…寝台制御部
24…特徴部位検出部(カメラ)
25…3次元情報検出部
26…表示部(警告部)
27…操作パネル
30…操作コンソール
32…システム制御部
40…位置設定部
41…検査情報取得部
42…特徴部位抽出部
43…位置算出部
431…判断部
44…移動量算出部
45…チルト角算出部
46…駆動部
DESCRIPTION OF SYMBOLS 10 ... Gantry 15 ... Top plate 20 ... Tilt control part 21 ... Sleeper 23 ... Sleeper control part 24 ... Feature part detection part (camera)
25 ... 3D information detection unit 26 ... Display unit (warning unit)
27 ... Operation panel 30 ... Operation console 32 ... System control unit 40 ... Position setting unit 41 ... Examination information acquisition unit 42 ... Feature site extraction unit 43 ... Position calculation unit 431 ... Judgment unit 44 ... Movement amount calculation unit 45 ... Tilt angle calculation Unit 46 ... Drive unit
Claims (9)
前記被検体の医用画像を収集する撮影手段を含むガントリと、
前記被検体の光学画像を取得する画像取得部と、
前記光学画像に基づいて、前記被検体の特徴部位の3次元的な位置情報を取得する位置算出部と、
前記特徴部位の位置情報に基づいて、前記天板に対する前記被検体の傾き量を求め、求めた前記傾き量に基づいて警告の要否を判断する判断部と、
前記判断部で、警告要と判断されたときに警告を出力する警告部と、
を備える医用画像診断装置。 A bed with a top plate on which the subject is placed;
A gantry including imaging means for collecting medical images of the subject;
An image acquisition unit for acquiring an optical image of the subject;
A position calculation unit that acquires three-dimensional position information of the characteristic part of the subject based on the optical image;
A determination unit that determines an inclination amount of the subject with respect to the top plate based on the position information of the characteristic part, and determines whether or not a warning is necessary based on the calculated inclination amount;
A warning unit that outputs a warning when the determination unit determines that a warning is required;
A medical image diagnostic apparatus comprising:
前記被検体の医用画像を収集する撮影手段を含むガントリと、
前記被検体の光学画像を取得する画像取得部と、
前記光学画像に基づいて、前記被検体の特徴部位の3次元的な位置情報を取得する位置算出部と、
前記特徴部位の位置情報に基づいて、前記特徴部位が前記撮影手段の撮影位置に移動するように前記天板の移動量を算出し、算出した移動量に基づいて前記天板を移動させる制御部と、
を備える医用画像診断装置。 A bed with a top plate on which the subject is placed;
A gantry including imaging means for collecting medical images of the subject;
An image acquisition unit for acquiring an optical image of the subject;
A position calculation unit that acquires three-dimensional position information of the characteristic part of the subject based on the optical image;
Based on the position information of the characteristic part, a control unit that calculates the movement amount of the top plate so that the characteristic part moves to the imaging position of the imaging unit, and moves the top board based on the calculated movement amount When,
A medical image diagnostic apparatus comprising:
前記3次元的な位置情報と前記特徴部位の画像から前記被検体の撮影の基準線を抽出し、前記基準線に合わせて前記ガントリのチルト角度を制御するチルト制御部を備える請求項4記載の医用画像診断装置。 The image acquisition unit includes a three-dimensional information detection unit that acquires three-dimensional position information of the subject, and a feature part detection unit that acquires an image of a feature part of the subject,
The tilt control part which extracts the reference line of the imaging | photography of the said object from the said three-dimensional position information and the image of the said characteristic part, and controls the tilt angle of the said gantry according to the said reference line is provided. Medical diagnostic imaging device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014080296A JP6345468B2 (en) | 2014-04-09 | 2014-04-09 | Medical diagnostic imaging equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014080296A JP6345468B2 (en) | 2014-04-09 | 2014-04-09 | Medical diagnostic imaging equipment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239672A Division JP6548713B2 (en) | 2017-12-14 | 2017-12-14 | Medical diagnostic imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015198824A true JP2015198824A (en) | 2015-11-12 |
JP6345468B2 JP6345468B2 (en) | 2018-06-20 |
Family
ID=54550716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014080296A Active JP6345468B2 (en) | 2014-04-09 | 2014-04-09 | Medical diagnostic imaging equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6345468B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017136300A (en) * | 2016-02-05 | 2017-08-10 | 東芝メディカルシステムズ株式会社 | X-ray photography system |
CN111265235A (en) * | 2020-01-20 | 2020-06-12 | 东软医疗系统股份有限公司 | Bed entering control method and system of medical equipment and medical equipment |
JP2020110444A (en) * | 2019-01-15 | 2020-07-27 | キヤノンメディカルシステムズ株式会社 | Medical image diagnostic apparatus and medical image diagnostic method |
JPWO2020174577A1 (en) * | 2019-02-26 | 2020-09-03 | ||
WO2021100513A1 (en) * | 2019-11-18 | 2021-05-27 | キヤノン株式会社 | Radiation imaging system, radiation imaging method, image processing device, and program |
JP2021521942A (en) * | 2018-04-23 | 2021-08-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Automatic subject monitoring for medical imaging |
WO2023166844A1 (en) * | 2022-03-03 | 2023-09-07 | 富士フイルム株式会社 | Imaging assistance device, method for operating imaging assistance device, and program for operating imaging assistance device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010007585A1 (en) * | 2000-01-07 | 2001-07-12 | Masatake Nukui | X-ray CT imaging method, subject center position detection method, and X-ray CT apparatus |
JP2007524438A (en) * | 2003-03-25 | 2007-08-30 | イメージング セラピューティクス,インコーポレーテッド | Compensation method in radiological image processing technology |
-
2014
- 2014-04-09 JP JP2014080296A patent/JP6345468B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010007585A1 (en) * | 2000-01-07 | 2001-07-12 | Masatake Nukui | X-ray CT imaging method, subject center position detection method, and X-ray CT apparatus |
JP2007524438A (en) * | 2003-03-25 | 2007-08-30 | イメージング セラピューティクス,インコーポレーテッド | Compensation method in radiological image processing technology |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017136300A (en) * | 2016-02-05 | 2017-08-10 | 東芝メディカルシステムズ株式会社 | X-ray photography system |
JP2021521942A (en) * | 2018-04-23 | 2021-08-30 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Automatic subject monitoring for medical imaging |
JP7252256B2 (en) | 2018-04-23 | 2023-04-04 | コーニンクレッカ フィリップス エヌ ヴェ | Automated subject monitoring for medical imaging |
JP7443591B2 (en) | 2019-01-15 | 2024-03-05 | キヤノンメディカルシステムズ株式会社 | Medical image diagnosis device and medical image diagnosis method |
JP2020110444A (en) * | 2019-01-15 | 2020-07-27 | キヤノンメディカルシステムズ株式会社 | Medical image diagnostic apparatus and medical image diagnostic method |
JP2023065669A (en) * | 2019-01-15 | 2023-05-12 | キヤノンメディカルシステムズ株式会社 | Medical diagnostic imaging apparatus and medical diagnostic imaging method |
JP7244280B2 (en) | 2019-01-15 | 2023-03-22 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE DIAGNOSTIC APPARATUS AND MEDICAL IMAGE DIAGNOSTIC METHOD |
JP7116407B2 (en) | 2019-02-26 | 2022-08-10 | 国立大学法人静岡大学 | X-ray imaging device |
WO2020174577A1 (en) * | 2019-02-26 | 2020-09-03 | 国立大学法人静岡大学 | X-ray imaging device |
JPWO2020174577A1 (en) * | 2019-02-26 | 2020-09-03 | ||
US11921057B2 (en) | 2019-02-26 | 2024-03-05 | National University Corporation Shizuoka University | X-ray imaging device |
JP2021078692A (en) * | 2019-11-18 | 2021-05-27 | キヤノン株式会社 | Radiographic system, radiographic method, image processing device, and program |
WO2021100513A1 (en) * | 2019-11-18 | 2021-05-27 | キヤノン株式会社 | Radiation imaging system, radiation imaging method, image processing device, and program |
JP7527773B2 (en) | 2019-11-18 | 2024-08-05 | キヤノン株式会社 | Radiography system, radiation photography method, image processing device, and program |
CN111265235A (en) * | 2020-01-20 | 2020-06-12 | 东软医疗系统股份有限公司 | Bed entering control method and system of medical equipment and medical equipment |
WO2023166844A1 (en) * | 2022-03-03 | 2023-09-07 | 富士フイルム株式会社 | Imaging assistance device, method for operating imaging assistance device, and program for operating imaging assistance device |
Also Published As
Publication number | Publication date |
---|---|
JP6345468B2 (en) | 2018-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6345468B2 (en) | Medical diagnostic imaging equipment | |
US11382591B2 (en) | Automated apparatus to improve image quality in x-ray and associated method of use | |
EP3453330B1 (en) | Virtual positioning image for use in imaging | |
CN110139607B (en) | Method and system for patient scan settings | |
US10863957B2 (en) | Control of the positioning of a scanning region of a medical imaging system | |
US10918346B2 (en) | Virtual positioning image for use in imaging | |
JP6548713B2 (en) | Medical diagnostic imaging system | |
JP2004049912A (en) | Method and apparatus for positioning patient in medical diagnosis and therapeutic apparatus | |
JP2015213749A (en) | X-ray computer tomography apparatus and photographing condition setting support apparatus | |
JP2004049911A (en) | Method and apparatus for positioning patient in medial diagnosis or therapeutic apparatus | |
JP5698068B2 (en) | Image processing apparatus, image display system, radiographic image capturing system, image processing program, and image processing method | |
JP2009142300A (en) | X-ray ct system and method for creating scanning plan | |
CN103654809A (en) | Method used for automatically positioning shooting system of X-ray device and X-ray device | |
US11583235B2 (en) | Computed tomography and positioning of the anatomy desired to be imaged | |
JP5315524B2 (en) | Medical diagnostic imaging equipment | |
KR100967950B1 (en) | A ct simulation device and method recording medium and program thereof it | |
JP4861037B2 (en) | Measuring device | |
JP2007068842A (en) | Diagnostic imaging apparatus, and diagnostic imaging system | |
JP2015213671A (en) | X-ray image diagnostic apparatus and exposure management method of medical staff | |
JP2005021661A (en) | Tomographic x-ray equipment | |
RU2771467C2 (en) | Computer tomography and positioning of displayed area | |
JP2017202583A (en) | Medical information processor | |
JP6824641B2 (en) | X-ray CT device | |
CN116419715A (en) | Bi-directional mirror display for dental treatment system | |
CN114222530A (en) | Medical imaging system and medical imaging processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160428 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6345468 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |