JP2022089206A - Radiography learning device, radiography learning program, and radiography learning system - Google Patents

Radiography learning device, radiography learning program, and radiography learning system Download PDF

Info

Publication number
JP2022089206A
JP2022089206A JP2020201390A JP2020201390A JP2022089206A JP 2022089206 A JP2022089206 A JP 2022089206A JP 2020201390 A JP2020201390 A JP 2020201390A JP 2020201390 A JP2020201390 A JP 2020201390A JP 2022089206 A JP2022089206 A JP 2022089206A
Authority
JP
Japan
Prior art keywords
learning
image
posture information
posture
ray
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020201390A
Other languages
Japanese (ja)
Other versions
JP6936452B1 (en
Inventor
博之 對間
Hiroyuki Tsushima
毅 平間
Takeshi Hirama
伊織 中庭
Iori Nakaniwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crea Tact Co Ltd
Ibaraki Prefecture
Original Assignee
Crea Tact Co Ltd
Ibaraki Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crea Tact Co Ltd, Ibaraki Prefecture filed Critical Crea Tact Co Ltd
Priority to JP2020201390A priority Critical patent/JP6936452B1/en
Application granted granted Critical
Publication of JP6936452B1 publication Critical patent/JP6936452B1/en
Publication of JP2022089206A publication Critical patent/JP2022089206A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)

Abstract

To perform a practical training of positioning for radiography that uses an actual human body and a clinical image.SOLUTION: A radiography learning device according to the present invention includes: image reading means for reading clinical image data including a predetermined site taken by a radiography device; image display control means for displaying, in a display device, a 3D model image rendered on the basis of the clinical image data; posture information reception means for receiving posture information on an amount of rotation in a space of a predetermined site of a human body caused by change of a posture of the site from a motion sensor equipped to the site. The image display control means rotates the site in the 3D model image displayed in the display device, in relation to the amount of rotation in the space.SELECTED DRAWING: Figure 4

Description

本発明は、X線撮影学習装置、X線撮影学習プログラム及びX線撮影学習システムに関する。 The present invention relates to an X-ray photography learning device, an X-ray photography learning program, and an X-ray photography learning system.

単純X線検査は,医用画像診断の領域で最も歴史が長く、診療放射線技師にとって基本的な検査である。このため医療施設で働く診療放射線技師のほとんどは、臨床業務としてこのX線検査に従事する。 The simple X-ray examination has the longest history in the field of medical imaging and is a basic examination for radiological technologists. For this reason, most radiological technologists working in medical facilities engage in this X-ray examination as a clinical task.

適切なX線検査を実施するためには、最適な撮影条件の設定と解剖学的な情報に基づくポジショニング技術が必要である。このため、新人技師は基本的な解剖学の知識を理解した上でX線撮影学の講義にて多くの撮影法を学習するとともに、技術実習においては各撮影法に基づくポジショニングを正確に再現する技術の習得が不可欠である。 In order to carry out an appropriate X-ray examination, it is necessary to set optimal imaging conditions and a positioning technique based on anatomical information. For this reason, new engineers will learn many radiography methods in X-ray photography lectures after understanding basic anatomy knowledge, and will accurately reproduce the positioning based on each radiography method in technical training. Mastering the technique is essential.

技術実習においては、模擬患者にX線を照射しての実習は無用な被ばくを伴うため、従来から人体の組織を高精度に再現した人体模型(人体ファントム)を用いたトレーニングが行われている。ファントムにX線を照射して、撮影された画像を確認しながら、適切なポジショニングを習得するトレーニングである。 In the technical training, since the training of irradiating a simulated patient with X-rays involves unnecessary exposure, training using a human body model (human body phantom) that reproduces the tissue of the human body with high accuracy has been performed conventionally. .. It is a training to learn proper positioning while irradiating the phantom with X-rays and checking the captured image.

ここで、X線検査のトレーニングに用いるファントムは非常に高額のため、各医療機関や教育機関が多くのファントムを所有することが難しい。また、実際にX線を照射するための設備や画像を構築するための装置も必要なことから、新人技師がトレーニングを行える場所も病院の撮影室内などごく一部に限られているという現状がある。 Here, since the phantom used for X-ray examination training is very expensive, it is difficult for each medical institution or educational institution to own many phantoms. In addition, since equipment for actually irradiating X-rays and equipment for constructing images are also required, the current situation is that the places where new engineers can train are limited to only a small part such as the shooting room of a hospital. be.

これに関する技術として、例えば特許文献1には、人体ファントムを用いて模擬X線撮影を行い、所望のX線撮影を行えたか否かを判定することでX線撮影の技術を学習するX線撮影学習システムであって、骨格入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースと、1又は複数のモーションセンサを所定位置に装着した人体ファントムと、上記モーションセンサの位置及び向きに関する情報から上記データベースに格納されたデータのうち最も近いデータを抽出し、得られた撮像画像を疑似撮像画像として取得する疑似撮像画像取得手段と、上記疑似撮像画像が所望の撮像画像であるか否かを判定する判定手段と、を具備することを特徴とするX線撮影学習システムが記載されている。 As a technique related to this, for example, in Patent Document 1, simulated X-ray photography is performed using a human body phantom, and X-ray photography is learned to learn the technique of X-ray photography by determining whether or not the desired X-ray photography has been performed. An X-ray image database and one or more motion sensors, which is a learning system obtained by scanning a human body phantom with a skeleton in advance and in which information on the position and orientation of the human body phantom at the time of shooting and imaging information are linked. The closest data among the data stored in the database is extracted from the information on the position and orientation of the human body phantom mounted at the predetermined position and the motion sensor, and the obtained image is acquired as a pseudo image. Described is an X-ray imaging learning system including an image acquisition unit and a determination unit for determining whether or not the pseudo-image is a desired image.

特開2016-145978号公報Japanese Unexamined Patent Publication No. 2016-145978

しかしながら、上記特許文献1に記載のX線撮影学習システムにおいては、依然として骨格入り人体ファントムが不可欠であるとともに、学習に用いられる医療画像が予めスキャンして準備された範囲内のファントム画像となるため、限定的・画一的な症例の学習に留まっているという問題があった。 However, in the X-ray imaging learning system described in Patent Document 1, the human body phantom with a skeleton is still indispensable, and the medical image used for learning is a phantom image within the range prepared by scanning in advance. There was a problem that it was limited to learning limited and uniform cases.

本発明は、上記の点に鑑み提案されたものであり、一つの側面では、実際の人体及び臨床画像を用いた実践的なX線撮影のポジショニングトレーニングを可能とすることを目的とする。 The present invention has been proposed in view of the above points, and one aspect of the present invention is to enable practical X-ray imaging positioning training using an actual human body and clinical images.

上記の課題を解決するため、本開示に係るX線撮影学習装置は、X線撮影技術を学習するためのX線撮影学習装置であって、X線撮影装置により撮影された所定の部位を含む臨床画像データを読み込む画像読込手段と、表示装置に、前記臨床画像データに基づいてレンダリングされた3Dモデル画像を表示する画像表示制御手段と、人体の前記所定の部位に装着されたモーションセンサから、該部位の姿勢変化に伴う該部位の空間回転量に関する姿勢情報を受信する姿勢情報受信手段と、を有し、前記画像表示制御手段は、前記表示装置に表示した3Dモデル画像の前記部位を、前記空間回転量に対応させて回転させる。 In order to solve the above problems, the X-ray imaging learning apparatus according to the present disclosure is an X-ray imaging learning apparatus for learning an X-ray imaging technique, and includes a predetermined portion imaged by the X-ray imaging apparatus. From an image reading means for reading clinical image data, an image display control means for displaying a 3D model image rendered based on the clinical image data on a display device, and a motion sensor mounted on the predetermined part of the human body. The image display control means has a posture information receiving means for receiving posture information regarding the amount of spatial rotation of the portion due to a change in the posture of the portion, and the image display control means displays the portion of the 3D model image displayed on the display device. It is rotated according to the amount of space rotation.

本開示の実施の形態によれば、実際の人体及び臨床画像を用いた実践的なX線撮影のポジショニングトレーニングを行うことができる。 According to the embodiments of the present disclosure, practical X-ray imaging positioning training using an actual human body and clinical images can be performed.

本実施形態に係るX線撮影学習システムの構成例を示す図である。It is a figure which shows the configuration example of the X-ray photography learning system which concerns on this embodiment. 本実施形態に係るX線撮影学習サーバ及びウェアラブルモーションセンサのハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the X-ray photography learning server and the wearable motion sensor which concerns on this embodiment. 本実施形態に係るX線撮影学習サーバ及びウェアラブルモーションセンサのソフトウェア構成例を示す図である。It is a figure which shows the software configuration example of the X-ray photography learning server and the wearable motion sensor which concerns on this embodiment. 本実施形態に係るX線撮影学習システムを用いた学習例1を示す図である。It is a figure which shows the learning example 1 using the X-ray photography learning system which concerns on this embodiment. 本実施形態に係るX線撮影学習システムを用いた学習例2を示す図である。It is a figure which shows the learning example 2 using the X-ray photography learning system which concerns on this embodiment. 本実施形態に係るX線撮影学習システムを用いた学習例3を示す図である。It is a figure which shows the learning example 3 using the X-ray photography learning system which concerns on this embodiment. 本実施形態に係るX線撮影学習サーバの画像表示制御処理を示すフローチャート図である。It is a flowchart which shows the image display control processing of the X-ray photography learning server which concerns on this embodiment. 本実施形態に係るX線撮影学習システムを用いた課題画面を示す図である。It is a figure which shows the task screen which used the X-ray photography learning system which concerns on this embodiment.

以下、本実施形態について、図面を参照して説明する。同一の構成については、同じ符号を付して説明する。尚、以下の実施形態は本開示の技術を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが上記課題の解決手段に必須のものとは限らない。 Hereinafter, this embodiment will be described with reference to the drawings. The same configuration will be described with the same reference numerals. It should be noted that the following embodiments do not limit the techniques of the present disclosure, and not all combinations of features described in the present embodiments are essential for solving the above problems.

<システム構成>
(ネットワーク構成)
図1は、本実施形態に係るX線撮影学習システムの構成例を示す図である。図1のX線撮影学習システム100は、X線撮影学習サーバ10と、ウェアラブルモーションセンサ20とを有する。
<System configuration>
(Network configuration)
FIG. 1 is a diagram showing a configuration example of an X-ray imaging learning system according to the present embodiment. The X-ray photography learning system 100 of FIG. 1 has an X-ray photography learning server 10 and a wearable motion sensor 20.

X線撮影学習サーバ10は、付属の医療用高解像度ディスプレイに、X線撮影技術を学習するためのDICOM画像(主に臨床画像)を表示する情報処理装置である。DICOM(Digital Imaging and COmmunications in Medicine)は、CTやMRI、CRなどの画像生成装置(いわゆるモダリティ)で撮影した医用画像のフォーマットと、それらを扱うモダリティ機器間の通信プロトコルを定義した標準規格として知られている。 The X-ray imaging learning server 10 is an information processing device that displays DICOM images (mainly clinical images) for learning X-ray imaging techniques on an attached medical high-resolution display. DICOM (Digital Imaging and Communications in Medicine) is known as a standard that defines the format of medical images taken by image generators (so-called modalities) such as CT, MRI, and CR, and the communication protocol between the modality devices that handle them. Has been done.

ウェアラブルモーションセンサ20は、人体の所定部位(撮影部位)に装着可能なセンサであって、人体部位の姿勢(ポジショニング)を検出するモーションセンサである。ウェアラブルモーションセンサ20は、X線撮影学習サーバ10と、例えばCOM通信などの有線、Bluetooth(登録商標)やWiFi(登録商標)などの無線含む通信ネットワークで通信可能に接続されており、検出した人体部位の姿勢情報をX線撮影学習サーバ10に送信する。 The wearable motion sensor 20 is a sensor that can be attached to a predetermined portion (imaging portion) of the human body, and is a motion sensor that detects the posture (positioning) of the human body portion. The wearable motion sensor 20 is communicably connected to the X-ray photography learning server 10 via a communication network including wired communication such as COM communication and wireless communication such as Bluetooth (registered trademark) and WiFi (registered trademark), and the detected human body. The posture information of the part is transmitted to the X-ray photography learning server 10.

(ハードウェア構成)
図2は、本実施形態に係るX線撮影学習サーバ及びウェアラブルモーションセンサのハードウェア構成例を示す図である。図2(A)に示されるように、X線撮影学習サーバ10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14、通信装置15、及び表示装置16を有する。
(Hardware configuration)
FIG. 2 is a diagram showing a hardware configuration example of the X-ray imaging learning server and the wearable motion sensor according to the present embodiment. As shown in FIG. 2A, the X-ray photography learning server 10 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, and an HDD (Hard Disk Drive) 14. , Communication device 15, and display device 16.

CPU11は、各種プログラムの実行や演算処理を行う。ROM12は、起動時に必要なプログラムなどが記憶されている。RAM13は、CPU11での処理を一時的に記憶したり、データを記憶したりする作業エリアである。HDD14は、各種データ及びプログラムを格納する。通信装置15は、ウェアラブルモーションセンサ20との通信を行う。表示装置16は、X線撮影学習にかかる医用画像を表示する医療用高解像度ディスプレイである。 The CPU 11 executes various programs and performs arithmetic processing. The ROM 12 stores programs and the like required at startup. The RAM 13 is a work area for temporarily storing the processing in the CPU 11 and storing the data. The HDD 14 stores various data and programs. The communication device 15 communicates with the wearable motion sensor 20. The display device 16 is a medical high-resolution display that displays a medical image related to X-ray imaging learning.

図2(B)に示されるように、ウェアラブルモーションセンサ20は、9軸モーションセンサ21、マイコンボード22及び通信装置23を有する。 As shown in FIG. 2B, the wearable motion sensor 20 includes a 9-axis motion sensor 21, a microcomputer board 22, and a communication device 23.

9軸モーションセンサ21は、物体の運動速度の変化に伴うに加速度を検出し物体の向きを判定するための3軸の加速度センサ、物体がどれだけの速さで回転しているのかを検出するための3軸のジャイロセンサ(角速度センサ)、前後・左右方向に加えて上下方向の地磁気を検出する3軸の地磁気センサを搭載した小型のセンサモジュールからなるセンサである。 The 9-axis motion sensor 21 is a 3-axis acceleration sensor for detecting acceleration with a change in the motion speed of the object and determining the direction of the object, and detects how fast the object is rotating. It is a sensor consisting of a small sensor module equipped with a 3-axis gyro sensor (angular velocity sensor) for this purpose and a 3-axis geomagnetic sensor that detects geomagnetism in the vertical direction in addition to the front-back and left-right directions.

マイコンボード22は、9軸モーションセンサ21のセンシング情報(加速度、角速度、地磁気)を解析し、回転を表すクォータニオン(四元数)を計算する制御装置である。通信装置23は、9軸モーションセンサ21を装着した人体の姿勢情報としてクォータニオン(四元数)を、X線撮影学習サーバ10に送信する。 The microcomputer board 22 is a control device that analyzes the sensing information (acceleration, angular velocity, geomagnetism) of the 9-axis motion sensor 21 and calculates a quaternion (quaternion) representing rotation. The communication device 23 transmits a quaternion (quaternion) as posture information of the human body equipped with the 9-axis motion sensor 21 to the X-ray photography learning server 10.

9軸モーションセンサ21を用いる目的は、人体の姿勢を判定するためであるが、姿勢は基準位置(例えば地面と水平で、北を向いた状態)からどれくらい回転した状態であるかと捉えることができる。よってマイコンボード22は、9軸モーションセンサ21のセンシング情報に基づいて、センサの空間回転量を示す例えばクォータニオン(四元数)を、人体の姿勢情報として算出することが可能である。 The purpose of using the 9-axis motion sensor 21 is to determine the posture of the human body, but the posture can be grasped as how much it is rotated from the reference position (for example, the state of being horizontal to the ground and facing north). .. Therefore, the microcomputer board 22 can calculate, for example, a quaternion (quaternion) indicating the amount of spatial rotation of the sensor as the posture information of the human body based on the sensing information of the 9-axis motion sensor 21.

(ソフトウェア構成)
図3は、本実施形態に係るX線撮影学習サーバ及びウェアラブルモーションセンサのソフトウェア構成例を示す図である。図3(A)に示されるように、X線撮影学習サーバ10は、主な機能部として、画像読込部101、画像表示制御部102、姿勢情報受信部103、一致度判定部104、及び記憶部107を有する。
(Software configuration)
FIG. 3 is a diagram showing a software configuration example of the X-ray imaging learning server and the wearable motion sensor according to the present embodiment. As shown in FIG. 3A, the X-ray imaging learning server 10 has, as main functional units, an image reading unit 101, an image display control unit 102, a posture information receiving unit 103, a matching degree determination unit 104, and a storage unit. It has a part 107.

画像読込部101は、X線撮影装置により予め撮影された所定の部位(撮影部位)を含む臨床画像のDICOM画像データ(DICOMボリューム画像データ)を、記憶部107から読み込む機能を有している。 The image reading unit 101 has a function of reading DICOM image data (DICOM volume image data) of a clinical image including a predetermined portion (imaging site) previously imaged by an X-ray imaging device from the storage unit 107.

画像表示制御部102は、表示装置16に、臨床画像のDICOM画像データに基づいてボリュームレンダリングされた3Dモデル画像を表示する機能を有している。また、ウェアラブルモーションセンサ20から姿勢情報を受信するにつれて、画像表示制御部102は、表示装置16に表示した3Dモデル画像の部位を、人体部位の姿勢変化に伴う空間回転量に対応させて(追従させて)回転させる。 The image display control unit 102 has a function of displaying the volume-rendered 3D model image based on the DICOM image data of the clinical image on the display device 16. Further, as the posture information is received from the wearable motion sensor 20, the image display control unit 102 makes the part of the 3D model image displayed on the display device 16 correspond to the amount of spatial rotation accompanying the posture change of the human body part (following). Let) rotate.

姿勢情報受信部103は、人体の所定の部位に装着されたウェアラブルモーションセンサ20から、部位の姿勢変化に伴う該部位の空間回転量に関する姿勢情報を受信する機能を有している。 The posture information receiving unit 103 has a function of receiving posture information regarding the amount of spatial rotation of the portion due to a change in the posture of the portion from a wearable motion sensor 20 mounted on a predetermined portion of the human body.

一致度判定部104は、姿勢情報受信部103により受信された姿勢情報と、X線撮影技術に関する課題毎に対応付けられた模範姿勢情報との一致度を判定する機能を有している。また一致度判定部104は、受信された姿勢情報と、模範姿勢との差異に基づく自然言語文を出力する。 The matching degree determination unit 104 has a function of determining the degree of matching between the posture information received by the posture information receiving unit 103 and the model posture information associated with each problem related to the X-ray imaging technique. Further, the matching degree determination unit 104 outputs a natural language sentence based on the difference between the received posture information and the model posture.

記憶部107は、臨床画像DB(Data Base)107aを記憶する機能を有している。臨床画像DB107aは、臨床の場で撮影された実際の患者の放射線画像データ、即ち例えばCTスキャンにおける実際の患者人体のスライス画像等をDICOM形式で格納したDBである。DICOM画像データは、タグデータとバイナリデータとからなる。タグデータには、画像タイプ、モダリティ、検査情報、撮影日時、撮影者、患者情報、検査部位、撮影条件(曝射量等)などの情報が格納される。但し個人情報保護の観点から、臨床画像DB107aの臨床画像データにおいては、DICOMタグデータのうち、患者情報(個人情報)が削除されたものであることが望ましい。 The storage unit 107 has a function of storing the clinical image DB (Data Base) 107a. The clinical image DB 107a is a DB that stores radiographic image data of an actual patient taken in a clinical setting, that is, a slice image of an actual patient's body in a CT scan, for example, in DICOM format. DICOM image data consists of tag data and binary data. The tag data stores information such as image type, modality, examination information, imaging date and time, photographer, patient information, examination site, imaging conditions (exposure amount, etc.). However, from the viewpoint of personal information protection, it is desirable that the patient information (personal information) is deleted from the DICOM tag data in the clinical image data of the clinical image DB 107a.

なお、上記特許文献1記載の発明が、骨格入り人体ファントムをあらかじめスキャンして得られ、撮影時の人体ファントムの位置及び向きに関する情報と撮像情報とがリンクされているX線画像データベースを構築する構成を有するのに対して、本実施形態に係るX線撮影学習システムの場合、臨床画像DB107aのDICOM画像データに対して予め何ら構築作業や情報処理作業を施す必要がない。これによりポジショニング技術学習に用いるDICOM画像データに制限がなくなることを意味し、ゆえにより実践的に臨床画像のDICOM画像データを用いることが可能となるものである。 The invention described in Patent Document 1 is obtained by scanning a human body phantom containing a skeleton in advance, and constructs an X-ray image database in which information on the position and orientation of the human body phantom at the time of photographing and imaging information are linked. On the other hand, in the case of the X-ray imaging learning system according to the present embodiment, it is not necessary to perform any construction work or information processing work on the DICOM image data of the clinical image DB 107a in advance. This means that there are no restrictions on the DICOM image data used for learning the positioning technique, and therefore it is possible to practically use the DICOM image data of the clinical image.

X線撮影学習サーバ10には、X線撮影学習プログラムが予めインストールされており、X線撮影学習サーバ10を構成するコンピュータのCPU、ROM、RAM等のハードウェア資源上でX線撮影学習プログラムが実行されることで、上記の各機能部が実現される。またこれら機能部は、「手段」、「モジュール」、「ユニット」、又は「回路」に読替えてもよい。 An X-ray photography learning program is pre-installed in the X-ray photography learning server 10, and the X-ray photography learning program is installed on hardware resources such as the CPU, ROM, and RAM of the computer constituting the X-ray photography learning server 10. By being executed, each of the above functional parts is realized. Further, these functional units may be read as "means", "module", "unit", or "circuit".

図3(B)に示されるように、ウェアラブルモーションセンサ20は、主な機能部として、姿勢情報取得部201及び姿勢情報送信部202を有する。姿勢情報取得部201は、9軸モーションセンサ21のセンシング情報を解析し、人体部位の姿勢変化に伴う姿勢情報算出し取得する。姿勢情報送信部202は、姿勢情報が取得されるたびに姿勢情報を、X線撮影学習サーバ10に送信する。 As shown in FIG. 3B, the wearable motion sensor 20 has a posture information acquisition unit 201 and a posture information transmission unit 202 as main functional units. The posture information acquisition unit 201 analyzes the sensing information of the 9-axis motion sensor 21 and calculates and acquires the posture information accompanying the posture change of the human body part. The posture information transmission unit 202 transmits the posture information to the X-ray imaging learning server 10 each time the posture information is acquired.

<学習例>
図4は、本実施形態に係るX線撮影学習システムを用いた学習例1を示す図である。まずはじめにX線撮影学習サーバ10側の準備として、学習者31は表示装置16の画面上のDICOMリストから、X線撮影のポジショニング技術を学習したい撮影部位を含む一の臨床画像を選択し、画面上に3Dモデル画像を表示する。表示装置16の画面上において3D初期表示時、基本的に3Dモデル画像は、「初期姿勢」(初期位置)としてディスプレイ画面に人体(又は人体部位)の正面が表示される状態、いわば「正面まっすぐ」を向いた状態で表示される。なお、3Dモデル画像はX線撮影されたDICOMボリューム画像データをディスプレイ画面上に模擬表示するものであるが、「人体の正面が表示される状態」「正面まっすぐ」の画像とは、画面を見る人が見やすいようにその人に相対して向いて表示された映像又は画像であり、通常の場合、人体の仰向け状態を真上方向から見た画像か(例えば図4参照)、人体の直立状態を真正面から見た画像となる。
<Learning example>
FIG. 4 is a diagram showing a learning example 1 using the X-ray imaging learning system according to the present embodiment. First, as a preparation for the X-ray imaging learning server 10, the learner 31 selects a clinical image including an imaging site from which he / she wants to learn the positioning technique of X-ray imaging from the DICOM list on the screen of the display device 16, and screens it. The 3D model image is displayed above. At the time of 3D initial display on the screen of the display device 16, basically, the 3D model image is in a state where the front of the human body (or human body part) is displayed on the display screen as the "initial posture" (initial position), so to speak, "straight front". Is displayed facing. The 3D model image is a simulated display of the DICOM volume image data taken by X-ray on the display screen, but the "state in which the front of the human body is displayed" and the "straight front" image are viewed on the screen. An image or image that is displayed facing the person so that it is easy for the person to see, and is usually an image of the back of the human body viewed from directly above (see, for example, Fig. 4), or an upright state of the human body. It becomes an image seen from the front.

但し、3Dモデル画像の元となっているDICOM画像データがその実際のX線撮影時に「正面まっすぐ」の画像になっておらずに、例えば正面まっすぐよりも少し上下左右方向にズレて向いている場合など、3D初期表示時に正面まっすぐで表示されない場合がある。よってそのような場合には、指導者・教員等が又はオート補正機能により、初期調整として3Dモデル画像が「正面まっすぐ」の初期姿勢の画像になるように、例えば補正値の設定等により角度調整を行うことができる。角度調整は、例えば3Dモデル画像(又はDICOM画像)の3D座標系XYZ座標軸を原点とし、上下左右に回転することで可能である。 However, the DICOM image data that is the source of the 3D model image is not a "straight front" image at the time of the actual X-ray photography, and is oriented slightly in the vertical and horizontal directions, for example, from the straight front. In some cases, such as when the 3D initial display is performed, the front is straight and not displayed. Therefore, in such a case, the instructor, teacher, etc. or the auto-correction function adjusts the angle so that the 3D model image becomes the image of the initial posture of "straight front" as the initial adjustment, for example, by setting the correction value. It can be performed. The angle can be adjusted, for example, by rotating the 3D model image (or DICOM image) vertically and horizontally with the 3D coordinate system XYZ coordinate axis as the origin.

次に、ウェアラブルモーションセンサ20側の準備として、学習者31は学習協力者(人体)32の同部位にウェアラブルモーションセンサ20を装着し、学習協力者32の姿勢を予め定めた「基準姿勢」(例えば、水平台30の上で真上を向いた状態で寝かせた姿勢)に置く。より具体的に、画面上の3Dモデル画像は「正面まっすぐ」の画像が初期姿勢として表示されているので、学習協力者32をX線撮影したときに画面上の「初期姿勢」(例えば「正面まっすぐ」)が撮影できるであろう姿勢(基準姿勢という)に、学習協力者32におけるポジショニング及びウェアラブルモーションセンサ20の装着位置の調整を行う。 Next, in preparation for the wearable motion sensor 20, the learner 31 attaches the wearable motion sensor 20 to the same part of the learning collaborator (human body) 32, and the posture of the learning collaborator 32 is predetermined as a “reference posture” ( For example, it is placed on a horizontal table 30 in a posture in which it is laid down while facing straight up. More specifically, since the "straight front" image is displayed as the initial posture of the 3D model image on the screen, the "initial posture" (for example, "front") on the screen when the learning collaborator 32 is X-rayed. The position of the learning collaborator 32 and the mounting position of the wearable motion sensor 20 are adjusted to the posture (referred to as the reference posture) in which "straight") can be photographed.

学習者31は以上の準備を完了し、X線撮影のポジショニング技術学習を開始するため、X線撮影学習サーバ10側において、学習開始ボタン等を押下操作するなどして、学習を開始する。 In order to complete the above preparations and start learning the positioning technique for X-ray photography, the learner 31 starts learning by pressing the learning start button or the like on the X-ray photography learning server 10 side.

図5は、本実施形態に係るX線撮影学習システムを用いた学習例2を示す図である。ウェアラブルモーションセンサ20の「基準姿勢」が、学習開始ボタンの押下操作をトリガーとして、画面上に表示された3Dモデル画像の「初期姿勢」(3D座標系の初期位置)と対応付けられると、それ以降は順次ウェアラブルモーションセンサ20から送られてくる姿勢情報(空間座標系の回転)に合わせて、画面上に表示している3Dモデル画像の初期姿勢が、3D座標系上のx、y、z軸方向のそれぞれに回転を開始する。つまり学習協力者32が姿勢変化を起こす度に、X線撮影学習サーバ10の画面上の3Dモデル画像についても同じようにその姿勢変化をリアルタイム回転で追従表現することが可能である。 FIG. 5 is a diagram showing a learning example 2 using the X-ray imaging learning system according to the present embodiment. When the "reference posture" of the wearable motion sensor 20 is associated with the "initial posture" (initial position of the 3D coordinate system) of the 3D model image displayed on the screen triggered by the pressing operation of the learning start button, it is it. After that, the initial posture of the 3D model image displayed on the screen is set to x, y, z on the 3D coordinate system according to the posture information (rotation of the spatial coordinate system) sequentially sent from the wearable motion sensor 20. Start rotation in each of the axial directions. That is, every time the learning collaborator 32 causes a posture change, the posture change can be similarly expressed by real-time rotation for the 3D model image on the screen of the X-ray imaging learning server 10.

図6は、本実施形態に係るX線撮影学習システムを用いた学習例3を示す図である。学習者31が学習協力者32の姿勢を動かすと、人体部位の姿勢変化に伴う姿勢情報が順次、ウェアラブルモーションセンサ20からX線撮影学習サーバ10に送られてくる。例えば、学習者31が学習協力者32の頭部を基準姿勢から左向き方向にポジショニングした場合、画面上に表示している3Dモデル画像も同期したように左向き方向に回転しながら表示される。即ち、学習者31は学習協力者32の姿勢を動かしながら撮影部位の最適ポジショニングを探索するとともに、画面上でそのポジショニングであるといどのような放射線画像が撮影されうるかをリアルタイム回転でモニタリングすることができる。 FIG. 6 is a diagram showing a learning example 3 using the X-ray imaging learning system according to the present embodiment. When the learner 31 moves the posture of the learning collaborator 32, the posture information accompanying the posture change of the human body part is sequentially sent from the wearable motion sensor 20 to the X-ray imaging learning server 10. For example, when the learner 31 positions the head of the learning collaborator 32 in the leftward direction from the reference posture, the 3D model image displayed on the screen is also displayed while rotating in the leftward direction as if synchronized. That is, the learner 31 can search for the optimum positioning of the imaging site while moving the posture of the learning collaborator 32, and can monitor on the screen what kind of radiographic image can be captured by real-time rotation. can.

このように、本実施形態に係るX線撮影学習システムにおいては、実際にX線撮影をすることなくポジショニング技術学習のトレーニングを行うことができる。また、実際の人体を用いながらかつ実際の臨床画像を用いたトレーニングを行えるため、従来のファントムを用いた画一的な症例だけでなく、解剖学的に異なる多くの症例を用いたトレーニングを実践的に行うことができる。 As described above, in the X-ray photography learning system according to the present embodiment, training for learning the positioning technique can be performed without actually performing X-ray photography. In addition, since training can be performed using actual clinical images while using the actual human body, training using not only uniform cases using conventional phantoms but also many anatomically different cases is practiced. Can be done.

<情報処理>
図7は、本実施形態に係るX線撮影学習サーバの画像表示制御処理を示すフローチャート図である。CPU11が本フローチャートを実現可能なプログラムを読み込んで実行させることで、各ステップ(以下、「S」と表記する)を実現することができる。
<Information processing>
FIG. 7 is a flowchart showing an image display control process of the X-ray imaging learning server according to the present embodiment. Each step (hereinafter referred to as "S") can be realized by the CPU 11 reading and executing a program that can realize this flowchart.

S1:X線撮影学習サーバ10は、学習者31の所定操作に従って、表示装置16の画面上に3Dモデル画像を表示する。X線撮影学習サーバ10は、DICOM画像対応3Dビューア機能を有しており、選択された臨床画像のDICOMボリューム画像データ(例えばCTスキャンにおける人体のスライスDICOM画像512枚等)に対して、3Dボリュームレンダリング処理を行って、画面上に3Dモデル画像を表示することができる。 S1: The X-ray imaging learning server 10 displays a 3D model image on the screen of the display device 16 according to a predetermined operation of the learner 31. The X-ray imaging learning server 10 has a DICOM image-compatible 3D viewer function, and has a 3D volume for DICOM volume image data of the selected clinical image (for example, 512 sliced DICOM images of the human body in a CT scan). A 3D model image can be displayed on the screen by performing a rendering process.

ウェアラブルモーションセンサ20の取り付け位置を適正にするために、人体部位をz軸回転の回転角度γをYaw(ヨー角)、y軸回転の回転角度βをPitch(ピッチ角)、x軸回転の回転角度αをRoll(ロール角)周りに動かしながら、ウェアラブルモーションセンサ20の回転情報の出力を確認しつつ取付け位置を手動で微調整する、または想定した回転情報が出力されるようX線撮影学習サーバ10で事前に座標変換を行っておく。 In order to make the mounting position of the wearable motion sensor 20 appropriate, the rotation angle γ of the z-axis rotation is Yaw (yaw angle), the rotation angle β of the y-axis rotation is Pitch (pitch angle), and the rotation of the x-axis rotation. While moving the angle α around Roll (roll angle), manually fine-tune the mounting position while checking the output of the rotation information of the wearable motion sensor 20, or the X-ray photography learning server so that the assumed rotation information is output. Coordinate conversion is performed in advance at 10.

S2:X線撮影学習サーバ10は、学習者31の学習開始操作があったか否かを判定する。上述したようにX線撮影のポジショニング技術学習の開始時、表示装置16の画面上、「初期姿勢」(例えば「正面まっすぐ」を向いた状態)で3Dモデル画像を表示させておくとともに、学習協力者32のS1の撮影部位と同じ部位にウェアラブルモーションセンサ20を装着し、学習協力者32の姿勢を「基準姿勢」(学習協力者32をX線撮影したときに画面上の「初期姿勢」が撮影できるであろう姿勢)に置いた上で、学習開始操作を行う。学習開始操作があった場合、S3へ進む。 S2: The X-ray imaging learning server 10 determines whether or not there is a learning start operation of the learner 31. As described above, at the start of learning the positioning technique for X-ray photography, a 3D model image is displayed in the "initial posture" (for example, facing "straight front") on the screen of the display device 16, and learning cooperation is performed. The wearable motion sensor 20 is attached to the same part as the imaged part of S1 of the person 32, and the posture of the learning collaborator 32 is set to the "reference posture" (the "initial posture" on the screen when the learning collaborator 32 is X-rayed. Perform the learning start operation after placing it in the posture that will allow you to take a picture. If there is a learning start operation, the process proceeds to S3.

S3:X線撮影学習サーバ10は、画面上の3Dモデル画像の「初期姿勢」(例えば「正面まっすぐ」を向いた状態)を、3Dモデル画像の回転開始位置としてセットする。これにより、ウェアラブルモーションセンサ20の空間座標系と、S1で画面上に表示された3Dモデル画像の3D座標系との初期位置を対応させて合わせることができる。 S3: The X-ray imaging learning server 10 sets the "initial posture" of the 3D model image on the screen (for example, a state facing "straight front") as the rotation start position of the 3D model image. As a result, the initial positions of the spatial coordinate system of the wearable motion sensor 20 and the 3D coordinate system of the 3D model image displayed on the screen in S1 can be matched with each other.

S4:X線撮影学習サーバ10は、ウェアラブルモーションセンサ20から姿勢情報(
例えば、クォータニオン)を受信したか否かを判定する。上述したように、X線撮影のポジショニング技術学習を行うべく学習者が学習協力者の姿勢を動かすと、人体部位の姿勢変化に伴う姿勢情報が順次、ウェアラブルモーションセンサ20からX線撮影学習サーバ10に送られてくる。姿勢情報を受信した場合、S5へ進む。
S4: The X-ray photography learning server 10 receives posture information (attitude information from the wearable motion sensor 20).
For example, it is determined whether or not a quaternion) has been received. As described above, when the learner moves the posture of the learning collaborator in order to learn the positioning technique of X-ray photography, the posture information accompanying the change in the posture of the human body part is sequentially transmitted from the wearable motion sensor 20 to the X-ray photography learning server 10. Will be sent to. When the posture information is received, the process proceeds to S5.

S5:X線撮影学習サーバ10は、S5でウェアラブルモーションセンサ20から姿勢情報を受信した場合、受信した姿勢情報の示す回転量に追従させて3Dモデル画像を、その「初期姿勢」から回転表示させる。 S5: When the X-ray photography learning server 10 receives the posture information from the wearable motion sensor 20 in S5, the X-ray photography learning server 10 rotates and displays the 3D model image from the "initial posture" by following the rotation amount indicated by the received posture information. ..

より具体的に、X線撮影学習サーバ10は、クォータニオンから回転行列(DCM)を生成する。物体を空間座標系とともにz軸、y軸、x軸まわりの順にそれぞれ角度γ、β、αだけ回転させたときに、回転行列においては、z軸回転の回転角度γをYaw(ヨー角)、y軸回転の回転角度βをPitch(ピッチ角)、x軸回転の回転角度αをRoll(ロール角)という。X線撮影学習サーバ10は、画面上の3Dモデル画像をその「初期姿勢」から、Yaw、Pitch、Rollの示す回転量分、3D座標系上のx、y、z方向に回転表示させる。 More specifically, the radiography learning server 10 generates a rotation matrix (DCM) from a quaternion. When the object is rotated by the angles γ, β, and α in the order of the z-axis, y-axis, and x-axis together with the spatial coordinate system, the rotation angle γ of the z-axis rotation is set to Yaw (yaw angle) in the rotation matrix. The rotation angle β of y-axis rotation is called Pitch (pitch angle), and the rotation angle α of x-axis rotation is called Roll (roll angle). The X-ray imaging learning server 10 rotates and displays the 3D model image on the screen in the x, y, and z directions on the 3D coordinate system by the amount of rotation indicated by Yaw, Pitch, and Roll from the "initial posture".

これにより、学習協力者32の人体部位が姿勢変化を起こす度に、X線撮影学習サーバ10の画面上の3Dモデル画像についても同じようにその姿勢変化をリアルタイムで追従表現することが可能となる。例えば、学習者31が学習協力者32の頭部を左向き方向にポジショニングした場合、画面上に表示している3Dモデル画像も同期したように左向き方向に回転しながら表示される。 As a result, every time the human body part of the learning collaborator 32 changes its posture, the posture change can be similarly expressed in real time for the 3D model image on the screen of the X-ray imaging learning server 10. .. For example, when the learner 31 positions the head of the learning collaborator 32 in the leftward direction, the 3D model image displayed on the screen is also displayed while rotating in the leftward direction as if synchronized.

S6:X線撮影学習サーバ10は、学習者による学習終了操作があったか否かを判定する。学習終了操作があった場合、ENDへ進む。一方、学習終了操作がない場合(学習継続)、再びS4へ進む。 S6: The X-ray imaging learning server 10 determines whether or not the learner has performed a learning end operation. If there is a learning end operation, the process proceeds to END. On the other hand, if there is no learning end operation (learning continuation), the process proceeds to S4 again.

<課題機能>
(教科書データベース)
本実施形態に係るX線撮影学習サーバ10の課題機能(テスト機能)について説明する。X線撮影学習サーバ10は、予め教科書データベースを有しており、例えば習得すべきポジショニング技術毎に設けられた課題名と、当該課題に対応する模範3D画像と、姿勢模範姿勢情報(当該課題に係るX撮影法のポジショニングにおいて模範とされるRoll・Pitch・Yawの角度情報)との組み合わせが、HDD14等に予め記憶されている。
<Problem function>
(Textbook database)
The task function (test function) of the X-ray photography learning server 10 according to the present embodiment will be described. The X-ray photography learning server 10 has a textbook database in advance, for example, a task name provided for each positioning technique to be learned, a model 3D image corresponding to the task, and a posture model posture information (for the task). The combination with the Roll / Pitch / Yaw angle information, which is a model in the positioning of the X-ray method, is stored in advance in the HDD 14 or the like.

教科書データベースは、予め指導者・教員等が、上述の図4~6で説明した学習者31の学習を同様の要領で行うことで作成可能である。具体的に、指導者等はまず課題名を作成する。次いで指導者等は、表示装置16の画面上、「初期姿勢」で課題に係る3Dモデル画像を表示させるとともに、学習協力者32の課題に係る部位にウェアラブルモーションセンサ20を装着し、学習協力者32の姿勢を「基準姿勢」(画面上の「初期姿勢」が撮影できるであろう姿勢)に置いた上で、教科書データベース作成開始操作を行う。 The textbook database can be created by the instructor / teacher or the like in advance by performing the learning of the learner 31 described with reference to FIGS. 4 to 6 in the same manner. Specifically, the instructor etc. first creates the task name. Next, the instructor or the like displays a 3D model image related to the task in the "initial posture" on the screen of the display device 16, and also attaches the wearable motion sensor 20 to the part related to the task of the learning collaborator 32 to be a learning collaborator. After setting the posture of 32 to the "reference posture" (the posture in which the "initial posture" on the screen can be photographed), the textbook database creation start operation is performed.

指導者等が学習協力者32の姿勢を動かし、課題に係る模範となるポジショニングを取る。このとき、この模範となるポジショニングを示す姿勢情報(クォータニオン)が、ウェアラブルモーションセンサ20からX線撮影学習サーバ10に送られてくる。X線撮影学習サーバ10は、クォータニオンから回転行列を生成し、画面上の3Dモデル画像をその「初期姿勢」から、Yaw、Pitch、Rollの示す回転量分、3D座標系上のx、y、z方向に回転表示させる。指導者等が教科書データベース作成完了操作等を行うと、X線撮影学習サーバ10は、このとき得られた画面上の3Dモデル画像のキャプチャ静止画を当該課題に対応する模範3D画像として、Yaw、Pitch、Rollを姿勢模範姿勢情報として、教科書データベースに格納する。 The instructor or the like moves the posture of the learning collaborator 32 and takes a position that serves as a model for the task. At this time, posture information (quaternion) indicating this model positioning is sent from the wearable motion sensor 20 to the X-ray imaging learning server 10. The X-ray photography learning server 10 generates a rotation matrix from a quaternion, and displays a 3D model image on the screen from its "initial posture" by the amount of rotation indicated by Yaw, Pitch, and Roll, and x, y, on the 3D coordinate system. Rotate and display in the z direction. When the instructor or the like performs an operation for completing the textbook database creation, the X-ray photography learning server 10 uses the captured still image of the 3D model image on the screen obtained at this time as a model 3D image corresponding to the problem, Yaw. Pitch and Roll are stored in the textbook database as posture model posture information.

(課題学習)
学習者31は、はじめに教科書データベースから一の課題を選択してから、課題学習開始ボタン等を押下操作するなどして、課題学習を開始する。学習者31は、課題の求める姿勢状態に学習協力者32の姿勢を物理的に回転させ(ポジショニングを行って)、所定の採点実行操作を行う。
(Problem learning)
The learner 31 first selects one task from the textbook database, and then starts task learning by pressing the task learning start button or the like. The learner 31 physically rotates (positions) the posture of the learning collaborator 32 to the posture state required by the task, and performs a predetermined scoring execution operation.

X線撮影学習サーバ10は、採点実行操作が行われると、まず画面上に表示中の3Dモデル画像をキャプチャし静止画保存する。また、3Dモデル画像をキャプチャしたときにおけるウェアラブルモーションセンサ20からの姿勢情報(学習者31に係るRoll・Pitch・Yawの角度情報)と、選択された課題に対応する模範姿勢情報(指導者等に係るRoll・Pitch・Yawの角度情報)とを比較し、一致度合いに応じて採点処理を行う。採点処理においては、ウェアラブルモーションセンサ20からの姿勢情報と、選択された課題に対応する模範姿勢情報との一致度が高いほど高い採点値(スコア)が算出されるが、一致度を示す値そのものを採点値としてもよい。 When the scoring execution operation is performed, the X-ray photography learning server 10 first captures the 3D model image displayed on the screen and saves it as a still image. In addition, the posture information from the wearable motion sensor 20 when the 3D model image is captured (angle information of Roll, Pitch, Yaw related to the learner 31) and the model posture information corresponding to the selected task (to the instructor, etc.). It is compared with the relevant Roll / Pitch / Yaw angle information), and scoring processing is performed according to the degree of matching. In the scoring process, the higher the degree of matching between the posture information from the wearable motion sensor 20 and the model posture information corresponding to the selected task, the higher the scoring value (score) is calculated, but the value itself indicating the degree of matching. May be used as the scoring value.

図8は、本実施形態に係るX線撮影学習システムを用いた課題画面を示す図である。採点実行操作が行われると、採点結果を示す課題画面において、当該課題80、当該課題に対応する模範3D画像81、キャプチャし静止画保存された3Dモデル画像82、一致度83、アドバイス84が表示される。 FIG. 8 is a diagram showing a task screen using the X-ray photography learning system according to the present embodiment. When the scoring execution operation is performed, the task 80, the model 3D image 81 corresponding to the task, the 3D model image 82 captured and saved as a still image, the degree of matching 83, and the advice 84 are displayed on the task screen showing the scoring result. Will be done.

具体的に、学習者31が相互比較を行ってより模範の3D画像に近い撮影ポジショニングを目指せるように模範(正解)となる模範3D画像81と、学習者31がキャプチャした3Dモデル画像82とが並べて表示されるとともに、模範3D画像にどのくらい近づけたかを示す一致度83が表示される。 Specifically, the model 3D image 81, which is a model (correct answer) so that the learner 31 can make a mutual comparison and aim for a shooting positioning closer to the model 3D image, and the 3D model image 82 captured by the learner 31. Are displayed side by side, and a matching degree 83 indicating how close to the model 3D image is displayed is displayed.

またアドバイス84は、課題毎に応じて、ウェアラブルモーションセンサ20からの姿勢情報のRoll・Pitch・Yawの角度情報と、模範姿勢情報のRoll・Pitch・Yawの角度情報と一致度(又は差分)から推定されるアドバイスを表示することができる。例えば、課題が頭部正面の場合であって、ウェアラブルモーションセンサ20からの姿勢情報が示すPitchと、模範姿勢情報が示すPitchとの角度差から、模範姿勢よりも被検体のあごが高くなってしまっていると判定された場合、その判定結果と予め対応付けられた所定のアドバイスを、「あごを引きOMラインを受像面に垂直にしましょう。例えば胸の下に枕を置くと顎を引きやすいです。」といったように自然言語で表示をする。学習者31は採点結果が思わしくない場合、どのような点が悪かったか(模範姿勢との差異点)、どう改善すればよいのか(その差異点の改善方法)をアドバイス84により具体的に把握しつつ、模範姿勢を習得することができる。 Further, the advice 84 is based on the degree of agreement (or difference) between the angle information of Roll / Pitch / Yaw of the posture information from the wearable motion sensor 20 and the angle information of Roll / Pitch / Yaw of the model posture information according to each task. You can view the estimated advice. For example, when the task is the front of the head, the chin of the subject becomes higher than the model posture due to the angle difference between the Pitch indicated by the posture information from the wearable motion sensor 20 and the Pitch indicated by the model posture information. If it is determined that it is closed, the predetermined advice associated with the determination result is "Pull the chin and make the OM line perpendicular to the image receiving surface. For example, if you put a pillow under the chest, pull the jaw. It is easy to display. ”In natural language. If the scoring result is not good, the learner 31 specifically grasps what was wrong (difference from the model posture) and how to improve (how to improve the difference) by using advice 84. At the same time, you can learn the model posture.

本実施形態に係る課題機能によれば、学習者31が所定の課題に合わせて、被検体となる学習協力者32を模範姿勢にどの程度正しく合わせられたかをテストすることができる。 According to the task function according to the present embodiment, it is possible to test to what extent the learner 31 has correctly adjusted the learning collaborator 32, which is the subject, to the model posture according to the predetermined task.

<総括>
本実施形態に係るX線撮影学習システム100によれば、実際のX線撮影なしにポジショニング技術学習のトレーニングを行うことができる。また、実際の人体を用いながら且つ実際の臨床画像を用いたトレーニングを行えるため、従来のファントムを用いた画一的な症例だけでなく、解剖学的に異なる多くの症例を用いたトレーニングを実践的に行うことができる。人体ファントムやX線撮影設備は必須でない。
<Summary>
According to the X-ray photography learning system 100 according to the present embodiment, training for learning the positioning technique can be performed without actual X-ray photography. In addition, since training can be performed using actual clinical images while using the actual human body, training using not only uniform cases using conventional phantoms but also many anatomically different cases is practiced. Can be done. Human phantoms and radiography equipment are not essential.

これにより、本実施形態に係るX線撮影学習システム100は、全国にある診療放射線技師養成校教育での活用が期待できる。また、講義や実習での使用だけでなく、学生自ら学ぶアクティブラーニングのツールとしても活用できる。本システムよってこれまでX線装置にかかる施設や装置がないと実習が難しかったX線撮影に関するアクティブラーニングが促進される。また言うまでもなく、学生教育のみならず、医療機関における診療放射線技師の卒後教育のツールとしても活用でき、学部教育から卒後教育まで、同じツールにて一貫したトレーニングができることで、さらに医療技術の向上と医療サービスの向上に資することが期待される。 As a result, the X-ray imaging learning system 100 according to the present embodiment can be expected to be utilized in the education of radiological technologist training schools nationwide. In addition to being used in lectures and practical training, it can also be used as an active learning tool for students to learn by themselves. This system promotes active learning related to X-ray photography, which was difficult to practice without facilities and equipment related to X-ray equipment. Needless to say, it can be used not only as a tool for student education but also as a tool for postgraduate education for radiological technologists in medical institutions. It is expected to contribute to the improvement and improvement of medical services.

以上、本発明の好適な実施の形態により、特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。 Although the present invention has been described above with reference to specific specific examples according to the preferred embodiments of the present invention, these specific embodiments are not deviated from the broad purpose and scope of the present invention defined in the claims. It is clear that various modifications and changes can be made to the example. That is, it should not be construed that the present invention is limited by the details of the specific examples and the accompanying drawings.

なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記録媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。 It should be noted that the present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or an apparatus via a network or a recording medium, and one or more processors in the computer of the system or the apparatus are a program. It can also be realized by the process of reading and operating.

10 X線撮影学習サーバ
20 ウェアラブルモーションセンサ
100 X線撮影学習システム
101 画像読込部
102 画像表示制御部
103 姿勢情報受信部
104 一致度判定部
107 記憶部
201 姿勢情報取得部
202 姿勢情報送信部
10 X-ray photography learning server 20 Wearable motion sensor 100 X-ray photography learning system 101 Image reading unit 102 Image display control unit 103 Attitude information receiving unit 104 Matching degree determination unit 107 Storage unit 201 Attitude information acquisition unit 202 Attitude information transmitting unit

図6は、本実施形態に係るX線撮影学習システムを用いた学習例3を示す図である。学習者31が学習協力者32の姿勢を動かすと、人体部位の姿勢変化に伴う姿勢情報が順次、ウェアラブルモーションセンサ20からX線撮影学習サーバ10に送られてくる。例えば、学習者31が学習協力者32の頭部を基準姿勢から左向き方向にポジショニングした場合、画面上に表示している3Dモデル画像も同期したように左向き方向に回転しながら表示される。即ち、学習者31は学習協力者32の姿勢を動かしながら撮影部位の最適ポジショニングを探索するとともに、画面上でそのポジショニングでどのような放射線画像が撮影されうるかをリアルタイム回転でモニタリングすることができる。
FIG. 6 is a diagram showing a learning example 3 using the X-ray imaging learning system according to the present embodiment. When the learner 31 moves the posture of the learning collaborator 32, the posture information accompanying the posture change of the human body part is sequentially sent from the wearable motion sensor 20 to the X-ray imaging learning server 10. For example, when the learner 31 positions the head of the learning collaborator 32 in the leftward direction from the reference posture, the 3D model image displayed on the screen is also displayed while rotating in the leftward direction as if synchronized. That is, the learner 31 can search for the optimum positioning of the imaging site while moving the posture of the learning collaborator 32, and can monitor what kind of radiographic image can be captured by the positioning on the screen in real time rotation. ..

Claims (7)

X線撮影技術を学習するためのX線撮影学習装置であって、
X線撮影装置により撮影された所定の部位を含む臨床画像データを読み込む画像読込手段と、
表示装置に、前記臨床画像データに基づいてレンダリングされた3Dモデル画像を表示する画像表示制御手段と、
人体の前記所定の部位に装着されたモーションセンサから、該部位の姿勢変化に伴う該部位の空間回転量に関する姿勢情報を受信する姿勢情報受信手段と、を有し、
前記画像表示制御手段は、前記表示装置に表示した3Dモデル画像の前記部位を、前記空間回転量に対応させて回転させること、
を特徴とするX線撮影学習装置。
An X-ray photography learning device for learning X-ray photography techniques.
An image reading means for reading clinical image data including a predetermined site imaged by an X-ray imaging device, and
An image display control means for displaying a 3D model image rendered based on the clinical image data on a display device, and an image display control means.
It has a posture information receiving means for receiving posture information regarding the amount of spatial rotation of the portion due to a posture change of the portion from a motion sensor mounted on the predetermined portion of the human body.
The image display control means rotates the portion of the 3D model image displayed on the display device in accordance with the amount of spatial rotation.
An X-ray photography learning device characterized by.
X線撮影技術に関する課題と、該課題毎に模範となる姿勢情報とを対応付けて記憶した記憶手段と、
前記姿勢情報受信手段により受信された姿勢情報と、前記模範となる姿勢情報との一致度を判定する一致度判定手段と、
を有することを特徴とする請求項1に記載のX線撮影学習装置。
A storage means that stores problems related to X-ray photography technology in association with posture information that serves as a model for each problem.
A matching degree determining means for determining the degree of matching between the posture information received by the posture information receiving means and the model posture information, and a matching degree determining means.
The X-ray photographing learning apparatus according to claim 1.
前記一致度判定手段は、前記姿勢情報受信手段により受信された姿勢情報と、前記模範となる姿勢情報との差異に基づく自然言語文を出力すること、
を特徴とする請求項2に記載のX線撮影学習装置。
The matching degree determining means outputs a natural language sentence based on the difference between the posture information received by the posture information receiving means and the model posture information.
The X-ray imaging learning apparatus according to claim 2.
前記人体は、人体模型を含むこと、
を特徴とする請求項1ないし3何れか一項に記載のX線撮影学習装置。
The human body includes a human body model,
The X-ray imaging learning apparatus according to any one of claims 1 to 3.
X線撮影技術を学習するためのX線撮影学習装置であって、
X線撮影装置により撮影された所定の部位を含む臨床画像データを読み込む画像読込手段と、
表示装置に、前記臨床画像データを表示する画像表示制御手段と、
人体の前記所定の部位に装着されたモーションセンサから、該部位の姿勢を示す姿勢情報を受信する姿勢情報受信手段と、を有し、
前記画像表示制御手段は、前記表示装置に表示した臨床画像を、前記姿勢情報に対応させて表示すること、
を特徴とするX線撮影学習装置。
An X-ray photography learning device for learning X-ray photography techniques.
An image reading means for reading clinical image data including a predetermined site imaged by an X-ray imaging device, and
An image display control means for displaying the clinical image data on a display device,
It has a posture information receiving means for receiving posture information indicating the posture of the portion from a motion sensor mounted on the predetermined portion of the human body.
The image display control means displays a clinical image displayed on the display device in correspondence with the posture information.
An X-ray photography learning device characterized by.
コンピュータを、請求項1ないし5何れか一項に記載のX線撮影学習装置として機能させるためのX線撮影学習プログラム。 An X-ray photography learning program for causing a computer to function as the X-ray photography learning device according to any one of claims 1 to 5. X線撮影技術を学習するためのX線撮影学習プログラムと、人体の所定の部位に装着されたモーションセンサとを含むX線撮影学習システムであって、
前記X線撮影学習プログラムは、
コンピュータを、
X線撮影装置により撮影された前記部位を含む臨床画像データを読み込む画像読込手段と、
表示装置に、前記臨床画像データに基づいてレンダリングされた3Dモデル画像を表示する画像表示制御手段と、
前記モーションセンサから、該部位の姿勢変化に伴う該部位の空間回転量に関する姿勢情報を受信する姿勢情報受信手段として機能させ、
前記画像表示制御手段は、前記表示装置に表示した3Dモデル画像の前記部位を、前記空間回転量に対応させて回転させること、
を特徴とするX線撮影学習システム。

An X-ray photography learning system that includes an X-ray photography learning program for learning X-ray photography techniques and a motion sensor mounted on a predetermined part of the human body.
The X-ray photography learning program is
Computer,
An image reading means for reading clinical image data including the site imaged by an X-ray imaging device, and
An image display control means for displaying a 3D model image rendered based on the clinical image data on a display device, and an image display control means.
The motion sensor is made to function as a posture information receiving means for receiving posture information regarding the amount of spatial rotation of the part due to a change in the posture of the part.
The image display control means rotates the portion of the 3D model image displayed on the display device in accordance with the amount of spatial rotation.
X-ray photography learning system featuring.

JP2020201390A 2020-12-04 2020-12-04 X-ray photography learning device, X-ray photography learning program and X-ray photography learning system Active JP6936452B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020201390A JP6936452B1 (en) 2020-12-04 2020-12-04 X-ray photography learning device, X-ray photography learning program and X-ray photography learning system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020201390A JP6936452B1 (en) 2020-12-04 2020-12-04 X-ray photography learning device, X-ray photography learning program and X-ray photography learning system

Publications (2)

Publication Number Publication Date
JP6936452B1 JP6936452B1 (en) 2021-09-15
JP2022089206A true JP2022089206A (en) 2022-06-16

Family

ID=77657932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020201390A Active JP6936452B1 (en) 2020-12-04 2020-12-04 X-ray photography learning device, X-ray photography learning program and X-ray photography learning system

Country Status (1)

Country Link
JP (1) JP6936452B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090707A (en) * 2014-10-31 2016-05-23 東京電力株式会社 Radiation simulator
JP3205229U (en) * 2016-03-30 2016-07-14 株式会社D’Arts Direct contact of multiple people with motion sensors
JP2016145978A (en) * 2015-01-29 2016-08-12 公立大学法人首都大学東京 Radiography learning system
CN107527542A (en) * 2017-09-18 2017-12-29 南京梦宇三维技术有限公司 Percussion training system based on motion capture
CN107729838A (en) * 2017-10-12 2018-02-23 中科视拓(北京)科技有限公司 A kind of head pose evaluation method based on deep learning
JP6479933B1 (en) * 2017-11-01 2019-03-06 株式会社コロプラ Program, information processing apparatus, and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090707A (en) * 2014-10-31 2016-05-23 東京電力株式会社 Radiation simulator
JP2016145978A (en) * 2015-01-29 2016-08-12 公立大学法人首都大学東京 Radiography learning system
JP3205229U (en) * 2016-03-30 2016-07-14 株式会社D’Arts Direct contact of multiple people with motion sensors
CN107527542A (en) * 2017-09-18 2017-12-29 南京梦宇三维技术有限公司 Percussion training system based on motion capture
CN107729838A (en) * 2017-10-12 2018-02-23 中科视拓(北京)科技有限公司 A kind of head pose evaluation method based on deep learning
JP6479933B1 (en) * 2017-11-01 2019-03-06 株式会社コロプラ Program, information processing apparatus, and method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Suit mov", YOUTUBE [ONLINE][VIDEO], JPN7021000807, 18 September 2018 (2018-09-18), ISSN: 0004470577 *
丸山 敏則: "頭部X線撮影のためのポジショニング技術", 電子情報通信学会技術研究報告, vol. 105, no. 386, JPN6021028070, 31 October 2005 (2005-10-31), JP, pages 23 - 26, ISSN: 0004554902 *
大竹 亮一: "モーションキャプチャカメラを用いたX線撮影学習システムの開発と現状", 第16回日本バーチャルリアリティ学会大会論文集[CD−ROM], JPN6021028071, 20 September 2011 (2011-09-20), pages 159 - 162, ISSN: 0004554901 *

Also Published As

Publication number Publication date
JP6936452B1 (en) 2021-09-15

Similar Documents

Publication Publication Date Title
CN106687046B (en) Guidance system for positioning a patient for medical imaging
CN110494921B (en) Enhancing real-time views of a patient with three-dimensional data
US11157131B2 (en) Virtual reality-based radiology practice apparatus and method
US10959782B2 (en) Systems and methods for intra-operative image acquisition and calibration
US11737828B2 (en) System and method for medical device placement
US20160328998A1 (en) Virtual interactive system for ultrasound training
US20240090950A1 (en) System and method using augmented reality with shape alignment for medical device placement
US20100055657A1 (en) Radiographic and ultrasound simulators
WO2009117419A2 (en) Virtual interactive system for ultrasound training
CN109961520B (en) VR/MR classroom based on third view angle technology and construction method thereof
US10646190B2 (en) Radiography guide system and method
JP2016145978A (en) Radiography learning system
KR101894455B1 (en) Method for production and management of virtual reality contents for radiology X-ray study
Costa et al. Ultrasound training simulator using augmented reality glasses: An accuracy and precision assessment study
KR101849773B1 (en) Digital radiography training simulator with image selection algorithm and method thereof
JP6936452B1 (en) X-ray photography learning device, X-ray photography learning program and X-ray photography learning system
KR20180071838A (en) Simulation system for X-ray imaging apparatus
Xu et al. Co-located mixed reality for teaching equine radiology techniques to veterinary students
KR102012594B1 (en) Evaluation System for Radiographers’ Training
Allen et al. Miniature C-arm simulator using wireless accelerometer based tracking
EP3939513A1 (en) One-dimensional position indicator
AU2021107210A4 (en) System, method and virtual reality device for assessing compliance of body movement
KR102345827B1 (en) The method of simulation for taking medical imaging
BR102022005610A2 (en) SYSTEM OF WEARABLE DEVICES TO MEASURE, DISPLAY AND SHARE STATISTICALLY AND DYNAMICALLY THE ANGULAR POSITION OF ANATOMICAL STRUCTURES
CN116782850A (en) Ultrasonic simulation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210114

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6936452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150