JP2018023414A - Medical image processing device and object moving method - Google Patents

Medical image processing device and object moving method Download PDF

Info

Publication number
JP2018023414A
JP2018023414A JP2016155326A JP2016155326A JP2018023414A JP 2018023414 A JP2018023414 A JP 2018023414A JP 2016155326 A JP2016155326 A JP 2016155326A JP 2016155326 A JP2016155326 A JP 2016155326A JP 2018023414 A JP2018023414 A JP 2018023414A
Authority
JP
Japan
Prior art keywords
medical image
movement
pointing device
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016155326A
Other languages
Japanese (ja)
Other versions
JP6925108B2 (en
Inventor
秀明 小池
Hideaki Koike
秀明 小池
高橋 健太郎
Kentaro Takahashi
健太郎 高橋
裕子 西村
Hiroko Nishimura
裕子 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016155326A priority Critical patent/JP6925108B2/en
Publication of JP2018023414A publication Critical patent/JP2018023414A/en
Application granted granted Critical
Publication of JP6925108B2 publication Critical patent/JP6925108B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a medical image processing device and an object moving method that enable a plurality of kinds of movements of an object on a medical image to be performed with one time operation (stroke) by a general pointing device.SOLUTION: A CPU 101 of a medical image processing device 1 assigns a method for moving an object disposed on a medical image for an operation direction of a mouse 108 (pointing device). Specifically, "translation" of the object is assigned for a vertical moving operation of the mouse 108, and "rotation" of the object is assigned for a horizontal moving operation, for example. The CPU 101 discriminates the operation direction of the mouse 108, and moves the object by the assigned moving method. Thereby, the object can be rotated while being translated by one stroke. In particular, image analysis work performed in diagnosis of scoliosis for evaluating the inclination of the vertebra can be carried out efficiently.SELECTED DRAWING: Figure 2

Description

本発明は、医用画像処理装置及びオブジェクト移動方法に係り、詳細には、側弯症等の画像診断を支援するための操作に関する。   The present invention relates to a medical image processing apparatus and an object moving method, and more particularly to an operation for supporting image diagnosis such as scoliosis.

医師等が画像解析に用いる画像処理装置では、一般的な入力装置として、キーボード及びマウス(ポインティングデバイス)等が使用される。また、これらの構成に加えて特殊なインタフェースが追加されることがある。例えば特許文献1では、2つの座標変位入力部を持つポインティングデバイスを使用して、オブジェクトを移動及び回転する方法が開示されている。医用画像解析では骨等の形状を観察し、視覚的に判断することも多く、特許文献1に示すような計測ツールの利用は重要な読影手段となっている。例えば、脊柱の疾患である側弯症の診断では、X線画像診断装置等で撮影された医用画像を用いて脊柱の湾曲の程度をコブ(Cobb)法によって評価している。コブ法は、脊椎の傾斜が最も大きい椎体を終椎とし、上位終椎の上縁と下位終椎の下縁とのなす角度(コブ角)をX線画像等から計測する方法である。医師等は、医用画像上で上位終椎に接する直線と下位終椎に接する直線を引き、これらの直線が交わる角度からコブ角を求めるが、このとき医師等は直線の角度や位置を調整する作業を行う必要がある。   In an image processing apparatus used for image analysis by a doctor or the like, a keyboard and a mouse (pointing device) are used as general input devices. In addition to these configurations, a special interface may be added. For example, Patent Document 1 discloses a method of moving and rotating an object using a pointing device having two coordinate displacement input units. In medical image analysis, the shape of a bone or the like is often observed and visually judged, and the use of a measurement tool as disclosed in Patent Document 1 is an important interpretation means. For example, in the diagnosis of scoliosis, which is a disease of the spinal column, the degree of spinal curvature is evaluated by the Cobb method using medical images taken with an X-ray diagnostic imaging apparatus or the like. The Kobb method is a method of measuring the angle (cobb angle) formed by the upper edge of the upper terminal vertebra and the lower edge of the lower terminal vertebra from the X-ray image, etc. Doctors draw a straight line in contact with the upper terminal vertebra and a straight line in contact with the lower terminal vertebra on the medical image, and obtain a hump angle from the angle at which these straight lines intersect. At this time, the doctor adjusts the angle and position of the straight line. Need to do work.

特開2001−202197号公報JP 2001-202197 A

しかしながら、画像解析作業ではポインティングデバイスを用いて医用画像上で移動対象の位置や角度を調整する作業では、平行移動と回転移動の複数種類の移動をそれぞれ別々の操作で行う必要があり、操作回数が多く煩雑であった。また、特許文献1に示すような新たなインタフェース(デバイス)を装置に追加するのは、操作の汎用性やコストの面からも好ましくない。   However, in the image analysis work, in the work of adjusting the position and angle of the movement target on the medical image using a pointing device, it is necessary to perform multiple types of movements of parallel movement and rotational movement by separate operations, and the number of operations There were many complicated. Also, it is not preferable to add a new interface (device) as shown in Patent Document 1 to the apparatus from the viewpoint of versatility of operation and cost.

本発明は、以上の問題点に鑑みてなされたものであり、一般的なポインティングデバイスによる1度の操作(ストローク)で、医用画像上のオブジェクトの複数種類の移動を可能とする、医用画像処理装置及びオブジェクト移動方法を提供することを目的とする。   The present invention has been made in view of the above problems, and medical image processing that enables a plurality of types of movement of an object on a medical image by a single operation (stroke) using a general pointing device. An object is to provide an apparatus and an object moving method.

前述した目的を達成するために第1の発明は、医用画像を取得し、表示する表示部と、表示された医用画像上にオブジェクトを配置するオブジェクト配置部と、前記オブジェクトを移動するための操作を入力するポインティングデバイスと、前記ポインティングデバイスの操作方向に対して前記オブジェクトの移動方法を割り当てる設定部と、前記ポインティングデバイスの操作方向を判別する判別部と、前記判別部により判別された操作方向に応じて前記設定部により割り当てられた移動方法で前記オブジェクトを移動する移動処理部と、を備えることを特徴とする医用画像処理装置である。   In order to achieve the above-described object, the first invention obtains a medical image and displays it, an object placement unit that places an object on the displayed medical image, and an operation for moving the object A pointing device that inputs a pointing device, a setting unit that assigns the moving method of the object to the operation direction of the pointing device, a determination unit that determines the operation direction of the pointing device, and an operation direction determined by the determination unit And a movement processing unit that moves the object in accordance with the movement method assigned by the setting unit.

第2の発明は、医用画像を取得し、表示する表示部と、表示された医用画像上にオブジェクトを配置するオブジェクト配置部と、ポインティングデバイスによる操作を受け付けるオブジェクト移動ツールを前記オブジェクト上に配置するオブジェクト移動ツール配置部と、前記オブジェクト移動ツール上の各位置に対して前記オブジェクトの回転量を割り当てる設定部と、前記ポインティングデバイスによる前記オブジェクト移動ツールへの指示位置を判別する判別部と、前記ポインティングデバイスによる前記オブジェクト移動ツールのドラッグ操作に伴い前記オブジェクトを移動するとともに、前記判別部により判別された指示位置に応じて前記設定部により割り当てられた回転量で前記オブジェクトを回転する移動処理部と、を備えることを特徴とする医用画像処理装置である。   According to a second aspect of the present invention, a display unit that acquires and displays a medical image, an object placement unit that places an object on the displayed medical image, and an object moving tool that receives an operation by a pointing device are placed on the object. An object movement tool placement unit; a setting unit that assigns the amount of rotation of the object to each position on the object movement tool; a determination unit that determines an instruction position to the object movement tool by the pointing device; and the pointing A movement processing unit that moves the object in accordance with a drag operation of the object movement tool by a device, and that rotates the object by a rotation amount assigned by the setting unit according to an instruction position determined by the determination unit; With DOO is a medical image processing apparatus according to claim.

第3の発明は、医用画像を取得し、表示するステップと、表示された医用画像上にオブジェクトを配置するステップと、前記オブジェクトを移動するための操作を入力するポインティングデバイスの操作方向に対して前記オブジェクトの移動方法を割り当てるステップと、前記ポインティングデバイスの操作方向を判別するステップと、判別された操作方向に応じて、割り当てられた移動方法で前記オブジェクトを移動するステップと、を含むことを特徴とするオブジェクト移動方法である。   According to a third aspect of the present invention, a step of acquiring and displaying a medical image, a step of arranging an object on the displayed medical image, and an operation direction of a pointing device for inputting an operation for moving the object A step of assigning a moving method of the object; a step of determining an operation direction of the pointing device; and a step of moving the object by an assigned moving method according to the determined operation direction. This is an object moving method.

第4の発明は、医用画像を取得し、表示するステップと、表示された医用画像上にオブジェクトを配置するステップと、ポインティングデバイスによる操作を受け付けるオブジェクト移動ツールを前記オブジェクト上に配置するステップと、前記オブジェクト移動ツール上の各位置に対して前記オブジェクトの回転量を割り当てるステップと、前記ポインティングデバイスによる前記オブジェクト移動ツールへの指示位置を判別するステップと、前記ポインティングデバイスによる前記オブジェクト移動ツールのドラッグ操作に伴い前記オブジェクトを移動するとともに、判別された指示位置に応じて、割り当てられた回転量で前記オブジェクトを回転するステップと、を含むことを特徴とするオブジェクト移動方法である。   4th invention acquires a medical image, displays it, the step which arrange | positions an object on the displayed medical image, the step which arrange | positions the object movement tool which receives operation by a pointing device on the said object, Assigning the amount of rotation of the object to each position on the object moving tool; determining a position indicated by the pointing device to the object moving tool; and dragging the object moving tool by the pointing device And moving the object along with the step of rotating the object by an assigned rotation amount in accordance with the determined indication position.

本発明により、一般的なポインティングデバイスによる1度の操作(ストローク)で、医用画像上のオブジェクトの複数種類の移動を可能とする、医用画像処理装置及びオブジェクト移動方法を提供できる。   According to the present invention, it is possible to provide a medical image processing apparatus and an object moving method capable of moving a plurality of types of objects on a medical image with a single operation (stroke) using a general pointing device.

医用画像処理装置100の全体構成を示す図The figure which shows the whole structure of the medical image processing apparatus 100 本発明に係る医用画像処理装置100のオブジェクト移動機能に関する構成図The block diagram regarding the object movement function of the medical image processing apparatus 100 which concerns on this invention オブジェクト移動処理の流れを説明するフローチャートFlow chart explaining the flow of object movement processing 医用画像50上でオブジェクト移動処理を適用する例を説明する図The figure explaining the example which applies an object movement process on the medical image 50 オブジェクト移動処理において設定される補助線及び基準線(オブジェクト)を説明する図The figure explaining the auxiliary line and reference line (object) which are set in an object movement process 回転量バー301の一例を示す図The figure which shows an example of the rotation amount bar 301 第2の実施の形態のオブジェクト移動処理の流れを説明するフローチャートA flowchart for explaining the flow of object movement processing according to the second embodiment 医用画像50に対し第2の実施の形態のオブジェクト移動処理を適用する例を説明する図The figure explaining the example which applies the object movement process of 2nd Embodiment with respect to the medical image 50 オブジェクト移動ツール71の例Example of object moving tool 71 オブジェクト移動ツール71を用いた比較オブジェクト63の平行移動Translation of comparison object 63 using object movement tool 71 オブジェクト移動ツール71を用いた比較オブジェクト63の回転Rotation of comparison object 63 using object movement tool 71 オブジェクト移動ツール71によって平行移動と回転を組み合わせた移動例Example of movement combining object translation tool 71 with translation and rotation オブジェクト移動ツール71の右ボタンクリックによる回転量変更の例Example of rotation amount change by right button click of object movement tool 71 第3の実施の形態のオブジェクト移動処理の流れを説明するフローチャートThe flowchart explaining the flow of the object movement process of 3rd Embodiment 図14に続くフローチャートFlowchart following FIG.

以下図面に基づいて、本発明の実施形態を詳細に説明する。
[第1の実施の形態]
まず、図1を参照して、本発明の医用画像処理装置100を適用した画像処理システムの構成について説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First Embodiment]
First, the configuration of an image processing system to which the medical image processing apparatus 100 of the present invention is applied will be described with reference to FIG.

図1に示すように、画像処理システムは、表示装置107、入力装置109を有する医用画像処理装置100と、医用画像処理装置100にネットワーク110を介して接続される医用画像データベース111と、医用画像撮影装置112とを備える。   As shown in FIG. 1, the image processing system includes a medical image processing apparatus 100 having a display device 107 and an input device 109, a medical image database 111 connected to the medical image processing apparatus 100 via a network 110, and a medical image. And an imaging device 112.

医用画像処理装置100は、画像生成、画像解析等の処理を行うコンピュータである。医用画像処理装置100は、図1に示すように、CPU(Central Processing Unit)101、主メモリ102、記憶装置103、通信インタフェース(通信I/F)104、表示メモリ105、ポインティングデバイス(マウス)108等の外部機器とのインタフェース(I/F)106を備え、各部はバス113を介して接続されている。   The medical image processing apparatus 100 is a computer that performs processing such as image generation and image analysis. As shown in FIG. 1, the medical image processing apparatus 100 includes a CPU (Central Processing Unit) 101, a main memory 102, a storage device 103, a communication interface (communication I / F) 104, a display memory 105, and a pointing device (mouse) 108. And an external device such as an interface (I / F) 106, and each unit is connected via a bus 113.

CPU101は、主メモリ102または記憶装置103等に格納されるプログラムを主メモリ102のRAM上のワークメモリ領域に呼び出して実行し、バス113を介して接続された各部を駆動制御し、医用画像処理装置100が行う各種処理を実現する。   The CPU 101 calls a program stored in the main memory 102 or the storage device 103 to the work memory area on the RAM of the main memory 102 and executes the program, drives and controls each unit connected via the bus 113, and performs medical image processing. Various processes performed by the apparatus 100 are realized.

CPU101は、ポインティングデバイス108からの操作入力に伴いオブジェクト移動処理を実行する。この処理の詳細については後述する。   The CPU 101 executes object movement processing in response to an operation input from the pointing device 108. Details of this processing will be described later.

主メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成される。ROMはコンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。また、RAMは、ROM、記憶装置103等からロードしたプログラム、データ等を一時的に保持するとともに、CPU101が各種処理を行う為に使用するワークエリアを備える。   The main memory 102 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The ROM permanently holds a computer boot program, a program such as BIOS, data, and the like. The RAM temporarily stores programs, data, and the like loaded from the ROM, the storage device 103, and the like, and includes a work area used by the CPU 101 for performing various processes.

記憶装置103は、HDD(ハードディスクドライブ)や他の記録媒体へのデータの読み書きを行う記憶装置であり、CPU101が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OSに相当する制御プログラムや、アプリケーションプログラムが格納されている。これらの各プログラムコードは、CPU101により必要に応じて読み出されて主メモリ102のRAMに移され、各種の手段として実行される。   The storage device 103 is a storage device that reads and writes data to and from an HDD (hard disk drive) and other recording media, and stores a program executed by the CPU 101, data necessary for program execution, an OS (operating system), and the like. . As for the program, a control program corresponding to the OS and an application program are stored. Each of these program codes is read by the CPU 101 as necessary, transferred to the RAM of the main memory 102, and executed as various means.

通信I/F104は、通信制御装置、通信ポート等を有し、医用画像処理装置100とネットワーク110との通信を媒介する。また通信I/F104は、ネットワーク110を介して、医用画像データベース111や、他のコンピュータ、或いは、X線CT装置、MRI装置、X線診断装置、超音波診断装置、シンチレーションカメラ装置、PET装置、SPECT装置等の医用画像撮影装置112との通信制御を行う。
I/F106は、周辺機器を接続させるためのポートであり、周辺機器とのデータの送受信を行う。例えば、マウス108やスタイラスペン等のポインティングデバイスをI/F106を介して接続させるようにしてもよい。
The communication I / F 104 includes a communication control device, a communication port, and the like, and mediates communication between the medical image processing apparatus 100 and the network 110. The communication I / F 104 is connected to the medical image database 111, another computer, an X-ray CT apparatus, an MRI apparatus, an X-ray diagnostic apparatus, an ultrasonic diagnostic apparatus, a scintillation camera apparatus, a PET apparatus, via the network 110. Communication control with a medical image photographing apparatus 112 such as a SPECT apparatus is performed.
The I / F 106 is a port for connecting a peripheral device, and transmits / receives data to / from the peripheral device. For example, a pointing device such as a mouse 108 or a stylus pen may be connected via the I / F 106.

表示メモリ105は、CPU101から入力される表示データを一時的に蓄積するバッファである。蓄積された表示データは所定のタイミングで表示装置107に出力される。   The display memory 105 is a buffer that temporarily accumulates display data input from the CPU 101. The accumulated display data is output to the display device 107 at a predetermined timing.

表示装置107は、液晶パネル、CRTモニタ等のディスプレイ装置と、ディスプレイ装置と連携して表示処理を実行するための論理回路で構成され、表示メモリ105を介してCPU101に接続される。表示装置107はCPU101の制御により表示メモリ105に蓄積された表示データを表示する。   The display device 107 includes a display device such as a liquid crystal panel and a CRT monitor, and a logic circuit for executing display processing in cooperation with the display device, and is connected to the CPU 101 via the display memory 105. The display device 107 displays display data stored in the display memory 105 under the control of the CPU 101.

入力装置109は、例えば、キーボード等の入力装置であり、操作者によって入力される各種の指示や情報をCPU101に出力する。操作者は、表示装置107、入力装置109、及びポインティングデバイス(マウス)108等の機器を使用して対話的に医用画像処理装置100を操作する。   The input device 109 is an input device such as a keyboard, for example, and outputs various instructions and information input by the operator to the CPU 101. The operator interactively operates the medical image processing apparatus 100 using devices such as the display device 107, the input device 109, and the pointing device (mouse) 108.

ネットワーク110は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット等の各種通信網を含み、医用画像データベース111やサーバ、他の情報機器等と医用画像処理装置100との通信接続を媒介する。   The network 110 includes various communication networks such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet, and connects the medical image database 111, a server, other information devices, and the like to the medical image processing apparatus 100. Mediate.

医用画像データベース111は、医用画像撮影装置112によって撮影された医用画像データを蓄積して記憶するものである。なお、図1に示す画像処理システムでは、医用画像データベース111はネットワーク110を介して医用画像処理装置100に接続される構成であるが、医用画像処理装置100内の例えば記憶装置103に医用画像データベース111を設けるようにしてもよい。   The medical image database 111 accumulates and stores medical image data captured by the medical image capturing device 112. In the image processing system illustrated in FIG. 1, the medical image database 111 is connected to the medical image processing apparatus 100 via the network 110, but the medical image database is stored in, for example, the storage device 103 in the medical image processing apparatus 100. 111 may be provided.

次に、図2を参照してオブジェクト移動に関する機能構成について説明する。
図2に示すように医用画像処理装置100のCPU101は、医用画像取得・表示部21、診断対象部位抽出部22、オブジェクト配置部23、設定部24、判別部25、及びオブジェクト移動処理部26を有する。
Next, a functional configuration related to object movement will be described with reference to FIG.
As shown in FIG. 2, the CPU 101 of the medical image processing apparatus 100 includes a medical image acquisition / display unit 21, a diagnosis target part extraction unit 22, an object placement unit 23, a setting unit 24, a determination unit 25, and an object movement processing unit 26. Have.

医用画像取得・表示部21は、記憶装置103や医用画像撮影装置112または医用画像データベース111から画像データを読み込み主メモリ102に保持するとともに、表示装置107に表示する。医用画像データは、被検体をX線画像診断装置、X線CT装置、MR装置等の医用画像撮影装置112により撮影された医用画像である。以下の説明では、X線画像診断装置により得られた脊椎部のX線画像を入力画像とする例について説明する。   The medical image acquisition / display unit 21 reads image data from the storage device 103, the medical image photographing device 112, or the medical image database 111, holds the image data in the main memory 102, and displays it on the display device 107. The medical image data is a medical image obtained by photographing a subject with a medical image photographing apparatus 112 such as an X-ray image diagnostic apparatus, an X-ray CT apparatus, or an MR apparatus. In the following description, an example in which an X-ray image of a spine obtained by an X-ray image diagnostic apparatus is used as an input image will be described.

診断対象部位抽出部22は、医用画像取得・表示部21により表示された医用画像から診断対象とする部位を抽出する。本実施の形態において、抽出する部位は脊椎領域とする。脊椎領域の抽出は手動でもよいし、公知の抽出方法を用いてもよい。例えば特開2010−246662号公報には被検体の体軸方向の連続性を考慮した椎体(骨)領域の抽出方法が記載されている。   The diagnosis target part extraction unit 22 extracts a part to be diagnosed from the medical image displayed by the medical image acquisition / display unit 21. In the present embodiment, a region to be extracted is a spine region. Extraction of the spinal region may be performed manually or a known extraction method may be used. For example, Japanese Patent Application Laid-Open No. 2010-246661 describes a method for extracting a vertebral body (bone) region in consideration of continuity in the body axis direction of a subject.

オブジェクト配置部23は、診断対象部位抽出部22により抽出された部位(脊椎領域)上にオブジェクトを配置する。オブジェクトは、本発明において移動の対象とするオブジェクトである。オブジェクトは、例えば直線オブジェクトや比較オブジェクト等である。直線オブジェクトとは、例えば脊椎の終椎を探索する際に脊椎画像に配置される基準線43(図4参照)等である。この基準線43を直線オブジェクトとして本発明のオブジェクト移動処理の移動対象とする。比較オブジェクト63とは、比較対象の形状を示すオブジェクトである。例えば、椎体の形状を模したオブジェクトである(図8参照)。比較オブジェクトは、医用画像から抽出した部位としてもよい。   The object placement unit 23 places an object on the part (spine region) extracted by the diagnosis target part extraction unit 22. An object is an object to be moved in the present invention. The object is, for example, a straight line object or a comparison object. The straight line object is, for example, a reference line 43 (see FIG. 4) that is arranged in the spine image when searching for the final spine of the spine. The reference line 43 is set as a moving object in the object moving process of the present invention as a straight line object. The comparison object 63 is an object indicating a comparison target shape. For example, an object simulating the shape of a vertebral body (see FIG. 8). The comparison object may be a part extracted from the medical image.

設定部24は、マウス108(ポインティングデバイス)の操作方向に対してオブジェクトの移動方法を割り当てる処理を行う。具体的には、例えば第1方向である操作方向に対してオブジェクトの「平行移動」を割り当てる。また、第1方向と異なる第2方向である操作方向に対してオブジェクトの「回転」を割り当てる。以下の説明では、マウス108の縦方向の操作を第1方向とし、横方向の操作を第2方向と呼ぶが、これに限定されない。また、第1方向と第2方向とが必ずしも直交する必要はなく任意の方向を設定してよい。   The setting unit 24 performs processing for assigning an object moving method to the operation direction of the mouse 108 (pointing device). Specifically, for example, “parallel movement” of the object is assigned to the operation direction which is the first direction. Further, “rotation” of the object is assigned to the operation direction which is the second direction different from the first direction. In the following description, the operation in the vertical direction of the mouse 108 is referred to as a first direction, and the operation in the horizontal direction is referred to as a second direction. Further, the first direction and the second direction are not necessarily perpendicular to each other, and an arbitrary direction may be set.

判別部25は、マウス108(ポインティングデバイス)の操作方向を判別し、オブジェクト移動処理部26に通知する。   The determination unit 25 determines the operation direction of the mouse 108 (pointing device) and notifies the object movement processing unit 26 of the operation direction.

オブジェクト移動処理部26は、判別部25により判別されたマウス108(ポインティングデバイス)の操作方向に応じて設定部24により割り当てられた移動方法でオブジェクトを移動する。例えば、第1方向(縦方向)である操作方向に対してオブジェクトの「平行移動」が割り当てられ、第1方向と異なる第2方向(横方向)である操作方向に対してオブジェクトの「回転」が割り当てられている場合は、マウス108が縦に移動された場合はオブジェクトをマウス108の操作方向に平行移動する。またマウス108が横方向に移動された場合にはオブジェクトを予め設定された回転量だけ回転させる。例えば、右方向「1cm」のマウス移動に対しオブジェクトの回転量「+10°」等のように、操作方向と操作量に対して移動方法(回転、平行移動等)及び移動量(回転量、移動量等)が予め定められているものとする。   The object movement processing unit 26 moves the object by the movement method assigned by the setting unit 24 according to the operation direction of the mouse 108 (pointing device) determined by the determination unit 25. For example, “translation” of the object is assigned to the operation direction that is the first direction (vertical direction), and “rotation” of the object to the operation direction that is the second direction (lateral direction) different from the first direction. When the mouse 108 is moved vertically, the object is translated in the operation direction of the mouse 108. When the mouse 108 is moved in the horizontal direction, the object is rotated by a preset amount of rotation. For example, the movement method (rotation, parallel movement, etc.) and movement amount (rotation amount, movement, etc.) with respect to the operation direction and operation amount, such as the rotation amount “+ 10 °” of the object with respect to the mouse movement in the right direction “1 cm”. Quantities etc.) are predetermined.

なお、オブジェクト移動処理部26はマウス108の操作方向が第1方向であると判定された場合に、診断対象部位抽出部22により抽出された部位の形状に沿ってオブジェクトを平行移動させることが望ましい。例えば、抽出部位が脊椎である場合、脊椎の芯線を経路とする等、脊椎に沿ってオブジェクトを平行移動させることが望ましい。   The object movement processing unit 26 preferably translates the object along the shape of the part extracted by the diagnosis target part extraction unit 22 when it is determined that the operation direction of the mouse 108 is the first direction. . For example, when the extraction site is the spine, it is desirable to translate the object along the spine, such as using the core of the spine as a path.

またオブジェクト移動処理部26は、判別部25によりマウス108(ポインティングデバイス)の操作方向が第1方向成分と第2方向成分とを含むと判別された場合は、各方向成分の割合に応じて各方向に割り当てられた移動方法を組み合わせた移動を行う。例えば、マウス108の縦方向の移動に対し「平行移動」が割り当てられ、横方向の移動に対し「回転」が割り当てられている場合に、マウス108が斜め方向に移動されると、移動された斜め方向の縦成分と横成分の割合に応じて、平行移動による移動量と回転量とを算出し、算出した移動量及び回転量に応じてオブジェクトを移動しながら回転させる。   In addition, when the determination unit 25 determines that the operation direction of the mouse 108 (pointing device) includes the first direction component and the second direction component, the object movement processing unit 26 sets each direction according to the ratio of each direction component. Performs a combination of movement methods assigned to directions. For example, when “parallel movement” is assigned to the vertical movement of the mouse 108 and “rotation” is assigned to the horizontal movement, the mouse 108 is moved when it is moved obliquely. A movement amount and a rotation amount due to parallel movement are calculated according to the ratio of the vertical component and the horizontal component in the oblique direction, and the object is rotated while moving according to the calculated movement amount and rotation amount.

次に、第1の実施の形態の医用画像処理装置100が実行するオブジェクト移動処理の流れを図3〜図6を参照して説明する。   Next, the flow of object movement processing executed by the medical image processing apparatus 100 according to the first embodiment will be described with reference to FIGS.

図3のフローチャートに示すように、CPU101(医用画像取得・表示部21)は、記憶装置103または通信I/F104を介して接続される医用画像データベース111から処理対象とする医用画像50を取得し、表示装置107に表示する(ステップS101)。そして、CPU101は取得した医用画像50から診断対象部位を抽出する(ステップS102)。以下の説明では、診断対象部位を脊椎領域とする例について説明する。脊椎領域の抽出は操作者による手動操作、または公知の手法を用いればよい。脊椎を抽出するための閾値は入力装置109等を用いて入力するものとしてもよいし、予め設定されている値を用いてもよい。   As illustrated in the flowchart of FIG. 3, the CPU 101 (medical image acquisition / display unit 21) acquires a medical image 50 to be processed from the medical image database 111 connected via the storage device 103 or the communication I / F 104. Is displayed on the display device 107 (step S101). Then, the CPU 101 extracts a diagnosis target part from the acquired medical image 50 (step S102). In the following description, an example in which a site to be diagnosed is a spinal region will be described. Extraction of the spine region may be performed manually by an operator or a known technique. The threshold for extracting the spine may be input using the input device 109 or the like, or a preset value may be used.

次に、CPU101は医用画像50上に対象の部位を挟むように平行な2本の補助線41a,41bを設定する(ステップS102)。補助線41a,41bは、後述する基準線43を決定し、かつオブジェクトの移動範囲を制限するための2本の平行な直線である。補助線41a、41bは予め設定された位置に描画されるものとしてもよいし、CPU101が対象の部位(脊椎の上位終椎及び下位終椎の候補等)を判別して補助線41a、41bの位置を決定してもよい。また、CPU101が補助線41a、41bの範囲を決めるのではなく、操作者が表示装置107に表示された医用画像50上に、マウス108等で指示することで任意の位置に補助線41a、41bを配置してもよい。   Next, the CPU 101 sets two auxiliary lines 41a and 41b in parallel so as to sandwich the target portion on the medical image 50 (step S102). The auxiliary lines 41a and 41b are two parallel straight lines for determining a reference line 43 to be described later and for limiting the movement range of the object. The auxiliary lines 41a and 41b may be drawn at a preset position, or the CPU 101 may determine a target region (candidates for the upper end spine and the lower end spine of the spine, etc.) and set the auxiliary lines 41a and 41b. The position may be determined. In addition, the CPU 101 does not determine the range of the auxiliary lines 41a and 41b, but the operator instructs the auxiliary lines 41a and 41b to arbitrary positions on the medical image 50 displayed on the display device 107 with the mouse 108 or the like. May be arranged.

終椎を探索する処理では、例えば図4に示すように、脊柱51を含む範囲に補助線41a,41b(2本の平行線)を配置することが望ましい。   In the process of searching for the terminal vertebra, it is desirable to arrange auxiliary lines 41a and 41b (two parallel lines) in a range including the spinal column 51, for example, as shown in FIG.

次に、操作者はマウス108またはキーボード等の入力装置109を用いて補助線41a、41bが引かれた範囲内の任意の1点を指定(クリック)する。CPU101はクリック操作を検知すると(ステップS103;Yes)、図5に示すように、クリック位置を通り補助線41a、41bに対し垂直な線分abを描画する。線分abを基準線43とする(ステップS104)。基準線43は移動対象とする直線オブジェクトである。   Next, the operator designates (clicks) an arbitrary point within the range where the auxiliary lines 41a and 41b are drawn using the input device 109 such as the mouse 108 or the keyboard. When the CPU 101 detects the click operation (step S103; Yes), as shown in FIG. 5, the line segment ab that passes through the click position and is perpendicular to the auxiliary lines 41a and 41b is drawn. The line segment ab is set as the reference line 43 (step S104). The reference line 43 is a straight line object to be moved.

また、CPU101は線分ab上の所定の点を基準点Oとして設定する。基準点Oは、線分abの中点としてもよいし、操作者がステップS103でクリックした点としてもよい。或いは、後述するように医用画像50から抽出した部位(脊椎等)上の点を基準点Oとしてもよい。   Further, the CPU 101 sets a predetermined point on the line segment ab as the reference point O. The reference point O may be a midpoint of the line segment ab or may be a point clicked by the operator in step S103. Alternatively, as described later, a point on a part (such as a spine) extracted from the medical image 50 may be used as the reference point O.

基準線43がマウス108等のポインティングデバイスを用いてドラッグされると(ステップS105;ドラッグ)、CPU101はドラッグ操作方向に基づいて基準線43の移動量(平行移動量、回転量)を算出する(ステップS106)。   When the reference line 43 is dragged using a pointing device such as the mouse 108 (step S105; drag), the CPU 101 calculates the movement amount (parallel movement amount, rotation amount) of the reference line 43 based on the drag operation direction ( Step S106).

ステップS106において、第1の実施の形態では、マウス108の移動方向が縦方向の場合は「平行移動」とし、横(左右)方向の場合は「回転」とする。基準線43の平行移動量は、マウス108の実際の移動距離に所定の係数αを乗算した量とする。係数αの値は任意の値であり、操作者によって設定可能としてもよい。またマウス108の左右方向の移動による基準線43の回転量は、例えばマウス108の右方向移動に伴い0°〜180°(反時計回り)、左方向移動に伴い0°〜−180°(時計回り)の回転量とする。   In step S106, in the first embodiment, when the moving direction of the mouse 108 is the vertical direction, “parallel movement” is set, and when the moving direction is the horizontal (left and right) direction, “rotation” is set. The parallel movement amount of the reference line 43 is an amount obtained by multiplying the actual movement distance of the mouse 108 by a predetermined coefficient α. The value of the coefficient α is an arbitrary value and may be set by the operator. Further, the rotation amount of the reference line 43 by the movement of the mouse 108 in the left-right direction is, for example, 0 ° to 180 ° (counterclockwise) with the mouse 108 moving in the right direction, and 0 ° to −180 ° (clockwise) with the left movement. Rotation).

なお、上述の回転量の割り当ては一例でありこれに限定されない。操作者によってマウス108の操作量に対するオブジェクト(基準線43)の回転量を指定可能としてもよい。この場合、CPU101は、例えば図6に示す回転量バー301のようなユーザインターフェースを表示装置107に表示して、マウス操作量に対する回転量の割り当てを入力する。回転量バー301に記される回転量ポインタ302は、マウス操作量に対するオブジェクトの回転量との割り当てを示し、マウス108やキーボード等の入力装置109によって移動可能とする。回転量バー301の中心から離れた位置に回転量ポインタ302をスライドすると、マウス108の操作量に対して移動対象とするオブジェクト(基準線43)の回転量が大きくなるように設定できる。回転量ポインタ302が回転量バー301の中心から右側にある場合は、反時計回り(0°〜180°)の回転量を設定でき、回転量ポインタ302が回転量バー301の中心から左側にある場合は、時計回り(0〜−180°)の回転量を設定できものとする。   The above-described allocation of the rotation amount is an example and is not limited to this. The operator may be able to specify the amount of rotation of the object (reference line 43) relative to the amount of operation of the mouse 108. In this case, the CPU 101 displays a user interface such as a rotation amount bar 301 shown in FIG. 6 on the display device 107, and inputs an assignment of the rotation amount to the mouse operation amount. A rotation amount pointer 302 written on the rotation amount bar 301 indicates assignment of the rotation amount of the object to the mouse operation amount, and can be moved by the input device 109 such as the mouse 108 or the keyboard. When the rotation amount pointer 302 is slid to a position away from the center of the rotation amount bar 301, the rotation amount of the object (reference line 43) to be moved can be set to be larger than the operation amount of the mouse 108. When the rotation amount pointer 302 is on the right side from the center of the rotation amount bar 301, a counterclockwise rotation amount (0 ° to 180 °) can be set, and the rotation amount pointer 302 is on the left side from the center of the rotation amount bar 301. In this case, the amount of rotation in the clockwise direction (0 to -180 °) can be set.

ステップS105のドラッグ操作の操作量及び操作方向に基づいて基準線43の移動量及び回転量が求められると、CPU101は求めた移動量及び回転量だけ基準線43を移動させ、再描画する(ステップS107)。ドロップされると(ステップS105;ドロップ)、CPU101は補助線41a、41bをクリア(消去)し、基準線43(オブジェクト)の位置を再描画した位置に確定する(ステップS108)。   When the movement amount and the rotation amount of the reference line 43 are obtained based on the operation amount and operation direction of the drag operation in step S105, the CPU 101 moves the reference line 43 by the obtained movement amount and rotation amount and redraws (step S105). S107). When dropped (step S105; drop), the CPU 101 clears (deletes) the auxiliary lines 41a and 41b, and determines the position of the reference line 43 (object) as the redrawn position (step S108).

図5に示すように、基準線43が初期位置(線分ab)からマウス108によって矢印47で示す軌跡でドラッグ操作された場合、矢印47の軌跡は横方向と縦方向の操作が含まれるため、操作量に応じて平行移動と回転が組み合わされ、移動後基準線48(線分a’’’b’’’)の位置に回転及び移動される。このようにマウス108による1ストロークの操作で、平行移動及び回転が行える。   As shown in FIG. 5, when the reference line 43 is dragged from the initial position (line segment ab) by the mouse 108 along the locus indicated by the arrow 47, the locus of the arrow 47 includes horizontal and vertical operations. The parallel movement and the rotation are combined according to the operation amount, and are rotated and moved to the position of the reference line 48 (the line segment a ′ ″ b ′ ″) after the movement. In this way, translation and rotation can be performed by one-stroke operation with the mouse 108.

なお、基準線43を線分a’b’の位置に移動したい場合は、マウス108を縦方向(下方向)にドラッグ操作すればよい。また基準線43の基準点Oの位置を変えずに傾きだけを変えたい場合は、マウス108を横方向(右方向)に操作すれば線分a’’b’’のように、基準点Oを通り傾きを変化させることができる。   In order to move the reference line 43 to the position of the line segment a′b ′, the mouse 108 may be dragged in the vertical direction (downward). If it is desired to change only the inclination without changing the position of the reference point O on the reference line 43, the reference point O can be obtained as shown by a line segment a ″ b ″ by operating the mouse 108 in the horizontal direction (right direction). The inclination can be changed through

このようなオブジェクトの移動操作は、図4に示す脊椎領域の医用画像50の解析に適用できる。側弯症の診断では、医用画像50から上下の終椎53、55を探索し、コブ角57を求めるといった画像解析が行われる。この場合、操作者は例えば椎体53を上位終椎と想定し、この椎骨53の傾きが最も大きい傾きであるかを画像に線を引いて確認する。この線を引く作業において、図4に示すオブジェクト移動処理を適用する。   Such an object moving operation can be applied to the analysis of the medical image 50 of the spine region shown in FIG. In the diagnosis of scoliosis, image analysis is performed such that the upper and lower end vertebrae 53 and 55 are searched from the medical image 50 and the hump angle 57 is obtained. In this case, the operator assumes, for example, the vertebral body 53 as the upper terminal vertebra, and checks whether the inclination of the vertebra 53 is the largest inclination by drawing a line on the image. In the operation of drawing this line, the object movement process shown in FIG. 4 is applied.

すなわち、操作者は、まず脊柱51を含むように補助線41a、41bを配置する。CPU101は補助線41a,41bに垂直な基準線43を設定する。操作者は基準線43をクリックし、想定した終椎53の位置に向かって斜め方向にドラッグ操作を行う。すると、脊柱51の芯線を経路として基準線43が上方向に移動されるとともに回転される。操作者は、このドラッグ操作によって終椎53の上縁に接する位置(線分47aの位置)に基準線43が移動され、再描画された位置でドロップ操作する。この一連のドラッグ&ドロップ操作によって、CPU101は基準線43を線分47aの位置に移動させる。比較のために、操作者は、想定した終椎(椎骨)53の上下の椎体についても、同様のドラッグ&ドロップ操作によって各椎体の上縁に接する線47b、47cを引く。線分47a、47b、47cのうち傾きが最も大きい椎体が終椎である。操作者は複数の線47a、47b、47cの傾きを観察することにより、終椎は椎骨53であると判断する。   That is, the operator first arranges the auxiliary lines 41 a and 41 b so as to include the spinal column 51. The CPU 101 sets a reference line 43 perpendicular to the auxiliary lines 41a and 41b. The operator clicks on the reference line 43 and performs a drag operation in an oblique direction toward the assumed position of the final vertebra 53. Then, the reference line 43 is moved upward and rotated using the core of the spinal column 51 as a path. The operator moves the reference line 43 to a position (a position of the line segment 47a) in contact with the upper edge of the final vertebra 53 by this drag operation, and performs a drop operation at the redrawn position. By this series of drag and drop operations, the CPU 101 moves the reference line 43 to the position of the line segment 47a. For comparison, the operator draws lines 47b and 47c in contact with the upper edge of each vertebral body by the same drag and drop operation for the upper and lower vertebral bodies of the assumed final vertebra (vertebra) 53. Of the line segments 47a, 47b, 47c, the vertebral body having the greatest inclination is the terminal vertebra. The operator determines that the terminal vertebra is the vertebra 53 by observing the inclinations of the plurality of lines 47a, 47b, 47c.

同様に下位終椎についても、マウス108のドラッグ&ドロップ操作によって、基準線43を平行移動及び回転させ、想定した終椎54の下縁に接する位置に線47dを描画する。比較のために、操作者は、想定した終椎54の上下の椎体についても、同様の操作で線を引く。すると線分47dよりも椎体55の位置にひかれた線47eの方が傾きが大きいため、実際には椎体55が下位終椎であることが確認される。したがって上位終椎53に引かれた線47aと下位終椎55に引かれた線47bとのなす角の大きさが、コブ角57として測定される。コブ角57の大きさは、側弯症の診断指標として診断の際に参照される。このように、角度や位置が異なる直線を複数描画する作業を行う際に本発明を適用すれば、線オブジェクト(基準線43)の傾きと位置をマウス108の1ストロークの操作だけで変更できる。したがって作業効率が向上する。脊椎等の診断を行う場合に好適である。   Similarly, for the lower terminal vertebra, the reference line 43 is translated and rotated by a drag and drop operation of the mouse 108, and a line 47d is drawn at a position in contact with the assumed lower edge of the terminal vertebra 54. For comparison, the operator draws a line with the same operation for the upper and lower vertebral bodies of the assumed final vertebra 54. Then, since the inclination of the line 47e drawn at the position of the vertebral body 55 is larger than that of the line segment 47d, it is actually confirmed that the vertebral body 55 is the lower terminal vertebra. Therefore, the size of the angle formed by the line 47 a drawn on the upper terminal vertebra 53 and the line 47 b drawn on the lower terminal vertebra 55 is measured as the bump angle 57. The size of the bump angle 57 is referred to at the time of diagnosis as a diagnostic index for scoliosis. As described above, when the present invention is applied when a plurality of straight lines having different angles and positions are drawn, the inclination and position of the line object (reference line 43) can be changed only by one stroke operation of the mouse 108. Therefore, work efficiency is improved. This is suitable for diagnosing the spine and the like.

以上説明したように、第1の実施の形態の医用画像処理装置100は、1ストロークでオブジェクト(上述の基準線43)を平行移動及び回転できるため、診断対象に効率よくオブジェクトを配置できる。特に、各椎体の傾きを評価する側弯症の診断時に行われる画像解析作業を効率よく行えるようになる。   As described above, the medical image processing apparatus 100 according to the first embodiment can translate and rotate an object (the above-described reference line 43) in one stroke, and therefore can efficiently arrange an object on a diagnosis target. In particular, the image analysis work performed at the time of scoliosis diagnosis for evaluating the inclination of each vertebral body can be performed efficiently.

なお、上述の説明において、オブジェクトの回転中心は基準線43の中点に限定しない。例えば、脊柱51の芯線上の点をオブジェクトの回転中心としてもよい。
また、移動後の基準線43を、ポインティングデバイスにより指示した始点と終点との位置関係から算出してもよい。すなわち、ポインティングデバイスを用いて任意の位置に基準線がドラッグ操作されると、CPU101は、ドラッグの始点と終点とを結ぶ線分を直径とする円に対し、終点を接点とする接線を描画し、この接線を移動後の基準線としてもよい。
In the above description, the center of rotation of the object is not limited to the midpoint of the reference line 43. For example, a point on the core line of the spine 51 may be used as the center of rotation of the object.
Further, the reference line 43 after the movement may be calculated from the positional relationship between the start point and the end point specified by the pointing device. That is, when the reference line is dragged to an arbitrary position using the pointing device, the CPU 101 draws a tangent line having the end point as a contact point with respect to a circle whose diameter is a line segment connecting the start point and the end point of the drag. This tangent may be used as a reference line after movement.

[第2の実施の形態]
次に、図7及び図8を参照して本発明の第2の実施の形態について説明する。
第2の実施の形態では、移動対象とするオブジェクトを直線ではなく比較オブジェクト63とする。比較オブジェクト63とは、比較対象の形状を示すオブジェクトである。比較オブジェクト63は、比較する医用画像から抽出されたオブジェクトとしてもよいし、予め記憶装置103等に記憶されている画像としてもよい。また、第2の実施の形態では、マウス108の縦方向操作に割り当てる移動方法を、診断対象部位抽出部22により抽出された部位の形状に沿った移動とする。またマウス108の横方向操作に割り当てる移動方法を回転とする。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
In the second embodiment, the object to be moved is not a straight line but a comparison object 63. The comparison object 63 is an object indicating a comparison target shape. The comparison object 63 may be an object extracted from a medical image to be compared, or may be an image stored in advance in the storage device 103 or the like. In the second embodiment, the movement method assigned to the vertical operation of the mouse 108 is movement along the shape of the part extracted by the diagnosis target part extraction unit 22. The movement method assigned to the lateral operation of the mouse 108 is assumed to be rotation.

なお、医用画像処理装置100の各部は第1の実施の形態(図1、図2)と同様である。以下、重複する説明を省略し、同一の各部は同一の符号を付して説明する。   Each part of the medical image processing apparatus 100 is the same as that in the first embodiment (FIGS. 1 and 2). Hereinafter, the description which overlaps is abbreviate | omitted and each same part attaches | subjects and demonstrates the same code | symbol.

7のフローチャートを参照して、第2の実施形態におけるオブジェクト移動処理の流れを説明する。   With reference to the flowchart of FIG. 7, the flow of the object movement process in 2nd Embodiment is demonstrated.

まず、CPU101は、記憶装置103または通信I/F104を介して接続される医用画像データベース111から医用画像50を取得し、表示装置107に表示する(ステップS201)。そしてCPU101は、取得した医用画像50から診断対象部位である脊椎領域50を抽出する(ステップS202)。診断対象部位の抽出は、第1の実施の形態と同様に、操作者による手動または公知の手法を用いればよい。   First, the CPU 101 acquires the medical image 50 from the medical image database 111 connected via the storage device 103 or the communication I / F 104, and displays it on the display device 107 (step S201). Then, the CPU 101 extracts the spinal region 50 that is a diagnosis target part from the acquired medical image 50 (step S202). The extraction of the diagnosis target part may be performed manually or by a known method by the operator, as in the first embodiment.

ステップS201〜ステップS202において、CPU101は比較する医用画像も同様に取得し、比較する医用画像からオブジェクト(比較オブジェクト63)を抽出する。   In step S201 to step S202, the CPU 101 similarly acquires a medical image to be compared, and extracts an object (comparison object 63) from the medical image to be compared.

操作者がマウス108(ポインティングデバイス)を医用画像50上でクリックすると(ステップS204;Yes)、CPU101はクリック位置に比較オブジェクト63を描画する(ステップS205)。   When the operator clicks the mouse 108 (pointing device) on the medical image 50 (step S204; Yes), the CPU 101 draws the comparison object 63 at the click position (step S205).

図8は、医用画像50から診断対象部位である脊柱(脊椎)51を抽出し、更に、図示しない比較対象とする医用画像から抽出した終椎を比較オブジェクト63として、診断対象である医用画像50上に表示した状態を示している。図8に示す例では、比較オブジェクト63は半透明に医用画像50上に重畳表示されている。   FIG. 8 shows a spinal column (spine) 51 that is a diagnosis target region extracted from a medical image 50, and further uses a final spine extracted from a medical image that is a comparison target (not shown) as a comparison object 63 to be a medical image 50 that is a diagnosis target. The state displayed above is shown. In the example illustrated in FIG. 8, the comparison object 63 is superimposed and displayed on the medical image 50 in a translucent manner.

次に、CPU101は医用画像50上に診断対象部位の経路を算出する(ステップS203)。図8の例では、診断対象部位は脊柱51である。椎体比較を行うことを目的とする場合、脊柱の芯線61を診断対象部位の経路として算出する。   Next, the CPU 101 calculates the path of the diagnosis target part on the medical image 50 (step S203). In the example of FIG. 8, the diagnosis target site is the spinal column 51. When it is intended to perform vertebral body comparison, the core wire 61 of the spinal column is calculated as the path of the diagnosis target part.

CPU101はステップS202で抽出した比較オブジェクト63をステップS203で算出した経路(芯線61)上に表示する。ステップS203で椎体の中心を基準として脊柱芯線を求めている場合は、比較オブジェクト63の中心が移動経路上を移動するように表示する。   The CPU 101 displays the comparison object 63 extracted in step S202 on the path (core line 61) calculated in step S203. If the spine core line is obtained with reference to the center of the vertebral body in step S203, display is made so that the center of the comparison object 63 moves on the movement path.

なお、移動経路は、ステップS202に示すように脊柱芯線に限定されるものではなく、例えば比較オブジェクト63を抽出した元の医用画像(不図示)から脊柱芯線を算出し、その脊柱芯線をステップS202の移動経路として比較オブジェクト63である椎体とともに医用画像50上に表示してもよい。   Note that the movement path is not limited to the spine core line as shown in step S202. For example, the spine core line is calculated from the original medical image (not shown) from which the comparison object 63 is extracted, and the spine core line is calculated in step S202. The movement path may be displayed on the medical image 50 together with the vertebral body that is the comparison object 63.

操作者により比較オブジェクト63がマウス108(ポインティングデバイス)を用いてクリックされた状態で移動(ドラッグ操作)されると(ステップS206;ドラッグ)、CPU101はドラッグ操作に基づいて比較オブジェクトの移動量(平行移動量、回転量)を算出する(ステップS207)。   When the operator moves (drags) the comparison object 63 while being clicked using the mouse 108 (pointing device) (step S206; drag), the CPU 101 moves the comparison object (parallel) based on the drag operation. A movement amount and a rotation amount are calculated (step S207).

ステップS207において、第2の実施の形態では、マウス108の移動方向が縦方向の場合は「平行移動」とし、横(左右)方向の場合は「回転」とする。そして、平行移動の場合、比較オブジェクト63がステップS203で算出した経路上を移動するものとする。比較オブジェクト63の平行移動量は、マウス108の実際の移動距離に所定の係数αを乗算した量とする。係数αの値は任意の値であり、操作者によって設定可能としてもよい。また、マウス108の左右方向の移動による比較オブジェクト63の回転量は、例えばマウス108の右方向移動に伴い0°〜180°(反時計回り)、左方向移動に伴い0°〜−180°(時計回り)の回転量とする。   In step S207, in the second embodiment, when the moving direction of the mouse 108 is the vertical direction, “parallel movement” is set, and when the moving direction is the horizontal (left and right) direction, “rotation” is set. In the case of parallel movement, it is assumed that the comparison object 63 moves on the route calculated in step S203. The parallel movement amount of the comparison object 63 is an amount obtained by multiplying the actual movement distance of the mouse 108 by a predetermined coefficient α. The value of the coefficient α is an arbitrary value and may be set by the operator. Further, the rotation amount of the comparison object 63 due to the movement of the mouse 108 in the left-right direction is, for example, 0 ° to 180 ° (counterclockwise) with the mouse 108 moving in the right direction, and 0 ° to −180 ° with the left movement ( The amount of rotation is clockwise.

なお、上述の移動量、回転量の割り当ては一例でありこれに限定されない。操作者によってマウス108の操作量に対する比較オブジェクト63の移動量と回転量を指定可能としてもよい。   The above-described assignment of the movement amount and the rotation amount is an example and is not limited to this. The operator may be able to specify the amount of movement and the amount of rotation of the comparison object 63 relative to the amount of operation of the mouse 108.

ドラッグ操作に応じて比較オブジェクト63の移動量(経路上の移動量)及び回転量が求められると、CPU101は比較オブジェクト63を求められた移動量(経路上の移動量)及び回転量だけ比較オブジェクト63を移動させた位置に再描画する(ステップS208)。ドロップされると(ステップS206;ドロップ)、CPU101は比較オブジェクト63の位置を再描画した位置に確定する(ステップS209)。   When the movement amount (movement amount on the path) and the rotation amount of the comparison object 63 are obtained according to the drag operation, the CPU 101 compares the comparison object 63 by the calculated movement amount (movement amount on the route) and rotation amount. Redrawing is performed at the position to which 63 is moved (step S208). When dropped (step S206; drop), the CPU 101 determines the position of the comparison object 63 as the redrawn position (step S209).

以上説明したように、第2の実施の形態では、比較オブジェクト63を医用画像上で容易に平行移動及び回転できるため、診断効率を向上できる。また、マウス108の縦方向操作によって比較オブジェクト63を診断対象部位に沿って移動できるため、例えば湾曲した脊椎の芯線に沿った比較オブジェクト63の移動が容易となり、側弯症の診断時に行われる画像解析作業を効率よく行えるようになる。   As described above, in the second embodiment, since the comparison object 63 can be easily translated and rotated on the medical image, the diagnostic efficiency can be improved. In addition, since the comparison object 63 can be moved along the diagnosis target region by operating the mouse 108 in the vertical direction, for example, the comparison object 63 can be easily moved along the core line of the curved spine, and image analysis performed when diagnosing scoliosis is performed. You will be able to work efficiently.

[第3の実施の形態]
次に、図9〜図15を参照して本発明の第3の実施の形態について説明する。第3の実施の形態では、移動対象とするオブジェクトをポインティングデバイスによって操作するために好適なGUI(グラフィカル・ユーザインタフェース)であるオブジェクト移動ツール71について説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to FIGS. In the third embodiment, an object moving tool 71, which is a GUI (graphical user interface) suitable for operating an object to be moved with a pointing device, will be described.

図9に示すようにオブジェクト移動ツール71は、例えば所定長さのバーの形状を示すGUIであり、中心部73、左端部72、右端部74、左領域75、右領域76の5つの指示入力領域を有するものする。これらの各領域72〜76にはそれぞれ異なる操作が割り当て可能となっている。オブジェクト移動ツール71は、移動対象とするオブジェクト上に配置されると、そのオブジェクトとともに移動または回転する。   As shown in FIG. 9, the object moving tool 71 is, for example, a GUI indicating the shape of a bar having a predetermined length, and five instruction inputs of a central portion 73, a left end portion 72, a right end portion 74, a left region 75, and a right region 76 are input. Have an area. Different operations can be assigned to these areas 72 to 76, respectively. When the object moving tool 71 is arranged on an object to be moved, the object moving tool 71 moves or rotates together with the object.

例えば、図10に示すように、移動対象とするオブジェクトである移動オブジェクト65上にオブジェクト移動ツール71が配置され、オブジェクト移動ツール71の中心部73がマウス108を用いてクリックされドラッグ&ドロップ操作された場合は、当該オブジェクト移動ツール71とともに移動オブジェクト65がドラッグ方向に平行移動される。操作量に対する移動量は予め定められているものとする。また、オブジェクト移動ツール71の左端部72または右端部74がクリックされてドラッグ&ドロップ操作された場合は、図11に示すように、当該オブジェクト移動ツール71の中心を回転中心として移動オブジェクト63が回転される。左端部72がクリックされた場合は左回転、右端部74がクリックされた場合は右回転とする。   For example, as shown in FIG. 10, an object moving tool 71 is arranged on a moving object 65 that is an object to be moved, and a center portion 73 of the object moving tool 71 is clicked with the mouse 108 and dragged and dropped. In this case, the moving object 65 is moved in parallel with the object moving tool 71 in the drag direction. It is assumed that the movement amount with respect to the operation amount is predetermined. When the left end portion 72 or the right end portion 74 of the object moving tool 71 is clicked and dragged and dropped, as shown in FIG. 11, the moving object 63 rotates around the center of the object moving tool 71 as the rotation center. Is done. When the left end 72 is clicked, it is rotated left, and when the right end 74 is clicked, it is rotated right.

また、オブジェクト移動ツール71の左領域75、右領域76がクリックされてドラッグ&ドロップ操作された場合は、図12に示すように移動と回転とが同時に行われる。回転は中心部73を回転中心として、左領域75のクリックで時計回り、右領域76のクリックで反時計回りとする。左領域75と右領域76の各位置にそれぞれ異なる回転量が割り当てられる。左右で合わせて360°分の回転が可能なように各位置に回転量を割り当てればよい。各位置に対する回転量の割り当ては、中心部73からの距離に応じて、1°ずつ180等分、または0.1度ずつ1800等分のように任意に割り当ててよい。操作者が任意の値を設定可能としてもよい。   When the left region 75 and the right region 76 of the object moving tool 71 are clicked and dragged and dropped, the movement and rotation are performed simultaneously as shown in FIG. The rotation is centered on the center 73 and is rotated clockwise when the left region 75 is clicked and counterclockwise when the right region 76 is clicked. Different rotation amounts are assigned to the positions of the left region 75 and the right region 76, respectively. What is necessary is just to allocate the rotation amount to each position so that rotation for 360 degrees is possible in total on the left and right. The amount of rotation for each position may be arbitrarily assigned according to the distance from the central portion 73, such as 180 ° in 1 ° increments or 1800 in 0.1 ° increments. The operator may be able to set an arbitrary value.

更に、図13に示すように、オブジェクト移動ツール71をドラッグ操作中において、ドラッグ操作で使用しているボタンとは別のボタンのクリック操作を行うと(例えば、左ボタンを押下しながらドラッグ操作を行っている最中の右ボタンクリック)、クリックの都度、角度を微調整してもよい。図13(a)に示すように例えば右領域76の任意の位置が左ボタンクリックによってドラッグ操作されている間に、右ボタンがクリックされると図13(b)に示すようにドラッグ中の回転量が変化する。もう一度クリックされると図13(c)に示すように更に回転量が変化する。そして、回転量通知ライン77a、77bの位置も変化させるようにすれば、操作者はその位置から現在の回転量を把握することができる。なお、右ボタンの押下操作に代えてマウスホイールの操作によって、回転角度を微調整可能としてもよい。   Further, as shown in FIG. 13, when a click operation is performed on a button different from the button used in the drag operation while the object movement tool 71 is being dragged (for example, the drag operation is performed while pressing the left button). You may fine-tune the angle each time you click). As shown in FIG. 13A, for example, when a right button is clicked while an arbitrary position in the right region 76 is dragged by clicking the left button, rotation during dragging is performed as shown in FIG. 13B. The amount changes. When clicked again, the amount of rotation further changes as shown in FIG. If the positions of the rotation amount notification lines 77a and 77b are also changed, the operator can grasp the current rotation amount from the positions. The rotation angle may be finely adjusted by operating the mouse wheel instead of pressing the right button.

図14〜図15を参照してオブジェクト移動ツール71を用いた比較オブジェクトの移動動作について説明する。   A comparison object moving operation using the object moving tool 71 will be described with reference to FIGS.

まず、CPU101は、記憶装置103または通信I/F104を介して接続される医用画像データベース111から処理対象とする医用画像50を取得し、表示装置107に表示する(ステップS301)。そしてCPU101は、取得した医用画像50から診断対象部位を抽出し、抽出した部位を移動オブジェクトとして設定する(ステップS302)。診断対象部位の抽出は、第1の実施の形態と同様に、操作者による手動または公知の手法を用いればよい。また抽出部位は、例えば脊椎の各椎体とする。   First, the CPU 101 acquires the medical image 50 to be processed from the medical image database 111 connected via the storage device 103 or the communication I / F 104 and displays it on the display device 107 (step S301). Then, the CPU 101 extracts a diagnosis target part from the acquired medical image 50, and sets the extracted part as a moving object (step S302). The extraction of the diagnosis target part may be performed manually or by a known method by the operator, as in the first embodiment. The extraction site is, for example, each vertebral body of the spine.

操作者は、ステップS302で抽出したオブジェクトのうち移動対象とするオブジェクト(以下、移動オブジェクト65という)上にオブジェクト移動ツール71を表示(配置)する(ステップS303)。   The operator displays (places) the object moving tool 71 on the object to be moved (hereinafter referred to as the moving object 65) among the objects extracted in step S302 (step S303).

オブジェクト移動ツール71に対してマウス108によりクリック操作(例えば左ボタンのクリック)が行われると(ステップS304;Yes)、CPU101は、クリック位置がオブジェクト移動ツール71の端部(左端部72または右端部74)であるか否かを判定する(ステップS305)。左端部72や右端部74でない位置(左領域75や右領域76)がクリックされている場合は(ステップS305;No)、CPU101はクリック位置に割り当てられている回転量を取得する(ステップS306)。オブジェクト移動ツール71上のクリック位置と回転量との対応を示すデータは主メモリ102に保持されているものとする。中央部73がクリックされた場合は回転量を「0°」とする。   When a click operation (for example, clicking the left button) is performed on the object moving tool 71 with the mouse 108 (step S304; Yes), the CPU 101 determines that the click position is the end (left end 72 or right end) of the object moving tool 71. 74) (step S305). When a position (left region 75 or right region 76) that is not the left end portion 72 or the right end portion 74 is clicked (step S305; No), the CPU 101 acquires the rotation amount assigned to the click position (step S306). . It is assumed that data indicating the correspondence between the click position on the object moving tool 71 and the rotation amount is held in the main memory 102. When the central portion 73 is clicked, the rotation amount is set to “0 °”.

その状態(オブジェクト移動ツール71の端部以外の位置をクリックした状態)でドラッグ操作が行われると(ステップS307;ドラッグ)、CPU101は、オブジェクト移動ツール73とともに移動オブジェクト65を、ドラッグ方向に移動しながらステップS306で取得した回転量だけ回転させて(ステップS308)、再描画する(ステップS309)。ドロップされると(ステップS307;ドロップ)、CPU101は移動オブジェクト65の位置を再描画した位置に確定する(ステップS310)。   When a drag operation is performed in this state (a state where a position other than the end of the object moving tool 71 is clicked) (step S307; drag), the CPU 101 moves the moving object 65 together with the object moving tool 73 in the drag direction. However, it is rotated by the rotation amount acquired in step S306 (step S308) and redrawing (step S309). When dropped (step S307; drop), the CPU 101 determines the position of the moving object 65 as the redrawn position (step S310).

なお、オブジェクト移動ツール71の端部以外の位置をクリックした状態で右ボタン(ステップS304のクリックとは別のボタン)がクリックされると(ステップS307;右ボタン)、CPU101は、回転量を微調整する(ステップS311)。例えば、右ボタンを1回クリックすると例えば1°ずつ、オブジェクト移動ツール71及び移動オブジェクト65を回転させる。この回転量の微調整は、ドラッグ操作中に行える(ステップS308、ステップS309)。   When the right button (a button different from the click in step S304) is clicked in a state where a position other than the end of the object moving tool 71 is clicked (step S307; right button), the CPU 101 decreases the rotation amount. Adjustment is made (step S311). For example, when the right button is clicked once, the object moving tool 71 and the moving object 65 are rotated by, for example, 1 °. This fine adjustment of the rotation amount can be performed during the drag operation (steps S308 and S309).

ドロップされると(ステップS307;ドロップ)、CPU101は移動オブジェクト65の位置を再描画した位置に確定する(ステップS310)。   When dropped (step S307; drop), the CPU 101 determines the position of the moving object 65 as the redrawn position (step S310).

また、ステップS304におけるクリック操作(左クリック)の位置が左端部72または右端部74の場合は(ステップS305;Yes)、図15のステップS312の処理へ進む。   When the position of the click operation (left click) in step S304 is the left end portion 72 or the right end portion 74 (step S305; Yes), the process proceeds to step S312 in FIG.

左端部72または右端部74がクリックされた状態でドラッグ操作が行われると(ステップS312;ドラッグ)、CPU101はドラッグ操作量に基づいて回転量を算出する(ステップS313)。そしてオブジェクト移動ツール71及び移動オブジェクト65をステップS313で算出した回転量だけ回転し、再描画する(ステップS314)。その後、ドロップされると(ステップS312;ドロップ)、CPU101は移動オブジェクト65の位置を再描画した位置に確定する(ステップS315)。   When a drag operation is performed with the left end portion 72 or the right end portion 74 being clicked (step S312; drag), the CPU 101 calculates a rotation amount based on the drag operation amount (step S313). Then, the object moving tool 71 and the moving object 65 are rotated by the rotation amount calculated in step S313 and redrawn (step S314). Thereafter, when dropped (step S312; drop), the CPU 101 determines the position of the moving object 65 as the redrawn position (step S315).

なお、ステップS308の処理において、ドラッグ操作の際の移動方向は、ドラッグ方向ではなく、第2の実施の形態と同様に、診断対象部位に沿った経路としてもよい。例えば、診断対象部位が脊柱51である場合等は、脊柱の芯線61を移動オブジェクト65の移動経路とする(図8参照)。   In the process of step S308, the movement direction in the drag operation may be a route along the diagnosis target site, not the drag direction, as in the second embodiment. For example, when the site to be diagnosed is the spinal column 51, the core 61 of the spinal column is used as the moving path of the moving object 65 (see FIG. 8).

以上説明したように、第3の実施の形態の医用画像処理装置100によれば、オブジェクト移動ツール71を利用して、オブジェクト移動ツール71のクリック位置に応じて移動方法を割り当て、回転と平行移動とを組み合わせた操作を行うことが可能となる。   As described above, according to the medical image processing apparatus 100 of the third embodiment, using the object moving tool 71, a movement method is assigned according to the click position of the object moving tool 71, and rotation and parallel movement are performed. It is possible to perform an operation in combination.

なお、上述の例では、2次元画像を対象としてオブジェクト移動ツール71の左領域75と右領域76にそれぞれ同一平面内での回転角を割り当てる例を示したが、本発明を3次元画像に適用することも可能である。例えば、オブジェクト移動ツール71に少なくとも3つの操作領域を設け、各操作領域に対し互いに直交する3方向の回転量を割り当て、立体図形の回転及び移動に適用することも可能である。この場合、オブジェクト移動ツール71の形状も図9に示すものに限定されず、立体図形としてもよい。   In the above example, an example in which the rotation angle in the same plane is assigned to the left region 75 and the right region 76 of the object moving tool 71 for a two-dimensional image, but the present invention is applied to a three-dimensional image. It is also possible to do. For example, it is also possible to provide at least three operation areas for the object movement tool 71, assign rotation amounts in three directions orthogonal to each operation area, and apply to rotation and movement of a three-dimensional figure. In this case, the shape of the object moving tool 71 is not limited to that shown in FIG. 9, and may be a three-dimensional figure.

以上、添付図面を参照しながら、本発明に係る医用画像処理装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the medical image processing apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Is done.

1・・・・・・・・・画像処理システム
100・・・・・・・医用画像処理装置
101・・・・・・・CPU101
102・・・・・・・主メモリ
103・・・・・・・記憶装置
104・・・・・・・通信I/F
105・・・・・・・表示メモリ
106・・・・・・・I/F
107・・・・・・・表示装置
108・・・・・・・マウス
109・・・・・・・入力装置
110・・・・・・・ネットワーク
111・・・・・・・医用画像データベース
112・・・・・・・医用画像撮影装置
21・・・・・・・・医用画像取得・表示部
22・・・・・・・・診断対象部位抽出部
23・・・・・・・・オブジェクト記憶部
24・・・・・・・・設定部
25・・・・・・・・判別部
26・・・・・・・・オブジェクト移動処理部
301・・・・・・・回転量バー
302・・・・・・・回転量ポインタ
41a、41b・・・補助線
43・・・・・・・・基準線
47・・・・・・・・操作方向を示す矢印
45、48・・・・・移動後基準線
50・・・・・・・・医用画像
51・・・・・・・・脊柱
53・・・・・・・・終椎
54・・・・・・・・想定した終椎
55・・・・・・・・終椎
57・・・・・・・・コブ角
61・・・・・・・・芯線(経路)
63・・・・・・・・比較オブジェクト
65・・・・・・・・移動オブジェクト
71・・・・・・・・オブジェクト移動ツール
72・・・・・・・・左端部
73・・・・・・・・中央部
74・・・・・・・・右端部
75・・・・・・・・左領域
76・・・・・・・・右領域
77a、77b・・・回転量通知ライン
1... Image processing system 100... Medical image processing apparatus 101.
102... Main memory 103... Storage device 104... Communication I / F
105... Display memory 106... I / F
107... Display device 108... Mouse 109... Input device 110... Network 111. ···················································································· • Storage unit 24... Setting unit 25... Discriminating unit 26... Object movement processing unit 301.・ ・ ・ ・ ・ ・ Rotation amount pointers 41a and 41b ・ ・ ・ Auxiliary line 43 ・ ・ ・ ・ ・ ・ ・ ・ Reference line 47 ・ ・ ・ ・ ・ ・ ・ ・ Arrows 45 and 48 indicating the operation direction Reference line 50 after movement ... Medical image 51 ... Spinal column 53 ... Final spine 54 ....... assumed Tsuishi 55 ........ Tsuishi 57 ........ Cobb angle 61 ........ wire (route)
63 ... Comparison object 65 ... Moving object 71 ... Object moving tool 72 ... Left end 73 ... ··· Center portion 74 ····· Right end portion 75 ····· Left region 76 ······ Right region 77a, 77b ··· Rotation amount notification line

Claims (16)

医用画像を取得し、表示する表示部と、
表示された医用画像上にオブジェクトを配置するオブジェクト配置部と、
前記オブジェクトを移動するための操作を入力するポインティングデバイスと、
前記ポインティングデバイスの操作方向に対して前記オブジェクトの移動方法を割り当てる設定部と、
前記ポインティングデバイスの操作方向を判別する判別部と、
前記判別部により判別された操作方向に応じて前記設定部により割り当てられた移動方法で前記オブジェクトを移動する移動処理部と、
を備えることを特徴とする医用画像処理装置。
A display unit for acquiring and displaying medical images;
An object placement unit for placing an object on the displayed medical image;
A pointing device for inputting an operation for moving the object;
A setting unit that assigns a moving method of the object to an operation direction of the pointing device;
A determination unit for determining an operation direction of the pointing device;
A movement processing unit for moving the object by a movement method assigned by the setting unit according to the operation direction determined by the determination unit;
A medical image processing apparatus comprising:
前記設定部は、第1方向である前記操作方向に対して前記オブジェクトの平行移動を割り当て、前記第1方向と異なる第2方向である前記操作方向に対して前記オブジェクトの回転を割り当てることを特徴とする請求項1に記載の医用画像処理装置。   The setting unit assigns parallel movement of the object to the operation direction that is a first direction, and assigns rotation of the object to the operation direction that is a second direction different from the first direction. The medical image processing apparatus according to claim 1. 前記医用画像から診断対象とする部位を抽出する抽出部を備え、
前記移動処理部は、前記操作方向が第1方向であると判定された場合は前記抽出部により抽出された部位の形状に沿って前記オブジェクトを平行移動させることを特徴とする請求項1または請求項2に記載の医用画像処理装置。
An extraction unit for extracting a part to be diagnosed from the medical image;
The said movement process part moves the said object in parallel along the shape of the site | part extracted by the said extraction part, when it determines with the said operation direction being a 1st direction. Item 3. The medical image processing apparatus according to Item 2.
前記部位は脊椎であり前記オブジェクトは前記脊椎の芯線に沿って移動することを特徴とする請求項2または請求項3に記載の医用画像処理装置。   4. The medical image processing apparatus according to claim 2, wherein the part is a spine and the object moves along a core line of the spine. 前記判別部により前記ポインティングデバイスの操作方向が第1方向成分と第2方向成分とを含むと判別された場合は、前記移動処理部は各方向成分の割合に応じて平行移動による移動量及び回転量を算出し、算出した移動量及び回転量に応じて前記オブジェクトを移動及び回転させることを特徴とする請求項2から請求項4のいずれかに記載の医用画像処理装置。   When the determination unit determines that the operation direction of the pointing device includes the first direction component and the second direction component, the movement processing unit moves and rotates by parallel movement according to the ratio of each direction component. 5. The medical image processing apparatus according to claim 2, wherein an amount is calculated, and the object is moved and rotated in accordance with the calculated movement amount and rotation amount. 前記オブジェクトは直線オブジェクトであることを特徴とする請求項1から請求項5のいずれかに記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the object is a straight line object. 前記オブジェクトは比較対象の形状を示すオブジェクトであることを特徴とする請求項1から請求項5のいずれかに記載の医用画像処理装置。   The medical image processing apparatus according to claim 1, wherein the object is an object indicating a comparison target shape. 医用画像を取得し、表示する表示部と、
表示された医用画像上にオブジェクトを配置するオブジェクト配置部と、
ポインティングデバイスによる操作を受け付けるオブジェクト移動ツールを前記オブジェクト上に配置するオブジェクト移動ツール配置部と、
前記オブジェクト移動ツール上の各位置に対して前記オブジェクトの回転量を割り当てる設定部と、
前記ポインティングデバイスによる前記オブジェクト移動ツールへの指示位置を判別する判別部と、
前記ポインティングデバイスによる前記オブジェクト移動ツールのドラッグ操作に伴い前記オブジェクトを移動するとともに、前記判別部により判別された指示位置に応じて前記設定部により割り当てられた回転量で前記オブジェクトを回転する移動処理部と、
を備えることを特徴とする医用画像処理装置。
A display unit for acquiring and displaying medical images;
An object placement unit for placing an object on the displayed medical image;
An object moving tool placement unit for placing an object moving tool for receiving an operation by a pointing device on the object;
A setting unit that assigns a rotation amount of the object to each position on the object moving tool;
A discriminator for discriminating a position pointed to the object moving tool by the pointing device;
A movement processing unit that moves the object in accordance with a drag operation of the object moving tool by the pointing device, and rotates the object by a rotation amount assigned by the setting unit according to an instruction position determined by the determination unit. When,
A medical image processing apparatus comprising:
前記判別部により前記ポインティングデバイスによる指示位置が前記オブジェクト移動ツールの端部と判別された場合は、前記移動処理部は、前記ドラッグ操作によって前記オブジェクトを平行移動させずに所定の回転量だけ回転させることを特徴とする請求項8に記載の医用画像処理装置。   When the determination unit determines that the pointing position by the pointing device is the end of the object moving tool, the movement processing unit rotates the object by a predetermined rotation amount without translating the object by the drag operation. The medical image processing apparatus according to claim 8. 前記設定部は、前記オブジェクト移動ツール内の端部以外の各位置にそれぞれ異なる回転量を割り当てることを特徴とする請求項8または請求項9に記載の医用画像処理装置。   The medical image processing apparatus according to claim 8, wherein the setting unit assigns a different rotation amount to each position other than an end in the object moving tool. 前記設定部は、前記医用画像が3次元画像である場合において、前記オブジェクト移動ツールに少なくとも3つの操作領域を設け、各操作領域に対し互いに直交する3方向の回転量を割り当てることを特徴とする請求項8または請求項9に記載の医用画像処理装置。   In the case where the medical image is a three-dimensional image, the setting unit includes at least three operation areas in the object movement tool, and assigns rotation amounts in three directions orthogonal to each operation area. The medical image processing apparatus according to claim 8 or 9. 前記オブジェクト移動ツールのドラッグ操作中に前記ポインティングデバイスへの所定の操作の入力を受け付ける特殊操作入力部と、
前記特殊操作入力部による操作の入力の都度、前記回転量を変更する回転量調整部と、
を更に備えることを特徴とする請求項8から請求項11のいずれかに記載の医用画像処理装置。
A special operation input unit that receives an input of a predetermined operation to the pointing device during a drag operation of the object movement tool;
A rotation amount adjustment unit that changes the rotation amount each time an operation is input by the special operation input unit;
The medical image processing apparatus according to claim 8, further comprising:
前記医用画像から診断対象とする部位を抽出する抽出部を更に備え、
前記移動処理部は、前記ポインティングデバイスによりドラッグ操作が行われた場合は前記抽出部により抽出された部位の形状に沿って前記オブジェクトを移動させることを特徴とする請求項8から請求項12のいずれかに記載の医用画像処理装置。
An extraction unit for extracting a part to be diagnosed from the medical image;
The movement processing unit moves the object along the shape of the part extracted by the extraction unit when a drag operation is performed by the pointing device. A medical image processing apparatus according to claim 1.
前記オブジェクト移動ツールに回転量を表示することを特徴とする請求項8から請求項13のいずれかに記載の医用画像処理装置。   The medical image processing apparatus according to claim 8, wherein a rotation amount is displayed on the object moving tool. 医用画像を取得し、表示するステップと、
表示された医用画像上にオブジェクトを配置するステップと、
前記オブジェクトを移動するための操作を入力するポインティングデバイスの操作方向に対して前記オブジェクトの移動方法を割り当てるステップと、
前記ポインティングデバイスの操作方向を判別するステップと、
判別された操作方向に応じて、割り当てられた移動方法で前記オブジェクトを移動するステップと、
を含むことを特徴とするオブジェクト移動方法。
Acquiring and displaying a medical image;
Placing an object on the displayed medical image;
Assigning a movement method of the object to an operation direction of a pointing device that inputs an operation for moving the object;
Determining an operating direction of the pointing device;
Moving the object by an assigned movement method according to the determined operation direction;
An object moving method characterized by comprising:
医用画像を取得し、表示するステップと、
表示された医用画像上にオブジェクトを配置するステップと、
ポインティングデバイスによる操作を受け付けるオブジェクト移動ツールを前記オブジェクト上に配置するステップと、
前記オブジェクト移動ツール上の各位置に対して前記オブジェクトの回転量を割り当てるステップと、
前記ポインティングデバイスによる前記オブジェクト移動ツールへの指示位置を判別するステップと、
前記ポインティングデバイスによる前記オブジェクト移動ツールのドラッグ操作に伴い前記オブジェクトを移動するとともに、判別された指示位置に応じて、割り当てられた回転量で前記オブジェクトを回転するステップと、
を含むことを特徴とするオブジェクト移動方法。

Acquiring and displaying a medical image;
Placing an object on the displayed medical image;
Placing an object moving tool on the object for receiving an operation by a pointing device;
Assigning a rotation amount of the object to each position on the object moving tool;
Determining an instruction position to the object moving tool by the pointing device;
Moving the object in accordance with a drag operation of the object moving tool by the pointing device, and rotating the object by an assigned rotation amount according to the determined indication position;
An object moving method characterized by comprising:

JP2016155326A 2016-08-08 2016-08-08 Medical image processing device and object movement method Active JP6925108B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016155326A JP6925108B2 (en) 2016-08-08 2016-08-08 Medical image processing device and object movement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016155326A JP6925108B2 (en) 2016-08-08 2016-08-08 Medical image processing device and object movement method

Publications (2)

Publication Number Publication Date
JP2018023414A true JP2018023414A (en) 2018-02-15
JP6925108B2 JP6925108B2 (en) 2021-08-25

Family

ID=61193355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016155326A Active JP6925108B2 (en) 2016-08-08 2016-08-08 Medical image processing device and object movement method

Country Status (1)

Country Link
JP (1) JP6925108B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0454628A (en) * 1990-06-25 1992-02-21 Toshiba Corp Image display device
JP2003290217A (en) * 2002-04-03 2003-10-14 Toshiba Corp X-ray diagnostic device and medical image analytic device
JP2006192104A (en) * 2005-01-14 2006-07-27 Konica Minolta Medical & Graphic Inc Image measuring device and image measuring method
JP2006271782A (en) * 2005-03-30 2006-10-12 Konami Digital Entertainment:Kk Game program, game device, and game control method
JP2008078937A (en) * 2006-09-20 2008-04-03 Canon Inc Image processing apparatus, method and program for controlling the image processor
JP2011053770A (en) * 2009-08-31 2011-03-17 Nifty Corp Information processing apparatus and input processing method
JP2011078527A (en) * 2009-10-06 2011-04-21 Toshiba Corp Medical image management device and medical image display device
JP2012510317A (en) * 2008-11-28 2012-05-10 フジフイルム メディカル システムズ ユーエスエイ インコーポレイテッド System and method for spinal labeling propagation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0454628A (en) * 1990-06-25 1992-02-21 Toshiba Corp Image display device
JP2003290217A (en) * 2002-04-03 2003-10-14 Toshiba Corp X-ray diagnostic device and medical image analytic device
US20030215122A1 (en) * 2002-04-03 2003-11-20 Kabushiki Kaisha Toshiba Medical image processing apparatus with a function of measurement on a medical image
JP2006192104A (en) * 2005-01-14 2006-07-27 Konica Minolta Medical & Graphic Inc Image measuring device and image measuring method
JP2006271782A (en) * 2005-03-30 2006-10-12 Konami Digital Entertainment:Kk Game program, game device, and game control method
JP2008078937A (en) * 2006-09-20 2008-04-03 Canon Inc Image processing apparatus, method and program for controlling the image processor
JP2012510317A (en) * 2008-11-28 2012-05-10 フジフイルム メディカル システムズ ユーエスエイ インコーポレイテッド System and method for spinal labeling propagation
JP2011053770A (en) * 2009-08-31 2011-03-17 Nifty Corp Information processing apparatus and input processing method
JP2011078527A (en) * 2009-10-06 2011-04-21 Toshiba Corp Medical image management device and medical image display device

Also Published As

Publication number Publication date
JP6925108B2 (en) 2021-08-25

Similar Documents

Publication Publication Date Title
CN110515513B (en) Display apparatus and image display method using the same
US8917924B2 (en) Image processing apparatus, image processing method, and program
JP5878161B2 (en) Medical image processing apparatus and medical image processing method
US9606584B1 (en) Systems and user interfaces for dynamic interaction with two- and three-dimensional medical image data using hand gestures
CN101849248B (en) Method and apparatus for volume rendering of data sets
EP1709521B1 (en) Method and apparatus providing flexible measurement functionality for medical images
JP5747007B2 (en) MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND MEDICAL IMAGE DISPLAY PROGRAM
JP2017510323A (en) System and method for generating and displaying tomosynthesis image slabs
US20140184587A1 (en) Apparatus and method for supporting 3d ultrasound image analysis
JP6480922B2 (en) Visualization of volumetric image data
EP3657512B1 (en) Integrated medical image visualization and exploration
US20230125385A1 (en) Auto-focus tool for multimodality image review
US20160171158A1 (en) Medical imaging apparatus and method using comparison image
JP2008510247A (en) Display system for mammography evaluation
US20160217568A1 (en) Method of processing x-ray images of a breast
US20210166465A1 (en) Medical diagnostic imaging support system, medical image processing device, and medical image processing method
US8923483B2 (en) Rotation of an x-ray image on a display
KR101611484B1 (en) Method of providing medical image
JP6925108B2 (en) Medical image processing device and object movement method
JPWO2005104953A1 (en) Image diagnosis support apparatus and method
JP7134678B2 (en) Radiation image processing device, radiation image processing method and program
US20090128304A1 (en) Method and apparatus for tactile interface for reviewing radiological images
JP5592655B2 (en) Image processing device
JP6598565B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160810

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20171030

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20171030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201202

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210108

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210119

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210224

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20210426

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210601

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210706

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210803

R150 Certificate of patent or registration of utility model

Ref document number: 6925108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350