JP7013994B2 - 医用画像表示装置及びプログラム - Google Patents

医用画像表示装置及びプログラム Download PDF

Info

Publication number
JP7013994B2
JP7013994B2 JP2018059119A JP2018059119A JP7013994B2 JP 7013994 B2 JP7013994 B2 JP 7013994B2 JP 2018059119 A JP2018059119 A JP 2018059119A JP 2018059119 A JP2018059119 A JP 2018059119A JP 7013994 B2 JP7013994 B2 JP 7013994B2
Authority
JP
Japan
Prior art keywords
touch
medical image
selection
touch panel
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018059119A
Other languages
English (en)
Other versions
JP2019170422A (ja
Inventor
陽子 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018059119A priority Critical patent/JP7013994B2/ja
Priority to US16/285,998 priority patent/US10852939B2/en
Publication of JP2019170422A publication Critical patent/JP2019170422A/ja
Application granted granted Critical
Publication of JP7013994B2 publication Critical patent/JP7013994B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Description

本発明は、医用画像表示装置及びプログラムに関する。
近年、医療分野においても情報の電子化が進み、モダリティーで撮影された医用画像等が電子データとして管理されている。医師が医用画像を読影する際には、表示装置に表示された医用画像上に、病変箇所を示す直線、矢印、円等のアノテーションを描画したり、距離や角度等を計測するための位置の基準となる計測線を描画したりする。
複数のアノテーションが付された医用画像の読影診断の精度や効率を向上させるために、単一の医用画像に付された複数のアノテーションを複数のグループに配分し、グループ単位で各グループに属するアノテーションを医用画像と関連付けて記憶する医用画像表示装置が提案されている(特許文献1参照)。この医用画像表示装置では、医用画像に関連付けられている複数のアノテーションのうち、選択されたグループに属するアノテーションのみを抽出し、医用画像に重ねて表示することができる。
また、医用画像を複数の領域に分割した領域ごとに、当該領域に含まれるアノテーションを配置するためのレイヤーを生成し、医用画像上に各レイヤーを重畳表示する医用画像表示装置において、医用画像上の指定された位置を含む領域に対応付けられたレイヤーに配置されたアノテーションの表示態様を、他のレイヤーに配置されたアノテーションの表示態様と変えるものが提案されている(特許文献2参照)。
特開2013-132514号公報 特開2014-113311号公報
しかしながら、医用画像上に複数のアノテーションや計測線が描画されている状態で、その中の一つを選択して位置やサイズを変更する際に、アノテーションや計測線の相互の位置が近いと、目的の対象物を選択することが困難となる場合があった。特に、タッチパネル端末の場合、通常のキーボード及びマウスにより操作されるPC端末と比べて、細かい位置指定が難しい。
また、医用画像上に描画されているアノテーションや計測線を選択対象とする場合に加え、例えば、パン機能、虫眼鏡機能等、医用画像自体に所定の処理を施す処理機能を利用したい場合には、この処理機能を選択対象として設定する必要がある。
本発明は、上記の従来技術における問題に鑑みてなされたものであって、医用画像から選択対象物を選択する際の操作性を向上させることを課題とする。
上記課題を解決するために、請求項1に記載の発明は、医用画像を表示する表示部と、当該表示部の表示画面上に設けられたタッチパネルと、前記医用画像に対して、複数の選択対象物と前記医用画像上のその位置とが対応付けられたオブジェクト位置情報を記憶する記憶部と、前記医用画像が前記表示部に表示されている状態で、前記タッチパネルに対するロングタッチ操作があった場合に、前記オブジェクト位置情報を参照して、前記複数の選択対象物のうち、前記ロングタッチ操作の位置に対応する前記医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出し、前記タッチパネルに対するタッチ時間、タッチ位置又はタッチ深度に応じて、前記抽出された選択候補を順に選択状態とし、前記タッチパネルからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる制御部と、を備える医用画像表示装置である。
請求項2に記載の発明は、請求項1に記載の医用画像表示装置において、前記選択対象物は、前記医用画像上に描画されたアノテーション又は計測線である。
請求項3に記載の発明は、請求項2に記載の医用画像表示装置において、前記制御部は、前記選択が確定された選択候補について、前記タッチパネルからの操作に基づいて、位置又はサイズを修正する。
請求項4に記載の発明は、請求項1に記載の医用画像表示装置において、前記選択対象物は、前記医用画像に所定の処理を施す処理機能である。
請求項5に記載の発明は、請求項4に記載の医用画像表示装置において、前記処理機能の選択の確定は、前記タッチパネルに対する所定の操作を、前記処理機能を実行させるためのイベントに割り当てることである。
請求項6に記載の発明は、医用画像を表示する表示部と、当該表示部の表示画面上に設けられたタッチパネルと、前記医用画像に対して、複数の選択対象物と前記医用画像上のその位置とが対応付けられたオブジェクト位置情報を記憶する記憶部と、を備える医用画像表示装置のコンピューターを、前記医用画像が前記表示部に表示されている状態で、前記タッチパネルに対するロングタッチ操作があった場合に、前記オブジェクト位置情報を参照して、前記複数の選択対象物のうち、前記ロングタッチ操作の位置に対応する前記医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出する手段、前記タッチパネルに対するタッチ時間、タッチ位置又はタッチ深度に応じて、前記抽出された選択候補を順に選択状態とする手段、前記タッチパネルからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる手段、として機能させるプログラムである。
本発明によれば、医用画像から選択対象物を選択する際の操作性を向上させることができる。
本発明の第1の実施の形態における医用画像表示システムのシステム構成図である。 アノテーションデータのデータ構成例を示す図である。 事前準備処理を示すフローチャートである。 第1のオブジェクト選択処理を示すフローチャートである。 (a)は、楕円のアノテーションが選択状態とされているビューアー画面の例である。(b)は、楕円のアノテーションの選択が確定されたビューアー画面の例である。(c)は、楕円のアノテーションを修正した後のビューアー画面の例である。 (a)は、距離の計測線が選択状態とされているビューアー画面の例である。(b)は、距離の計測線の選択が確定されたビューアー画面の例である。(c)は、距離の計測線を修正した後のビューアー画面の例である。 (a)は、虫眼鏡機能が選択状態とされているビューアー画面の例である。(b)は、虫眼鏡機能を実行中のビューアー画面の例である。 第2の実施の形態のタッチパネルにおけるタッチ位置の移動方法を説明するための図である。 第2のオブジェクト選択処理を示すフローチャートである。 第3の実施の形態における第3のオブジェクト選択処理を示すフローチャートである。
[第1の実施の形態]
まず、本発明の第1の実施の形態について説明する。なお、本発明は、図示例に限定されるものではない。
図1に、医用画像表示システム100のシステム構成例を示す。
図1に示すように、医用画像表示システム100は、画像管理サーバー10と、医用画像表示装置20と、から構成され、各装置は、LAN(Local Area Network)やWAN(Wide Area Network)等の通信回線からなる通信ネットワークNを介してデータ送受信可能に接続されている。医用画像表示システム100を構成する各装置は、DICOM(Digital Image and Communications in Medicine)規格に準じており、各装置間の通信は、DICOMに則って行われる。なお、医用画像表示装置20の台数は、特に限定されない。
画像管理サーバー10は、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、CR(Computed Radiography)装置等の各種モダリティー(撮影装置)により生成された医用画像の画像データを蓄積記憶・管理するコンピューター装置である。
画像管理サーバー10は、制御部11、通信部12、RAM13、記憶部14等を備えて構成され、各部はバス15により接続されている。
制御部11は、CPU(Central Processing Unit)等により構成され、画像管理サーバー10の各部の処理動作を統括的に制御する。具体的には、制御部11は、記憶部14に記憶されているシステムプログラムや各種処理プログラムを読み出し、RAM13内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
通信部12は、医用画像表示装置20等の外部装置との間でデータの送受信を行うインターフェースであり、通信ネットワークNに接続された各装置とデータの送受信を行う。
RAM13は、制御部11により実行制御される各種処理において、記憶部14から読み出された各種プログラム、入力若しくは出力データ、及びパラメーター等を一時的に格納するワークエリアを形成する。
記憶部14は、ハードディスクや不揮発性の半導体メモリー等により構成される記憶装置である。記憶部14は、制御部11で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータを記憶する。
また、記憶部14には、医用画像の画像データ、医用画像に関する付帯情報を検索可能に格納する付帯情報DBが記憶されている。
医用画像は、DICOM規格に則ったDICOMファイル形式で保存されている。DICOMファイルは、画像部とヘッダー部とから構成される。画像部には医用画像の実データ、ヘッダー部には当該医用画像に関する付帯情報が書き込まれている。
付帯情報には、患者情報、検査情報、シリーズ情報、画像情報等が含まれている。
患者情報には、患者を識別するための患者識別情報(例えば、患者ID)、患者の氏名、性別、生年月日等の患者に関する各種情報が含まれる。
検査情報には、検査を識別するための検査識別情報(例えば、検査ID)、検査日時、担当医師等の検査に関する各種情報が含まれる。
シリーズ情報には、シリーズを識別するためのシリーズ識別情報(例えば、シリーズID)、シリーズに含まれる医用画像を生成したモダリティーの種類、撮影部位等のシリーズに関する各種情報が含まれる。
画像情報には、医用画像を識別するための画像識別情報(例えば、インスタンスUID)、画像生成日時等の医用画像に関する各種情報が含まれる。
制御部11は、医用画像表示装置20からの検索要求に応じて、医用画像表示装置20から送信される条件に合致した検査(医用画像)を記憶部14の付帯情報DBから検索して、条件に合致した検査のリストを医用画像表示装置20に送信する。また、制御部11は、医用画像表示装置20から取得要求のあった医用画像を記憶部14から読み出して、医用画像表示装置20に送信する。
医用画像表示装置20は、画像管理サーバー10に蓄積記憶されている医用画像を取得して、医師の読影用に表示するためのタブレット型端末である。
医用画像表示装置20は、制御部21、操作部22、表示部23、通信部24、RAM25、記憶部26、計時部27等を備えて構成され、各部はバス28により接続されている。
制御部21は、CPU等により構成され、医用画像表示装置20の各部の処理動作を統括的に制御する。具体的には、制御部21は、記憶部26に記憶されているシステムプログラムや各種処理プログラムを読み出し、RAM25内に形成されたワークエリアに展開し、当該プログラムとの協働により各種処理を行う。
操作部22は、電源をオン/オフさせる電源キー等の操作キー22A、表示部23の表示画面上に設けられたタッチパネル22Bにより構成され、操作キー22Aに対応する操作信号、タッチパネル22Bに対するユーザーの指等によるタッチ操作の位置に応じた操作信号を制御部21に出力する。操作部22は、ユーザーによる各種操作を受け付ける。
表示部23は、LCD(Liquid Crystal Display)等のモニターにより構成され、制御部21から入力される表示信号の指示に従って、各種画面や医用画像等を表示する。
通信部24は、画像管理サーバー10等の外部装置との間でデータの送受信を行うインターフェースであり、通信ネットワークNに接続された各装置とデータの送受信を行う。
RAM25は、制御部21により実行制御される各種処理において、記憶部26から読み出された各種プログラム、入力若しくは出力データ、及びパラメーター等を一時的に格納するワークエリアを形成する。
記憶部26は、ハードディスクや不揮発性の半導体メモリー等により構成される記憶装置である。記憶部26は、制御部21で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータを記憶する。
また、記憶部26には、医用画像に対して、複数の選択対象物とその位置とが対応付けられたオブジェクト位置情報として、アノテーションデータ、計測線データ及び処理機能データが記憶される。
アノテーションデータには、アノテーションが重畳表示される医用画像の識別情報(インスタンスUID)に対して、アノテーションの種類、アノテーションの位置が対応付けられている。アノテーションの種類としては、例えば、直線(線分)、矢印、円、矩形、多角形等が挙げられる。アノテーションの位置は、アノテーションが描画される医用画像上の位置である。アノテーションの位置としては、直線、矢印等の場合には、2端点の座標を用いることとしてもよいし、中心位置の座標を用いることとしてもよい。また、アノテーションの重心位置や、アノテーションを含む最小の矩形領域を示す情報等を用いることとしてもよい。
図2に、アノテーションデータ30のデータ構成例を示す。アノテーションデータ30には、医用画像を特定するためのインスタンスUID31、アノテーションの種類32、アノテーションの位置33,34等が含まれている。アノテーションデータ30において、アノテーションの種類32として、「Line(線)」が指定されており、アノテーションの位置33には、線の始点に相当するy座標とx座標が記録され、アノテーションの位置34には、線の終点に相当するy座標とx座標が記録されている。
同一の医用画像に対して複数のアノテーションが描画されている場合には、同一のインスタンスUIDに対して、アノテーションの種類及びその位置を複数対応付けることができる。
計測線データには、計測線が重畳表示される医用画像の識別情報(インスタンスUID)に対して、計測機能の種類、計測線の位置、計測値、計測値の位置が対応付けられている。計測機能の種類としては、例えば、2点間距離計測、角度計測、心胸比計測等が挙げられる。計測線の位置は、計測線が描画される医用画像上の位置である。計測線の位置としては、例えば、計測線の始点及び終点の座標を用いる。計測値は、選択された計測機能に応じて、計測線の位置に基づいて算出される距離、角度、比率等の値である。計測値の位置は、計測値が描画される医用画像上の位置である。
処理機能データには、現在表示されている医用画像の識別情報(インスタンスUID)に対して、選択されている処理機能と、その位置が対応付けられている。処理機能として、例えば、虫眼鏡機能、パン機能、拡大縮小機能、階調機能等が挙げられる。これらの処理機能に対応付けられる位置は、医用画像全体の領域となる。
計時部27は、第1のオブジェクト選択処理(図4参照)において、複数の選択対象物の中から抽出された各選択候補が選択状態とされてからの経過時間をカウントし、制御部21に出力する。
制御部21は、画像管理サーバー10の記憶部14に記憶されている医用画像を取得し、取得した医用画像を表示部23に表示させる。
制御部21は、表示部23に表示された医用画像上にアノテーションや計測線を表示させる。
制御部21は、医用画像が表示部23に表示されている状態で、タッチパネル22Bに対するロングタッチ操作(長押し:タッチパネル22Bがタッチされていると認識している状態)があった場合に、オブジェクト位置情報(アノテーションデータ、計測線データ及び処理機能データ)を参照して、複数の選択対象物のうち、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出する。ロングタッチ操作があったか否かは、例えば、タッチパネル22Bに対するタッチ操作が所定の時間以上継続したか否かにより、判断する。ロングタッチ操作は、タッチパネル22Bがタッチされていると認識されている間続き、タッチが解除されたとき(タッチアップ操作時)に、終了する。また、所定の範囲内として、例えば、ロングタッチ操作の位置に対応する医用画像上の位置を中心とした、所定の距離以内に含まれる領域を用いる。また、所定の範囲は、任意に変更可能とする。選択対象物が1点で構成されるものではなく、2次元的な拡がりを持つ場合には、選択対象物の少なくとも一部が所定の範囲内に含まれるときに、選択候補とすればよい。
選択対象物は、医用画像上に描画されたアノテーション、医用画像上に描画された計測線、又は、医用画像に所定の処理を施す処理機能である。
処理機能データにおいて、処理機能に対応付けられる位置は医用画像全体であるから、ロングタッチ操作の位置が医用画像上のどこに対応する位置であったとしても、処理機能が選択されていれば、選択候補の一つとして抽出される。
制御部21は、タッチパネル22Bに対するロングタッチ操作におけるタッチ時間に応じて、抽出された選択候補を順に選択状態とする。
制御部21は、タッチパネル22Bからのタッチアップ操作(指を画面から離す)があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる。
制御部21は、選択が確定された選択候補がアノテーション又は計測線である場合、このアノテーション又は計測線について、タッチパネル22Bからの操作に基づいて、選択候補の位置又はサイズを修正する。
処理機能の選択の確定は、タッチパネル22Bに対する所定の操作を、処理機能を実行させるためのイベントに割り当てることである。
例えば、虫眼鏡機能の選択が確定した場合、タッチパネル22Bに対するタッチ操作が、タッチ位置に対応する医用画像上の位置を中心とした所定領域を所定の拡大率で拡大する画像処理を実行させるためのイベントに割り当てられる。
パン機能の選択が確定した場合、タッチパネル22Bに対するドラッグ操作(スライド操作)が、医用画像内の表示対象範囲を変更させるためのイベントに割り当てられる。
拡大縮小機能が確定した場合、タッチパネル22Bに対するドラッグ操作が、医用画像を拡大又は縮小させるためのイベントに割り当てられる。具体的には、上向きのドラッグ操作で画像が拡大され、下向きのドラッグ操作で画像が縮小される。
階調機能が確定した場合、タッチパネル22Bに対するドラッグ操作が、医用画像に対する階調処理におけるWC値(ウィンドウ中心)又はWW値(ウィンドウ幅)を変更させるためのイベントに割り当てられる。具体的には、左右方向のドラッグ操作でWC値が変更され、上下方向のドラッグ操作でWW値が変更される。
次に、第1の実施の形態の動作について説明する。
図3は、医用画像表示装置20により実行される事前準備処理を示すフローチャートである。この処理は、制御部21と記憶部26に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。ここでは、楕円のアノテーション、距離の計測線、虫眼鏡機能を例にして説明する。
まず、制御部21は、画像管理サーバー10から検査リストを取得し、取得された検査リストを表示部23に表示させる。ユーザーがタッチパネル22Bからの操作により、検査リストの中から検査を選択すると(ステップS1)、制御部21は、選択された検査で撮影された医用画像を画像管理サーバー10から取得し、取得された医用画像を表示部23に表示させる(ステップS2)。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作により、楕円のアノテーションの描画操作を受け付けると(ステップS3)、表示部23の医用画像上に楕円のアノテーションを描画する(ステップS4)。具体的には、ユーザーは、タッチパネル22Bにおいて、楕円のアノテーションの描画機能に対応するアイコンを選択し、医用画像上で楕円を描画する位置を指定する。制御部21は、表示されている医用画像のインスタンスUID、アノテーションの種類(楕円)、アノテーションの位置等が対応付けられたアノテーションデータを記憶部26に記憶させる。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作により、距離を計測するための計測線の描画操作を受け付けると(ステップS5)、表示部23の医用画像上に距離の計測線と計測値を描画する(ステップS6)。具体的には、ユーザーが、タッチパネル22Bにおいて、距離計測機能に対応するアイコンを選択し、医用画像上で計測線の始点及び終点を指定すると、制御部21は、2点間の距離(計測値)を算出する。制御部21は、表示されている医用画像のインスタンスUID、計測機能の種類(距離)、計測線の位置、計測値、計測値の位置等が対応付けられた計測線データを記憶部26に記憶させる。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作により、虫眼鏡機能の選択操作を受け付ける(ステップS7)。具体的には、ユーザーは、タッチパネル22Bにおいて、虫眼鏡機能に対応するアイコンを選択する。制御部21は、表示されている医用画像のインスタンスUID、選択されているアイコンに対応する処理機能(虫眼鏡機能)、医用画像全体を示す位置等が対応付けられた処理機能データを記憶部26に記憶させる。
以上で、事前準備処理が終了する。
図4は、医用画像表示装置20により実行される第1のオブジェクト選択処理を示すフローチャートである。この処理は、事前準備処理に続いて行われる処理であり、制御部21と記憶部26に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
ユーザーによりタッチパネル22Bに対するロングタッチ操作が行われると(ステップS11)、制御部21は、タッチ位置付近の選択対象物を抽出する(ステップS12)。具体的には、制御部21は、オブジェクト位置情報(アノテーションデータ、計測線データ及び処理機能データ)を参照して、医用画像に対して描画されているアノテーション及び計測線、医用画像に対して選択されている処理機能のうち、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に、その位置が含まれる選択対象物(楕円のアノテーション、距離の計測線、虫眼鏡機能)を選択候補として抽出する。
なお、ここでは、三つの選択対象物のうち、全ての選択対象物が選択候補として抽出される場合を例とするが、各選択対象物の位置や所定の範囲の設定に応じて、抽出される選択候補は変わってくる。
また、抽出された選択候補には、所定の順序が割り当てられる。ここでは、楕円のアノテーション、距離の計測線、虫眼鏡機能の順とする。
次に、制御部21は、表示部23に表示されている楕円のアノテーションを選択状態とする(ステップS13)。
図5(a)に、表示部23に表示されるビューアー画面231Aの例を示す。ビューアー画面231Aには、表示対象の医用画像が表示され、医用画像上に楕円のアノテーション40、距離の計測線50が重畳表示されている。ここでは、楕円のアノテーション40が太線で描画されることで、選択状態であることが示されている。なお、アノテーションの色や線種等の表示態様を、他の選択候補と異ならせることで、選択状態であることを示すこととしてもよい。
次に、制御部21は、計時部27に楕円のアノテーションが選択状態とされてからの経過時間を測定させる。制御部21は、計時部27により測定される時間が所定時間を経過したか否かを判断する(ステップS14)。
楕円のアノテーションが選択状態とされてから所定時間が経過していない場合には(ステップS14;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS15)。
タッチアップ操作が行われていない場合には(ステップS15;NO)、ステップS14に戻り、処理が繰り返される。
ステップS15において、タッチアップ操作が行われた場合には(ステップS15;YES)、制御部21は、タッチアップ操作時に選択状態とされていた楕円のアノテーションの選択を確定させ、楕円のアノテーションを修正可能状態とする(ステップS16)。
例えば、図5(b)に示すように、ビューアー画面231Bにおいて、医用画像上の楕円のアノテーション40を囲む矩形領域の四隅と、楕円の長軸両端点及び短軸両端点に、修正可能状態であることを示す編集マークM1~M8が表示される。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、楕円のアノテーションの位置・サイズを修正する(ステップS17)。例えば、楕円全体の位置を移動させたり、楕円の長軸方向・短軸方向のサイズを変更したり、楕円を回転させたりする。制御部21は、楕円のアノテーションの位置・サイズの修正に伴い、記憶部26に記憶されているアノテーションデータを更新する。
図5(c)に、楕円のアノテーションを修正した後のビューアー画面231Cの例を示す。ビューアー画面231Cでは、図5(b)と比較して、楕円のアノテーション40の短軸方向のサイズ(M7とM8との距離)が小さくなっている。
ステップS14において、楕円のアノテーションが選択状態とされてから所定時間が経過した場合には(ステップS14;YES)、制御部21は、表示部23に表示されている距離の計測線を選択状態とする(ステップS18)。
図6(a)に示すように、表示部23に表示されるビューアー画面232Aでは、医用画像上に重畳表示されている楕円のアノテーション40、距離の計測線50のうち、距離の計測線50が選択状態となっている。ここでは、距離の計測線50が太線で描画されることで、選択状態であることが示されている。なお、計測線の色や線種等の表示態様を、他の選択候補と異ならせることで、選択状態であることを示すこととしてもよい。
次に、制御部21は、計時部27に距離の計測線が選択状態とされてからの経過時間を測定させる。制御部21は、計時部27により測定される時間が所定時間を経過したか否かを判断する(ステップS19)。
距離の計測線が選択状態とされてから所定時間が経過していない場合には(ステップS19;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS20)。
タッチアップ操作が行われていない場合には(ステップS20;NO)、ステップS19に戻り、処理が繰り返される。
ステップS20において、タッチアップ操作が行われた場合には(ステップS20;YES)、制御部21は、タッチアップ操作時に選択状態とされていた距離の計測線の選択を確定させ、距離の計測線を修正可能状態とする(ステップS21)。
例えば、図6(b)に示すように、ビューアー画面232Bにおいて、医用画像上の距離の計測線50の両端点及び中心位置に、修正可能状態であることを示す編集マークM11~M13が表示される。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、距離の計測線の位置・サイズを修正する(ステップS22)。例えば、計測線全体の位置を移動させたり、計測線の始点・終点の位置を変更したりする。制御部21は、距離の計測線の位置・サイズの修正に伴い、記憶部26に記憶されている計測線データを更新する。
図6(c)に、距離の計測線を修正した後のビューアー画面232Cの例を示す。ビューアー画面232Cでは、図6(b)と比較して、距離の計測線50が右側に長くなっている。距離の計測線50の修正に伴い、計測値も「19.44mm」から「20.19mm」に変更されている。
ステップS19において、距離の計測線が選択状態とされてから所定時間が経過した場合には(ステップS19;YES)、制御部21は、虫眼鏡機能を選択状態とし、表示部23に虫眼鏡アイコンを表示させる(ステップS23)。
図7(a)に示すように、表示部23に表示されるビューアー画面233Aにおいて、虫眼鏡アイコン60が表示される。ここでは、虫眼鏡アイコン60が表示されることで、虫眼鏡機能が選択状態であることが示されている。
次に、制御部21は、計時部27に虫眼鏡アイコンが表示されてからの経過時間を測定させる。制御部21は、計時部27により測定される時間が所定時間を経過したか否かを判断する(ステップS24)。
虫眼鏡アイコンが表示されてから所定時間が経過した場合には(ステップS24;YES)、ステップS13に戻る(図5(a)参照)。
ステップS24において、虫眼鏡アイコンが表示されてから所定時間が経過していない場合には(ステップS24;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS25)。
タッチアップ操作が行われていない場合には(ステップS25;NO)、ステップS24に戻り、処理が繰り返される。
ステップS25において、タッチアップ操作が行われた場合には(ステップS25;YES)、制御部21は、タッチアップ操作時に選択状態とされていた虫眼鏡機能の選択を確定させ、虫眼鏡機能を実行可能状態とする。具体的には、制御部21は、タッチパネル22Bに対する所定の操作(タッチ操作)を、虫眼鏡機能を実行させるためのイベントに割り当てる。
ユーザーによりタッチパネル22Bからタッチ操作が行われると(ステップS26)、制御部21は、医用画像のタッチ箇所を拡大表示する(ステップS27)。
図7(b)に示すビューアー画面233Bでは、タッチ位置を中心とした医用画像の所定の領域が、予め定められた拡大率で拡大され、この拡大された画像61が医用画像上に重畳表示されている。虫眼鏡機能を実行中に、ユーザーがタッチパネル22Bに指を置いたままタッチ位置を移動させると、拡大表示される領域の中心位置が移動する。
ステップS17、ステップS22、ステップS27の後、第1のオブジェクト選択処理が終了する。
以上説明したように、第1の実施の形態によれば、ロングタッチ操作を契機として、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出し、タッチパネル22Bに対するタッチ時間に応じて、抽出された選択候補を順に選択状態とし、タッチアップ操作時に選択状態とされていた選択候補の選択を確定させるので、医用画像から選択対象物を選択する際の操作性を向上させることができる。タッチパネル22B上では、細かい位置指定が難しいが、各選択候補の表示態様をタッチ時間に応じて順に変えることで、いずれの選択候補が選択状態となっているかを明示することができる。
また、アノテーション又は計測線の選択が確定された場合には、アノテーション又は計測線の位置又はサイズを修正することができる。
また、各処理機能の選択が確定された場合には、タッチパネル22Bに対する所定の操作で、所定の処理機能を実行させることができる。
[第2の実施の形態]
第2の実施の形態における医用画像表示システムは、第1の実施の形態に示した医用画像表示システム100と同様の構成であるため、図1を援用し、第1の実施の形態と同様の構成については、説明を省略する。以下、第2の実施の形態に特徴的な構成及び処理について説明する。
医用画像表示装置20の制御部21は、医用画像が表示部23に表示されている状態で、タッチパネル22Bに対するロングタッチ操作があった場合に、オブジェクト位置情報(アノテーションデータ、計測線データ及び処理機能データ)を参照して、複数の選択対象物のうち、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出する。
制御部21は、タッチパネル22Bに対するロングタッチ操作におけるタッチ位置に応じて、抽出された選択候補を順に選択状態とする。具体的には、制御部21は、ロングタッチ操作を開始した位置から移動した距離に応じて、選択状態とする選択候補を切り替えていく。移動方向については、上下方向、左右方向等、特に限定されない。
制御部21は、タッチパネル22Bからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる。
図8(a)~(e)を参照して、タッチパネル22Bにおけるタッチ位置の移動方法について説明する。ここでは、ユーザーがタッチパネル22B上で、指を上下方向に移動することとする。
図8(a)に、ユーザーがロングタッチ操作を開始した位置P1を示す。
図8(b)に、図8(a)に示す位置P1から上側へ一定量移動させた位置P2を示す。なお、指の移動を認識する際の閾値となる一定量(移動距離)は、任意に設定可能である。
図8(c)に、図8(b)に示す位置P2からさらに上側へ一定量移動させた位置P3を示す。
図8(d)に、図8(c)に示す位置P3から下側へ一定量移動させた位置P4を示す(図8(b)の位置P2と同じ位置)。
図8(e)に、図8(d)に示す位置P4からさらに下側へ一定量移動させた位置P5を示す(図8(a)の位置P1と同じ位置)。
第2の実施の形態では、位置P1(P5)を1番目の選択候補に対応付け、位置P2(P4)を2番目の選択候補に対応付け、位置P3を3番目の選択候補に対応付けて、タッチパネル22Bから指を離さずにタッチパネル22B上の指を移動させることで、選択状態とする選択候補を切り替える。
次に、第2の実施の形態の動作について説明する。
第2の実施の形態においても、事前準備処理(図3参照)については、第1の実施の形態と同様である。
図9は、医用画像表示装置20により実行される第2のオブジェクト選択処理を示すフローチャートである。この処理は、事前準備処理に続いて行われる処理であり、制御部21と記憶部26に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
ステップS31~ステップS33の処理については、図4のステップS11~ステップS13の処理と同様である。
楕円のアノテーションが選択状態となっているビューアー画面の例は、図5(a)と同様である。
次に、制御部21は、タッチパネル22Bにおけるタッチ位置に基づいて、楕円のアノテーションが選択状態とされてからタッチ位置が一定量移動したか否かを判断する(ステップS34)。例えば、制御部21は、図8(a)に示す位置P1から図8(b)に示す位置P2に移動したか否かを判断する。
楕円のアノテーションが選択状態とされてからタッチ位置が一定量移動していない場合には(ステップS34;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS35)。
タッチアップ操作が行われていない場合には(ステップS35;NO)、ステップS34に戻り、処理が繰り返される。
ステップS35において、タッチアップ操作が行われた場合には(ステップS35;YES)、制御部21は、タッチアップ操作時に選択状態とされていた楕円のアノテーションの選択を確定させ、楕円のアノテーションを修正可能状態とする(ステップS36)(図5(b)参照)。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、楕円のアノテーションの位置・サイズを修正する(ステップS37)(図5(c)参照)。
ステップS34において、楕円のアノテーションが選択状態とされてからタッチ位置が一定量移動した場合には(ステップS34;YES)、制御部21は、表示部23に表示されている距離の計測線を選択状態とする(ステップS38)(図6(a)参照)。
次に、制御部21は、タッチパネル22Bにおけるタッチ位置に基づいて、距離の計測線が選択状態とされてからタッチ位置が(ステップS34でYESの場合と同じ向きに)一定量移動したか否かを判断する(ステップS39)。例えば、制御部21は、図8(b)に示す位置P2から図8(c)に示す位置P3に移動したか否かを判断する。
距離の計測線が選択状態とされてからタッチ位置が一定量移動していない場合には(ステップS39;NO)、制御部21は、タッチパネル22Bにおけるタッチ位置に基づいて、距離の計測線が選択状態とされてからタッチ位置が(ステップS34でYESの場合と)逆向きに一定量移動したか否かを判断する(ステップS40)。例えば、制御部21は、図8(b)に示す位置P2から図8(a)に示す位置P1に移動したか否かを判断する。
距離の計測線が選択状態とされてからタッチ位置が逆向きに一定量移動した場合には(ステップS40;YES)、ステップS33に戻る(図5(a)参照)。
ステップS40において、距離の計測線が選択状態とされてからタッチ位置が逆向きに一定量移動していない場合には(ステップS40;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS41)。
タッチアップ操作が行われていない場合には(ステップS41;NO)、ステップS39に戻り、処理が繰り返される。
ステップS41において、タッチアップ操作が行われた場合には(ステップS41;YES)、制御部21は、タッチアップ操作時に選択状態とされていた距離の計測線の選択を確定させ、距離の計測線を修正可能状態とする(ステップS42)(図6(b)参照)。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、距離の計測線の位置・サイズを修正する(ステップS43)(図6(c)参照)。
ステップS39において、距離の計測線が選択状態とされてからタッチ位置が一定量移動した場合には(ステップS39;YES)、制御部21は、虫眼鏡機能を選択状態とし、表示部23に虫眼鏡アイコンを表示させる(ステップS44)(図7(a)参照)。
次に、制御部21は、タッチパネル22Bにおけるタッチ位置に基づいて、虫眼鏡アイコンが表示されてからタッチ位置が(ステップS34でYESの場合と)逆向きに一定量移動したか否かを判断する(ステップS45)。例えば、制御部21は、図8(c)に示す位置P3から図8(d)に示す位置P4に移動したか否かを判断する。なお、選択候補の数(ここでは、3)の最大数まで選択状態とした後は、それ以上ロングタッチ操作の開始位置からの距離を大きくしても選択候補の変更は行われない。
虫眼鏡アイコンが表示されてからタッチ位置が逆向きに一定量移動した場合には(ステップS45;YES)、ステップS38に戻る(図6(a)参照)。
ステップS45において、虫眼鏡アイコンが表示されてからタッチ位置が逆向きに一定量移動していない場合には(ステップS45;NO)、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS46)。
タッチアップ操作が行われていない場合には(ステップS46;NO)、ステップS45に戻り、処理が繰り返される。
ステップS46において、タッチアップ操作が行われた場合には(ステップS46;YES)、制御部21は、タッチアップ操作時に選択状態とされていた虫眼鏡機能の選択を確定させ、虫眼鏡機能を実行可能状態とする。
ユーザーによりタッチパネル22Bからタッチ操作が行われると(ステップS47)、制御部21は、医用画像のタッチ箇所を拡大表示する(ステップS48)(図7(b)参照)。
ステップS37、ステップS43、ステップS48の後、第2のオブジェクト選択処理が終了する。
以上説明したように、第2の実施の形態によれば、ロングタッチ操作を契機として、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出し、タッチパネル22Bに対するタッチ位置に応じて、抽出された選択候補を順に選択状態とし、タッチアップ操作時に選択状態とされていた選択候補の選択を確定させるので、医用画像から選択対象物を選択する際の操作性を向上させることができる。タッチパネル22B上では、細かい位置指定が難しいが、各選択候補の表示態様をタッチ位置に応じて順に変えることで、いずれの選択候補が選択状態となっているかを明示することができる。
[第3の実施の形態]
第3の実施の形態における医用画像表示システムは、第1の実施の形態に示した医用画像表示システム100と同様の構成であるため、図1を援用し、第1の実施の形態と同様の構成については、説明を省略する。以下、第3の実施の形態に特徴的な構成及び処理について説明する。
医用画像表示装置20のタッチパネル22Bは、平面上のタッチ位置だけでなく、ユーザーの指等を押し込むタッチ深度の差を検出可能となっている。タッチパネル22Bは、タッチ深度を3段階(小・中・大)で検出し、検出結果を制御部21に出力する。
制御部21は、医用画像が表示部23に表示されている状態で、タッチパネル22Bに対するロングタッチ操作があった場合に、オブジェクト位置情報(アノテーションデータ、計測線データ及び処理機能データ)を参照して、複数の選択対象物のうち、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出する。
制御部21は、タッチパネル22Bに対するロングタッチ操作におけるタッチ深度に応じて、抽出された選択候補を順に選択状態とする。
制御部21は、タッチパネル22Bからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる。
第3の実施の形態では、タッチ深度「小」を1番目の選択候補に対応付け、タッチ深度「中」を2番目の選択候補に対応付け、タッチ深度「大」を3番目の選択候補に対応付けて、タッチパネル22Bに対するタッチ深度を変えることで、選択状態とする選択候補を切り替える。
次に、第3の実施の形態の動作について説明する。
第3の実施の形態においても、事前準備処理(図3参照)については、第1の実施の形態と同様である。
図10は、医用画像表示装置20により実行される第3のオブジェクト選択処理を示すフローチャートである。この処理は、事前準備処理に続いて行われる処理であり、制御部21と記憶部26に記憶されているプログラムとの協働によるソフトウェア処理によって実現される。
ステップS51~ステップS52の処理については、図4のステップS11~ステップS12の処理と同様である。
次に、制御部21は、タッチパネル22Bにおけるタッチ深度が「小」であるか否かを判断する(ステップS53)。
タッチ深度が「小」である場合には(ステップS53;YES)、制御部21は、表示部23に表示されている楕円のアノテーションを選択状態とする(ステップS54)(図5(a)参照)。
次に、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS55)。
タッチアップ操作が行われていない場合には(ステップS55;NO)、ステップS53に戻り、処理が繰り返される。
ステップS55において、タッチアップ操作が行われた場合には(ステップS55;YES)、制御部21は、タッチアップ操作時に選択状態とされていた楕円のアノテーションの選択を確定させ、楕円のアノテーションを修正可能状態とする(ステップS56)(図5(b)参照)。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、楕円のアノテーションの位置・サイズを修正する(ステップS57)(図5(c)参照)。
ステップS53において、タッチ深度が「小」でない場合には(ステップS53;NO)、制御部21は、タッチパネル22Bにおけるタッチ深度が「中」であるか否かを判断する(ステップS58)。
タッチ深度が「中」である場合には(ステップS58;YES)、制御部21は、表示部23に表示されている距離の計測線を選択状態とする(ステップS59)(図6(a)参照)。
次に、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS60)。
タッチアップ操作が行われていない場合には(ステップS60;NO)、ステップS58に戻り、処理が繰り返される。
ステップS60において、タッチアップ操作が行われた場合には(ステップS60;YES)、制御部21は、タッチアップ操作時に選択状態とされていた距離の計測線の選択を確定させ、距離の計測線を修正可能状態とする(ステップS61)(図6(b)参照)。
次に、制御部21は、ユーザーのタッチパネル22Bからの操作に従って、距離の計測線の位置・サイズを修正する(ステップS62)(図6(c)参照)。
ステップS58において、タッチ深度が「中」でない場合には(ステップS58;NO)、制御部21は、タッチパネル22Bにおけるタッチ深度が「大」であるか否かを判断する(ステップS63)。
タッチ深度が「大」でない場合には(ステップS63;NO)、ステップS53に戻る。
ステップS63において、タッチ深度が「大」である場合には(ステップS63;YES)、制御部21は、虫眼鏡機能を選択状態とし、表示部23に虫眼鏡アイコンを表示させる(ステップS64)(図7(a)参照)。
次に、制御部21は、ユーザーによりタッチパネル22Bからのタッチアップ操作が行われたか否かを判断する(ステップS65)。
タッチアップ操作が行われていない場合には(ステップS65;NO)、ステップS63に戻り、処理が繰り返される。
ステップS65において、タッチアップ操作が行われた場合には(ステップS65;YES)、制御部21は、タッチアップ操作時に選択状態とされていた虫眼鏡機能の選択を確定させ、虫眼鏡機能を実行可能状態とする。
ユーザーによりタッチパネル22Bからタッチ操作が行われると(ステップS66)、制御部21は、医用画像のタッチ箇所を拡大表示する(ステップS67)(図7(b)参照)。
ステップS57、ステップS62、ステップS67の後、第3のオブジェクト選択処理が終了する。
以上説明したように、第3の実施の形態によれば、ロングタッチ操作を契機として、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出し、タッチパネル22Bに対するタッチ深度に応じて、抽出された選択候補を順に選択状態とし、タッチアップ操作時に選択状態とされていた選択候補の選択を確定させるので、医用画像から選択対象物を選択する際の操作性を向上させることができる。タッチパネル22B上では、細かい位置指定が難しいが、各選択候補の表示態様をタッチ深度に応じて順に変えることで、いずれの選択候補が選択状態となっているかを明示することができる。
なお、上記各実施の形態における記述は、本発明に係る医用画像表示装置の例であり、これに限定されるものではない。装置を構成する各部の細部構成及び細部動作に関しても本発明の趣旨を逸脱することのない範囲で適宜変更可能である。
例えば、医用画像上に描画されるアノテーションや計測線、選択される処理機能については、上記の例に限定されない。また、同一の医用画像に対して対応付けられる選択対象物の数、その中から抽出される選択候補の数も限定されない。
また、上記各実施の形態では、選択対象物となる所定の処理機能として、画像処理機能を中心に説明したが、アノテーション描画機能、計測機能にも適用可能である。具体的には、アノテーションや計測線が既に描画されている状態で、さらにアノテーションを描画する場合、アノテーション描画機能に対応するアイコンを選択するが、ロングタッチ操作の位置に対応する医用画像上の位置から所定の範囲内に存在するアノテーション及び計測線と、アノテーション描画機能を選択候補とすることができる。アノテーション描画機能(線、矢印、矩形、多角形、楕円等)の選択が確定した場合、タッチパネル22Bに対する所定の操作(位置の指定等)が、アノテーション描画機能を実行させるためのイベントに割り当てられる。また、計測機能の選択が確定した場合、タッチパネル22Bに対する所定の操作(計測線を描画する位置の指定等)が、計測機能(計測線の描画、計測値の算出、計測値の描画)を実行させるためのイベントに割り当てられる。
以上の説明では、各処理を実行するためのプログラムを格納したコンピューター読み取り可能な媒体としてハードディスクや不揮発性の半導体メモリーを使用した例を公開したが、この例に限定されない。その他のコンピューター読み取り可能な媒体として、CD-ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)を適用することとしてもよい。
10 画像管理サーバー
11 制御部
12 通信部
14 記憶部
20 医用画像表示装置
21 制御部
22B タッチパネル
23 表示部
24 通信部
26 記憶部
27 計時部
100 医用画像表示システム
N 通信ネットワーク

Claims (6)

  1. 医用画像を表示する表示部と、
    当該表示部の表示画面上に設けられたタッチパネルと、
    前記医用画像に対して、複数の選択対象物と前記医用画像上のその位置とが対応付けられたオブジェクト位置情報を記憶する記憶部と、
    前記医用画像が前記表示部に表示されている状態で、前記タッチパネルに対するロングタッチ操作があった場合に、前記オブジェクト位置情報を参照して、前記複数の選択対象物のうち、前記ロングタッチ操作の位置に対応する前記医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出し、前記タッチパネルに対するタッチ時間、タッチ位置又はタッチ深度に応じて、前記抽出された選択候補を順に選択状態とし、前記タッチパネルからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる制御部と、
    を備える医用画像表示装置。
  2. 前記選択対象物は、前記医用画像上に描画されたアノテーション又は計測線である請求項1に記載の医用画像表示装置。
  3. 前記制御部は、前記選択が確定された選択候補について、前記タッチパネルからの操作に基づいて、位置又はサイズを修正する請求項2に記載の医用画像表示装置。
  4. 前記選択対象物は、前記医用画像に所定の処理を施す処理機能である請求項1に記載の医用画像表示装置。
  5. 前記処理機能の選択の確定は、前記タッチパネルに対する所定の操作を、前記処理機能を実行させるためのイベントに割り当てることである請求項4に記載の医用画像表示装置。
  6. 医用画像を表示する表示部と、当該表示部の表示画面上に設けられたタッチパネルと、前記医用画像に対して、複数の選択対象物と前記医用画像上のその位置とが対応付けられたオブジェクト位置情報を記憶する記憶部と、を備える医用画像表示装置のコンピューターを、
    前記医用画像が前記表示部に表示されている状態で、前記タッチパネルに対するロングタッチ操作があった場合に、前記オブジェクト位置情報を参照して、前記複数の選択対象物のうち、前記ロングタッチ操作の位置に対応する前記医用画像上の位置から所定の範囲内に含まれる選択対象物を選択候補として抽出する手段、
    前記タッチパネルに対するタッチ時間、タッチ位置又はタッチ深度に応じて、前記抽出された選択候補を順に選択状態とする手段、
    前記タッチパネルからのタッチアップ操作があった場合に、当該タッチアップ操作時に選択状態とされていた選択候補の選択を確定させる手段、
    として機能させるプログラム。
JP2018059119A 2018-03-27 2018-03-27 医用画像表示装置及びプログラム Active JP7013994B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018059119A JP7013994B2 (ja) 2018-03-27 2018-03-27 医用画像表示装置及びプログラム
US16/285,998 US10852939B2 (en) 2018-03-27 2019-02-26 Medical image display apparatus and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018059119A JP7013994B2 (ja) 2018-03-27 2018-03-27 医用画像表示装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019170422A JP2019170422A (ja) 2019-10-10
JP7013994B2 true JP7013994B2 (ja) 2022-02-01

Family

ID=68056194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018059119A Active JP7013994B2 (ja) 2018-03-27 2018-03-27 医用画像表示装置及びプログラム

Country Status (2)

Country Link
US (1) US10852939B2 (ja)
JP (1) JP7013994B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7292984B2 (ja) 2019-06-13 2023-06-19 キヤノン株式会社 行分割装置および方法、ならびにプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11494588B2 (en) 2020-03-06 2022-11-08 International Business Machines Corporation Ground truth generation for image segmentation
US11361146B2 (en) * 2020-03-06 2022-06-14 International Business Machines Corporation Memory-efficient document processing
US11495038B2 (en) 2020-03-06 2022-11-08 International Business Machines Corporation Digital image processing
US11556852B2 (en) 2020-03-06 2023-01-17 International Business Machines Corporation Efficient ground truth annotation
US11189375B1 (en) * 2020-05-27 2021-11-30 GE Precision Healthcare LLC Methods and systems for a medical image annotation tool

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013132514A (ja) 2011-12-27 2013-07-08 Toshiba Corp 医用画像表示装置及び医用画像保管システム
JP2014113311A (ja) 2012-12-10 2014-06-26 Hitachi Medical Corp 医用画像表示装置及びそれを搭載した医用画像診断装置
US20150005630A1 (en) 2013-07-01 2015-01-01 Samsung Electronics Co., Ltd. Method of sharing information in ultrasound imaging
US20160106394A1 (en) 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method of providing information using plurality of displays and ultrasound apparatus therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013132514A (ja) 2011-12-27 2013-07-08 Toshiba Corp 医用画像表示装置及び医用画像保管システム
JP2014113311A (ja) 2012-12-10 2014-06-26 Hitachi Medical Corp 医用画像表示装置及びそれを搭載した医用画像診断装置
US20150005630A1 (en) 2013-07-01 2015-01-01 Samsung Electronics Co., Ltd. Method of sharing information in ultrasound imaging
US20160106394A1 (en) 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method of providing information using plurality of displays and ultrasound apparatus therefor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7292984B2 (ja) 2019-06-13 2023-06-19 キヤノン株式会社 行分割装置および方法、ならびにプログラム

Also Published As

Publication number Publication date
US20190302997A1 (en) 2019-10-03
US10852939B2 (en) 2020-12-01
JP2019170422A (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7013994B2 (ja) 医用画像表示装置及びプログラム
US10599883B2 (en) Active overlay system and method for accessing and manipulating imaging displays
CN110515513B (zh) 显示设备和使用所述显示设备的图像显示方法
JP5362307B2 (ja) ドラッグアンドドロップ制御装置、方法、及びプログラム、並びにコンピュータ端末
JP6158509B2 (ja) 検査情報表示装置及び方法
JP4911029B2 (ja) 異常陰影候補検出方法、異常陰影候補検出装置
KR101474768B1 (ko) 의료기기 및 이를 이용한 영상표시방법
US8175364B2 (en) Medical image display device and program that generates marker and changes shape of region of interest to contact marker
JPWO2007141995A1 (ja) 表示処理装置
US20140149910A1 (en) Method of displaying medical image acquisition information and medical image display apparatus
US20210319881A1 (en) Medical system, medical apparatus, and medical method
JP2015016067A (ja) 画像表示方法および装置並びにプログラム
US20170038914A1 (en) Medical image display apparatus, medical image display system, medical image display method, and program
JP6158690B2 (ja) 画像表示装置
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP2015208602A (ja) 画像表示装置及び画像表示方法
JP5125981B2 (ja) 表示制御装置、表示制御方法及びプログラム
US20150227703A1 (en) Display Apparatus and Image Display System
JP7176997B2 (ja) 表示制御装置、表示制御装置の作動方法、及び表示制御装置の作動プログラム
JP5262649B2 (ja) 医用画像表示装置及びプログラム
KR101806816B1 (ko) 의료기기 및 이를 이용한 영상표시방법
JP2019003230A (ja) 情報処理装置、情報処理方法及びプログラム
JP7102121B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6841136B2 (ja) 医用画像表示装置及びプログラム
JP2006304840A (ja) 医用画像表示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103