JP6501525B2 - INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM - Google Patents

INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6501525B2
JP6501525B2 JP2015002524A JP2015002524A JP6501525B2 JP 6501525 B2 JP6501525 B2 JP 6501525B2 JP 2015002524 A JP2015002524 A JP 2015002524A JP 2015002524 A JP2015002524 A JP 2015002524A JP 6501525 B2 JP6501525 B2 JP 6501525B2
Authority
JP
Japan
Prior art keywords
display
area
unit
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015002524A
Other languages
Japanese (ja)
Other versions
JP2016126725A (en
Inventor
俊瑞 山根
俊瑞 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015002524A priority Critical patent/JP6501525B2/en
Publication of JP2016126725A publication Critical patent/JP2016126725A/en
Application granted granted Critical
Publication of JP6501525B2 publication Critical patent/JP6501525B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)

Description

開示の技術は、情報処理装置、情報処理方法およびプログラムに関する。   The disclosed technology relates to an information processing device, an information processing method, and a program.

比較対象となる複数の画像同士を並べて表示するため、画像表示領域を複数の領域に分割し、複数の領域それぞれに画像を表示することが知られている。さらに、複数の領域に画像を表示するために、表示部に表示されたサムネイルまたはアイコン等を各領域へドラッグ&ドロップすることが行われている。画像を簡便な操作で所望の領域に表示させる方法として、ドラッグしたサムネイルの近傍に画像の表示位置を指定するためのウインドウを表示し、このウインドウへのドロップ位置によって画像の表示位置を決定することが知られている(特許文献1)。この技術によれば実際に画像を表示する領域までサムネイルをドラッグする必要がなく簡単にサムネイルに対応付けられた画像を表示させることが可能となる。   In order to display a plurality of images to be compared side by side, it is known to divide an image display area into a plurality of areas and display the images in each of the plurality of areas. Furthermore, in order to display images in a plurality of areas, dragging and dropping a thumbnail, an icon or the like displayed on the display unit into each area is performed. As a method of displaying an image in a desired area by a simple operation, a window for designating a display position of the image is displayed in the vicinity of the dragged thumbnail, and the display position of the image is determined by the drop position on this window. Is known (Patent Document 1). According to this technique, it is possible to easily display an image associated with a thumbnail without having to drag the thumbnail to an area for actually displaying the image.

特許5362307号公報Patent 5362307 gazette

しかしながら、サムネイルをドロップした位置で画像の表示位置を決定しているため、ユーザーに細かい操作が要求されるという問題がある。また、表示領域をどのように分割するかの指定はドラッグ&ドロップの操作とは別に行わなければならず煩雑である。   However, since the display position of the image is determined at the position where the thumbnail is dropped, there is a problem that the user is required to perform a detailed operation. Also, designation of how to divide the display area is complicated because it must be performed separately from the drag and drop operation.

開示の技術はこのような状況に鑑みてなされたものであり簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることを目的の1つとする。   The technology disclosed herein has been made in view of such a situation, and has an object of dividing a display area and displaying an image at a desired position of the divided area with a simple operation.

なお、前記目的に限らず、後述する発明を実施するための形態に示す各構成により導かれる作用効果であって、従来の技術によっては得られない作用効果を奏することも本件の他の目的の1つとして位置付けることができる。   It is to be noted that the operation and effect are not limited to the above object but are derived from the respective configurations shown in the embodiments for carrying out the invention described later, and it is another object of the present invention to exert the operation and effect not obtained by the prior art. It can be positioned as one.

上記目的を達成するための一手段として、開示の情報処理装置は、表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知手段と、前記検知手段により検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割手段と、前記検知手段により検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定手段と、前記決定手段により決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御手段と、を備え、前記検知手段により前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させる。 As a means for achieving the above object, the information processing apparatus disclosed herein includes a detection unit that detects an operation direction of a flick operation or a drag operation on an object displayed on the display unit, and an operation direction detected by the detection unit. Based on the division means for dividing the display area of the display unit into a plurality of areas, and based on the operation direction detected by the detection means, displaying an image associated with the object among the plurality of areas Determining means for determining an area to be selected, and display control means for displaying an image associated with the object in the area determined by the determining means, wherein the object is selected by the user by the detection means When the display control means detects the flick operation or the drag operation. An indication of division results in areas of the display unit by the dividing means in the case of performing click operation or drag operation Ru is displayed for each of the operation direction.

開示の技術によれば、簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることが可能となる。   According to the disclosed technology, it is possible to divide the display area and display an image at a desired position of the divided area with a simple operation.

(a)は資料表示装置の全体構成の一例を示す図である。(b)は資料表示装置の機能の一例を説明するための図である。(A) is a figure which shows an example of the whole structure of a data display apparatus. (B) is a figure for demonstrating an example of the function of a data display apparatus. 資料表示装置の画面構成の一例を示す図である。It is a figure showing an example of the screen composition of a data display device. 表示エリア選択UIの一例を示す図である。It is a figure showing an example of display area selection UI. 資料表示エリアの一例(左右2分割)を示す図である。It is a figure which shows an example (left and right 2 division) of a data display area. 資料表示エリアの一例(上下2分割)を示す図である。It is a figure which shows an example (upper and lower 2 division) of a material display area. 資料表示エリアの一例(上下左右4分割)を示す図である。It is a figure which shows an example (upper and lower left 4 divisions) of a material display area. 資料表示エリアを選択するフロー(左右2分割)の一例を示す図である。It is a figure which shows an example of the flow (left and right 2 division | segmentation) which selects a data display area. 資料表示エリアを選択するフロー(上下左右4分割)の一例を示す図である。It is a figure which shows an example of the flow (upper and lower left 4 divisions) which selects a data display area. 資料表示処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of a data display process. 操作方向検知処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of operation direction detection processing. 表示エリア選択UIの表示例(左右2分割でのみ資料表示可能)を示す図である。It is a figure which shows the example of a display of a display area selection UI (material display is possible only by 2 division | segmentation on either side). 表示エリア選択UIの表示例(上下2分割でのみ資料表示可能)を示す図である。It is a figure which shows the example of a display of a display area selection UI (material display is possible only by upper and lower 2 division | segmentation). 表示エリア選択UIの表示例(右側にのみ資料表示可能)を示す図である。It is a figure which shows the example of a display of display area selection UI (it can display data only on the right side). 表示エリア選択UIの表示例(下側にのみ資料表示可能)を示す図である。It is a figure which shows the example of a display of the display area selection UI (material display is possible only at the lower side). 表示エリア選択UIの一例を示す図である。It is a figure showing an example of display area selection UI.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は以下の実施例に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments thereof with reference to the attached drawings. In addition, the structure shown in the following embodiment is only an example, and this invention is not limited to a following example.

また、以下の実施形態では資料として医療画像や医療文書を扱う医療向け資料表示装置を実施例としているが、本発明は医療以外の分野の画像や文書に対しても適用可能である。   In the following embodiments, a medical material display apparatus for medical treatment that treats medical images and medical documents as materials is taken as an example, but the present invention is also applicable to images and documents in fields other than medical treatment.

<実施形態1>
図1(a)に本実施形態における資料表示装置(情報処理装置)の全体構成を示す。資料表示装置1はUI(User Interface)デバイス101、CPU(Central Processing Unit)102、RAM(Random Access Memory)103、通信IF(Inter Face)104、UI表示部105、プログラム用記憶領域106、データ用記憶領域107を備える。
First Embodiment
FIG. 1A shows an entire configuration of a material display apparatus (information processing apparatus) according to the present embodiment. The data display device 1 includes a UI (User Interface) device 101, a CPU (Central Processing Unit) 102, a RAM (Random Access Memory) 103, a communication IF (Inter Face) 104, a UI display unit 105, a program storage area 106, and data. A storage area 107 is provided.

UIデバイス101は資料表示装置1を操作する医師等のユーザーからの入力を受け付け、ユーザーのUIデバイス101に対する操作に応じた信号を出力するデバイスである。例えば、UIデバイス101はマウスおよび/またはキーボードにより構成される。また、UIデバイス101はUI表示部105の表示画面上に指等の物体がタッチした位置等を検出するタッチセンサー等により構成されることとしてもよい。すなわち、UIデバイス101は、資料表示装置1にユーザーの指示を入力するために用いられる。   The UI device 101 is a device that receives an input from a user such as a doctor operating the material display device 1 and outputs a signal according to the user's operation on the UI device 101. For example, the UI device 101 is configured by a mouse and / or a keyboard. Further, the UI device 101 may be configured by a touch sensor or the like that detects a position where an object such as a finger touches on the display screen of the UI display unit 105. That is, the UI device 101 is used to input a user's instruction to the material display device 1.

CPU102は、プログラム用記憶領域106からRAM103に読み込んだプログラムをCPU102によって解釈・実行することによって資料表示装置1内の各種制御や計算、UIの表示が可能である。すなわち、CPU102がプログラムを実行することにより、資料表示装置1は後述するフローチャートに示す各処理を実行するための各種手段として機能する。CPU102がプログラム実行することにより実現される機能については図1(b)を参照して後述する。   The CPU 102 interprets and executes the program read from the program storage area 106 to the RAM 103 by the CPU 102, and can display various controls, calculations, and a UI in the material display device 1. That is, when the CPU 102 executes the program, the material display device 1 functions as various means for executing each process shown in the flowchart to be described later. The functions realized by the program execution of the CPU 102 will be described later with reference to FIG.

RAM103はCPU102の動作に必要な作業メモリとして使用される。   The RAM 103 is used as a working memory required for the operation of the CPU 102.

通信IF 104は院内ネットワークに繋がっており、病院内のPACS(Picture Archiving and Communication System)サーバーやファイルサーバー等から資料を取得する際に用いる通信インタフェースである。すなわち、CPU102がPACSサーバー等からX線画像等の医用画像を取得する場合、通信IF104を介して医用画像を取得する。   The communication IF 104 is connected to an in-hospital network, and is a communication interface used when acquiring materials from a PACS (Picture Archiving and Communication System) server or file server in a hospital. That is, when the CPU 102 acquires a medical image such as an X-ray image from a PACS server or the like, the medical image is acquired via the communication IF 104.

UI表示部105は装置の状態や処理内容を表示するLED(Light Emitting Diode)や液晶パネル等である。   The UI display unit 105 is a light emitting diode (LED), a liquid crystal panel, or the like that displays the state of the apparatus and the processing content.

さらに、資料表示装置1は、プログラム用記憶領域106とデータ用記憶領域107とを備える。具体的には、プログラム用記憶領域106とデータ用記憶領域107とはハードディスクまたはフラッシュメモリを用いて実現される。例えば、プログラム用記憶領域はROM(Read Only Memory)により実現され、データ用記憶領域107はHDD(Hard Disk Drive)により実現される。しかしながら、プログラム用記憶領域106とデータ用記憶領域107とは特定の記憶媒体に限定されるものではない。   Furthermore, the material display device 1 includes a program storage area 106 and a data storage area 107. Specifically, the program storage area 106 and the data storage area 107 are realized using a hard disk or a flash memory. For example, the program storage area is realized by a ROM (Read Only Memory), and the data storage area 107 is realized by a HDD (Hard Disk Drive). However, the program storage area 106 and the data storage area 107 are not limited to a specific storage medium.

資料表示装置1では、例えば、データ用記憶領域107に画像や文書等のUI表示部105への表示対象の資料が保存される。なお、病院内のPACSサーバーやファイルサーバー等に表示対象の資料が保存される構成とし、CPU102は通信IF104を介して各種のサーバーから資料を取得するものとしても構わない。   In the material display device 1, for example, materials to be displayed on the UI display unit 105, such as images and documents, are stored in the data storage area 107. The data to be displayed may be stored in a PACS server, a file server, or the like in a hospital, and the CPU 102 may acquire the data from various servers via the communication IF 104.

次に、CPU102の機能の一例を図1(b)を参照して説明する。   Next, an example of the function of the CPU 102 will be described with reference to FIG.

CPU102は、プログラム用記憶領域106に記憶されたプログラムを実行することで図1(b)に示す各手段として機能する。具体的にはCPU103は、検知手段112、分割手段122、決定手段132、表示制御手段142として機能する。   The CPU 102 functions as each unit shown in FIG. 1B by executing the program stored in the program storage area 106. Specifically, the CPU 103 functions as a detection unit 112, a division unit 122, a determination unit 132, and a display control unit 142.

なお、資料表示装置1が備えるCPU102およびプログラム用記憶領域106は1つであってもよいし複数であってもよい。すなわち、少なくとも1以上の処理装置(CPU)と少なくとも1つの記憶装置(ROM)とが接続されており、少なくとも1以上の処理装置が少なくとも1以上の記憶装置に記憶されたプログラムを実行した場合に資料表示装置1は上記の各手段として機能する。   The CPU 102 and the program storage area 106 included in the material display device 1 may be one or plural. That is, at least one or more processing units (CPU) and at least one storage unit (ROM) are connected, and at least one or more processing units execute a program stored in at least one or more storage units. The material display device 1 functions as each means described above.

検知手段112は、ユーザーによる資料表示装置1に対する操作を検知する。より具体的には、検知手段112はUI表示部105に表示されたサムネイルまたはアイコン等のオブジェクトに対してUIデバイス101を用いて行われるフリック操作およびドラッグ操作の操作方向を検知する。ここで、フリック操作とはUIデバイス101がタッチセンサーにより構成されている場合において、タッチセンサーにより指等の接触が検知された状態で所定の距離以上を素早く指等を動かした後、そのまま指等をタッチセンサーから離す操作である。つまり、フリック操作とは、タッチパネル(タッチセンサー)を指等で弾くように素早くなぞる操作である。検知手段112は、タッチダウン検知後、所定の距離以上、所定の速度以上で指等が移動したことを検知した後、そのままタッチアップを検知するとフリックが行なわれたと判定する。すなわち、検知手段112は、指等のUIデバイス101への接触の有無によってUIデバイス101から出力される信号に基づいてフリック操作を検出する。なお、検知手段112は指等の移動に伴うUIデバイス101からの出力の変化に基づいてフリック操作の方向を検知することが可能である。また、検知手段112は、UIデバイス101に指等が接触していることを示す信号がUIデバイス101から所定時間以上出力されている場合には長押しが発生したことを検知することができる。なお、タッチダウンとはタッチパネルへの指等の接触を示し、タッチアップとはタッチパネルから指等を離すことを示す。   The detection unit 112 detects an operation on the material display device 1 by the user. More specifically, the detection unit 112 detects the operation direction of the flick operation and the drag operation performed using the UI device 101 on an object such as a thumbnail or an icon displayed on the UI display unit 105. Here, when the UI device 101 is configured by a touch sensor, the flick operation is a finger or the like after the finger or the like is moved quickly by a predetermined distance or more in a state where the touch of the finger is detected by the touch sensor. Is an operation of releasing the touch sensor from the touch sensor. That is, the flick operation is an operation of tracing quickly so as to flip the touch panel (touch sensor) with a finger or the like. The detection means 112 detects that a finger or the like has moved at a predetermined distance or more and a predetermined speed or more after touch-down detection, and if it detects touch-up as it is, determines that flicking has been performed. That is, the detection unit 112 detects a flick operation based on a signal output from the UI device 101 based on the presence or absence of a touch on the UI device 101 such as a finger. The detection unit 112 can detect the direction of the flick operation based on the change of the output from the UI device 101 accompanying the movement of the finger or the like. In addition, when a signal indicating that a finger or the like is in contact with the UI device 101 is output from the UI device 101 for a predetermined time or more, the detection unit 112 can detect that a long press has occurred. Note that touch-down indicates contact of a finger or the like on the touch panel, and touch-up indicates releasing the finger or the like from the touch panel.

UIデバイス101がマウスで構成されている場合において、検知手段はマウスが備えるボタンの押し下げによりUIデバイス101から出力される信号およびマウスの移動によりUIデバイス101から出力される信号に基づいてドラッグを検知する。また検知手段112はドラッグ検知後、マウスが備えるボタンの押し下げ解除によりUIデバイス101から出力される信号(またはボタン押し下げによる信号の停止)に基づいてドロップを検知することができる。また、マウスの移動によりUIデバイス101から出力される信号に基づいて検知手段112はドラッグ操作の方向を検知することが可能である。すなわち、検知手段112は表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知手段の一例に相当する。なお、フリック操作またはドラッグ操作の操作方向の検知方法については図10を用いて後述する。   When the UI device 101 is configured by a mouse, the detection unit detects a drag based on a signal output from the UI device 101 by depression of a button of the mouse and a signal output from the UI device 101 by movement of the mouse Do. The detection unit 112 can detect a drop based on a signal output from the UI device 101 (or the stop of the signal due to the button depression) when the button provided on the mouse is released after the drag detection. Further, based on the signal output from the UI device 101 by the movement of the mouse, the detection unit 112 can detect the direction of the drag operation. That is, the detection unit 112 corresponds to an example of a detection unit that detects the operation direction of the flick operation or the drag operation on the object displayed on the display unit. In addition, the detection method of the operation direction of flick operation or a drag operation is later mentioned using FIG.

分割手段122は、検知手段112の検出結果に基づいてUI表示部105における画像が表示される領域(画像表示領域)を分割する。ここで、画像とはサムネイルまたはアイコン等のオブジェクトに対応付けられている画像である。画像の一例としてはX線画像、CT画像等が挙げられる。分割手段122は具体的には検知手段112により検知されたフリック操作またはドラッグ操作の操作方向に基づいてUI表示部105における画像表示領域を分割する。例えば、検知手段112により検知された操作方向に応じて、画像表示領域の分割の仕方は異なる。一例として操作方向が上下方向である場合には分割手段122は画像表示領域を上下に二分割する。また、例えば、操作方向が左右方向である場合には分割手段122は画像表示領域を左右に二分割する。すなわち、分割手段122は、検知手段により検知された操作方向に基づいて、表示部の表示領域を複数の領域に分割する分割手段の一例に相当する。なお、操作方向と分割の仕方との関係は上述の例に限定されるものではなく、他の関係であってもよい。   The dividing unit 122 divides an area (image display area) in which an image is displayed on the UI display unit 105 based on the detection result of the detection unit 112. Here, the image is an image associated with an object such as a thumbnail or an icon. Examples of the image include an X-ray image, a CT image and the like. Specifically, the dividing unit 122 divides the image display area in the UI display unit 105 based on the operation direction of the flick operation or the drag operation detected by the detection unit 112. For example, depending on the operation direction detected by the detection unit 112, the method of dividing the image display area is different. As an example, when the operation direction is up and down, the dividing unit 122 divides the image display area into upper and lower parts. Also, for example, when the operation direction is the left and right direction, the dividing unit 122 divides the image display area into two in the left and right. That is, the dividing unit 122 corresponds to an example of the dividing unit that divides the display area of the display unit into a plurality of areas based on the operation direction detected by the detecting unit. The relationship between the operation direction and the manner of division is not limited to the above-described example, and may be another relationship.

決定手段132は、検知手段112の検出結果に基づいてUI表示部105における分割された画像の表示領域のうちどの領域に画像を表示するかを決定する。決定手段132は具体的には検知手段112により検知されたフリック操作またはドラッグ操作の操作方向に基づいてUI表示部105における画像の表示領域を決定する。すなわち、決定手段132は、検知手段112により検知された操作方向に基づいて画像表示領域における画像の表示位置を決定する。つまり、決定手段132は、検知手段により検知された操作方向に基づいて、複数の領域のうちオブジェクトに対応付けられた画像を表示する領域を決定する決定手段の一例に相当する。例えば、検知手段112により検知された操作方向に応じて、画像表示領域における画像の表示位置は異なる。一例として操作方向が上方向である場合には分割手段122により上下に二分割された画像表示領域のうち上の領域を画像の表示位置と決定する。また、例えば、操作方向が左方向である場合には分割手段122により左右に二分割された画像表示領域のうち左の領域を画像の表示位置と決定する。なお、操作方向と画像の表示位置との関係は上述の例に限定されるものではなく、他の関係であってもよい。   The determination unit 132 determines which area of the display area of the divided image in the UI display unit 105 is to be displayed based on the detection result of the detection unit 112. Specifically, the determination unit 132 determines the display area of the image on the UI display unit 105 based on the operation direction of the flick operation or the drag operation detected by the detection unit 112. That is, the determination unit 132 determines the display position of the image in the image display area based on the operation direction detected by the detection unit 112. That is, the determination unit 132 corresponds to an example of a determination unit that determines an area to display an image associated with an object among a plurality of areas based on the operation direction detected by the detection unit. For example, in accordance with the operation direction detected by the detection unit 112, the display position of the image in the image display area is different. As an example, when the operation direction is upward, the upper one of the image display areas divided into two vertically by the division means 122 is determined as the display position of the image. Further, for example, when the operation direction is the left direction, the left area among the image display areas divided into two by the division means 122 is determined as the display position of the image. The relationship between the operation direction and the display position of the image is not limited to the above-described example, and may be another relationship.

なお、例えば、画像表示領域に既に画像が表示されている場合において、検知手段112が操作方向が左方向であることを検知した場合には、既に表示されている画像の表示位置を左右に二分割された画像表示領域の右側とする。そして、フリック操作等が行われたオブジェクトに対応する画像の表示位置を二分割された画像表示領域の左側と決定手段132は決定する。   Note that, for example, when an image is already displayed in the image display area, when the detection unit 112 detects that the operation direction is the left direction, the display position of the image that is already displayed is two on the left and right. The right side of the divided image display area. Then, the determination unit 132 determines the display position of the image corresponding to the object subjected to the flick operation or the like to the left side of the image display area divided into two.

表示制御手段142は、決定手段132によって決定された位置に画像を表示させる。具体的には表示制御手段142はUI表示部105を制御することで、決定手段132によって決定された位置に画像を表示させる。すなわち、表示制御手段142は決定手段により決定された領域にオブジェクトに対応付けられた画像を表示させる表示制御手段の一例に相当する。   The display control means 142 causes the image to be displayed at the position determined by the determination means 132. Specifically, the display control unit 142 controls the UI display unit 105 to display an image at the position determined by the determination unit 132. That is, the display control means 142 corresponds to an example of the display control means for displaying the image associated with the object in the area determined by the determination means.

また、表示制御手段142は分割手段122により分割された領域の境界を示す線または点線等の表示をUI表示部105に行わせることとしてもよい。なお、表示制御部142は、操作対象となっているオブジェクトに対応付けられている画像をデータ用記憶領域107から読み出してUI表示部105に表示させる。すなわち、データ用記憶領域107にはオブジェクトと画像との対応関係を示すテーブルが格納され、当該テーブルに基づいて表示制御手段142は操作対象となっているオブジェクトに対応する画像を取得することが可能となっている。なお、オブジェクトに対応付けられるものとしては画像を例に説明したが電子カルテまたは問診票等の文書データが対応付けられることとしてもよい。以下、画像および文書データを総括して単に資料という場合がある。   Further, the display control unit 142 may cause the UI display unit 105 to display a line indicating a boundary of the area divided by the dividing unit 122 or a dotted line. The display control unit 142 reads an image associated with the object to be operated from the data storage area 107 and causes the UI display unit 105 to display the image. That is, a table indicating the correspondence between the object and the image is stored in the data storage area 107, and based on the table, the display control means 142 can obtain an image corresponding to the object being manipulated. It has become. Although an image has been described as an example associated with an object, document data such as an electronic medical chart or a medical questionnaire may be associated. Hereinafter, images and document data may be simply referred to as materials.

次に、資料表示装置1のUI表示部105に表示される画面の構成を、図2を用いて説明する。UI表示部105に表示されるUIはオブジェクト表示エリア10と資料表示エリア12を含む資料表示スペース11を備える。オブジェクト表示エリア10には、サムネイルまたはアイコン等のオブジェクト(シンボル画像)がマトリクス状に表示される。ここで、シンボル画像とは、資料を表すサムネイル、資料名を示す画像またはアイコンを含む。また、オブジェクト表示エリア10において縦軸は資料の種別を示し、横軸は検査日時を示す。具体的には縦軸は画像を取得したモダリティの種別または文書データの種別を示している。さらに、横軸は画像が撮影された日時または文書データが作成された日時を示している。なお、縦軸および横軸が示す情報は図2の形態に限定されるものではなく、例えば逆であってもよい。本実施例ではシンボル画像をマトリクス状に表示する形態としたが、単純に各資料をリスト状に表示する表示形態でも構わない。   Next, the configuration of the screen displayed on the UI display unit 105 of the material display device 1 will be described with reference to FIG. The UI displayed on the UI display unit 105 includes a material display space 11 including an object display area 10 and a material display area 12. In the object display area 10, objects (symbol images) such as thumbnails or icons are displayed in a matrix. Here, the symbol image includes a thumbnail representing a material, an image or an icon indicating a material name. Further, in the object display area 10, the vertical axis indicates the type of material, and the horizontal axis indicates the examination date and time. Specifically, the vertical axis indicates the type of modality that acquired the image or the type of document data. Furthermore, the horizontal axis indicates the date when the image was taken or the date when the document data was created. In addition, the information which a vertical axis | shaft and a horizontal axis show is not limited to the form of FIG. 2, For example, you may be reverse. Although the symbol images are displayed in a matrix in this embodiment, the display format may be such that each material is displayed in a list.

図2の資料表示スペース11の内部には、資料表示エリア12が存在する。資料表示エリア11にはシンボル画像に対応付けられた画像または文書データ等が表示される。具体的には、UIデバイス101を用いてユーザーにより選択されたシンボル画像に対応付けられた画像または文書データ等を表示制御手段142が資料表示エリア12に表示させる。   A material display area 12 exists inside the material display space 11 of FIG. In the material display area 11, an image, document data or the like associated with the symbol image is displayed. Specifically, the display control means 142 causes the material display area 12 to display an image, document data or the like associated with the symbol image selected by the user using the UI device 101.

次に、図3を用いてフリック操作等により資料表示エリア12に資料を表示する際に用いられるUIの一例を説明する。図3には表示エリア選択UI14が示されている。表示エリア選択UI14は、例えば、資料一覧10上の任意のシンボル画像15を指やマウスカーソル等のユーザー指示13で所定時間以上選択する(長押しする)ことを契機に表示制御手段142によって表示される。表示エリア選択UI14の詳細を図15に示す。図15に示すように、この表示エリア選択UI14には、資料表示スペース11の分割パターンと、その分割パターンを選択した場合にどこに資料が表示されるのかが図示されている。すなわち、表示エリア選択UI14は、検知手段によりオブジェクトがユーザーによって選択されたことを検知した場合に表示制御手段により操作方向毎に表示される、フリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示の一例に相当する。図15に示す例では、上下方向にフリック操作が行われた場合、資料表示スペース11が上下に二分割されることを示している。また、左右方向にフリック操作が行われた場合、資料表示スペース11が左右方向に二分割されることを示している。さらに、斜め方向にフリック操作が行われた場合、資料表示スペース11は上下左右に四分割されることを示している。また図15における黒丸は分割された領域における資料の表示位置を示している。すなわち、この黒丸はフリック操作またはドラッグ操作を行った場合に決定手段より決定される画像を表示する領域を示す表示の一例に相当する。例えば、上方向にフリック操作が行われた場合、フリック操作の対象となったシンボル画像15に対応づけられた資料が上下に分割された領域のうち上の領域に表示される。   Next, an example of a UI used when displaying material in the material display area 12 by flick operation or the like will be described using FIG. A display area selection UI 14 is shown in FIG. The display area selection UI 14 is displayed by the display control means 142 in response to, for example, selecting (long-pressing) any symbol image 15 on the material list 10 with a user instruction 13 such as a finger or a mouse cursor for a predetermined time or more. Ru. Details of the display area selection UI 14 are shown in FIG. As shown in FIG. 15, the display area selection UI 14 shows the division pattern of the material display space 11 and where the material is displayed when the division pattern is selected. That is, the display area selection UI 14 is displayed for each operation direction by the display control unit when the detection unit detects that the object is selected by the user, and the flick operation or the drag operation is performed before the flick operation or the drag operation is performed. It corresponds to an example of a display showing the division result of the area of the display unit by the division means when the operation is performed. In the example shown in FIG. 15, it is shown that the data display space 11 is divided into two in the vertical direction when the flick operation is performed in the vertical direction. Further, when the flick operation is performed in the left and right direction, it is shown that the data display space 11 is divided into two in the left and right direction. Furthermore, when the flick operation is performed in the oblique direction, the data display space 11 is shown to be divided into four vertically and horizontally. Black circles in FIG. 15 indicate the display position of the material in the divided area. That is, this black circle corresponds to an example of a display showing an area for displaying an image determined by the determination means when a flick operation or a drag operation is performed. For example, when the flick operation is performed in the upward direction, the material associated with the symbol image 15 that is the target of the flick operation is displayed in the upper area among the upper and lower divided areas.

なお、図15に示す例では八方向のフリック操作に対応して領域を分割しているがこれに限定されるものではない。例えば、斜め方向のフリックには対応せず上下左右の四方向のフリック操作に対応する仕様としてもよい。また、図15において黒丸は分割された領域における資料の表示位置を示しているがこれを表示しないこととしてもよい。   In the example shown in FIG. 15, the area is divided corresponding to the flick operation in eight directions, but the present invention is not limited to this. For example, the specification may not correspond to the flick in the oblique direction, but may correspond to the flick operation in the up, down, left, and right directions. Further, in FIG. 15, the black circles indicate the display position of the material in the divided area, but this may not be displayed.

図4は図3の状態から右方向にフリック操作が行われた後のUI表示部105の表示画面を示す。右方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(A)、12(B)に左右二分割されている。また、右方向にフリック操作が行われたため左右に分割された領域のうち右の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図4に示す例ではフリック操作により左右に分割された領域のうち右の領域に新たな資料が表示されることとなるため、右の領域以外の領域(すなわち左の領域)にフリック操作以前に表示されていた資料が表示されることとなる。   FIG. 4 shows a display screen of the UI display unit 105 after the flick operation is performed in the right direction from the state of FIG. Since the flick operation is performed in the right direction, the data display space 11 is divided into left and right into the data display areas 12 (A) and 12 (B). Further, since the flick operation is performed in the right direction, the material associated with the symbol image 15 that is the flick target is displayed in the right area among the areas divided into right and left. The material already displayed in the material display space 11 at the stage of FIG. 3 is displayed in an area other than the display position determined based on the flicking direction in the divided area. In the example shown in FIG. 4, since new material is displayed in the right area among the areas divided into right and left by the flick operation, before the flick operation in the area other than the right area (ie, the left area) The displayed material will be displayed.

図5は図3の状態から下方向にフリック操作が行われた後のUI表示部105の表示画面を示す。下方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(C)、12(D)に上下二分割されている。また、下方向にフリック操作が行われたため上下に分割された領域のうち下の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図5に示す例ではフリック操作により上下に分割された領域のうち下の領域に新たな資料が表示されることとなるため、下の領域以外の領域(すなわち上の領域)にフリック操作以前に表示されていた資料が表示されることとなる。   FIG. 5 shows a display screen of the UI display unit 105 after the flick operation is performed downward from the state of FIG. Since the flick operation is performed downward, the data display space 11 is divided into the data display area 12 (C) and the data display area 12 (D) at the top and bottom. In addition, since the flick operation is performed downward, the material associated with the symbol image 15 that is the flick target is displayed in the lower area among the areas divided up and down. The material already displayed in the material display space 11 at the stage of FIG. 3 is displayed in an area other than the display position determined based on the flicking direction in the divided area. In the example shown in FIG. 5, since new material is displayed in the lower area of the areas divided up and down by the flick operation, the area other than the lower area (ie, the upper area) is displayed before the flick operation. The displayed material will be displayed.

図6は図3の状態から左下方向にフリック操作が行われた後のUI表示部105の表示画面を示す。左下方向にフリック操作が行われたため資料表示スペース11は資料表示エリア12(E)〜12(H)に上下左右四分割されている。また、左下方向にフリック操作が行われたため上下左右に分割された領域のうち左下の領域にフリック対象となったシンボル画像15に対応付けられた資料が表示されている。なお図3の段階で既に資料表示スペース11に表示されている資料は、分割された領域おいてフリック方向に基づいて定まる表示位置以外の領域に表示される。図5に示す例ではフリック操作により上下左右に分割された領域のうち左下の領域に新たな資料が表示されることとなるため、左下の領域以外の領域(例えば左上の領域)にフリック操作以前に表示されていた資料が表示されることとなる。   FIG. 6 shows a display screen of the UI display unit 105 after the flick operation is performed in the lower left direction from the state of FIG. Since the flick operation is performed in the lower left direction, the data display space 11 is divided into the data display area 12 (E) to 12 (H) in the upper, lower, left, and right directions. In addition, since the flick operation is performed in the lower left direction, the material associated with the symbol image 15 as the flick target is displayed in the lower left area among the areas divided vertically and horizontally. The material already displayed in the material display space 11 at the stage of FIG. 3 is displayed in an area other than the display position determined based on the flicking direction in the divided area. In the example shown in FIG. 5, a new material is displayed in the lower left area among the areas divided up, down, left and right by the flick operation, so an area other than the lower left area (for example, the upper left area) The material displayed on will be displayed.

次に、資料表示装置1の動作を図9に示すフローチャートを参照しながら説明する。また、図9に示すフローチャートの説明に際して、UI表示部105の表示画面例を示す図7、図8を参照する。   Next, the operation of the material display device 1 will be described with reference to the flowchart shown in FIG. In the description of the flowchart shown in FIG. 9, reference is made to FIG. 7 and FIG. 8 showing an example of the display screen of the UI display unit 105.

まず、S100において表示制御手段142は所定の患者に係るシンボル画像をマトリクス状にUI表示部105に表示させる。すなわち、S100において図2のオブジェクトエリア10にシンボル画像15がマトリクス状に表示される。なお、所定の患者の指定はUIデバイス101を介した患者ID等の入力により行われる。表示制御部142は、例えば、入力された患者IDに基づいて当該患者IDを有する資料をデータ用記憶領域107から探し、シンボル画像15としてオブジェクトエリア10に表示させる。   First, in S100, the display control unit 142 causes the UI display unit 105 to display symbol images of a predetermined patient in a matrix. That is, in S100, symbol images 15 are displayed in a matrix in the object area 10 of FIG. The designation of a predetermined patient is performed by inputting a patient ID or the like via the UI device 101. The display control unit 142 searches the data storage area 107 for a material having the patient ID based on the input patient ID, for example, and causes the object area 10 to display the material as the symbol image 15.

次に、S101において、検知手段112は、シンボル画像15に対してUIデバイス101を介して操作が行われたか否かを判定する。シンボル画像15に対して操作が行われていなければ再びS101の判断を行う。一方、検知手段112がシンボル画像15に対する操作を検知した場合、検知手段112は検知した操作がクリック操作またはタップ操作か否かを判断する。タップ操作またはクリック操作であると検知手段112が判定した場合には、表示制御手段142はシンボル画像に対応付けられている資料をデータ用記憶領域107から取得して資料表示スペース11に資料を表示させる(S103)。一方、検知手段112が検知したシンボル画像15に対する操作がタップ操作およびクリック操作以外の場合には長押しまたはフリック操作が行われたものと検知手段112は判断する。そしてS104において、表示制御手段142は図3に示すように表示エリア選択UI14をUI表示部105に表示させる。具体的には、表示制御手段142は、長押しまたはフリック操作の対象となったシンボル画像15を中心として表示エリア選択UI14を表示する。なお、表示エリア選択UI14の表示位置は上記に限定されるものではなく、他の位置に表示されることとしてもよい。図7(a)、(b)はS104による画面遷移の一例を示している。図7(a)または図8(a)のようにユーザーがシンボル画像15上で長押しすると、表示制御手段142により図7(b)または図8(b)のように表示エリア選択UI14が表示される。ここで、検知手段112により長押しと判定される前にフリック操作またはドラッグ操作した場合には、表示制御手段114はフリック操作等の検知後すぐに表示エリア選択UI14を表示させることとしてもよい。また、表示エリア選択UI14を表示させないこととしてもよい。   Next, in S101, the detection unit 112 determines whether an operation has been performed on the symbol image 15 via the UI device 101. If no operation is performed on the symbol image 15, the determination of S101 is performed again. On the other hand, when the detection unit 112 detects an operation on the symbol image 15, the detection unit 112 determines whether the detected operation is a click operation or a tap operation. If the detection unit 112 determines that the operation is a tap operation or a click operation, the display control unit 142 acquires the material associated with the symbol image from the data storage area 107 and displays the material in the material display space 11 (S103). On the other hand, when the operation on the symbol image 15 detected by the detection unit 112 is other than a tap operation and a click operation, the detection unit 112 determines that a long press or flick operation has been performed. Then, in S104, the display control unit 142 causes the UI display unit 105 to display the display area selection UI 14 as shown in FIG. Specifically, the display control means 142 displays the display area selection UI 14 centering on the symbol image 15 which has been the object of the long press or flick operation. The display position of the display area selection UI 14 is not limited to the above, and may be displayed at another position. FIGS. 7A and 7B show an example of screen transition in S104. When the user long-press on the symbol image 15 as shown in FIG. 7A or 8A, the display control unit 142 displays the display area selection UI 14 as shown in FIG. 7B or 8B. Be done. Here, when the flick operation or the drag operation is performed before the detection unit 112 determines that the touch operation is long, the display control unit 114 may display the display area selection UI 14 immediately after detection of the flick operation or the like. Further, the display area selection UI 14 may not be displayed.

次にS105において検知手段112はユーザーによるフリック操作等の操作方向を判定する。操作方向の判定、すなわち操作方向の検知について図10のフローチャートを用いて詳細に述べる。   Next, in step S105, the detection unit 112 determines the operation direction of the flick operation or the like by the user. The determination of the operation direction, that is, the detection of the operation direction will be described in detail with reference to the flowchart of FIG.

操作方向の検知処理が開始すると(S200)、S201において検知手段112は、UI表示部105の表示領域上においてタッチダウンされた座標Bおよびタッチアップされた座標EをUIデバイス101の出力に基づいて取得する。UIデバイスとしてマウス等のポインティングデバイスを用いている場合には、マウスのボタンを押し下げた時のマウスカーソル位置の座標がタッチダウンされた座標に対応する。また、マウスボタンを解放した時のマウスカーソルの位置の座標がタッチアップされた座標に対応する。   When the process of detecting the operation direction starts (S200), the detection unit 112 detects the coordinates B touched down and the coordinates E touched up on the display area of the UI display unit 105 in S201 based on the output of the UI device 101. get. When a pointing device such as a mouse is used as the UI device, the coordinates of the mouse cursor position when the mouse button is pressed corresponds to the touched-down coordinates. Further, the coordinates of the position of the mouse cursor when the mouse button is released correspond to the touched-up coordinates.

検知手段112は座標Bおよび座標Eを用いて操作方向ベクトルDをD←E・Bとして算出する。   The detection means 112 uses the coordinates B and the coordinates E to calculate the operation direction vector D as D ← E · B.

S202では、検知手段112が、S201で算出した操作方向ベクトルDが0もしくは所定の閾値以下であるか(十分小さいか)を判断する。操作方向ベクトルDが0もしくは所定の閾値以下であると判定された場合には、S203へ進み、検知手段はクリックまたはタップであると検知手段112は判定すし、処理を終了する(S204)。ここで、例えばS102の処理はS203の判定結果に基づいて行われる。   In S202, the detection unit 112 determines whether the operation direction vector D calculated in S201 is 0 or less than a predetermined threshold (is sufficiently small). If it is determined that the operation direction vector D is 0 or less than the predetermined threshold value, the process proceeds to S203, the detection means 112 determines that the detection means is a click or a tap, and ends the process (S204). Here, for example, the process of S102 is performed based on the determination result of S203.

操作方向ベクトルDが0もしくは所定の閾値以下ではないと判定された場合、S205へ進む。S205では検知手段112が操作方向ベクトルDと表示領域のx軸とのなす角θ[rad]を算出する。なお、θは、θ=atan2(y,x)[ただし、−π<θ≦π]と表すことができる。ここで、atan2(y,x)関数はベクトルD(x,y)とx軸とのなす角θを算出するアークタンジェント関数である。   If it is determined that the operation direction vector D is not 0 or less than a predetermined threshold, the process proceeds to S205. In S205, the detection means 112 calculates an angle θ [rad] between the operation direction vector D and the x axis of the display area. Note that θ can be expressed as θ = a tan 2 (y, x) [wherein, −π <θ ≦ π]. Here, the a tan 2 (y, x) function is an arc tangent function that calculates an angle θ between the vector D (x, y) and the x axis.

次に、S206で検知手段112はθの範囲に応じてユーザーのフリック操作等の操作方向を判定し、処理を終了する(S207)。具体的にはS206において検知手段112は、−(7/8)π<θ≦−(5/8)πであれば操作方向を左下方向と判定し、−(5/8)π<θ≦−(3/8)πであれば下方向と判定し、−(3/8)π<θ≦−(1/8)πであれば右下方向と判定する。また、検知手段112は、−(1/8)π<θ≦(1/8)πであれば操作方向を右方向と判定し、(1/8)π<θ≦(3/8)πであれば右上方向と判定し、(3/8)π<θ≦(5/8)πであれば上方向と判定する。さらに、検知手段112は、(5/8)π<θ≦(7/8)πであれば操作方向を左上方向と判定し、(7/8)π<θ≦πもしくは−π<θ≦−(7/8)πであれば左方向と判定する。   Next, in S206, the detection means 112 determines the operation direction of the user's flick operation or the like according to the range of θ, and ends the processing (S207). Specifically, in S206, the detection unit 112 determines that the operation direction is the lower left direction if − (7/8) π <θ ≦ − (5/8) π, and − (5/8) π <θ ≦ If it is-(3/8) pi, it will be judged as the lower direction, and if it is-(3/8) pi <θ −-(1/8) pi it will be judged as the lower right direction. If-(1/8) π <θ ≦ (1/8) π, the detection unit 112 determines that the operation direction is the right direction, and (1/8) π <θ ≦ (3/8) π. If it is, it is determined that the upper right direction is present, and if (3/8) π <θ ≦ (5/8) π, it is determined that the upper direction is present. Furthermore, if (5/8) π <θ ≦ (7/8) π, the detection means 112 determines that the operation direction is the upper left direction, and (7/8) π <θ ≦ π or −π <θ ≦ If it is-(7/8) pi, it will judge with the left direction.

図9のフローチャートの説明に戻り、S105以降の処理について説明する。   Returning to the description of the flowchart in FIG. 9, the processing after S105 will be described.

S105で操作方向が左方向または右方向と判定された場合にはS106へ、操作方向が上方向または下方向と判定された場合にはS107へ、操作方向が右上、右下、左下方向のいずれかであると判定された場合にはS108へ進む。S106では分割手段122が資料表示スペース11を左右に二分割し、S107では分割手段122が資料表示スペース11を上下に二分割する。また、S108では分割手段122が資料表示スペース11を上下左右に四分割する。   If the operation direction is determined to be left or right in S105, the process proceeds to S106. If the operation is determined to be upward or downward, the process proceeds to S107. The operation is either upper right, lower right, or lower left. If it is determined that it is the case, the process proceeds to S108. In S106, the dividing means 122 divides the data display space 11 into two left and right, and in S107, the dividing means 122 divides the data display space 11 into upper and lower parts. Further, in S108, the dividing means 122 divides the data display space 11 into upper, lower, left and right.

操作方向が左方向の場合S106の後S109へ進み、S109では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図4に示した資料表示エリア12(A)と決定する。そして表示制御手段142は資料表示エリア12(A)をフォーカスする。フォーカスの一例として決定手段132により決定された領域の枠を他の領域の枠とは異なる色で表示する等して強調表示することとしてもよい。また、操作方向が右方向の場合S106の後S110へ進み、S110では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図4に示した資料表示エリア12(B)と決定する。そして表示制御手段142は資料表示エリア12(B)をフォーカスする。   If the operation direction is the left direction, the process proceeds to S109 after S106. In S109, the determination unit 132 determines the display position of the material associated with the symbol image based on the operation direction with the material display area 12 (A) shown in FIG. decide. Then, the display control means 142 focuses the material display area 12 (A). As an example of the focus, the frame of the area determined by the determination unit 132 may be highlighted by displaying it in a color different from the frame of the other area. If the operation direction is the right direction, the process proceeds to step S110 after step S106. In step S110, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in FIG. Decide as). Then, the display control means 142 focuses the material display area 12 (B).

操作方向が上方向の場合S107の後S111へ進み、S111では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図5に示した資料表示エリア12(C)と決定する。そして表示制御手段142は資料表示エリア12(C)をフォーカスする。また、操作方向が下方向の場合S107の後S112へ進み、S112では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図5に示した資料表示エリア12(D)と決定する。そして表示制御手段142は資料表示エリア12(D)をフォーカスする。   If the operation direction is upward, the process proceeds to step S111 after step S107. In step S111, the determination unit 132 determines the display position of the material associated with the symbol image based on the operation direction with the material display area 12 (C) shown in FIG. decide. Then, the display control means 142 focuses the material display area 12 (C). If the operation direction is downward, the process proceeds to step S112 after step S107. In step S112, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in FIG. Decide as). Then, the display control means 142 focuses the material display area 12 (D).

さらに、操作方向が左上方向の場合S108の後S113へ進み、S113では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(E)と決定する。そして表示制御手段142は資料表示エリア12(E)をフォーカスする。また、操作方向が左下方向の場合S108の後S114へ進み、S114では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(F)と決定する。そして表示制御手段142は資料表示エリア12(F)をフォーカスする。さらに、操作方向が右上方向の場合S108の後S115へ進み、S115では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(G)と決定する。そして表示制御手段142は資料表示エリア12(G)をフォーカスする。また、操作方向が右下方向の場合S108の後S116へ進み、S116では決定手段132は操作方向に基づいてシンボル画像に対応付けられた資料の表示位置を図6に示した資料表示エリア12(H)と決定する。そして表示制御手段142は資料表示エリア12(H)をフォーカスする。   Furthermore, when the operation direction is the upper left direction, the process proceeds to S113 after S108, and in S113, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in FIG. Decide as). Then, the display control means 142 focuses the material display area 12 (E). When the operation direction is the lower left direction, the process proceeds to S114 after S108. In S114, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in the document display area 12 (F Decide as). Then, the display control means 142 focuses the material display area 12 (F). Further, if the operation direction is the upper right direction, the process proceeds to S115 after S108, and in S115, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in FIG. Decide as). Then, the display control means 142 focuses the material display area 12 (G). When the operation direction is the lower right direction, the process proceeds to S116 after S108, and in S116, the determination unit 132 displays the display position of the material associated with the symbol image based on the operation direction in FIG. H) Decide. Then, the display control means 142 focuses the material display area 12 (H).

S117では、表示制御手段142がS109−116で決定された領域(フォーカスされてた領域)にシンボル画像に対応付けられている資料をデータ用記憶領域107から取得して表示させる。例えば、S110を経由した場合、図7(c)に示す表示画面がUI表示部105に表示される。また、S114を経由した場合、図8(c)に示す表示画面がUI表示部105に表示される。すなわち、分割手段は、異なる複数の前記操作方向に対して前記表示部の領域を異なる様式で分割し、決定手段は、異なる複数の前記操作方向に対して前記画像を表示する領域を異なる領域としている。   In S117, the display control means 142 acquires the material associated with the symbol image in the area (the focused area) determined in S109-116 from the data storage area 107 and displays it. For example, when S110 is performed, the display screen illustrated in FIG. 7C is displayed on the UI display unit 105. Further, when the process goes through S114, the display screen shown in FIG. 8C is displayed on the UI display unit 105. That is, the dividing unit divides the area of the display unit in different ways with respect to a plurality of different operation directions, and the determining unit sets the areas for displaying the image as different areas with respect to a plurality of different operation directions There is.

なお、フリックの際にユーザーがフリック方向を認識し易くするために、表示エリア選択UI14上のフリック方向に対応する部分を強調表示してもよい。   In order to make it easy for the user to recognize the flick direction when flicking, a portion corresponding to the flicking direction on the display area selection UI 14 may be highlighted.

本実施形態では、表示エリア選択UI14によって資料の表示エリアと各操作方向との対応付けをユーザーに提示しているが、表示エリア選択UI14を出さないこととしてもよい。また、視覚的なUIの代わりに、ユーザーの操作方向に応じて操作音の音色を変える等の聴覚的なUIや、ユーザーの操作方向に応じてバイブレーション・パターンを変える等の触覚的なUIを用いても構わない。また、上記の実施形態ではフリック操作の場合を主として説明したがこれに限定されるものではなく、ドラッグ操作等他の操作方法に適用することとしてもよい。   In the present embodiment, the display area selection UI 14 presents the user with the correspondence between the display area of the material and each operation direction. However, the display area selection UI 14 may not be displayed. Also, instead of a visual UI, an auditory UI such as changing the tone of the operation sound according to the operation direction of the user, or a tactile UI such as changing the vibration pattern according to the operation direction of the user You may use it. Moreover, although the case of flick operation was mainly demonstrated in said embodiment, it is not limited to this, It is good also as applying to other operation methods, such as drag operation.

上記の実施形態によれば、1度のフリック操作によって表示領域の分割および画像の表示を行うことができる。すなわち簡単な操作で、表示領域を分割し、分割された領域の所望の位置に画像を表示させることができる。従って、ユーザーの操作負担の軽減が可能となる。また、表示エリア選択UI14はフリック後の表示領域のレイアウトを示しているため、フリック後の表示形態を把握した上でフリック操作を行うことが可能となる。従って、ユーザーの意図と異なる表示形態となることを防止することが可能となる。   According to the above embodiment, the division of the display area and the display of the image can be performed by one flick operation. That is, the display area can be divided and the image can be displayed at a desired position of the divided area by a simple operation. Therefore, the user's operation burden can be reduced. In addition, since the display area selection UI 14 indicates the layout of the display area after flicking, it becomes possible to perform the flick operation after grasping the display form after flicking. Therefore, it is possible to prevent the display form different from the user's intention.

<実施形態2>
第2の実施形態としては、図11や図12に示すように画面サイズに応じて表示エリア選択UI14を表示エリア選択UI14(a)や14(b)のように変更し、左右2分割や上下2分割での表示しか出来ないようにすることも可能である。
Second Embodiment
In the second embodiment, the display area selection UI 14 is changed to the display area selection UI 14 (a) or 14 (b) according to the screen size as shown in FIG. It is also possible to display only in two divisions.

図11のように左右2分割でしか表示出来ないように制限する例としては、画面サイズが図11のように横長で縦に2段並べると見づらくなる場合があげられる。例えば、表示制御手段142は、UI表示部105に表示されるオブジェクト表示エリア10と資料表示スペース11とを含む表示領域の縦横比に基づいて表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。例えば、表示制御手段142は表示領域の縦の長さに対して横の長さが所定値以上大きい場合には表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。すなわち、表示制御手段142はフリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示を表示部の表示領域の大きさに基づいて変更する。なお、図11の場合、左右方向以外にフリック操作が行われたとしても分割手段122による領域の分割は行われない。   As an example of restricting display to only the left and right two divisions as shown in FIG. 11, there are cases where it becomes difficult to see if the screen size is arranged horizontally in two rows and vertically as shown in FIG. For example, the display control unit 142 displays the display area selection UI 14 based on the aspect ratio of the display area including the object display area 10 displayed on the UI display unit 105 and the material display space 11 as shown in the display area selection UI 14 (a). Change to For example, the display control means 142 changes the display area selection UI 14 to a display area selection UI 14 (a) when the horizontal length is larger than the predetermined value with respect to the vertical length of the display area. That is, the display control unit 142 displays the display result indicating the division result of the area of the display unit by the division unit when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed to the size of the display area of the display unit. Change based on. In the case of FIG. 11, even if the flick operation is performed other than in the left-right direction, the division of the area by the dividing unit 122 is not performed.

また、図12のように上下2分割でしか表示出来ないように制限する例としては、画面サイズが図12のように縦長で横に2列並べると見づらくなる場合があげられる。例えば、表示制御手段142は、UI表示部105に表示されるオブジェクト表示エリア10と資料表示スペース11とを含む表示領域の縦横比に基づいて表示エリア選択UI14を表示エリア選択UI14(b)のように変更する。例えば、表示制御手段142は表示領域の横の長さに対して縦の長さが所定値以上大きい場合には表示エリア選択UI14を表示エリア選択UI14(a)のように変更する。なお、図11の場合、上下方向以外にフリック操作が行われたとしても分割手段122による領域の分割は行われない。   Further, as an example in which the display can be limited to only the upper and lower two divisions as shown in FIG. 12, the case where the screen size is vertically long and arranged horizontally in two rows as shown in FIG. For example, the display control unit 142 displays the display area selection UI 14 as the display area selection UI 14 (b) based on the aspect ratio of the display area including the object display area 10 and the material display space 11 displayed on the UI display unit 105. Change to For example, the display control means 142 changes the display area selection UI 14 to a display area selection UI 14 (a) when the vertical length is larger than the predetermined value with respect to the horizontal length of the display area. In the case of FIG. 11, even if the flick operation is performed other than in the vertical direction, the division of the area by the dividing unit 122 is not performed.

本実施形態によれば第1実施形態における効果に加えて、表示領域のサイズの特性に合わせて領域の分割が可能となる。従って、領域を分割して画像を表示した場合にユーザーにとって見づらい表示となることを防ぐことが可能となる。   According to the present embodiment, in addition to the effects of the first embodiment, it is possible to divide the area in accordance with the characteristics of the size of the display area. Therefore, when the area is divided and the image is displayed, it is possible to prevent the display from being difficult for the user to see.

<実施形態3>
第3の実施形態としては、図13や図14に示すように表示対象資料の属性に応じて表示エリア選択UI14を表示エリア選択UI14(c)や14(d)のように変更する。そして、右側のみまたは下側のみにしかフリック操作の表示出来ないようにすることも可能である。
Embodiment 3
In the third embodiment, as shown in FIGS. 13 and 14, the display area selection UI 14 is changed to display area selection UIs 14 (c) and 14 (d) according to the attribute of the display target material. Then, it is possible to display flick operation only on the right side or only on the lower side.

図13のように右側のみにしか表示出来ないように制限する例としては、資料の取り違えを防止する目的で、現在表示されている資料の患者と別の患者の資料は、右側にのみ表示するという例があげられる。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている患者識別情報をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の患者識別情報も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の患者識別情報と現在資料表示スペース11に表示されている画像に対応付けられている患者識別情報とを比較する。比較の結果、異なっていれば、表示制御手段142は表示エリア選択UI14を図13に示す表示エリア選択UI14(c)のように変更する。通常着目した患者の情報を左に表示し参照用の他の患者の情報は右側に表示されることが多いため、上記のようにすればユーザーに違和感を与えてしまうことを防ぐことが可能となる。   As an example of restricting display to only the right side as shown in FIG. 13, for the purpose of preventing confusion of the data, the data of the patient currently displayed and the data of another patient are displayed only on the right An example is given. Specifically, the display control unit 142 acquires, from the data storage area 107, the patient identification information associated with the image currently displayed in the material display space 11. The display control means 142 also acquires patient identification information of the material corresponding to the symbol image which is the target of the flick operation. Then, the display control means 142 compares the patient identification information of the material corresponding to the symbol image subjected to the flick operation with the patient identification information associated with the image currently displayed in the material display space 11. . As a result of comparison, if different, the display control means 142 changes the display area selection UI 14 to a display area selection UI 14 (c) shown in FIG. Usually, the information of the focused patient is displayed on the left, and the information of other patients for reference is often displayed on the right. Therefore, it is possible to prevent the user from feeling discomfort by doing as described above. Become.

また、別の例としては、検査日時がより最近の資料は右側にのみ表示するという例があげられる。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている撮影日時をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の撮影日時等も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の撮影日時と現在資料表示スペース11に表示されている画像に対応付けられている撮影日時とを比較する。比較の結果、フリック操作の対象となっているシンボル画像に対応する資料の撮影日時の方が新しければ、表示制御手段142は表示エリア選択UI14を図13に示す表示エリア選択UI14(c)のように変更する。通常新しい資料は右側に表示されるため、上記のようにすればユーザーに違和感を与えてしまうことを防ぐことが可能となる。   As another example, there is an example in which the material with the latest examination date and time is displayed only on the right side. Specifically, the display control means 142 acquires from the data storage area 107 the shooting date and time associated with the image currently displayed in the material display space 11. The display control means 142 also acquires the photographing date and the like of the material corresponding to the symbol image which is the target of the flick operation. Then, the display control means 142 compares the shooting date and time of the material corresponding to the symbol image subjected to the flick operation with the shooting date and time associated with the image currently displayed in the material display space 11. If the shooting date and time of the material corresponding to the symbol image subjected to the flick operation is newer as a result of comparison, the display control means 142 displays the display area selection UI 14 of the display area selection UI 14 (c) shown in FIG. To change. Usually, new materials are displayed on the right side, so that it is possible to prevent the user from feeling uncomfortable when doing as described above.

なお、上記の例ではフリック操作の対象となっているシンボル画像に対応する資料を分割された領域の右側に表示する例について述べたが、これに限定されるものではなく、ユーザーによって分割された領域の左側に表示するようにしてもよい。   In the above example, the document corresponding to the symbol image subjected to the flick operation is displayed on the right side of the divided area. However, the present invention is not limited to this, and it is divided by the user It may be displayed on the left side of the area.

次に、図14のように下側のみにしか表示出来ないように制限する例としては、画像の部位の実際の位置的関係を反映させ、腹部の画像は胸部の画像の下側にしか表示出来ないようにするという例があげられる。この際、部位はDICOM画像であればBody Part Examinedタグから取得することが可能である。また、部位同士の位置の関係は、例えば上から順に頭部、胸部、上肢、脊椎、腹部、骨盤、下肢のように定義したテーブル等の情報をデータ用記憶領域107に記憶し、これを参照するようにする。具体的には、表示制御手段142は、現在資料表示スペース11に表示されている画像に対応付けられている部位情報をデータ用記憶領域107から取得する。表示制御手段142は、同様にフリック操作の対象となっているシンボル画像に対応する資料の部位情報も取得する。そして、表示制御手段142はフリック操作の対象となっているシンボル画像に対応する資料の部位と現在資料表示スペース11に表示されている画像に対応付けられている部位とを上記のテーブルを用いて比較する。比較の結果、フリック操作の対象となっているシンボル画像に対応する資料の部位の方が人体構造上、現在資料表示スペース11に表示されている画像に対応付けられている部位より下に位置する部位の場合以下のような処理が行われる。例えば、表示制御手段142は表示エリア選択UI14を図14に示す表示エリア選択UI14(d)のように変更する。また、フリック操作の対象となっているシンボル画像に対応する資料の部位の方が人体構造上、現在資料表示スペース11に表示されている画像に対応付けられている部位より上に位置する部位の場合以下のような処理が行われる。例えば、表示制御手段142は表示エリア選択UI14を分割された領域の上側に表示するためのUIに変更してもよい。   Next, as an example of restricting the display to only the lower side as shown in FIG. 14, the actual positional relationship of the parts of the image is reflected, and the image of the abdomen is displayed only on the lower side of the image of the chest There is an example of making it impossible. At this time, in the case of a DICOM image, the site can be acquired from a Body Part Examined tag. Further, as for the positional relationship between the parts, for example, information on a table defined like head, chest, upper limbs, spine, abdomen, pelvis, lower limbs in order from the top is stored in the data storage area 107 and referred to To do. Specifically, the display control unit 142 acquires, from the data storage area 107, part information associated with the image currently displayed in the material display space 11. The display control means 142 also acquires part information of the material corresponding to the symbol image which is the target of the flick operation. Then, the display control means 142 uses the above table for the part of the material corresponding to the symbol image which is the object of the flick operation and the part corresponding to the image currently displayed in the material display space 11. Compare. As a result of comparison, the portion of the material corresponding to the symbol image subjected to the flick operation is located below the portion corresponding to the image currently displayed in the data display space 11 in the human body structure. In the case of the site, the following processing is performed. For example, the display control means 142 changes the display area selection UI 14 to a display area selection UI 14 (d) shown in FIG. Further, the portion of the material corresponding to the symbol image subjected to the flick operation is located above the portion associated with the image currently displayed in the data display space 11 in the human body structure. The following process is performed. For example, the display control unit 142 may change the display area selection UI 14 to a UI for displaying on the upper side of the divided area.

上述したように第3実施例において表示制御手段142はフリック操作またはドラッグ操作が行われる前にフリック操作またはドラッグ操作を行った場合の分割手段による表示部の領域の分割結果を示す表示をオブジェクトに対応付けられた画像の撮影日時、撮影部位または画像の被検者を識別する識別情報のいずれかに基づいて変更する。   As described above, in the third embodiment, the display control unit 142 displays on the object a display indicating the division result of the area of the display unit by the division unit when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed. It changes based on either the imaging | photography date of the matched image, the imaging | photography site | part or the identification information which identifies the test subject of an image.

また別の例としては、画像のモダリティの一般的な表示順序を反映させ、CT画像は単純X線の下側にしか表示出来ないようにするようにしてもよい。   As another example, a general display order of image modality may be reflected so that CT images can be displayed only below simple X-rays.

本実施形態によれば第1実施形態における効果に加えて、より直感的な表示をユーザーに提供することが可能となる。   According to the present embodiment, it is possible to provide a more intuitive display to the user in addition to the effects in the first embodiment.

<その他の実施形態>
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<Other Embodiments>
Although the embodiment has been described above in detail, the present invention can be embodied as, for example, a system, an apparatus, a method, a program, or a recording medium (storage medium). Specifically, the present invention may be applied to a system configured of a plurality of devices (for example, a host computer, interface device, imaging device, web application, etc.), or may be applied to a device including one device. good.

また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Further, it goes without saying that the object of the present invention can be achieved by the following. That is, a recording medium (or storage medium) storing a program code (computer program) of software for realizing the functions of the above-described embodiments is supplied to a system or apparatus. Such storage media are, of course, computer readable storage media. Then, the computer (or CPU or MPU) of the system or apparatus reads out and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium implements the functions of the above-described embodiments, and the recording medium recording the program code constitutes the present invention.

1 資料表示装置
112 検知手段
122 分割手段
132 決定手段
142 表示制御手段
DESCRIPTION OF SYMBOLS 1 Material display apparatus 112 Detection means 122 Division means 132 Determination means 142 Display control means

Claims (9)

表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知手段と、
前記検知手段により検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割手段と、
前記検知手段により検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定手段と、
前記決定手段により決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御手段と、
を備え、
前記検知手段により前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させることを特徴とする情報処理装置。
A detection unit that detects an operation direction of a flick operation or a drag operation on an object displayed on the display unit;
A division unit configured to divide a display area of the display unit into a plurality of areas based on the operation direction detected by the detection unit;
A determination unit configured to determine an area to display an image associated with the object among the plurality of areas based on the operation direction detected by the detection unit;
Display control means for displaying an image associated with the object in the area determined by the determination means;
Equipped with
When the detection unit detects that the object is selected by the user, the display control unit performs the flick operation or the drag operation before the flick operation or the drag operation is performed. An information processing apparatus, wherein a display indicating a division result of an area of the display unit is displayed for each of the operation directions.
前記分割手段は、異なる複数の前記操作方向に対して前記表示部の領域を異なる様式で分割し、
前記決定手段は、異なる複数の前記操作方向に対して前記画像を表示する領域を異なる領域とすることを特徴とする請求項1記載の情報処理装置。
The dividing unit divides the area of the display unit in different ways with respect to a plurality of different operation directions,
The information processing apparatus according to claim 1, wherein the determination unit sets an area in which the image is displayed to be different areas with respect to a plurality of different operation directions.
前記検知手段により前記オブジェクトがユーザーによって所定時間以上選択されたことを検知した場合、前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させることを特徴とする請求項1または請求項2記載の情報処理装置。   When the detection unit detects that the object is selected by the user for a predetermined time or more, the display control unit performs the flick operation or the drag operation before the flick operation or the drag operation is performed. 3. The information processing apparatus according to claim 1, wherein a display indicating the division result of the area of the display unit by the division unit is displayed for each of the operation directions. 前記表示制御手段は、前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示に加えて前記フリック操作またはドラッグ操作を行った場合に前記決定手段より決定される前記画像を表示する領域を示す表示を前記操作方向毎に表示させることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The display control unit is configured to perform the flick operation or the drag operation in addition to the display indicating the division result of the area of the display unit by the division unit when the flick operation or the drag operation is performed. The information processing apparatus according to any one of claims 1 to 3, wherein a display indicating an area for displaying the image to be determined is displayed for each of the operation directions. 前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記表示部の表示領域の大きさに基づいて変更することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The display control means is a display area of the display unit for displaying a display indicating the division result of the area of the display unit by the dividing means when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed. The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus changes according to the size of the information. 前記表示制御手段は、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割手段による前記表示部の領域の分割結果を示す表示を前記オブジェクトに対応付けられた画像の撮影日時、撮影部位または前記画像の被検者を識別する識別情報のいずれかに基づいて変更することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The display control means associates, with the object, a display indicating the division result of the area of the display unit by the division means when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed. The information processing apparatus according to any one of claims 1 to 4, wherein the change is made based on any one of the imaging date and time of the image, the imaging region, and identification information for identifying the subject of the image. 前記オブジェクトはサムネイルまたはアイコンであることを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 6, wherein the object is a thumbnail or an icon. 表示部に表示されたオブジェクトに対するフリック操作またはドラッグ操作の操作方向を検知する検知工程と、
前記検知工程において検知された操作方向に基づいて、前記表示部の表示領域を複数の領域に分割する分割工程と、
前記検知工程において検知された操作方向に基づいて、前記複数の領域のうち前記オブジェクトに対応付けられた画像を表示する領域を決定する決定工程と、
前記決定工程において決定された領域に前記オブジェクトに対応付けられた画像を表示させる表示制御工程と、を備え、
前記検知工程において前記オブジェクトがユーザーによって選択されたことを検知した場合、前記表示制御工程において、前記フリック操作またはドラッグ操作が行われる前に前記フリック操作またはドラッグ操作を行った場合の前記分割工程による前記表示部の領域の分割結果を示す表示を前記操作方向毎に表示させることを特徴とする情報処理方法。
A detection step of detecting an operation direction of a flick operation or a drag operation on an object displayed on the display unit;
A division step of dividing the display area of the display unit into a plurality of areas based on the operation direction detected in the detection step;
A determining step of determining an area to display an image associated with the object among the plurality of areas based on the operation direction detected in the detecting step;
A display control step of displaying an image associated with the object in the area determined in the determination step;
When it is detected in the detection step that the object is selected by the user, in the display control step, the division step is performed when the flick operation or the drag operation is performed before the flick operation or the drag operation is performed An information processing method comprising displaying a display indicating the division result of the area of the display unit for each of the operation directions.
請求項8記載の情報処理方法をコンピュータに実行させることを特徴とするプログラム。   A program causing a computer to execute the information processing method according to claim 8.
JP2015002524A 2015-01-08 2015-01-08 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM Active JP6501525B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015002524A JP6501525B2 (en) 2015-01-08 2015-01-08 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015002524A JP6501525B2 (en) 2015-01-08 2015-01-08 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018225875A Division JP2019032908A (en) 2018-11-30 2018-11-30 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016126725A JP2016126725A (en) 2016-07-11
JP6501525B2 true JP6501525B2 (en) 2019-04-17

Family

ID=56358072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015002524A Active JP6501525B2 (en) 2015-01-08 2015-01-08 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6501525B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7130953B2 (en) * 2017-12-25 2022-09-06 コニカミノルタ株式会社 Medical image display system and medical image display device
CN108255405B (en) * 2018-01-19 2019-09-10 Oppo广东移动通信有限公司 Method for displaying user interface, device and terminal
JP6440136B1 (en) * 2018-09-06 2018-12-19 株式会社Medi Plus Medical video switcher
WO2021153959A1 (en) 2020-01-30 2021-08-05 주식회사 에이치디정션 Medical information query and input system, medical information query and input method, and program for performing same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5628625B2 (en) * 2010-10-14 2014-11-19 京セラ株式会社 Electronic device, screen control method, and screen control program
JP5908691B2 (en) * 2011-09-28 2016-04-26 京セラ株式会社 Portable electronic devices
JP2013114540A (en) * 2011-11-30 2013-06-10 Nec Casio Mobile Communications Ltd Electronic device, control method therefor and program
JP2014241099A (en) * 2013-06-12 2014-12-25 株式会社ニコン Imaging device
JP6368462B2 (en) * 2013-08-01 2018-08-01 シャープ株式会社 Information processing apparatus, information processing method, and program thereof

Also Published As

Publication number Publication date
JP2016126725A (en) 2016-07-11

Similar Documents

Publication Publication Date Title
US10937544B2 (en) Medical imaging apparatus for displaying x-ray images of different types
US20200004487A1 (en) Object moving program
US9342145B2 (en) Cursor control
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
KR20100128290A (en) Twin-monitor electronic display system
JP2010086149A (en) Drag and drop control apparatus, method and program, and computer terminal
JP6501525B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2019170422A (en) Medical image display device and program
US9292197B2 (en) Method, apparatus and computer program product for facilitating the manipulation of medical images
JP2020099672A (en) Visualization of three-dimensional image data on two-dimensional image
JP2024041755A (en) Precise positioning of marker on display
JP6158690B2 (en) Image display device
JP2015208602A (en) Image display device and image display method
JP2009119000A (en) Auxiliary controller for processing medical image,image processing system, and method for processing medical image
JP2019032908A (en) Information processing device, information processing method, and program
JP7232759B2 (en) Healthcare information manipulation and visualization controller
JP6462358B2 (en) Medical image display terminal and medical image display program
JP7279133B2 (en) Information processing device, information processing method and program
JP2013178742A (en) Image processing device, image processing system, image processing method and program
JP6968950B2 (en) Information processing equipment, information processing methods and programs
KR101925058B1 (en) The method and apparatus for dispalying function of a button of an ultrasound apparatus on the button
JP7172093B2 (en) Computer program, display device, display system and display method
JP2011110173A (en) Medical image system and program
JP6902012B2 (en) Medical image display terminal and medical image display program
JP7371136B2 (en) Pointing device sensitivity adaptation method, computer program and image evaluation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190319

R151 Written notification of patent or utility model registration

Ref document number: 6501525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151