WO2014092147A1 - X線診断装置及び医用画像表示装置 - Google Patents

X線診断装置及び医用画像表示装置 Download PDF

Info

Publication number
WO2014092147A1
WO2014092147A1 PCT/JP2013/083306 JP2013083306W WO2014092147A1 WO 2014092147 A1 WO2014092147 A1 WO 2014092147A1 JP 2013083306 W JP2013083306 W JP 2013083306W WO 2014092147 A1 WO2014092147 A1 WO 2014092147A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
user
ray
distance
image
Prior art date
Application number
PCT/JP2013/083306
Other languages
English (en)
French (fr)
Inventor
和夫 今川
坂口 卓弥
材木 隆二
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Publication of WO2014092147A1 publication Critical patent/WO2014092147A1/ja
Priority to US14/692,384 priority Critical patent/US9986962B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • Embodiments of the present invention relate to an X-ray diagnostic apparatus and a medical image display apparatus equipped with image stereoscopic technology.
  • image stereoscopic technique that enables a left-eye image and a right-eye image with an angle difference to be displayed on a monitor so that the image can be viewed stereoscopically.
  • Image stereoscopic viewing allows the user to easily grasp the object's front-rear relationship and surface roughness information that was difficult to understand on a normal two-dimensional display.
  • image stereoscopic technology has been applied to the medical field.
  • the image stereoscopic technique By applying the image stereoscopic technique to medical treatment, for example, even in a state where a lesion position and a blood vessel position are overlapped, the user can grasp the positional relationship.
  • the user can perform a safe and highly accurate operation or the like by stereoscopically viewing the target part.
  • the optimum angle difference for each user differs depending on the distance between the pupils of the user, the distance between the user and the monitor, the sensitivity of the user, and the like. For example, since a plurality of people are involved in surgery, treatment, etc., the user who views the monitor may be different each time. Further, the distance of the user to the monitor may change due to the movement of the monitor and the movement of the user. Therefore, there is a problem that the stereoscopic video displayed on the monitor can be viewed only by a limited number of people and a limited range.
  • An object is to provide a medical image display apparatus and an X-ray diagnostic apparatus that can improve work efficiency in diagnosis, treatment, and the like using image stereoscopic technology.
  • the medical image display device can access an external device that stores data of a plurality of X-ray images having different imaging angles, or has a storage unit that stores the data of the plurality of X-ray images.
  • An image selection unit that selects two X-ray images having an angle difference determined based on the user distance from the plurality of X-ray images, a distance specifying unit that specifies a user distance to the display unit, and the plurality of X-ray images
  • a display control unit that displays the two selected X-ray images on the display unit for stereoscopic viewing by the user.
  • FIG. 1 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus according to this embodiment.
  • FIG. 2 is a diagram showing an appearance of the gantry of the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 3 is an explanatory diagram for explaining the line of sight, the line-of-sight angle, and the photographing rotation direction of the C-arm.
  • FIG. 4 is a diagram illustrating an example of a command DB stored in the storage unit of the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 5 is a flowchart illustrating an example of a flow of a series of processes using the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 6 is an explanatory diagram for explaining imaging angle setting processing by the imaging condition setting unit of the X-ray diagnostic apparatus according to the present embodiment.
  • FIG. 7A is a first explanatory diagram for explaining the timing at which the automatic adjustment processing of the X-ray diagnostic apparatus according to the present embodiment is executed.
  • FIG. 7B is a second explanatory diagram for explaining the timing at which the automatic adjustment processing of the X-ray diagnostic apparatus according to the present embodiment is executed.
  • FIG. 7C is a third explanatory diagram for explaining the timing at which the automatic adjustment processing of the X-ray diagnostic apparatus according to the present embodiment is executed.
  • FIG. 7D is a fourth explanatory diagram for describing a timing at which the automatic adjustment process of the X-ray diagnostic apparatus according to the present embodiment is executed.
  • FIG. 8 is an explanatory diagram for explaining selection processing by the image selection unit of the X-ray diagnostic apparatus according to the present embodiment.
  • the medical image display apparatus 2 can be applied as a single unit or in a form incorporated with an X-ray diagnostic apparatus.
  • an apparatus in which the medical image display apparatus 2 is incorporated in an X-ray diagnostic apparatus having a C-shaped arm will be described as an example.
  • the medical image display device 2 may be incorporated in other modalities, for example, a CT device.
  • FIG. 1 is a block diagram showing an example of the configuration of the X-ray diagnostic apparatus 1 according to this embodiment.
  • the X-ray diagnostic apparatus 1 includes an X-ray imaging unit related to X-ray imaging and a medical image display apparatus 2 related to image processing and image display.
  • the X-ray imaging unit includes a C-arm 11, a C-arm support mechanism 12, a bed 13, a top plate 14, an X-ray generator 15, a high voltage generator 16, an X-ray restrictor 17,
  • the X-ray detection unit 18, the moving unit 19, the angle detection unit 21, the imaging condition setting unit 27, the imaging control unit 28, the preprocessing unit 29, and the image generation unit 30 are included.
  • the medical image display apparatus 2 includes an input unit 20, a voice recognition unit 22, a gesture recognition unit 23, an interpupillary distance specification unit 24, a distance specification unit 25, a parallax calculation unit 26, and a storage unit 31. , An image selection unit 32, a control unit 33, a display control unit 34, a display unit 35, and a storage unit 36.
  • the gantry of the X-ray imaging unit includes a C-arm 11, a C-arm support mechanism 12, a bed 13, and a top plate 14.
  • the C-arm support mechanism 12 supports the C-arm 11 rotatably.
  • the C-shaped arm 11 holds the X-ray generator 15 at one end thereof.
  • the X-ray generator 15 is a vacuum tube that generates X-rays.
  • the X-ray generator 15 generates X-rays when a high voltage (tube voltage) is applied from the high voltage generator 16.
  • the X-ray generator 15 has a radiation window for emitting generated X-rays.
  • An X-ray diaphragm 17 is attached to the radiation window of the X-ray generator 15.
  • the X-ray diaphragm 17 is a pyramid limiter that can adjust the X-ray irradiation field on the detection surface of the X-ray detector 18. By adjusting the X-ray irradiation field by the X-ray diaphragm 17, unnecessary exposure to the subject can be reduced.
  • the C-arm 11 holds the X-ray detection unit 18 at the other end so as to face the X-ray generation unit 15.
  • the X-ray detection unit 18 has a plurality of X-ray detection elements. The plurality of X-ray detection elements are arranged in a two-dimensional array.
  • the two-dimensional array detector is called FPD (Flat Panel Display).
  • Each element of the FPD detects X-rays emitted from the X-ray generator 15 and transmitted through the subject. Each element of the FPD outputs an electrical signal corresponding to the detected X-ray intensity.
  • a line connecting the focal point of the irradiation window of the X-ray generation unit 15 and the center position of the X-ray detection surface of the X-ray detection unit 18 is referred to as an imaging axis (fifth rotation axis). The rotation of the X-ray detection unit 18 around the fifth rotation axis determines the top and bottom of the captured image.
  • FIG. 2 is a diagram showing the appearance of the gantry of the X-ray diagnostic apparatus 1 according to this embodiment.
  • the C-arm support mechanism 12 may be either a ceiling-suspended type that holds the C-shaped arm 11 suspended from the ceiling, or a floor-mounted type that holds the C-shaped arm 11 with a floor-mounted mechanism. In this embodiment, a floor-standing type will be described as an example.
  • the C-arm support mechanism 12 includes a floor turning arm 121, a stand 122, and an arm holder 123.
  • the floor turning arm 121 is provided on the floor surface at one end so as to be turnable around the first rotation axis.
  • a stand 122 is supported so as to be rotatable around the second rotation axis.
  • the first and second rotation axes are substantially parallel to the orthogonal axis.
  • An arm holder 123 is supported on the stand 122 so as to be rotatable about the third rotation axis.
  • the third rotation axis is an axis substantially orthogonal to the orthogonal axis.
  • the arm holder 123 supports the C-shaped arm 11 so as to be rotatable (slidably rotated) in an arc along the shape of the C-shaped arm 11.
  • the rotation axis of this slide rotation is called the fourth rotation axis.
  • the C-arm support mechanism 12 may support the C-arm 11 so as to be movable in a major axis direction and a minor axis direction, which will be described later.
  • a bed 13 and a top plate 14 are disposed between the X-ray generator 15 and the X-ray detector.
  • the bed 13 supports the top plate 14 on which the subject is placed so as to be movable with respect to three orthogonal axes.
  • the three orthogonal axes are defined by, for example, a short axis of the top plate 14, a long axis of the top plate 14, and an orthogonal axis orthogonal to the short axis and the long axis.
  • the direction along the major axis of the top plate 14 is referred to as the major axis direction.
  • a direction along the short axis of the top plate 14 is referred to as a short axis direction.
  • a direction along the orthogonal axis is referred to as an orthogonal axis direction.
  • the moving unit 19 independently rotates the C-arm support mechanism 12 around the first to fifth rotation axes in accordance with control by the imaging control unit 28 described later.
  • the moving unit 19 slides the top plate 14 in the long axis direction or the short axis direction and moves it up and down in the orthogonal axis direction according to control by the imaging control unit 28 described later.
  • the moving unit 19 uses the top plate 14 to tilt the top plate 14 with respect to the installation surface of the bed 13 with an axis parallel to at least one of the major axis direction and the minor axis direction as a rotation axis. Rotate and move.
  • the slide movement, the up-and-down movement, and the rotation movement are collectively referred to as movement.
  • the input unit 20 functions as an interface for receiving instruction information from the user to the X-ray diagnostic apparatus 1.
  • the user refers to a doctor or the like who performs a procedure, treatment, or the like on a subject.
  • the instruction information includes, for example, X-ray imaging conditions and X-ray imaging angle conditions.
  • the X-ray imaging conditions include, for example, tube current, tube voltage, and imaging time.
  • the X-ray imaging angle conditions are conditions related to imaging operations such as imaging angle intervals, imaging times, and fixed parallax.
  • the fixed parallax is a fixed value of parallax according to the user distance stored in advance in the storage unit 31 described later.
  • the fixed parallax is determined by, for example, a user's viewing distance and a standard human interpupillary distance with respect to the display unit 35 described later.
  • the fixed parallax can be appropriately changed according to a user instruction.
  • the angle condition may be a fixed parallax, a user's expected longest viewing distance with respect to the display unit 35 (to be described later) (hereinafter simply referred to as the longest distance), and the number of shootings.
  • the inherent parallax is a parallax at the standard viewing distance of the user with respect to the display unit 35 described later. Therefore, the parallax at the longest distance is calculated by the parallax calculation unit 26 described later based on the fixed parallax and the longest distance. Similarly, the parallax at the shortest distance is calculated. Then, the range of the parallax corresponding to the expected range of the viewing distance of the user can be known, and the shooting angle interval can be derived based on the parallax range and the number of shootings.
  • the input unit 20 includes an operation board for moving the C-arm 11 according to a user instruction.
  • the operation board includes, for example, a button, a handle, a trackball, and the like for independently rotating the C-arm 11 around the plurality of rotation axes.
  • the input unit 20 receives an input of a line of sight and a shooting rotation direction.
  • the line of sight is the direction of the imaging region of the subject whose stereoscopic image is to be displayed on the display unit 35 described later.
  • the imaging rotation direction is the rotation direction of the C-arm 11.
  • the X-ray diagnostic apparatus 1 performs an imaging operation along the imaging rotation direction.
  • the position along the photographing rotation direction includes a position corresponding to the line of sight.
  • the line of sight and shooting rotation direction are determined by user operation on the input screen.
  • the display unit 35 displays a positioning image for inputting a line of sight and a photographing rotation direction.
  • the positioning image is, for example, an X-ray image taken as a positioning image by the X-ray diagnostic apparatus 1 or a positioning model image.
  • the user can input the line of sight by determining the center position of the subject displayed on the display unit 35 on the positioning image. Further, the user can determine the imaging rotation direction by determining the top and bottom of the image of the subject displayed on the display unit 35.
  • the positioning image may be an image taken by an X-ray CT apparatus arranged in the vicinity of the X-ray diagnostic apparatus 1.
  • the top coordinate system of the positioning image by the X-ray CT apparatus and the X-ray diagnostic apparatus 1 It is consistent with the top plate coordinate system. Thereby, the positional relationship of the subject between the present X-ray diagnostic apparatus 1 and the X-ray CT apparatus is associated.
  • the user operates the operation board, moves the C-arm to the line of sight, and the line related to the line of sight determination is pressed by the user so that the line of sight is determined. Also good.
  • the imaging rotation direction is determined by the direction of the detection surface of the X-ray detection unit 18 rotated around the fifth rotation axis. Specifically, when the top and bottom of the X-ray detection surface of the X-ray detector corresponds to the top and bottom of the X-ray image generated by the image generation unit 30, the imaging rotation direction of the C-arm 11 is determined by the user. Is set in the left-right direction of the X-ray detection surface set by.
  • the photographing rotation direction may be set in a direction around the fourth rotation axis or the third rotation axis at a timing when a button related to the determination of the line of sight is pressed by the user.
  • FIG. 3 is an explanatory diagram for explaining the line of sight, the line-of-sight angle, and the photographing rotation direction of the C-arm 11.
  • FIG. 3 is an example of an input screen for inputting a line of sight and a photographing rotation direction.
  • a state in which the patient P is placed on the top board 14 is displayed.
  • the axis along the orthogonal axis is the X axis
  • the axis along the short axis is the Y axis
  • the axis along the long axis is the Z axis.
  • the user inputs a line of sight on the input screen in FIG.
  • An angle corresponding to the line of sight (hereinafter referred to as a line-of-sight angle) is represented by a first angle ⁇ formed with the Y axis and a second angle ⁇ formed with the X axis.
  • the user may input the first angle ⁇ and the second angle ⁇ .
  • the imaging rotation direction of the C-arm 11 is set to the rotation direction A that is the left-right direction of the detection surface.
  • the rotation direction A may be set in a direction along the slide rotation direction.
  • the angle detector 21 detects five rotation angles respectively corresponding to the first to fifth rotation axes. Then, the angle data detected by the angle detector 21 is attached to the image data output from the X-ray detector 18. At this time, the angle is preferably a top plate coordinate system, but may be a coordinate system such as a subject coordinate system and a laboratory coordinate system.
  • the voice recognition unit 22 has a voice input device such as a microphone for detecting the voice of the user.
  • the user's voice is a voice produced by the user and a sound generated by the user.
  • the microphone is installed at a position where the user's voice can be input.
  • the microphone may be attached to the display unit 35 described later, for example.
  • the voice recognition unit 22 collates voice waveforms input via a microphone against a plurality of voice waveforms registered in a command DB (Data Base: database) stored in a storage unit 31 described later.
  • the speech recognition unit 22 recognizes the input speech waveform when the input speech waveform substantially matches a specific speech waveform registered in the command DB.
  • the speech recognition unit 22 transmits a command corresponding to the recognized speech waveform to each unit based on the command DB.
  • the voice recognition unit 22 can distinguish whether the detected voice is a voice uttered by the intended user by the above-described voice recognition technology.
  • the intended user is not necessarily limited to one person who performs a procedure or treatment on the subject, and there may be a plurality of users who are targets of speech recognition.
  • the voice of the target user for voice recognition may be registered in the X-ray diagnostic apparatus 1 in advance.
  • the gesture recognition unit 23 includes a detection device including a camera or the like for detecting a user's gesture motion.
  • the camera is attached to, for example, an upper part or a lower part of the display unit 35 described later, and photographs the user.
  • the gesture recognition unit 23 detects and tracks, for example, the user's hand as a specific part from a plurality of captured images of the user, and detects the shape of the gesture motion.
  • the gesture recognizing unit 23 collates the shape of the detected gesture motion against a plurality of gesture motion shapes registered in a command DB stored in the storage unit 31 described later. Then, when a gesture motion shape that substantially matches the detected gesture motion shape is registered in the command DB, the gesture recognition unit 23 recognizes the gesture motion.
  • the gesture recognizing unit 23 transmits a command corresponding to the shape of the recognized gesture motion to each unit.
  • the gesture recognizing unit 23 can detect the face of the person who performed the gesture operation based on the photographed image and identify whether the detected person is the intended user.
  • the user who is the target of the gesture action is attached with a tag, for example, a hat, clothes, etc., to be distinguished from other persons, and the gesture recognition unit 23 detects the tag so that the gesture action can be performed. You may determine whether it is a detection target.
  • the interpupillary distance specifying unit 24 includes a detection device for specifying the distance between the pupils of the user.
  • the detection device is, for example, a camera.
  • the camera is attached to an upper part and a lower part of the display unit 35, which will be described later, and photographs the user at specific intervals. The specific period is set in advance and can be appropriately changed by the user.
  • the inter-pupil distance specifying unit 24 and the previously described distance specifying unit 25 may be a common detection device.
  • the interpupillary distance specifying unit 24 extracts a range corresponding to both eyes from each of the captured images of the user's face based on, for example, the luminance value. Then, the interpupillary distance specifying unit 24 specifies the interpupillary distance on the image from the range corresponding to the extracted eyes. Then, the specified interpupillary distance data is transmitted to the parallax calculator 26.
  • the distance specifying unit 25 specifies a distance between the display unit 35 and a user browsing the display unit 35 (hereinafter referred to as a user distance).
  • the distance specifying unit 25 includes a position specifying device for specifying the user distance.
  • the position specifying device is, for example, a camera, an infrared sensor, an optical sensor, or the like.
  • the distance specifying unit 25 transmits the specified user distance data to the parallax calculation unit 26.
  • a series of processes until the inter-pupil distance and the user distance are specified by the inter-pupil distance specifying unit 24 and the distance specifying unit 25 are referred to as face recognition processing.
  • the face recognition process is executed in a mode selected by the user via the input unit 20. Examples of the face recognition process execution mode include a continuous mode, an intermittent mode, and a manual mode. These modes can be appropriately changed according to a user instruction via the input unit 20.
  • the execution modes of the inter-pupil distance specifying unit 24 and the distance specifying unit 25 may be asynchronous. In the continuous mode, the interpupillary distance specifying unit 24 always executes face recognition processing. In the intermittent mode, the interpupillary distance specifying unit 24 performs face recognition processing at predetermined time intervals.
  • the predetermined time interval is set in advance by the user and can be appropriately changed according to a user instruction via the input unit 20.
  • the interpupillary distance specifying unit 24 executes face recognition processing at a timing desired by the user. For example, when a user performs a specific gesture operation, when a user utters a specific word, when a user generates a specific sound, or when an operation is performed via the input unit 20.
  • the specific gesture action, the specific word, and the specific sound are a gesture, a word, and a corresponding to a “execute face recognition process” command (hereinafter referred to as a face recognition command) registered in the command DB, respectively. It is a sound.
  • the gesture recognizing unit 23 transmits a face recognition command to the interpupillary distance specifying unit 24 when a specific gesture operation executed by the user is recognized.
  • the voice recognition unit 22 transmits a face recognition command to the interpupillary distance specifying unit 24 when a specific word and a specific sound generated by the user are recognized.
  • the parallax calculation unit 26 calculates user-specific parallax (hereinafter referred to as user parallax) based on the user's interpupillary distance and the user distance.
  • the reference position in the calculation of the user parallax is, for example, the center position of the display unit 35.
  • trigonometry is used for calculation of user parallax. Therefore, when the user moves so as to approach the display unit 35, the user parallax at the position after the movement is wider than the user parallax before the movement.
  • the parallax calculation unit 26 transmits the calculated data related to the user parallax to the image selection unit 32 and the imaging condition setting unit 27.
  • the imaging condition setting unit 27 sets X-ray imaging conditions based on the X-ray imaging conditions input by the user via the input unit 20. In addition, the imaging condition setting unit 27 sets a plurality of imaging angles based on the angle conditions, the line-of-sight angle, and the parallax input by the user via the input unit 20. The parallax used at this time may be fixed parallax or user parallax. Which parallax is used is selected according to a user instruction via the input unit 20. A function relating to setting of a plurality of shooting angles by the shooting condition setting unit 27 is referred to as a shooting angle setting function. Details of the shooting angle setting function will be described later.
  • the imaging control unit 28 controls the high voltage generation unit 16 and the moving unit 19 based on the X-ray imaging conditions and imaging angle conditions set by the imaging condition setting unit 27.
  • the preprocessing unit 29 performs preprocessing on the electric signal output from the X-ray detection unit 18.
  • the preprocessing includes, for example, various correction processes, amplification processes, A / D conversion processes, and the like.
  • the image generation unit 30 generates a plurality of X-ray image data based on the electrical signal that has been subjected to the preprocessing. Each piece of X-ray image data is accompanied by information regarding the imaging angle.
  • the pixel value assigned to each pixel constituting the X-ray image is a value corresponding to the X-ray attenuation coefficient related to the substance on the X-ray transmission path.
  • the storage unit 31 is a semiconductor memory or the like.
  • the storage unit 31 temporarily stores data of two X-ray images selected by the image selection unit 32 from a storage unit 36 described later.
  • the storage unit 31 also stores X-ray imaging conditions, angle conditions, and line-of-sight angle data.
  • the storage unit 31 may store the X-ray imaging conditions and the angle conditions as a condition DB in accordance with a user instruction via the input unit 20.
  • the condition DB the X-ray imaging conditions are managed in a hierarchical manner based on, for example, the age, physique, gender, imaging region, line-of-sight angle, etc. of the subject.
  • the storage unit 31 stores a command DB.
  • the command DB is a DB for collating the shape of the gesture motion recognized by the gesture recognition unit 23 with the user voice recognized by the voice recognition unit 22.
  • FIG. 4 is a diagram illustrating an example of the command DB stored in the storage unit 31 of the X-ray diagnostic apparatus 1 according to the present embodiment.
  • the command DB is a DB in which a plurality of gesture motion shapes, a plurality of words, and a plurality of sounds are associated with a plurality of commands, respectively.
  • Examples of commands include “narrow parallax”, “wide parallax”, and “execute face recognition processing”.
  • the storage unit 36 is a semiconductor storage device such as a flash SSD (Solid State Disk), which is a semiconductor storage element, and an HDD (Hard Disk Drive).
  • the storage unit 36 stores data of a plurality of X-ray images having different imaging angles.
  • the data of a plurality of X-ray images are classified into a left-eye image group and a right-eye image group.
  • the left-eye image group is an image group including a plurality of X-ray images photographed at a plurality of photographing angles included in a left-eye angle region described later.
  • the right-eye image group is an image group including a plurality of X-ray images captured at a plurality of imaging angles included in a later-described right-eye angle region.
  • the storage unit 36 may be an external device connected to the medical image display device 2 via a public line such as the Internet.
  • the image selection unit 32 selects a left-eye image and a right-eye image from the left-eye image group and the right-eye image group stored in the storage unit 36 according to user parallax or fixed parallax, respectively.
  • the left-eye image data and the right-eye image data selected by the image selection unit 32 are temporarily stored in the storage unit 31. Further, the image selection unit 32 receives a command (hereinafter referred to as an image switching command) for instructing switching of the displayed image transmitted from the voice recognition unit 22 and the gesture recognition unit 23, and according to the command. Then, a corresponding left-eye image and right-eye image are selected from the left-eye image group and the right-eye image group stored in the storage unit 36, respectively. Detailed description regarding image selection processing by the image selection unit 32 will be described later.
  • the control unit 33 includes a CPU (Central Processing Unit) and a memory circuit.
  • the control unit 33 receives the instruction information input via the input unit 20 and temporarily stores the memory circuit.
  • the control unit 33 controls each unit of the X-ray diagnostic apparatus 1 based on the input information. Specifically, the control unit 33 converts the data of the plurality of X-ray images generated by the image generation unit 30 into the left-eye image group and the right-eye image group according to the data regarding the imaging angle attached to each X-ray image. And stored in the storage unit 36.
  • a CPU Central Processing Unit
  • the display control unit 34 reads the left-eye image data and the right-eye image data selected by the image selection unit 32 and temporarily stored in the storage unit 31 from the storage unit 31, and displays a stereoscopic video image regarding the line of sight. It displays on the display part 35 mentioned later.
  • the display control unit 34 transmits to the display unit 35 a video signal obtained by dividing the left-eye image and the right-eye image vertically into strips.
  • the display unit 35 displays the left-eye image and the right-eye image that are vertically divided into strips so as to be alternately arranged.
  • the divided left-eye images and right-eye images are displayed side by side so as to alternate.
  • the display unit 35 has a lenticular lens on the display surface.
  • the lenticular lens is a lens that changes the position where the line of sight reaches depending on the position viewed by the user. By adjusting the arrangement of the lenticular lenses, the right eye can see the right eye image and the left eye can see only the left eye image.
  • the display control unit 34 transmits the right-eye image signal to the display unit 35 after the left-eye image signal within one frame synchronization period.
  • the display unit 35 displays an image based on the transmitted image signal.
  • the user wears liquid crystal shutter glasses and looks at the display unit 35.
  • the liquid crystal shutter alternately blocks the left and right visual fields in synchronization with the display operation by the display unit 35. Since the shutter of the eyeglasses opens and closes completely in synchronization with the two images, the right eye image and the left eye only the left eye image are visible, so that stereoscopic viewing is possible.
  • the display control unit 34 and the display unit 35 of the present embodiment have been described by taking two stereoscopic viewing methods as an example, but the present embodiment can be applied to any stereoscopic viewing method using parallax. The present embodiment can also be applied to a stereoscopic method that can use multiple parallaxes.
  • FIG. 5 is a flowchart illustrating an example of a flow of a series of processes using the X-ray diagnostic apparatus 1 according to the present embodiment.
  • Step S11 In accordance with a user instruction via the input unit 20, the imaging condition setting unit 27 sets X-ray imaging conditions.
  • Step S12 The line of sight input by the user via the input unit 20 is received. Specifically, the user operates the operation board of the input unit 20 to move the C-arm 11 so that the imaging axis coincides with the line of sight. Then, the line of sight is determined when a user presses a button related to determination of the line of sight provided on the operation board. Further, the line of sight may be determined in accordance with a user instruction on the positioning image related to the subject displayed on the display unit 35. When the line of sight is determined, the angle detection unit 21 detects the line-of-sight angle corresponding to the line of sight. Data regarding the detected line-of-sight angle is transmitted to the imaging condition setting unit 27.
  • Step S13 The parallax for setting the shooting angle is selected by the user from the user parallax and the fixed parallax. If user parallax has been selected, the process moves to step S14. If fixed parallax has been selected, the process moves to step S15.
  • Step S14 A user parallax is calculated by the inter-pupil distance specifying unit 24, the distance specifying unit 25, and the parallax calculating unit 26.
  • Step S15 Based on the angle condition, line-of-sight angle, and parallax input by the user via the input unit 20, a plurality of shooting angles are automatically set by a shooting angle setting function of the shooting condition setting unit 27 described later.
  • Step S16 In accordance with a user instruction via the input unit 20, X-ray imaging is started by each unit. Then, under the X-ray imaging conditions set by the imaging condition setting unit 27, X-ray images captured at the set imaging angle are collected by each unit. The collected data of the plurality of X-ray images are stored in the storage unit 36 together with information regarding the imaging angle attached to each X-ray image.
  • Step S17 The image selection unit 32 selects a right-eye image and a left-eye image from the left-eye image group and the right-eye image group, respectively.
  • Step S18 Based on the left-eye image and the right-eye image selected by the image selection unit 32, the display control unit 34 displays a stereoscopic video regarding the line of sight on the display unit 35. The user performs diagnosis, treatment, and the like while viewing the stereoscopic video displayed on the display unit 35.
  • Step S19 When the switching command is received, the process proceeds to image selection by the image selection unit 32 in step S17. In addition, when data related to user parallax is received and it is detected that the user parallax has changed, the process proceeds to image selection by the image selection unit 32 in step S17. Each time the switching command is received and the user parallax is changed, the processes in steps S17 and S18 are repeatedly executed.
  • the function corresponding to the processing in steps S17 to S19 provided in the X-ray diagnostic apparatus 1 is referred to as an automatic adjustment function described later. Detailed description of the automatic adjustment function will be described later.
  • the imaging angle setting function means that the imaging condition setting unit 27 of the X-ray diagnostic apparatus 1 according to the present embodiment is automatically based on the angle condition, the viewing angle, and the parallax input by the user via the input unit 20. This is a function for setting a plurality of shooting angles. Processing according to the shooting angle setting function (hereinafter referred to as shooting angle setting processing) will be described with reference to FIG.
  • FIG. 6 is an explanatory diagram for explaining an imaging angle setting process by the imaging condition setting unit 27 of the X-ray diagnostic apparatus 1 according to the present embodiment.
  • the shooting angle setting process it is assumed that fixed parallax is selected in step S13 of FIG.
  • the first angle ⁇ constituting the line-of-sight angle is 0 °. Note that the shooting angle setting process is applicable even when the first angle ⁇ is not 0 °.
  • the shooting condition setting unit 27 sets the shooting center angle in the left eye angle region (hereinafter referred to as the left eye shooting center angle) and the shooting center angle in the right eye angle region (hereinafter referred to as the right eye shooting center). Is called an angle). For example, when the line-of-sight angle (first angle ⁇ ) is 45 ° and the fixed parallax is 4 °, the shooting condition setting unit 27 sets the left-eye shooting center angle to 47 ° and the right-eye shooting center angle to 43 °.
  • the shooting position corresponding to the line-of-sight angle, the shooting position corresponding to the left-eye shooting center angle, and the shooting position corresponding to the right-eye shooting center angle are provided at positions along the shooting rotation direction.
  • a plurality of shooting angles in each angle region are set according to the angle condition.
  • the left eye angle region and the right eye angle region centered on the line-of-sight angle are set. Then, the angle difference with respect to the line-of-sight angle of each shooting angle included in the left-eye angle region substantially matches the angle difference with respect to the line-of-sight angle of each shooting angle included in the right-eye angle region.
  • the image selection unit 32 of the X-ray diagnostic apparatus 1 receives the switching command and the detection of the change of the user parallax, from the left-eye image group and the right-eye image group, This is a function for automatically selecting a left-eye image and a right-eye image. Processing according to the automatic adjustment function (hereinafter referred to as automatic adjustment processing) will be described with reference to FIGS.
  • ON / OFF of the automatic adjustment function can be appropriately switched according to a user instruction via the input unit 20.
  • FIG. 7 is an explanatory diagram for explaining the timing at which the automatic adjustment process of the X-ray diagnostic apparatus 1 according to the present embodiment is executed.
  • the automatic adjustment processing is performed, for example, when the user distance is changed (FIG. 7A), when the user is changed (FIG. 7B), when the user performs a specific gesture operation (FIG. 7C), This is executed when a word is uttered (FIG. 7D).
  • the user distance is specified by the distance specifying unit 25.
  • the interpupillary distance specifying unit 24 specifies the interpupillary distance.
  • the parallax calculation unit 26 calculates the user parallax. Information on the calculated user parallax is transmitted to the image selection unit 32.
  • the execution modes of the distance specifying unit 25 and the interpupillary distance specifying unit 24 may be any of the above-described modes. Even when the user changes as shown in FIG. 7B, the same processing as the processing in FIG. 7A is executed by each unit.
  • the gesture recognition unit 23 recognizes the specific gesture and transmits a signal related to the corresponding switching command to the image selection unit 32.
  • the voice recognition unit 22 detects the user's specific voice and transmits a signal related to the corresponding switching command to the image selection unit 32.
  • the specific voice is, for example, a specific word uttered by the user and a specific sound generated by the user.
  • FIG. 8 is an explanatory diagram for explaining a selection process by the image selection unit 32 of the X-ray diagnostic apparatus 1 according to the present embodiment.
  • the ten images are stored in the storage unit 36.
  • the ten images are classified into a left eye image group and a right eye image group.
  • Each of the left-eye image group and the right-eye image group includes five images each having a continuous shooting angle.
  • two images having the same angle difference from the line-of-sight angle are associated with each other.
  • the storage unit 36 stores five sets of image sets including two images having the same angle difference from the line-of-sight angle.
  • the image set 1 composed of the image (L-1) and the image (R-1) has the smallest angle difference (parallax), and the image (L-5) and the image (R-5).
  • the display unit 35 displays the image set 3 (image (L-3) and image (R-3)) by the display control unit 34 for stereoscopic viewing by the user.
  • the image selection unit 32 receives a switching command transmitted from the gesture recognition unit 23 and the voice recognition unit 22 as a trigger and switches from a plurality of image sets (a plurality of images) stored in the storage unit 36 to a switching command.
  • a corresponding image set (one image from each of the left-eye image group and the right-eye image group) is selected.
  • the image selection unit 32 receives a switching command related to “narrow parallax”, the angle difference (parallax) is narrower than the angle difference (parallax) of the image set currently displayed on the display unit 35. ) Is selected from the storage unit 36.
  • the image selection unit 32 selects the image set 2 with the narrowest angle difference (parallax) next to the image set 3 currently displayed on the display unit 35.
  • the display control unit 34 displays the image set 3 selected by the image selection unit 32 on the display unit 35 for stereoscopic viewing by the user.
  • the image selection unit 32 receives the data related to the user parallax transmitted from the parallax calculation unit 26, and the image set (the left-eye image and the right-eye image) corresponding to the user parallax is stored in the storage unit 36. Select from a plurality of image sets (one image from each of the left eye image group and the right eye image group). Specifically, the image selection unit 32 detects whether the received user parallax has changed with respect to the user parallax before reception. When the received user parallax is different from the user parallax before reception, the image selection unit 32 stores an image set (left-eye image and right-eye image) having an angle difference closest to the user parallax. Are selected from a plurality of image sets (a left-eye image group and a right-eye image group).
  • the X-ray diagnostic apparatus 1 having the imaging angle setting function can set a plurality of imaging angles based on the angle condition, fixed parallax (or user parallax), and line-of-sight angle.
  • the plurality of shooting angles are classified into a left eye angle region and a right eye angle region centered on the viewing angle. Then, the plurality of angle differences respectively corresponding to the plurality of shooting angles included in the left eye angle region substantially coincide with the plurality of angle differences respectively corresponding to the plurality of shooting angles included in the right eye angle region.
  • the X-ray diagnostic apparatus 1 that stores a plurality of X-ray images captured at a plurality of imaging angles set by the imaging angle setting function is used when there is a user change, a user movement, or the like.
  • an angle difference that allows the user to recognize the subject in three dimensions according to the user's distance to the display unit 35 or the user's change.
  • an image set an image for the left eye and an image for the right eye
  • an optimum angle difference can be automatically displayed on the display unit 35 according to a change in the user distance, a change in the user, and the like. Therefore, even when the user changes or when the user moves, the user can recognize the subject in three dimensions by looking at the display unit 35.
  • the X-ray diagnostic apparatus 1 when the user performs a specific gesture operation, when the user utters a specific word, or when the user generates a specific sound, the image set being displayed automatically (left-eye image and right-eye image) Image) can be changed. Therefore, the user can recognize a stereoscopic image of the subject that matches each sensitivity. Due to the above effects, the X-ray diagnostic apparatus 1 according to the present embodiment having an automatic adjustment function can improve work efficiency in diagnosis, treatment, and the like.
  • Image generating unit 31 ... Storage unit, 32 ... Image selecting unit, 33 ... Control part, 34 ... Display control part, 35 ... Display part, 36 ... Storage part, 121 ... Floor turning arm, 122 ... Stand, 123 ... Arm holder

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 画像立体視の技術を用いた診断、治療等において、作業効率の向上。 撮影角度の異なる複数のX線画像のデータを記憶する外部装置にアクセス可能、または、前記複数のX線画像のデータを保管する保管部36を有する医用画像表示装置において、距離特定部25は、表示部35に対するユーザの距離を特定する。画像選択部32は、複数のX線画像から、ユーザの距離に基づいて決定される角度差を有する2つのX線画像を選択する。表示制御部34は、画像選択部32により選択された2つのX線画像に基づいて、ユーザによる立体視のために表示部35に表示する。

Description

X線診断装置及び医用画像表示装置
 本発明の実施形態は、画像立体視の技術を備えるX線診断装置及び医用画像表示装置に関する。
 角度差のある左目用画像と右目用画像とをモニタに表示することにより、立体的に画像を視覚できるようにする画像立体視の技術がある。画像立体視は、通常の2次元ディスプレイでは分かりにくかった物体の前後関係及び物体表面の凹凸情報をユーザに容易に把握させることができる。近年、画像立体視の技術が医療分野にも適用されるようになってきている。画像立体視の技術が医療に適用されることにより、例えば、病変位置及び血管位置等が重なっている状態においても、これらの位置関係をユーザが把握することができる。ユーザは、対象部位を立体視することにより、安全で高精度な手術等が可能となる。ユーザが対象部位に関する立体視映像を視聴できるようにするためには、最適な角度差を有する左目用画像と右目用画像とがモニタに表示される必要がある。
 しかしながら、ユーザ個々の最適な角度差は、ユーザの瞳孔間距離、ユーザとモニタとの距離、及びユーザの感性等で異なる。例えば、手術や治療等には、複数の人が携わるため、モニタを視聴するユーザが、その都度異なる場合がある。また、モニタの移動及びユーザの移動により、モニタに対するユーザの距離が変化する場合がある。そのため、モニタに表示された立体視映像は、限られた人及び範囲でしか視聴できないという課題がある。
特開2012-221290号公報
 目的は、画像立体視の技術を用いた診断、治療等において、作業効率の向上を実現する医用画像表示装置及びX線診断装置を提供することにある。
 本実施形態による医用画像表示装置は、撮影角度の異なる複数のX線画像のデータを記憶する外部装置にアクセス可能、または、前記複数のX線画像のデータを保管する保管部を有し、表示部と、前記表示部に対するユーザの距離を特定する距離特定部と、前記複数のX線画像から、前記ユーザの距離に基づいて決定される角度差を有する2つのX線画像を選択する画像選択部と、前記選択された2つのX線画像を、前記ユーザによる立体視のために前記表示部に表示する表示制御部と、を具備することを特徴とする。
 画像立体視の技術を用いた診断、治療等において、作業効率の向上できる。
図1は、本実施形態に係るX線診断装置の構成の一例を示すブロック図である。 図2は、本実施形態に係るX線診断装置の架台部の外観を示す図である。 図3は、視線と視線角度とC形アームの撮影回転方向とを説明するための説明図である。 図4は、本実施形態に係るX線診断装置の記憶部が記憶しているコマンドDBの一例を示す図である。 図5は、本実施形態に係るX線診断装置を用いた一連の処理の流れの一例を示すフローチャートである。 図6は、本実施形態に係るX線診断装置の撮影条件設定部による撮影角度設定処理を説明するための説明図である。 図7Aは、本実施形態に係るX線診断装置の自動調整処理が実行されるタイミングを説明するための第1説明図である。 図7Bは、本実施形態に係るX線診断装置の自動調整処理が実行されるタイミングを説明するための第2説明図である。 図7Cは、本実施形態に係るX線診断装置の自動調整処理が実行されるタイミングを説明するための第3説明図である。 図7Dは、本実施形態に係るX線診断装置の自動調整処理が実行されるタイミングを説明するための第4説明図である。 図8は、本実施形態に係るX線診断装置の画像選択部による選択処理を説明するための説明図である。
 以下、図面を参照しながら本実施形態に係る医用画像表示装置2を説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
 本実施形態に係る医用画像表示装置2は、単体であっても、X線診断装置と組み込ませた形態のいずれでも適用できる。以下、本実施形態では、説明を簡単にするために、C形アームを備えるX線診断装置に医用画像表示装置2を組み込ませた装置を例に説明する。なお、医用画像表示装置2は、他のモダリティ、例えば、CT装置に組み込まれてもよい。
 図1は、本実施形態に係るX線診断装置1の構成の一例を示すブロック図である。図1に示すように、本X線診断装置1は、X線撮影に関わるX線撮影部と、画像処理及び画像表示に関わる医用画像表示装置2とを有する。X線撮影部は、C形アーム11と、C形アーム支持機構12と、寝台13と、天板14と、X線発生部15と、高電圧発生部16と、X線絞り器17と、X線検出部18と、移動部19と、角度検出部21と、撮影条件設定部27と、撮影制御部28と、前処理部29と、画像発生部30と、を有する。一方、医用画像表示装置2は、入力部20と、音声認識部22と、ジェスチャー認識部23と、瞳孔間距離特定部24と、距離特定部25と、視差計算部26と、記憶部31と、画像選択部32と、制御部33と、表示制御部34と、表示部35と、保管部36とを有する。
 X線撮影部の架台部は、C形アーム11、C形アーム支持機構12、寝台13、及び天板14を有する。C形アーム支持機構12は、C形アーム11を回転自在に支持する。C形アーム11は、その一端にX線発生部15を保持する。X線発生部15は、X線を発生する真空管である。X線発生部15は、高電圧発生部16からの高電圧(管電圧)の印加によりX線を発生する。X線発生部15は、発生したX線を放射するための放射窓を有する。X線発生部15の放射窓には、X線絞り器17が取り付けられる。X線絞り器17は、X線検出部18の検出面上のX線照射野を調整することができる線錐制限器である。X線絞り器17により、X線照射野が調整されることで、被検体への不要な被爆を低減できる。C形アーム11は、その他端に、X線発生部15と対向するように、X線検出部18を保持する。X線検出部18は、複数のX線検出素子を有する。複数のX線検出素子は、2次元のアレイ状に配列される。2次元のアレイ状の検出器はFPD(Flat Panel Display:平面検出器)と呼ばれる。FPDの各素子は、X線発生部15から放射され被検体を透過したX線を検出する。FPDの各素子は、検出したX線強度に対応した電気信号を出力する。X線発生部15の照射窓の焦点とX線検出部18のX線検出面の中心位置とを結ぶ線を撮影軸(第5回転軸)と呼ぶ。第5回転軸まわりのX線検出部18の回転は、撮影画像の上下を決定する。
 図2は、本実施形態に係るX線診断装置1の架台部の外観を示す図である。なお、C形アーム支持機構12は、C形アーム11を天井から吊り下げて保持する天井吊り下げ式、またはC形アーム11を床置きされた機構で保持する床置き式のいずれでもよい。本実施形態では、床置き式を例に説明する。C形アーム支持機構12は、床旋回アーム121、スタンド122、及びアームホルダ123を有する。床旋回アーム121は、その一端において、第1回転軸まわりに旋回自在に床面上に設けられる。床旋回アーム121は、その他端において第2回転軸まわりに回転自在にスタンド122が支持される。第1、第2回転軸は、直交軸と略平行である。スタンド122には、第3回転軸まわりに回転自在にアームホルダ123が支持される。第3回転軸は、直交軸と略直交する軸である。アームホルダ123には、C形アーム11の形状に沿って円弧状に回転(スライド回転)自在にC形アーム11が支持される。このスライド回転の回転軸は第4回転軸という。なお、C形アーム支持機構12は、C形アーム11を後述する長軸方向と短軸方向とに移動可能に支持してもよい。
 X線発生部15とX線検出器との間には、寝台13と天板14とが配置される。寝台13は、被検体が載置される天板14を直交3軸に関して移動可能に支持する。直交3軸とは、例えば、天板14の短軸と、天板14の長軸、及び短軸と長軸とに直交する直交軸とで定義されるものとする。以下、天板14の長軸に沿った方向を長軸方向と呼ぶ。また、天板14の短軸に沿った方向を短軸方向と呼ぶ。また、直交軸に沿った方向を直交軸方向と呼ぶ。
 移動部19は、後述する撮影制御部28による制御に従って、C形アーム支持機構12を第1乃至第5回転軸回りにそれぞれ独立に回転させる。また、移動部19は、後述する撮影制御部28による制御に従って、天板14を長軸方向または短軸方向にスライド移動させ、直交軸方向に昇降移動させる。加えて、移動部19は、長軸方向と短軸方向とのうち少なくとも一つの方向に平行な軸を回転軸として、天板14を寝台13の設置面に対して傾けるために天板14を回転移動させる。以下、C形アーム11の移動に関して、スライド移動、昇降移動、及び回転移動をまとめて移動と呼ぶ。
 入力部20は、本X線診断装置1に対して、ユーザによる指示情報を受け付けるための、インターフェースとして機能する。本実施形態において、ユーザとは、被検体に対する手技、治療等を実施する医者等を指す。指示情報とは、例えば、X線の撮影条件及びX線撮影の角度条件等である。X線の撮影条件とは、例えば、管電流、管電圧、及び撮影時間等である。X線撮影の角度条件とは、例えば、撮影角度の間隔、撮影回数、及び固定視差等の撮影動作に関わる条件である。固定視差とは、予め後述の記憶部31で記憶されているユーザ距離に応じた視差の固定値である。固定視差は、例えば、後述の表示部35に対するユーザの閲覧距離と標準的な人の瞳孔間距離とにより決定される。固定視差は、ユーザ指示に従って、適宜変更が可能である。
 また、角度条件は、固定視差、後述の表示部35に対するユーザの予想閲覧最長距離(以下、単に最長距離と呼ぶ)、及び撮影回数であってもよい。固有視差は、後述の表示部35に対するユーザの閲覧標準距離における視差である。そのため、後述の視差計算部26により、固定視差と最長距離とに基づいて、最長距離における視差が計算される。同様に、最短距離における視差が計算される。すると、予想されるユーザの閲覧距離の範囲に対応する視差の範囲が分かり、視差の範囲と撮影回数とに基づいて、撮影角度の間隔の導出が可能である。
 入力部20には、マウス、キーボード、トラックボール、タッチパネル、及びボタン等の入力デバイスが適宜利用可能である。具体的には、入力部20は、C形アーム11をユーザ指示に従って移動させるための操作ボードを有する。操作ボードは、例えば、C形アーム11を前述の複数の回転軸周りに独立に回転させるための、ボタン、ハンドル、及びトラックボール等を有する。
 また、入力部20は、視線と撮影回転方向との入力を受け付ける。 
 視線とは、後述の表示部35に立体視映像を表示したい被検体の撮影部位の方向である。撮影回転方向とは、C形アーム11の回転方向である。本X線診断装置1は、撮影回転方向に沿って撮影動作を行う。この撮影回転方向に沿った位置には、視線に対応する位置が含まれる。
 視線と撮影回転方向とは、入力画面上のユーザ操作により決定される。入力画面として、表示部35には、視線と撮影回転方向とを入力するための位置決め用画像が表示される。位置決め用画像は、例えば、本X線診断装置1により位置決め用画像として撮影されたX線画像または位置決め用のモデル画像等である。ユーザは、位置決め用画像上で、表示部35に表示する被検体の中心位置を決定することにより、視線を入力することができる。また、ユーザは、表示部35に表示する被検体の画像の上下を決定することにより、撮影回転方向を決定することができる。
 なお、位置決め用画像として、本X線診断装置1に近接して配置されたX線CT装置により撮影された画像であってもよい。この時、本X線診断装置1とX線CT装置とが、天板14を共有するシステムであるため、X線CT装置による位置決め用画像の天板座標系と、本X線診断装置1の天板座標系とは、整合されている。これにより、本X線診断装置1とX線CT装置との間の被検体の位置関係が関連付けされる。
 また、視線と撮影回転方向とを入力する方法として、操作ボードをユーザが操作し、視線までC形アームを移動させ、視線の決定に関わるボタンがユーザにより押されることにより、視線が決定されてもよい。この時、撮影回転方向は、第5回転軸まわりに回転されるX線検出部18の検出面の向きにより決まる。具体的には、X線検出器におけるX線検出面の上下と画像発生部30により発生されたX線画像の上下とが対応している場合において、C形アーム11の撮影回転方向は、ユーザにより設定されたX線検出面の左右方向に設定される。また、視線の決定に関わるボタンがユーザにより押されたタイミングにおける、第4回転軸、または第3回転軸周りの向きに撮影回転方向が設定されてもよい。
 図3は、視線と視線角度とC形アーム11の撮影回転方向とを説明するための説明図である。図3は、視線と撮影回転方向とを入力するための入力画面の一例である。患者Pが天板14に載置された状態が表示されている。図3では、直交軸に沿った軸をX軸、短軸に沿った軸をY軸、長軸に沿った軸をZ軸としている。ユーザは、図3に入力画面上で視線を入力する。視線に対応する角度(以下、視線角度と呼ぶ)は、Y軸と成す第1角度θとX軸と成す第2角度φとで表される。視線を設定するために、ユーザは、第1角度θと第2角度φとを入力してもよい。図3に示すように、ユーザによりX線検出部18の検出面の上方向が設定された場合において、C形アーム11の撮影回転方向は、検出面の左右方向である回転方向Aに設定される。また、回転方向Aは、スライド回転方向に沿った方向に設定されてもよい。
 角度検出部21は、第1乃至第5の回転軸にそれぞれ対応する5つの回転角度を検出する。そして、X線検出部18から出力される画像データに対して、角度検出部21により検出された角度のデータが付帯される。この時、角度とは、好適には天板座標系であるが、被検体座標系及び検査室座標系等の座標系であってもよい。
 音声認識部22は、ユーザの音声を検出するための、マイク等の音声入力デバイスを有する。ユーザの音声とは、ユーザによる発声及びユーザにより発生された音等である。マイクは、ユーザの音声を入力できる位置に設置される。マイクは、例えば、後述する表示部35に取り付けられていてもよい。音声認識部22は、後述する記憶部31に記憶されているコマンドDB(Data Base:データベース)に登録されている複数の音声波形に対して、マイクを介して入力された音声波形を照合する。音声認識部22は、入力された音声波形がコマンドDBに登録されている特定の音声波形と略一致した場合において、その入力された音声波形を認識する。そして、音声認識部22は、コマンドDBに基づいて、認識した音声波形に対応するコマンドを各部に送信する。なお、音声認識部22は、検出した音声が、意図するユーザが発声した音声であるかを、上述の音声認識技術により区別することができる。なお、意図するユーザとは、被検体に対して、手技、治療を行う1人に限定する必要はなく、音声認識の対象となるユーザが複数いてもよい。この場合、音声認識の対象ユーザの声が、予め本X線診断装置1に登録されていてもよい。
 ジェスチャー認識部23は、ユーザのジェスチャー動作を検出するための、カメラ等を含む検出デバイスを有する。カメラは、例えば、後述する表示部35の上部または下部等に取り付けられており、ユーザを撮影する。ジェスチャー認識部23は、撮影したユーザに関する複数の画像から、例えば、ユーザの手を特定部位として検出追跡し、ジェスチャー動作の形状を検出する。ジェスチャー認識部23は、後述する記憶部31に記憶されているコマンドDBに登録されている複数のジェスチャー動作形状に対して、検出したジェスチャー動作の形状を照合する。そして、検出したジェスチャー動作の形状と略一致するジェスチャー動作の形状がコマンドDBに登録されている場合において、ジェスチャー認識部23は、そのジェスチャー動作を認識する。ジェスチャー認識部23は、認識したジェスチャー動作の形状に対応するコマンドを各部に送信する。なお、ジェスチャー認識部23は、撮影した画像に基づいて、ジェスチャー動作を実行した人物の顔を検出し、検出した人物が意図するユーザであるかを、特定することができる。また、ジェスチャー動作の対象となるユーザは、他の人物と区別されるための、例えば、帽子、衣服等にタグ等を付け、ジェスチャー認識部23が、そのタグを検出することにより、ジェスチャー動作の検出対象か否かを判定してもよい。
 瞳孔間距離特定部24は、ユーザの瞳孔間距離を特定するための、検出デバイスを有する。検出デバイスは、例えば、カメラ等である。カメラは、後述する表示部35の上部及び下部等に取り付けられており、特定の周期毎にユーザを撮影する。特定の周期は、予め設定されており、ユーザにより適宜変更が可能である。なお、瞳孔間距離特定部24と既出の距離特定部25とが、共通の検出デバイスであってもよい。瞳孔間距離特定部24は、撮影したユーザの顔に関する画像各々から、例えば、輝度値に基づいて、両目に対応する範囲を抽出する。そして、瞳孔間距離特定部24は、抽出した両目に対応する範囲から画像上における瞳孔間距離を特定する。そして、特定した瞳孔間距離のデータを視差計算部26に送信する。
 距離特定部25は、表示部35と表示部35を閲覧しているユーザとの間の距離(以下、ユーザ距離と呼ぶ)を特定する。距離特定部25は、ユーザ距離を特定するための位置特定デバイスを有する。位置特定デバイスは、例えば、カメラ、赤外線センサ、及び光センサ等である。距離特定部25は、特定したユーザ距離のデータを視差計算部26に送信する。
 瞳孔間距離特定部24と距離特定部25とにより、それぞれ瞳孔間距離とユーザ距離とが特定されるまでの一連の処理を顔認識処理と呼ぶ。顔認識処理は、入力部20を介してユーザにより選択されたモードで実行される。顔認識処理の実行モードには、例えば、連続モード、間欠モード、及び手動モード等がある。これらのモードは、入力部20を介したユーザ指示に従って、適宜変更が可能である。また、瞳孔間距離特定部24と距離特定部25との実行モードは、非同期であってもよい。連続モードにおいて、瞳孔間距離特定部24は、常時、顔認識処理を実行する。間欠モードにおいて、瞳孔間距離特定部24は、所定の時間間隔毎に、顔認識処理を実行する。所定の時間間隔は、予めユーザにより設定されており、入力部20を介したユーザ指示に従って、適宜変更が可能である。手動モードにおいて、瞳孔間距離特定部24は、ユーザの所望するタイミングで、顔認識処理を実行する。例えば、ユーザによる特定のジェスチャー動作の実行時、ユーザによる特定の単語の発声時、ユーザによる特定の音の発生時、及び入力部20を介した操作時等である。特定のジェスチャー動作、特定の単語、及び特定の音とは、コマンドDBに登録されている「顔認識処理の実行」のコマンド(以下、顔認識コマンドと呼ぶ)にそれぞれ対応するジェスチャー、単語、及び音である。ジェスチャー認識部23は、ユーザにより実行された特定のジェスチャー動作を認識したのを契機に、顔認識コマンドを瞳孔間距離特定部24に送信する。同様に、音声認識部22は、ユーザにより発生された特定の単語及び特定の音を認識したのを契機に、顔認識コマンドを瞳孔間距離特定部24に送信する。
 視差計算部26は、ユーザの瞳孔間距離とユーザ距離とに基づいて、ユーザ固有の視差(以下、ユーザ視差と呼ぶ)を計算する。ユーザ視差の計算における基準位置は、例えば、表示部35の中心位置である。ユーザ視差の計算は、例えば、三角法等が用いられる。したがって、ユーザが表示部35に近づくように動いた場合において、動いた後の位置におけるユーザ視差は、動く前のユーザ視差よりも広がる。視差計算部26は、計算したユーザ視差に関するデータを画像選択部32と撮影条件設定部27とに送信する。
 撮影条件設定部27は、入力部20を介してユーザにより入力されたX線の撮影条件に基づいて、X線の撮影条件を設定する。また、撮影条件設定部27は、入力部20を介してユーザにより入力されたX線撮影の角度条件、視線角度、及び視差に基づいて複数の撮影角度を設定する。この時使用される視差は固定視差でもユーザ視差でもよい。どちらの視差を使用するかは、入力部20を介したユーザ指示に従って選択される。撮影条件設定部27による複数の撮影角度の設定に関する機能を、撮影角度設定機能と呼ぶ。撮影角度設定機能の詳細説明は後述する。
 撮影制御部28は、撮影条件設定部27で設定されたX線の撮影条件と撮影角度条件とに基づいて、高電圧発生部16と移動部19とを制御する。
 前処理部29は、X線検出部18から出力された電気信号に対して前処理を実行する。前処理とは、例えば、各種補正処理、増幅処理、及びA/D変換処理等である。
 画像発生部30は、前処理を実行された電気信号に基づいて、複数のX線画像のデータを発生する。X線画像のデータのそれぞれには、撮影角度に関する情報が付帯される。X線画像を構成する各画素に割り付けられた画素値は、X線の透過経路上の物質に関するX線減弱係数に応じた値等である。
 記憶部31は、半導体メモリ等である。記憶部31は、画像選択部32により、後述の保管部36から選択された2つのX線画像のデータを一時的に記憶する。また、記憶部31は、X線の撮影条件、角度条件、及び視線角度のデータを記憶する。なお、記憶部31は、入力部20を介したユーザ指示に従って、X線の撮影条件及び角度条件を条件DBとして記憶してもよい。条件DBにおいて、X線の撮影条件は、例えば、被検体の年齢、体格、性別、撮影部位、及び視線角度等により階層化されて管理される。
 記憶部31は、コマンドDBを記憶する。コマンドDBは、ジェスチャー認識部23が認識したジェスチャー動作の形状と音声認識部22が認識したユーザ音声とを照合するためのDBである。
 図4は、本実施形態に係るX線診断装置1の記憶部31が記憶しているコマンドDBの一例を示す図である。図4に示すように、コマンドDBは、複数のコマンドに対して、複数のジェスチャー動作の形状、複数の単語、及び複数の音をそれぞれ対応させたDBである。コマンドには、例えば、「視差を狭く」、「視差を広く」、及び「顔認識処理の実行」等がある。
 保管部36は、半導体記憶素子であるFlash SSD(Solid State Disk)などの半導体記憶装置及びHDD(Hard Desk Drive)である。保管部36は、撮影角度の異なる複数のX線画像のデータを記憶する。複数のX線画像のデータは、左目用画像郡と右目用画像郡とに分類される。左目用画像郡とは、後述の左目角度領域に含まれる複数の撮影角度にて撮影された複数のX線画像を含む画像郡である。また、右目用画像郡とは、後述の右目角度領域に含まれる複数の撮影角度にて撮影された複数のX線画像を含む画像郡である。各角度領域に含まれる、視線角度から略同一の角度差を有する2つのX線画像は、それぞれ関連付けされている。医用画像表示装置2が単独の装置である場合、保管部36は、医用画像表示装置2にインターネット等の公衆回線を介して接続される外部装置であってもよい。
 画像選択部32は、ユーザ視差または固定視差に従って、保管部36に記憶されている左目用画像郡と右目画像郡とから、それぞれ左目用画像と右目用画像とを選択する。画像選択部32により選択された左目用画像のデータと右目用画像のデータとは、記憶部31に一時的に記憶される。また、画像選択部32は、音声認識部22とジェスチャー認識部23とから送信された表示されている画像の切り替えを指示するコマンド(以下、画像切り替えコマンドと呼ぶ)を受信し、そのコマンドに応じて、保管部36に記憶されている左目用画像郡と右目画像郡とから、それぞれ対応する左目用画像と右目用画像とを選択する。画像選択部32による画像の選択処理に関する詳細説明は後述する。
 制御部33は、CPU(Central Processing Unit)とメモリ回路等を有する。制御部33は、入力部20を介して入力された指示情報を受け取り、一時的にメモリ回路を記憶する。制御部33は、入力情報に基づいてX線診断装置1の各部を制御する。具体的には、制御部33は、画像発生部30で発生された複数のX線画像のデータを、X線画像各々に付帯されている撮影角度に関するデータに従って、左目画像郡と右目画像郡とに分類し、保管部36に記憶させる。
 表示制御部34は、画像選択部32により選択され、記憶部31に一時的に記憶された左目用画像のデータと右目用画像のデータとを、記憶部31から読み出し、視線に関する立体視映像を後述の表示部35に表示する。
 例えば、裸眼式の2視差のレンチキュラーレンズ方式において、表示制御部34は、左目用画像と右目用画像とを、それぞれ縦に帯状に分割した映像信号を表示部35に送信する。表示部35は、縦に帯状に分割された左目用画像と右目用画像とを交互になるように並べて表示する。分割された左目用画像と右目用画像とが交互になるように並べて表示部35に表示される。表示部35は、表示面上にレンチキュラーレンズを有する。レンチキュラーレンズは、ユーザの見る位置により、視線の届く位置を変化させるレンズである。レンチキュラーレンズの配置を調整することにより、右目には右目用画像が、左目には左目用画像だけが見えるため、立体視ができる。
 また、眼鏡式のフレーム・シーケンシャル方式において、表示制御部34は、1フレーム同期期間内で、左目用画像信号の後に右目用画像信号を表示部35に送信する。表示部35は、送信された画像信号に基づいて、画像を表示する。ユーザは、液晶シャッター眼鏡を装着して表示部35を見る。液晶シャッターは、表示部35による表示動作と同期して、左右の視界を交互に遮蔽する。眼鏡のシャッターが2つの画像と完全に同期して開閉することで右目には右目用画像が、左目には左目用画像だけが見えるため、立体視ができる。
 本実施形態の表示制御部34及び表示部35について、2つの立体視方式を例に説明したが、視差を利用するいずれの立体視方式に対して、本実施形態の適用が可能である。また、多視差を利用可能な立体視方式に対しても、本実施形態の適用が可能である。
 次に、本実施形態に係るX線診断装置1を用いた処理について図5を参照して説明する。 
 図5は、本実施形態に係るX線診断装置1を用いた一連の処理の流れの一例を示すフローチャートである。
 (ステップS11) 
 入力部20を介したユーザ指示に従って、撮影条件設定部27により、X線の撮影条件が設定される。
 (ステップS12) 
 入力部20を介してユーザにより入力された視線を受け付ける。具体的には、ユーザは、入力部20の操作ボードを操作することにより、視線に撮影軸が一致するように、C形アーム11を移動する。そして、操作ボードに設けられた視線の決定に関わるボタンがユーザにより押されたのを契機に、視線が決定される。また、表示部35に表示された被検体に関する位置決め用の画像上のユーザ指示に従って、視線が決定されてもよい。視線が決定されると、角度検出部21により、視線に対応する視線角度が検出される。検出された視線角度に関するデータは、撮影条件設定部27に送信される。
 (ステップS13) 
 撮影角度を設定するための視差が、ユーザ視差と固定視差とからユーザにより選択される。ユーザ視差が選択された場合はステップS14に処理が移る。固定視差が選択された場合は、ステップS15に処理が移る。
 (ステップS14) 
 瞳孔間距離特定部24、距離特定部25、及び視差計算部26により、ユーザ視差が計算される。
 (ステップS15) 
 入力部20を介してユーザにより入力された角度条件、視線角度、及び視差に基づいて、後述の撮影条件設定部27の撮影角度設定機能により、自動的に複数の撮影角度が設定される。
 (ステップS16) 
 入力部20を介したユーザ指示に従って、各部によりX線撮影が開始される。そして、撮影条件設定部27により設定されたX線の撮影条件の下、設定した撮影角度で撮影されたX線画像が各部により収集される。収集された複数のX線画像のデータは、X線画像各々に付帯する撮影角度に関する情報とともに、保管部36に記憶される。
 (ステップS17) 
 画像選択部32により、左目用画像郡と右目用画像郡とから、それぞれ右目用画像と左目用画像とが選択される。
 (ステップS18) 
 画像選択部32により選択された左目用画像と右目用画像とに基づいて、表示制御部34により、視線に関する立体視映像が表示部35に表示される。ユーザは、表示部35に表示された立体視映像を閲覧しながら、診断、治療等を行う。
 (ステップS19) 
 切り替えコマンドを受信したのを契機に、ステップS17の画像選択部32による画像の選択に処理が移る。また、ユーザ視差に関するデータを受信し、ユーザ視差が変更したのを検知した場合において、ステップS17の画像選択部32による画像の選択に処理が移る。切り替えコマンドの受信及びユーザ視差の変更が発生するたびに、ステップS17とステップS18との処理が繰り返し実行される。本X線診断装置1が備えるステップS17乃至ステップS19の処理に対応する機能は、後述の自動調整機能と呼ぶ。自動調整機能の詳細説明は後述する。
  (撮影角度設定機能) 
 撮影角度設定機能とは、本実施形態に係るX線診断装置1の撮影条件設定部27が、入力部20を介してユーザにより入力された角度条件、視線角度、及び視差に基づいて、自動的に複数の撮影角度を設定する機能である。撮影角度設定機能に従う処理(以下、撮影角度設定処理と呼ぶ)について、図6を参照して説明する。
 図6は、本実施形態に係るX線診断装置1の撮影条件設定部27による撮影角度設定処理を説明するための説明図である。なお、撮影角度設定処理の説明では、図3のステップS13で固定視差が選択されたものとする。また、説明を簡単にするため、視線角度を構成する第1角度θが0°であるものとする。なお、撮影角度設定処理は、第1角度θが0°ではない場合においても適用可能である。
 まず、撮影条件設定部27は、固定視差と視線角度とに基づいて、左目角度領域における撮影中心角度(以下、左目撮影中心角度と呼ぶ)と右目角度領域における撮影中心角度(以下、右目撮影中心角度と呼ぶ)とを設定する。例えば、視線角度(第1角度φ)が45°、固定視差が4°の場合において、撮影条件設定部27は、左目撮影中心角度は47°に、右目撮影中心角度は43°に設定する。視線角度に対応する撮影位置、左目撮影中心角度に対応する撮影位置、及び右目撮影中心角度に対応する撮影位置は、撮影回転方向に沿った位置に設けられる。
 そして、撮影中心角度が上記のように設定されると、角度条件に従って、各角度領域における複数の撮影角度が設定される。例えば、撮影角度の間隔が0.1°、各角度領域における撮影回数が11回の場合において、撮影条件設定部27により、左目角度領域における複数の撮影角度がφ=42.5°~43.5°まで、0.1°間隔に設定される。また、撮影条件設定部27により、右目角度領域における複数の撮影角度は、φ=46.5°~47.5°まで、0.1°間隔で設定される。そして、視線角度からの角度差が同じ左目角度領域の撮影角度と右目角度領域の撮影角度とが関連付けされる。例えば、左目角度領域における撮影角度φ=42.6°と右目角度領域における撮影角度47.4°とは、視線角度45°から互いに2.4°の角度差を有するため、互いに関連付けされる。
 以上のような撮影条件設定部27の撮影角度設定処理により、視線角度を中心とした左目角度領域と右目角度領域とが設定される。そして、左目角度領域に含まれる撮影角度各々の視線角度に対する角度差は、右目角度領域に含まれる撮影角度各々の視線角度に対する角度差と略一致する。
  (自動調整機能) 
 自動調整機能とは、本実施形態に係るX線診断装置1の画像選択部32が、切り替えコマンドの受信及びユーザ視差の変更の検知を契機に、左目用画像郡と右目用画像郡とから、それぞれ左目用画像と右目用画像とを自動的に選択する機能である。自動調整機能に従う処理(以下、自動調整処理と呼ぶ)について、図7と図8とを参照して説明する。なお、自動調整機能のON/OFFは、入力部20を介したユーザ指示に従って、適宜切り替えが可能である。また、ユーザのジェスチャー、発声、及び音の発生等でも、適宜切り替え可能である。
 図7は、本実施形態に係るX線診断装置1の自動調整処理が実行されるタイミングを説明するための説明図である。図7に示すように、自動調整処理は、例えば、ユーザ距離変更時(図7A)、ユーザ変更時(図7B)、ユーザによる特定のジェスチャー動作の実行時(図7C)、及びユーザによる特定の単語の発声時(図7D)等に実行される。具体的には、図7Aに示すような、ユーザ距離が変更した場合において、まず、距離特定部25によりユーザ距離が特定される。そして、瞳孔間距離特定部24により瞳孔間距離が特定される。ユーザ距離と瞳孔間距離とに基づいて、視差計算部26により、ユーザ視差が計算される。計算されたユーザ視差に関する情報は画像選択部32に送信される。なお、自動調整処理において、距離特定部25と瞳孔間距離特定部24との実行モードは既出のどのモードであってもよい。図7Bに示すような、ユーザが変更した場合においても、図7Aの処理と同様の処理が各部により実行される。
 また、図7Cに示すような、ユーザによる特定のジェスチャー動作が実行された場合において、ジェスチャー認識部23により、その特定のジェスチャーが認識され、対応する切り替えコマンドに関する信号が画像選択部32に送信される。
 さらに、図7Dに示すような、ユーザの特定の音声が発生された場合において、音声認識部22により、ユーザの特定の音声が検出され、対応する切り替えコマンドに関する信号が画像選択部32に送信される。特定の音声とは、例えば、ユーザの発声した特定の単語及びユーザにより発生された特定の音等である。
 次に、画像選択部32による画像の選択処理について図8を参照して説明する。 
 図8は、本実施形態に係るX線診断装置1の画像選択部32による選択処理を説明するための説明図である。図8の説明では、保管部36には、10つの画像が記憶されているものとする。10つの画像は、左目画像群と右目画像群とに分類される。左目画像群と右目画像群とには、それぞれ撮影角度が連続した5つの画像がそれぞれ含まれている。そして、左目画像群の5つの画像と右目画像群の5つの画像とのうち、視線角度から同じ角度差を有する2つの画像は、互いに関連付けされている。例えば、左目画像群における画像(L-1)と右目画像群における画像(R-1)とは、視線角度から同じ角度差を有し、互いに関連付けされている。したがって、図8の説明では、保管部36に、視線角度から同じ角度差を有する2つの画像から成る画像セットが、5セット記憶されている。5つの画像セットのうち、画像(L-1)と画像(R-1)とで構成される画像セット1が最も角度差(視差)が小さく、画像(L-5)と画像(R-5)とで構成される画像セット5が最も角度差(視差)が大きい。画像セット1から画像セット5まで、順に角度差が大きくなる。なお、初期状態として、表示部35には、ユーザによる立体視のために、画像セット3(画像(L-3)と画像(R-3))が、表示制御部34により表示されているものとする。
 画像選択部32は、ジェスチャー認識部23及び音声認識部22から送信された切り替えコマンドを受信したのを契機に、保管部36に記憶されている複数の画像セット(複数の画像)から切り替えコマンドに対応した画像セット(左目画像群と右目画像群とからそれぞれ1つの画像)を選択する。例えば、画像選択部32は、「視差を狭く」に関連する切り替えコマンドを受信したのを契機に、表示部35に現在表示されている画像セットの角度差(視差)よりも狭い角度差(視差)を有する画像セットを、保管部36から選択する。具体的には、画像選択部32は、現在表示部35に表示されている画像セット3の次に角度差(視差)の狭い画像セット2を選択する。表示制御部34は、画像選択部32により選択された画像セット3を、ユーザによる立体視のために、表示部35に表示する。
 また、画像選択部32は、視差計算部26から送信されたユーザ視差に関するデータを受信し、そのユーザ視差に対応する画像セット(左目用画像と右目用画像)を保管部36に記憶されている複数の画像セットから(左目画像群と右目画像群とからそれぞれ1つの画像を)選択する。具体的には、画像選択部32は、受信したユーザ視差が、受信する前のユーザ視差に対して、変化があったかを検知する。そして、受信したユーザ視差が受信する前のユーザ視差と異なる場合において、画像選択部32は、ユーザ視差に最も近い角度差を有する画像セット(左目用画像と右目用画像と)を、保管部36に記憶されている複数の画像セット(左目画像群と右目画像群と)から選択する。
 以上に述べた撮影角度設定機能によれば、以下の効果を得ることができる。 
 撮影角度設定機能を備える本実施形態に係るX線診断装置1は、角度条件と、固定視差(またはユーザ視差)と、視線角度とに基づいて、複数の撮影角度を設定することができる。複数の撮影角度は、視線角度を中心とした左目角度領域と右目角度領域とに分類される。そして、左目角度領域に含まれる複数の撮影角度にそれぞれ対応する複数の角度差は、右目角度領域に含まれる複数の撮影角度にそれぞれ対応する複数の角度差と略一致する。撮影角度設定機能により設定された複数の撮影角度にて撮影された複数のX線画像を記憶する本実施形態に係るX線診断装置1は、ユーザの変更、ユーザの移動等があった場合においても、再撮影することなく、ユーザに対して、被検体を立体的に認識させる表示を行うことができる。したがって、撮影角度設定機能を備える本実施形態に係るX線診断装置1は、画像立体視の技術を用いた診断、治療等において、作業効率の向上を実現することができる。
 また、以上に述べた自動調整機能によれば、以下の効果を得ることができる。 
 自動調整機能を備える本実施形態に係るX線診断装置1によれば、表示部35に対するユーザの距離、または、ユーザの変更に応じて、ユーザが被検体を立体的に認識できる角度差(視差)を自動的に特定することができる。そして、ユーザ距離の変化及びユーザの変更等に応じて、自動的に表示部35に最適な角度差を有する画像セット(左目用画像と右目用画像)を表示することができる。したがって、ユーザが変更した場合及びユーザが移動した場合等でも、ユーザは、表示部35を見ることにより、被検体を立体的に認識することができる。また、ユーザによる特定のジェスチャー動作の実行時、ユーザによる特定の単語の発声時、及びユーザによる特定の音の発生時等を契機に、自動的に表示中の画像セット(左目用画像と右目用画像)を変更することができる。したがって、ユーザは個々の感性に合致した被検体の立体像を認識することができる。以上の効果により、自動調整機能を備える本実施形態に係るX線診断装置1は、診断、治療等において、作業効率を向上することができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の趣旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や趣旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものある。
1…X線診断装置、2…医用画像表示装置、11…C形アーム、12…C形アーム支持機構、13…寝台、14…天板、15…X線発生部、16…高電圧発生部、17…X線絞り器、18…X線検出部、19…移動部、20…入力部、21…角度検出部、22…音声認識部、23…ジェスチャー認識部、24…瞳孔間距離特定部、25…距離特定部、26…視差計算部、27…撮影条件設定部、28…撮影制御部、29…前処理部、30…画像発生部、31…記憶部、32…画像選択部、33…制御部、34…表示制御部、35…表示部、36…保管部、121…床旋回アーム、122…スタンド、123…アームホルダ

Claims (8)

  1. 撮影角度の異なる複数のX線画像のデータを記憶する外部装置にアクセス可能、または、前記複数のX線画像のデータを保管する保管部を有する医用画像表示装置において、
     表示部と、
     前記表示部に対するユーザの距離を特定する距離特定部と、
     前記複数のX線画像から、前記ユーザの距離に基づいて決定される角度差を有する2つのX線画像を選択する画像選択部と、
     前記選択された2つのX線画像を、前記ユーザによる立体視のために前記表示部に表示する表示制御部と、
     を具備することを特徴とする医用画像表示装置。
  2.  前記複数のX線画像は、左目用画像群と右目用画像群とに分類されていること、
     を特徴とする請求項1記載の医用画像表示装置。
  3.  前記画像選択部は、前記左目用画像群と前記右目用画像群とから、それぞれ対応する前記2つのX線画像を選択すること、
     を特徴とする請求項2記載の医用画像表示装置。
  4.  前記ユーザの瞳孔間距離を特定する瞳孔間距離特定部をさらに具備し、
     前記画像選択部は、前記複数のX線画像から、前記ユーザの距離と前記ユーザの瞳孔間距離とに基づいて決定される角度差を有する2つのX線画像を選択すること、
     を特徴とする請求項1記載の医用画像表示装置。
  5.  前記ユーザのジェスチャーを認識するジェスチャー認識部をさらに具備し、
     前記画像選択部は、前記ユーザのジェスチャーに応じて、前記複数のX線画像から、2つのX線画像を選択し直すこと、
     を特徴とする請求項1記載の医用画像表示装置。
  6.  前記ユーザの発声した単語及び発生した音のうち、少なくとも一方を検出する音声認識部をさらに具備し、
     前記画像選択部は、前記ユーザの発声した単語及び発生した音の少なくとも一方に応じて、前記複数のX線画像から、2つのX線画像を選択し直すこと、
     を特徴とする請求項1記載の医用画像表示装置。
  7.  X線を発生するX線発生部と、
     前記X線発生部から発生され、被検体を透過したX線を検出するX線検出部と、
     前記被検体の立体視する方向の入力を受け付ける入力部と、
     前記立体視する方向に基づいて、複数の撮影角度を設定する撮影条件設定部と、
     前記複数の撮影角度に、前記X線発生部と前記X線検出部とを、前記X線発生部と前記X線検出部とが対向するように移動させる移動部と、
     を具備することを特徴とするX線診断装置。
  8.  表示部と、
     前記表示部に対するユーザの距離を特定する距離特定部と、
     前記ユーザの瞳孔間距離を特定する瞳孔間距離特定部と、
     をさらに具備し、
     前記撮影条件設定部は、前記立体視する方向と前記ユーザの距離と前記瞳孔間距離に基づいて、複数の撮影角度を設定すること、
     を特徴とする請求項7記載のX線診断装置。
PCT/JP2013/083306 2012-12-12 2013-12-12 X線診断装置及び医用画像表示装置 WO2014092147A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/692,384 US9986962B2 (en) 2012-12-12 2015-04-21 Medical image display apparatus and X-ray diagnosis apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-271196 2012-12-12
JP2012271196 2012-12-12
JP2013256504A JP6425884B2 (ja) 2012-12-12 2013-12-11 X線診断装置
JP2013-256504 2013-12-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/692,384 Continuation US9986962B2 (en) 2012-12-12 2015-04-21 Medical image display apparatus and X-ray diagnosis apparatus

Publications (1)

Publication Number Publication Date
WO2014092147A1 true WO2014092147A1 (ja) 2014-06-19

Family

ID=50934430

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/083306 WO2014092147A1 (ja) 2012-12-12 2013-12-12 X線診断装置及び医用画像表示装置

Country Status (3)

Country Link
US (1) US9986962B2 (ja)
JP (1) JP6425884B2 (ja)
WO (1) WO2014092147A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11013485B2 (en) 2018-10-09 2021-05-25 Siemens Healthcare Gmbh Method for dose reduction in an X-ray device taking account of a later display; imaging system; computer program; and data carrier

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6279341B2 (ja) * 2013-02-14 2018-02-14 キヤノンメディカルシステムズ株式会社 X線診断装置
JP6352057B2 (ja) * 2013-05-31 2018-07-04 キヤノンメディカルシステムズ株式会社 X線診断装置
DE112016006135T5 (de) * 2015-12-30 2018-09-20 Koninklijke Philips N.V. Vorrichtung für medizinische Berichte

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置
JP2005349127A (ja) * 2004-06-14 2005-12-22 Canon Inc 立体画像生成システムおよびその制御方法
JP2012165358A (ja) * 2011-02-08 2012-08-30 Fujifilm Corp 立体視画像表示装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2712608A (en) * 1949-10-15 1955-07-05 Sherman W Atwell Method and apparatus for stereoscopic X-ray production
US6031565A (en) * 1993-06-18 2000-02-29 Gte Internetworking Incorporated Stereo radiography
EP1875744A2 (en) * 2005-04-22 2008-01-09 Koninklijke Philips Electronics N.V. Auto-stereoscopic display with mixed mode for concurrent display of two- and three-dimensional images
JP2009530731A (ja) * 2006-03-23 2009-08-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像操作の眼球追跡制御のためのホットスポット
WO2011044936A1 (en) * 2009-10-14 2011-04-21 Nokia Corporation Autostereoscopic rendering and display apparatus
JP2012061188A (ja) * 2010-09-17 2012-03-29 Fujifilm Corp 放射線画像撮影装置および方法
JP2012221290A (ja) 2011-04-11 2012-11-12 Toshiba Corp 医用画像処理装置
JP5846777B2 (ja) * 2011-06-28 2016-01-20 株式会社東芝 医用画像処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001070293A (ja) * 1999-09-06 2001-03-21 Toshiba Corp X線診断装置
JP2005349127A (ja) * 2004-06-14 2005-12-22 Canon Inc 立体画像生成システムおよびその制御方法
JP2012165358A (ja) * 2011-02-08 2012-08-30 Fujifilm Corp 立体視画像表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11013485B2 (en) 2018-10-09 2021-05-25 Siemens Healthcare Gmbh Method for dose reduction in an X-ray device taking account of a later display; imaging system; computer program; and data carrier

Also Published As

Publication number Publication date
JP2014133103A (ja) 2014-07-24
US9986962B2 (en) 2018-06-05
US20150223769A1 (en) 2015-08-13
JP6425884B2 (ja) 2018-11-21

Similar Documents

Publication Publication Date Title
JP5887026B2 (ja) ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US10492873B2 (en) Medical spatial orientation system
RU2622367C2 (ru) Трехмерный рентгеновский просмотр в режиме реального времени
US10307119B2 (en) Medical imaging system and operation method therefor
US9615802B2 (en) Direct control of X-ray focal spot movement
JP6222835B2 (ja) X線診断装置
JP6425884B2 (ja) X線診断装置
JP2014176639A (ja) X線診断装置
WO2012096224A1 (ja) 放射線画像表示装置および方法
JP2012254286A (ja) 立体視画像表示装置およびその動作方法
JP2012115380A (ja) 立体視画像取得方法および装置
WO2012056682A1 (ja) 立体視画像表示装置
JP2013031169A (ja) 立体視画像表示装置およびその動作方法
JP2012253757A (ja) 立体視画像表示装置およびその動作方法
WO2012102127A1 (ja) 放射線画像表示装置および方法
JP2013039366A (ja) 放射線撮影装置およびその動作方法
WO2012056681A1 (ja) 立体視画像表示装置
JP2013039365A (ja) 放射線撮影装置およびその動作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13863349

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13863349

Country of ref document: EP

Kind code of ref document: A1