WO2013187116A1 - 画像処理装置および立体画像観察システム - Google Patents

画像処理装置および立体画像観察システム Download PDF

Info

Publication number
WO2013187116A1
WO2013187116A1 PCT/JP2013/061142 JP2013061142W WO2013187116A1 WO 2013187116 A1 WO2013187116 A1 WO 2013187116A1 JP 2013061142 W JP2013061142 W JP 2013061142W WO 2013187116 A1 WO2013187116 A1 WO 2013187116A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
auxiliary display
display
image
gazing point
Prior art date
Application number
PCT/JP2013/061142
Other languages
English (en)
French (fr)
Inventor
和泉 初田
真人 成瀬
雅史 原口
静児 坂元
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to EP13803595.1A priority Critical patent/EP2863634A4/en
Priority to CN201380027833.0A priority patent/CN104335580A/zh
Publication of WO2013187116A1 publication Critical patent/WO2013187116A1/ja
Priority to US14/553,205 priority patent/US20150077529A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision

Definitions

  • the present invention relates to an image processing apparatus and a stereoscopic image observation system.
  • Patent Literature 1 there is known an apparatus that allows an observer to visually recognize a stereoscopic image of a subject using a pair of parallax images obtained by photographing the subject from two viewpoints corresponding to left and right eyes (see, for example, Patent Document 1).
  • the apparatus of Patent Literature 1 has a function of superimposing and displaying a drawn object such as a character, a figure, or a symbol added by an observer on a stereoscopic image at the same position in the depth direction as the subject in the stereoscopic image.
  • Patent Literature 1 The observer needs to change the convergence angle formed by the line of sight of the left and right eyes when moving the gazing point between different positions in the depth direction in the stereoscopic image. This adjustment of the angle of convergence gives fatigue to the eyes of the observer.
  • the convergence angle changes every time the point of interest is moved between the drawn object and the subject. Therefore, the apparatus of Patent Document 1 is not suitable for an application in which a subject is observed while frequently reciprocating a gazing point between an auxiliary display such as a drawn object and the subject.
  • the present invention has been made in view of the above-described circumstances, and in the stereoscopic image of the subject and the auxiliary display superimposed on the subject, even if the subject is observed while comparing with the auxiliary display, the eyes of the observer
  • An object of the present invention is to provide an image processing apparatus and a three-dimensional image observation system that can reduce fatigue.
  • the present invention provides the following means.
  • a display unit that reproduces and displays a stereoscopic image of the subject from two parallax images acquired by photographing the subject, and a stereoscopic image displayed on the display unit is observed.
  • Auxiliary display including information on the subject, a gazing point detection unit that detects the gazing point of the observer, a parallax calculation unit that calculates parallax between the two parallax images at the gazing point detected by the gazing point detection unit And an auxiliary display creation unit that superimposes the created auxiliary display on the stereoscopic image and displays it on the display unit, and the auxiliary display creation unit is based on the parallax calculated by the parallax calculation unit, It is an image processing device that creates the auxiliary display with the same parallax as the parallax.
  • the auxiliary display created by the auxiliary display creation unit is displayed on the display unit while being superimposed on the subject. Therefore, the observer can observe the subject in the same stereoscopic image while comparing it with the auxiliary display.
  • the gazing point of the observer in the stereoscopic image displayed on the display unit is detected by the gazing point detection unit, and the parallax of the subject at the gazing point between the two parallax images is calculated by the parallax calculation unit.
  • an auxiliary display having the same parallax as that at the gazing point is created by the auxiliary display creating unit and displayed superimposed on the stereoscopic image of the subject. Accordingly, in the stereoscopic image, the auxiliary display is displayed at the same position in the depth direction as the gazing point that the observer is currently viewing. Therefore, it is a case where the subject is observed while being compared with the auxiliary display, and the eye fatigue of the observer can be reduced.
  • the gaze point detection unit detects a gaze detection unit that detects gaze of the left and right eyes of the observer, and an intersection of two gazes detected by the gaze detection unit as the gaze point. You may provide the gaze point calculation part to calculate. By doing in this way, an observer's gaze point can be detected accurately.
  • the gazing point detection unit is configured to treat an object observed by the observer from the two parallax images, for example, a treatment tool for treating a living body that is the subject, or a lesion present in the living body.
  • the region may be detected, and the detected position of the target object may be set as the gazing point. In this way, the point of gaze can be detected only by image processing, so that the apparatus configuration can be simplified.
  • the gazing point detection unit stores a reference image in which the object is photographed, and compares the reference image with the parallax image.
  • the object may be detected from a parallax image.
  • the auxiliary display creation unit may cause the auxiliary display to display the auxiliary display at a position that does not overlap the direction along the plane of the parallax image with the gazing point detected by the gazing point detection unit. Good. By doing in this way, it can prevent that an auxiliary display interferes with the field which an observer observes.
  • the auxiliary display creation unit is a candidate for a plurality of predetermined areas for displaying the auxiliary display on the display area of the stereoscopic image by the display unit May be selected, and an area having a smaller parallax than the parallax at the gazing point may be selected from the plurality of candidates, and the auxiliary display may be displayed in the selected area.
  • a candidate for which the auxiliary display is displayed in front of the subject is selected from the preset region candidates, so that the auxiliary display is displayed behind the subject. It is possible to prevent the embedding from occurring.
  • the auxiliary display creation unit assigns priorities to the plurality of candidates, and the priority order among the regions having a parallax smaller than the parallax at the gazing point. The region where is the highest may be selected. By doing in this way, an auxiliary display can be displayed on a more suitable field.
  • the auxiliary display creating unit creates a display indicating the measured value of the biological information of the living body as the subject as the auxiliary display, and according to the magnitude of the measured value of the biological information.
  • the auxiliary display is created in a normal display mode when the measured value corresponds to a low urgency level, and when the measured value corresponds to a high urgency level, the normal display mode
  • the auxiliary display may be created in a display mode that is more emphasized.
  • the auxiliary display creation unit includes the gazing point detection unit for the auxiliary display created in the highlighted display mode.
  • the display mode may be changed to the normal display mode when the gazing points detected by the above match.
  • the auxiliary display creating unit creates a local information display including information on a specific position of the subject as the auxiliary display, displays the local information display on the display unit, and obtains it by the gazing point detection unit
  • the auxiliary display may be moved in the plane direction based on the locus of the gazing point. In this way, when the field of view of the parallax image changes and the object moves in the stereoscopic image, the auxiliary display also moves following the object. Therefore, the observer can easily recognize the correspondence between the object and the auxiliary display.
  • the gazing point detection unit acquires the locus of the gazing point by storing the position of the detected gazing point with time
  • the auxiliary display creation unit is configured as the auxiliary display.
  • a local information display including information on the specific position of the subject and an arrow from the local information display to the specific position are created, and the same parallax as the parallax at the gazing point is given to the local information display and the base end of the arrow
  • the same parallax as the parallax at the specific position may be given to the tip of the arrow.
  • the local information display is displayed at a position different from the specific position in the depth direction. Even in such a situation, the observer can easily recognize the correspondence between the local information display and the specific position by the arrow extending in the depth direction.
  • a second aspect of the present invention is a stereoscopic image observation system including an imaging device that captures the subject and acquires two parallax images, and the image processing device described above.
  • an imaging device that captures the subject and obtains two parallax images, and the image processing device described above, wherein the imaging device applies the parallax image to the subject.
  • the stereoscopic image observation system detects a fluorescent region in the fluorescent image as the object. By doing in this way, a target object can be detected from the fluorescence image which is a parallax image by simple image processing.
  • FIG. 1 is an overall configuration diagram of a stereoscopic image observation system according to an embodiment of the present invention. It is the figure which looked at the stereo image reproduced by the stereo image observation system of FIG. 1 from the upper part of the display part. It is a whole block diagram of the stereo image observation system which concerns on a 1st modification. It is a whole block diagram of the stereo image observation system which concerns on a 2nd modification. It is a figure which shows the display area candidate of the auxiliary
  • a stereoscopic image observation system 100 captures a stereoscopic image of a subject from a photographing device 1 that photographs the subject and two two-dimensional images of the subject acquired by the photographing device 1. And an image processing apparatus 2 that reproduces and displays the image.
  • the imaging device 1 is, for example, an endoscope (hereinafter also referred to as an endoscope 1) that observes a tissue in a subject's body as a subject, and two objective lenses corresponding to the right eye and the left eye of the observer. (Not shown).
  • An endoscope hereinafter also referred to as an endoscope 1
  • Two two-dimensional images photographed by the photographing apparatus 1 using two objective lenses are parallax images obtained by observing the subject from different viewpoints.
  • a parallax image necessary for reproducing a stereoscopic image of the subject is formed from the pair of parallax images.
  • the imaging apparatus 1 may create a pair of parallax images using a pupil division method instead of creating a pair of parallax images using two objective lenses. That is, the photographing apparatus 1 includes a single objective lens that forms an optical image of a subject, and a pupil division such as a prism that divides the optical image of the subject imaged by the objective lens left and right around the optical axis. A pair of parallax images may be obtained by capturing two optical images divided by the pupil dividing unit.
  • the image processing device 2 receives a parallax image from the image capturing device 1 and displays the parallax image as a stereoscopic image, and a gaze detection unit that detects the gaze of the left and right eyes of an observer observing the display unit 3 ( (Gaze point detection unit) 4, gaze point calculation unit ( gaze point detection unit) 5 that calculates a gaze point at which the left and right gazes detected by the gaze detection unit 4 intersect, and the gaze point calculation unit 5
  • a parallax calculation unit 6 that calculates the parallax of the parallax image at the gazing point
  • an auxiliary display creation unit 7 that creates an auxiliary display from information about the subject and superimposes the auxiliary display on the stereoscopic image of the subject and displays it on the display unit 3. It has.
  • the line-of-sight detection unit 4 detects the positions of both the left and right eyeballs of the observer facing the display unit 3, and calculates the left and right eyes of the observer based on the detected position of the eyeballs.
  • a means for detecting the position of the eyeball for example, a camera that is provided in the display unit 3 and photographs the left and right eyeballs of the observer is used.
  • the position of the eyeball may be detected using a means other than the camera.
  • the gaze point calculation unit 5 calculates the position at which the left and right gazes of the observer detected by the gaze detection unit 4 intersect as the gaze point currently being observed by the observer.
  • the parallax calculation unit 6 calculates the parallax at the gazing point calculated by the gazing point calculation unit 5 between the left and right parallax images.
  • the auxiliary display creation unit 7 receives measurement values from the biological information measurement device 8 that measures the biological information (for example, heart rate, blood pressure, body temperature) of the subject, and creates an auxiliary display indicating the received measurement values. Then, the auxiliary display creation unit 7 creates left and right auxiliary display parallax images displaying the auxiliary display. At this time, the parallax calculation unit 6 calculates the parallax between the auxiliary display in the right auxiliary display parallax image and the auxiliary display in the left auxiliary display parallax image. Make parallax. The auxiliary display creation unit 7 outputs the created left and right auxiliary display parallax images to the display unit 3.
  • the biological information measurement device 8 measures the biological information (for example, heart rate, blood pressure, body temperature) of the subject, and creates an auxiliary display indicating the received measurement values. Then, the auxiliary display creation unit 7 creates left and right auxiliary display parallax images displaying the auxiliary display. At this time, the parallax calculation unit 6
  • the auxiliary display creation unit 7 may create a display indicating other contents in addition to the display indicating the measured value of the biological information of the subject as the auxiliary display 9.
  • the image processing device 2 uses the auxiliary display 9 as an arbitrary character string input by an observer, a grid, a scale indicating the size of the subject, an image obtained by photographing the subject from another angle by another photographing device, and diagnosis.
  • a reference image may be created and displayed on the display unit 3.
  • the display unit 3 superimposes the left and right auxiliary display parallax images received from the auxiliary display creation unit 7 on the left and right parallax images received from the imaging device 1, and constructs a stereoscopic image using the superimposed parallax images. To do.
  • the stereoscopic image observation system 100 observes a tissue in a subject's body with an endoscope 1 as an imaging device, and displays the acquired image as a stereoscopic image to an observer.
  • the endoscope 1 acquires a pair of parallax images having different viewpoints by simultaneously capturing images of tissues in the body of a subject using left and right objective lenses.
  • the acquired pair of parallax images is sequentially sent to the image processing device 2, converted into a stereoscopic image, and displayed on the display unit 3.
  • the biological information of the subject is measured by the biological information measuring device 8, and the measured value is sent to the image processing device 2.
  • the image processing device 2 creates an auxiliary display indicating the measurement value of each biological information received from the biological information measuring device 8, and displays the auxiliary display superimposed on the stereoscopic image of the tissue in the body.
  • the observer can confirm the tissue in the subject's body and the measurement value of the biological information from the same stereoscopic image.
  • the image processing apparatus 2 performs auxiliary display at a position where the parallax is the same as the parallax at the gazing point O, based on the gazing point O on the stereoscopic image currently being observed by the observer. 9 is displayed. That is, the line of sight L1 and L2 of the observer observing the stereoscopic image displayed on the display unit 3 is detected by the line of sight detection unit 4, and the observer is currently paying attention based on the detected lines of sight L1 and L2. The position of the gazing point O is calculated by the gazing point calculation unit 5.
  • the parallax image between the left and right parallax images at the gazing point O is calculated by the parallax calculation unit 6, and the auxiliary display parallax image in which the auxiliary display 9 is displayed at the same parallax as the calculated parallax is auxiliary display. It is created by the creation unit 7.
  • the display unit 3 superimposes the right auxiliary display parallax image on the right parallax image, superimposes the left auxiliary display parallax image on the left parallax image, and converts the stereoscopic image from the left and right parallax images after superimposition.
  • the auxiliary display 9 is displayed at the same position in the depth direction as the gazing point O currently being observed by the observer.
  • Symbols A and B in the figure indicate treatment tools operated by an observer
  • symbol X indicates a body tissue
  • symbol Y indicates a lesion area.
  • the gazing point O is detected from the line of sight L1 and L2 of the observer, and the auxiliary display 9 is displayed at the same position in the depth direction as the gazing point O. Therefore, the observer can observe the auxiliary display 9 by moving the lines of sight L1 and L2 from the gazing point O without changing the convergence angle. Thereby, even when the tissue X and the lesion area Y are observed while frequently viewing the auxiliary display 9, there is an advantage that fatigue to the eyes can be reduced.
  • the auxiliary display 9 may be moved following the movement of the gazing point O only when the observer's gazing point O remains at substantially the same position for a certain time. By doing in this way, the auxiliary display 9 is prevented from moving more than necessary, and the troublesomeness given to the observer is reduced.
  • the parallax calculation unit 6 stores the calculated parallax at the gazing point O over time, starts timing when the parallax changes due to the movement of the gazing point O, and moves when the predetermined time is counted
  • the parallax at the subsequent gazing point O is newly output to the auxiliary display creation unit 7.
  • the auxiliary display creation unit 7 stores the parallax received from the parallax calculation unit 6 and continues creating a parallax image for auxiliary display using the stored parallax. Then, when receiving a new parallax from the parallax calculation unit 6, the auxiliary display creation unit 7 updates the stored parallax to a new parallax, and uses the new parallax to generate a parallax image for auxiliary display. create. Thereby, when the observer's gazing point O stays at substantially the same position for a certain time, the position in the depth direction of the auxiliary display 9 displayed in the stereoscopic image is changed.
  • the parallax calculation unit 6 calculates the average value of the parallax at the gazing point O within a predetermined time window instead of measuring the time after the movement of the gazing point O, and calculates the calculated average value of the parallax. May be output to the auxiliary display creation unit 7.
  • the auxiliary display creation unit 7 By doing in this way, the follow-up of the auxiliary display 9 becomes dull for the observer's fine movement of the gazing point O, and the auxiliary display 9 is sufficiently sufficient for the movement of the observer's rough gazing point O.
  • the auxiliary display 9 is sufficiently sufficient for the movement of the observer's rough gazing point O.
  • the image processing apparatus 201 determines the treatment tools (objects) A and B in the image acquired by the imaging apparatus 1 as the gazing point O of the observer. It is configured.
  • the image processing apparatus 201 detects the treatment tools A and B operated by the observer from the parallax image and tracks the detected treatment tools A and B, as shown in FIG. Unit (gaze point detection unit) 10.
  • the treatment instrument detection unit 10 stores images of the treatment instruments A and B used by the operator as a reference image, and searches the parallax image for a region that matches or is similar to the reference image. Then, the treatment instrument detection unit 10 calculates the center of gravity of the corresponding region as the gazing point O of the observer.
  • the processing by the parallax calculation unit 6 and the auxiliary display creation unit 7 after the gazing point O is detected is as described above.
  • the apparatus configuration can be simplified as compared with the configuration in which the gazing point O is calculated by detecting the sight lines L1 and L2 of the observer.
  • the treatment instrument detection unit 10 detects the treatment instruments A and B by detecting identification substances provided in the treatment instruments A and B from the parallax images received from the endoscope 1. May be.
  • a fluorescent paint may be applied to at least a part of the treatment tools A and B, and the treatment tools A and B may be detected from a fluorescent image obtained by photographing the fluorescence emitted from the fluorescent paint.
  • the fluorescent paint is preferably excited by ultraviolet light or infrared light so that the white light image of the tissue X does not contain fluorescence.
  • the endoscope 1 irradiates the tissue X in the body in a time-division manner with white light (illumination light) for acquiring a white light image (normal image) and ultraviolet light or infrared light for acquiring a fluorescent image. By doing so, a white light image and a fluorescence image are acquired in a time-sharing manner.
  • the endoscope 1 simultaneously irradiates the tissue X in the body with white light and infrared light or ultraviolet light, separates the white light and fluorescence with a wavelength separation filter or the like, and separates the white light and fluorescence separately. By detecting, a white light image and a fluorescence image are acquired simultaneously.
  • the treatment instrument detection unit 10 receives a fluorescence image as a parallax image from the endoscope 1, extracts regions having luminance values larger than a predetermined threshold from the fluorescence image as treatment tools A and B, and centroids of the extracted regions The position is calculated as the gazing point O. Even in this case, the observer's gazing point O can be detected with sufficient accuracy while simplifying the apparatus configuration.
  • the stereoscopic image observation system 300 is configured such that the image processing apparatus 202 determines the lesion area (target object) Y in the image acquired by the imaging apparatus 1 as the gazing point O of the observer. Has been.
  • the image processing apparatus 2 extracts the lesion area Y from the parallax image received from the endoscope 1 and calculates the center of gravity of the extracted lesion area Y as the gazing point O, as shown in FIG.
  • a lesion detection unit (gaze point detection unit) 11 is provided.
  • the lesion detection unit 11 stores images obtained by photographing various lesion areas as reference images, searches for areas in the parallax image that are the same as or similar to each reference image, and uses the center of gravity of the corresponding area as a gazing point O. calculate.
  • the lesion detection unit 11 After extracting the lesion area Y, the lesion detection unit 11 tracks the lesion area Y by continuing to match the matched reference image with the lesion area Y for the extracted lesion area Y, and determines the position of the center of gravity of the lesion area Y.
  • the trajectory of the gazing point O is obtained by memorizing with time.
  • the auxiliary display creation unit 7 creates information about each lesion area Y as the auxiliary display 9, displays the auxiliary display 9 about the lesion area Y in the vicinity of the lesion area Y, and causes the lesion area in the stereoscopic image.
  • the auxiliary display 9 is made to follow the movement of Y.
  • the auxiliary display creation unit 7 receives a signal indicating that the lesion area Y has been found from the lesion detection unit 11 and causes the observer to input a character string as information regarding the lesion area Y, thereby assisting display (local display).
  • (Information display) 9 is created, and the display area of the created auxiliary display 9 is designated by the observer.
  • the input of the character string and the designation of the display area by the operator are performed using, for example, a graphical user interface (GUI) provided in the auxiliary display creation unit 7.
  • GUI graphical user interface
  • the auxiliary display creation unit 7 receives the locus of the gazing point O from the lesion detection unit 11 and moves the auxiliary display 9 along the same locus as the gazing point O. Thereby, in the stereoscopic image, the auxiliary display 9 moves while maintaining a certain positional relationship with respect to the lesion area Y.
  • the image processing apparatus 2 may output an alarm notifying that effect.
  • the auxiliary display 9 protrudes outside the display range of the display unit 3 or is displayed at a position overlapping with another lesion area Y, an alarm is displayed on the stereoscopic image.
  • the auxiliary display creation unit 7 causes the observer to respecify the display position of the auxiliary display 9 and displays it at the redesignated display position.
  • the auxiliary display creation unit 7 selects one of the area candidates 12a to 12h for displaying the auxiliary display 9, and the selected candidate The auxiliary display 9 is displayed in the areas 12a to 12h.
  • the auxiliary display creation unit 7 stores a plurality of area candidates 12a to 12h for displaying the auxiliary display 9. Since the observer usually observes the observation target region in the approximate center of the stereoscopic image, the regions serving as the candidates 12a to 12h are preferably displayed on the parallax image so as not to overlap with the observation target region of the observer. It is set in the peripheral area.
  • the auxiliary display creation unit 7 stores a plurality of candidates 12a to 12h with priorities. Then, the auxiliary display creation unit 7 first selects the candidate with the highest priority, for example, the candidate 12a, calculates the parallax between the left and right parallax images at the position of the candidate 12a, and calculates the calculated parallax and parallax. The parallax at the gazing point O calculated by the calculation unit 6 is compared. When the parallax at the position of the candidate 12a is smaller than the parallax at the gazing point O, the auxiliary display creation unit 7 displays the auxiliary display 9 in the area of the candidate 12a.
  • the auxiliary display creation unit 7 selects the next point candidate, for example, the candidate 12b, and the next point candidate 12b is similarly selected.
  • the parallax at the position and the parallax at the gazing point O are compared.
  • the auxiliary display creation unit 7 repeats the same process until a candidate is found such that the parallax at the candidate position is equal to or smaller than the parallax at the gazing point O.
  • candidates 12a to 12h for which the auxiliary display 9 is displayed in front of the organization X are determined.
  • the auxiliary display 9 is displayed in front of the tissue X as shown in FIG. Thereby, it is possible to prevent so-called embedding (see a broken line in the figure) in which the auxiliary display 9 is displayed behind the tissue X in the stereoscopic image.
  • the auxiliary display creating unit 7 is configured such that a candidate for displaying the auxiliary display 9 among the plurality of candidates 12a to 12h is designated by an observer using means such as a GUI. Good.
  • the observer selects a candidate in which no embedding occurs from the shape of the tissue X in the stereoscopic image.
  • the auxiliary display creation unit 7 stores a predetermined area (for example, a peripheral part or a lower part of a parallax image) for displaying the auxiliary display 9 instead of the plurality of candidates 12a to 12h.
  • a predetermined area for example, a peripheral part or a lower part of a parallax image
  • the auxiliary display 9 may be displayed at the selected position. Even in this case, embedding of the auxiliary display 9 can be prevented as in the case of selecting one from the plurality of candidates 12a to 12h.
  • a predetermined region for displaying the auxiliary display 9 is set, and the display unit 3 displays the tissue X so that the tissue X is displayed on the back side of the auxiliary display 9 in the predetermined region.
  • the auxiliary display 9 may be prevented from being embedded by editing a part of the stereoscopic image.
  • the display unit 3 stores a predetermined area in which the auxiliary display 9 is displayed, and when the parallax in the area is larger than the parallax in the gazing point O, an area that matches the predetermined area in the parallax image Is given the same parallax as that at the gazing point O. Thereby, a part of the stereoscopic image is flattened as shown in FIG.
  • the auxiliary display creation unit 7 sets a plurality of urgency levels for each piece of biological information depending on the magnitude of the value, and changes the display mode according to the urgency level. It is configured.
  • the auxiliary display creating unit 7 creates the auxiliary display 9 in a normal display mode when the measured value received from the biological information measuring device 8 corresponds to a low urgency level.
  • the auxiliary display creation unit 7 creates the auxiliary display 9 in a display mode that is emphasized more than the normal display mode.
  • the highlighted display mode for example, color change, enlarged display, blinking, rotation or vibration is used.
  • the urgency level can be set at an arbitrary stage.
  • the auxiliary display 9 of the biological information is displayed. It is displayed with emphasis in the stereoscopic image. Accordingly, there is an advantage that the observer can recognize the abnormality of the subject, which is important information for the observer, quickly and reliably.
  • the auxiliary display creation unit 7 may be configured to return the highlighted display mode to the normal display mode after confirming that the observer has focused on the highlighted information display. That is, the auxiliary display creation unit 7 receives the position of the gazing point O calculated from the gazing point calculation unit 5, and when the position of the gazing point O matches the display area of the auxiliary display 9, The display 9 is returned to the normal display mode. By doing in this way, even if an observer confirms a test subject's abnormality, it can prevent giving an annoyance to an observer by continuing to highlight the auxiliary
  • the auxiliary display creation unit 7 sets the auxiliary display 9 to the observer's gaze point O when the measured value of the biological information received from the biological information measuring device 8 corresponds to a high degree of urgency. It may be configured to follow and move. That is, the auxiliary display creation unit 7 displays the auxiliary display 9 in a predetermined display area when the measurement value received from the biological information measuring device 8 corresponds to a low degree of urgency. Then, when the urgency of the measurement value received from the biological information measuring device 8 becomes high, the auxiliary display creation unit 7 receives the position of the gazing point O calculated from the gazing point calculation unit 5, and the gazing point O An auxiliary display 9 is displayed in the vicinity of the position.
  • the auxiliary display 9 moves from the peripheral portion of the stereoscopic image to the central portion of the stereoscopic image that the observer is paying attention to. Then, the auxiliary display creation unit 7 calculates the amount of movement of the gazing point O and gives the calculated amount of movement also to the auxiliary display 9 so that the auxiliary display 9 follows the movement of the gazing point O.
  • the auxiliary display 9 including information important to the observer can be forcibly interrupted in the area where the observer is gazing, so that the auxiliary display 9 can be surely recognized by the observer. .
  • the tracking of the auxiliary display 9 with respect to the gazing point O may be ended after a predetermined time has elapsed, or may be ended after confirming that the observer has observed the auxiliary display 9 as described above.
  • the auxiliary display 9 may be returned to the normal display area or may be lost.
  • the auxiliary display 9 disappears, the auxiliary display 9 may be gradually disappeared in order to make the observer recognize the auxiliary display 9 more strongly.
  • the auxiliary display creation unit 7 includes, as the auxiliary display 9, local information display regarding a specific position of the tissue X, and an arrow indicating the specific position indicated by the local information display. Is configured to create.
  • the auxiliary display creation unit 7 uses the character string (local information display) regarding the lesion area Y and an arrow indicating the lesion area Y as the auxiliary display 9. It is designed to create.
  • the auxiliary display creation unit 7 includes a character string 9a “tumor” and an arrow 9b indicating the position of the tumor Y indicated by the character string 9a, as shown in FIG. 9A.
  • Create The character string 9a is input by an observer using a keyboard, for example.
  • the positions in the plane direction of the start point (base end of the arrow 9b) and the end point (tip end of the arrow 9b) of the arrow 9b are specified by the observer using the GUI provided in the auxiliary display creation unit 7, for example.
  • the auxiliary display creation unit 7 gives the same parallax as the character string 9a to the start point of the arrow 9b, and gives the same parallax to the tumor Y as the specific position to the end point of the arrow 9b. Then, as shown in FIG. 9B, the auxiliary display creation unit 7 creates an arrow 9 b in which the parallax gradually changes from the start point to the end point.
  • the character string 9a When the observer is paying attention to the tumor Y, since the character string 9a is displayed at the same position in the depth direction as the tumor Y in the stereoscopic image, it is easy for the character string 9a to correspond to the tumor Y. Can be recognized. However, when the observer is paying attention to a position other than the tumor Y, the character string 9a may be displayed at a position in the depth direction different from the tumor Y, and the character string 9a corresponds to the tumor Y. It becomes difficult to recognize. In particular, when there are a plurality of character strings 9a in the stereoscopic image, it is difficult to grasp the correspondence between the character string 9a and the specific position at a glance.
  • the observer can display the arrow 9b extending in the depth direction from the character string 9a toward the specific position, so that the observer can correspond to any specific position of the character string 9a. You can easily recognize whether you are doing.
  • the auxiliary display creation unit 7 may be configured to set the start point and the end point of the arrow 9b.
  • special light observation by the endoscope 1 may be used.
  • the image processing apparatus 2 includes a lesion extraction unit (not shown) that receives a special light image from the endoscope 1 and extracts a lesion region from the special light image.
  • the endoscope 1 has a normal mode for acquiring a white light image of the tissue X in the body and a special mode for acquiring a special light image of the tissue X in the body, and a switch (not shown) is switched by an observer.
  • the mode is switched between the normal mode and the special mode.
  • the special light image is, for example, a fluorescent image, a narrow band light image, or an infrared light image. In these special light images, the lesion area is observed as a luminance value or hue different from the peripheral part.
  • the lesion extraction unit extracts a region having a high luminance value with respect to the peripheral portion or a region having a hue different from that of the peripheral portion as a lesion region. Then, the auxiliary display creation unit 7 sets the start point of the arrow 9b to the end of the region where the character string 9a is displayed, and sets the end point of the arrow 9b to the center of the lesion region extracted by the lesion extraction unit. .
  • the observer confirms the presence or absence of a lesion area in a special mode.
  • the lesion area is extracted by the lesion extraction unit, the arrow 9b indicating the lesion area is created by the auxiliary display creation unit 7, and the arrow 9b is displayed on the stereoscopic image.
  • the arrow 9b continues to be displayed in the stereoscopic image of the white light image even after the observer switches to the normal mode.
  • the auxiliary display creation unit 7 may switch between display and non-display of the auxiliary display 9 according to the observer's gazing point O.
  • the auxiliary display creation unit 7 receives the position of the gazing point O calculated from the gazing point calculation unit 5, and when the position of the gazing point O matches the position of the lesion area Y, the lesion The character string 9a and the arrow 9b relating to the area Y are displayed on the parallax image for auxiliary display.
  • the character string 9a and the arrow 9b related to the lesion area Y are deleted from the parallax image for auxiliary display.
  • the auxiliary display 9 related to the specific position is displayed on the stereoscopic image, and the auxiliary display 9 that the current observer does not need is the stereoscopic image. Will disappear. This can prevent the stereoscopic image from becoming unnecessarily complicated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

立体画像において被写体と該被写体に重畳された補助表示とを見比べながら観察する場合に観察者の眼の疲労を低減する。被写体の2つの視差画像から立体画像を再現して表示する表示部(3)と、立体画像を観察する観察者の注視点を検出する注視点検出部(4,5)と、検出された注視点における2つの視差画像間の視差を計算する視差計算部(6)と、視差計算部(6)によって算出された視差と同一の視差を与えた補助表示を作成し、作成された補助表示を立体画像に重畳して表示部(3)に表示させる補助表示作成部(7)とを備える画像処理装置(2)を提供する。

Description

画像処理装置および立体画像観察システム
 本発明は、画像処理装置および立体画像観察システムに関するものである。
 従来、左右両眼に対応する2つの視点から被写体を撮影した一対の視差画像を用いて観察者に被写体の立体画像を視認させる装置が知られている(例えば、特許文献1参照。)。特許文献1の装置は、立体画像に対して観察者が追加した文字、図形、記号などの描画物を、立体画像内の被写体と同一の奥行き方向の位置に重畳表示させる機能を備えている。
特開2011-180779号公報
 観察者は、立体画像内において奥行き方向に異なる位置の間で注視点を移動させるときに、左右両眼の視線がなす輻輳角を変化させる必要がある。この輻輳角の調節は、観察者の眼に疲労を与える。特許文献1の場合、描画物と被写体との間で注視点を移動させる度に輻輳角の変化が生じる。したがって、特許文献1の装置は、描画物のような補助表示と被写体との間で注視点を頻繁に往復させてこれらを見比べながら被写体を観察する用途には不向きである。
 本発明は、上述した事情に鑑みてなされたものであって、被写体と該被写体に重畳された補助表示の立体画像において、被写体を補助表示と見比べながら観察する場合であっても観察者の眼の疲労を低減することができる画像処理装置および立体画像観察システムを提供することを目的とする。
 上記目的を達成するため、本発明は以下の手段を提供する。
 本発明の第1の態様は、被写体を撮影して取得された2つの視差画像から前記被写体の立体画像を再現して表示する表示部と、該表示部に表示されている立体画像を観察する観察者の注視点を検出する注視点検出部と、該注視点検出部によって検出された注視点における前記2つの視差画像間の視差を計算する視差計算部と、前記被写体に関する情報を含む補助表示を作成し、作成された補助表示を前記立体画像に重畳して前記表示部に表示させる補助表示作成部とを備え、該補助表示作成部が、前記視差計算部によって算出された視差に基づき、該視差と同一の視差を与えた前記補助表示を作成する画像処理装置である。
 本発明の第1の態様によれば、補助表示作成部によって作成された補助表示が、被写体に重畳された状態で表示部に表示される。したがって、観察者は同一の立体画像内において被写体を補助表示と見比べながら観察することができる。
 この場合に、表示部に表示されている立体画像における観察者の注視点が注視点検出部によって検出され、2つの視差画像間の注視点における被写体の視差が視差計算部によって計算される。そして、注視点における視差と同一の視差を有する補助表示が補助表示作成部によって作成されて、被写体の立体画像に重畳して表示される。これにより、立体画像において、補助表示は、観察者が現在見ている注視点と同一の奥行き方向の位置に表示されることとなる。したがって、被写体を補助表示と見比べながら観察する場合であって観察者の眼の疲労を低減することができる。
 上記第1の態様においては、前記注視点検出部が、前記観察者の左右両眼の視線を検出する視線検出部と、該視線検出部によって検出された2つの視線の交点を前記注視点として計算する注視点計算部とを備えていてもよい。
 このようにすることで、観察者の注視点を精度よく検出することができる。
 上記第1の態様においては、前記注視点検出部は、前記2つの視差画像から前記観察者が観察する対象物、例えば、前記被写体である生体を処置する処置具、または、生体に存在する病変領域を検出し、検出された対象物の位置を注視点としてもよい。
 このようにすることで、画像処理のみで注視点を検出することができるので、装置構成を簡素にすることができる。
 上記観察対象物の位置を注視点として検出する構成においては、前記注視点検出部は、前記対象物が撮影された参照画像を記憶し、該参照画像と前記視差画像とを比較することによって前記視差画像から前記対象物を検出してもよい。
 このようにすることで、簡易な画像処理で視差画像内から対象物を検出することができる。
 上記第1の態様においては、前記補助表示作成部が、前記補助表示を、前記注視点検出部によって検出された注視点とは前記視差画像の平面に沿う方向に重ならない位置に表示させてもよい。
 このようにすることで、観察者が観察している領域に補助表示が干渉することを防止することができる。
 上記補助表示を注視点と重ならない位置に表示させる構成においては、前記補助表示作成部は、前記表示部による前記立体画像の表示領域に対して前記補助表示を表示させる複数の所定の領域が候補として設定され、該複数の候補のうち前記注視点における前記視差よりも小さい視差を有する領域を選択し、選択された領域に前記補助表示を表示させてもよい。
 このようにすることで、予め設定された領域の候補のうち、補助表示が被写体よりも手前に表示されるような候補が選択されるので、補助表示が被写体よりも奥に表示される、いわゆる埋め込みが発生することを防止することができる。
 上記複数の候補が設定されている構成においては、前記補助表示作成部は、前記複数の候補に優先順位が付されており、前記注視点における前記視差よりも小さい視差を有する領域のうち優先順位が最高位である領域を選択してもよい。
 このようにすることで、補助表示をさらに好適な領域に表示させることができる。
 上記第1の態様においては、前記補助表示作成部は、前記補助表示として前記被写体である生体の生体情報の測定値を示す表示を作成するとともに、前記生体情報の測定値の大きさに応じて少なくとも2つの緊急度を設定し、前記測定値が低い緊急度に該当する場合は通常の表示態様で前記補助表示を作成し、前記測定値が高い緊急度に該当する場合は前記通常の表示態様よりも強調された表示態様で前記補助表示を作成してもよい。
 このようにすることで、観察者にとって重要な情報である生体情報の測定値の異常を、観察者にさらに確実に認識させることができる。
 上記生体情報の測定値の緊急度に応じて表示態様を変更する構成においては、前記補助表示作成部は、前記強調された表示態様で作成した補助表示について、該補助表示に前記注視点検出部によって検出された注視点が一致した場合に、表示態様を前記通常の表示態様に変更してもよい。
 このようにすることで、緊急度が高いことを観察者が補助表示において確認した後も強調された表示が続くことによって観察者に煩わしさを与えることを防止することができる。
 上記第1の態様においては、前記補助表示作成部は、前記補助表示として前記被写体の特定位置に関する情報を含む局所情報表示を作成して前記表示部に表示させるとともに、前記注視点検出部によって取得された前記注視点の軌跡に基づいて前記補助表示を平面方向に移動させてもよい。
 このようにすることで、視差画像の視野が変化して立体画像内において対象物が移動したときに補助表示も対象物に追従して移動する。したがって、対象物と補助表示との対応関係を観察者に容易に認識させることができる。
 上記第1の態様においては、前記注視点検出部が、検出した注視点の位置を経時的に記憶することによって前記注視点の軌跡を取得し、前記補助表示作成部は、前記補助表示として、前記被写体の特定位置に関する情報を含む局所情報表示および該局所情報表示から前記特定位置へ向かう矢印を作成し、前記局所情報表示および前記矢印の基端に前記注視点における視差と同一の視差を与え、前記矢印の先端に前記特定位置における視差と同一の視差を与えてもよい。
 このようにすることで、観察者が特定位置とは奥行き方向に異なる位置を観察しているときには、局所情報表示が特定位置とは奥行き方向に異なる位置に表示されることとなる。このような状況においても、奥行き方向にも延びる矢印によって局所情報表示と特定位置との対応関係を容易に観察者に認識させることができる。
 本発明の第2の態様は、前記被写体を撮影して2つの視差画像を取得する撮影装置と、上記いずれかに記載の画像処理装置とを備える立体画像観察システムである。
 本発明の第3の態様は、前記被写体を撮影して2つの視差画像を取得する撮影装置と、上記に記載の画像処理装置とを備え、前記撮影装置が、前記視差画像として、前記被写体に照明光を照射して撮影した通常画像と、前記被写体に励起光を照射して前記対象物に設けられた蛍光体からの蛍光を撮影した蛍光画像とを取得し、前記注視点検出部が、前記蛍光画像内の蛍光領域を前記対象物として検出する立体画像観察システムである。
 このようにすることで、簡易な画像処理によって、視差画像である蛍光画像内から対象物を検出することができる。
 本発明によれば、被写体と該被写体に重畳された補助表示の立体画像において、被写体を補助表示と見比べながら観察する場合であっても観察者の眼の疲労を低減することができるという効果を奏する。
本発明の一実施形態に係る立体画像観察システムの全体構成図である。 図1の立体画像観察システムによって再現された立体画像を表示部の上方から見た図である。 第1の変形例に係る立体画像観察システムの全体構成図である。 第2の変形例に係る立体画像観察システムの全体構成図である。 第3の変形例に係る立体画像観察システムによる補助表示の表示領域の候補を示す図である。 第3の変形例に係る立体画像観察システムによって再現された立体画像を表示部の上方から見た図である。 第3の変形例に係る立体画像観察システムによって再現されたもう1つの立体画像を表示部の上方から見た図である。 第4の変形例に係る立体画像観察システムによって再現された立体画像を表示部の上方から見た図である。 第5の変形例に係る立体画像観察システムによって再現された立体画像を表示部の正面から見た図である。 第5の変形例に係る立体画像観察システムによって再現された立体画像を表示部の上方から見た図である。
 以下に、本発明の一実施形態に係る立体画像観察システム100について図面を参照して説明する。
 本実施形態に係る立体画像観察システム100は、図1に示されるように、被写体を撮影する撮影装置1と、該撮影装置1によって取得された被写体の2つの2次元画像から被写体の立体画像を再現して表示する画像処理装置2とを備えている。
 撮影装置1は、例えば、被写体として被験者の体内の組織を観察する内視鏡(以下、内視鏡1ともいう。)であり、観察者の右眼と左眼とに対応した2つの対物レンズ(図示略)を有している。撮影装置1によって2つの対物レンズを用いて撮影された2つの2次元画像は、被写体を異なる視点から観察した視差画像である。これら一対の視差画像から被写体の立体画像の再現に必要な視差画像が構成される。
 なお、撮影装置1は、2つの対物レンズを用いて一対の視差画像を作成すること代えて、瞳分割方式を用いて一対の視差画像を作成してもよい。すなわち、撮影装置1は、被写体の光学像を結像する単一の対物レンズと、該対物レンズによって結像された被写体の光学像を光軸を中心にして左右に分割するプリズムなどの瞳分割部とを備え、該瞳分割部によって分割された2つの光学像をそれぞれ撮影することによって、一対の視差画像を取得してもよい。
 画像処理装置2は、撮影装置1から視差画像を受け取り該視差画像を立体画像として表示する表示部3と、該表示部3を観察する観察者の左右両眼の視線を検出する視線検出部(注視点検出部)4と、該視線検出部4によって検出された左右の視線が交差する注視点を計算する注視点計算部(注視点検出部)5と、該注視点計算部5によって検出された注視点における視差画像の視差を計算する視差計算部6と、被写体に関する情報から補助表示を作成し該補助表示を被写体の立体画像に重畳させて表示部3に表示させる補助表示作成部7とを備えている。
 視線検出部4は、表示部3と正対している観察者の左右両方の眼球の位置を検出し、検出された眼球の位置に基づいて観察者の左右の視線を算出する。眼球の位置を検出する手段としては、例えば、表示部3に設けられ観察者の左右の眼球を撮影するカメラが用いられる。カメラ以外の他の手段を用いて眼球の位置を検出してもよい。
 注視点計算部5は、視線検出部4によって検出された観察者の左右の視線が交差する位置を、現在観察者が注目している注視点として計算する。
 視差計算部6は、左右の視差画像間の、注視点計算部5によって算出された注視点における視差を計算する。
 補助表示作成部7は、被験者の生体情報(例えば、心拍数、血圧、体温)を測定する生体情報測定装置8から測定値を受け取り、受け取った測定値を示す補助表示を作成する。そして、補助表示作成部7は、補助表示を表示した左右の補助表示用の視差画像を作成する。このときに、補助表示作成部7は、右の補助表示用の視差画像における補助表示と、左の補助表示用の視差画像における補助表示との間の視差が、視差計算部6によって算出された視差となるようにする。補助表示作成部7は、作成した左右の補助表示用の視差画像を表示部3に出力する。
 なお、補助表示作成部7は、補助表示9として、被検者の生体情報の測定値を示す表示の他に、他の内容を示す表示を作成してよい。例えば、画像処理装置2は、補助表示9として、観察者によって入力される任意の文字列や、グリッド、被写体の寸法を示すスケール、他の撮影装置によって別の角度から被写体を撮影した画像、診断の参考となる画像などを作成して表示部3に表示させてもよい。
 表示部3は、撮影装置1から受け取った左右の視差画像に、補助表示作成部7から受け取った左右の補助表示用の視差画像をそれぞれ重畳し、重畳された視差画像を用いて立体画像を構築する。
 次に、このように構成された立体画像観察システム100の作用について説明する。
 本実施形態に係る立体画像観察システム100は、撮影装置としての内視鏡1によって被験者の体内の組織を観察し、取得された画像を立体画像として観察者に対して表示するものである。
 まず、内視鏡1は、左右の対物レンズを用いて被験者の体内の組織を同時に撮影することによって、視点の異なる一対の視差画像を取得する。取得された一対の視差画像は画像処理装置2に逐次送られ、立体画像に変換されて表示部3に表示される。
 一方、被験者の生体情報が生体情報測定装置8によって測定され、その測定値が画像処理装置2に送られる。画像処理装置2は、生体情報測定装置8から受け取った各生体情報の測定値を示す補助表示を作成し、当該補助表示を体内の組織の立体画像に重畳して表示する。これにより、観察者は、被験者の体内の組織と生体情報の測定値とを同一の立体画像から確認することができる。
 ここで、画像処理装置2は、図2に示されるように、現在観察者が注目している立体画像上の注視点Oに基づき、注視点Oにおける視差と同一の視差となる位置に補助表示9を表示させる。すなわち、表示部3に表示されている立体画像を観察している観察者の視線L1,L2が視線検出部4によって検出され、検出された視線L1,L2に基づいて観察者が現在注目している注視点Oの位置が注視点計算部5によって計算される。そして、注視点Oにおける左右の視差画像間の視差が視差計算部6によって計算され、算出された視差と同一の視差となる位置に補助表示9が表示された補助表示用の視差画像が補助表示作成部7によって作成される。
 表示部3は、右の視差画像に右の補助表示用の視差画像を重畳し、左の視差画像に左の補助表示用の視差画像を重畳し、重畳後の左右の視差画像から立体画像を構築する。これにより、補助表示9は、現在観察者が注目している注視点Oと同じ奥行き方向の位置に表示されることとなる。図中の符号A,Bは、観察者によって操作される処置具を示し、符号Xは体内の組織を示し、符号Yは病変領域を示している。
 このように、本実施形態によれば、観察者の視線L1,L2から注視点Oが検出され、その注視点Oと同じ奥行き方向の位置に補助表示9が表示される。したがって、観察者は、注視点Oから、輻輳角を変化させることなく、視線L1,L2を移動させて補助表示9を観察することができる。これにより、補助表示9を頻繁に視認しながら組織Xや病変領域Yを観察する場合であっても、眼への疲労を低減することができるという利点がある。
 ここで、観察者の視線L1,L2の細かな移動に対して補助表示9が逐次追従して奥行き方向に移動すると、この補助表示9の頻繁な移動が観察者に煩わしさを与え得る。そこで、観察者の注視点Oが一定時間にわたって略同一の位置に留まったときのみ、補助表示9を注視点Oの移動に追従して移動させてもよい。このようにすることで、補助表示9が必要以上に移動することを防ぎ、観察者に与える煩わしさが低減される。
 すなわち、視差計算部6は、計算した注視点Oにおける視差を経時的に記憶し、注視点Oの移動によって視差が変化したときに計時を開始し、所定の時間が計時された場合に、移動後の注視点Oにおける視差を補助表示作成部7に新たに出力する。補助表示作成部7は、視差計算部6から受け取った視差を記憶し、記憶されている視差を用いて補助表示用の視差画像の作成を続ける。そして、補助表示作成部7は、視差計算部6から新たな視差を受け取った場合に、記憶している視差を新たな視差に更新し、当該新たな視差を用いて補助表示用の視差画像を作成する。これにより、観察者の注視点Oが一定時間にわたって略同一の位置に留まったときに、立体画像に表示される補助表示9の奥行き方向の位置が変更されるようになっている。
 なお、視差計算部6は、注視点Oの移動後の時間を計測することに代えて、注視点Oにおける視差の、所定の時間窓内の平均値を計算し、算出された視差の平均値を補助表示作成部7に出力してもよい。
 このようにすることで、観察者の細かな注視点Oの移動に対しては補助表示9の追従が鈍くなり、観察者の大まかな注視点Oの移動に対しては補助表示9が十分に敏感に追従する。このようにしても、補助表示9が必要以上に移動することを防ぎ、観察者に与える煩わしさを解消することができる。
 次に、上述した立体画像観察システム100の変形例について説明する。
(第1の変形例)
 第1の変形例に係る立体画像観察システム200は、画像処理装置201が、撮影装置1によって取得される画像内の処置具(対象物)A,Bを観察者の注視点Oとして決定するように構成されている。
 本変形例において画像処理装置201は、図3に示されるように、観察者によって操作される処置具A,Bを視差画像内から検出し、検出した処置具A,Bを追跡する処置具検出部(注視点検出部)10を備えている。処置具検出部10は、操作者によって使用される処置具A,Bの画像を参照画像として記憶しており、参照画像と一致または類似する領域を視差画像内から検索する。そして、処置具検出部10は、該当した領域の重心を観察者の注視点Oとして計算する。注視点Oが検出された後の視差計算部6および補助表示作成部7による処理は、上述した通りである。
 このように構成された本変形例に係る立体画像観察システム200によれば、操作者は、処置具A,Bを用いて病変領域Yを処置する際に、処置具A,Bまたは処置具A,B近傍を注視する。したがって、処置具A,Bを注視点Oとして検出することによっても、観察者の注視点Oを十分な精度で検出することができる。また、画像処理のみで注視点Oが検出されるので、観察者の視線L1,L2を検出して注視点Oを計算する構成と比べて、装置構成を簡素にすることができる。
 本変形例において、処置具検出部10は、内視鏡1から受け取った視差画像から、処置具A,Bに設けられた識別用の物質を検出することによって、処置具A,Bを検出してもよい。
 例えば、処置具A,Bの少なくとも一部に蛍光塗料が塗布されており、該蛍光塗料から発せられた蛍光を撮影した蛍光画像から処置具A,Bを検出してもよい。蛍光塗料としては、組織Xの白色光画像に蛍光が含まれないようにするため、紫外光または赤外光によって励起されるものが好ましい。
 内視鏡1は、白色光画像(通常画像)を取得するための白色光(照明光)と、蛍光画像を取得するための紫外光または赤外光とを時分割で体内の組織Xに照射することによって、白色光画像と蛍光画像とを時分割で取得する。または、内視鏡1は、白色光と赤外光または紫外光とを同時に体内の組織Xに照射し、白色光と蛍光とを波長分離フィルタなどによって分離し、白色光と蛍光とを別々に検出することによって、白色光画像と蛍光画像とを同時に取得する。
 処置具検出部10は、内視鏡1から視差画像としての蛍光画像を受け取り、蛍光画像から所定の閾値よりも大きな輝度値を有する領域を処置具A,Bとして抽出し、抽出した領域の重心位置を注視点Oとして計算する。
 このようにしても、装置構成を簡素にしつつ観察者の注視点Oを十分な精度で検出することができる。
(第2の変形例)
 第2の変形例に係る立体画像観察システム300は、画像処理装置202が、撮影装置1によって取得される画像内の病変領域(対象物)Yを観察者の注視点Oとして決定するように構成されている。
 本変形例において、画像処理装置2は、図4に示されるように、内視鏡1から受け取った視差画像から病変領域Yを抽出し、抽出した病変領域Yの重心を注視点Oとして計算する病変検出部(注視点検出部)11を備えている。病変検出部11は、各種の病変領域を撮影した画像を参照画像として記憶しており、視差画像内において各参照画像と一致または類似する領域を検索し、該当した領域の重心を注視点Oとして計算する。
 病変検出部11は、病変領域Yを抽出した後、抽出した病変領域Yについて、合致した参照画像と病変領域Yとのマッチングを続けることによって病変領域Yを追跡し、病変領域Yの重心位置を経時的に記憶することによって注視点Oの軌跡を得る。
 本変形例において補助表示作成部7は、補助表示9として各病変領域Yに関する情報を作成し、当該病変領域Yに関する補助表示9をその病変領域Yの近傍に表示させ、立体画像内において病変領域Yの移動に補助表示9を追従させるようになっている。
 すなわち、補助表示作成部7は、病変検出部11から病変領域Yが発見されたことを示す信号を受け取り、当該病変領域Yに関する情報としての文字列を観察者に入力させることによって補助表示(局所情報表示)9を作成し、また、作成した補助表示9の表示領域を観察者に指定させる。操作者による文字列の入力や表示領域の指定は、例えば、補助表示作成部7が備えるグラフィカルユーザインタフェイス(GUI)を用いて行われる。そして、補助表示作成部7は、病変検出部11から注視点Oの軌跡を受け取り、補助表示9を注視点Oと同様の軌跡に沿って移動させる。これにより、立体画像において補助表示9は、病変領域Yに対して一定の位置関係を保ちながら移動する。
 このように構成された本変形例に係る立体画像観察システム300によれば、操作者は、立体画像に病変領域Yが存在する場合に病変領域Yを注視する。したがって、病変領域Yを注視点Oとして検出することによっても、観察者の注視点Oを十分な精度で検出することができる。また、画像処理のみで注視点Oが検出されるので、観察者の視線L1,L2を検出して注視点Oを計算する構成と比べて、装置構成を簡素にすることができる。また、内視鏡1を体内で移動させて視野が変化したときに、その視野の移動に合わせて補助表示9も対応する病変領域Yと共に移動する。したがって、観察者は、補助表示9と病変領域Yとの対応関係を容易に認識することができる。
 本変形例において、画像処理装置2は、補助表示9を移動した結果、不適切な位置に補助表示9が表示された場合には、その旨を知らせる警報を出力してもよい。例えば、補助表示9が、表示部3の表示範囲の外側にはみ出した場合や、他の病変領域Yと重なる位置に表示された場合に、立体画像に警報を表示する。警報を出力した後、補助表示作成部7は、当該補助表示9について、表示位置を観察者に再指定させ、再指定された表示位置に表示する。
(第3の変形例)
 第3の変形例に係る立体画像観察システムは、補助表示作成部7が、図5に示されるように、補助表示9を表示させる領域の候補12a~12hから1つを選択し、選択した候補12a~12hの領域に補助表示9を表示させるように構成されている。
 本変形例において補助表示作成部7は、補助表示9を表示させる領域の候補12a~12hを複数記憶している。観察者は通常、観察対象の領域を立体画像の略中央に配して観察するので、候補12a~12hとなる領域は、好ましくは、観察者の観察対象の領域と重ならないように視差画像の周辺部の領域に設定されている。
 補助表示作成部7は、複数の候補12a~12hに優先順位を付して記憶している。そして、補助表示作成部7は、最初に、優先順位が最も高い候補、例えば、候補12aを選択し、該候補12aの位置における左右の視差画像間の視差を計算し、計算された視差と視差計算部6によって計算された注視点Oにおける視差とを比較する。そして、候補12aの位置における視差が注視点Oにおける視差よりも小さい場合には、補助表示作成部7は、当該候補12aの領域に補助表示9を表示させる。
 一方、候補12aの位置における視差が注視点Oにおける視差よりも大きい場合には、補助表示作成部7は、次点の候補、例えば、候補12bを選択し、同様にして次点の候補12bの位置における視差と注視点Oにおける視差とを比較する。以下、候補の位置における視差が注視点Oにおける視差以下となるような候補が見つかるまで、補助表示作成部7は同じ処理を繰り返す。これにより、組織Xよりも手前に補助表示9が表示されるような候補12a~12hが決定される。
 このように構成された本変形例に係る立体画像観察システムによれば、補助表示9は、図6に示されるように、組織Xよりも手前に表示されることとなる。これにより、立体画像において補助表示9が組織Xよりも奥に表示される、いわゆる埋め込み(同図中の破線を参照。)が発生することを防止することができる。
 本変形例においては、補助表示作成部7は、複数の候補12a~12hのうち補助表示9を表示させる候補が、GUIなどの手段を用いて観察者によって指定されるように構成されていてもよい。この場合、観察者が、立体画像内の組織Xの形状から埋め込みの発生しない候補を選定する。
 また、本変形例においては、補助表示作成部7が、複数の候補12a~12hに代えて、補助表示9を表示する所定の領域(例えば、視差画像の周辺部または下部など)を記憶し、記憶している領域のうち、注視点Oにおける視差よりも視差が小さくなる位置を選定し、選定した位置に補助表示9を表示させることとしてもよい。このようにしても、複数の候補12a~12hから1つを選択する場合と同様に、補助表示9の埋め込みを防止することができる。
 また、本変形例においては、補助表示9を表示する所定の領域が設定されており、表示部3が、所定の領域において組織Xが補助表示9よりも奥側に表示されるように組織Xの立体画像の一部を編集することによって、補助表示9の埋め込みを防止してもよい。
 この場合、表示部3は、補助表示9を表示する所定の領域を記憶しており、当該領域における視差が注視点Oにおける視差よりも大きい場合に、視差画像内の所定の領域と一致する領域に注視点Oにおける視差と同一の視差を与える。これにより、立体画像の一部分は、図7に示されるように、平坦化されることとなる。
(第4の変形例)
 第4の変形例に係る立体画像観察システムは、補助表示作成部7が、各生体情報について、その値の大きさよって複数の緊急度が設定され、緊急度に応じて表示態様を変えるように構成されている。
 本変形例において、補助表示作成部7は、生体情報測定装置8から受け取った測定値が低い緊急度に該当する場合は通常の表示態様で補助表示9を作成する。一方、補助表示作成部7は、生体情報測定装置8から受け取った測定値が高い緊急度に該当する場合は、通常の表示態様よりも強調された表示態様で補助表示9を作成する。強調された表示態様としては、例えば、色の変更、拡大表示、点滅、回転または振動などが用いられる。また、緊急度は、任意の段階に設定可能である。
 このように構成された本変形例に係る立体画像観察システムによれば、心拍や血圧などの生体情報に異常が発生して緊急度が高くなった場合に、それらの生体情報の補助表示9が立体画像において強調して表示される。これにより、観察者にとって重要な情報である被験者の異常を迅速にかつ確実に観察者に認識させることができるという利点がある。
 本変形例においては、補助表示作成部7は、観察者が強調された情報表示を注視したことを確認して強調された表示態様を通常の表示態様に戻すように構成されていてもよい。すなわち、補助表示作成部7は、注視点計算部5から算出された注視点Oの位置を受け取り、該注視点Oの位置が補助表示9の表示領域と一致している場合には、当該補助表示9を通常の表示態様に戻す。このようにすることで、観察者が被験者の異常を確認した後も補助表示9が不要に強調表示され続けることによって観察者に煩わしさを与えることを防ぐことができる。
 また、本変形例においては、補助表示作成部7は、生体情報測定装置8から受け取った生体情報の測定値が高い緊急度に該当する場合に、その補助表示9を観察者の注視点Oに追従して移動させるように構成されていてもよい。
 すなわち、補助表示作成部7は、生体情報測定装置8から受け取った測定値が低い緊急度に該当する場合には、所定の表示領域に補助表示9を表示する。そして、生体情報測定装置8から受け取った測定値の緊急度が高くなった場合に、補助表示作成部7は、注視点計算部5から算出された注視点Oの位置を受け取り、該注視点Oの位置の近傍に補助表示9を表示させる。
 これにより、補助表示9は、図8に示されるように、例えば、立体画像の周辺部から、観察者が注目している立体画像の中心部へ移動する。そして、補助表示作成部7は、注視点Oの移動量を計算し、算出された移動量を補助表示9にも与えることによって、注視点Oの移動に補助表示9を追従させる。
 このように、観察者にとって重要な情報を含む補助表示9を、観察者が注視している領域に強制的に割り込ませることによっても、当該補助表示9を観察者に確実に認識させることができる。
 注視点Oに対する補助表示9の追従は、所定時間続けた後に終了してよく、前述したように観察者が補助表示9を注視したことを確認して終了してもよい。注視点Oに対する補助表示9の追従を終了した後は、該補助表示9を通常の表示領域に戻してもよく、消失させてもよい。補助表示9を消失させる場合は、この補助表示9を観察者にさらに強く認識させるために、補助表示9を徐々に消失させてもよい。
(第5の変形例)
 第5の変形例に係る立体画像観察システムは、補助表示作成部7が、補助表示9として、組織Xの特定位置に関する局所情報表示と、該局所情報表示が示している特定位置を示す矢印とを作成するように構成されている。
 本変形例において、補助表示作成部7は、視差画像内に病変領域Yが存在する場合、その病変領域Yに関する文字列(局所情報表示)と、病変領域Yを指す矢印とを補助表示9として作成するようになっている。例えば、病変領域Yが腫瘍である場合、補助表示作成部7は、図9Aに示されるように、「腫瘍」という文字列9aと、該文字列9aが示す腫瘍Yの位置を指す矢印9bとを作成する。文字列9aは、例えば、キーボードを用いて観察者によって入力される。矢印9bの始点(矢印9bの基端)と終点(矢印9bの先端)の平面方向の位置は、例えば、補助表示作成部7が備えるGUIを用いて観察者によって指定される。
 ここで、補助表示作成部7は、矢印9bの始点には文字列9aと同一の視差を与え、矢印9bの終点には特定位置である腫瘍Yと同一の視差を与える。そして、補助表示作成部7は、図9Bに示されるように、始点から終点に向かって視差が漸次変化するような矢印9bを作成するようになっている。
 観察者が腫瘍Yを注目しているときは、立体画像において文字列9aが腫瘍Yと同一の奥行き方向の位置に表示されるため、文字列9aが腫瘍Yと対応していることを容易に認識することができる。しかし、観察者が腫瘍Y以外の位置を注目しているときは、文字列9aが腫瘍Yと異なる奥行き方向の位置に表示されることもあり、文字列9aが腫瘍Yと対応していることを認識し難くなる。特に、文字列9aが立体画像内に複数存在する場合には、文字列9aと特定位置との対応関係を一目で把握することが困難となる。
 そこで、本変形例に係る立体画像観察システムによれば、文字列9aから特定位置に向かって奥行き方向にも延びる矢印9bを表示することによって、観察者は文字列9aがいずれの特定位置と対応しているかを容易に認識することができる。
 本変形例においては、矢印9bの始点と終点とを補助表示作成部7が設定するように構成されていてもよい。
 体内の組織Xに存在する病変領域Yを識別するために、内視鏡1による特殊光観察が用いられることがある。画像処理装置2は、内視鏡1から特殊光画像を受け取って特殊光画像から病変領域を抽出する病変抽出部(図示略)を備える。
 内視鏡1は、体内の組織Xの白色光画像を取得する通常モードと、体内の組織Xの特殊光画像を取得する特殊モードとを有し、図示しないスイッチが観察者によって切り替えられることによって、通常モードと特殊モードとを切り替えるようになっている。特殊光画像は、例えば、蛍光画像、狭帯域光画像、赤外光画像である。これらの特殊光画像において、病変領域は、周辺部とは異なる輝度値や色相として観察される。
 病変抽出部は、周辺部に対して高い輝度値を有する領域、または、周辺部とは異なる色相を有する領域を病変領域として抽出する。そして、補助表示作成部7は、矢印9bの始点を、文字列9aが表示される領域の端部に設定し、矢印9bの終点を、病変抽出部によって抽出された病変領域の中心に設定する。
 このように構成された立体画像観察システムによれば、観察者は、特殊モードによって病変領域の有無を確認する。病変領域が特殊光画像に確認された場合には、その病変領域が病変抽出部によって抽出され、当該病変領域を指す矢印9bが補助表示作成部7によって作成され、立体画像に矢印9bが表示される。この矢印9bは、観察者が通常モードに切り替えた後も、白色光画像の立体画像に表示され続ける。このようにすることで、観察者による矢印9bの始点および終点を指定する操作を不要とし、観察者の負担を軽減することができる。
 また、本変形例においては、補助表示作成部7が、観察者の注視点Oに応じて補助表示9の表示と非表示とを切り替えてもよい。
 この場合、補助表示作成部7は、注視点計算部5から算出された注視点Oの位置を受け取り、該注視点Oの位置が病変領域Yの位置と一致している場合には、当該病変領域Yに関する文字列9aおよび矢印9bを補助表示用の視差画像に表示する。一方、注視点Oの位置が病変領域Yの位置から外れている場合には、当該病変領域Yに関する文字列9aおよび矢印9bを補助表示用の視差画像から消去する。
 このようにすることで、特定位置に関する補助表示9のうち、現在観察者が注目している特定位置に関する補助表示9は立体画像に表示され、現在観察者が必要としていない補助表示9は立体画像から消失することとなる。これにより、立体画像が不要に複雑になることを防ぐことができる。
1 撮影装置
2 画像処理装置
3 表示部
4 視線検出部(注視点検出部)
5 注視点計算部(注視点検出部)
6 視差計算部
7 補助表示作成部
8 生体情報測定装置
9 補助表示
10 処置具検出部(注視点検出部)
11 病変検出部(注視点検出部)
12a~12h 候補
100 立体画像観察システム
A,B 処置具
L1,L2 視線
O 注視点
X 組織(被写体)
Y 病変領域

Claims (15)

  1.  被写体を撮影して取得された2つの視差画像から前記被写体の立体画像を再現して表示する表示部と、
     該表示部に表示されている立体画像を観察する観察者の注視点を検出する注視点検出部と、
     該注視点検出部によって検出された注視点における前記2つの視差画像間の視差を計算する視差計算部と、
     前記被写体に関する情報を含む補助表示を作成し、作成された補助表示を前記立体画像に重畳して前記表示部に表示させる補助表示作成部とを備え、
     該補助表示作成部が、前記視差計算部によって算出された視差に基づき、該視差と同一の視差を与えた前記補助表示を作成する画像処理装置。
  2.  前記注視点検出部が、前記観察者の左右両眼の視線を検出する視線検出部と、該視線検出部によって検出された2つの視線の交点を前記注視点として計算する注視点計算部とを備える請求項1に記載の画像処理装置。
  3.  前記注視点検出部は、前記2つの視差画像から前記観察者が観察する対象物を検出し、検出された対象物の位置を注視点とする請求項1に記載の画像処理装置。
  4.  前記注視点検出部は、前記対象物が撮影された参照画像を記憶し、該参照画像と前記視差画像とを比較することによって前記視差画像から前記対象物を検出する請求項3に記載の画像処理装置。
  5.  前記対象物が、前記被写体である生体を処置する処置具である請求項3または請求項4に記載の画像処理装置。
  6.  前記対象物が、前記被写体である生体に存在する病変領域である請求項3または請求項4に記載の画像処理装置。
  7.  前記補助表示作成部が、前記補助表示を、前記注視点検出部によって検出された注視点とは前記視差画像の平面に沿う方向に重ならない位置に表示させる請求項1から請求項6のいずれかに記載の画像処理装置。
  8.  前記補助表示作成部は、前記表示部による前記立体画像の表示領域に対して前記補助表示を表示させる複数の所定の領域が候補として設定され、該複数の候補のうち前記注視点における前記視差よりも小さい視差を有する領域を選択し、選択された領域に前記補助表示を表示させる請求項7に記載の画像処理装置。
  9.  前記補助表示作成部は、前記複数の候補に優先順位が付されており、前記注視点における前記視差よりも小さい視差を有する領域のうち優先順位が最高位である領域を選択する請求項8に記載の画像処理装置。
  10.  前記補助表示作成部は、前記補助表示として前記被写体である生体の生体情報の測定値を示す表示を作成するとともに、前記生体情報の測定値の大きさに応じて少なくとも2つの緊急度を設定し、前記測定値が低い緊急度に該当する場合は通常の表示態様で前記補助表示を作成し、前記測定値が高い緊急度に該当する場合は前記通常の表示態様よりも強調された表示態様で前記補助表示を作成する請求項1から請求項9のいずれかに記載の画像処理装置。
  11.  前記補助表示作成部は、前記強調された表示態様で作成した補助表示について、該補助表示に前記注視点検出部によって検出された注視点が一致した場合に、表示態様を前記通常の表示態様に変更する請求項10に記載の画像処理装置。
  12.  前記注視点検出部が、検出した注視点の位置を経時的に記憶することによって前記注視点の軌跡を取得し、
     前記補助表示作成部は、前記補助表示として前記被写体の特定位置に関する情報を含む局所情報表示を作成して前記表示部に表示させるとともに、前記注視点検出部によって取得された前記注視点の軌跡に基づいて前記補助表示を平面方向に移動させる請求項1から請求項11のいずれかに記載の画像処理装置。
  13.  前記補助表示作成部は、前記補助表示として、前記被写体の特定位置に関する情報を含む局所情報表示および該局所情報表示から前記特定位置へ向かう矢印を作成し、前記局所情報表示および前記矢印の基端に前記注視点における視差と同一の視差を与え、前記矢印の先端に前記特定位置における視差と同一の視差を与える請求項1から請求項12のいずれかに記載の画像処理装置。
  14.  前記被写体を撮影して2つの視差画像を取得する撮影装置と、
     請求項1から請求項13のいずれかに記載の画像処理装置とを備える立体画像観察システム。
  15.  前記被写体を撮影して2つの視差画像を取得する撮影装置と、
     請求項3に記載の画像処理装置とを備え、
     前記撮影装置が、前記視差画像として、前記被写体に照明光を照射して撮影した通常画像と、前記被写体に励起光を照射して前記対象物に設けられた蛍光体からの蛍光を撮影した蛍光画像とを取得し、
     前記注視点検出部が、前記蛍光画像内の蛍光領域を前記対象物として検出する立体画像観察システム。
PCT/JP2013/061142 2012-06-14 2013-04-15 画像処理装置および立体画像観察システム WO2013187116A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP13803595.1A EP2863634A4 (en) 2012-06-14 2013-04-15 IMAGE PROCESSING DEVICE AND SYSTEM FOR DISPLAYING THREE-DIMENSIONAL PICTURES
CN201380027833.0A CN104335580A (zh) 2012-06-14 2013-04-15 图像处理装置和立体图像观察系统
US14/553,205 US20150077529A1 (en) 2012-06-14 2014-11-25 Image-processing device and three-dimensional-image observation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-134686 2012-06-14
JP2012134686A JP6103827B2 (ja) 2012-06-14 2012-06-14 画像処理装置および立体画像観察システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/553,205 Continuation US20150077529A1 (en) 2012-06-14 2014-11-25 Image-processing device and three-dimensional-image observation system

Publications (1)

Publication Number Publication Date
WO2013187116A1 true WO2013187116A1 (ja) 2013-12-19

Family

ID=49757954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/061142 WO2013187116A1 (ja) 2012-06-14 2013-04-15 画像処理装置および立体画像観察システム

Country Status (5)

Country Link
US (1) US20150077529A1 (ja)
EP (1) EP2863634A4 (ja)
JP (1) JP6103827B2 (ja)
CN (1) CN104335580A (ja)
WO (1) WO2013187116A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105812778A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
EP3070941A4 (en) * 2014-01-24 2017-03-08 Olympus Corporation Stereoscopic endoscope image processing apparatus
US20180249900A1 (en) * 2015-11-10 2018-09-06 Olympus Corporation Endoscope apparatus
EP3248528A4 (en) * 2015-01-21 2018-09-12 HOYA Corporation Endoscope system
WO2019087790A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
CN111643054A (zh) 2014-02-27 2020-09-11 直观外科手术操作公司 用于镜面反射检测和减少的系统和方法
WO2015145933A1 (ja) * 2014-03-26 2015-10-01 パナソニックIpマネジメント株式会社 虚像表示装置、ヘッドアップディスプレイシステム及び乗物
JP6323183B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置および画像処理方法
JP6323184B2 (ja) * 2014-06-04 2018-05-16 ソニー株式会社 画像処理装置、画像処理方法、並びにプログラム
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
WO2017138209A1 (ja) * 2016-02-12 2017-08-17 ソニー株式会社 医療用画像処理装置、システム、方法及びプログラム
JP6355875B2 (ja) * 2016-04-19 2018-07-11 オリンパス株式会社 内視鏡システム
CN107515474B (zh) * 2017-09-22 2020-03-31 宁波维真显示科技股份有限公司 自动立体显示方法、装置及立体显示设备
CN108065904A (zh) * 2018-01-02 2018-05-25 京东方科技集团股份有限公司 内窥镜系统及其控制方法
JPWO2019181212A1 (ja) * 2018-03-23 2021-03-11 ソニー・オリンパスメディカルソリューションズ株式会社 医療用表示制御装置、および表示制御方法
CN108521568A (zh) * 2018-03-26 2018-09-11 天津大学 基于显著性区域的立体图像舒适度视差范围的测定方法
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
WO2020166528A1 (ja) * 2019-02-13 2020-08-20 日本電気株式会社 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体
WO2021010225A1 (ja) * 2019-07-18 2021-01-21 Hoya株式会社 コンピュータプログラム、情報処理方法、及び内視鏡用プロセッサ
WO2021158305A1 (en) * 2020-02-04 2021-08-12 Covidien Lp Systems and methods for machine readable identification of surgical tools in-situ

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256968A (ja) * 1995-03-24 1996-10-08 Nippon Colin Co Ltd 内視鏡用生体情報表示装置
JP2003325444A (ja) * 2002-05-10 2003-11-18 Pentax Corp 電子内視鏡装置および映像信号処理装置
JP2009239722A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 映像モニタシステム、ビデオサーバ、および映像モニタ方法
JP2011010128A (ja) * 2009-06-26 2011-01-13 Canon Inc 再生装置、撮像装置、及びその制御方法
JP2011180779A (ja) 2010-02-26 2011-09-15 Brother Industries Ltd 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
JP2012065698A (ja) * 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
JP2012075508A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070167702A1 (en) * 2005-12-30 2007-07-19 Intuitive Surgical Inc. Medical robotic system providing three-dimensional telestration
US8320992B2 (en) * 2006-10-05 2012-11-27 Visionsense Ltd. Method and system for superimposing three dimensional medical information on a three dimensional image
US8808164B2 (en) * 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
JP5238440B2 (ja) * 2008-10-02 2013-07-17 株式会社東芝 画像表示装置及び画像表示方法
CN102318352B (zh) * 2009-02-17 2014-12-10 皇家飞利浦电子股份有限公司 组合3d图像和图形数据
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
US9155592B2 (en) * 2009-06-16 2015-10-13 Intuitive Surgical Operations, Inc. Virtual measurement tool for minimally invasive surgery
JP5395538B2 (ja) * 2009-06-30 2014-01-22 株式会社東芝 超音波診断装置及び画像データ表示用制御プログラム
JP5369952B2 (ja) * 2009-07-10 2013-12-18 ソニー株式会社 情報処理装置および情報処理方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256968A (ja) * 1995-03-24 1996-10-08 Nippon Colin Co Ltd 内視鏡用生体情報表示装置
JP2003325444A (ja) * 2002-05-10 2003-11-18 Pentax Corp 電子内視鏡装置および映像信号処理装置
JP2009239722A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 映像モニタシステム、ビデオサーバ、および映像モニタ方法
JP2011010128A (ja) * 2009-06-26 2011-01-13 Canon Inc 再生装置、撮像装置、及びその制御方法
JP2011180779A (ja) 2010-02-26 2011-09-15 Brother Industries Ltd 立体画像データ生成装置、立体画像データ生成方法、および立体画像データ生成プログラム
JP2012065698A (ja) * 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
JP2012075508A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2863634A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3070941A4 (en) * 2014-01-24 2017-03-08 Olympus Corporation Stereoscopic endoscope image processing apparatus
US9635343B2 (en) 2014-01-24 2017-04-25 Olympus Corporation Stereoscopic endoscopic image processing apparatus
CN105812778A (zh) * 2015-01-21 2016-07-27 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
EP3248528A4 (en) * 2015-01-21 2018-09-12 HOYA Corporation Endoscope system
US10284839B2 (en) 2015-01-21 2019-05-07 Chengdu Idealsee Technology Co., Ltd. Binocular see-through AR head-mounted display device and information display method therefor
US10517472B2 (en) 2015-01-21 2019-12-31 Hoya Corporation Endoscope system
US20180249900A1 (en) * 2015-11-10 2018-09-06 Olympus Corporation Endoscope apparatus
US10863893B2 (en) * 2015-11-10 2020-12-15 Olympus Corporation Endoscope apparatus
WO2019087790A1 (ja) * 2017-10-31 2019-05-09 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
JPWO2019087790A1 (ja) * 2017-10-31 2020-11-12 富士フイルム株式会社 検査支援装置、内視鏡装置、検査支援方法、及び検査支援プログラム
US11302092B2 (en) 2017-10-31 2022-04-12 Fujifilm Corporation Inspection support device, endoscope device, inspection support method, and inspection support program

Also Published As

Publication number Publication date
EP2863634A4 (en) 2016-02-24
JP2013258627A (ja) 2013-12-26
CN104335580A (zh) 2015-02-04
EP2863634A1 (en) 2015-04-22
US20150077529A1 (en) 2015-03-19
JP6103827B2 (ja) 2017-03-29

Similar Documents

Publication Publication Date Title
JP6103827B2 (ja) 画像処理装置および立体画像観察システム
JP7124011B2 (ja) システム、及び出血検出システムの作動方法
EP2543308B1 (en) Fluoroscopy system
JP5580758B2 (ja) 蛍光観察装置
WO2011114731A1 (ja) 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2013192773A (ja) 手術用映像システムおよび映像表示方法
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2018168261A1 (ja) 制御装置、制御方法、及びプログラム
US10827906B2 (en) Endoscopic surgery image processing apparatus, image processing method, and program
US9820648B2 (en) Image processing apparatus and image processing method
JP2023164610A (ja) 画像処理装置、画像処理方法および画像処理システム
US20190000314A1 (en) Systems and Methods for Posterior Segment Visualization and Surgery
KR101374295B1 (ko) 안과용 장치
CN113015474A (zh) 用于核实场景特征的系统、方法和计算机程序
US11224329B2 (en) Medical observation apparatus
WO2020009127A1 (ja) 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法
US20220182538A1 (en) Image-processing method, control device, and endoscope system
WO2018220930A1 (ja) 画像処理装置
JP2013197652A (ja) レンズ汚れを検知する方法と、この方法を用いた手術用カメラ
JP2011015773A (ja) 眼底画像取得表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13803595

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2013803595

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013803595

Country of ref document: EP