DE112017002074T5 - Endoskopsystem - Google Patents

Endoskopsystem Download PDF

Info

Publication number
DE112017002074T5
DE112017002074T5 DE112017002074.3T DE112017002074T DE112017002074T5 DE 112017002074 T5 DE112017002074 T5 DE 112017002074T5 DE 112017002074 T DE112017002074 T DE 112017002074T DE 112017002074 T5 DE112017002074 T5 DE 112017002074T5
Authority
DE
Germany
Prior art keywords
region
status information
status
display
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112017002074.3T
Other languages
English (en)
Inventor
Masahiro Kudo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of DE112017002074T5 publication Critical patent/DE112017002074T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B18/04Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating
    • A61B18/12Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body by heating by passing a current through the tissue to be heated, e.g. high-frequency current
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/748Selection of a region of interest, e.g. using a graphics tablet
    • A61B5/7485Automatic selection of region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M13/00Insufflators for therapeutic or disinfectant purposes, i.e. devices for blowing a gas, powder or vapour into the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Plasma & Fusion (AREA)
  • Human Computer Interaction (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)

Abstract

Ein Endoskopsystem umfasst eine Videosignalverarbeitungseinheit 61, die eingerichtet ist, ein Endoskopbildsignal in ein Signal zu konvertieren, das auf einer Anzeigeeinheit 68 anzeigbar ist, eine Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, die eingerichtet ist, zu bestimmen, ob es notwendig ist, über Statusinformationen einer peripheren Einrichtung zu benachrichtigen oder nicht, eine Sichtliniendetektionseinheit 62, die eingerichtet ist, einen Sichtlinienort eines Operateurs in einem Endoskopbild zu detektieren, eine Beobachtungsregioneinstellungseinheit 63, die eingerichtet ist, eine Beobachtungszielregion des Operateurs einzustellen, eine Zangenabtasteinheit 64, die eingerichtet ist, eine Region abzutasten, in der Zangen in der Beobachtungsregion vorhanden sind, eine Statusanzeigesteuereinheit 66, die eingerichtet ist, eine Statusanzeigeregion einzustellen, in der die Statusinformationen in einer Region innerhalb der Beobachtungsregion angezeigt werden, und eine Statusanzeigeüberlagerungseinheit 67, die eingerichtet ist, die Statusinformationen auf dem Endoskopbild in der Statusanzeigeregion zu überlagern.

Description

  • TECHNISCHES GEBIET
  • Eine Ausführungsform der vorliegenden Erfindung betrifft ein Endoskopsystem und insbesondere ein Endoskopsystem, in dem periphere Einrichtungsinformationen auf einem Endoskopmonitor auf eine überlagerte Weise angezeigt werden können.
  • ALLGEMEINER STAND DER TECHNIK
  • Üblicherweise sind in einem medizinischen Gebiet Endoskopvorrichtungen zur Beobachtung von Organen in Körperhohlräumen, für Abhilfemaßnahmen unter Verwendung von Behandlungsinstrumenten, für chirurgische Operationen unter endoskopischer Beobachtung und Ähnlichem weit verwendet worden. In einer Endoskopvorrichtung wird im Allgemeinen ein Bildaufnahmesignal eines Objekts, das von einem elektronischen Endoskop erfasst wurde, das eine Bildaufnahmeeinrichtung wie ein ladungsgekoppeltes Bauelement (Charge Coupled Device - CCD) aufweist, das an einem distalen Ende eines Einführabschnitts montiert ist, an einen Prozessor übertragen und einer Bildverarbeitung unterzogen. Ein durch die Bildverarbeitung erhaltenes Endoskopbild wird von dem Prozessor an einen Endoskopmonitor ausgegeben und auf dem Endoskopmonitor angezeigt.
  • Für Abhilfemaßnahmen oder chirurgische Operationen unter endoskopischer Beobachtung wird ein Endoskopsystem unter Verwendung eines solchen Typs einer Endoskopvorrichtung und zugehöriger Ausstattung, umfassend eine Lichtquellenvorrichtung, einen Prozessor und einen Endoskopmonitor sowie eine Vielzahl von peripheren Einrichtungen wie eine Insufflationseinrichtung und eine Elektrokaustikeinrichtung gebaut und zur praktischen Verwendung gebracht.
  • Jede der peripheren Einrichtungen hat ihre eigenen Anzeigemittel. In herkömmlichen Endoskopsystemen werden Statusinformationen wie Einstellungswerte, Fehler und Warnungen in Bezug auf jede Einrichtung auf dem Anzeigemittel angezeigt, das jeder Einrichtung bereitgestellt ist. Da die peripheren Einrichtungen jedoch verstreut in einem Operationssaal platziert sind, ist es für einen Operateur problematisch, die Anzeigemittel der peripheren Einrichtungen einzeln zu prüfen, und der Operateur wird daran gehindert, eine chirurgische Operation reibungslos auszuführen.
  • Andererseits ist ein Endoskopsystem vorgeschlagen worden, das auch Statusinformationen peripherer Einrichtungen auf zusammengefasste Weise auf einem Endoskopmonitor anzeigt. Ein Endoskopsystem ist auch vorgeschlagen worden, das ein Endoskopbild analysiert, und, wenn detektiert wird, dass ein Behandlungsinstrument einem betroffenen Bereich nahe kommt, eine Warnmeldung anzeigt, indem die Warnmeldung auf dem Endoskopbild überlagert wird (siehe beispielsweise japanische Patentanmeldung, Veröffentlichung Nr. 2011-212245).
  • In den oben beschriebenen Vorschlägen kann, da periphere Einrichtungsinformationen und Warnmeldungen auf einem Endoskopmonitor zusammengefasst werden, ein Operateur notwendige Informationen von dem Endoskopmonitor erwerben.
  • In den Vorschlägen ist jedoch ein Anzeigeort von Statusinformationen wie die peripheren Einrichtungsinformationen oder die Warnmeldung ein spezifizierter Ort (fester Ort), der auf dem Endoskopmonitor oder in einer Nachbarschaft eines betroffenen Bereichs vorgesehen ist. Wenn sich ein Ort einer Behandlungsregion, die auf dem Endoskopmonitor angezeigt wird, ändert und sich ein Ort einer Beobachtungsregion, die der Operateur ansieht, entsprechend ändert, kreuzen sich die Beobachtungsregion und der Anzeigeort der Statusinformationen oder verteilen sich. Daher entsteht ein Problem, dass die Sicht herabgesetzt wird.
  • Entsprechend ist es eine Aufgabe der vorliegenden Erfindung, ein Endoskopsystem bereitzustellen, in dem Statusinformationen einer peripheren Einrichtung auf eine überlagerte Weise auf einem Endoskopbild angezeigt werden können, ohne dass die Sicht herabgesetzt wird.
  • OFFENBARUNG DER ERFINDUNG
  • MITTEL ZUM LÖSEN DER AUFGABE
  • Ein Endoskopsystem gemäß einem Aspekt der vorliegenden Erfindung umfasst: eine Videosignalverarbeitungseinheit, die eingerichtet ist, ein eingegebenes Endoskopbildsignal in ein Signal zu konvertieren, das auf einer Anzeigeeinheit anzeigbar ist; eine Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit, die eingerichtet ist, Statusinformationen einer peripheren Einrichtung zu empfangen und zu bestimmen, ob es notwendig ist, einen Operateur über die Statusinformationen zu benachrichtigen oder nicht; eine Sichtliniendetektionseinheit, die eingerichtet ist, einen Beobachtungsort des Operateurs in einem Endoskopbild unter Abtasten einer Sichtlinie des Operateurs zu detektieren; eine Beobachtungsregionseinstellungseinheit, die eingerichtet ist, eine Beobachtungszielregion des Operateurs basierend auf einem Detektionsergebnis von der Sichtliniendetektionseinheit einzustellen; und eine Zangenabtasteinheit, die eingerichtet ist, mittels Bildverarbeitung eine Region abzutasten, in der Zangen in der Beobachtungsregion vorhanden sind. Das Endoskopsystem umfasst auch: eine Statusanzeigesteuereinheit, die eingerichtet ist, eine Statusanzeigeregion einzustellen, in der die Statusinformationen angezeigt werden, in einer Region innerhalb der Beobachtungsregion, ausgenommen einer Anzeigeverbotsregion, die um den Beobachtungsort eingestellt ist, und der Region, die von der Zangenabtasteinheit abgetastet wird, wenn die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit bestimmt, dass es notwendig ist, den Operateur zu benachrichtigen; und eine Statusanzeigeüberlagerungseinheit, die eingerichtet ist, in der Statusanzeigeregion die Statusinformationen auf dem Signal zu überlagern, das von der Videosignalverarbeitungseinheit ausgegeben wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
    • 1 zeigt eine Abbildung zum Beschreiben eines Beispiels einer Gesamtausgestaltung eines Endoskopsystems gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 2 zeigt ein Blockdiagramm zum Beschreiben eines Beispiels einer Ausgestaltung einer Endoskopanzeigebilderzeugungseinheit;
    • 3 zeigt ein Blockdiagramm zum Beschreiben eines Beispiels einer Ausgestaltung einer Sichtliniendetektionseinheit;
    • 4 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Einstellens einer Beobachtungsregion;
    • 5 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Detektierens einer Zangenregion;
    • 6 zeigt eine Tabelle zum Beschreiben eines Beispiels von Anzeigezielstatusinformationen und angezeigten Inhalten;
    • 7 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Bestimmens der Notwendigkeit oder Unnötigkeit einer Statusanzeige;
    • 8 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Einstellens eines Statusanzeigeorts;
    • 9 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Erzeugens eines Endoskopanzeigebilds;
    • 10 zeigt eine Abbildung zum Beschreiben eines Beispiels des Statusanzeigeorts in dem Endoskopanzeigebild;
    • 11 zeigt eine Abbildung zum Beschreiben eines Beispiels des Endoskopanzeigebilds mit der überlagerten Statusanzeige;
    • 12 zeigt eine Abbildung zum Beschreiben eines anderen Beispiels des Endoskopanzeigebilds mit der überlagerten Statusanzeige; und
    • 13 zeigt eine Abbildung zum Beschreiben noch eines anderen Beispiels des Endoskopanzeigebilds mit der überlagerten Statusanzeige.
  • BESTER MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Nachfolgend wird eine Ausführungsform mit Bezug auf Zeichnungen beschrieben.
  • 1 zeigt eine Abbildung zum Beschreiben eines Beispiels einer Gesamtausgestaltung eines Endoskopsystems gemäß einer Ausführungsform der vorliegenden Erfindung. Das Endoskopsystem gemäß der vorliegenden Ausführungsform wird beispielsweise für eine Operation unter endoskopischer Beobachtung zum Behandeln, unter Verwendung von Behandlungsinstrumenten wie einem Elektrokaustikinstrument, eines betroffenen Bereichs in einem abdominalen Hohlraum eines Patienten verwendet, der vergrößert ist, indem Luft wie Kohlendioxid zugeführt wird.
  • Wie 1 zeigt, umfasst das Endoskopsystem ein Endoskop 1, das eingerichtet ist, in einen Körperhohlraum eingeführt zu werden, um einen betroffenen Bereich zu beobachten oder zu behandeln, einen Endoskopprozessor 2, der eingerichtet ist, vorbestimmte Signalverarbeitung an einem Videosignal eines Bilds auszuführen, das von dem Endoskop 1 aufgenommen wird, und eine Lichtquellenvorrichtung 3. Eine Anzeigevorrichtung 6, die eingerichtet ist, ein signalverarbeitetes Video anzuzeigen, ist mit dem Endoskopprozessor 2 verbunden. Das Endoskopsystem umfasst auch eine Elektrokaustikeinrichtung 4 und eine Insufflationseinrichtung 5 als periphere Einrichtungen, die erforderlich sind, um einen betroffenen Bereich zu behandeln. Die Elektrokaustikeinrichtung 4 und die Insufflationseinrichtung 5 sind mit der Anzeigevorrichtung 6 verbunden und eingerichtet, in der Lage zu sein, verschiedene Statusinformationen zu übertragen, die Einstellungen, Status, Warnungen und Fehler in Bezug auf die Einrichtungen angeben. Es ist zu beachten, dass die peripheren Einrichtungen nicht auf die Elektrokaustikeinrichtung 4 und die Insufflationseinrichtung 5 begrenzt sind, sondern andere Einrichtungen umfassen können, die für Operationen erforderlich sind, wie eine Ultraschallkoagulationsdissektionsseinrichtung.
  • Das Endoskop 1 umfasst einen länglichen Einführabschnitt, der eingerichtet ist, in einen Körperhohlraum oder Ähnliches eines Patienten einführbar zu sein. Eine Bildaufnahmeeinrichtung wie ein CCD ist an einem distalen Ende des Einführabschnitts angeordnet. Es ist zu beachten, dass der Einführabschnitt flexibel sein kann oder starr sein kann (ein starres Endoskop, das für chirurgische Operationen verwendet wird). Ein Lichtleiter, der Beleuchtungslicht zu dem distalen Ende des Einführabschnitts leitet, ist ebenfalls in dem Endoskop 1 vorgesehen.
  • Der Endoskopprozessor 2 führt verschiedene Verarbeitungen an dem Videosignal aus, das von der Bildaufnahmeeinrichtung ausgegeben wird, und erzeugt ein Endoskopbild, das an der Anzeigevorrichtung 6 angezeigt werden soll. Genauer gesagt führt der Endoskopprozessor 2 eine vorbestimmte Verarbeitung wie automatische Verstärkungssteuerung bzw. -regelung (Auto Gain Control - AGC) und korrelierte Doppelprobenname (Correlated Double Sampling - CDS) an dem analogen Videosignal aus, das von der Bildaufnahmeeinrichtung ausgegeben wird, und konvertiert dann das analoge Videosignal in ein digitales Videosignal. Danach führt der Endoskopprozessor 2 Weißabgleichsverarbeitung, Farbkorrekturverarbeitung, Verzerrungskorrekturverarbeitung, Verstärkungsverarbeitung und Ähnliches an dem digitalen Videosignal aus und gibt das digitale Videosignal an der Anzeigevorrichtung 6 aus.
  • Die Lichtquellenvorrichtung 3 umfasst eine Lichtquelle wie eine Lampe, die das Beleuchtungslicht erzeugt. Das Beleuchtungslicht, das von der Lichtquelle ausgestrahlt wird, wird an einer Eingangsstirnseite des Lichtleiters des Endoskops 1 gesammelt. Es ist zu beachten, dass anders als die Lampe beispielsweise eine Halbleiterlichtquelle, die mittels LED und Laserdiode typisiert ist, für die Lichtquelle verwendet werden kann. Im Falle des Verwendens der Halbleiterlichtquelle kann eine Halbleiterlichtquelle verwendet werden, die weißes Licht ausgibt. Alternativ können Halbleiterlichtquellen jeweils für die Farbkomponenten R (Rot), G (Grün) und B (Blau) vorgesehen sein, und weißes Licht kann erhalten werden, indem die jeweiligen Farbkomponenten von Licht gemischt werden, das von den Halbleiterlichtquellen ausgegeben wird.
  • Die Anzeigevorrichtung 6 umfasst eine Endoskopanzeigebilderzeugungseinheit 60, die eingerichtet ist, ein Endoskopanzeigebild zu erzeugen, indem, wenn notwendig, die Statusinformationen, die von der Elektrokaustikeinrichtung 4 oder der Insufflationseinrichtung 5 an einem vorbestimmten Ort auf dem Endoskopbild eingegeben wird, das von dem Endoskopprozessor 2 eingegeben wird, überlagert werden, und eine Anzeigeeinheit 68, die eingerichtet ist, das Endoskopanzeigebild anzuzeigen.
  • 2 zeigt ein Blockdiagramm zum Beschreiben eines Beispiels einer Ausgestaltung der Endoskopanzeigebilderzeugungseinheit. Wie 2 zeigt, umfasst die Endoskopanzeigebilderzeugungseinheit 60 eine Videosignalverarbeitungseinheit 61, eine Sichtliniendetektionseinheit 62, eine Beobachtungsregioneinstellungseinheit 63 und eine Zangenabtasteinheit 64. Die Endoskopanzeigebilderzeugungseinheit 60 umfasst auch eine Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, eine Statusanzeigesteuereinheit 66 und eine Statusanzeigeüberlagerungseinheit 67.
  • Die Videosignalverarbeitungseinheit 61 führt eine vorbestimmte Verarbeitung aus, wie Konvertieren des Videosignals, das von dem Endoskopprozessor 2 eingegeben wird, in ein Signalformat, das auf der Anzeigeeinheit 68 anzeigbar ist.
  • Die Sichtliniendetektionseinheit 62 detektiert einen Sichtlinienort eines Operateurs in dem Endoskopbild. Für die Detektion des Sichtlinienorts kann ein herkömmlich ausgeführtes Verfahren (ein Verfahren, in dem eine Sichtlinie mittels Detektieren eines Referenzpunkts und eines Bewegungspunkts eines Auges detektiert wird, und mittels Bestimmen eines Orts des Bewegungspunkts in Bezug auf den Referenzpunkt) verwendet werden. Eine Ausgestaltung der Sichtliniendetektionseinheit 62 wird im Falle des Verwendens des Verfahrens beschrieben, in dem eine Sichtlinienrichtung mittels Detektieren beispielsweise eines Orts eines Korneareflexes als der Referenzpunkt und eines Orts einer Pupille als der Bewegungspunkt identifiziert wird.
  • 3 zeigt ein Blockdiagramm zum Beschreiben eines Beispiels der Ausgestaltung der Sichtliniendetektionseinheit 62. Wie 3 zeigt, umfasst die Sichtliniendetektionseinheit 62 eine Infrarotstrahlungseinheit 621, eine Okkularbildaufnahmeeinheit 622 und eine Sichtlinienberechnungseinheit 623. Die Infrarotstrahlungseinheit 621 umfasst beispielsweise eine Infrarot-LED und strahlt Infrarotstrahlen hin zu einem Gesicht des Operateurs. Die Okkularbildaufnahmeeinheit 622 umfasst beispielsweise eine Infrarotkamera und erhält ein Okkularbild, indem Licht empfangen wird, das von einem Augapfel des Operateurs mittels der Strahlung der Infrarotstrahlen reflektiert wird. Die Sichtlinienberechnungseinheit 623 analysiert das Okkularbild und berechnet einen Ort des reflektierten Lichts auf der Kornea (einen Ort eines Korneareflexes) und einen Ort einer Pupille, wodurch eine Sichtlinienrichtung identifiziert wird. Die Sichtlinienberechnungseinheit 623 berechnet dann den Sichtlinienort des Operateurs in dem Endoskopbild, indem sie die Sichtlinienrichtung verwendet. Im Allgemeinen wird der Sichtlinienort als ein Koordinatenort (xe, ye) im zweidimensionalen Raum berechnet, wobei eine X-Achse eine horizontale Richtung des Endoskopbilds darstellt und eine Y-Achse eine vertikale Richtung des Endoskopbilds darstellt.
  • Die Beobachtungsregioneinstellungseinheit 63 stellt in dem Endoskopbild eine Region ein, in der der Operateur sofort Informationen identifizieren kann (eine Beobachtungsregion). 4 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Einstellens der Beobachtungsregion. Zuerst erkennt die Beobachtungsregioneinstellungseinheit 63 den Sichtlinienort (xe, ye) in dem Endoskopbild, der von der Sichtliniendetektionseinheit 62 eingegeben wird (Schritt S1). Als nächstes stellt die Beobachtungsregioneinstellungseinheit 63 die Beobachtungsregion zentriert auf dem Sichtlinienort in dem Endoskopbild ein, das von der Videosignalverarbeitungseinheit 61 eingegeben wird, indem sie verschiedene Informationen verwendet, umfassend horizontale und vertikale Größen der Anzeigeeinheit 68, eine Distanz von dem Operateur zu der Anzeigeeinheit 68 und einen Sichtfeldbereich, innerhalb dessen der Operateur sofort Informationen identifizieren kann (beispielsweise ein Unterscheidungssichtfeld, das ein Sichtfeldbereich ist, innerhalb dessen ein Mensch ein Objekt ausführlich erkennen kann, ohne die Augäpfel zu bewegen: ein Sichtfeldbereich bei 5 Grad in jeder, der horizontalen und der vertikalen Richtung in Bezug auf die Sichtlinienrichtung) (Schritt S2). Die Distanz von dem Operateur zu der Anzeigeeinheit 68 kann erhalten werden, indem eine von Distanzen unter einer praktischen Verwendungsbedingung ausgewählt wird, indem Einstellungsmittel (nicht gezeigt) verwendet werden, oder indem die Distanz gemessen wird, indem zwei der Okkularbildaufnahmeeinheiten 622 vorgesehen werden, die in der Sichtliniendetektionseinheit 62 umfasst sind. Schließlich gibt die Beobachtungsregioneinstellungseinheit 63 die eingestellte Beobachtungsregion an die Zangenabtasteinheit 64 und die Statusanzeigesteuereinheit 66 aus (Schritt S3). Auf solch eine Weise stellt die Beobachtungsregioneinstellungseinheit 63 die Beobachtungsregion zentriert auf dem Sichtlinienort (xe, ye) in dem Endoskopbild ein.
  • Die Zangenabtasteinheit 64 bestimmt, ob Zangen in der Beobachtungsregion vorhanden sind oder nicht, und identifiziert, wenn Zangen in der Beobachtungsregion vorhanden sind, wo die Zangen sind (eine Zangenregion). 5 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Detektierens der Zangenregion. Zuerst identifiziert die Zangenabtasteinheit 64 die Beobachtungsregion, die von der Beobachtungsregioneinstellungseinheit 63 in dem Endoskopbild eingegeben wird, das von der Videosignalverarbeitungseinheit 61 eingegeben wird. Dann entnimmt die Zangenabtasteinheit 64 in der Beobachtungsregion einen achromatischen Farbbereich (Schritt S11). Als Nächstes identifiziert die Zangenabtasteinheit 64 eine Form des entnommenen achromatischen Farbbereichs. Wenn die Form des achromatischen Farbbereichs ungefähr ein Rechteck ist (Schritt S12; Ja), erkennt die Zangenabtasteinheit 64, dass der achromatische Farbbereich die Zangenregion ist (Schritt S13). Wenn die Form des achromatischen Farbbereichs eine andere Form als ungefähr ein Rechteck ist (Schritt S12; Nein), erkennt die Zangenabtasteinheit 64, dass der achromatische Farbbereich nicht die Zangenregion ist (Schritt S14). Schließlich gibt die Zangenabtasteinheit 64 die Zangenregion, die innerhalb der Beobachtungsregion identifiziert wird, an die Statusanzeigesteuereinheit 66 aus (Schritt S15).
  • Es ist zu beachten, dass, wenn eine Vielzahl von achromatischen Farbbereichen in der Beobachtungsregion vorhanden sind, Formen all der achromatischen Farbbereiche identifiziert werden. In dem zuvor beschriebenen Beispiel sind Zangen Grau (Silber) bis Schwarz in der Farbe und weisen lineare Erscheinungsbilder auf, während die meisten der Oberflächen in einem Körperhohlraum (menschliches Gewebe) Dunkelrot bis Orange in der Farbe sind und gekrümmte Erscheinungsbilder aufweisen. Die Zangenregion wird entnommen, indem solche Farb- (Sättigung) und Formdifferenzen beachtet werden. Die Zangenregion kann jedoch unter Verwendung anderer Verfahren entnommen werden.
  • Die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 bestimmt, ob es notwendig ist, die Statusinformationen anzuzeigen, die von einer beliebigen der peripheren Einrichtungen auf dem Endoskopbild auf eine überlagerte Weise eingegeben werden. Im Allgemeinen sind verschiedene periphere Einrichtungen mit dem Endoskopsystem verbunden, und von den peripheren Einrichtungen werden weitreichende Informationen ausgegeben. Wenn all solche Informationen auf der Anzeigevorrichtung 6 angezeigt werden, wird jedoch befürchtet, dass wesentliche Informationen in anderen Informationen verborgen sind und übersehen werden, oder dass ein angezeigter Inhalt so häufig geändert wird, dass sich der Operateur nicht auf ein Verfahren konzentrieren kann. Entsprechend werden von den Informationen, die von den peripheren Einrichtungen ausgegeben werden, Hochprioritätsinformationen, die für den Operateur erforderlich sind, um das Verfahren auszuführen, voreingestellt und nur die voreingestellten Statusinformationen werden entnommen und zusammen mit dem Endoskopbild an der Anzeigevorrichtung 6 angezeigt.
  • 6 zeigt eine Tabelle zum Beschreiben eines Beispiels von Anzeigezielstatusinformationen und angezeigten Inhalten. Die Statusinformationen sind breit in Informationen zu Einstellungen und dem Status der peripheren Einrichtungen, und Informationen zu Warnungen und Fehlern kategorisiert. Für jeden der Informationstypen werden die Statusinformationen, die auf der Anzeigevorrichtung 6 anzuzeigen sind (Anzeigezielstatusinformationen) und angezeigte Inhalte, die anzuzeigen sind, wenn solche Statusinformationen eingegeben werden, für jede periphere Einrichtung vor einer Operation eingegeben.
  • Wie 6 zeigt, werden beispielsweise im Falle der Insufflationseinrichtung die Statusinformationen zu jedem der Punkte „Druck einstellen“, „Luftzufuhrdurchflussmenge“, „Durchflussmengenmodus“, „Rauchemissionsmodus“ und „Luftzufuhr Start/Stopp“ als die Anzeigezielstatusinformationen in Bezug auf „Einstellung/Status“ eingestellt. In Bezug auf „Warnung/Fehler“ sind die Statusinformationen zu allen alarmierten Angelegenheiten „Luftzufuhr deaktiviert“, „Schlauchverstopfung“ und „Achtung Überdruck“ als die Anzeigezielstatusinformationen eingestellt. Die Anzeigezielstatusinformationen sind auch für jede, die Elektrokaustikeinrichtung, die Ultraschallkoagulationsdissektionsseinrichtung und andere notwendige periphere Einrichtungen eingestellt ähnlich wie bei der Insufflationseinrichtung.
  • Die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 bestimmt, ob der Anzeigevorrichtung 6 erlaubt werden soll oder nicht, die Statusinformationen anzuzeigen, die von einer beliebigen der peripheren Einrichtungen eingegeben werden, indem auf die voreingestellten Anzeigezielstatusinformationen verwiesen wird.
  • 7 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Bestimmens, ob eine Statusanzeige notwendig ist oder nicht. Zuerst vergleicht die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 die Statusinformationen, die von einer beliebigen der peripheren Einrichtungen eingegeben werden, mit den gespeicherten Statusinformationen (Schritt S21). Die Statusinformationen werden von der peripheren Einrichtung in Echtzeit (oder einem konstanten Intervall) in die Anzeigevorrichtung 6 eingegeben. Für die eingegebenen Statusinformationen wird der neueste (jüngste) Inhalt in einem Speicher oder Ähnlichem (nicht gezeigt) gespeichert. In Schritt S21 werden für die Statusinformationen, die von der peripheren Einrichtung eingegeben werden, die Statusinformationen, die in dem Speicher oder Ähnlichem gespeichert sind, und die eingegebenen Statusinformationen verglichen. Wenn beispielsweise die Statusinformationen zu „Druck einstellen“ von der Insufflationseinrichtung 5 eingegeben werden, werden ein jüngster Wert des eingestellten Drucks der Insufflationseinrichtung 5, der in dem Speicher oder Ähnlichem gespeichert ist, und ein eingegebener Wert des eingestellten Drucks verglichen.
  • Wenn die eingegebenen Statusinformationen unterschiedlich von den gespeicherten Statusinformationen sind (Schritt S22; Ja), bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, ob die eingegebenen Statusinformationen für die Anzeigezielstatusinformationen zu der Einstellung/dem Status gelten (Schritt S23). Beispielsweise bestimmt in Schritt S22, wenn die Statusinformationen, die angeben, dass der eingestellte Druck 8 mmHg ist, von der Insufflationseinrichtung 5 eingegeben werden, und der gespeicherte jüngste eingestellte Druck der Insufflationseinrichtung 5 6 mmHg ist, die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, dass die eingegebenen Statusinformationen unterschiedlich von den gespeicherten Statusinformationen sind.
  • Wenn die eingegebenen Statusinformationen für die Anzeigezielstatusinformationen zu der Einstellung/dem Status gelten (Schritt S23; Ja), bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, dass es notwendig ist, die eingegebenen Statusinformationen anzuzeigen, und gibt einen Statusanzeigebefehl aus (Schritt S25).
  • Wenn andererseits die eingegebenen Statusinformationen nicht für die Anzeigezielstatusinformationen zu der Einstellung/dem Status gelten (Schritt S23; Nein), bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, ob die eingegebenen Statusinformationen für die Anzeigezielstatusinformationen zu der Warnung/dem Fehler gelten (Schritt S24). Es ist zu beachten, dass, wenn bestimmt wird, dass die eingegebenen Statusinformationen gleich zu den gespeicherten Statusinformationen sind (Schritt S22; Nein), die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 ebenfalls mit Schritt S24 fortfährt und bestimmt, ob die eingegebenen Statusinformationen für die Anzeigezielstatusinformationen zu der Warnung/dem Fehler gelten oder nicht.
  • Wenn die eingegebenen Statusinformationen für die Anzeigezielstatusinformationen zu der Warnung/dem Fehler gelten (Schritt S24; Ja), bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, dass es notwendig ist, die eingegebenen Statusinformationen anzuzeigen, und gibt einen Statusanzeigebefehl aus (Schritt S25). Die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 gibt auch einen der angezeigten Inhalte entsprechend den Statusinformationen zusammen mit dem Statusanzeigebefehl aus. Wenn andererseits die eingegebenen Statusinformationen nicht für die Anzeigezielstatusinformationen zu der Warnung/dem Fehler gelten (Schritt S24; Nein), bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, dass es nicht notwendig ist, die eingegebenen Statusinformationen anzuzeigen, und gibt keinen Statusanzeigebefehl aus (Schritt S26).
  • Es ist zu beachten, dass, wenn mehrere Teile der Statusinformationen gleichzeitig von einer beliebigen der peripheren Einrichtungen eingegeben werden, die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 eine Reihe der Verarbeitung von Schritten S21 bis S26 ausführt, die in 7 gezeigt sind, um zu bestimmen, ob ein Statusanzeigebefehl für jedes Stück der Statusinformationen einzeln auszugeben ist oder nicht.
  • Wenn beispielsweise die Statusinformationen, die angeben, dass der eingestellte Druck 8 mmHg ist, von der Insufflationseinrichtung 5 eingegeben werden und gleichzeitig eine Warnung eines Trennungsfehlers von der Elektrokaustikeinrichtung 4 eingegeben wird, bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, ob es notwendig ist, die Statusinformationen zu dem eingestellten Druck der Insufflationseinrichtung 5 anzuzeigen und bestimmt auch, ob es notwendig ist, die Statusinformationen zu der Warnung des Trennungsfehlers der Elektrokaustikeinrichtung 4 anzuzeigen. Wenn sich beispielsweise der eingestellte Druck der Insufflationseinrichtung 5 nicht von dem gespeicherten jüngsten Wert geändert hat und wenn die Warnung des Trennungsfehlers der Elektrokaustikeinrichtung 4 kontinuierlich eingegeben wird, bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, dass es nicht notwendig ist, den eingestellten Druck der Insufflationseinrichtung 5 anzuzeigen und bestimmt, dass es notwendig ist, die Warnung des Trennungsfehlers der Elektrokaustikeinrichtung 4 anzuzeigen. Entsprechend gibt in diesem Fall die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 einen Statusanzeigebefehl nur für die Warnung des Trennungsfehlers der Elektrokaustikeinrichtung 4 aus.
  • Die Statusanzeigesteuereinheit 66 stellt einen Anzeigeort der Statusinformationen ein, die auf dem Endoskopbild zu überlagern sind. Wenn der Statusanzeigebefehl von der Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 eingegeben wird, gibt die Statusanzeigesteuereinheit 66 dann den Anzeigeort und den angezeigten Inhalt an die Statusanzeigeüberlagerungseinheit 67 aus. 8 zeigt ein Flussdiagramm zum Beschreiben eines Verfahrens des Einstellens des Statusanzeigeorts. Zuerst stellt die Statusanzeigesteuereinheit 66 in der Beobachtungsregion, die von der Beobachtungsregioneinstellungseinheit 63 eingegeben wird, eine Region ein, in der die Statusinformationen aufgrund einer Möglichkeit des Unterbrechens des Verfahrens nicht angezeigt werden dürfen (nachfolgend als „Anzeigeverbotsregion“ bezeichnet) (Schritt S31). Beispielsweise teilt die Statusanzeigesteuereinheit 66 die Beobachtungsregion in drei gleiche Bereiche in der horizontalen Richtung und teilt ferner jede dieser drei gleichen Bereiche in drei gleiche Bereiche in der vertikalen Richtung, um neun Bereiche zu erhalten. Von den neun Bereichen stellt die Statusanzeigesteuereinheit 66 eine Mittelfläche, die den Sichtlinienort umfasst, als die Anzeigeverbotsregion ein.
  • Als nächstes teilt die Statusanzeigesteuereinheit 66 die Beobachtungsregionen in zwei gleiche Bereiche in der vertikalen Richtung und bestimmt, ob die untere Hälfte der Bereiche einen Raum bietet, der in der Lage ist, die Statusinformationen anzuzeigen oder nicht (Schritt S32). Im Allgemeinen verursacht, wenn ein Mensch eine Sichtlinie aufwärts oder abwärts bewegt, das Bewegen der Sichtlinie abwärts eine geringere Belastung der Augen als das Bewegen der Sichtlinie aufwärts. Entsprechend sucht die Statusanzeigesteuereinheit 66 zuerst die untere Halbfläche der Beobachtungsregion nach dem Raum ab, der in der Lage ist, die Statusinformationen anzuzeigen. In der unteren Halbfläche der Beobachtungsregion, ausgenommen der Anzeigeverbotsregion, die in Schritt S31 eingestellt wird, und der Zangenregion, die von der Zangenabtasteinheit 64 eingegeben wird, identifiziert die Statusanzeigesteuereinheit 66 eine Region, in der die Statusinformationen angezeigt werden können. Dann bestimmt die Statusanzeigesteuereinheit 66 in der identifizierten Region, ob der Raum, in dem eine Statusanzeigeregion einer voreingestellten Größe angeordnet ist, vorhanden ist oder nicht.
  • Wenn bestimmt wird, dass die untere Halbfläche der Beobachtungsregion den Raum bietet, der in der Lage ist, die Statusinformationen anzuzeigen (Schritt S32; Ja), stellt die Statusanzeigesteuereinheit 66 einen Statusinformationsanzeigeort innerhalb der identifizierten Region ein (Schritt S33). Der Statusinformationsanzeigeort ist vorzugsweise ein Ort, der den Operateur veranlasst, die Sichtlinie so wenig wie möglich nach rechts und links zu bewegen und den Sichtlinienort kaum stört, zu dem der Operateur blickt. Entsprechend wird beispielsweise ein Ort als der Statusinformationsanzeigeort eingestellt, der horizontal am nächsten an dem Sichtlinienort und vertikal am nächsten an einer Kante der Beobachtungsregion ist.
  • Wenn andererseits bestimmt wird, dass die untere Halbfläche der Beobachtungsregion nicht den Raum bietet, der in der Lage ist, die Statusinformationen anzuzeigen (Schritt S32; Nein), stellt die Statusanzeigesteuereinheit 66 einen Statusinformationsanzeigeort in der oberen Halbfläche der Beobachtungsregion ein (Schritt S34). Wie in dem Fall in der unteren Halbfläche der Beobachtungsregion eingestellt zu werden, ist der Statusinformationsanzeigeort vorzugsweise ein Ort, der den Operateur veranlasst, die Sichtlinie so wenig wie möglich nach rechts und links zu bewegen und den Sichtlinienort kaum stört, zu dem der Operateur blickt. Entsprechend wird beispielsweise ein Ort als der Statusinformationsanzeigeort eingestellt, der horizontal am nächsten an dem Sichtlinienort und vertikal am nächsten an einer Kante der Beobachtungsregion ist.
  • Schließlich gibt die Statusanzeigesteuereinheit 66 den Statusinformationsanzeigeort aus, der in Schritt S33 oder S34 eingestellt wird (Schritt S35).
  • Wenn der angezeigte Inhalt der Statusinformationen und der Statusinformationsanzeigeort von der Statusanzeigesteuereinheit 66 eingegeben werden, überlagert die Statusanzeigeüberlagerungseinheit 67 eine Statusanzeige auf das Endoskopbild, das von der Videosignalverarbeitungseinheit 61 eingegeben wird, und erzeugt ein Endoskopanzeigebild und gibt es aus. Es ist zu beachten, dass wenn keine Eingabe von die Statusanzeigeüberlagerungseinheit 67 empfangen wird, die Statusanzeigeüberlagerungseinheit 67 das Endoskopbild ausgibt, das von der Videosignalverarbeitungseinheit 61 wie es ist als das Endoskopanzeigebild eingegeben wird.
  • Die Anzeigeeinheit 68 zeigt das Endoskopanzeigebild an, das von der Statusanzeigeüberlagerungseinheit 67 eingegeben wird.
  • Es wird mit Bezug auf 9 und 10 eine Beschreibung einer Reihe von Verfahren in der Endoskopanzeigebilderzeugungseinheit 60 des Erzeugens des Endoskopanzeigebilds gegeben, das auf der Anzeigeeinheit 68 basierend auf dem Endoskopbild anzuzeigen ist, das von dem Endoskopprozessor 2 eingegeben wird. 9 zeigt ein Flussdiagramm zum Beschreiben des Verfahrens des Erzeugens des Endoskopanzeigebilds, und 10 zeigt eine Abbildung zum Beschreiben eines Beispiels des Statusanzeigeorts in dem Endoskopanzeigebild.
  • Zuerst detektiert die Sichtliniendetektionseinheit 62 den Sichtlinienort des Operateurs in dem Endoskopbild, das in die Videosignalverarbeitungseinheit 61 eingegeben wird (Schritt S41). Als nächstes stellt die Beobachtungsregioneinstellungseinheit 63 die Beobachtungsregion in dem Endoskopbild ein (Schritt S42). Genauer gesagt stellt die Beobachtungsregioneinstellungseinheit 63 die Beobachtungsregion ein, indem eine Reihe von Verfahren ausgeführt werden, die in 4 gezeigt sind. Wenn beispielsweise in 10 ein Sichtlinienort 603 ein Ort ist, der mit „X“ bezeichnet wird, wird eine Region einer ungefähren kurzen rechteckigen Form, die von einer dicken Linie umschlossen ist, als eine Beobachtungsregion 604 eingestellt.
  • Als nächstes tastet die Zangenabtasteinheit 64 die Zangenregion in der Beobachtungsregion ab (Schritt S43). Genauer gesagt stellt die Zangenabtasteinheit 64 die Zangenregion ein, indem eine Reihe von Verfahren ausgeführt werden, die in 5 gezeigt sind. Beispielsweise sind in 10 Regionen, die mit diagonalen Linien schattiert sind (zwei Regionen, von denen eine in der Mitte der linken Seite der Beobachtungsregion und die andere in der oberen rechten Ecke der Beobachtungsregion ist) als Zangenregionen 605 eingestellt.
  • Nachfolgend stellt die Statusanzeigesteuereinheit 66 den Statusanzeigeort ein (Schritt S44). Genauer gesagt stellt die Statusanzeigesteuereinheit 66 den Statusanzeigeort ein, indem eine Reihe von Verfahren ausgeführt wird, die in 8 gezeigt sind. Beispielsweise zeigt in 10 in der unteren Halbfläche der Beobachtungsregion, ausgenommen eine Anzeigeverbotsregion 606 (eine Region einer ungefähr kurzen rechtwinkligen Form, die von einer gestrichelten Linie umschlossen ist) und die Zangenregionen 605, eine Region vorhanden, in der eine Statusanzeige gemacht werden kann. Entsprechend ist ein Statusanzeigeort 607 an einem Ort einer ungefähr kurzen rechtwinkligen Region eingestellt, die von einer Strichpunktlinie umschlossen ist.
  • Als nächstes bestimmt die Statusanzeigesteuereinheit 66, ob der Statusanzeigebefehl von der Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 eingegeben wird oder nicht (Schritt S44). Wenn der Statusanzeigebefehl eingegeben wird (Schritt S44; Ja), überlagert die Statusanzeigeüberlagerungseinheit 67 den angezeigten Inhalt der Statusinformationen, die von der Statusanzeigesteuereinheit 66 eingegeben werden, an dem Statusanzeigeort (dem Statusanzeigeort, der in Schritt S44 eingestellt wird) auf dem Endoskopbild, das von der Videosignalverarbeitungseinheit 61 eingegeben wird, und erzeugt das Endoskopanzeigebild für die Anzeigeeinheit 68 und gibt es an sie aus. Danach kehrt der Prozess zurück zu Schritt S41 und ein nächstes Endoskopanzeigebild wird erzeugt.
  • 11, 12 und 13 sind Abbildungen zum Beschreiben von Beispielen des Endoskopanzeigebilds mit der überlagerten Statusanzeige. 11 zeigt ein Beispiel des Endoskopanzeigebilds in einem Fall, in dem ein Fehler eines Patientenplattenkontaktfehlers als die Statusinformationen in die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 von der Elektrokaustikeinrichtung 4 eingegeben werden, die eine der peripheren Einrichtungen ist.
  • 12 zeigt ein Beispiel des Endoskopanzeigebilds in einem Fall, in dem die Statusinformationen, die angeben, dass der Ultraschallausgabepegel 3 ist, in die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 von der Ultraschallkoagulationsdissektionsseinrichtung eingegeben werden, die eine der peripheren Einrichtungen ist. Es ist zu beachten, dass die Statusinformationen angezeigt werden, wie in 12 gezeigt, wenn sich der Ultraschallausgabepegel von einem anderen Wert als 3 auf 3 geändert hat, aber die Statusinformationen nicht angezeigt werden, wenn der Ausgabepegel bei 3 gehalten wird.
  • 13 zeigt ein Beispiel des Endoskopanzeigebilds in einem Fall, in dem die Statusinformationen, die angeben, dass der eingestellte Druck 8 mmHg ist, in die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65 von der Insufflationseinrichtung 5 eingegeben werden, die eine der peripheren Einrichtungen ist. 13 zeigt einen Fall, in dem der Statusanzeigeort in der oberen Halbfläche der Beobachtungsregion eingestellt wird, weil die Statusanzeigeregion aufgrund der Zangenregionen in der unteren Halbfläche der Beobachtungsregion nicht gesichert werden kann. Es ist zu beachten, dass die Statusinformationen angezeigt werden, wie in 13 gezeigt, wenn sich der eingestellte Druck der Insufflationseinrichtung 5 auf 8 mmHg von einem anderen Wert als 8 mmHg geändert hat, aber die Statusinformationen nicht angezeigt werden, wenn der eingestellte Druck bei 8 mmHg gehalten wird.
  • Andererseits, wenn der Statusanzeigebefehl nicht eingegeben wird (Schritt S44; Nein), gibt die Statusanzeigeüberlagerungseinheit 67 das Endoskopbild, das von der Videosignalverarbeitungseinheit 61 eingegeben wird, wie es ist als das Endoskopanzeigebild in die Anzeigeeinheit 68 aus. Dann kehrt der Prozess zurück zu Schritt S41 und ein nächstes Endoskopanzeigebild wird erzeugt.
  • Wie oben beschrieben wird, gemäß der vorliegenden Ausführungsform, wenn die Statusinformationen wie eine Einstellung, ein Status oder eine Warnmeldung von einer beliebigen der peripheren Einrichtungen eingegeben werden, bestimmt, ob die eingegebenen Statusinformationen die voreingestellten Anzeigezielstatusinformationen sind oder nicht. Wenn die eingegebenen Statusinformationen die Anzeigezielstatusinformationen sind, wird der Sichtfeldbereich innerhalb dessen der Operateur sofort Informationen identifizieren kann (die Beobachtungsregion) in dem Endoskopbild identifiziert, der Statusanzeigeort wird in der Beobachtungsregion, ausgenommen der Zangenregion, eingestellt, und die Statusinformationen werden angezeigt. Entsprechend können die Statusinformationen einer peripheren Einrichtung auf eine überlagerte Weise auf dem Endoskopbild angezeigt werden, ohne dass die Sicht herabgesetzt wird.
  • Es ist zu beachten, dass in einem Fall, in dem die Statusinformationen, die von einer peripheren Einrichtung eingegeben werden, Informationen zu der Einstellung/dem Status sind, obgleich die Statusinformationen eingerichtet sind, nur angezeigt zu werden, wenn sich ein eingestellter Wert oder ein Status geändert hat, die Statusinformationen eingerichtet sein können, kontinuierlich für einen Zeitraum, der von dem Operateur gewünscht ist, angezeigt zu werden, indem der Zeitraum zum Anzeigen der Statusinformationen unter Verwendung eines Zeitgebers oder Ähnlichem eingestellt wird.
  • In der obigen Beschreibung bestimmt die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit 65, ob die Statusinformationen auf dem Endoskopbild überlagert und angezeigt werden sollen oder nicht, und wenn bestimmt wird, dass es notwendig ist, die Statusinformationen anzuzeigen, werden nur solche Statusinformationen eingerichtet, um automatisch angezeigt zu werden. Eine Konfiguration ist jedoch auch möglich, in der eine Statusinformationsanzeigeschaltfläche oder Ähnliches vorgesehen ist, und die Statusinformationen werden zusätzlich dazu, dass sie automatisch angezeigt werden, bei einer Zeitgebung angezeigt, die von dem Operateur gewünscht ist.
  • Ferner ist in der obigen Beschreibung, obgleich die Endoskopanzeigebilderzeugungseinheit 60 in der Anzeigevorrichtung 6 vorgesehen ist, auch eine Konfiguration möglich, in der die Endoskopanzeigebilderzeugungseinheit 60 in dem Endoskopprozessor 2 vorgesehen ist.
  • In der vorliegenden Beschreibung ist jede „Einheit“ ein konzeptionelles Bauteil, entsprechend jeder der Funktionen der Ausführungsform und ist nicht notwendigerweise eine Ein-zu-Eins-Entsprechung zu einer spezifischen Hardwarekomponente oder einer Softwareroutine. Entsprechend wird in der vorliegenden Beschreibung die Ausführungsform beschrieben, die virtuelle Schaltblöcke (Einheiten) annimmt, die jeweils die einzelnen Funktionen der Ausführungsform aufweisen. Jeder der Schritte in jedem der Verfahren in der Ausführungsform kann, sofern es nicht der Natur jedes Schritts in jedem Verfahren entgegengesetzt ist, in einer geänderten Reihenfolge ausgeführt werden, kann gleichzeitig zu einem anderen Schritt oder anderen Schritten ausgeführt werden oder kann jedes Mal in einer unterschiedlichen Reihenfolge ausgeführt werden. Ferner können alle oder Teile der Schritte in den Verfahren der Ausführungsform mittels Hardware implementiert werden.
  • Die Ausführungsform der vorliegenden Erfindung ist beschrieben worden. Die Ausführungsform soll jedoch veranschaulichend sein und den Schutzbereich der Erfindung nicht begrenzen. Die neuartige Ausführungsform kann in anderen verschiedenen Formen implementiert werden, und verschiedene Weglassungen, Ersetzungen und Änderungen können vorgenommen werden, ohne vom Hauptpunkt der Erfindung abzuweichen. Die Ausführungsform und Abwandlungen der Ausführungsform sind in dem Schutzumfang und dem Kern der Erfindung umfasst, und auch in den Erfindungen gemäß den Ansprüchen und den äquivalenten Schutzumfängen der Erfindungen.
  • Die vorliegende Anmeldung basiert auf und beansprucht die Priorität der japanischen Patentanmeldung Nummer 2016-83796 , eingereicht am 19. April 2016 in Japan, deren Offenbarung in der Beschreibung und den Ansprüchen der vorliegenden Anmeldung unter Bezugnahme aufgenommen ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2016083796 [0057]

Claims (5)

  1. Endoskopsystem, umfassend: eine Videosignalverarbeitungseinheit, die eingerichtet ist, ein eingegebenes Endoskopbildsignal in ein Signal zu konvertieren, das auf einer Anzeigeeinheit anzeigbar ist; eine Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit, die eingerichtet ist, Statusinformationen einer peripheren Einrichtung zu empfangen und zu bestimmen, ob es notwendig ist, einen Operateur über die Statusinformationen zu benachrichtigen oder nicht; eine Sichtlinienerkennungseinheit, die eingerichtet ist, einen Beobachtungsort des Operateurs in einem Endoskopbild zu detektieren, indem eine Sichtlinie des Operateurs abgetastet wird; eine Beobachtungsregioneinstellungseinheit, die eingerichtet ist, eine Beobachtungszielregion des Operateurs basierend auf einem Ergebnis der Detektion von der Sichtliniendetektionseinheit einzustellen; eine Zangenabtasteinheit, die eingerichtet ist, mittels Bildverarbeitung eine Region abzutasten, in der Zangen in der Beobachtungsregion vorhanden sind; eine Statusanzeigesteuereinheit, die eingerichtet ist, eine Statusanzeigeregion einzustellen, in der die Statusinformationen angezeigt werden, in einer Region innerhalb der Beobachtungsregion, ausgenommen einer Anzeigeverbotsregion, die um den Beobachtungsort eingestellt ist, und der Region, die von der Zangenabtasteinheit abgetastet wird, wenn die Statusinformationsbenachrichtigungsnotwendigkeitsbestimmungseinheit bestimmt, dass es notwendig ist, den Operateur zu benachrichtigen; und eine Statusanzeigeüberlagerungseinheit, die eingerichtet ist, in der Statusanzeigeregion die Statusinformationen auf dem Signal zu überlagern, das von der Videosignalverarbeitungseinheit ausgegeben wird.
  2. Endoskopsystem nach Anspruch 1, wobei die Statusanzeigeregion in einer Nachbarschaft der Anzeigeverbotsregion angeordnet ist.
  3. Endoskopsystem nach Anspruch 1, wobei, wenn die Statusanzeigeregion in einer unteren Halbfläche der Beobachtungsregion eingestellt werden kann, die Statusanzeigesteuereinheit die Statusanzeigeregion an einem Ort einstellt, der an einer Kante der unteren Halbfläche der Beobachtungsregion und horizontal am nächsten zu dem Beobachtungsort ist.
  4. Endoskopsystem nach Anspruch 1, wobei, wenn die Statusanzeigeregion nicht in einer unteren Halbfläche der Beobachtungsregion eingestellt werden kann, die Statusanzeigesteuereinheit die Statusanzeigeregion an einem Ort einstellt, der an einer Kante einer oberen Halbfläche der Beobachtungsregion und horizontal am nächsten zu dem Beobachtungsort ist.
  5. Endoskopsystem nach einem der Ansprüche 1 bis 4, wobei, wenn die Statusinformationen, die von der peripheren Einrichtung eingegeben werden, eine Warnung oder ein Alarm sind, die Statusinformationen kontinuierlich in der Statusanzeigeregion angezeigt werden, während die Statusinformationen eingegeben werden.
DE112017002074.3T 2016-04-19 2017-03-09 Endoskopsystem Withdrawn DE112017002074T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-083796 2016-04-19
JP2016083796 2016-04-19
PCT/JP2017/009563 WO2017183353A1 (ja) 2016-04-19 2017-03-09 内視鏡システム

Publications (1)

Publication Number Publication Date
DE112017002074T5 true DE112017002074T5 (de) 2019-01-24

Family

ID=60116656

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017002074.3T Withdrawn DE112017002074T5 (de) 2016-04-19 2017-03-09 Endoskopsystem

Country Status (5)

Country Link
US (1) US20180344138A1 (de)
JP (1) JP6355875B2 (de)
CN (1) CN108778093B (de)
DE (1) DE112017002074T5 (de)
WO (1) WO2017183353A1 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11602366B2 (en) 2017-10-30 2023-03-14 Cilag Gmbh International Surgical suturing instrument configured to manipulate tissue using mechanical and electrical power
JP6967602B2 (ja) * 2017-10-31 2021-11-17 富士フイルム株式会社 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US10758310B2 (en) 2017-12-28 2020-09-01 Ethicon Llc Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11166772B2 (en) 2017-12-28 2021-11-09 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US20190201146A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Safety systems for smart powered surgical stapling
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11857152B2 (en) * 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11389164B2 (en) 2017-12-28 2022-07-19 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11132462B2 (en) 2017-12-28 2021-09-28 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11026751B2 (en) 2017-12-28 2021-06-08 Cilag Gmbh International Display of alignment of staple cartridge to prior linear staple line
US11633237B2 (en) 2017-12-28 2023-04-25 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US10892995B2 (en) 2017-12-28 2021-01-12 Ethicon Llc Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11202570B2 (en) 2017-12-28 2021-12-21 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11109866B2 (en) 2017-12-28 2021-09-07 Cilag Gmbh International Method for circular stapler control algorithm adjustment based on situational awareness
US20190201113A1 (en) 2017-12-28 2019-07-04 Ethicon Llc Controls for robot-assisted surgical platforms
US11259830B2 (en) 2018-03-08 2022-03-01 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
US11344326B2 (en) 2018-03-08 2022-05-31 Cilag Gmbh International Smart blade technology to control blade instability
US11259806B2 (en) 2018-03-28 2022-03-01 Cilag Gmbh International Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein
US11090047B2 (en) 2018-03-28 2021-08-17 Cilag Gmbh International Surgical instrument comprising an adaptive control system
JP2021184116A (ja) * 2018-09-07 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11464511B2 (en) 2019-02-19 2022-10-11 Cilag Gmbh International Surgical staple cartridges with movable authentication key arrangements
US11291444B2 (en) 2019-02-19 2022-04-05 Cilag Gmbh International Surgical stapling assembly with cartridge based retainer configured to unlock a closure lockout
JP7214876B2 (ja) * 2019-08-09 2023-01-30 富士フイルム株式会社 内視鏡装置、制御方法、制御プログラム、及び内視鏡システム
KR102161401B1 (ko) * 2020-04-02 2020-09-29 (주)메가메디칼 카테터 위치 변화에 대응하여 결정된 정보를 표시하는 네비게이션
JPWO2023017651A1 (de) * 2021-08-13 2023-02-16

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016083796A (ja) 2014-10-23 2016-05-19 キヤノン株式会社 記録方法および記録装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5788688A (en) * 1992-11-05 1998-08-04 Bauer Laboratories, Inc. Surgeon's command and control
US6733441B2 (en) * 2000-05-11 2004-05-11 Olympus Corporation Endoscope device
JP2004033461A (ja) * 2002-07-03 2004-02-05 Pentax Corp 付加情報表示装置、付加情報表示方法および内視鏡システム
US20040030367A1 (en) * 2002-08-09 2004-02-12 Olympus Optical Co., Ltd. Medical control device, control method for medical control device, medical system device and control system
JP4027876B2 (ja) * 2003-10-20 2007-12-26 オリンパス株式会社 体腔内観察システム
JP5385163B2 (ja) * 2010-01-06 2014-01-08 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN102802498B (zh) * 2010-03-24 2015-08-19 奥林巴斯株式会社 内窥镜装置
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
JP5826727B2 (ja) * 2012-08-27 2015-12-02 オリンパス株式会社 医用システム
WO2015020093A1 (ja) * 2013-08-08 2015-02-12 オリンパスメディカルシステムズ株式会社 手術画像観察装置
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
JP6249769B2 (ja) * 2013-12-27 2017-12-20 オリンパス株式会社 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP2016000065A (ja) * 2014-06-11 2016-01-07 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および内視鏡システム
CN104055478B (zh) * 2014-07-08 2016-02-03 金纯� 基于视线追踪控制的医用内窥镜操控系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016083796A (ja) 2014-10-23 2016-05-19 キヤノン株式会社 記録方法および記録装置

Also Published As

Publication number Publication date
WO2017183353A1 (ja) 2017-10-26
JP6355875B2 (ja) 2018-07-11
CN108778093B (zh) 2021-01-05
US20180344138A1 (en) 2018-12-06
JPWO2017183353A1 (ja) 2018-07-05
CN108778093A (zh) 2018-11-09

Similar Documents

Publication Publication Date Title
DE112017002074T5 (de) Endoskopsystem
DE112019004340T5 (de) Medizinisches system, informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
EP3417762B1 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
DE112018003204T5 (de) Chirurgisches Bildgebungssystem und -verfahren
JPWO2019073814A1 (ja) 焦点検出装置および方法、並びにプログラム
JP2023164610A (ja) 画像処理装置、画像処理方法および画像処理システム
DE112019003031T5 (de) Chirurgische beobachtungsvorrichtung, chirurgisches beobachtungsverfahren, chirurgische lichtquellenvorrichtung und lichtbestrahlungsverfahren für chirurgie
KR101159469B1 (ko) 수술도구 검출 방법, 수술도구 검출 방법을 기록한 기록매체, 수술도구 검출 방법을 수행하는 수술 시스템 및 수술도구 검출 방법을 수행하는 수술 보조시스템
DE102021101410A1 (de) Verfahren und System zur Steuerung eines chirurgischen HF-Generators sowie Softwareprogrammprodukt
DE112015002614T5 (de) Bildbearbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
WO2023161193A2 (de) Medizinische bildgebungsvorrichtung, medizinisches system, verfahren zum betrieb einer medizinischen bildgebungsvorrichtung und verfahren zur medizinischen bildgebung
JP5032347B2 (ja) 眼科撮影装置
DE112018006430T5 (de) Medizinisches beobachtungssystem, medizinische signalverarbeitungsvorrichtung und verfahren zur ansteuerung der medizinischen signalverarbeitungsvorrichtung
WO2005051190A1 (en) Blood flow monitoring equipment
DE112018001482T5 (de) Chirurgische steuervorrichtung, steuerverfahren, chirurgisches system und programm
DE112018001744T5 (de) Medizinische Bildgebungsvorrichtung und Endoskop
DE112017002826T5 (de) Endoskopvorrichtung
DE112017000024T5 (de) Bildverarbeitungsvorrichtung und elektronisches Endoskopsystem
DE112019004308T5 (de) Medizinisches system, informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE112019003447T5 (de) Medizinisches Beobachtungssystem, medizinisches Beobachtungsgerät und Antriebsverfahren für das medizinische Beobachtungsgerät
DE112019001468T5 (de) Steuervorrichtung und verfahren, und chirurgisches mikroskopsystem
DE112018003367T5 (de) Medizinisches Bildgebungssystem, Verfahren und Computerprogrammprodukt
DE102019219123A1 (de) Beobachtungseinrichtung
WO2009080793A1 (de) Augen-betrachtungssystem und verfahren hierzu
CN115315210A (zh) 图像处理装置、图像处理方法、导航方法以及内窥镜系统

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee