DE102022101678A1 - Bildaufnahmevorrichtung - Google Patents

Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE102022101678A1
DE102022101678A1 DE102022101678.1A DE102022101678A DE102022101678A1 DE 102022101678 A1 DE102022101678 A1 DE 102022101678A1 DE 102022101678 A DE102022101678 A DE 102022101678A DE 102022101678 A1 DE102022101678 A1 DE 102022101678A1
Authority
DE
Germany
Prior art keywords
light
unit
image
camera
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022101678.1A
Other languages
English (en)
Inventor
Jyouji Wada
Yota Hashimoto
Hayato WACHI
Yuuichi TAKENAGA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
Panasonic iPro Sensing Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic iPro Sensing Solutions Co Ltd filed Critical Panasonic iPro Sensing Solutions Co Ltd
Publication of DE102022101678A1 publication Critical patent/DE102022101678A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Optical Elements Other Than Lenses (AREA)
  • Focusing (AREA)
  • Cameras In General (AREA)
  • Blocking Light For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

Eine Bildaufnahmevorrichtung enthält ein Objektiv, in das Licht von einem Objekt fällt; ein Spektralprisma, enthaltend eine erste Fläche, die bei einem ersten Reflexionsgrad erstes Licht mit einer ersten Wellenlänge reflektiert, und eine zweite Fläche, die bei einem zweiten Reflexionsgrad mit einer zweiten Wellenlänge reflektiert, eine erste Bildaufnahmeeinheit, die ein erstes Bild des Objekts bei einer ersten Schärfentiefe auf Grundlage des durch die erste Fläche reflektierten ersten Lichts aufnimmt, eine zweite Bildaufnahmeeinheit, die ein zweites Bild des Objekts bei einer zweiten Schärfentiefe auf Grundlage des durch die zweite Fläche reflektierten zweiten Lichts aufnimmt, eine dritte Bildaufnahmeeinheit, die ein drittes Bild des Objekts bei einer dritten Schärfentiefe auf Grundlage von durch die erste Fläche oder die zweite Fläche durchgelassenem drittem Licht aufnimmt, und eine Signalverarbeitungseinheit, die das erste Bild, das zweite Bild und das dritte Bild synthetisiert und das synthetisierte Bild ausgibt.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine Bildaufnahmevorrichtung.
  • Technischer Hintergrund
  • Die Patentschrift 1 offenbart eine Bildaufnahmevorrichtung, die ein Objekt in einem weiten Bereich aufnimmt, wobei sie sogar scharfstellt, wenn ein Bild mit einem willkürlichen Blendenwert unter Verwendung eines Bildaufnahmeobjektivs mit einer willkürlichen Brennweite aufgenommen wird. Diese Bildaufnahmevorrichtung enthält: Ein Bildaufnahmeobjektiv, das Bilder eines Objekts in einem Fernfeld und eines Objekts in einem Nahfeld aufnimmt; eine Teilereinrichtung für einen optischen Pfad, die einen optischen Pfad von Licht, das durch das Bildaufnahmeobjektiv tritt, in eine Vielzahl von optischen Pfaden aufteilt; verschiedene Bildaufnahmeelemente, die jeweils in den aufgeteilten optischen Pfaden angeordnet sind und Bilder der Objekte aufnehmen, um Videosignale zu erzeugen; eine Bildaufnahmeelement-Ansteuervorrichtung, die jedes Bildaufnahmeelement entlang einer Richtung seiner optischen Achse bewegt; und eine arithmetische Verarbeitungsvorrichtung, die eine Position jedes Bildaufnahmeelements auf der optischen Achse gemäß einem eingegebenen Objektivparameter bestimmt. Wenn sich der Objektivparameter ändert, berechnet die arithmetische Verarbeitungsvorrichtung einen Abstand von einem Hauptpunkt des Bildaufnahmeobj ektivs jedes aus einem ersten Bildaufnahmeelement und einem zweiten Bildaufnahmeelement und steuert die Bildaufnahmeelement-Ansteuervorrichtung an, wodurch sie die Anordnung der Bildaufnahmeelemente bewegt. Als Ergebnis wird ein Bild mit einer weitesten Schärfentiefe erhalten.
  • Liste der Anführungen
  • Patentliteratur
  • Patentschrift 1: JP-2003-78802-A
  • Zusammenfassung der Erfindung
  • Wenn bei der Anordnung nach der Patentschrift 1 ein Scharfstellen bei einem Objektivabstand durchgeführt wird, der ein Abstand vom Hauptpunkt des Bildaufnahmeobjektivs zum Objekt ist, ist ein Scharfstellbereich, der weiter ist als der Objektivabstand, als eine hintere Schärfentiefe definiert, und ein Scharfstellbereich näher zum Bildaufnahmeobjektiv bezüglich des Objektivabstands ist als eine vordere Schärfentiefe definiert. Wenn sich daher weder in der vorderen Schärfentiefe noch in der hinteren Schärfentiefe ein aufzunehmendes Objekt befindet, ist es notwendig, die Abstände von dem Hauptpunkt der Bildaufnahmeobjektive des ersten Bildaufnahmeelements und des zweiten Bildaufnahmeelements jedes Mal zu berechnen, um die Bildaufnahmeelement-Ansteuervorrichtung anzusteuern, und es besteht eine Möglichkeit, dass für eine bestimmte Zeit eine Funktionsverzögerung auftritt. Wenn beispielsweise die Bildaufnahmevorrichtung in einer Fabrik oder dergleichen angeordnet ist, werden die Abstände zu einem oder mehreren durch die Bildaufnahmevorrichtung zu beobachtenden Objekten (beispielsweise Frachtstück oder Person) oft grob bestimmt. Auf diese Weise kann angesichts einer Tatsache, dass die Abstände zu einem oder mehreren Objekten, gesehen von der Bildaufnahmevorrichtung aus, unveränderlich sind, gesagt werden, dass Spielraum zur Verbesserung beim Erlangen eines hochwertigen Aufnahmebildes besteht, das dem Objekt entspricht, während das Auftreten der Funktionsverzögerung verhindert wird.
  • Die vorliegende Offenbarung wurde im Hinblick auf die oben beschriebenen Umstände des Stands der Technik erstellt, und eine Aufgabe der vorliegenden Offenbarung ist es, eine Bildaufnahmevorrichtung vorzusehen, die das Auftreten einer Funktionsverzögerung bei der Bildaufnahme eines oder mehrerer Objekte verhindert, die sich in einem vorab festgelegten Abstandsbereich befinden, und die flexibel ein hochwertiges Aufnahmebild erlangt, das jedem Objekt entspricht.
  • Die vorliegende Offenbarung sieht eine Bildaufnahmevorrichtung vor, enthaltend: ein Objektiv, auf das Licht von mindestens einem Objekt fällt; ein Spektralprisma mit einer ersten Fläche, die erstes Licht mit einer ersten Wellenlänge unter dem Licht von dem Objekt bei einem ersten Reflexionsgrad reflektiert, und einer zweiten Fläche, die zweites Licht mit einer zweiten Wellenlänge unter Licht, das durch die erste Fläche durchgelassen ist, bei einem zweiten Reflexionsgrad reflektiert; eine erste Bildaufnahmeeinheit, die ein erstes Bild des Objekts bei einer ersten Schärfentiefe auf Grundlage mindestens des durch die erste Fläche reflektierten ersten Lichts aufnimmt; eine zweite Bildaufnahmeeinheit, die ein zweites Bild des Objekts bei einer zweiten Schärfentiefe auf Grundlage mindestens des durch die zweite Fläche reflektierten zweiten Lichts aufnimmt; eine dritte Bildaufnahmeeinheit, die ein drittes Bild des Objekts bei einer dritten Schärfentiefe auf Grundlage von mindestens durch die erste Fläche oder die zweite Fläche durchgelassenem drittem Licht aufnimmt; eine Signalverarbeitungseinheit, die das erste Bild, das zweite Bild und das dritte Bild synthetisiert und das synthetisierte Bild ausgibt.
  • Gemäß der vorliegenden Offenbarung ist es möglich, das Auftreten einer Funktionsverzögerung bei der Bildaufnahme eines oder mehrerer Objekte zu verhindern, die sich in einem vorab festgelegten Abstandsbereich befinden, und flexibel ein hochwertiges Aufnahmebild zu erlangen, das jedem Objekt entspricht.
  • Figurenliste
    • 1 ist ein Diagramm, das ein Beispiel eines Anwendungsfalls einer Spektralprismenkamera gemäß einer ersten Ausführungsform zeigt.
    • 2 ist eine perspektivische Ansicht, die einen inneren Hardwareaufbau der Spektralprismenkamera gemäß der ersten Ausführungsform darstellt.
    • 3 ist eine perspektivische Schnittansicht, die den inneren Hardwareaufbau der in 2 gezeigten Spektralprismenkamera darstellt.
    • 4 ist ein Blockdiagramm, das einen inneren funktionellen Aufbau der in 2 gezeigten Spektralprismenkamera zeigt.
    • 5 ist ein schematisches Diagramm, das eine Übersicht von Funktionsweisen bezüglich der Lichtaufteilung eines in 2 gezeigten Kreuzprismas zeigt.
    • 6 ist eine Tabelle, die Eigenschaften jedes in 2 gezeigten Typs von Spektralprismen zeigt.
    • 7 ist eine perspektivische Ansicht, die einen inneren Hardwareaufbau von in 2 gezeigten optischen Filtern darstellt.
    • 8 ist eine Grafik, die Durchlasskennlinien aller in 7 gezeigten optischen Filter zeigt.
    • 9A ist eine Grafik, die ein erstes Beispiel von Durchlasskennlinien jedes der in 7 gezeigten optischen Filter zeigt.
    • 9B ist eine Grafik, die ein zweites Beispiel von Durchlasskennlinien jedes der in 7 gezeigten optischen Filter zeigt.
    • 10 ist ein Flussdiagramm, das ein Beispiel eines Funktionsablaufs der Spektralprismenkamera gemäß der ersten Ausführungsform zeigt.
    • 11 ist ein schematisches Diagramm, das eine erste Abwandlung der ersten Ausführungsform zeigt.
    • 12 ist ein Fotografie, die eine zweite Abwandlung der ersten Ausführungsform zeigt.
    • 13 ist eine Darstellung, die ein Beispiel eines Anwendungsfalls einer Spektralprismenkamera gemäß einer zweiten Ausführungsform zeigt.
    • 14 ist ein Flussdiagramm, das ein Beispiel eines Funktionsablaufs der Spektralprismenkamera gemäß der zweiten Ausführungsform zeigt.
  • Beschreibung von Ausführungsformen
  • Nachstehend ist eine Vielzahl von Ausführungsformen, die speziell eine Bildaufnahmevorrichtung gemäß der vorliegenden Offenbarung offenbaren, ggf. unter Bezugnahme auf die Zeichnung, genau beschrieben. Jedoch kann eine unnötig genaue Beschreibung weggelassen sein. So kann beispielsweise die genaue Beschreibung eines wohl bekannten Sachverhalts oder die wiederholte Beschreibung einer im Wesentlichen gleichen Anordnung weggelassen sein. Dies dient dem Vermeiden unnötiger Redundanz bei der folgenden Beschreibung und dem Erleichtern des Verständnisses für Fachleute. Ferner ist auf jede der begleitenden Figuren gemäß einer Richtung der Bezugszahlen Bezug genommen. Die beigefügte Zeichnung und die folgende Beschreibung sind vorgesehen, damit Fachleute die vorliegende Offenbarung vollständig verstehen, und sie sollen den in den Ansprüchen beschriebenen Gegenstand nicht einschränken.
  • Als die Bildaufnahmevorrichtung gemäß der vorliegenden Offenbarung sind beispielsweise eine Etikettenerkennungsvorrichtung für ein in einem Verteilerzentrum verwendetes Frachtsortiersystem (siehe die erste Ausführungsform) oder eine Bildaufnahmevorrichtung in Kopfmontage (siehe die zweite Ausführungsform), die einen betroffenen Teil eines Patienten aufnimmt, sodass der betroffene Teil durch einen Arzt in einem Operationssaal eines Krankenhauses leicht visuell zu erkennen ist, als Beispiel beschrieben, aber die vorliegende Offenbarung ist nicht auf diese Beispiele beschränkt. Der Inhalt der vorliegenden Offenbarung kann für verschiedene Anwendungen angewandt werden, solange der Inhalt der vorliegenden Offenbarung ein Bild eines vorgegebenen Objekts aufnehmen kann.
  • Ferner ist die „Einheit“ oder die „Vorrichtung“ in jeder der Ausführungsformen nicht auf eine physische Anordnung beschränkt, die einfach mechanisch durch Hardware umgesetzt ist, und umfasst eine Anordnung, in der eine Funktion durch Software, wie etwa ein Programm, umgesetzt ist. Ferner kann eine Funktion einer Anordnung durch zwei oder mehr physische Anordnungen umgesetzt sein, oder Funktionen von zwei oder mehr Anordnungen können beispielsweise durch eine einzige physische Anordnung umgesetzt sein.
  • (Erste Ausführungsform)
  • Eine erste Ausführungsform gemäß der vorliegenden Offenbarung ist unter Bezugnahme auf 1 bis 12 beschrieben.
  • Ein Beispiel eines Anwendungsfalls gemäß der ersten Ausführungsform ist nachstehend unter Bezugnahme auf 1 beschrieben. 1 ist eine Darstellung, die ein Beispiel eines Anwendungsfalls einer Spektralprismenkamera 100 gemäß der ersten Ausführungsform zeigt. Die Spektralprismenkamera 100 ist ein Beispiel der Bildaufnahmevorrichtung gemäß der vorliegenden Offenbarung.
  • Wie in 1 gezeigt, enthält ein beispielsweise in einem Verteilerzentrum verwendetes Frachtsortiersystem eine Transportvorrichtung BC (beispielsweise eine Fördervorrichtung) für verschiedene Arten von Frachtstücken PK mit verschiedenen Höhen, und eine Etikettenerkennungsvorrichtung, in der die Spektralprismenkamera 100 gemäß der ersten Ausführungsform als ein Teil davon vorgesehen ist.
  • Die Transportvorrichtung BC transportiert eine Vielzahl von Arten von Frachtstücken PK mit verschiedenen Höhen (mit anderen Worten, Maßen in einer Richtung [vertikalen Richtung] senkrecht zu einer Transportfläche der Transportvorrichtung BC) entlang einer Transportrichtung davon. Die Frachtstücke PK weisen jeweils beispielsweise eine Kastenform auf, wie etwa ein Karton, und ein Barcode BD aus unsichtbarer Tinte ist auf oberen Flächen der Frachtstücke PK als Etikett beschriftet. Die unsichtbare Tinte weist eine Eigenschaft auf, Nahinfrarotlicht (IR-Licht) auszusenden (zu reflektieren), wenn sie Licht empfängt, und kann vom menschlichen Auge nicht wahrgenommen werden.
  • Wie weiter unten beschrieben, enthält die Spektralprismenkamera 100 gemäß der ersten Ausführungsform ein Kreuzprisma CXP (ein Beispiel eines Spektralprismas), eine erste Kameraeinheit 11 (ein Beispiel einer ersten Bildaufnahmeeinheit), eine zweite Kameraeinheit 12 (ein Beispiel einer zweiten Bildaufnahmeeinheit) und eine dritte Kameraeinheit 13 (ein Beispiel einer dritten Bildaufnahmeeinheit). Eine Einfallsachse IMX der Spektralprismenkamera 100 ist entlang einer Höhenrichtung der Frachtstücke PK angeordnet, und die Spektralprismenkamera 100 nimmt die oberen Flächen der Frachtstücke PK auf, die transportiert werden. In dem vorliegenden Anwendungsfall sind alle aus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 so vorgesehen, dass sie in der Lage sind, im Nahinfrarotlicht (IR-Licht) aufzunehmen.
  • Im vorliegenden Anwendungsfall werden, wie oben beschrieben, die Frachtstücke PK mit verschiedenen Höhen durch die Transportvorrichtung BC transportiert, und die Spektralprismenkamera 100 gemäß der ersten Ausführungsform kann eine Vielzahl von Brennweitenpositionen und eine Vielzahl von Schärfentiefen durch jede aus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 umsetzen.
  • Das heißt, aufgrund dieser Umsetzung kann mit der Spektralprismenkamera 100 gemäß der ersten Ausführungsform die Schärfentiefe auch relativ durch eine einzige Kamera (beispielsweise die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13) erweitert werden, und somit ist es möglich, einen weiten Dynamikbereich in der Höhenrichtung oder einer Tiefenrichtung zu erhalten, gesehen von der Spektralprismenkamera 100 aus. Zum Beispiel sind in der ersten Ausführungsform Bereiche einer ersten Schärfentiefe D1, einer zweiten Schärfentiefe D2 und einer dritten Schärfentiefe D3, die jeweils durch die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13 umgesetzt sind, räumlich und kontinuierlich in der Höhenrichtung oder der Tiefenrichtung vorgesehen (beispielsweise der oben beschriebenen senkrechten Richtung [vertikalen Richtung]), gesehen von der Spektralprismenkamera 100 aus. Demgemäß ist eine Funktion des Erlangens einer weiteren Schärfentiefe in der Höhenrichtung oder der Tiefenrichtung als der Schärfentiefe einer einzelnen Kameraeinheit (beispielsweise der ersten Kameraeinheit 11) umgesetzt. (Nachstehend kann diese Funktion als „SDDF“ (Super Dynamic Depth of Field, superdynamische Schärfentiefe) abgekürzt sein.) Daher kann, sogar wenn der weite Bereich der Schärfentiefe umgesetzt ist und die Frachtstücke PK mit verschiedenen Höhen transportiert werden, die Spektralprismenkamera 100 gemäß der ersten Ausführungsform den Barcode BD aus der unsichtbaren Tinte mit hoher Genauigkeit aufnehmen, indem sie geeignet auf den Barcode BD scharfstellt.
  • Als eine weitere Anordnung, bei der die Spektralprismenkamera 100 einen Aufbau aufweist, bei dem eine Kameraeinheit, die in der Lage ist, Nahinfrarotlicht (IR-Licht) aufzunehmen, und eine Kameraeinheit enthalten sind, die in der Lage ist, sichtbares Licht aufzunehmen, ist es möglich, ein Bild zu erlangen, in dem sowohl sichtbares Licht als auch Nahinfrarotlicht (IR-Licht) synthetisiert sind. Das heißt, sichtbares Licht, das durch die gesamte obere Fläche des Frachtstücks PK reflektiert wird, und Nahinfrarotlicht (IR-Licht), das durch den Barcode BD aus der unsichtbaren Tinte reflektiert wird, werden durch das Kreuzprisma CXP (siehe die folgende Beschreibung) aufgeteilt und werden jeweils einzeln durch die Vielzahl von Kameraeinheiten aufgenommen (das heißt, die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13). Dann werden die Bilder, in denen sowohl das sichtbare Licht als auch das Nahinfrarotlicht (IR-Licht) einzeln und jeweils aufgenommen sind, in ein Bild synthetisiert und auf einer Anzeigevorrichtung DP, wie etwa einem Display, angezeigt. Daher kann die Spektralprismenkamera 100 gemäß der ersten Ausführungsform ein Bild überlagern, in dem der Barcode BD aus der unsichtbaren Tinte auf einem Bild wiedergegeben ist, in dem eine äußere Form der oberen Fläche des Frachtstücks PK wiedergegeben ist, und das überlagerte Bild anzeigen. Daher ist es in diesem Fall möglich, die Sichtbarkeit des Barcodes BD des Frachtstücks PK zu verbessern und die Sortiereffizienz zu verbessern.
  • [Aufbau der Spektralprismenkamera]
  • Der Aufbau der Spektralprismenkamera 100 ist mit Bezugnahme auf 2 bis 4 beschrieben. 2 ist eine perspektivische Ansicht, die einen inneren Hardwareaufbau der Spektralprismenkamera 100 gemäß der ersten Ausführungsform darstellt. 3 ist eine perspektivische Schnittansicht, die den inneren Hardwareaufbau der in 2 gezeigten Spektralprismenkamera 100 darstellt. 4 ist ein Blockdiagramm, das einen inneren funktionellen Aufbau der in 2 gezeigten Spektralprismenkamera 100 zeigt.
  • Wie in 2 bis 4 gezeigt, enthält die Spektralprismenkamera 100 eine gemeinsam genutztes Objektiv LS (ein Beispiel eines Objektivs), eine Kamerakopfeinheit 10, eine Kamerasignalverarbeitungseinheit 20, eine Kamerasteuereinheit (CCU) 30 (ein Beispiel einer Signalverarbeitungseinheit), eine Kamerasteuereinheit 40 (ein Beispiel einer Steuereinheit), eine Auto-Rückfokussierungs-Steuereinheit (ABF-Steuereinheit) 41, eine Beleuchtungssteuereinheit 42, eine Polarisationsfilter-Steuereinheit 43, eine Objektivsteuereinheit 44 und eine Beleuchtungseinheit ILM. Die Spektralprismenkamera 100 ist mit der Anzeigevorrichtung DP über eine drahtgebundene oder drahtlose Verbindung verbunden, und die Anzeigevorrichtung DP zeigt ein durch die Spektralprismenkamera 100 aufgenommenes Bild oder Video an.
  • Das gemeinsam genutzte Objektiv LS als ein Beispiel eines Objektivs ist als eine Objektivbaugruppe ausgebildet, die ein optisches Objektiv enthält, angebracht auf einer Objektseite (mit anderen Worten, einer Seite des Frachtstücks PK [siehe 1] als eines Beispiels eines durch die Transportvorrichtung BC transportierten Objekts) bezüglich des (weiter unten beschriebenen) Kreuzprismas CXP der Kamerakopfeinheit 10. Das Licht von dem Frachtstück PK als einem Beispiel des Objekts (beispielsweise von der oberen Fläche des Frachtstücks PK reflektiertes Licht) fällt in das gemeinsam genutzte Objektiv LS, und das gemeinsam genutzte Objektiv LS kondensiert das einfallende Licht. Das Licht von dem Frachtstück PK als einem Beispiel des Objekts, das durch das gemeinsam genutzte Objektiv LS kondensiert ist, fällt auf das Kreuzprisma CXP der Kamerakopfeinheit 10.
  • Die Kamerakopfeinheit 10 ist auf der Objektseite (das heißt, der Seite des Frachtstücks PK, das durch die Transportvorrichtung BC transportiert wird) nahe dem gemeinsam genutzten Objektiv LS angeordnet und verteilt das durch die gemeinsam genutzte Objektiv LS durchgelassene Licht. Die Kamerakopfeinheit 10 enthält ein Polarisationsfilter PLF, das Kreuzprisma CXP mit zwei optischen Flächen (siehe beispielsweise eine A-Fläche AS und eine B-Fläche BS, die weiter unten beschrieben sind), die erste Kameraeinheit 11 (ein Beispiel der ersten Bildaufnahmeeinheit), die zweite Kameraeinheit 12 (ein Beispiel der zweiten Bildaufnahmeeinheit) und die dritte Kameraeinheit 13 (ein Beispiel der dritten Bildaufnahmeeinheit).
  • Das Polarisationsfilter PLF weist eine optische Eigenschaft auf, eine bestimmte Polarisationskomponente (beispielsweise eine p-Polarisationskomponente und eine s-Polarisationskomponente bezüglich einer Bewegungsrichtung des Lichts, festgelegt durch die Polarisationsfilter-Steuereinheit 43) des durch das gemeinsam genutzte Objektiv LS kondensierten Lichts (das heißt, des Lichts vom Objekt) durchzulassen.
  • Das Kreuzprisma CXP (ein Beispiel des Spektralprismas) weist eine A-Fläche AS (ein Beispiel einer ersten Fläche) und eine B-Fläche BS (ein Beispiel einer zweiten Fläche) mit Eigenschaften einer optischen Fläche auf und ist durch ein Prismabefestigungselement FX befestigt. Das Kreuzprisma CXP reflektiert auf der A-Fläche AS oder der B-Fläche BS das durch das gemeinsam genutzte Objektiv LS kondensierte Licht und lässt es durch (das heißt, das Licht von dem Frachtstück PK als dem Objekt).
  • Das heißt, das Kreuzprisma CXP weist die A-Fläche AS, die bei einem ersten Reflexionsgrad erstes Licht (beispielsweise sichtbares Licht oder Nahinfrarotlicht) mit einer ersten Wellenlänge (beispielsweise einem Wellenlängenband von sichtbarem Licht oder Nahinfrarotlicht) unter dem Licht von dem Frachtstück PK (einem Beispiel des Objekts) reflektiert, das durch die Transportvorrichtung BC transportiert wird, und die B-Fläche BS auf, die bei einem zweiten Reflexionsgrad zweites Licht (beispielsweise sichtbares Licht oder Nahinfrarotlicht) mit einer zweiten Wellenlänge (beispielsweise einem Wellenlängenband von sichtbarem Licht oder Nahinfrarotlicht) unter dem Licht reflektiert, das durch die A-Fläche AS durchgelassen ist (siehe 5). In der ersten Ausführungsform ist das Kreuzprisma CXP abnehmbar in einem Hauptteil der Spektralprismenkamera 100 vorgesehen, und eine Vielzahl von Typen von Kreuzprismen CXP mit unterschiedlichen optischen Eigenschaften sind vorbereitet, und das Kreuzprisma CXP wird gemäß den Anwendungen gewählt und am Hauptteil angebracht (siehe 6).
  • Die erste Kameraeinheit 11 enthält eine erste Halteeinheit FH1 für optische Filter, einen ersten Bildsensor ISR1 und eine erste Auto-Rückfokussierungsvorrichtung ABF1 (ein Beispiel einer Ansteuereinheit). Die erste Kameraeinheit 11 nimmt ein erstes Bild IMG1 der oberen Fläche (eines Beispiels eines Objekts) des Frachtstücks PK mit der ersten Schärfentiefe D1 auf Grundlage des ersten Lichts (beispielsweise sichtbaren Lichts oder Nahinfrarotlichts) auf, das durch die A-Fläche AS des Kreuzprismas CXP reflektiert ist.
  • Jede aus der ersten Halteeinheit FH1 für optische Filter, einer zweiten Halteeinheit FH2 für optische Filter (weiter unten beschrieben) und einer dritten Halteeinheit FH3 für optische Filter (weiter unten beschrieben) ist so ausgebildet, dass sie beispielsweise ein Bandpassfilter (BPF) umsetzt, das eine Vielzahl von optischen Filtern OPF (ein Beispiel eines weiter unten beschriebenen Filters) hält, nur Licht mit einer vorgegebenen Wellenlänge durchlässt und Licht mit Wellenlängen anderer Bänder sperrt.
  • Der erste Bildsensor ISR1 enthält beispielsweise einen ladungsgekoppelten Baustein (CCD-Baustein) oder einen komplementären Metall-Oxid-Halbleiterbaustein (CMOS-Baustein), in dem eine Vielzahl von für Nahinfrarotlicht (IR-Licht) mit einer Wellenlänge von 830 ± 30 nm geeigneten Pixeln angeordnet ist.
  • Der erste Bildsensor ISR1 ist so angeordnet, dass eine erste Bildaufnahmeachse CAX1, rechtwinklig zur Einfallsachse IMX, und eine Bildaufnahmefläche rechtwinklig zueinander stehen, sodass durch die A-Fläche AS des Kreuzprismas CXP reflektiertes oder totalreflektiertes Licht (Nahinfrarotlicht [IR-Licht] in der ersten Ausführungsform) leicht empfangen wird. Der erste Bildsensor ISR1 nimmt die obere Fläche des durch die Transportvorrichtung BC transportierten Frachtstücks PK auf Grundlage des empfangenen Lichts (ersten Lichts) auf. Der erste Bildsensor ISR1 sendet ein Signal des ersten Bildes IMG1 (beispielsweise eines Nahinfrarotbildes) bezüglich der oberen Fläche des Frachtstücks PK, das durch Aufnehmen erhalten ist, zu einer ersten Signalverarbeitungseinheit 21.
  • In der ersten Ausführungsform ist, um den Barcode BD aus der unsichtbaren Tinte zu lesen, der auf der oberen Fläche des Frachtstücks PK beschriftet ist, der erste Bildsensor ISR1 ausgebildet, in der Lage zu sein, das Nahinfrarotbild zu erlangen, aber die vorliegende Offenbarung ist nicht darauf beschränkt. Abhängig von anderen Anwendungen (Anwendungsfällen) als dem obigen, kann der erste Bildsensor ISR1 einen Aufbau aufweisen, der einen CCD- oder einen CMOS-Baustein enthält, in dem eine Vielzahl von zum Aufnehmen von sichtbarem Licht geeigneten Pixeln angeordnet ist. Dasselbe gilt für den zweiten Bildsensor ISR2 und den dritten Bildsensor ISR3, die weiter unten beschrieben sind.
  • Die erste Auto-Rückfokussierungsvorrichtung ABF1 ist beispielsweise durch eine Vorrichtung gebildet, die im japanischen Patent Nr. 3738777 offenbart ist. Die erste Auto-Rückfokussierungsvorrichtung ABF1 justiert eine Brennweite des ersten Bildsensors ISR1 geeignet, indem sie den ersten Bildsensor ISR1 in einer Richtung der ersten Bildaufnahmeachse CAX1 bewegt, während sie den Zustand beibehält, in dem die Bildaufnahmefläche des ersten Bildsensors ISR1 rechtwinklig zu der ersten Bildaufnahmeachse CAX1 steht, auf Grundlage eines Steuersignals von der ABF-Steuereinheit 41 (siehe die nachstehende Beschreibung).
  • Das heißt, gemäß der ersten Auto-Rückfokussierungsvorrichtung ABF1 kann beispielsweise, sogar wenn ein Wellenlängenband des durch den ersten Bildsensor ISR1 empfangenen Lichts als ein anderes Wellenlängenband durch die Kamerasteuereinheit 40 (weiter unten beschrieben) gewählt ist, oder sogar wenn aufgrund des anderen Wellenlängenbandes eine Änderung der optischen Pfadlänge vorhanden ist, der erste Bildsensor ISR1 in der Richtung der ersten Bildaufnahmeachse CAX1 (eines Beispiels einer Richtung einer optischen Achse) bewegt werden, sodass ein deutliches Nahinfrarotbild oder Bild im sichtbaren Licht, das scharfgestellt ist, erhalten werden kann.
  • Der erste Bildsensor ISR1 kann innerhalb der ersten Auto-Rückfokussierungsvorrichtung ABF1 angeordnet sein oder kann getrennt von der ersten Auto-Rückfokussierungsvorrichtung ABF1 vorgesehen sein. Dasselbe gilt für den zweiten Bildsensor ISR2 (weiter unten beschrieben) und den dritten Bildsensor ISR3 (weiter unten beschrieben).
  • Ähnlich der ersten Kameraeinheit 11 enthält auch die zweite Kameraeinheit 12 die zweite Halteeinheit FH2 für optische Filter, den zweiten Bildsensor ISR2 und eine zweite Auto-Rückfokussierungsvorrichtung ABF2 (ein Beispiel der Ansteuereinheit). Die zweite Kameraeinheit 12 nimmt ein zweites Bild IMG2 der oberen Fläche des Frachtstücks PK mit der zweiten Schärfentiefe D2 auf Grundlage des zweiten Lichts auf, das durch die B-Fläche BS des Kreuzprismas CXP reflektiert ist.
  • Ähnlich dem ersten Bildsensor ISR1 kann der zweite Bildsensor ISR2 auch einen Aufbau aufweisen, der einen CCD- oder einen CMOS-Baustein enthält, in dem eine Vielzahl für Nahinfrarotlicht (IR-Licht) geeigneten Pixeln angeordnet ist. Wie oben beschrieben, kann der zweite Bildsensor ISR2 auch einen Aufbau aufweisen, der einen CCD- oder einen CMOS-Baustein enthält, in dem eine Vielzahl von Pixeln angeordnet ist, die zum Aufnehmen bei sichtbarem Licht geeignet sind.
  • Der zweite Bildsensor ISR2 ist so angeordnet, dass eine zweite Bildaufnahmeachse CAX2, rechtwinklig zur Einfallsachse IMX, und eine Bildaufnahmefläche rechtwinklig zueinander stehen, sodass durch die B-Fläche BS des Kreuzprismas CXP reflektiertes oder totalreflektiertes Licht (Nahinfrarotlicht [IR-Licht] oder sichtbares Licht in der ersten Ausführungsform) leicht empfangen wird. Ähnlich nimmt auch der zweite Bildsensor ISR2 die obere Fläche des durch die Transportvorrichtung BC transportierten Frachtstücks PK auf Grundlage des empfangenen Lichts (zweiten Lichts) auf. Der zweite Bildsensor ISR2 sendet ein Signal des zweiten Bildes IMG2 (beispielsweise eines Nahinfrarotbildes oder eines Bildes im sichtbaren Licht) bezüglich der oberen Fläche des Frachtstücks PK, das durch das Aufnehmen erhalten ist, zu einer zweiten Signalverarbeitungseinheit 22.
  • Ähnlich der ersten Auto-Rückfokussierungsvorrichtung ABF1 ist auch die zweite Auto-Rückfokussierungsvorrichtung ABF2 beispielsweise durch die Vorrichtung gebildet, die im japanischen Patent Nr. 3738777 offenbart ist. Die zweite Auto-Rückfokussierungsvorrichtung ABF2 justiert eine Brennweite des zweiten Bildsensors ISR2 geeignet, indem sie den zweiten Bildsensor ISR2 in einer Richtung der zweiten Bildaufnahmeachse CAX2 bewegt, während sie den Zustand beibehält, in dem die Bildaufnahmefläche des zweiten Bildsensors ISR2 rechtwinklig zu der zweiten Bildaufnahmeachse CAX2 steht, auf Grundlage eines Steuersignals von der ABF-Steuereinheit 41.
  • Das heißt, gemäß der zweiten Auto-Rückfokussierungsvorrichtung ABF2 kann beispielsweise, sogar wenn ein Wellenlängenband des durch den zweiten Bildsensor ISR2 empfangenen Lichts als ein anderes Wellenlängenband durch die Kamerasteuereinheit 40 (siehe die nachstehende Beschreibung) gewählt ist, oder sogar wenn es aufgrund des anderen Wellenlängenbandes eine Änderung der optischen Pfadlänge gibt, der zweite Bildsensor ISR2 in der Richtung der zweiten Bildaufnahmeachse CAX2 (einem Beispiel der Richtung der optischen Achse) bewegt werden, sodass ein deutliches Nahinfrarotbild oder Bild im sichtbaren Licht, das scharfgestellt ist, erhalten werden kann. Da in der ersten Ausführungsform die erste Kameraeinheit 11 und die zweite Kameraeinheit 12 spiegelsymmetrisch bezüglich der Einfallsachse IMX angeordnet sind, fallen die erste Bildaufnahmeachse CAX1 und die zweite Bildaufnahmeachse CAX2 miteinander zusammen.
  • Ähnlich der ersten Kameraeinheit 11 und der zweiten Kameraeinheit 12 enthält auch die dritte Kameraeinheit 13 die dritte Halteeinheit FH3 für optische Filter, den dritten Bildsensor ISR3 und eine dritte Auto-Rückfokussierungsvorrichtung ABF3 (ein Beispiel der Ansteuereinheit). Die dritte Kameraeinheit 13 nimmt ein drittes Bild IMG3 der oberen Fläche (eines Beispiels eines Objekts) des Frachtstücks PK mit der dritten Schärfentiefe D3 auf Grundlage des dritten Lichts (beispielsweise im Wellenlängenband des sichtbaren Lichts oder Nahinfrarotlichts) auf, das durch die A-Fläche AS oder die B-Fläche BS des Kreuzprismas CXP durchgelassen ist. In der ersten Ausführungsform ist die dritte Kameraeinheit 13 so angeordnet, dass die Bildaufnahmeachse (optische Achse) der dritten Kameraeinheit 13 mit der Einfallsachse IMX zusammenfällt.
  • Ähnlich dem ersten Bildsensor ISR1 und dem zweiten Bildsensor ISR2 kann der dritte Bildsensor ISR3 auch einen Aufbau aufweisen, der einen CCD- oder einen CMOS-Baustein enthält, in dem eine Vielzahl für Nahinfrarotlicht (IR-Licht) geeigneten Pixeln angeordnet ist. Wie oben beschrieben, kann der dritte Bildsensor ISR3 auch einen Aufbau aufweisen, der einen CCD- oder einen CMOS-Baustein enthält, in dem eine Vielzahl von zum Aufnehmen von sichtbarem Licht geeigneten Pixeln angeordnet ist.
  • Der dritte Bildsensor ISR3 ist so angeordnet, dass die Einfallsachse IMX und eine Bildaufnahmefläche rechtwinklig zueinander stehen, sodass durch die A-Fläche AS oder die B-Fläche BS des Kreuzprismas CXP durchgelassenes Licht (Nahinfrarotlicht [IR-Licht] oder sichtbares Licht in der ersten Ausführungsform) leicht empfangen wird. Ähnlich nimmt auch der dritte Bildsensor ISR3 die obere Fläche des durch die Transportvorrichtung BC transportierten Frachtstücks PK auf Grundlage des empfangenen Lichts (dritten Lichts) auf. Der dritte Bildsensor ISR3 sendet ein Signal des dritten Bildes IMG3 (beispielsweise eines Nahinfrarotbildes oder eines Bildes im sichtbaren Licht) bezüglich der oberen Fläche des Frachtstücks PK, das durch das Aufnehmen erhalten ist, zu einer dritten Signalverarbeitungseinheit 23.
  • Ähnlich der ersten Auto-Rückfokussierungsvorrichtung ABF1 und der zweiten Auto-Rückfokussierungsvorrichtung ABF2 ist auch die dritte Auto-Rückfokussierungsvorrichtung ABF3 beispielsweise durch die Vorrichtung gebildet, die im japanischen Patent Nr. 3738777 offenbart ist. Die dritte Auto-Rückfokussierungsvorrichtung ABF3 justiert eine Brennweite des dritten Bildsensors ISR3 geeignet, indem sie den dritten Bildsensor ISR3 in der Richtung der Einfallsachse IMX bewegt, während sie den Zustand beibehält, in dem die Bildaufnahmefläche des dritten Bildsensors ISR3 rechtwinklig zu der Einfallsachse IMX steht, auf Grundlage eines Steuersignals von der ABF-Steuereinheit 41.
  • Das heißt, gemäß der dritten Auto-Rückfokussierungsvorrichtung ABF3 kann beispielsweise, sogar wenn ein Wellenlängenband des durch den dritten Bildsensor ISR3 empfangenen Lichts als ein anderes Wellenlängenband durch die Kamerasteuereinheit 40 gewählt ist, oder sogar wenn es aufgrund des anderen Wellenlängenbandes eine Änderung der optischen Pfadlänge gibt, der dritte Bildsensor ISR3 in der Richtung der Einfallsachse IMX (einem Beispiel der Richtung der optischen Achse) bewegt werden, sodass ein deutliches Nahinfrarotbild, das scharfgestellt ist, erhalten werden kann. Ferner enthält, sogar wenn, da eine Vielzahl von Objekten verschiedene Abstände von der Spektralprismenkamera 100 aufweist, eine Vielzahl von Längen von Brennweiten zu den jeweiligen Objekten bestehen, die Spektralprismenkamera 100 eine Vielzahl von Kameraeinheiten (beispielsweise die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13) mit verschiedenen Schärfentiefen, und somit ist es möglich, Bilder für die jeweiligen Objekte zu erhalten, die scharfgestellt sind.
  • Die Kamerasignalverarbeitungseinheit 20 erzeugt Aufnahmebilddaten in einem Format (beispielsweise einem RGB-Format oder einem YUV-Format), das durch einen Menschen erkannt werden kann, unter Verwendung eines Signals eines Bildes, das erhalten ist durch ein Aufnehmen in der Kamerakopfeinheit 10. Die Kamerasignalverarbeitungseinheit 20 enthält die erste Signalverarbeitungseinheit 21, die zweite Signalverarbeitungseinheit 22 und die dritte Signalverarbeitungseinheit 23. Ferner kann die CCU 30 (siehe die nachstehende Beschreibung) so ausgebildet sein, dass sie in der Kamerasignalverarbeitungseinheit 20 enthalten ist.
  • Jede aus der ersten Signalverarbeitungseinheit 21, der zweiten Signalverarbeitungseinheit 22 und der dritten Signalverarbeitungseinheit 23 ist ausgebildet durch einen Prozessor, wie etwa einen digitalen Signalprozessor (DSP) oder eine feldprogrammierbare Gatteranordnung (ein FPGA). Die erste Signalverarbeitungseinheit 21 führt verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Bildsignals vom ersten Bildsensor ISR1 durch, erzeugt die Aufnahmebilddaten und sendet die Aufnahmebilddaten zur CCU 30. Ähnlich führt auch die zweite Signalverarbeitungseinheit 22 verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Bildsignals vom zweiten Bildsensor ISR2 durch, erzeugt die Aufnahmebilddaten und sendet die Aufnahmebilddaten zur CCU 30. Ähnlich führt auch die dritte Signalverarbeitungseinheit 23 verschiedene Arten von Kamerasignalverarbeitung unter Verwendung des Bildsignals vom dritten Bildsensor ISR3 durch, erzeugt die Aufnahmebilddaten und sendet die Aufnahmebilddaten zur CCU 30.
  • Die durch jede aus der ersten Signalverarbeitungseinheit 21, der zweiten Signalverarbeitungseinheit 22 und der dritten Signalverarbeitungseinheit 23 erzeugten Aufnahmebilddaten sind als Daten eines Bildes im sichtbaren Licht, Nahinfrarot-Bilddaten oder Daten eines Bildes in einer bestimmten Wellenlänge der oberen Fläche des Frachtstücks PK auf Grundlage eines Typs des Kreuzprismas CXP und des entsprechenden inneren Aufbaus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 definiert und werden abhängig von den Anwendungen der Spektralprismenkamera 100 geeignet gewählt oder festgelegt. Die Daten eines Bildes in einer bestimmten Wellenlänge sind Bilddaten, die erhalten sind durch ein Extrahieren nur von Komponenten in einem bestimmten, vorab festgelegten Wellenlängenband durch die Kamerasignalverarbeitung, die in jeder aus der ersten Signalverarbeitungseinheit 21, der zweiten Signalverarbeitungseinheit 22 und der dritten Signalverarbeitungseinheit 23 durchgeführt wird.
  • Die CCU 30 als ein Beispiel der Signalverarbeitungseinheit ist ausgebildet durch einen Prozessor, wie etwa einen DSP oder ein FPGA, und führt verschiedene Arten von Bildanalyseverarbeitung (beispielsweise Berechnung zwischen Bildern oder Bildsynthese) unter Verwendung der Aufnahmebilddaten von jeder aus der ersten Signalverarbeitungseinheit 21, der zweiten Signalverarbeitungseinheit 22 und der dritten Signalverarbeitungseinheit 23 durch. Zum Beispiel ist die CCU 30 so ausgebildet, dass sie in der Lage ist, eine Hochkontrastwiedergabe (high-dynamic-range rendering, HDR) als eine Art der Bildanalyseverarbeitung durchzuführen. Ferner führt die CCU 30 die Bildsynthese durch, bei der die Bilddaten (das erste Bild IMG1) von der ersten Signalverarbeitungseinheit 21, die Bilddaten (das zweite Bild IMG2) von der zweiten Signalverarbeitungseinheit 22 und die Bilddaten (das dritten Bild IMG3) von der dritten Signalverarbeitungseinheit 23 überlagert werden, und gibt die überlagerten Bilddaten aus und zeigt sie auf der Anzeigevorrichtung DP an (mit anderen Worten, führt die Bildsynthese durch und gibt die überlagerten Bilddaten aus).
  • Die CCU 30 kann einen Zustand, eine Eigenschaft und dergleichen eines Objekts, wie etwa der oberen Fläche des Frachtstücks PK oder eines Gegenstands (beispielsweise eines zu analysierenden Gegenstands), der auf das Objekt gesetzt ist, durch die oben beschriebene Bildanalyseverarbeitung analysieren (siehe beispielsweise eine weiter unten beschriebene zweite Abwandlung der ersten Ausführungsform sowie 12).
  • Die Kamerasteuereinheit 40 als ein Beispiel der Steuereinheit ist ausgebildet durch einen Prozessor, wie etwa eine Zentraleinheit (CPU), einen DSP oder ein FPGA, und führt insgesamt verschiedene Arten von Steuerung bezüglich der Arbeitsgänge der Spektralprismenkamera 100 durch. Zum Beispiel sendet die Kamerasteuereinheit 40 ein Steuersignal bezüglich der Auto-Rückfokussierung zur ABF-Steuereinheit 41 und sendet ein Steuersignal bezüglich der Beleuchtung zur Beleuchtungssteuereinheit 42. Ferner sendet die Kamerasteuereinheit 40 ein Steuersignal bezüglich der Polarisierungseigenschaften des Polarisationsfilters PLF zur Polarisationsfilter-Steuereinheit 43 und sendet ein Steuersignal bezüglich der Justierung der Eigenschaften des gemeinsam genutzten Objektivs LS zur Objektiv-Steuereinheit 44. Ferner erzeugt und sendet die Kamerasteuereinheit 40 ein Steuersignal der Schärfentiefe auf Grundlage von Abstandsinformationen zum Objekt als das oben beschriebene Steuersignal bezüglich der Auto-Rückfokussierung. Die Kamerasteuereinheit 40 kann so ausgebildet sein, dass sie in der Lage ist, verschiedene Arten von Steuerung bezüglich der Funktionen der Spektralprismenkamera 100 auszuführen, indem sie ein externes Steuersignal auf Grundlage einer externen Eingabe empfängt, die verschieden ist von derjenigen der Spektralprismenkamera 100.
  • Auf Grundlage des Steuersignals von der Kamerasteuereinheit 40 erzeugt und sendet die ABF-Steuereinheit 41 unabhängig Steuersignale bezüglich der Vorwärtsbewegung, Rückwärtsbewegung, Ursprungserkennung und des Positionshaltens an jede aus der ersten Auto-Rückfokussierungsvorrichtung ABF 1, der zweiten Auto-Rückfokussierungsvorrichtung ABF2 und der dritten Auto-Rückfokussierungsvorrichtung ABF3. Demgemäß kann jede aus der ersten Auto-Rückfokussierungsvorrichtung ABF1, der zweiten Auto-Rückfokussierungsvorrichtung ABF2 und der dritten Auto-Rückfokussierungsvorrichtung die Vorwärtsbewegung, die Rückwärtsbewegung, die Ursprungserkennung und das Positionshalten auf Grundlage der Steuersignale von der ABF-Steuereinheit 41 ausführen.
  • Die Beleuchtungssteuereinheit 42 erzeugt ein Steuersignal bezüglich des Ein-/Ausschaltens und der Lichtmenge, die von der Beleuchtungseinheit ILM ausgesendet wird, auf Grundlage des Steuersignals von der Kamerasteuereinheit 40 und sendet das Steuersignal zur Beleuchtungseinheit ILM.
  • Die Polarisationsfilter-Steuereinheit 43 schaltet das Polarisationsfilter PLF auf Grundlage des Steuersignals von der Kamerasteuereinheit 40 ein, um einen Polarisierungswinkel des durch das Polarisationsfilter PLF durchzulassenden Lichts von dem Objekt einzustellen (beispielsweise Winkel der p-Polarisierungskomponente und der s-Polarisierungskomponente bezüglich der Bewegungsrichtung des Lichts von dem Objekt).
  • Die Objektivsteuereinheit 44 erzeugt ein Steuersignal bezüglich einer Blende, einer Vergrößerung und einer Brennweite des gemeinsam genutzten Objektivs LS auf Grundlage des Steuersignals von der Kamerasteuereinheit 40. Demgemäß ist es in der Spektralprismenkamera 100 möglich, die Blende, die Vergrößerung und die Brennweite des gemeinsam genutzten Objektivs LS geeignet zu justieren.
  • Die Beleuchtungseinheit ILM bestrahlt ein Objekt, wie etwa die obere Fläche des Frachtstücks PK, mit sichtbarem Licht, Nahinfrarotlicht (IR-Licht) oder Anregungslicht in einem bestimmten Wellenlängenband auf Grundlage des Steuersignals von der Beleuchtungssteuereinheit 42. Das von der Beleuchtungseinheit ILM ausgesendete Licht ist beispielsweise sichtbares Licht, Nahinfrarotlicht (IR-Licht) oder Anregungslicht in einem bestimmten Wellenlängenband. In der ersten Ausführungsform ist es möglich, den Barcode BD aus der unsichtbaren Tinte, der auf der oberen Fläche des Frachtstücks PK beschriftet ist, durch die Einstrahlung des Anregungslichts deutlicher aufzunehmen.
  • Die Anzeigevorrichtung DP ist ausgebildet unter Verwendung einer Anzeige, wie etwa einer Flüssigkristallanzeige (LCD) oder einer organischen Elektrolumineszenzvorrichtung (EL-Vorrichtung), und sie zeigt die Bilddaten an, nachdem die CCU 30 die Bildsynthese ausgeführt hat.
  • Mit Bezugnahme auf 5 und 6 sind eine Übersicht der Funktionsweisen bezüglich der Lichtverteilung des Kreuzprismas CXP sowie Eigenschaften jedes Typs von Spektralprismen beschrieben. 5 ist ein schematisches Diagramm, das die Übersicht der Funktionsweisen bezüglich der Lichtverteilung des in 2 gezeigten Kreuzprismas CXP zeigt. 6 ist eine Tabelle, die die Eigenschaften jedes in 2 gezeigten Typs der Spektralprismen zeigt.
  • Wie in 5 gezeigt, tritt das Licht (beispielsweise jedes aus Licht LT1 und Licht LT2, die in 5 dargestellt sind) von dem Objekt, wie etwa der oberen Fläche des Frachtstücks PK, durch das gemeinsam genutzte Objektiv LS (in 5 nicht gezeigt) und fällt auf das Kreuzprisma CXP (siehe 2 bis 4).
  • Bezüglich des Lichts LT1 wird ein Teil (das heißt, ein Teil des Lichts LT1) an einem ersten Punkt PT1 auf der B-Fläche BS des Kreuzprismas CXP reflektiert, und ein verbleibender Teil des Lichts LT1 wird durch die B-Fläche BS durchgelassen. Ein Verhältnis von Reflexion und Durchlassen des Lichts LT1 ist als optische Eigenschaft (genauer Reflexionsgrad) der B-Fläche BS ausgedrückt. Dasselbe gilt für die folgende Beschreibung (siehe 6). Ein Teil des durch die B-Fläche BS reflektierten Lichts LT1 ändert seine Richtung in einem rechten Winkel aufgrund der Reflexion durch die B-Fläche BS und läuft parallel zur zweiten Bildaufnahmeachse CAX2 (siehe 4). An einem zweiten Punkt PT2 auf der A-Fläche AS des Kreuzprismas CXP tritt ein Teil des Teils des durch die B-Fläche BS reflektierten Lichts LT1 durch die A-Fläche AS und das optische Filter OPF der zweiten Halteeinheit FH2 für optische Filter und wird durch den zweiten Bildsensor ISR2 empfangen. Gleichzeitig wird ein verbleibender Teil des Teils des Lichts LT1 (das heißt, ein Teil des Lichts LT1, der am ersten Punkt PT1 reflektiert ist und nicht durch die A-Fläche AS tritt) am zweiten Punkt PT2 der A-Fläche AS reflektiert, läuft in eine Richtung entgegengesetzt zur Einfallsrichtung des Lichts und kehrt zurück (in 5 dargestelltes „Rücklicht RL1“).
  • Andererseits läuft ein verbleibender Teil des Lichts LT1, der durch den ersten Punkt PT1 tritt, parallel zur Einfallsachse IMX, und an einem dritten Punkt PT3 auf der A-Fläche AS des Kreuzprismas CXP tritt ein Teil des verbleibenden Teils des Lichts LT1 durch die A-Fläche AS und das optische Filter OPF der dritten Halteeinheit FH3 für optische Filter und wird durch den dritten Bildsensor ISR3 empfangen. Gleichzeitig wird ein verbleibender Teil des verbleibenden Teils des Lichts LT1 (das heißt, ein Teil des Lichts LT1, der durch den ersten Punkt PT1 tritt und nicht durch die A-Fläche AS tritt), an dem dritten Punkt PT3 der A-Fläche AS reflektiert, läuft entlang der ersten Bildaufnahmeachse CAX1, tritt durch das optische Filter OPF der ersten Halteeinheit FH1 für optische Filter und wird durch den ersten Bildsensor ISR1 empfangen.
  • Als Nächstes wird bezüglich des Lichts LT2 ein Teil (das heißt, ein Teil des Lichts LT2) an einem vierten Punkt PT4 auf der A-Fläche AS des Kreuzprismas CXP reflektiert, und ein verbleibender Teil des Lichts LT2 wird durch die A-Fläche AS durchgelassen. Ein Teil des durch die A-Fläche AS reflektierten Lichts LT2 läuft aufgrund der Reflexion durch die A-Fläche AS parallel zur ersten Bildaufnahmeachse CAX1. An einem fünften Punkt PT5 auf der B-Fläche BS des Kreuzprismas CXP tritt ein Teil des Teils des durch die A-Fläche AS reflektierten Lichts LT2 durch die B-Fläche BS und das optische Filter OPF der ersten Halteeinheit FH1 für optische Filter und wird durch den ersten Bildsensor ISR1 empfangen. Gleichzeitig wird ein verbleibender Teil des Teils des Lichts LT2 (das heißt, ein Teil des Lichts LT2, der am vierten Punkt PT4 reflektiert ist und nicht durch die B-Fläche BS tritt) am fünften Punkt PT5 der B-Fläche BS reflektiert, läuft in die Richtung entgegengesetzt zur Einfallsrichtung des Lichts und kehrt zurück (in 5 dargestelltes „Rücklicht RL2“).
  • Ähnlich läuft andererseits ein verbleibender Teil des Lichts LT2, der durch den vierten Punkt PT4 tritt, parallel zur Einfallsachse IMX, und an einem sechsten Punkt PT6 auf der B-Fläche BS des Kreuzprismas CXP tritt ein Teil des verbleibenden Teils des Lichts LT2 durch die B-Fläche BS und das optische Filter OPF der dritten Halteeinheit FH3 für optische Filter und wird durch den dritten Bildsensor ISR3 empfangen. Gleichzeitig wird ein verbleibender Teil des verbleibenden Teils des Lichts LT2 (das heißt, ein Teil des Lichts LT2, der durch den vierten Punkt PT4 tritt und nicht durch die B-Fläche BS tritt), an dem sechsten Punkt PT6 der B-Fläche BS reflektiert, läuft entlang der zweiten Bildaufnahmeachse CAX2, tritt durch das optische Filter OPF der zweiten Halteeinheit FH2 für optische Filter und wird durch den zweiten Bildsensor ISR2 empfangen.
  • Hier ist es möglich, wie in 6 gezeigt, durch ein geeignetes Wählen oder Ändern eines Typs (beispielsweise der Typen A bis D in 6) des an der Spektralprismenkamera 100 angebrachten Kreuzprismas CXP eine durch die Spektralprismenkamera 100 umgesetzte Funktion zu ändern (beispielsweise die SDDF und/oder die HDR, die oben beschrieben sind). Die Grundlagen der Arbeitsweisen bezüglich des Kreuzprismas CXP sind wie oben beschrieben in beliebigen der Typen (siehe 5).
  • Wenn ein Typ A, in dem ein Durchlassgrad auf der A-Fläche AS 60 % beträgt und ein Durchlassgrad auf der B-Fläche BS 60 % beträgt, als der Typ des Kreuzprismas CXP gewählt ist, werden unter dem einfallenden Licht 24 % des sichtbaren Lichts in die erste Kameraeinheit 11 (den ersten Bildsensor ISR1) verteilt, werden 36 % des sichtbaren Lichts in die zweite Kameraeinheit 12 (den zweiten Bildsensor ISR2) verteilt und werden 24 % des sichtbaren Lichts in die dritte Kameraeinheit 13 (den dritten Bildsensor ISR3) verteilt, sodass sie empfangen werden können. Als Ergebnis kann durch ein Wählen des Typs A die Funktion der oben beschriebenen SDDF durch die Spektralprismenkamera 100 ausgeführt werden. Wenn der Typ A gewählt ist, wird das Rücklicht zu 10 %.
  • Ferner werden, wenn ein Typ B, in dem der Durchlassgrad auf der A-Fläche AS 80 % beträgt und der Durchlassgrad auf der B-Fläche BS 60 % beträgt, als der Typ des Kreuzprismas CXP gewählt ist, unter dem einfallenden Licht 12 % des sichtbaren Lichts in die erste Kameraeinheit 11 verteilt, werden 48 % des sichtbaren Lichts in die zweite Kameraeinheit 12 verteilt und werden 32 % des sichtbaren Lichts in die dritte Kameraeinheit 13 verteilt, sodass sie empfangen werden können. Als Ergebnis können durch ein Wählen des Typs B die Funktion sowohl der SDDF als auch der HDR, die oben beschrieben sind, durch die Spektralprismenkamera 100 ausgeführt werden. Wenn der Typ B gewählt ist, wird das Rücklicht zu 16 %.
  • Ferner werden, wenn ein Typ C, in dem der Durchlassgrad auf der A-Fläche AS 90 % beträgt und der Durchlassgrad auf der B-Fläche BS 50 % beträgt, als der Typ des Kreuzprismas CXP gewählt ist, unter dem einfallenden Licht 5 % des sichtbaren Lichts in die erste Kameraeinheit 11 verteilt, werden 45 % des sichtbaren Lichts in die zweite Kameraeinheit 12 verteilt und werden 45 % des sichtbaren Lichts in die dritte Kameraeinheit 13 verteilt, sodass sie empfangen werden können. Als Ergebnis kann durch ein Wählen des Typs C die Funktion der HDR durch die Spektralprismenkamera 100 ausgeführt werden. Wenn der Typ C gewählt ist, wird das Rücklicht zu 5 %.
  • Wenn ein Typ D, in dem der Durchlassgrad auf der A-Fläche AS 50 % beträgt und ein Durchlassgrad des Nahinfrarotlichts (IR-Lichts) auf der B-Fläche BS 0 % beträgt (das heißt, der Reflexionsgrad 100 % beträgt), als der Typ des Kreuzprismas CXP gewählt ist, werden unter dem einfallenden Licht 50 % des sichtbaren Lichts in die erste Kameraeinheit 11 verteilt, werden 50 % des sichtbaren Lichts in die zweite Kameraeinheit 12 verteilt und wird sichtbares Licht von Nahinfrarotlicht (IR-Licht) in die dritte Kameraeinheit 13 verteilt, sodass sie empfangen werden können. Wenn der Typ D gewählt ist, wird das Rücklicht zu 0 %.
  • Als Nächstes sind jeweilige Anordnungen der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter sowie optische Kennlinien (Durchlasskennlinien) ihrer optischen Filter OPF mit Bezugnahme auf 7 bis 9B beschrieben. 7 ist eine perspektivische Schnittansicht, die einen inneren Hardwareaufbau der in 2 gezeigten optischen Filter OPF darstellt. 8 ist eine Grafik, die Durchlasskennlinien aller in 7 gezeigten optischen Filter OPF zeigt. Der in 8 gezeigte Inhalt ist ein Beispiel zur leichteren Beschreibung, und die vorliegende Offenbarung ist nicht darauf eingeschränkt.
  • Wie in 7 gezeigt, ist jede aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter so ausgebildet, dass sie einen rahmenförmigen Rahmenhauptteil aufweist, und ist so vorgesehen, dass sie leicht durch eine manuelle Betätigung durch einen Benutzer kassettenartig vom Hauptteil der Spektralprismenkamera 100 abnehmbar ist.
  • Die erste Halteeinheit FH1 für optische Filter ist entlang der ersten Bildaufnahmeachse CAX1 (einem Beispiel der optischen Achse) der ersten Kameraeinheit 11 angeordnet. Die zweite Halteeinheit FH2 für optische Filter ist entlang der zweiten Bildaufnahmeachse CAX2 (einem Beispiel der optischen Achse) der zweiten Kameraeinheit 12 angeordnet. Die dritte Halteeinheit FH3 für optische Filter ist entlang der Einfallsachse IMX (einem Beispiel der optischen Achse) der dritten Kameraeinheit 13 angeordnet. Weiter ist jede aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter so vorgesehen, dass drei optische Filter OPF im Inneren des rahmenförmigen Rahmenhauptteils in einem Zustand angebracht werden können, in dem die drei optischen Filter OPF einander überdecken, und hält die drei optischen Filter OPF gemeinsam.
  • Jedes der optischen Filter OPF ist plattenförmig ausgebildet. Das optische Filter OPF auf einer Rückseite in 7 ist ein Langpassfilter (LCF). Das optische Filter OPF in der Mitte in 7 ist ein Kurzpassfilter (HCF). Das optische Filter OPF auf einer Vorderseite in 7 ist ein Neutraldichtefilter (NDF), das nur eine Lichtmenge verringert, ohne Farben zu beeinflussen.
  • Wie in 8 gezeigt, sperrt, unter der Vielzahl von optischen Filtern OPF, das Langpassfilter Licht mit einer Wellenlänge von beispielsweise weniger als etwa 500 nm und lässt nur Licht mit einer Wellenlänge von gleich oder größer als 500 nm durch. Umgekehrt sperrt das Kurzpassfilter Licht mit einer Wellenlänge von beispielsweise etwa 700 nm oder mehr und lässt nur Licht mit einer Wellenlänge von weniger als 700 nm durch. Wenn daher Licht in einem Zustand durchgelassen wird, in dem das Langpassfilter und das Kurzpassfilter einander überdecken, ist beispielsweise eine Funktion eines Bandpassfilters (BPF) ausgeführt, das nur Licht mit einer Wellenlänge von etwa 500 bis 700 nm durchlässt und Licht mit einer Wellenlänge außer 500 bis 700 nm sperrt. In 8 ist als Beispiel das Wellenlängenband von Licht, das als Bandpassfilter durchzulassen ist, als etwa 500 bis 700 nm festgelegt, aber das Wellenlängenband ist nicht darauf beschränkt. Das Wellenlängenband des Lichts wird gemäß den Anwendungen der Spektralprismenkamera 100 geeignet gewählt und festgelegt.
  • Mit dieser Anordnung stellt die Vielzahl von optischen Filtern OPF der ersten Kameraeinheit 11 ein Durchlassband des durch die erste Kameraeinheit 11 empfangenen Lichts (eines Beispiels des ersten Lichts) ein. Die Vielzahl von optischen Filtern OPF der zweiten Kameraeinheit 12 stellt ein Durchlassband des durch die zweite Kameraeinheit 12 empfangenen Lichts (eines Beispiels des zweiten Lichts) ein. Die Vielzahl von optischen Filtern OPF der dritten Kameraeinheit 13 stellt ein Durchlassband des durch die dritte Kameraeinheit 13 empfangenen Lichts (eines Beispiels des dritten Lichts) ein.
  • Als Nächstes sind eine Kombination der optischen Filter OPF in jeder aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter sowie Anwendungsbeispiele für die Kombination vor und nach einem Wechseln mit Bezugnahme auf 9A bis 9B beschrieben. 9A ist eine Grafik, die ein erstes Beispiel der Durchlasskennlinien der jeweiligen in 7 gezeigten optischen Filter zeigt. 9B ist eine Grafik, die ein zweites Beispiel der Durchlasskennlinien der jeweiligen in 7 gezeigten optischen Filter zeigt.
  • Wie in 9A gezeigt, fungiert vor einem Wechseln (linke Spalte bezüglich einer Darstellung eines Pfeils in 9A) die Vielzahl von optischen Filtern OPF, die in der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 gehalten sind, als Ganzes als das Langpassfilter (LCF) und lässt nur Licht mit einer Wellenlänge von etwa 800 nm oder mehr durch, das heißt, Nahinfrarotlicht (IR-Licht). Die Vielzahl von optischen Filtern OPF der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 fungiert sogar nach dem Wechseln (rechte Spalte bezüglich der Darstellung des Pfeils in 9A) ähnlich als das Langpassfilter, und die Funktion ändert sich nicht. Die erste Kameraeinheit 11 ist so ausgebildet, dass sie in der Lage ist, Nahinfrarotlicht (IR-Licht) aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 einbindet.
  • Vor dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 gehalten sind, als Ganzes als das Kurzpassfilter (HCF) und lässt nur Licht mit einer Wellenlänge von weniger als etwa 780 nm durch. Nach dem Wechseln fungiert die Vielzahl von optischen Filtern OPF der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 als Ganzes als das Bandpassfilter (BPF), lässt nur Licht (sichtbares Licht) mit einer Wellenlänge von 420 bis 780 nm durch und sperrt Licht mit einer Wellenlänge von anderen Bändern als 420 bis 780 nm. Die zweite Kameraeinheit 12 ist so ausgebildet, dass sie in der Lage ist, sichtbares Licht aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF einbindet, die in der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 gehalten sind.
  • Vor dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind, als Ganzes als das Kurzpassfilter (HCF), ähnlich wie bei der zweiten Kameraeinheit 12, und lässt nur Licht mit einer Wellenlänge von weniger als etwa 780 nm durch. Nach dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind, als Ganzes als das Bandpassfilter (BPF), lässt nur Licht (Fluoreszenz) mit einer Wellenlänge nahe 680 nm, beispielsweise 660 bis 700 nm, als Spitze durch und sperrt Licht mit einer Wellenlänge von anderen Bändern als 660 bis 700 nm. Die dritte Kameraeinheit 13 ist so ausgebildet, dass sie in der Lage ist, sichtbares Licht aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF einbindet, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind.
  • Eine solche Kombination der optischen Filter OPF in jeder aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter ist beispielsweise als eine Anwendung in einem Operationssaal eines Krankenhauses angenommen.
  • Das heißt, die optischen Kennlinien der Vielzahl von optischen Filtern OPF, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 nach dem Wechseln gehalten sind, beruhen auf einer Tatsache, dass ein Wellenlängenband von Fluoreszenz, das durch ein fluoreszierendes Reagens (beispielsweise 5-ALA: 5-Aminolävulinsäure) auf Grundlage des Anregungslichts von der Beleuchtungseinheit ILM ausgesendet wird, nahe 680 nm liegt. Wenn daher das fluoreszierende Reagens einem betroffenen Teil AFP eines Patienten PAT vorab vor einer Operation zugeführt wird (siehe 13), sendet das fluoreszierende Reagens während des Eingriffs durch das Anregungslicht der Beleuchtungseinheit ILM Fluoreszenz aus, und die Spektralprismenkamera 100 nimmt zusammen mit der Aussendung des fluoreszierenden Reagens ein Bild auf, sodass das Bild des betroffenen Teils AFP einem anderen Bild überlagert und angezeigt werden kann. Demgemäß ist es möglich, die Sichtbarkeit des betroffenen Teils AFP zu verbessern und den Fortschritt eines medizinischen Verfahrens geeignet zu unterstützen.
  • Wie in 9B gezeigt, fungiert vor einem Wechseln (linke Spalte bezüglich einer Darstellung eines Pfeils in 9B) die Vielzahl von optischen Filtern OPF, die in der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 gehalten sind, als Ganzes als das Langpassfilter (LCF) und lässt nur Licht mit einer Wellenlänge von etwa 800 nm oder mehr durch, das heißt, Nahinfrarotlicht (IR-Licht). Die Vielzahl von optischen Filtern OPF der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 fungiert sogar nach dem Wechseln (rechte Spalte bezüglich der Darstellung des Pfeils in 9B) ähnlich als das Langpassfilter, und die Funktion ändert sich nicht. Die erste Kameraeinheit 11 ist so ausgebildet, dass sie in der Lage ist, Nahinfrarotlicht (IR-Licht) aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF einbindet, die in der ersten Halteeinheit FH1 für optische Filter der ersten Kameraeinheit 11 gehalten sind.
  • Vor dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 gehalten sind, als Ganzes als das Kurzpassfilter (HCF) und lässt nur Licht mit einer Wellenlänge von weniger als etwa 800 nm durch, das heißt, sichtbares Licht. Die Vielzahl von optischen Filtern OPF, die in der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 gehalten sind, fungiert sogar nach dem Wechseln ähnlich als das Kurzpassfilter, und die Funktion ändert sich nicht. Die zweite Kameraeinheit 12 ist so ausgebildet, dass sie in der Lage ist, sichtbares Licht aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF einbindet, die in der zweiten Halteeinheit FH2 für optische Filter der zweiten Kameraeinheit 12 gehalten sind.
  • Vor dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind, als Ganzes als das Kurzpassfilter (HCF), ähnlich wie bei der zweiten Kameraeinheit 12, und lässt nur Licht mit einer Wellenlänge von weniger als etwa 800 nm durch. Nach dem Wechseln fungiert die Vielzahl von optischen Filtern OPF, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind, als Ganzes als das Bandpassfilter (BPF), lässt nur Licht (sichtbares Licht eines vorgegebenen Bandes) mit einer Wellenlänge von etwa 700 bis 800 nm durch und sperrt Licht mit einer Wellenlänge von anderen Bändern als 700 bis 800 nm. Die dritte Kameraeinheit 13 ist so ausgebildet, dass sie in der Lage ist, sichtbares Licht aufzunehmen, indem sie die Funktionen der Vielzahl von optischen Filtern OPF einbindet, die in der dritten Halteeinheit FH3 für optische Filter der dritten Kameraeinheit 13 gehalten sind.
  • Eine solche Kombination der optischen Filter OPF in jeder aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter ist beispielsweise als die Anwendung in einem Operationssaal eines Krankenhauses angenommen.
  • Bezüglich der Erkennung von Blutgefäßen in dem betroffenen Teil AFP des Patienten PAT während des Eingriffs kann eine Arterie leicht durch ein Nahinfrarotbild auf Grundlage von Nahinfrarotlicht (IR-Licht) mit einer Wellenlänge von 800 nm oder mehr erkannt werden und kann eine Vene leicht durch ein Bild im sichtbaren Licht auf Grundlage von sichtbarem Licht mit einer Wellenlänge von 700 bis 800 nm erkannt werden. Daher wird das Erkennen von Blutgefäßen (beispielsweise einer Arterie oder einer Vene) erleichtert durch ein Erlangen und Synthetisieren von Bildern von Licht mit unterschiedlichen Wellenlängen von der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13, wie oben beschrieben.
  • Als Nächstes ist ein Beispiel des Funktionsablaufs der Spektralprismenkamera 100 gemäß der ersten Ausführungsform unter Bezugnahme auf 10 beschrieben. 10 ist ein Flussdiagramm, das das Beispiel des Funktionsablaufs der Spektralprismenkamera 100 gemäß der ersten Ausführungsform zeigt.
  • Wie in 10 gezeigt, nimmt beispielsweise, wenn die Frachtstücke PK mit verschiedenen Höhen als Beispiel des Objekts durch die Transportvorrichtung BC transportiert werden (siehe 1), die erste Kameraeinheit 11 der Spektralprismenkamera 100 das Objekt bei der ersten Schärfentiefe D1 auf (S11). Gleichzeitig mit dem Aufnehmen durch die erste Kameraeinheit 11 nimmt die zweite Kameraeinheit 12 dasselbe Objekt bei der zweiten Schärfentiefe D2 auf (S12) und nimmt die dritte Kameraeinheit 13 dasselbe Objekt bei der dritten Schärfentiefe D3 auf (S 13).
  • Die CCU 30 führt verschiedene Arten von Bildanalyseverarbeitung unter Verwendung von Aufnahmebilddaten durch, die auf Grundlage jeder aus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 erhalten sind, und führt eine Bildsyntheseverarbeitung durch, in der jeder Wert der Aufnahmebilddaten überlagert wird (S14). Die CCU 30 gibt ein Ergebnis der Syntheseverarbeitung aus und zeigt es auf der Anzeigevorrichtung DP an (S15).
  • Wenn die Funktion der Spektralprismenkamera 100 nicht beendet wird, nachdem das Ergebnis auf der Anzeigevorrichtung DP angezeigt wurde (NEIN in S16), kehrt der Ablauf der Spektralprismenkamera 100 zu den Schritten S11 bis S13 zurück. Das heißt, die Spektralprismenkamera 100 wiederholt die Vorgänge von Schritt S11 bis S16, bis der Betrieb der Spektralprismenkamera 100 endet. Wenn andererseits der Ablauf der Spektralprismenkamera 100 endet (JA in S16), beendet die Spektralprismenkamera 100 die Verarbeitung.
  • Wie oben beschrieben, enthält die Spektralprismenkamera 100 gemäß der ersten Ausführungsform: das gemeinsam genutzte Objektiv LS (ein Beispiel eines Objektivs), in das Licht von dem Objekt fällt, wie etwa dem durch die Transportvorrichtung BC transportierten Frachtstück PK; das Kreuzprisma CXP mit der A-Fläche AS (einem Beispiel der ersten Fläche), die bei dem ersten Reflexionsgrad das erste Licht (beispielsweise sichtbares Licht oder Nahinfrarotlicht) mit der ersten Wellenlänge (beispielsweise einem Wellenlängenband von sichtbarem Licht oder Nahinfrarotlicht) unter dem Licht von dem Objekt reflektiert, und der B-Fläche BS, die bei dem zweiten Reflexionsgrad das zweite Licht (beispielsweise sichtbares Licht oder Nahinfrarotlicht) mit der zweiten Wellenlänge (beispielsweise einem Wellenlängenband von sichtbarem Licht oder Nahinfrarotlicht) unter dem Licht reflektiert, das durch die A-Fläche AS durchgelassen ist; die erste Kameraeinheit 11 (ein Beispiel der ersten Bildaufnahmeeinheit), die das erste Bild IMG1 des Objekts bei der ersten Schärfentiefe D1 auf Grundlage des durch die A-Fläche AS reflektierten ersten Lichts aufnimmt; die zweite Kameraeinheit 12 (ein Beispiel der zweiten Bildaufnahmeeinheit), die das zweite Bild IMG2 des Objekts bei der zweiten Schärfentiefe D2 auf Grundlage des zweiten Lichts aufnimmt, das durch die B-Fläche BS (ein Beispiel einer zweiten Fläche) reflektiert ist; die dritte Kameraeinheit 13 (ein Beispiel der dritten Bildaufnahmeeinheit), die das dritte Bild IMG3 des Objekts bei der dritten Schärfentiefe D3 auf Grundlage des dritten Lichts (beispielsweise sichtbaren Lichts oder Nahinfrarotlichts) aufnimmt, das durch die A-Fläche AS oder die B-Fläche BS durchgelassen ist; und die CCU 30 (ein Beispiel der Signalverarbeitungseinheit), die das erste Bild IMG1, das zweite Bild IMG2 und das dritte Bild IMG3 synthetisiert und ausgibt.
  • Aus diesem Grund sind eine Vielzahl von Brennweitenpositionen und eine Vielzahl von Schärfentiefen (beispielsweise die erste Schärfentiefe D1, die zweite Schärfentiefe D2 und die dritte Schärfentiefe D3) durch eine Vielzahl von Kameraeinheiten (beispielsweise die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13) umgesetzt, sodass es möglich ist, durch ein Verwenden der Spektralprismenkamera 100 die Schärfentiefe auf einen weiten Dynamikbereich festzulegen. Als Ergebnis setzt die Spektralprismenkamera 100 einen weiten Bereich der Schärfentiefe in der Höhenrichtung oder der Tiefenrichtung um, gesehen von der Spektralprismenkamera 100 aus, und führt geeignet eine Scharfstellung auf die Objekte durch, sogar wenn die Objekte mit unterschiedlichen Höhen aufgenommen werden, sodass ein Bild mit hoher Genauigkeit erlangt werden kann. Daher ist es möglich, das Auftreten einer Funktionsverzögerung bei der Bildaufnahme eines oder mehrerer Objekte zu verhindern, die sich innerhalb eines vorab festgelegten Abstandsbereichs befinden, und flexibel ein hochwertiges Aufnahmebild zu erlangen, das jedem Objekt entspricht.
  • Die Spektralprismenkamera 100 gemäß der ersten Ausführungsform enthält weiter: die erste Halteeinheit FH1 für optische Filter (ein Beispiel der ersten Filterhalteeinheit), die entlang der ersten Bildaufnahmeachse CAX1 (einem Beispiel der optischen Achse) der ersten Kameraeinheit 11 (einem Beispiel der ersten Bildaufnahmeeinheit) angeordnet ist, und die die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) hält, die in der Lage sind, das Durchlassband des durch die erste Kameraeinheit 11 empfangenen ersten Lichts einzustellen; die zweite Halteeinheit FH2 für optische Filter (ein Beispiel der zweiten Filterhalteeinheit), die entlang der zweiten Bildaufnahmeachse CAX2 (einem Beispiel der optischen Achse) der zweiten Kameraeinheit 12 (einem Beispiel der zweiten Bildaufnahmeeinheit) angeordnet ist, und die die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) hält, die in der Lage sind, das Durchlassband des durch die zweite Kameraeinheit 12 empfangenen zweiten Lichts einzustellen; und die dritte Halteeinheit FH3 für optische Filter (ein Beispiel der dritten Filterhalteeinheit), die entlang der Einfallsachse IMX (einem Beispiel der optischen Achse der dritten Bildaufnahmeeinheit) angeordnet ist, und die die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) hält, die in der Lage sind, das Durchlassband des durch die dritte Kameraeinheit 13 (ein Beispiel der dritten Bildaufnahmeeinheit) empfangenen dritten Lichts einzustellen.
  • Daher ist es durch ein Festlegen einer Kombination, in der die optischen Kennlinien bezüglich des Durchlassbandes jedes optischen Filters OPF in jeder aus der ersten Halteeinheit FH1 für optische Filter, der zweiten Halteeinheit FH2 für optische Filter und der dritten Halteeinheit FH3 für optische Filter unterschiedlich sind, möglich, eine Bildaufnahme angemessen umzusetzen, die für verschiedene Funktionen (beispielsweise die DDF und/oder die HDR) oder verschiedene Anwendungen geeignet ist (beispielsweise die Anwendung in einem Operationssaal eines Krankenhauses).
  • Als das erste spezielle Beispiel, wenn das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der ersten Halteeinheit FH1 für optische Filter (ein Beispiel der ersten Filterhalteeinheit) durchgelassene Licht Nahinfrarotlicht ist, das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der zweiten Halteeinheit FH2 für optische Filter (ein Beispiel der zweiten Filterhalteeinheit) durchgelassene Licht mit einer Wellenlänge von 420 bis 780 nm ist und das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der dritten Halteeinheit FH3 für optische Filter (ein Beispiel der dritten Filterhalteeinheit) durchgelassene Licht Licht mit einer Wellenlänge von 660 bis 700 nm ist (siehe 9A), ist diese Kombination geeignet für die Anwendung in einem Operationssaal eines Krankenhauses. Wenn daher das fluoreszierende Reagens, in dem das Wellenlängenband von auf Grundlage des Anregungslichts ausgesendeter Fluoreszenz nahe 680 nm liegt, dem betroffenen Teil AFP des Patienten PAT vorab vor einer Operation zugeführt wird, sendet das fluoreszierende Reagens während des Eingriffs durch das Anregungslicht der Beleuchtungseinheit ILM Fluoreszenz aus, und die Spektralprismenkamera 100 nimmt zusammen mit der Aussendung des fluoreszierenden Reagens ein Bild auf, sodass das Bild des betroffenen Teils AFP einem anderen Bild überlagert und angezeigt wird (siehe 13). Demgemäß ist es möglich, die Sichtbarkeit des betroffenen Teils AFP zu verbessern und den Fortschritt des medizinischen Verfahrens geeignet zu unterstützen.
  • Als das zweite spezielle Beispiel, wenn das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der ersten Halteeinheit FH1 für optische Filter (ein Beispiel der ersten Filterhalteeinheit) durchgelassene Licht Nahinfrarotlicht (IR-Licht) mit einer Wellenlänge von 800 nm oder mehr ist, das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der zweiten Halteeinheit FH2 für optische Filter (ein Beispiel der zweiten Filterhalteeinheit) durchgelassene Licht sichtbares Licht ist und das durch die Vielzahl von optischen Filtern OPF (ein Beispiel des Filters) der dritten Halteeinheit FH3 für optische Filter (ein Beispiel der dritten Filterhalteeinheit) durchgelassene Licht Licht mit einer Wellenlänge von 700 bis 800 nm ist (siehe 9B), ist diese Kombination auch geeignet für die Anwendung in einem Operationssaal eines Krankenhauses. Bezüglich der Erkennung von Blutgefäßen in dem betroffenen Teil AFP des Patienten PAT während des Eingriffs kann eine Arterie leicht durch ein Nahinfrarotbild auf Grundlage von Nahinfrarotlicht (IR-Licht) mit einer Wellenlänge von 800 nm oder mehr erkannt werden und kann eine Vene leicht durch ein Bild im sichtbaren Licht auf Grundlage von sichtbarem Licht mit einer Wellenlänge von 700 bis 800 nm erkannt werden. Als Ergebnis werden für die Anwendung in einem Operationssaal eines Krankenhauses Bilder von Licht mit verschiedenen Wellenlängen jeweils durch die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13 erlangt und werden synthetisiert, sodass die Blutgefäßerkennung (beispielsweise einer Arterie oder einer Vene) erleichtert werden kann.
  • Die Spektralprismenkamera 100 (ein Beispiel der Bildaufnahmevorrichtung) gemäß der ersten Ausführungsform enthält weiter: die Kamerasteuereinheit 40 (ein Beispiel der Steuereinheit), die das Steuersignal der Schärfentiefe auf Grundlage von Abstandsinformationen zum Objekt erzeugt, wie etwa das durch die Transportvorrichtung BC transportierte Frachtstück PK; und die erste Auto-Rückfokussierungsvorrichtung ABF1 (ein Beispiel der Ansteuereinheit), die zweite Auto-Rückfokussierungsvorrichtung ABF2 (ein Beispiel der Ansteuereinheit) und die dritte Auto-Rückfokussierungsvorrichtung ABF3 (ein Beispiel der Ansteuereinheit), die mindestens eine aus der ersten Kameraeinheit 11 (einem Beispiel der ersten Bildaufnahmeeinheit), der zweiten Kameraeinheit 12 (einem Beispiel der zweiten Bildaufnahmeeinheit) und der dritten Kameraeinheit 13 (einem Beispiel der dritten Bildaufnahmeeinheit) in den Richtungen ihrer optischen Achsen auf Grundlage des Steuersignals bewegen.
  • Demgemäß kann beispielsweise, sogar wenn das Wellenlängenband des durch den ersten Bildsensor ISR1, den zweiten Bildsensor ISR2 oder den dritten Bildsensor ISR3 empfangenen Lichts als ein anderes Wellenlängenband durch die Kamerasteuereinheit 40 gewählt ist, oder sogar wenn es aufgrund des anderen Wellenlängenbandes eine Änderung der optischen Pfadlänge gibt, der erste Bildsensor ISR1, der zweite Bildsensor ISR2 oder der dritte Bildsensor ISR3 in der Richtung seiner optischen Achse bewegt werden, sodass ein deutliches Nahinfrarotbild, das scharfgestellt ist, erhalten werden kann.
  • In der Spektralprismenkamera 100 gemäß der ersten Ausführungsform werden die erste Schärfentiefe D1, die zweite Schärfentiefe D2 und die dritte Schärfentiefe D3 räumlich und kontinuierlich vorgesehen. Demgemäß wird die Funktion (SDDF) zum Dynamikbereich der Schärfentiefe umgesetzt, wird ein weiter Bereich der Schärfentiefe umgesetzt, und sogar wenn beispielsweise die Objekte, wie etwa die Frachtstücke PK mit verschiedenen Höhen, transportiert werden, ist es möglich, die Objekte mit hoher Genauigkeit geeignet scharfzustellen und abzubilden.
  • In der Spektralprismenkamera 100 gemäß der ersten Ausführungsform sind das erste Licht (durch die erste Kameraeinheit 11 empfangenes Licht), das zweite Licht (durch die zweite Kameraeinheit 12 empfangenes Licht) und das dritte Licht (durch die dritte Kameraeinheit 13 empfangenes Licht) sichtbares Licht. Daher können verschiedene Funktionen, wie etwa die SDDF und/oder die HDR, durch die Spektralprismenkamera 100 ausgeführt werden (siehe 6).
  • (Erste Abwandlung der ersten Ausführungsform)
  • Eine erste Abwandlung gemäß der ersten Ausführungsform ist unter Bezugnahme auf 11 beschrieben. 11 ist eine schematische Darstellung, die die erste Abwandlung der ersten Ausführungsform zeigt.
  • Wie in 11 gezeigt, werden in der vorliegenden Abwandlung, wenn bestimmt ist, dass eine Streuung bei der Höhe der durch die Transportvorrichtung BC transportierten Frachtstücke PK statistisch zu einem gewissen Ausmaß an drei Stellen konzentriert ist, die erste Schärfentiefe D1, die zweite Schärfentiefe D2 und die dritte Schärfentiefe D3 räumlich diskontinuierlich festgelegt. In diesem Fall kann ein Bereich der Schärfentiefe ohne Kostenerhöhung leicht (dynamisch) weiter festgelegt werden als derjenige der oben beschriebenen ersten Ausführungsform.
  • Wie oben beschrieben, werden in der ersten Abwandlung der ersten Ausführungsform die erste Schärfentiefe D1, die zweite Schärfentiefe D2 und die dritte Schärfentiefe D3 räumlich und diskontinuierlich vorgesehen. Demgemäß kann die Funktion (SDDF) zum Dynamikbereich der Schärfentiefe in einem weiteren Bereich umgesetzt werden, verglichen mit dem Fall, in dem die erste Schärfentiefe D1, die zweite Schärfentiefe D2 und die dritte Schärfentiefe D3 räumlich und kontinuierlich vorgesehen sind. Daher setzt die Spektralprismenkamera 100 gemäß der ersten Abwandlung der ersten Ausführungsform einen weiteren Bereich der Schärfentiefe um als denjenigen der Spektralprismenkamera 100 gemäß der ersten Ausführungsform und führt das Scharfstellen auf die Objekte sogar geeignet durch, wenn die Objekte, wie etwa die Frachtstücke PK mit verschiedenen Höhen, transportiert werden, sodass die Objekte mit hoher Genauigkeit aufgenommen werden können.
  • (Zweite Abwandlung der ersten Ausführungsform)
  • Eine zweite Abwandlung gemäß der ersten Ausführungsform ist unter Bezugnahme auf 12 beschrieben. 12 ist eine Fotografie, die die zweite Abwandlung der ersten Ausführungsform zeigt.
  • In einem in 12 gezeigten Beispiel ist die Spektralprismenkamera 100 an einer Satellitenvorrichtung angebracht, die die Erde umkreist, und nimmt die Erdoberfläche als ein Objekt auf. Jede aus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 der Spektralprismenkamera 100 nimmt von der Erdoberfläche ausgesendetes Licht in verschiedenen Wellenlängenbändern auf. Die CCU 30 führt die Bildanalyseverarbeitung auf Grundlage eines normierten differenzierten Vegetationsindex NDVI unter Verwendung von durch das Aufnehmen erlangten Aufnahmebilddaten durch. Der normierte differenzierte Vegetationsindex NDVI wird nach der folgenden Gleichung berechnet.
  • NDVI = ( IR R ) / ( IR + R )
    Figure DE102022101678A1_0001
    Wobei:
    • IR: Pixelwert des Infrarotlichtbands (Wellenlänge: 780 bis 2500 nm)
    • R: Pixelwert des roten Lichtbands (Wellenlänge: 640 bis 770 nm).
  • Ein Wert des NDVI ist ein standardisierter Index, der das Vorhandensein oder Nichtvorhandensein von Vegetation und ihrer Aktivität angibt, und der NDVI ist ein Wert, der einen Bereich von -1,0 bis 1,0 angibt. Der Wert des NDVI bedeutet die Absorption von Chlorophyllfarbstoff in einem roten Lichtband und hohe Reflexionseigenschaften aufgrund einer Zellstruktur einer Pflanze in einem Nahinfrarotlichtband (IR-Lichtband). Wie Chlorophyll Rot aufgrund der Aktivität von Vegetation absorbiert, kann durch diesen Wert sichtbar gemacht (beobachtet) werden.
  • Das heißt, in dem Bild der Erdoberfläche bedeutet ein negativer Wert hauptsächlich Wolke, Wasser oder Schnee. Ein Wert nahe null bedeutet hauptsächlich Fels oder die Bodenfläche. Wenn der NDVI ein niedriger Wert ist (0,1 oder weniger), bedeutet ein Pixel, das mit dem Wert angegeben ist, einen mit Fels, Sand oder Schnee bedeckten unfruchtbaren Bereich. Wenn der NDVI ein mittlerer Wert ist (0,2 bis 0,3) ist, bedeutet ein Pixel, das mit dem Wert angegeben ist, niedrige Wälder oder Gras. Wenn der NDVI ein hoher Wert ist (0,6 bis 0,8) ist, bedeutet ein Pixel, das mit dem Wert angegeben ist, einen gemäßigten Wald und einen tropischen Regenwald.
  • (Zweite Ausführungsform)
  • Als Nächstes ist eine zweite Ausführungsform gemäß der vorliegenden Offenbarung unter Bezugnahme auf 13 und 14 beschrieben. Da sich die Beschreibung derselben oder äquivalenter Teile wie derjenigen in der oben beschriebenen erste Ausführungsform wiederholt, können in der Zeichnung dieselben Bezugsnummern vergeben sein, um die Beschreibung wegzulassen oder zu vereinfachen.
  • Ein Beispiel eines Anwendungsfalls gemäß der zweiten Ausführungsform ist unter Bezugnahme auf 13 beschrieben. 13 ist eine Darstellung, die ein Beispiel eines Anwendungsfalls einer Spektralprismenkamera 200 gemäß der zweiten Ausführungsform zeigt.
  • Wie in 13 gezeigt, wird die Spektralprismenkamera 200 gemäß der zweiten Ausführungsform benutzt, indem sie durch einen Arzt U1 getragen wird, der in Zusammenarbeit mit einer Assistentin/einem Assistenten U2, wie etwa einer Krankenschwester/einem Krankenpfleger, einen Eingriff an dem Patienten PAT vornimmt. Ferner ist eine Projektionsvorrichtung, wie etwa eine Scheinwerfervorrichtung, auf der Spektralprismenkamera 200 gemäß der zweiten Ausführungsform montiert, und die Projektionsvorrichtung der Spektralprismenkamera 200 gemäß der zweiten Ausführungsform wirft Licht (Scheinwerferlicht) auf den betroffenen Teil AFP des Patienten PAT.
  • Die Spektralprismenkamera 200 ist beispielsweise eine am Kopf montierte Projektionsvorrichtung, die an einer distalen Endseite eines Kopfbandes HMB angebracht und befestigt ist, das einen Außenumfang des Kopfes des Arztes U1 bedeckt, und die ein Projektionsbild so projiziert, dass es der Bewegung des Kopfes des Arztes U1 folgt. Wie oben beschrieben, ist die Spektralprismenkamera 200 gemäß der zweiten Ausführungsform beispielsweise geeignet zum Erkennen des speziellen betroffenen Teils AFP des Patienten PAT oder eines Blutgefäßes, wie etwa einer Arterie oder einer Vene (siehe 9A und 9B). Der Anwendungsfall der Spektralprismenkamera 200 gemäß der zweiten Ausführungsform braucht nicht auf eine medizinische Anwendung beschränkt zu sein, in der die Spektralprismenkamera 200 während einer Operation an dem Arzt angebracht ist.
  • Ein Beispiel eines Funktionsablaufs der Spektralprismenkamera 200 gemäß der zweiten Ausführungsform ist nachstehend unter Bezugnahme auf 14 beschrieben. 14 ist ein Flussdiagramm, das das Beispiel des Funktionsablaufs der Spektralprismenkamera 200 gemäß der zweiten Ausführungsform zeigt.
  • Wie in 14 gezeigt, nimmt beispielsweise, wenn der betroffenen Teil AFP des Patienten PAT als ein Beispiel des Objekts durch die Spektralprismenkamera 200 aufgenommen wird (siehe 13), die Spektralprismenkamera 200 Licht mit verschiedenen Wellenlängen jeweils durch die erste Kameraeinheit 11, die zweite Kameraeinheit 12 und die dritte Kameraeinheit 13 auf. Das heißt, die erste Kameraeinheit 11 der Spektralprismenkamera 200 nimmt das Objekt mit sichtbarem Licht auf (S21). Gleichzeitig mit dem Aufnehmen durch die erste Kameraeinheit 11 nimmt die zweite Kameraeinheit 12 dasselbe Objekt (den betroffenen Teil AFP des Patienten PAT) mit Infrarotlicht (IR-Licht) auf (S22), und nimmt die dritte Kameraeinheit 13 dasselbe Objekt (den betroffenen Teil AFP des Patienten PAT) mit ultraviolettem Licht auf (S23). In der zweiten Ausführungsform kann die dritte Kameraeinheit 13 einen Aufbau aufweisen, der den CCD- oder den CMOS-Baustein enthält, in dem eine Vielzahl von Pixeln angeordnet ist, die zum Aufnehmen bei ultraviolettem Licht geeignet sind.
  • Die CCU 30 führt verschiedene Arten von Bildanalyseverarbeitung unter Verwendung von Aufnahmebilddaten durch, die auf Grundlage jeder aus der ersten Kameraeinheit 11, der zweiten Kameraeinheit 12 und der dritten Kameraeinheit 13 erhalten sind, und führt eine Bildsyntheseverarbeitung durch, in der jeder Wert der Aufnahmebilddaten überlagert wird (S24). Die CCU 30 gibt ein Ergebnis der Syntheseverarbeitung aus und zeigt es auf der Anzeigevorrichtung DP an (S25).
  • Wenn der Betrieb der Spektralprismenkamera 200 nicht beendet wird, nachdem das Ergebnis auf der Anzeigevorrichtung DP angezeigt wurde (NEIN in S26), kehrt der Ablauf der Spektralprismenkamera 200 zu den Schritten S21 bis S23 zurück. Das heißt, die Spektralprismenkamera 200 wiederholt die Vorgänge von Schritt S21 bis S26, bis der Betrieb der Spektralprismenkamera 200 endet. Wenn andererseits der Betrieb der Spektralprismenkamera 200 endet (JA in S26), beendet die Spektralprismenkamera 200 die Verarbeitung.
  • Obwohl oben eine Vielzahl von Ausführungsformen unter Bezugnahme auf die Zeichnung beschrieben ist, ist es unnötig zu erwähnen, dass die vorliegende Offenbarung nicht auf solche Beispiele beschränkt ist. Fachleuten auf dem Gebiet wird es offensichtlich sein, dass verschiedene Änderungen, Abwandlungen, Ersetzungen, Hinzufügungen, Weglassungen und Äquivalente innerhalb des Geltungsbereichs der Ansprüche ersonnen werden können, und es versteht sich, dass solche Veränderungen ebenfalls zum technischen Geltungsbereich der vorliegenden Offenbarung gehören. Weiter können Bestandteile in der oben beschriebenen Ausführungsform wahlweise innerhalb eines Bereichs kombiniert werden, der nicht vom Geist der Erfindung abweicht.
  • Gewerbliche Anwendbarkeit
  • Die vorliegende Offenbarung ist nutzbar als eine Bildaufnahmevorrichtung, die in der Lage ist, das Auftreten einer Funktionsverzögerung bei der Bildaufnahme eines oder mehrerer Objekte zu verhindern, die sich in einem vorab festgelegten Abstandsbereich befinden, und flexibel ein hochwertiges Aufnahmebild zu erlangen, das jedem Objekt entspricht.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 200378802 A [0003]
    • JP 3738777 [0031, 0037, 0042]

Claims (8)

  1. Bildaufnahmevorrichtung. umfassend ein Objektiv, in das Licht von mindestens einem Objekt fällt; ein Spektralprisma, enthaltend eine erste Fläche und eine zweite Fläche, wobei die erste Fläche bei einem ersten Reflexionsgrad erstes Licht mit einer ersten Wellenlänge unter dem Licht von dem Objekt reflektiert und die zweite Fläche bei einem zweiten Reflexionsgrad mit einer zweiten Wellenlänge unter Licht reflektiert, das durch die erste Fläche durchgelassen ist; eine erste Bildaufnahmeeinheit, die ein erstes Bild des Objekts bei einer ersten Schärfentiefe auf Grundlage mindestens des durch die erste Fläche reflektierten ersten Lichts aufnimmt; eine zweite Bildaufnahmeeinheit, die ein zweites Bild des Objekts bei einer zweiten Schärfentiefe auf Grundlage mindestens des durch die zweite Fläche reflektierten zweiten Lichts aufnimmt; eine dritte Bildaufnahmeeinheit, die ein drittes Bild des Objekts bei einer dritten Schärfentiefe auf Grundlage von mindestens durch die erste Fläche oder die zweite Fläche durchgelassenem drittem Licht aufnimmt; und eine Signalverarbeitungseinheit, die das erste Bild, das zweite Bild und das dritte Bild synthetisiert und das synthetisierte Bild ausgibt.
  2. Bildaufnahmevorrichtung nach Anspruch 1, weiter umfassend: eine erste Filterhalteeinheit, die entlang einer optischen Achse der ersten Bildaufnahmeeinheit angeordnet ist und eine Vielzahl von Filtern hält, die in der Lage sind, ein Durchlassband des durch die erste Bildaufnahmeeinheit empfangenen ersten Lichts einzustellen; eine zweite Filterhalteeinheit, die entlang einer optischen Achse der zweiten Bildaufnahmeeinheit angeordnet ist und eine Vielzahl von Filtern hält, die in der Lage sind, ein Durchlassband des durch die zweite Bildaufnahmeeinheit empfangenen zweiten Lichts einzustellen; eine dritte Filterhalteeinheit, die entlang einer optischen Achse der dritten Bildaufnahmeeinheit angeordnet ist und eine Vielzahl von Filtern hält, die in der Lage sind, ein Durchlassband des durch die dritte Bildaufnahmeeinheit empfangenen dritten Lichts einzustellen.
  3. Bildaufnahmevorrichtung nach Anspruch 1, weiter umfassend: eine Steuereinheit, die ein Steuersignal einer Schärfentiefe auf Grundlage von Abstandsinformationen zum Objekt erzeugt; und eine Ansteuereinheit, die mindestens eine aus der ersten Bildaufnahmeeinheit, der zweiten Bildaufnahmeeinheit und der dritten Bildaufnahmeeinheit in Richtungen ihrer optischen Achsen auf Grundlage des Steuersignals bewegt.
  4. Bildaufnahmevorrichtung nach Anspruch 1, wobei die erste Schärfentiefe, die zweite Schärfentiefe und die dritte Schärfentiefe räumlich und kontinuierlich vorgesehen sind.
  5. Bildaufnahmevorrichtung nach Anspruch 1, wobei die erste Schärfentiefe, die zweite Schärfentiefe und die dritte Schärfentiefe räumlich und diskontinuierlich vorgesehen sind.
  6. Bildaufnahmevorrichtung nach Anspruch 1, wobei das erste Licht, das zweite Licht und das dritte Licht sichtbares Licht sind.
  7. Bildaufnahmevorrichtung nach Anspruch 2, wobei durch die Vielzahl von Filtern der ersten Filterhalteeinheit durchgelassenes Licht Nahinfrarotlicht ist, durch die Vielzahl von Filtern der zweiten Filterhalteeinheit durchgelassenes Licht Licht mit einer Wellenlänge von 420 bis 780 nm ist, und durch die Vielzahl von Filtern der dritten Filterhalteeinheit durchgelassenes Licht Licht mit einer Wellenlänge von 660 bis 700 nm ist.
  8. Bildaufnahmevorrichtung nach Anspruch 2, wobei durch die Vielzahl von Filtern der ersten Filterhalteeinheit durchgelassenes Licht Nahinfrarotlicht mit einer Wellenlänge von mehr als 800 nm ist, durch die Vielzahl von Filtern der zweiten Filterhalteeinheit durchgelassenes Licht sichtbares Licht ist, und durch die Vielzahl von Filtern der dritten Filterhalteeinheit durchgelassenes Licht Licht mit einer Wellenlänge von 700 bis 800 nm ist.
DE102022101678.1A 2021-01-29 2022-01-25 Bildaufnahmevorrichtung Pending DE102022101678A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021013556A JP2022117068A (ja) 2021-01-29 2021-01-29 撮像装置
JP2021-013556 2021-01-29

Publications (1)

Publication Number Publication Date
DE102022101678A1 true DE102022101678A1 (de) 2022-08-04

Family

ID=82403198

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022101678.1A Pending DE102022101678A1 (de) 2021-01-29 2022-01-25 Bildaufnahmevorrichtung

Country Status (3)

Country Link
US (1) US11889205B2 (de)
JP (1) JP2022117068A (de)
DE (1) DE102022101678A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078802A (ja) 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> 撮像装置
JP3738777B1 (ja) 2004-11-17 2006-01-25 松下電器産業株式会社 撮像素子駆動装置およびそれを用いた撮影装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406859B2 (en) * 2008-08-10 2013-03-26 Board Of Regents, The University Of Texas System Digital light processing hyperspectral imaging apparatus
JP7140575B2 (ja) * 2018-07-12 2022-09-21 キヤノン株式会社 色分離合成系およびこれを備える画像投射装置
US11720766B2 (en) * 2018-12-28 2023-08-08 Packsize Llc Systems and methods for text and barcode reading under perspective distortion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078802A (ja) 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> 撮像装置
JP3738777B1 (ja) 2004-11-17 2006-01-25 松下電器産業株式会社 撮像素子駆動装置およびそれを用いた撮影装置

Also Published As

Publication number Publication date
US20220247937A1 (en) 2022-08-04
US11889205B2 (en) 2024-01-30
JP2022117068A (ja) 2022-08-10

Similar Documents

Publication Publication Date Title
DE102014110131B4 (de) Bildaufnahmevorrichtung
EP2851662A2 (de) Vorrichtung und Verfahren zur Aufnahme eines Hyperspektralbildes
DE112019002059T5 (de) Endoskopsystem und Fluoreszenzbildausgabeverfahren
DE112018003134T5 (de) Endoskoplichtquellenvorrichtung und Endoskopsystem
DE112012004064T5 (de) Diagnosesystem
DE112018000393T5 (de) Endoskopsystem und Bildanzeigevorrichtung
DE102017203448B9 (de) Mikroskopiesystem und Mikroskopieverfahren zum Quantifizieren einer Fluoreszenz
DE112017004418T5 (de) Endoskopsystem
EP3939488A1 (de) Stereoendoskop
DE112019004578T5 (de) Optischer verteilungssteckverbinder und endoskopsystem
DE112019004271T5 (de) Endoskopsystem und Verfahren zum Bedienen des Endoskopsystems
DE112017004403T5 (de) Endoskopsystem und charakteristischer betrag-berechnungsverfahren
DE102017210274A1 (de) Mikroskopiesystem und Mikroskopieverfahren zur Aufnahme von Fluoreszenzlichtbildern und Weißlichtbildern
DE602004006396T2 (de) Analyse einer zusammenstellung mit beobachtung
DE112017004411T5 (de) Elektronisches endoskopsystem
DE112017005214T5 (de) Endoskopiesystem
DE102022101678A1 (de) Bildaufnahmevorrichtung
EP2075616A1 (de) Vorrichtung mit einer Kamera und einer Einrichtung zum Abbilden und Projizieren des aufgenommen Bildes
DE112016005019B4 (de) Endoskopsystem
DE112017002547T5 (de) Lebendkörper-Beobachtungssystem
DE102017215158B4 (de) Detektionssystem
DE102012221580B4 (de) Verfahren zum Auffinden von Lebewesen aus der Luft sowie Flugobjekt zum Auffinden von Lebewesen aus der Luft
DE102021108929A1 (de) Drei-Chip-Kamera und Vier-Chip-Kamera
DE102020127964B4 (de) Verfahren und Vorrichtung zum schnellen Erfassen eines hyperspektralen Kubus eines Objekts oder einer Szene
DE102021130529B3 (de) Bildgebendes Verfahren zum Abbilden einer Szene und System

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: I-PRO CO., LTD., JP

Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP