DE60212254T2 - Optischer Sensor - Google Patents

Optischer Sensor Download PDF

Info

Publication number
DE60212254T2
DE60212254T2 DE60212254T DE60212254T DE60212254T2 DE 60212254 T2 DE60212254 T2 DE 60212254T2 DE 60212254 T DE60212254 T DE 60212254T DE 60212254 T DE60212254 T DE 60212254T DE 60212254 T2 DE60212254 T2 DE 60212254T2
Authority
DE
Germany
Prior art keywords
image
light
density
optical sensor
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60212254T
Other languages
English (en)
Other versions
DE60212254D1 (de
Inventor
Kazunori Minamitsuru-gun Ban
Makoto Minamitsuru-gun Yamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Application granted granted Critical
Publication of DE60212254D1 publication Critical patent/DE60212254D1/de
Publication of DE60212254T2 publication Critical patent/DE60212254T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Manipulator (AREA)
  • Image Input (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die Erfindung betrifft einen Optosensor, der lichtempfangende Bauteile und einen Referenzlichtstrahl, wie einen Laserstrahl in Kombination verwendet.
  • 2. Beschreibung des Standes der Technik
  • Beim Aufnehmen eines Bildes von einem Gegenstand mit weitreichender Helligkeitsabstufung muss man die Dichte des aufgenommenen Bildes in Übereinstimmung mit einem dynamischen Bereich des Optosensors einstellen, der eine Bildaufnahmevorrichtung, wie eine Kamera, aufweist. Es wurden mehrere Verfahren zum Einstellen der Dichte des aufgenommenen Bildes in dem dynamischen Bereich des Optosensors vorgeschlagen.
  • Aus den japanischen Patentveröffentlichungen Nr. 10-21378 und 11-66279, kennt man eine Technik, die ein Verfahren einer Transformation mit gleichförmigem Verhältnis nutzt, wobei die Dichte eines jeden Pixels von einem Bild einer Anzahl von unter verschiedenen Bedingungen aufgenommenen Bildern eines Gegenstandes mit einem festgelegten Verhältnis multipliziert wird, so dass sie ungefähr auf die Dichte eines entsprechenden Pixels in einem anderen Bild eingestellt wird. Ein Pixel, das in einem Bild nicht gesättigt ist, wird gegen ein entsprechendes Pixel ersetzt, das in dem anderen Bild gesättigt ist, so dass der dynamische Bereich des Optosensors erweitert wird.
  • Das in diesen Verfahren offenbarte Verfahren erfordert die Dichtetransformation jedes Pixels, damit man die Dichten sämtlicher Pixel in einer Anzahl von Bildern einstellt, sowie den Vergleich und die Austauschverarbeitung der Dichten, damit man ein zusammengesetztes Bild erhält. Bei der Dichtetransformation ist die Multiplikations- und Divisions-Verarbeitung auf der Basis des Dichteverhältnisses zwischen den entsprechenden Pixeln in der Anzahl von Bildern erforderlich, was die Rechenfunktion des Prozessors schwer belastet.
  • Es gibt ein anderes Verfahren, bei dem die Helligkeit von einfallendem Licht auf jedem Pixel logarithmisch transformiert wird, damit man die Dichte jedes Pixels angesichts der Verarbeitung zur Gewinnung eines Randbildes durch Unterschiede zwischen den Dichten benachbarter Pixel bestimmt. Ein dynamischer Bereich der Helligkeit des einfallenden Lichts wird in dieser Transformation komprimiert. Gemäß der logarithmischen Helligkeitstransformation hängt die Bildschärfe eines Randbildes auf der Basis der durch die logarithmische Transformation bestimmten Dichten von dem Verhältnis zwischen den Helligkeitsgraden der einfallenden Lichtstrahlen gemäß der Gleichung log (I1)-log(I2) = log (I1/I2) ab, wobei I1 und I2 die Helligkeitsgrade der einfallenden Lichtstrahlen auf benachbarten Pixeln veranschaulichen. Somit löst dieses Verfahren das Problem der Abhängigkeit der Bildschärfe eines Randbildes von der Intensität der Belichtung und Reflexion eines Gegenstandes, d.h. die Bildschärfe eines Randbildes in einem dunklen Bereich im aufgenommenen Bild ist niedrig, und die Bildschärfe eines Randbildes in einem hellen Bereich im aufgenommenen Bild ist hoch, so dass das Bild ungleichmäßig ist.
  • Die japanische Patentveröffentlichung Nr. 5-314253 beschreibt die logarithmische Helligkeitstransformation, wobei in einem Bereich mit niedriger Helligkeit statt der logarithmischen Transformation eine lineare proportionale Transformation ausgeführt wird, damit die Nutzungseffizienz eines Bildspeichers bei der logarithmischen Helligkeitstransformation verbessert wird. Bei diesem Verfahren ist die Verarbeitung der logarithmischen Helligkeitstransformation für jeden Pixel nötig, was die Rechenfunktion des Prozessors erheblich belastet.
  • Die japanische Patentschrift Nr. 9-311927 offenbart eine Technik zur Reduktion der Lichthofbildung, indem ein Bereich niedriger Helligkeit (steigender Dichte) erweitert wird und ein Bereich großer Helligkeit (sinkender Dichte) für die jeweiligen Pixel komprimiert wird, wobei man eine Helligkeitstransformationstabelle verwendet. Dieses Verfahren hat einen Vorteil bei der Verringerung der Rechenfunktionslast, jedoch muss man für verschiedene Anwendungen Helligkeitstransformationstabellen anfertigen, was für die Gebrauchslage nicht vorteilhaft ist. Zudem lässt sich schwer eine Theorie bei der Herstellung der Transformationstabelle aufstellen, und daher wird diese allein auf Erfahrungsbasis angefertigt.
  • Bei der Erfassung der Position bzw. Stellung eines Gegenstandes mit Hilfe eines Optosensors variiert die Intensität des auf den Optosensor eintreffenden Lichts je nach der Helligkeit eines Gegenstandes, die sich entsprechend der Umgebung ändert, wie die Intensität der Beleuchtung oder des Sonnenlichts, und einer Abweichung der Platzierung eines Gegenstandes (relative Position bzw. Stellung zwischen dem Gegenstand und dem Optosensor). Es gibt daher einen Fall, bei dem es aufgrund eines zu dunklen Bildes nicht zur Lichthofbildung in einem Bereich kommt, der zur Erfassung oder zur Aufnahme nützlicher Information notwendig ist. Man möchte einen dynamischen Bereich des Optosensors in Bezug auf die Helligkeit des Gegenstandes erweitern.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Eine Aufgabe der Erfindung ist die Verwirklichung der logarithmischen Helligkeitstransformation, die den dynamischen Bereich eines Optosensors erweitern kann, indem ein Bereich schwacher Helligkeit erweitert wird, und ein Bereich mit starker Helligkeit komprimiert wird, wobei die Rechenfunktionen des Prozessor nur wenig belastet werden.
  • Eine weitere Aufgabe der Erfindung ist die Durchführung einer stabilen Erfassung durch logarithmische Helligkeitstransformation entsprechend einem AN/AUS-Zustand des Einfalls eines Referenzlichtstrahls, wie eines Laserstrahls, beim Aufnehmen von Bildern eines Gegenstandes mit dem Referenzlicht.
  • Gemäß einem Aspekt der Erfindung umfasst der Optosensor:
    Bildaufnahmevorrichtung zum Aufnehmen einer Anzahl zweidimensionaler Bilder eines Gegenstandes mit steuerbaren Aufnahmezeiten;
    Referenzlichtwiedergabevorrichtung zum Wiedergeben von Referenzlicht;
    Speichervorrichtung zum Speichern von Parametern, mit denen die Aufnahmezeit zum Aufnehmen der Anzahl zweidimensionaler Bilder durch die Bildaufnahmevorrichtung verändert wird;
    Bildverarbeitungsvorrichtung zum Verarbeiten der von der Bildaufnahmevorrichtung aufgenommenen Anzahl Bilder;
    Referenzlichtsteuervorrichtungen zur AN/AUS-Steuerung der Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung; und
    Aufnahmezeitsteuervorrichtung zum Steuern der Aufnahmezeit, so dass die Bildaufnahmevorrichtung die Anzahl der Bilder entsprechend dem AN/AUS-Zustand der Lichtwiedergabe unter Verwendung der in der Speichervorrichtung gespeicherten Parameter mit verschiedenen Aufnahmezeiten aufnimmt.
  • Gemäß einer Ausführungsform des vorstehenden Aspektes der Erfindung steuert die Aufnahmezeitsteuervorrichtung:
    die Aufnahmezeit beim Aufnehmen eines zweidimensionalen Bildes durch die Bildaufnahmevorrichtung gemäß einer Dichte eines Teils des zweidimensionalen Bildes, der einem aufgehellten Teil des Gegenstandes entspricht, wenn die Lichtwiedergabe AN ist, und
    die Aufnahmezeit beim Aufnehmen eines weiteren zweidimensionalen Bildes durch die Bildaufnahmevorrichtung gemäß einer Dichte eines Teils oder eines Gesamtbereichs des weiteren zweidimensionalen Bildes, wenn die Lichtwiedergabe AUS ist, wobei die in der Speichervorrichtung gespeicherten Parameter verwendet werden.
  • Die Bildverarbeitungsvorrichtung kann Bildzusammensetzungsvorrichtungen zur Erzeugung eines zusammengesetzten Bildes auf der Basis der Dichten jedes Pixels in der Anzahl zweidimensionaler Bilder umfassen, die mit verschiedenen Aufnahmezeiten durch die Bildaufnahmevorrichtung aufgenommen werden.
  • Gemäß einem weiteren Aspekt der Erfindung umfasst der Optosensor:
    Bildaufnahmevorrichtung zum Aufnehmen einer Anzahl zweidimensionaler Bilder eines Gegenstandes mit steuerbarer Helligkeitsverstärkung;
    Referenzlichtwiedergabevorrichtung;
    Speichervorrichtung zum Speichern von Parametern, mit denen die Helligkeitsverstärkung beim Aufnehmen der Anzahl zweidimensionaler Bilder durch die Bildaufnahmevorrichtung verändert wird;
    Bildverarbeitungsvorrichtung;
    Referenzlichtsteuervorrichtungen; und
    Verstärkungssteuervorrichtung zum Steuern der Helligkeitsverstärkung, so dass die Bildaufnahmevorrichtung die Anzahl Bilder mit verschiedenen Helligkeitsverstärkungen entsprechend dem AN/AUS-Zustand der Lichtwiedergabe aufnimmt, wobei die in der Speichervorrichtung gespeicherten Parameter verwendet werden.
  • Gemäß einer Ausführungsform des vorstehenden Aspektes der Erfindung steuert die Verstärkungssteuervorrichtung:
    die Helligkeitsverstärkung beim Aufnehmen eines zweidimensionalen Bildes durch die Bildaufnahmevorrichtung gemäß der Dichte eines Teils des zweidimensionalen Bildes, der einem aufgehellten Teil des Gegenstandes entspricht, wenn die Lichtwiedergabe AN ist, und
    die Aufnahmezeit beim Aufnehmen eines weiteren zweidimensionalen Bildes durch die Bildaufnahmevorrichtung gemäß der Dichte eines Teils oder des Gesamtbereichs des weiteren zweidimensionalen Bildes, wenn die Lichtwiedergabe AUS ist, wobei die in der Speichervorrichtung gespeicherten Parameter verwendet werden.
  • In diesen Fällen kann die Bildverarbeitungsvorrichtung Bildzusammensetzungsvorrichtungen zur Erzeugung eines zusammengesetzten Bildes auf der Basis der Dichten jedes Pixels in der Anzahl zweidimensionaler Bilder umfassen, die mit verschiedenen Helligkeitsverstärkungen durch die Bildaufnahmevorrichtung aufgenommen werden.
  • Die Bildzusammensetzungsvorrichtung erhält einen charakteristischen Wert, der mindestens einen Teil eines Bereichs der Dichte der aufgenommenen Anzahl zweidimensionaler Bilder veranschaulicht, und sie normalisiert die Dichte des zusammengesetzten Bildes auf der Basis des Bereichs der Dichte, die durch den charakteristischen Wert veranschaulicht wird. Der charakteristische Wert kann ein Höchstwert, ein Mindestwert, ein Mittelwert, eine Standardabweichung, eine Verteilung, ein Medianwert und ein Helligkeitsmodus von mindestens einem Teil der zweidimensionalen Bilder oder eine beliebige Kombination von Höchstwert, Mindestwert, Mittelwert, Standardabweichung, Verteilung, Medianwert und Modus sein.
  • Die Referenzlichtwiedergabevorrichtung kann Punktlicht oder Spaltlicht wiedergeben. Die Bildaufnahmevorrichtung kann eine Kamera mit Lichtempfängerbauteilen in Form einer Halbleitervorrichtung umfassen.
  • Der Optosensor kann an einen Roboter angeschlossen sein, und in diesem Fall steuern die Referenzlichtsteuervorrichtungen die Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung je nach Betrieb des Roboters oder einem Betriebsprogramm des Roboters AN/AUS.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1, ein Blockdiagramm, eine Basiskonfiguration einer Hardware eines Optosensors gemäß einer Ausführungsform der Erfindung;
  • 2, ein Schaubild, eine Beziehung zwischen Helligkeit eines einfallenden Lichts auf einem Pixel und der Dichte des Pixels in einem aufgenommenen Bild;
  • 3, ein Schaubild die Beziehung zwischen der Helligkeit des einfallenden Lichts und der Dichte des Pixels in den Bildern, die mit einer schrittweise veränderten Aufnahmezeit aufgenommen wurden;
  • 4 ein Fließschema eines ersten Beispiels der erfindungsgemäßen Bildzusammensetzungsverarbeitung; und
  • 5 ein Fließschema eines zweiten Beispiels der erfindungsgemäßen Bildzusammensetzungsverarbeitung.
  • EINGEHENDE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die 1 zeigt schematisch eine Konfiguration eines Optosensors gemäß einer erfindungsgemäßen Ausführungsform.
  • Der Optosensor wird gewöhnlich von einer CPU 1 gesteuert, die an einen Frame-Speicher 2, einen ROM 3, einen RAM 4 und einen nichtflüchtigen RAM 5 über einen Bus 10 angeschlossen ist. Der ROM 3 speichert Programme für den Optosensor, einschließlich eines Programms zur Verarbeitung zusammengesetzter Bilder, insbesondere in der vorliegenden Erfindung. Der RAM 4 wird zum vorübergehenden Speichern von Daten bei der Ausführung des Programms verwendet. Bei dem nichtflüchtigen RAM 5 sind eingestellte Werte zur Ausführung der Programme gespeichert, welche Parameter zur Verlängerung der Aufnahmezeit oder eine Änderungsrate einer Helligkeitsverstärkung, insbesondere bei der vorliegenden Erfindung, umfassen.
  • Eine Kameraschnittstelle 6, eine Monitorschnittstelle 7, eine Außengeräteschnittstelle 8 und eine Kommunikationsschnittstelle 9 sind an den Bus 10 angeschlossen, und eine Kamera 11 als zweidimensionale Bildaufnahmevorrichtung ist an die Kameraschnittstelle 6 angeschlossen. Ein Monitor 12, wie eine Flüssigkristallanzeige (LCD) und eine Kathodenstrahlröhre (CRT), ist an die Monitorschnittstelle 7 angeschlossen. Zudem sind eine Tastatur 13 und eine Laseranregungsstromquelle 14 für den Laseroszillator 15 als Referenzlichtstrahlprojektor an die Außengeräteschnittstelle 8 angeschlossen. Das Bedienungspersonal kann verschiedene Parameterwerte, einschließlich der Werte der Aufnahmezeit, über die Tastatur 13 eingeben. Eine Robotersteuerung lässt sich an die Kommunikationsschnittstelle 9 anschließen.
  • Kommerzielle oder industrielle Produkte lassen sich an die Kamera 11 und die Kameraschnittstelle 6 anpassen, insbesondere eine Kamera mit Lichtaufnahmebauteilen einer Halbleitervorrichtung, wie ein CCD- oder CMOS-Sensor. Die Kameraschnittstelle 6 hat eine Funktion, bei der synchronisierte Signale zum Steuern der Belichtung bei der Aufnahme eines Bildes mit der Kamera 11 ausgegeben werden, und eine Funktion, bei der eine Zunahme der Verstärkung von Signalen, die von der Kamera 11 erhalten werden, verändert werden.
  • Signale, die die mit der Kamera 11 aufgenommenen Bilder veranschaulichen, werden an der Kameraschnittstelle 6 einer A/D-Wandlung unterworfen und vorübergehend im Frame-Speicher 2 als Digitalbilddaten gespeichert. Die CPU 1 verarbeitet die im Frame-Speicher 2 gespeicherten Digitalbilddaten auf der Basis des in ROM 3 gespeicherten Programms, wobei die im nichtflüchtigen Speicher RAM 5 und im RAM 4 gespeicherten eingestellten Daten verwendet werden, und speichert die verarbeiteten Bilddaten wieder im Frame-Speicher 2. Die im Frame-Speicher 2 gespeicherten verarbeiteten Bilddaten werden zur Monitorschnittstelle 7 auf Anfrage von CPU 1 übertragen, und die Bilder werden auf der Basis der verarbeiteten Bilddaten auf dem Monitor 12 angezeigt, und vom Bedienungspersonal bestätigt.
  • Zum Aufnehmen von Bildern eines Werkstücks als Arbeitsschritt eines Roboters durch die Kamera 11, die am distalen Ende des Roboters befestigt ist, ist eine Robotersteuerung an der Kommunikationsschnittstelle 9, wie in 1 gezeigt angeschlossen. Der Optosensor sendet die erfassten Daten bei Erhalt der Befehle zum Aufnehmen des Bildes und zur Bildverarbeitung aus der Robotersteuerung zur Robotersteuerung.
  • Bei der Verwendung des Optosensors als dreidimensionaler Sensor wird die Laseranregungsstromquelle 14 zum Anregen des Laseroszillators 15 an eine Außengeräteschnittstelle 8, wie in 1 gezeigt, angeschlossen, so dass die Ausgabe eines Laserstrahls von einem AN/AUS-Signal von der CPU 1 AN/AUS gesteuert wird. Der Laseroszillator 14 ist am distalen Ende eines Roboterarms befestigt und gibt einen Punktstrahl oder Schlitzstrahlen aus. Die Wiedergabe des Lichtstrahls wird gemäß dem Betrieb des Roboters oder auf der Basis eines Robotersteuerprogramms gesteuert. Die Robotersteuerung gibt ein Lichtwiedergabeerteilungssignal an den Optosensor nur dann aus, wenn der Lichtstrahl aus dem Laseroszillator 15 am distalen Ende des Roboterarms zu einem festgelegten Bereich geführt wird, so dass die Lichtwiedergabe bei Erhalt eines Lichtwiedergabebefehls nur dann möglich ist, wenn das Lichtwiedergabeerteilungssignal erteilt wird. Somit wird der Lichtstrahl nur in einer Richtung in dem festgelegten Bereich wiedergegeben, so dass man die Wiedergabe des Lichtstrahls in einer Richtung verhindert, die nutzlos ist oder Gefahr verursacht. Das Lichtwiedergabeerteilungssignal kann an einen Optosensor auf der Basis des Betriebsprogramms des Roboters ausgegeben werden, so dass der Laseroszillator 15 den Lichtstrahl nur dann wiedergeben kann, wenn der Roboter eine festgelegte Position bzw. Stellung einnimmt. Das Lichtwiedergabesignal kann zudem nur dann ausgegeben werden, wenn der Roboter gestoppt wird, damit die Wiedergabe des Lichtstrahls gehemmt wird, während sich der Roboter bewegt.
  • Die Aufnahme und die Zusammensetzung der Bilder durch Verändern der Aufnahmezeit wird beschrieben. In dieser Ausführungsform wird ein Wert des Aufnahmezeitraums nach und nach reduziert, indem er jedes Mal beim Aufnehmen eines Bildes durch Multiplikation mit (1/A:A>1) reduziert wird, und die Dichte des Bildes in jedem Pixel in den aufgenommenen Bildern addiert wird, so dass ein letztes Bild erhalten wird, das auf der Basis der Summen der Dichten der jeweiligen Pixel ausgegeben wird.
  • Eine Beziehung zwischen einer Helligkeit X eines einfallenden Lichtes auf einem Pixel des lichtempfangenden Bauteils und einer Dichte Y des Pixels in einem Bild, das mit der niedrigsten Verschlussgeschwindigkeit (der längsten Aufnahmezeit) SO aufgenommen wurde, wird durch die folgende Gleichung (1) ausgedrückt, indem die Helligkeit X und die Dichte Y normalisiert werden, so dass ein dynamischer Bereich der Dichte Y gleich 0 ≤ Y ≤ 1 ist. Y = X (0 ≤ Y ≤ 1) Y = 1 (1 < x) (1)
  • Eine Beziehung zwischen der Helligkeit X und der Dichte Y des Pixels eines Bildes, das mit einer Verschlussgeschwindigkeit (Aufnahmezeit) S1 aufgenommen wird, erhalten durch Multiplikation des Aufnahmezeitraums SO mit (1/A), wird ausgedrückt durch die folgende Gleichung (2). Y = X (0 ≤ Y ≤ A) Y = 1 (A < x) (2)
  • Eine Beziehung zwischen der Helligkeit X und der Dichte Y der Pixel eines Bildes, das mit einer Verschlussgeschwindigkeit (Aufnahmezeit) Si aufgenommen wird, erhalten durch Multiplikation des Aufnahmezeitraums SO mit (1/Ai), wird ausgedrückt durch die folgende Gleichung (3). Y = X (0 ≤ Y ≤ Ai) Y = 1 (Ai < X) (3)
  • Ein Schaubild, das die vorstehenden Beziehungen zeigt, ist in der 3 angegeben. Somit wird die Summe Z(x) der Dichte jedes Pixels in N Bildern, die aufgenommen wurden, indem die Aufnahmezeit schrittweise von der längsten Verschlussgeschwindigkeit SO bis zur kürzesten Verschlussgeschwindigkeit Sn verändert wurde, durch die folgende Reihe von Gleichungen (4) ausgedrückt; Z(X) = X + (X/A) + (X/A2) +...+ (X/AN–1)(0 ≤ X ≤ 1) Z(X) = 1 + (X/A) + (X/A2) +...+ (w/AN–1)(1 ≤ X ≤ A) Z(X) = 1 + 1 + (X/A2) +...+ (X/AN–1)(A ≤ X ≤ A2) Z(X) = 1 + 1 + 1 +1 +...+ (X/AN–1)(XN–2 ≤ X ≤ AN–1) (4)
  • Die Gleichungen (4) werden durch ein Liniendiagramm veranschaulicht, das je nach dem Wert von X in N Abschnitte unterteilt ist. Ein Abschnitt, einschließlich eines bestimmten Wertes X, und ein Abschnitt, einschließlich eines Wertes AX als Produkt von "A" und "X" liegen folglich nebeneinander. Ein Wert 0,5 für X erfüllt beispielsweise die erste Gleichung des vorstehenden Satzes von Gleichungen (4) im ersten Abschnitt, und ein Wert von 0,5 A für AX erfüllt die zweite Gleichung des vorstehenden Satzes der Gleichungen (4). Somit wird die folgende Gleichung (5) aus dem vorstehenden Satz von Gleichungen (4) erhalten. Z(AX) – Z(X) = 1 – (X/AN–1) (O ≤ X ≤ AN–2) (5)
  • Insbesondere im Fall von X ≪ AN–1, wird die folgende Gleichung (6) erhalten, da die vorstehende Gleichung (5) angenähert wird durch Z(AX) – Z(X) = 1. Z(X) = (logX/logA) + k (6)
    • (k: eine willkürliche Konstante)
  • Die Gleichung (6) bedeutet, dass Z(X) des Pixels, der mit einer von SO bis Si variierenden Verschlussgeschwindigkeit durch Multiplizieren mit (1/A) aufgenommen wurde, Eigenschaften aufweist, die durch Werte angenähert werden, die erhalten werden, indem die Helligkeit X einer logarithmischen Transformation unterworfen wird, und zwar in einem Bereich, bei dem die Helligkeit des einfallenden Lichts kleiner ist als der Bereich, der erhalten wird, wenn man den dynamischen Bereich mit der Verschlussgeschwindigkeit SO mit Ai multipliziert.
  • Bei der tatsächlichen Anwendung muss die Häufigkeit der Bildaufnahme auf eine endliche Zahl eingestellt werden, weil man vorzugsweise verhindern möchte, dass die Bildaufnahme insgesamt so lang dauert. Daher werden der ungefähre Grad des Zusammensetzungsergebnisses und die ideale logarithmische Transformation verschlechtert, wenn die Häufigkeit der Bildaufnahme klein ist, aber es werden praktisch zufriedenstellende Ergebnisse der Zusammensetzung bei einer Häufigkeit von N = 3 bis 7 Aufnahmen erhalten.
  • Da es einen Fall gibt, bei dem das Ergebnis der Gleichung (6) zur Unterwerfung der Bild-Zusammensetzung mit der ungefähren logarithmischen Transformation die obere Grenze "1" der Dichte des normalisierten Bildes überschreitet, wird die folgende Gleichung (7) zur Gewinnung des endgültigen zusammengesetzten Bildes Z' angepasst. Z' = B·Z(X) + C (B und C: willkürliche Konstanten) (7)
  • Die Dichte der Pixel wird jeweils gemäß der Gleichung (7) mit den Konstanten B und C eingestellt. In dieser Ausführungsform werden die Konstanten B und C gemäß der folgenden Gleichungen (8) und (9) bestimmt, wobei der Höchstwert Zmax und der Mindestwert Zmin in den Werten der zusammengesetzten Dichte Z(X) sämtlicher Pixel in dem aufgenommenen Bild als charakteristische Werte verwendet werden, die einen Bereich der zusammengesetzten Dichte sämtlicher Pixel veranschaulichen. 1 = B·max + C (8) 0 = B·Zmin + C (9)
  • Die zusammengesetzte Dichte Z' jedes Pixels, der ausgegeben werden soll, wird gemäß der Gleichung (7) erhalten, wobei die festgelegten Werte der Konstanten B und C verwendet werden.
  • Die Konstanten B und C zum Einstellen der Dichte werden erhalten mit dem Höchstwert Zmax und dem Mindestwert Zmin der Werte Z(X) für sämtliche Pixel. Alternativ können die Konstanten B und C allein auf der Basis von Höchstwert Zmax, allein auf der Basis von Mindestwert Zmin, von einem Mittelwert Zmean, von einem Medianwert, von einem Modus, und von einer Kombination von Mittelwert Zmean und einer Standardabweichung (oder Verteilung) des zusammengesetzten Summenwertes Z(X) bestimmt werden.
  • Zur Bestimmung der Konstanten B und C allein auf der Basis des Höchstwertes Zmax der zusammengesetzten Werte Z(X), wird der Mindestwert Zmin in der Gleichung (9) auf "0" gesetzt, so dass bestimmt wird, dass die Konstante C "0" ist, und die Konstante B wird gemäß der Gleichung (8) bestimmt, wobei der Höchstwert Zmax und der bestimmte Wert "0" der Konstante C verwendet werden. Somit wird der zusammengesetzte Wert Z(X) derart standardisiert, dass die Helligkeit des einfallenden Lichtes von "0" bis Zmax von "0" bis "1" reicht.
  • Zur Bestimmung der Konstanten B und C allein auf der Basis des Mindestwertes Zmin wird der ideale Höchstwert AN+1 als Mindestwert Zmax in der Gleichung (8) angepasst, so dass die Konstanten B und C gemäß der Gleichungen (8) und (9) bestimmt werden, wobei der ideale Höchstwert AN–1 als Höchstwert Zmax und der Mindestwert Zmin verwendet werden.
  • Zur Bestimmung der Konstanten B und C auf der Basis des Mittelwertes Zmean (oder des Medianwertes oder Modus) der zusammengesetzten Werte Z(X) wird die Konstante C als Mittelwert Zmean der Dichten bestimmt, und die Konstante B wird gemäß der Gleichung (8) bestimmt, indem der Höchstwert Zmax auf den idealen Höchstwert AN–1 eingestellt wird. Alternativ wird die Konstante B gemäß der Gleichung (9) bestimmt, indem der Mindestwert Zmin auf "0" eingestellt wird. Zudem wird ein absoluter Wert |Zmean – Zmin(=0)| einer Differenz zwischen dem Mittelwert und dem Mindestwert mit einem absoluten Wert |Zmax (=AN–1)–Zmin (=0)| einer Differenz zwischen dem Höchstwert und dem Mittelwert verglichen, und wenn gilt:
    |Zmean-Zmin (=0)|>|Zmax(=AN-1)-Zmean,
    wird die Konstante B gemäß der Gleichung (9) bestimmt, und wenn gilt:
    |Zmean-Zmin(=0)|≤|Zmax(=AN-1)-Zmean|,
    wird die Konstante B gemäß der Gleichung (8) bestimmt.
  • Somit wird die Konstante B bestimmt, wobei einer der Werte Zmin und Zmax verwendet wird, der eine größere Differenz zum Mittelwert Zmean hat, so dass man die Sättigung des fertigen Bildes eliminiert. Der Medianwert oder Modus können anstelle des Mittelwertes Zmean verwendet werden. Der Medianwert wird erhalten durch (Zmax-Zmin)/2, und der Modus wird bestimmt als Medianwert in einem Bereich, in dem die Frequenz des zusammengesetzten Wertes Z(X) höchstens in einer Anzahl von Bereichen ist, die erhalten werden durch Dividieren eines Variationsbereiches des zusammengesetzten Wertes Z(X).
  • Zur Bestimmung der Konstanten B und C auf der Basis einer Kombination des Mittelwertes Zmean und der Standardabweichung des zusammengesetzten Wertes Z(X) werden der Mittelwert Zmean und die Standardabweichung σ (oder Verteilung) des zusammengesetzten Wertes Z(X) erhalten unter der Annahme, dass die Frequenz des zusammengesetzten Wertes Z(X) eine normale Verteilung hat, so dass man die Konstanten B und C bestimmt, und der zusammengesetzte Wert Z(X) in einem bestimmten Bereich von "0" bis "1" reicht.
  • In diesem Fall werden die Konstanten B und C gemäß der Gleichungen (8) und (9) mit den Bedingungen: Zmax = Zmean + 2σ, Zmin = Zmean – 2σ bestimmt. Somit wird der zusammengesetzte Wert Z(X) derart standardisiert, dass die Helligkeit des einfallenden Lichts in einem Bereich ± σ um den Mittelwert Zmean von "0" bis "1" reicht. Zmax kann Zmean + σ, Zmean + 3σ sein, und Zmin kann Zmean – σ und Zmean – 3σ sein.
  • Die 4 zeigt die Verarbeitung zur Gewinnung des zusammengesetzten Bildes mit dem Optosensor mit zweidimensionaler Bildaufnahmevorrichtung, wie Kamera 11, und der Lichtwiedergabevorrichtung zur Wiedergabe des Laserstrahls (Punktstrahl oder Schlitzstrahl) gemäß der Ausführungsform. In diesem Fall muss man eine Dichtetransformation zum Einstellen der Dichte des gesamten aufgenommenen Bildes durchführen, wenn der Laserstrahl abgeschaltet ist, und man muss eine Dichtetransformation zum Einstellen der Dichte eines Teils des aufgenommenen Bildes durchführen, auf dem der Laserstrahl auftrifft. Die Eigenschaften der vorstehenden Dichtetransformation sind in beiden Fällen verschieden. Die verschiedenen Werte werden eingestellt auf den Parameter A zum Verändern der Verlängerung des Aufnahmezeitraums beim Aufnehmen eines Bildes, wenn der Laserstrahl AN ist und wenn der Laserstrahl AUS ist. Somit wird ein Wert P auf den Parameter A beim Aufnehmen eines Bildes eingestellt, während der Laserstrahl an ist und ein Wert Q wird auf einen Parameter A beim Aufnehmen eines Bildes eingestellt, während der Laserstrahl aus ist. Zudem wird ein Wert Np auf die Häufigkeit N der Bildaufnahme eingestellt, während der Laserstrahl an ist und ein Wert Nq wird eingestellt auf die Häufigkeit N, während der Laserstrahl aus ist. Die Werte Np und Nq können gleich sein.
  • Zuerst wird bestimmt, ob der Lichtwiedergabebefehl an die Laseranregequelle 14 erteilt wird oder nicht (Schritt 101). Wird der Lichtwiedergabebefehl erteilt, wird der Wert P für den AN-Zustand des Laserstrahls auf den Parameter A eingestellt, und der Wert Np für den AN-Zustand des Laserstrahls wird auf die Zahl N eingestellt (Schritt 102). Wird der Lichtwiedergabebefehl nicht erteilt, wird der Wert Q für den AUS-Zustand des Laserstrahls auf den Parameter A eingestellt, und der Wert Nq für den AUS-Zustand des Laserstrahls wird auf die Zahl N eingestellt (Schritt 103).
  • Ein Register zum Speichern des zusammengesetzten Bildes Z jedes Pixels wird auf "0" eingestellt, und ein Index i wird auf "0" eingestellt (Schritt 104).
  • Dann wird ein Wert für die Verschlussgeschwindigkeit mit (1/Ai) multipliziert (Schritt 105), und ein Bild des Gegenstandes wird mit der Kamera 11 aufgenommen, wobei die Verschlussgeschwindigkeit und das aufgenommene Bild im Frame-Speicher gespeichert werden (Schritt 106). Eine Dichte Y jedes Pixels wird in das Register zum Speichern des zusammengesetzten Bildes Z addiert (Schritt 107). Der Index i wird schrittweise um "1" erhöht (Schritt 108), und es wird bestimmt, ob der Index i größer gleich dem eingestellten Wert für Häufigkeit N der Bildaufnahme ist oder nicht (Schritt 109). Die Verarbeitung der Schritte 105 bis 109 wird mehrmals ausgeführt, bis der Index i den eingestellten Wert für die Zahl N erreicht. Bei dieser Wiederholung der Verarbeitung wird jedes Bild aufgenommen, wobei die Verschlussgeschwindigkeit erhalten wird durch Multiplizieren der Verschlussgeschwindigkeit bei der Bildaufnahme direkt vor jeder Bildaufnahme mit (1/Ai), weil die Verschlussgeschwindigkeit auf einen Wert geändert wird, der in Schritt 105 mit (1/Ai) multipliziert wird.
  • Ist somit die Bildaufnahme der eingestellten Häufigkeit N beendet, werden der Höchstwert Zmax und der Mindestwert Zmin in sämtlichen zusammengesetzten Bildern erhalten, und die Werte der Konstanten B und C werden durch den Rechenvorgang der Gleichungen (8) und (9) (Schritt 110) erhalten.
  • Das zusammengesetzte Bild Z' jedes Pixels zum Ausgeben wird erhalten durch den Rechenvorgang der Gleichung (7) mit dem zusammengesetzten Bildwert Z jedes Pixels, wobei die erhaltenen Konstanten B und C verwendet werden (Schritt 111), damit die Verarbeitung zur Gewinnung des zusammengesetzten Bildes beendet wird.
  • 5 zeigt die Verarbeitung der Gewinnung des zusammengesetzten Bildes gemäß einer zweiten Ausführungsform. Bei dieser zweiten Ausführungsform wird der Parameter A zum Verändern der Verlängerung der Aufnahmezeit gemäß der Helligkeit eines zu Beginn aufgenommenen Bildes (ein Referenzbild) geändert, so dass das optimale zusammengesetzte Bild erhalten wurde. Der Parameter A für den Fall, bei dem die Wiedergabe des Laserstrahls an ist, und für den Fall, bei dem die Wiedergabe des Laserstrahls aus ist, wird gemäß der Helligkeit des Referenzbildes in drei Klassen unterteilt. Insbesondere die Parameterwerte P1, P2, und P3 bei der Wiedergabe des Laserstrahls und die Parameterwerte Q1, Q2 und Q3 bei Nicht-Wiedergabe des Laserstrahls werden vorher eingestellt. Die Häufigkeit N der Bildaufnahme kann gemäß der Bildklassen verändert werden. Bei dieser Ausführungsform wird jedoch der Wert Np bei der Wiedergabe des Laserstrahls und der Wert Np bei Nicht-Wiedergabe des Laserstrahls eingestellt.
  • Zuerst wird ein Bild eines Gegenstandes unter einer festgelegten Anfangsbedingung aufgenommen (Schritt 201). Es wird bestimmt, ob die Wiedergabe des Laserstrahls AN ist oder nicht (Schritt 202). Ist die Lichtwiedergabe AN, wird die Dichte eines Teils des aufgenommenen Bildes des Gegenstandes, der den Lichtstrahl empfängt, gelesen (Schritt 203), und es wird bestimmt, ob die Dichte kleiner gleich einem ersten Referenzwert Ysa1 ist (Schritt 204). Ist die Dichte kleiner gleich dem ersten Referenzwert Ysa1, wird ein erster Parameterwert P1 für den AN-Zustand der Lichtwiedergabe auf den Parameter A zur Veränderung der Verlängerung der Aufnahmezeit eingestellt, und der festgelegte Wert Np für den AN-Zustand der Lichtwiedergabe auf die Häufigkeit N zum Aufnehmen der Bilder eingestellt (Schritt 205). Dann wird die gleiche Verarbeitung wie in den Schritten 104 und den darauffolgenden Schritten in 4 ausgeführt.
  • Wird bestimmt, dass die Dichte Y größer ist als der erste Referenzwert Ysa1 in Schritt 204, wird weiter bestimmt, ob die Dichte Y größer oder gleich einem zweiten Referenzwert Ysa2 ist, der größer als der erste Referenzwert Ysa1 ist (Schritt 206). Wird bestimmt, dass die Dichte Y kleiner als der zweite Referenzwert Ysa2 ist, und wird dieser somit zwischen dem ersten Referenzwert Ysa1 und dem zweiten Referenzwert Ysa2 positioniert, wird ein zweiter festgelegter Wert P2 auf den Parameter A zur Veränderung der Verlängerung der Aufnahmezeit eingestellt, und der festgelegte Wert Np für den AN-Zustand der Lichtwiedergabe wird auf die Häufigkeit N der Bildaufnahme eingestellt (Schritt 207). Wird bestimmt, dass die Dichte Y größer gleich dem zweiten Referenzwert Ysa2 ist, wird ein dritter Parameterwert P3 auf den Parameter A eingestellt, und der festgelegte Wert Np wird auf die Häufigkeit N der Bildaufnahme eingestellt (Schritt 208).
  • Bei dem Fall, bei dem die Lichtwiedergabe AUS ist, wird die Dichte Y des gesamten Bereichs des aufgenommenen Bildes gelesen (Schritt 209) und mit den ersten und zweiten Referenzwerten Ysb1 und Ysb2 verglichen (Schritt 210; Schritt 212). Ist die Dichte Y nicht größer als der erste Referenzwert Ysb1, wird ein erster festgelegter Wert Q1 auf einen Parameter A eingestellt (Schritt 211). Ist die Dichte Y zwischen dem ersten Referenzwert Ysb1 und dem zweiten Referenzwert Ysb2, wird der zweite festgelegte Wert Q2 auf den Parameter A eingestellt (Schritt 213). Ist die Dichte Y größer gleich dem zweiten Referenzwert Ysb2, wird der dritte festgelegte Wert Q3 auf den Parameter A eingestellt (Schritt 214). Der festgelegte Wert Nb für den AUS-Zustand der Lichtwiedergabe wird auf die Häufigkeit N der Bildaufnahme eingestellt.
  • Nach dem Bestimmen des Parameters A zum Verändern der Verlängerung der Aufnahmezeit, erfolgt die gleiche Verarbeitung wie für die Schritte 104 und die Schritte in 4, so dass das endgültige Bild Z' für den Ausgang erhalten wird.
  • Bei den vorstehenden Ausführungsformen werden die Konstanten B und C in der Gleichung (7) zur Gewinnung des endgültigen zusammengesetzten Bildes Z' auf der Basis des Höchstwertes Zmax und des Mindestwertes Zmin der Dichten aller Pixel erhalten. Die Konstanten B und C können wie beschrieben allein auf der Basis von Höchstwert Zmax, allein auf der Basis von Mindestwert Zmin, von Mittelwert Zmean, von einer Kombination aus Mittelwert Zmean und Standardabweichung, bestimmt werden, so dass das letzte Ausgangsbild Z' mit den bestimmten Konstanten B und C erhalten wird. In diesem Fall wird die Verarbeitung von Schritt 110 zur Verarbeitung wie beschrieben modifiziert.
  • Die Dauer der Aufnahme jedes Bildes wird verändert, indem man die Verschlussgeschwindigkeit ändert, d.h. die Aufnahmezeit in den vorhergehenden Ausführungsformen. Alternativ zur Veränderung der Aufnahmezeit wird eine Helligkeitszunahme des Bildes geändert, indem eine Zunahme der Verstärkung eines Signals aus der Kamera 11 oder eine Zunahme der Verstärkung in der Kamera 11, die an die Kameraschnittstelle angeschlossen ist, geändert wird. Da die Änderung der Helligkeitszunahme im Wesentlichen gleich der Änderung der Aufnahmezeit ist, wird im Wesentlichen die gleiche Wirkung erzielt, indem die Aufnahmezeit geändert wird und indem die Helligkeitszunahme geändert wird. Im Falle der Änderung der Zunahme, kann statt der Verarbeitung der Multiplikation der Verschlussgeschwindigkeit mit (1/Ai) in Schritt 105 eine Zunahme der Verstärkung eines Signals aus der Kamera nach und nach mit (1/Ai) multipliziert werden. Die festgelegten Werte P, Q, P1–P3 und Q1–Q3 werden so modifiziert, dass sie der Zunahmeverstärkung entsprechen.
  • Erfindungsgemäß wird ein dynamischer Bereich eines Optosensors in Bezug auf verschienene Bedingungen der Bildaufnahme verbessert, wie die Veränderung der Belichtung und der Lage eines Gegenstandes, so dass eine Optosensor eine stabile Erfassung durchführt, die nicht durch eine Veränderung der Umgebung und der Bedingungen beeinflusst wird. Zudem wird die Belastung des Prozessors zur Durchführung von Rechenvorgängen zum Gewinnen eine zusammengesetzten Bildes reduziert. Darüber hinaus kommt es im Gegensatz zum Stand der Technik erfindungsgemäß nicht zu der ungewünschten Diskontinuität der Dichte benachbarter Pixel von Bildern, die unter verschiedenen Bedingungen aufgenommen wurden.

Claims (16)

  1. Optosensor, umfassend: Bildaufnahmevorrichtung (11) zum Aufnehmen einer Anzahl zweidimensionaler Bilder eines Gegenstandes mit steuerbaren Aufnahmezeiten; Referenzlichtwiedergabevorrichtung (15) zum Wiedergeben von Referenzlicht; Speichervorrichtung (5) zum Speichern von Parametern, mit denen die Aufnahmezeit zum Aufnehmen der Anzahl zweidimensionaler Bilder durch die Bildaufnahmevorrichtung (11) verändert wird; Bildverarbeitungsvorrichtung (1) zum Verarbeiten der von der Bildaufnahmevorrichtung aufgenommenen Anzahl Bilder; Referenzlichtsteuervorrichtungen (1, 8) zur AN/AUS-Steuerung der Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung; und Aufnahmezeitsteuervorrichtung (1) zum Steuern der Aufnahmezeit, so dass die Bildaufnahmevorrichtung (11) die Anzahl der Bilder entsprechend dem AN/AUS-Zustand der Lichtwiedergabe unter Verwendung der in der Speichervorrichtung (5) gespeicherten Parameter mit verschiedenen Aufnahmezeiten aufnimmt.
  2. Optosensor nach Anspruch 1, worin die Aufnahmezeitsteuervorrichtung (1) steuert: die Aufnahmezeit beim Aufnehmen eines zweidimensionalen Bildes durch die Bildaufnahmevorrichtung (11) gemäß einer Dichte eines Teils des zweidimensionalen Bildes, der einem aufgehellten Teil des Gegenstandes entspricht, wenn die Lichtwiedergabe AN ist, und die Aufnahmezeit beim Aufnehmen eines weiteren zweidimensionalen Bildes durch die Bildaufnahmevorrichtung (11) gemäß einer Dichte eines Teils oder eines Gesamtbereichs des weiteren zweidimensionalen Bildes, wenn die Lichtwiedergabe AUS ist, wobei die in der Speichervorrichtung (5) gespeicherten Parameter verwendet werden.
  3. Optosensor nach Anspruch 1 oder 2, wobei die Bildaufnahmevorrichtung (1) umfasst Bildzusammensetzungsvorrichtungen zur Erzeugung eines zusammengesetzten Bildes auf der Basis der Dichten jedes Pixels in der Anzahl zweidimensionaler Bilder, die mit verschiedenen Aufnahmezeiten durch die Bildaufnahmevorrichtung (11) aufgenommen werden.
  4. Optosensor nach Anspruch 3, wobei die Bildzusammensetzungsvorrichtung einen charakteristischen Wert erhält, der mindestens einen Teil eines Bereichs der Dichte der aufgenommenen Anzahl zweidimensionaler Bilder veranschaulicht, und sie die Dichte des zusammengesetzten Bildes auf der Basis des Bereichs der Dichte normalisiert, die durch den charakteristischen Wert veranschaulicht wird.
  5. Optosensor nach Anspruch 4, wobei der charakteristische Wert ist ein Höchstwert, ein Mindestwert, ein Mittelwert, eine Standardabweichung, eine Verteilung, ein Medianwert und ein Helligkeitsmodus von mindestens einem Teil der zweidimensionalen Bilder oder eine beliebige Kombination von Höchstwert, Mindestwert, Mittelwert, Standardabweichung, Verteilung, Medianwert und Modus.
  6. Optosensor nach einem vorhergehenden Anspruch, wobei die Referenzlichtwiedergabevorrichtung (15) Punktlicht oder Spaltlicht wiedergibt.
  7. Optosensor nach einem vorhergehenden Anspruch, wobei die Bildaufnahmevorrichtung (11) eine Kamera mit Lichtempfängerbauteilen in Form einer Halbleitervorrichtung umfasst.
  8. Optosensor nach einem vorhergehenden Anspruch, wobei der Optosensor an einen Roboter angeschlossen ist, und die Referenzlichtsteuervorrichtungen (1, 8) die Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung (15) je nach Betrieb des Roboters oder einem Betriebsprogramm des Roboters AN/AUS steuern.
  9. Optosensor, umfassend Bildaufnahmevorrichtung (11) zum Aufnehmen einer Anzahl zweidimensionaler Bilder eines Gegenstandes mit steuerbarer Helligkeitsverstärkung; Referenzlichtwiedergabevorrichtung (15) zum Wiedergeben von Referenzlicht; Speichervorrichtung (5) zum Speichern von Parametern, mit denen die Helligkeitsverstärkung beim Aufnehmen der Anzahl zweidimensionaler Bilder durch die Bildaufnahmevorrichtung verändert wird; Bildverarbeitungsvorrichtung (1) zum Verarbeiten der von der Bildaufnahmevorrichtung aufgenommenen Anzahl Bilder; Referenzlichtsteuervorrichtungen (1, 8) zur AN/AUS-Steuerung der Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung; und Verstärkungssteuervorrichtung (1) zum Steuern der Helligkeitsverstärkung, so dass die Bildaufnahmevorrichtung die Anzahl Bilder mit verschiedenen Helligkeitsverstärkungen entsprechend dem AN/AUS-Zustand der Lichtwiedergabe aufnimmt, wobei die in der Speichervorrichtung (5) gespeicherten Parameter verwendet werden.
  10. Optosensor nach Anspruch 9, wobei die Verstärkungssteuervorrichtung (1) steuert: die Helligkeitsverstärkung beim Aufnehmen eines zweidimensionalen Bildes durch die Bildaufnahmevorrichtung (11) gemäß der Dichte eines Teils des zweidimensionalen Bildes, der einem aufgehellten Teil des Gegenstandes entspricht, wenn die Lichtwiedergabe AN ist, und die Aufnahmezeit beim Aufnehmen eines weiteren zweidimensionalen Bildes durch die Bildaufnahmevorrichtung (11) gemäß der Dichte eines Teils oder des Gesamtbereichs des weiteren zweidimensionalen Bildes, wenn die Lichtwiedergabe AUS ist, wobei die in der Speichervorrichtung (5) gespeicherten Parameter verwendet werden.
  11. Optosensor nach Anspruch 9 oder 10, wobei die Bildverarbeitungsvorrichtung (1) umfasst Bildzusammensetzungsvorrichtungen zur Erzeugung eines zusammengesetzten Bildes auf der Basis der Dichten jedes Pixels in der Anzahl zweidimensionaler Bilder, die mit verschiedenen Helligkeitsverstärkungen durch die Bildaufnahmevorrichtung (11) aufgenommen werden.
  12. Optosensor nach Anspruch 11, wobei die Bildzusammensetzungsvorrichtung einen charakteristischen Wert erhält, der mindestens einen Teil eines Bereichs der Dichte der aufgenommenen Anzahl zweidimensionaler Bilder veranschaulicht, und sie die Dichte des zusammengesetzten Bildes auf der Basis des Bereichs der Dichte normalisiert, die durch den charakteristischen Wert veranschaulicht wird.
  13. Optosensor nach Anspruch 12, wobei der charakteristische Wert ist ein Höchstwert, ein Mindestwert, ein Mittelwert, eine Standardabweichung, eine Verteilung, ein Medianwert und ein Helligkeitsmodus von mindestens einem Teil der zweidimensionalen Bilder oder eine beliebige Kombination von Höchstwert, Mindestwert, Mittelwert, Standardabweichung, Verteilung, Medianwert und Modus.
  14. Optosensor nach einem der Ansprüche 9 bis 13, wobei die Referenzlichtwiedergabevorrichtung (15) Punktlicht oder Spaltlicht wiedergibt.
  15. Optosensor nach einem der Ansprüche 9 bis 14, wobei die Bildaufnahmevorrichtung (11) eine Kamera mit Lichtempfängerbauteilen in Form einer Halbleitervorrichtung umfasst.
  16. Optosensor nach einem der Ansprüche 9 bis 15, wobei der Optosensor an einen Roboter angeschlossen ist, und die Referenzlichtsteuervorrichtungen (1, 8) die Lichtwiedergabe durch die Referenzlichtwiedergabevorrichtung (15) je nach Betrieb des Roboters oder einem Betriebsprogramm des Roboters AN/AUS steuern.
DE60212254T 2001-05-09 2002-05-09 Optischer Sensor Expired - Lifetime DE60212254T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001139112 2001-05-09
JP2001139112A JP3780178B2 (ja) 2001-05-09 2001-05-09 視覚センサ

Publications (2)

Publication Number Publication Date
DE60212254D1 DE60212254D1 (de) 2006-07-27
DE60212254T2 true DE60212254T2 (de) 2006-10-05

Family

ID=18985944

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60212254T Expired - Lifetime DE60212254T2 (de) 2001-05-09 2002-05-09 Optischer Sensor

Country Status (4)

Country Link
US (1) US7190402B2 (de)
EP (1) EP1257117B1 (de)
JP (1) JP3780178B2 (de)
DE (1) DE60212254T2 (de)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4392492B2 (ja) * 2003-06-02 2010-01-06 国立大学法人静岡大学 広ダイナミックレンジイメージセンサ
JP2005252711A (ja) * 2004-03-04 2005-09-15 Fuji Photo Film Co Ltd デジタルスチルカメラを用いた撮影システム、及び撮影制御方法
JP4556722B2 (ja) 2004-05-31 2010-10-06 コニカミノルタホールディングス株式会社 撮像装置
JP2005348005A (ja) * 2004-06-02 2005-12-15 Konica Minolta Holdings Inc 撮像装置、撮像システム及び撮像システム動作プログラム
US20060018013A1 (en) 2004-07-07 2006-01-26 Yoshimasa Suzuki Microscope imaging apparatus and biological-specimen examination system
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
JP4747065B2 (ja) * 2006-09-29 2011-08-10 富士通株式会社 画像生成装置、画像生成方法および画像生成プログラム
US7884871B2 (en) 2007-06-15 2011-02-08 Aptina Imaging Corporation Images with high speed digital frame transfer and frame processing
KR20090028013A (ko) * 2007-09-13 2009-03-18 삼성전자주식회사 디스플레이 장치용 구동 집적회로, 이를 구비하는디스플레이 장치 및 그 셋팅 데이터 프로그램 방법
JP5082776B2 (ja) 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
JP2009224971A (ja) * 2008-03-14 2009-10-01 Omron Corp 画像処理装置
US7999861B2 (en) 2008-03-14 2011-08-16 Omron Corporation Image processing apparatus for generating composite image with luminance range optimized for a designated area
JP4946928B2 (ja) * 2008-03-14 2012-06-06 オムロン株式会社 画像処理装置および画像処理方法
US20100149393A1 (en) * 2008-05-22 2010-06-17 Panavision Imaging, Llc Increasing the resolution of color sub-pixel arrays
US8035711B2 (en) * 2008-05-22 2011-10-11 Panavision Imaging, Llc Sub-pixel array optical sensor
US20090290052A1 (en) * 2008-05-23 2009-11-26 Panavision Imaging, Llc Color Pixel Pattern Scheme for High Dynamic Range Optical Sensor
JP5181970B2 (ja) 2008-09-25 2013-04-10 オムロン株式会社 画像処理装置および画像処理方法
JP5370056B2 (ja) 2008-11-04 2013-12-18 オムロン株式会社 画像処理装置
JP5257375B2 (ja) 2009-03-13 2013-08-07 オムロン株式会社 画像処理装置および画像処理方法
US20110205384A1 (en) * 2010-02-24 2011-08-25 Panavision Imaging, Llc Variable active image area image sensor
JP2014050042A (ja) * 2012-09-03 2014-03-17 Toshiba Corp 画像処理装置及び固体撮像装置
CN104662472B (zh) * 2012-09-25 2017-03-01 日产自动车株式会社 拍摄装置以及拍摄方法
JP6537231B2 (ja) * 2014-08-11 2019-07-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2016172619A1 (en) 2015-04-23 2016-10-27 Apple Inc. Digital viewfinder user interface for multiple cameras
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
CN111901475A (zh) * 2019-05-06 2020-11-06 苹果公司 用于捕获和管理视觉媒体的用户界面
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0312046B1 (de) * 1987-10-14 1994-07-27 Hitachi, Ltd. Vorrichtung und Verfahren zur Fehlerinspektion in befestigten Bauteilen, unter Verwendung eines Lichtschlitzes
US5264940A (en) * 1990-10-08 1993-11-23 Olympus Optical Co., Ltd. Image sensing apparatus having exposure level and dynamic range control circuit
JP3394019B2 (ja) 1990-10-08 2003-04-07 オリンパス光学工業株式会社 画像入力装置の露光制御回路
JPH05314253A (ja) 1992-05-12 1993-11-26 Toyota Central Res & Dev Lab Inc 画像変換装置
JPH08279900A (ja) 1995-04-07 1996-10-22 Mitsubishi Electric Corp スキャナ装置
JPH09311927A (ja) 1996-05-24 1997-12-02 De-Shisu:Kk 駐車車両検出装置及び駐車車両検出方法
JPH1021378A (ja) 1996-07-01 1998-01-23 Toyo Commun Equip Co Ltd 撮像装置及び撮像方法
JP3432705B2 (ja) * 1997-06-23 2003-08-04 三菱電機株式会社 撮像装置
JPH1166279A (ja) 1997-08-20 1999-03-09 Canon Inc 画像処理装置及び画像処理方法
JPH11134505A (ja) 1997-10-31 1999-05-21 Terumo Corp 画像抽出装置およびこれを用いた画像表示装置
JPH11167635A (ja) 1997-12-02 1999-06-22 Dainippon Screen Mfg Co Ltd 描画判定装置
JPH11187199A (ja) 1997-12-17 1999-07-09 Fuji Photo Film Co Ltd 画像入力装置
JPH11218415A (ja) 1998-02-03 1999-08-10 Nikon Corp 立体形状計測用の撮像装置
JPH11355787A (ja) 1998-06-09 1999-12-24 Konica Corp 画像処理装置及び画像出力装置
JP4111592B2 (ja) * 1998-06-18 2008-07-02 コニカミノルタセンシング株式会社 3次元入力装置
JP2000050160A (ja) * 1998-08-03 2000-02-18 Ricoh Co Ltd 画像合成装置,画像合成方法及び画像合成方法を記憶した記憶媒体
JP2000217040A (ja) 1999-01-25 2000-08-04 Nikon Corp 電子シャッタ制御装置及びこれを用いた撮像装置
JP4292679B2 (ja) * 1999-05-10 2009-07-08 コニカミノルタホールディングス株式会社 固体撮像装置
JP4186347B2 (ja) * 1999-10-14 2008-11-26 コニカミノルタセンシング株式会社 3次元入力方法及び装置

Also Published As

Publication number Publication date
JP2002334326A (ja) 2002-11-22
EP1257117A2 (de) 2002-11-13
US20020167604A1 (en) 2002-11-14
US7190402B2 (en) 2007-03-13
EP1257117A3 (de) 2004-12-15
EP1257117B1 (de) 2006-06-14
DE60212254D1 (de) 2006-07-27
JP3780178B2 (ja) 2006-05-31

Similar Documents

Publication Publication Date Title
DE60212254T2 (de) Optischer Sensor
DE60202549T2 (de) Szenenabhängige Korrektur der Ungleichmässigkeit von Detektoranordnungen
DE19983806B4 (de) Ein die diskrete Wavelet-Transformation verwendender Autofokus-Algorithmus
DE3913758C2 (de)
DE69326394T2 (de) Videokamera mit farbbasiertem Zielverfolgungssystem
DE60014814T2 (de) Elektronische Stehbildkamera und zugehöriges Signalverarbeitungsverfahren zur Entfernung von Rauschanteilen in Bilddaten
DE69930986T2 (de) Hochauflösende Kamera
DE68928999T2 (de) Kamera mit breitem dynamischem bereich
DE102014204905B4 (de) Bildaufnahmevorrichtung und zugehöriges Steuerverfahren
DE69224102T2 (de) Gradationskorrekturanordnung für Videosignal
DE3905619C2 (de) Bildeingabe-/Ausgabevorrichtung
DE69828909T2 (de) Neue perzeptive lokale gradientenbasierte gratbestimmung
DE69124777T2 (de) Gerät zur Detektion des Bewegungsvektors
DE69226559T2 (de) Bildverarbeitung
DE4041312C2 (de) Elektronische Kameravorrichtung zum Liefern eines Bildsignales mit einem weiten Dynamikbereich
DE69014354T2 (de) Verfahren und Anordnung zur Bearbeitung der Röntgenstrahlabbildung im Röntgenstrahlgerät.
DE60315568T2 (de) Verfahren zur Verbesserung der Schärfe eines Digitalbildes
DE112016001040T5 (de) Verfahren und System zur Echtzeit-Rauschbeseitung und -Bildverbesserung von Bildern mit hohem Dynamikumfang
DE69523043T2 (de) Zusammenstellung eines bildes aus teilbildern
DE102012201696A1 (de) Bildverarbeitungsvorrichtung, zugehöriges Steuerverfahren, Programm und Aufzeichnungsmedium
DE102013201980B4 (de) Verfahren zur Fokuseinstellung und entsprechendes Bilderfassungsgerät
DE102017126269A1 (de) Hinterleuchtete Gesichtserkennung
DE102019122667A1 (de) Verfahren zur Unterdrückung von Bildrauschen in einem Videobildstrom, sowie zugehöriges medizinisches Bildaufnahmesystem und Computerprogrammprodukt
DE60211440T2 (de) Verfahren und system zum infrarotnachweis mit auf histogrammen beruhender manueller pegel- und verstärkungsregelung
DE10351236A1 (de) Autofocussystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition