DE102018220424A1 - Kamerasystem - Google Patents

Kamerasystem Download PDF

Info

Publication number
DE102018220424A1
DE102018220424A1 DE102018220424.1A DE102018220424A DE102018220424A1 DE 102018220424 A1 DE102018220424 A1 DE 102018220424A1 DE 102018220424 A DE102018220424 A DE 102018220424A DE 102018220424 A1 DE102018220424 A1 DE 102018220424A1
Authority
DE
Germany
Prior art keywords
imaging element
imaging
area
camera system
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018220424.1A
Other languages
English (en)
Inventor
Toshikazu Murao
Nobuhisa Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102018220424A1 publication Critical patent/DE102018220424A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Ein Kamerasystem enthält: ein erstes Abbildungselement (11), ein zweites Abbildungselement (12), das von dem ersten Abbildungselement verschieden ist, einen Oszillator (30) zum Zuführen eines Uhrsignals zu dem ersten Abbildungselement und dem zweiten Abbildungselement und eine Steuerungseinrichtung (40), die einen Betrieb des ersten Abbildungselement und einen Betrieb des zweiten Abbildungselement steuert und Abbildungssignale, die durch das erste Abbildungselement und das zweite Abbildungselement ausgegeben werden, erlangt. Die Steuerungseinrichtung synchronisiert Abbildungsdaten eines ersten Bereiches (R1), der ein Teil eines effektiven Pixelbereiches des ersten Abbildungselements ist, und Abbildungsdaten eines zweiten Bereiches (R2), der ein Teil oder ein Ganzes eines effektiven Pixelbereiches des zweiten Abbildungselements ist, und gibt diese aus.

Description

  • Die vorliegende Offenbarung bezieht sich auf ein Kamerasystem.
  • Herkömmlicherweise ist ein Kameramodul, das an der Innenseite einer Windschutzscheibe bei einem Fahrzeug montiert ist und konfiguriert ist, um die äußere Umgebung des Fahrzeugs zu fotografieren, bekannt. Wie solch ein Kameramodul offenbart Patentdokument 1 das Kameramodul.
  • Patentliteratur 1: JP-5316562-B
  • In den letzten Jahren werden, um eine fortgeschrittene Fahrzeugunterstützung oder ein autonomes Fahren eines Fahrzeugs zu unterstützen, Kamerasysteme benötigt, um Abbildungen eines weiten Bereiches der äußeren Umgebung aufzunehmen, um Abbildungen zu erkennen. Das heißt, dass bei einem Kamerasystem eine Linse, die einen relativ breiten Winkel hat, als eine Linse benutzt wird, die zu einem vorbestimmten Abbildungselement korrespondiert. Allerdings ist, wenn ein Weitsichtwinkel unter Verwendung einer Weitwinkellinse sichergestellt werden soll, die Auflösung in einem Bereich mit einem kleinen Sichtwinkel, der ein Teil des Weitsichtwinkels ist, relativ gering. Da die Genauigkeit der Abbildungsanalyse bei einer Fahrunterstützung von der Auflösung der Abbildung abhängt, ist es erstrebenswert, dass die Auflösung der Abbildung, die bei dem Kamerasystem erlangt werden soll, so hoch wie möglich ist.
  • Dementsprechend kann überlegt werden, ein Abbildungselement, das eine große Anzahl von Pixeln hat, zu verwenden. In solch einem Fall kann sich die Bildrate verringern oder eine Zellengröße pro Pixel kann verringert sein und aufgrund dieser Verringerungen, kann die Empfindlichkeit verringert sein. Dementsprechend kann, bei dem Fahrunterstützungssystem, das für Echtzeitanalysen unabhängig von Tag oder Nacht benötigt wird, diese Kompromissbeziehung eine Engstellenschwierigkeit sein.
  • Um diese Schwierigkeit zu bewältigen, wird es überlegt, ein zusammengesetztes Augenkamerasystem, das ein Abbildungselement zum Aufnehmen eines Weitwinkelbereichs und ein Abbildungselement zum Aufnehmen einer Telefotoabbildung enthält, und die Abbildungselemente jeweilig eine Weitwinkellinse und eine Telefotolinse haben.
  • Bei dem Kamerasystem, das eine solche Konfiguration hat, werden Abbildungsdaten durch eine Mehrzahl von Abbildungselementen jeweilig erlangt. Bei der fortgeschrittenen Fahrunterstützung oder einem autonomen Fahren des Fahrzeugs ist die Abbildungsanalyse in Echtzeit notwendig, und eine Abbildungserlangung zur gleichen Zeit wird auch benötigt.
  • Zusätzlich sind, da die Anzahl an Abbildungselementen 2 oder mehr ist, Verkabelung für Zwischenverbindungen mit einem Prozessor oder Ähnlichem erhöht, verglichen mit einem Fall, bei dem das System nur ein Abbildungselement enthält.
  • Dementsprechend ist es ein Aspekt der vorliegenden Offenbarung, ein Kamerasystem vorzusehen, dass zum Verringern der Anzahl von Signallinien während eines Erreichens einer Gleichzeitigkeit des Fotografierens zwischen mehreren Abbildungselementen in einem zusammengesetzten Augenkamerasystem unter Verwendung einer Mehrzahl von Abbildungselementen fähig ist.
  • Nach einem Aspekt der vorliegenden Offenbarung enthält ein Kamerasystem: ein erstes Abbildungselement, ein zweites Abbildungselement, das von dem ersten Abbildungselement getrennt ist, einen Oszillator, der konfiguriert ist, um ein Uhrsignal zu dem ersten Abbildungselement und dem zweiten Abbildungselement zuzuführen, und eine Steuerungseinrichtung, die konfiguriert ist, um einen Betrieb des ersten Abbildungselements und einen Betrieb des zweiten Abbildungselements zu steuern und um ein erstes Signal von dem ersten Abbildungselement und ein zweites Signal von dem zweiten Abbildungselement zu erhalten. Die Steuerungseinrichtung gibt erste Abbildungsdaten, die zu einem ersten Bereich als ein Teil eines effektiven Pixelbereichs des ersten Abbildungselements korrespondieren, und zweite Abbildungsdaten, die zu einem zweiten Bereich als ein Teil von einem effektiven Pixelbereichs des zweiten Abbildungselement oder einem Ganzen von diesem korrespondieren, synchron aus.
  • Nach dem vorstehenden System kann, da zwei unabhängige Abbildungsdaten synchron ausgegeben werden können, eine Gleichzeitigkeit einer Abbildungserlangung sichergestellt werden. Zusätzlich ist, da die zwei Abbildungen zur gleichen Zeit ohne einen Zeitunterschied während der Bewegung des Fahrzeugs analysiert werden können, es möglich, spontane Situationsänderungen während eines autonomen Fahrbetriebs zu bewältigen.
  • Außerdem kann, wenn der Oszillator ein gemeinsames Uhrsignal zu dem ersten Abbildungselement und dem zweiten Abbildungselement zuführt, das erste Abbildungselement und das zweite Abbildungselement durch einen Oszillator angetrieben werden und dementsprechend die Anzahl von Verkabelung verringert werden.
  • Die vorstehenden und anderen Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden von der folgenden detaillierten Beschreibung, in Bezug auf die beiliegenden Zeichnungen gemacht ist, sichtbarer.
    • 1 ist ein Blockdiagramm, das eine schematische Konfiguration eines Kamerasystems nach einer ersten Ausführungsform zeigt.
    • 2 ist ein Diagramm, das einen Sichtwinkel von Abbildungen, die durch ein erstes Abbildungselement und ein zweites Abbildungselement fotografiert wurden, zeigt.
    • 3 ist ein Diagramm, das eine Beziehung zwischen Auslesezeilen und der Zeit zeigt.
    • 4 ist ein Blockdiagramm, das eine schematische Konfiguration eines Kamerasystems nach einer zweiten Ausführungsform zeigt.
    • 5 ist ein Blockdiagramm, das eine schematische Konfiguration eines Kamerasystems nach einer dritten Ausführungsform zeigt.
    • 6 ist ein Blockdiagramm, das eine schematische Konfiguration eines Kamerasystems nach einer vierten Ausführungsform zeigt.
  • Im Folgenden werden Ausführungsformen zum Implementieren der vorliegenden Offenbarung in Bezug auf die Zeichnungen beschrieben. Bei jeder Ausführungsform sind Abschnitte, die zu den Elementen korrespondieren, die bei vorstehenden Ausführungsformen beschrieben wurden, mit den gleichen Bezugszeichen versehen und redundante Erklängen können ausgelassen werden. Wenn nur ein Teil einer Konfiguration bei einer Ausführungsform beschrieben wird, kann eine andere vorhergehende Ausführungsform auf die anderen Teile der Konfiguration angewendet werden. Es kann möglich sein, nicht nur Teile zu kombinieren, deren Kombination bei einer Ausführungsform explizit beschrieben ist, aber auch Teile von jeweiligen Ausführungsformen zu kombinieren, deren Kombination nicht explizit beschrieben ist, wenn kein Hindernis beim Kombinieren der Teile der jeweiligen Ausführungsformen explizit auftritt.
  • (Erste Ausführungsform)
  • Zunächst wird in Bezug auf 1 und 2 eine schematische Konfiguration eines Kamerasystems nach dieser Ausführungsform beschrieben.
  • Das Kamerasystem nach der vorliegenden Ausführungsform ist z.B. an einer Innenseite der Windschutzscheibe des Fahrzeugs (d.h. im Inneren des Fahrgastraums) installiert und ist ein System, das zumindest die Abbildung vor dem Fahrzeug als elektronische Daten erlangt. Die elektronischen Abbildungsdaten werden als Verkehrssituationsdaten vor dem Fahrzeug analysiert und für verschiedene Systeme wie z.B. autonome Fahrfunktion und Fußgängererkennungsfunktion verwendet.
  • Wie es in 1 gezeigt wird, enthält ein Kamerasystem 100 nach der vorliegenden Ausführungsform ein erstes Abbildungselement 11 und eine zweites Abbildungselement 12 als die Abbildungselemente 10. Eine Phasensynchronisationsschaltung oder ein Phasenregelkreis (d.h. PLL) 20 ist in jedem der Abbildungselemente, erstes Abbildungselement 11 und zweites Abbildungselement 12, angeordnet. Zusätzlich enthält das Kamerasystem 100 einen Oszillator 30 und eine Steuerungseinrichtung 40 als einen Prozessor. Außerdem ist die Linse 50 mit einer ersten Linse 51 zum Bilden einer Abbildung bei dem ersten Abbildungselement 11 und einer zweiten Linse 52 zum Bilden einer Abbildung an dem zweiten Abbildungselement 12 versehen.
  • Das Abbildungselement 10 ist ein Element, das Licht in elektrische Signale durch fotoelektrische Umwandlung umwandelt und das Abbildungselement 10 ist z.B. ein CCD oder ein CMOS Abbildungssensor. Bei der vorliegenden Ausführungsform ist es, wenn an einem Fahrzeug montiert wird und es nötig ist, die Videoabbildungen in Echtzeit zu verarbeiten, bevorzugt, dass die Bildrate hoch ist, und in diesem Zusammenhang ist es bevorzugt, einen CMOS-Abbildungssensor zu verwenden. Bei der Abbildungsfläche des Abbildungselements 10, sind Pixel in einer zweidimensionalen Matrix angeordnet und erhalten externes Licht in Farbe oder monochrom und wandeln das Licht in elektrische Ladung um.
  • Wenn ein CMOS Abbildungssensor als das Abbildungselement 10 verwendet wird, hat das Abbildungselement 10 eine horizontale Abtastschaltung und eine vertikale Abtastschaltung (werden nicht gezeigt), so dass es möglich ist, eine Spalte und eine Reihe von Pixeln auszuwählen und einen zufälligen Zugriff auf die Pixel durchzuführen. Das heißt die Steuerungseinrichtung 40, die später beschrieben wird, kann die Spannung eines gewissen Pixels beliebig erlangen.
  • Die Lichterhaltungsoberfläche des Abbildungselements 10 enthält einen effektiven Pixel, bei dem Licht einfallend ist, einen optischen schwarzen (OB) Pixel, der eine Referenzspannung bei Dunkelheit durch ein Abgeschirmt-sein von Licht definiert, und einen Dummy Pixel, der die effektiven Pixel und die OB Pixel ausschließt. Die Summe von diesen Pixeln ist als die Gesamtanzahl von Pixeln definiert und die Summe der effektiven Pixel ist als die effektive Pixelanzahl definiert.
  • Das Kamerasystem 100 nach der vorliegenden Offenbarung hat zwei Abbildungselemente, erstes Abbildungselement 11 und zweites Abbildungselement 12. Zum Beispiel können das erste Abbildungselement 11 und das zweite Abbildungselement 12 verschiedene Spezifikationen haben, bei denen die Gesamtanzahl von Pixeln, die Größe des Pakets, die Spektralcharakteristiken der Farbfilter, die Kondensationscharakteristiken von Mikrolinsen, die für jeden Pixel vorgesehen sind, und ähnliches verschieden voneinander sind. Bei der vorliegenden Ausführungsform sind das erste Abbildungselement 11 und das zweite Abbildungselement 12 durch eine gleiche Art des Elements, das die gleichen Spezifikationen hat, gebildet.
  • Das erste Abbildungselement ist z.B. ein CMOS-Abbildungssensor eines 1/4-Typs mit einer vorbestimmten Gesamtanzahl von Pixeln. Die erste Linse 51 zum Bilden einer Abbildung an dem ersten Abbildungselement 11 ist z.B. eine sogenannte Einzel-Fokuslänge-Weitwinkellinse, die eine Fokuslänge von ungefähr 3 mm bis 8 mm hat. Die Gesamtheit des Sichtwinkels der ersten Linse 51 bildet eine Abbildung der Gesamtheit der effektiven Pixel des ersten Abbildungselements 11. Das Kamerasystem 100 erhält Informationen von den umgebenen Landmerkmalen, Verkehrszeichen, Strukturen etc. durch ein Analysieren der Weitwinkelabbildung, die durch das erste Abbildungselement 11 aufgenommen wird. Dann wird die autonome Fahrfunktion durch ein Analysieren der Informationen zusammen mit dem Satellitenpositionssystem, Karteninformationen und ähnlichem verwirklicht.
  • Das zweite Abbildungselement 12 ist ein CMOS-Abbildungssensor, der die gleiche Spezifikation wie das erste Abbildungselement 11 hat. Die zweite Linse 52 zum Bilden einer Abbildung an dem zweiten Abbildungselement 12 ist z.B. eine Einzelfokus-Linse, die eine Fokuslänge von ungefähr 8 mm bis 30 mm hat. Die zweite Linse 52 ist angeordnet, so dass ihr gesamter Sichtwinkel eine Abbildung der gesamten effektiven Pixel des zweiten Abbildungselements 12 bildet und die zweite Linse 52 bildet im Vergleich mit der ersten Linse 51 eine Telefoto-Abbildung.
  • Wie es in 1 gezeigt wird, sind das erste Abbildungselement 11 und das zweite Abbildungselement 12 an der gleichen Fläche der Leiterplatte 60 montiert, um in die gleiche Richtung zu weisen. Zusammen mit dieser Konfiguration, sind die erste Linse 51 und die zweite Linse 52 auch orientiert, so dass die optischen Achsen parallel zueinander sind und die Landschaft in der gleichen Richtung fotografiert werden kann. Die erste Linse 51 und die zweite Linse 52 sind an einer Halterung (wird nicht gezeigt) befestigt, die an der Leiterplatte 60 vorgesehen ist. Die zweite Linse 52 hat eine Telefoto-Spezifikation im Vergleich zu der ersten Linse 51 und, wie es in 2 gezeigt wird, ist der Sichtwinkel, der durch das zweite Abbildungselement 12 abgebildet wird, gleich dem Sichtwinkel des vorbestimmten Zentrumsabschnitts der Abbildung, die durch das erste Abbildungselement 11 aufgenommen wird. Der Zentrumsabschnitt wird von der Abbildung des ersten Abbildungselements 11 ausgeschnitten. Auf einen Abschnitt des effektiven Pixelbereichs des ersten Abbildungselements 11, als der Abschnitt, der zu dem Sichtwinkel des zweiten Abbildungselements 12 korrespondiert und der von der Abbildung des ersten Abbildungselements 11 ausgeschnitten wird, wird als ein erster Bereich R1 verwiesen.
  • Auf einen Abschnitt des effektiven Pixelbereichs des zweiten Abbildungselements 12, als der Abschnitt, der zu dem Sichtwinkel des ersten Abbildungselements11 korrespondiert und von der Abbildung des zweiten Abbildungselements 12 ausgeschnitten wird, wird als ein zweiter Bereich R2 auch verwiesen. Bei der vorliegenden Ausführungsform sind die Größenverhältnisse des ersten Bereichs R1 und des zweiten Bereichs R2 gleich und der zweite Bereich R2 passt zu den gesamten effektiven Pixelbereich des zweiten Abbildungselements 12.
  • Wie es in 2 gezeigt wird, wird, wenn die Anzahl von Linien der V-Richtung des ersten Bereiches R1 als N1 definiert wird und die Anzahl von Linien in der V-Richtung des zweiten Bereichs als N2 definiert wird (N2 ist gleich der Anzahl von Pixeln in der V-Richtung), die Gleichung von N1 <N2 hergestellt. Der gleiche Sichtwinkel wie des ersten Bereichs R1 wird bei dem zweiten Bereich R2 abgebildet. Da die Beziehung von N1 <N2 erfüllt wird, hat der zweite Bereich R2 eine höhere Auflösung als der erste Bereich R1.
  • Der Phasenregelkreis (d.h. PLL) 20 ist ein allgemein bekannter PLL und hat z.B. eine Phasenvergleichseinrichtung (wird nicht gezeigt), einen Tiefpassfilter, einen spannungsgesteuerten Oszillator und einen Frequenzteiler und führt eine negative Rückkopplung eines Ausgabesignals von dem spannungsgesteuerten Oszillator zu der Phasenvergleichseinrichtung durch. Der PLL 20 ist im Inneren des Abbildungselements 10 angeordnet und funktioniert, um die Phase des Eingabesignals zu der Phase des Ausgabesignals gleichzuschalten. Spezifisch funktioniert der PLL 20, um das Uhrsignal, das durch den Oszillator 31 (wird später beschrieben) zugeführt wird, mit der Betriebsuhr des Abbildungselements 10 anzugleichen. Der PLL 20 enthält einen ersten PLL 21 und einen zweiten PLL 22, die bei dem ersten Abbildungselement 11 einstückig eingeschlossen sind. Es sollte bemerkt werden, dass der erste PLL 21 und der zweite PLL 22 zueinander äquivalent sind und das Uhrsignal, das beim Erhalten des Referenzuhrsignals ausgegeben wird, das von dem Oszillator 30 eingegeben wird, der später beschrieben wird, das gleiche für das erste Abbildungselement 11 und das zweite Abbildungselement 12 ist.
  • Der Oszillator 30 erzeugt ein Referenzuhrsignal des Kamerasystems 100 unter Verwendung von z.B. einem Kristalloszillator. Der Oszillator 30 gibt ein Uhrsignal zu dem ersten PLL 21, der bei dem ersten Abbildungselement 11 gebildet ist, aus. Als ein Ergebnis erzeugt der erste PLL 21 ein Uhrsignal im Inneren des ersten Abbildungselements 11. Gleichsam gibt der Oszillator 30 ein Uhrsignal zu dem zweiten PLL 22, der bei dem zweiten Abbildungselement 12 gebildet ist, aus und der zweite PLL 22 erzeugt ein Uhrsignal im Inneren des zweiten Abbildungselements 12. Das heißt, dass der Oszillator 30 ein gemeinsames Uhrsignal zu dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 ausgibt.
  • Die Steuerungseinrichtung 40 ist ein Prozessor und führt die Steuerung des ersten Abbildungselements 11 und des zweiten Abbildungselements 12 aus. Spezifisch gleicht die Steuerungseinrichtung 40 das Timing der elektronischen Blende der Pixel an, um die Belichtungszeit zu steuern, wählt die Ausleselinie aus, führt aus, um eine Reihe und eine Spalte der Pixel, die zu der ausgewählten Ausleselinie korrespondieren, auszuwählen, und steuert die Abbildungsvorrichtung 10, um eine gewünschte Abbildung zu erlangen.
  • Außerdem führt die Steuerungseinrichtung 40 eine Verarbeitung einer Abbildungsdateneingabe von der Abbildungsvorrichtung via AFE (wird nicht gezeigt) durch. Bei der vorliegenden Ausführungsform sind die Steuerungseinrichtungen als ein Prozessor und die Verarbeitungseinheit als eine Abbildungsanalyseeinheit als eine integrierte Steuerungseinrichtung 40 in 1 dargestellt. Alternativ können diese bei der Steuerungseinrichtung 40 unabhängig angeordnet sein. Das heißt, dass ein dedizierter Prozessor wie z.B. eine GPU für eine Abbildungsanalyse benutzt werden kann.
  • Die Steuerungseinrichtung 40, das erste Abbildungselement 11 und das zweite Abbildungselement 12 sind gegenseitig durch einen BUS verbunden. Genauer ist bei der vorliegenden Ausführungsform des BUS, der den Steuerungseinrichtung 40, das erste Abbildungselement 11 und das zweite Abbildungselement 12 verbindet, ein serieller BUS. Zum Beispiel kann der BUS I2C sein. Alternativ kann ein BUS, der von I2c verschieden ist, der zu einer seriellen Kommunikation fähig ist, auch verwendet werden.
  • Es sollte bemerkt werden, dass das Kabel, das den Oszillator 30 und die Steuerungseinrichtung 40 verbindet, oder das Kabel, das den Oszillator 30 und das Abbildungselement 10 auf eine kommunizierende Weise verbindet, und das Kabel, das die Steuerungseinrichtung 40 und das Abbildungselement 10 verbindet, an der Leiterplatte 60 montiert sein können, bei dem das Abbildungselement 10 angeordnet ist. Alternativ können die Kabel an einem anderen Substrat oder bei einem anderen Modul angeordnet sein.
  • Als Nächstes wird der Antriebsbetrieb des ersten Abbildungselements 11 und des zweiten Abbildungselements 12 durch die Steuerungseinrichtung 40 in Bezug auf 3 beschrieben. Es sollte bemerkt werden, dass die Steuerungseinrichtung 40 als ein Beispiel beschrieben wird, bei dem das erste Abbildungselement 11 und das zweite Abbildungselement 12 bei einem Schlitzverschluss-(rollenden Blendenantrieb) betrieb durch die Steuerungseinrichtung 40 angetrieben werden.
  • Die Zeit von der Zeit t0 bis zur Zeit t3, wie es in 3 gezeigt wird, ist das Zeitintervall zum Erhalten eines Bilds und die Steuerungseinrichtung 40 wiederholt periodisch dieses eine Bild pro Einheitszeit für eine vorbestimmte Anzahl von numerischen Malen. Als ein Ergebnis kann das Kamerasystem 100 sich bewegende Abbildungen aufnehmen.
  • Die Steuerungseinrichtung 40 startet ein Lesen der ersten Linie der effektiven Pixel des ersten Abbildungselements 11 zur Zeit t0. Dann ist zur Zeit t1 die erste Ausleselinie des ersten Bereichs R1 ausgelesen. Danach ist zur Zeit t2 das Auslesen der letzten Ausleselinie des ersten Bereichs R1 vollständig. Das heißt, dass die N1-Linie für das Zeitintervall von (t2-t1) ausgelesen ist. Bei dem ersten Abbildungselement 11 wird das Auslesen der verbleibenden Ausleselinien danach fortgeführt und ein Bild der Weitwinkelseite wird durch die Steuerungseinrichtung 40 erlangt.
  • Auf der anderen Seite betreibt die Steuerungseinrichtung 40 das zweite Abbildungselement 12, so dass das zweite Abbildungselement 12 bei einer Austastperiode, bei der das Auslesen der Ausleselinie des effektiven Pixelbereichs des zweiten Abbildungselement 12 nicht durchgeführt wird, von Zeit t0 bis Zeit t1 angeordnet ist. Das heißt, dass die Periode von der Zeit t0 bis zur Zeit t1 eine Periode ist, bei der Abbildungsdaten nicht mal innerhalb eines Bildes vorhanden sind. Die Steuerungseinrichtung 40 startet ein Auslesen der ersten Linie der effektiven Pixel des zweiten Abbildungselements 12 zur Zeit t1, bei der das Auslesen des ersten Bereichs R1 bei dem ersten Abbildungselement 11 gestartet wird. Das heißt, dass das Auslesen des zweiten Bereichs R2 gestartet wird. Danach ist, zur Zeit t2, die die gleiche wie das Vervollständigen des Auslesens des ersten Bereiches R1 ist, das Auslesen der letzten Ausleselinie des zweiten Bereichs R2 vollständig. Das heißt, dass das Auslesen von allen Linien des effektiven Pixelbereichs des zweiten Abbildungselements 12 vollständig ist und die N2 Linie für das Zeitintervall von (t2-t1) ausgelesen ist. Nach der Zeit t2 startet die Austastperiode bis zur Auslesestartzeit t3 des nächsten Bildpunkts.
  • Um den vorstehenden Betrieb zu verwirklichen, treibt die Steuerungseinrichtung 40 das zweite Abbildungselement 12 an, so dass die Auslesegeschwindigkeit des zweiten Abbildungselements 12 auf einem Wert eingestellt ist, der durch ein Multiplizieren der Auslesegeschwindigkeit mit N2/N1-Malen erhalten wird. Die Belichtungszeit pro Linie wird eingestellt, um für das erste Abbildungselement 11 und das zweite Abbildungselement 12 gleich zu sein.
  • Als Nächstes werden Effekte, die durch ein Verwenden des Kamerasystems 100 erhalten werden, nach der vorliegenden Ausführungsform beschrieben.
  • Wie es vorstehend beschrieben ist, liest während der Periode von der Zeit t1 zu der Zeit t2 die Steuerungseinrichtung 40 den ersten Bereich R1 bei dem ersten Abbildungselement 11 und auch den zweiten Bereich R2, der den gleichen Sichtwinkel wie der erste Bereich R1 hat, bei der gleichen Periode aus. Das heißt, dass der erste Bereich R1 und der zweite Bereich R2 synchron ausgelesen werden können. Dementsprechend kann die Abbildungsverarbeitung unter Verwendung der Abbildungsdaten (bei dem Abbildungssignal) des zweiten Bereiches R2, der in höherer Auflösung als der erste Bereich R1 ist, z.B. wenn die Auflösung beim Fotografieren einer Telefoto-Abbildung erhöht ist, verglichen mit einem Fall, bei dem die Weitwinkelseite unter Verwendung eines anderen Abbildungselements fotografiert wird und die Telefoto-Abbildung für die Abbildungsverarbeitung durch ein trimmen erhalten wird, ausgeführt werden. Dementsprechend ist es möglich, eine hohe Genauigkeit sogar für die Abbildungsverarbeitung an der Telefoto-Abbildungsseite beizubehalten.
  • Es sollte bemerkt werden, dass die Startzeit des Auslesens des zweiten Bereiches R2 nicht immer unbedingt benötigt wird, um mit der Startzeit (zur Zeit t1) des Auslesens des ersten Bereiches R1 zusammenzufallen. Zusätzlich muss die Endzeit des Auslesens des zweiten Bereiches R2 mit der Endzeit (Zeit t2) des Auslesens des ersten Bereiches R1 nicht unbedingt zusammenfallen. Wenn das Auslesen des ersten Bereiches R1 und des zweiten Bereiches R2 innerhalb eines Bildes vollständig ist, könne zwei Abbildungsdaten der Weitwinkelabbildung und der Telefoto- Abbildung synchron in einem Bild erhalten werden.
  • Insbesondere bei dem Schlitzverschluss-angetriebenen CMOS Sensor wird es bevorzugt, dass die Startzeit des Auslesens des zweiten Bereiches R2 und die Startzeit des Auslesens des ersten Bereichs R1 bei dieser Ausführungsform miteinander zusammenfallen können. Gemäß diesem, da die Startzeit der Belichtung zwischen dem ersten Bereich R1 und dem zweiten Bereich R2 ausgeglichen werden kann, kann die Gleichzeitigkeit zwischen den zwei Abbildungselementen 10 sichergestellt werden und die Verzerrung der Abbildungen, die dem Schlitzverschluss zugerechnet wird, kann verringert werden.
  • Außerdem stellt bei der vorliegenden Ausführungsform, da die Anzahl von Linien, die ausgelesen werden sollen, bei dem zweiten Bereich R2 N2/N1-Male größer bei dem ersten Bereich R1 ist, die Steuerungseinrichtung 40 die Auslesegeschwindigkeit des zweiten Abbildungselements 12 ein, um N2/N1-Male größer als des ersten Abbildungselements 11 zu sein, so dass die Endzeit des Auslesens bei dem zweiten Bereich R2 und die Endzeit des Auslesens bei dem ersten Bereich R1 angeglichen werden können. Als ein Ergebnis können die Startzeit der Belichtung und die Endzeit der Belichtung zwischen dem ersten Bereich R1 und dem zweiten Bereich R2 angeglichen werden, so dass eine Gleichzeitigkeit zwischen den zwei Abbildungselementen 10 sichergestellt werden kann.
  • Außerdem wird, wenn im Kamerasystem 100 nach der vorliegenden Ausführungsform, ein gemeinsames Uhrsignal zu beiden Abbildungselementen, erstes Abbildungselement 11 und zweites Abbildungselement 12, durch einen Oszillator 30 eingegeben. Dementsprechend kann die Anzahl von Verkabelungen und die Verkabelungslänge im Vergleich mit einer Konfiguration, bei der Uhrsignale zu dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 durch eine Mehrzahl von Oszillatoren unabhängig zugeführt werden, verringert werden. Außerdem ist, da die Verkabelungsgestaltung vereinfacht wird, es z.B. möglich, ein Rauschen aufgrund einer Beeinflussung von Uhrsignalen zu verringern.
  • Außerdem sind bei dem Kamerasystem 100 nach der vorliegenden Ausführungsform die Steuerungseinrichtung 40, das erste Abbildungselement 11 und das zweite Abbildungselement 12 miteinander über den seriellen BUS des I2c Standards miteinander verbunden. Dementsprechend ist es möglich, die Steuerungseinrichtung 40 und das Abbildungselement 10 auf eine kommunizierende Weise mit einer einzigen Signalleitung zu verbinden, und es ist möglich, die Anzahl von Verkabelungen zu verringern und auch das Antriebssignal zum Steuern des Abbildungselements 10 und das Abbildungssignal (das die Abbildungsdaten hat), das von dem Abbildungselement 10 ausgegeben wird, mit der gleichen Signalleitung zu senden.
  • Außerdem kann, wenn die Anzahl von Verkabelungen wie vorstehend beschrieben verringert werden kann, die Gesamtgröße des Kamerasystems 100 verringert werden. Da das Kamerasystem 100 häufig an einer Windschutzscheibe bei einer Front des Fahrzeugs angebracht wird, wird die Sichtbarkeit vor das Fahrzeug durch ein Verringern der Gesamtgröße des Systems 100 verbessert.
  • Da eine gegenseitige Kommunikation zwischen der Steuerungseinrichtung 40, dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 über den seriellen BUS ausgeführt wird, kann zumindest eines der Elemente, Steuerungseinrichtung 40, erstes Abbildungselement 11 und zweites Abbildungselement 12, als ein Master eingestellt sein oder ein anderer Block (der nicht gezeigt wird) bei dem gleichen BUS kann als ein Master eingestellt sein und ein anderer Block, der von dem Master verschieden ist, kann als ein Slave eingestellt sein, so dass das System betrieben wird.
  • Der Masterblock gibt ein Synchronisationssignal aus und der Slave synchronisiert die Uhr auf Grundlage des Synchronisationssignals, das durch den Master gesendet wird. Als ein Ergebnis wird eine Synchronisation zwischen dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 verwirklicht und eine Gleichzeitigkeit kann zwischen den beiden Abbildungselementen 10, wie es vorstehend beschrieben ist, sichergestellt werden. Zusätzlich kann, da diese Synchronisationssignale über den seriellen Bus übertragen werden, die Anzahl von Verkabelungen verringert werden und als ein Ergebnis, ist es möglich, die Verkabelungsgestaltung zu vereinfachen und ein Rauschen, das durch eine Beeinflussung der Uhrsignale verursacht wird, zu verringern.
  • Spezifisch erfasst, bei dem Fall, bei dem der Block, der von der Steuerungseinheit 40 verschieden ist, der Master ist, erfasst die Steuerungseinrichtung 40 die Synchronisationsverschiebung zwischen dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 und koppelt diese zurück und steuert, um die Synchronisationsverschiebung dazwischen zu minimieren. Eine Synchronisationsverschiebung wird z.B. durch eine Verzögerung aufgrund einer Kommunikationslänge oder Rauschen verursacht. In Bezug auf solch eine Synchronisationsverschiebung korrigiert z.B. die Steuerungseinrichtung 40 die Startzeit eines Auslesens von einem der Abbildungselemente, Abbildungselement 11 und Abbildungselement 12, durch ein Verzögern oder Beschleunigen der Startzeit durch die Synchronisationsverschiebung. Somit können der erste Bereich R1 und der zweite Bereich R2 genauer synchronisiert werden.
  • (Zweite Ausführungsform)
  • Wie es in 4 gezeigt wird, können das Kameramodul 70, bei dem das Abbildungselement 10 und die Linse 50 zusammengebaut werden, und die Steuerungseinrichtung 40 getrennt angeordnet sein. Das heißt, dass das Kamerasystem 110 nach der vorliegenden Ausführungsform ein Kameramodul 70 und eine Steuerungseinrichtung 40 enthält. Das Kameramodul 70 enthält das Abbildungselement 10, die Phasensynchronisationsschaltung oder den PLL 20, den Oszillator 30 und die Linse 50. Das erste Abbildungselement 11 und das zweite Abbildungselement 12 sind miteinander durch einen seriellen Bus wie bei der ersten Ausführungsform kommunizierfähig verbunden. Zusätzlich führt der Oszillator 30 ein gemeinsames Uhrsignal zu dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 zu.
  • Der serielle Bus, der das erste Abbildungselement 11 und das zweite Abbildungselement 12 miteinander verbindet, wird zu der äußere Umgebung des Kameramoduls 70 gezogen und ist mit der Steuerungseinrichtung 40 über die Verbindungseinrichtung 90 verbunden.
  • Das heißt, dass die Steuerungseinrichtung 40 mit dem Abbildungselement 11 und dem zweiten Abbildungselement 12 über einen seriellen Bus verbunden ist. Dementsprechend kann die Steuerungseinrichtung 40 die serielle Kommunikation unter Verwendung des gleichen Buses ausführen, um beide Signale, Antriebssignale und Abbildungssignale, zu übertragen. Mit anderen Worten kann, da das Abbildungssignal als der Rückkanal unter Verwendung des einzelnen Buses zusammen mit dem Antriebssignal übertragen und dieses so erhalten werden kann, die Anzahl von Verkabelungen verringert werden und, als ein Ergebnis, kann das Rauschen aufgrund einer Vereinfachung der Verkabelungsgestaltung und Beeinflussung von Uhrsignalen reduziert werden.
  • Ethernet (eingetragenes Handelszeichen) durch ein lokales Bereichsnetzwerk bzw. local area network (LAN) kann z.B. als ein Mittel zum Verbinden der Steuerungseinrichtung 40 und das Kameramoduls 70 verwendet werden, so dass sie miteinander kommunizieren können.
  • (Dritte Ausführungsform)
  • Wie es in 5 gezeigt wird, hat die Steuerungseinrichtung 40 bei dem Kamerasystem 120 nach der vorliegenden Ausführungsform eine Serieneinrichtung 80. Als ein Ergebnis werden die Abbildungsdaten, die durch das erste Abbildungselement 11 und das zweite Abbildungselement 12 erhalten werden, zu der Serieneinrichtung 80 bei der Steuerungseinrichtung 40 eingegeben und dann gibt die Serieneinrichtung 80 zu der äußere Umgebung des Systems aus. Die Steuerungseinrichtung 40 bei der vorliegenden Ausführungsform ist ein Beispiel, das bei dem Kameramodul 70 als Elemente eingenommen wird, die einen Erkennungsverarbeitungs-IC und einen Serieneinrichtungs-IC enthalten, so dass z.B. die Steuerungseinrichtung 40, d.h. diese ICs, an einer Platte montiert sind, um bei dem Kameramodul 70 zusammengebaut zu sein. Das Kameramodul 70 kann die Steuerungseinrichtung 40, die den Betrieb des Abbildungselements 10 steuert und eine Abbildungsverarbeitung durchführt, und die Serieneinrichtung 80 als unabhängige ICs enthalten.
  • Die Serieneinrichtung 80 wandelt z.B. parallele 8-Bit Daten, die bei den Abbildungsdaten enthalten sind, in serielle Daten um, die durch einen seriellen BUS übertragen werden können, und gibt diese zu der äußere Umgebung über den Verbindungseinrichtung 91 aus. Zu dieser Zeit werden Abbildungsdaten, die zu einem Bild korrespondieren, das durch das erste Abbildungselement 11 erhalten werden, und Abbildungsdaten des zweiten Abbildungselements 12, die durch ein Synchronisiert-werden mit dem ersten Abbildungselement 11 erhalten werden, als ein Datensatz seriell übertragen. Als ein Ergebnis können die synchronisierten Abbildungsdaten des ersten Bereichs R1 und des zweiten Bereichs R2 zu der äußeren Umgebung ausgegeben werden, während eine Synchronisation beibehalten wird. Die in Serie gebrachten Abbildungsdaten werden durch eine Ent-Serie-Einrichtung (wird nicht gezeigt), die außerhalb des Kamerasystems 120 installiert ist, parallelisiert und durch z.B. eine externe GPU oder Ähnliches verarbeitet.
  • Auf diese Weise kann, wenn es nötig ist, eine Abbildung zu einem Abbildungsverarbeitungsgerät wie z.B. einer GPU oder Ähnlichem auszugeben, das außerhalb des Systems 120 angeordnet ist, eine Serieneinrichtung 80 vorgesehen sein, um die synchronisierten Abbildungsdaten als ein Satz seriell zu übertragen. Es sollte bemerkt werden, dass die Übertragungsweise von Abbildungsdaten, die durch das erste Abbildungselement 11 und das zweite Abbildungselement 12 aufgenommen werden, zum Übertragen als ein Satz nicht auf eine spezifische Eine begrenzt ist. Zum Beispiel können die Daten, die durch das Abbildungselement 11 erhalten werden, zuerst übertragen werden und dann die Daten, die durch das zweite Abbildungselement 12 erhalten werden, übertragen werden. Alternativ können Daten, die zu einer Linie korrespondieren, die durch das erste Abbildungselement 11 erhalten werden, abwechselnd übertragen werden.
  • (Vierte Ausführungsform)
  • In jeder der Ausführungsformen, die vorstehend beschrieben sind, haben die Kamerasystem 100, 110 und 120 zwei Abbildungselemente 11 und 12 als das Abbildungselement 10 die Linsen 51 und 52, die zu den zwei Abbildungselementen 11 und 12 jeweilig korrespondieren. Alternativ kann die Anzahl von Abbildungselementen 10 bei dem Kamerasystem nicht auf zwei begrenzt sein.
  • Wie es in 6 gezeigt wird, sind bei dem Kamerasystem 130 nach der vorliegenden Ausführungsform zusätzlich zu dem ersten Abbildungselement 11 und dem zweiten Abbildungselement 12 ein drittes Abbildungselement 13 und eine dritte Linse 53 angeordnet. Die dritte Linse 53 sammelt das externe Licht an dem dritten Abbildungselement 13 und die dritte Linse 53 bildet eine Abbildung an dem dritten Abbildungselement 13. Ein dritter PLL 23, der eine korrespondierende Phasensynchronisationsschaltung 20 ist, ist bei dem dritten Abbildungselement 13 gebildet und der Oszillator 30 ist auch mit dem dritten PLL 23 verbunden und gibt ein Uhrsignal dahin aus. Das heißt, dass der erste PLL 21, der zweite PLL 22 und der dritte PLL 23 ein gemeinsames Uhrsignal von dem gemeinsamen Oszillator 30 erhalten.
  • Zusätzlich sind das erste Abbildungselement 11, das zweite Abbildungselement 12, das dritte Abbildungselement 13 und die Steuerungseinrichtung 40 gegenseitig über z.B. einen seriellen Bus nach dem I2c Standard verbunden. Als ein Ergebnis ist es, wie bei der ersten bis dritten Ausführungsform, möglich, gegenseitig Antriebssignale zu dem Abbildungselement 10 und Abbildungssignale wie z.B. Abbildungsdaten mit einem einzigen Kabel zu übertragen und diese zu erhalten.
  • Hier kann die Pixelspezifikation des dritten Abbildungselements 13 von dem des ersten Abbildungselements 11 und des zweiten Abbildungselements 12 verschieden sein oder gleich diesem sein. Zum Beispiel haben das erste Abbildungselement 11 und das zweite Abbildungselement 12, und das dritte Abbildungselement 13 die gleichen Pixelspezifikationen, die erste Linse 51 ist eine Weitwinkellinse, die zweite Linse 52 ist eine Standardlinse, die dritte Linse 53 ist eine Telefoto-Linse, so dass die Auflösung der Telefoto-Abbildungsseite höher sein kann.
  • Zum Beispiel wird angenommen, dass der Sichtwinkel, der durch das dritte Abbildungselement 13 aufgenommen wird, der Sichtwinkel ist, der zu dem vorbestimmten dritten Bereich um das Zentrum des effektiven Pixelbereiches des zweiten Abbildungselements 12 korrespondiert. Auf den effektiven Pixelbereich des dritten Abbildungselements 13 wird als eine vierte Fläche verwiesen. Die Anzahl der Ausleselinien der dritten Fläche wird als N3 definiert und die Anzahl der Ausleselinien der vierten Fläche wird als N4 definiert. Es wird bevorzugt, dass die Auslesegeschwindigkeit des dritten Abbildungselements 13 N4/N3-Mal größer als die Auslesegeschwindigkeit des zweiten Abbildungselements 12 sein kann. Zusätzlich kann, durch ein gleichzeitiges Einstellen der Startzeit des Auslesens bei dem dritten Bereich und der Startzeit des Auslesens bei dem vierten Bereich und durch ein gleichzeitiges Einstellen der Endzeit des Auslesens des dritten Bereichs und der Endzeit des Auslesens des vierten Bereichs jeweilig die Gleichzeitigkeit bei der Erlangung von Abbildungsdaten des dritten Bereiches bis vierten Bereiches sichergestellt werden kann.
  • Wie es bei der ersten bis dritten Ausführungsform beispielhaft genannt wird, sind, solange eine Gleichzeitigkeit des ersten Bereiches R1 und des zweiten Bereiches R2 sichergestellt wird, durch ein Verwenden des Aspekts der vorliegenden Ausführungsform die Abbildungselemente, erstes bis drittes Abbildungselement, miteinander synchronisiert, um Abbildungsdaten zu erlangen.
  • Außerdem ist es z.B., wenn die Fokuslänge der ersten Linse 51 die gleiche wie bei der dritten Linse 53 ist, unter Verwendung der Abbildungsdaten, die durch das erste Abbildungselement 11 erhalten werden, und der Abbildungsdaten, die durch das dritte Abbildungselement 13 erhalten werden, möglich, Hindernisse und Ähnliches unter Verwendung der Telefoto-Abbildungsdaten mit hoher Auflösung, die durch das zweite Abbildungselement 12 erhalten werden, während eines Durchführens der Entfernungsanalyse unter Verwendung der Parallaxe zu analysieren.
  • (Andere Ausführungsformen)
  • Die Offenbarung bei dieser Spezifikation und Zeichnungen etc. sind nicht auf die beispielhaften Ausführungsformen beschränkt. Die Offenbarung umfasst die beispielhaften Ausführungsformen und Modifikationen durch den Fachmann, die darauf basieren. Zum Beispiel ist die Offenbarung nicht auf die Teile und/oder Kombinationen von Elementen, die bei den Ausführungsformen gezeigt werden, beschränkt. Die Offenbarung kann in verschiedenen Kombinationen implementiert werden. Die Offenbarung kann zusätzliche Teile haben, die zu der Ausführungsform hinzugefügt werden können. Die Offenbarung umfasst Auslassungen von Teilen und/oder Elementen der Ausführungsformen. Die Offenbarung umfasst Ersatz oder Kombination von Teilen und/oder Elementen zwischen einer Ausführungsform und anderen. Der offenbarte technische Umfang ist nicht auf die Beschreibung der Ausführungsformen beschränkt.
  • Bei jeder der Ausführungsformen, die vorstehend beschrieben sind, sind zwei oder drei Abbildungselemente 10 an der Leiterplatte 60 montiert. Alternativ ist die Anzahl der Abbildungselemente 10, die montiert werden sollen, nicht beschränkt. Bei dem Kamerasystem, das zwei oder mehr Abbildungselemente 10 hat, kann die technische Idee der vorliegenden Offenbarung verwendet werden.
  • Bei jeder der Ausführungsformen, die vorstehend beschrieben sind, wurde das Beispiel, bei dem die Mehrzahl von Abbildungselementen 10 die gleiche Pixelspezifikation hat, beschrieben. Alternativ kann die Mehrzahl von Abbildungselementen 10 jeweilig verschiedene Pixelspezifikationen haben. Alternativ kann die Größe des Pakets und ähnlichem jede sein. Wie es bei der ersten Ausführungsform beschrieben wird, ist z.B. bei einem Kamerasystem die Fokuslänge der korrespondierenden Linse 50 von einer anderen gewillt verschieden und beide, Abbildungsdaten mit weitem Winkel und Telefoto-Abbildungsdaten, werden durch die Mehrzahl an Abbildungselementen 10 jeweilig erhalten. Bei diesem System kann die Pixelspezifikation des Abbildungselements 10 bestimmt sein, so dass die Anzahl von Pixeln in der V-Richtung der Telefoto-Abbildung größer als die Anzahl von Pixeln in der V-Richtung ist, wenn die Nähe des Zentrums der Weitwinkelabbildung zugschnitten wird. Als ein Ergebnis kann, da die Pixel auf der Telefoto-Abbildungsseite mit höherer Auflösung erhalten werden können, die Analysegenauigkeit der Telefoto-Abbildungsseite verbessert werden.
  • Bei jeder der Ausführungsformen, die vorstehend beschrieben sind, ist die Ausführungsform, bei dem das erste Abbildungselement 11 und das zweite Abbildungselement 12 an der gleichen Leiterplatte 60 montiert sind, beschrieben. Alternativ kann ein Abbildungselement an einer Leiterplatte montiert sein.
  • Bei der dritten Ausführungsform enthält die Steuerungseinrichtung 40 die Erkennungsverarbeitung IC und die Serieneinrichtung IC. Alternativ steuert die Steuerungseinrichtung 40 den Antrieb des Abbildungselements 10 und führt einen Erkennungsprozess durch und eine Serieneinrichtung 80 kann als separate ICs jeweilig angeordnet sein. Alternativ kann die Steuerungseinrichtung 40 als ein integrierter IC, der die Erkennungsverarbeitungsfunktion und die Funktion der Serieneinrichtung enthält, konfiguriert sein.
  • Zusätzlich kann der Bus, der die Steuerungseinrichtung 40 und das Abbildungselement 10 miteinander verbindet, nicht auf den Bus mit I2C Standard beschränkt sein. Zusätzlich zu dem I2C Standard können DDC (Display data channel), USB (universal Serial Bus), Glasfaserkanal, der eine optische Faser verwendet, etc als der Bus verwendet werden.
  • Software, die in einem greifbaren Speicher gespeichert ist, und ein Computer der die Software ausführt, nur die Software, nur die Hardware oder eine Kombination von ihnen können möglich sein, um ein Verfahren und/oder eine Funktion, die durch die Steuerungseinrichtung 40 vorgesehen ist, vorzusehen. Zum Beispiel kann es möglich sein, wenn die Steuerungseinrichtung 40 durch einen elektronischen Schaltkreis, der Hardware ist, vorgesehen ist, einen digitalen Schaltkreis, der mehrere logische Schaltkreise oder analoge Schaltkreise enthält, vorzusehen.
  • Die Steuerungseinrichtungen und ein Verfahren, die bei der vorliegenden Offenbarung beschrieben werden, können durch einen Spezialzweck-Computer eingeführt werden, der durch ein Konfigurieren eines Speichers und eines Prozessors erstellt wird, der programmiert ist, um eine oder mehrere spezielle Funktionen, die in Computerprogrammen verkörperlicht sind, auszuführen. Alternativ können die Steuerungseinrichtungen und Verfahren, die bei der vorliegenden Offenbarung beschrieben sind, durch einen Spezialzweck-Computer eingeführt werden, der durch ein Konfigurieren eines Prozessors erstellt wird, der durch einen oder mehr logische Schaltkreise einer Spezialzweck-Hardware vorgesehen ist. Alternativ können die Steuerungseinrichtungen und Verfahren, die bei der vorliegenden Offenbarung beschrieben werden, durch einen oder mehr Spezialzweck-Computer eingeführt werden, die durch ein Konfigurieren einer Kombination eines Speichers und eines Prozessors erstellt werden, die programmiert sind, um eine oder mehrere spezielle Funktionen auszuführen, und einem Prozessor, der durch einen oder mehrere logische Hardwareschaltkreise vorgesehen ist. Die Computerprogramme können als Anweisungen, die durch einen Computer ausgeführt werden, bei einem greifbaren nicht flüchtigen Computer-lesbaren Speicher gespeichert sein.
  • Während die vorliegende Offenbarung in Bezug auf die Ausführungsformen davon beschrieben wurden, sollte es verstanden werden, dass die Offenbarung nicht auf die Ausführungsformen und Konstruktionen beschränkt ist. Die vorliegende Offenbarung ist gewollt, um verschiedene Modifikationen und äquivalente Anordnungen abzudecken. Zusätzlich sind, während die verschiedenen Kombinationen und Konfigurationen, andere Kombinationen und Konfigurationen, die mehr, weniger oder nur ein einzelnes Element enthalten, auch innerhalb des Geistes und Umfangs der vorliegenden Offenbarung.

Claims (11)

  1. Kamerasystem, das aufweist: ein erstes Abbildungselement (11), ein zweites Abbildungselement (12), das von dem ersten Abbildungselement verschieden ist, einen Oszillator (30) zum Zuführen eines Uhrsignals zu dem ersten Abbildungselement und dem zweiten Abbildungselement, und eine Steuerungseinrichtung (40), die einen Betrieb des ersten Abbildungselements und einen Betrieb des zweiten Abbildungselements steuert und Abbildungssignale, die durch das erste Abbildungselement und das zweite Abbildungselement ausgegeben werden, erlangt, wobei: die Steuerungseinrichtung Abbildungsdaten eines ersten Bereiches (R1), der ein Teil eines effektiven Pixelbereiches des ersten Abbildungselements ist, und Abbildungsdaten eines zweiten Bereichs (R2), der ein Teil eines effektiven Pixelbereiches des zweiten Abbildungselements oder ein Ganzes von diesem ist, synchronisiert und diese ausgibt.
  2. Kamerasystem nach Anspruch 1, wobei: der Oszillator ein gemeinsames Uhrsignal zu dem ersten Abbildungselement und dem zweiten Abbildungselement zuführt.
  3. Kamerasystem nach Anspruch 1 oder 2, das außerdem aufweist: eine erste Linse (51), die eine vorbestimmte Fokuslänge hat und externes Licht zu dem ersten Abbildungselement leitet, und eine zweite Linse (52), die eine Fokuslänge, die länger als die der ersten Linse ist, hat und das externe Licht zu dem zweiten Abbildungselement leitet, wobei: ein Sichtwinkel, der an den zweiten Bereich projiziert wird, gleich einem Sichtwinkel, der an den ersten Bereich projiziert wird, ist, und eine numerische Anzahl von Ausleselinien bei dem zweiten Bereich größer als eine numerische Anzahl von Ausleselinien bei dem ersten Bereich ist.
  4. Kamerasystem nach Anspruch 3, wobei: eine Startzeit eines Auslesens des ersten Bereiches gleich einer Startzeit eines Auslesens des zweiten Bereiches ist.
  5. Kamerasystem nach Anspruch 3 oder 4, wobei: die numerische Anzahl von Ausleselinien bei dem zweiten Bereich als ein N1 definiert ist, die numerische Anzahl von Ausleselinien bei dem zweiten Bereich als ein N2 definiert ist, und die Steuerungseinrichtung eine Auslesegeschwindigkeit des zweiten Bereiches einstellt, um N2/N1-mal größer als eine Auslesegeschwindigkeit des ersten Bereiches zu sein.
  6. Kamerasystem nach einem der Ansprüche 1 bis 5, wobei: das erste Abbildungselement und die Steuerungseinrichtung miteinander über einen seriellen Bus kommunizierfähig verbunden sind, und das zweite Abbildungselement und die Steuerungseinrichtung miteinander über einen seriellen Bus kommunizierfähig verbunden sind.
  7. Kamerasystem nach einem der Ansprüche 1 bis 6, wobei: das erste Abbildungselement und das zweite Abbildungselement mit der Steuerungseinrichtung über einen gemeinsamen Bus verbunden sind, und ein Antriebssignal zum Steuern des ersten Abbildungselements und des zweiten Abbildungselements und die Abbildungssignale, die durch das erste Abbildungselement und das zweite Abbildungselement ausgegeben werden, seriell übertragen werden.
  8. Kamerasystem nach einem der Ansprüche 1 bis 7, wobei: zumindest eines der Elemente, Steuerungseinrichtung, erstes Abbildungselement und zweites Abbildungselement, ein Master ist, die Abbildungsdaten des ersten Bereiches und die Abbildungsdaten des zweiten Bereiches synchron ausgegeben werden, und wenn das erste Abbildungselement oder das zweite Abbildungselement ein Master ist, die Steuerungseinrichtung ein Korrektursignal zum Korrigieren einer Synchronisationsabweichung ausgibt.
  9. Kamerasystem nach einem der Ansprüche 1 bis 8, wobei: die Steuerungseinrichtung das Abbildungssignal des ersten Bereiches und das Abbildungssignal des zweiten Bereiches überlagert oder dieses synthetisiert und ein überlagertes oder synthetisiertes Abbildungssignal für jedes Bild ausgibt.
  10. Kamerasystem nach einem der Ansprüche 1 bis 9, wobei: das erste Abbildungselement und das zweite Abbildungselement an einer gleichen Leiterplatte (60) montiert sind, um in eine gleiche Richtung zu weisen.
  11. Kamerasystem nach einem der Ansprüche 1 bis 10, das außerdem aufweist: zumindest ein Abbildungselement (10) oder mehr von diesem, und eine Mehrzahl von Linsen (50), die zu jedem Abbildungselement korrespondieren.
DE102018220424.1A 2017-11-29 2018-11-28 Kamerasystem Granted DE102018220424A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-229425 2017-11-29
JP2017229425A JP2019102889A (ja) 2017-11-29 2017-11-29 カメラシステム

Publications (1)

Publication Number Publication Date
DE102018220424A1 true DE102018220424A1 (de) 2019-05-29

Family

ID=66442554

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220424.1A Granted DE102018220424A1 (de) 2017-11-29 2018-11-28 Kamerasystem

Country Status (4)

Country Link
US (1) US10887512B2 (de)
JP (1) JP2019102889A (de)
CN (1) CN109842750B (de)
DE (1) DE102018220424A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108965742B (zh) * 2018-08-14 2021-01-22 京东方科技集团股份有限公司 异形屏显示方法、装置、电子设备及计算机可读存储介质
JP7271215B2 (ja) 2019-02-18 2023-05-11 キヤノン株式会社 同期制御装置、同期制御方法、及びプログラム
GB2583704B (en) * 2019-04-19 2023-05-24 Jaguar Land Rover Ltd Imaging system and method
JP7321987B2 (ja) 2020-10-01 2023-08-07 ダイハツ工業株式会社 車両用複眼カメラ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7933071B2 (en) * 2006-10-17 2011-04-26 Samsung Electronics Co., Ltd. Dual lens optical system and digital camera module including the same
US8897633B2 (en) 2010-12-21 2014-11-25 Denso Corporation In-vehicle camera unit having camera built into body
JP5472078B2 (ja) 2010-12-21 2014-04-16 株式会社デンソー 車載カメラ
JP5316562B2 (ja) 2011-02-10 2013-10-16 株式会社デンソー 車載カメラ
US10046716B2 (en) 2011-02-10 2018-08-14 Denso Corporation In-vehicle camera and vehicle control system
KR102063915B1 (ko) * 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
WO2014199338A2 (en) * 2013-06-13 2014-12-18 Corephotonics Ltd. Dual aperture zoom digital camera
JP2016540417A (ja) * 2013-10-18 2016-12-22 ザ ライト・コ インコーポレイテッド 画像キャプチャ制御方法および装置
US9557519B2 (en) * 2013-10-18 2017-01-31 Light Labs Inc. Methods and apparatus for implementing a camera device supporting a number of different focal lengths
CN104717415B (zh) * 2013-12-12 2019-03-01 华为技术有限公司 一种摄像装置
US9197885B2 (en) * 2014-03-20 2015-11-24 Gopro, Inc. Target-less auto-alignment of image sensors in a multi-camera system
JP2017169111A (ja) * 2016-03-17 2017-09-21 ソニー株式会社 撮像制御装置、および撮像制御方法、ならびに撮像装置

Also Published As

Publication number Publication date
US10887512B2 (en) 2021-01-05
CN109842750B (zh) 2021-06-18
CN109842750A (zh) 2019-06-04
US20190166307A1 (en) 2019-05-30
JP2019102889A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
DE102018220424A1 (de) Kamerasystem
DE69720758T2 (de) Vorrichtung zur elektro-optischen fernerkundung mit bewegungskompensation
DE69635436T2 (de) Videokamera mit auswechselbarer Linsenvorrichtung
DE112012004352B4 (de) Stereobildgebungsvorrichtung
DE3004717C2 (de) Vorrichtung zur elektronischen Abtastung von Aufnahmegegenständen
EP3610637B1 (de) Vorrichtungen zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtungen und verfahren zum bereitstellen derselben
DE102010062496B4 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE102017217555B4 (de) Bildgebungsvorrichtung mit Bildsynthesefunktion für hohen Dynamikumfang
DE102018220427B4 (de) Kameramodul
DE102015121971A1 (de) Bildaufnahmevorrichtung und Ansteuerverfahren für Bildsensor
DE102016117584A1 (de) Videobildgebungssystem
DE102011006272A1 (de) Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser
DE69913560T2 (de) Sehr schneller bildaufnehmer
DE112018002249T5 (de) Festkörper-bildgebungsvorrichtung und elektronische einrichtung
DE112020002106T5 (de) Ereignisdetektionsvorrichtung, ereignisdetektionsvorrichtung enthaltendes system und ereignisdetektionsverfahren
DE102013115000A1 (de) Blendungsminderung für dynamischen Rückspiegel
DE112013001647T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren im Fahrzeug
DE102012109837A1 (de) Vorrichtung zum Synchronisieren einer Stereokamera, Stereokamera und Verfahren zum Synchronisieren einer Stereokamera
DE102019207315A1 (de) Fahrzeugkamera und kamerasystem
DE202015104345U1 (de) Adapter zur Einspeisung von Videosignalen in ein Steuergerät
DE102021121834A1 (de) Vorrichtung und Verfahren zum Erzeugen einer Karte
DE112020003760T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und bildgebungseinrichtung
DE112020000909T5 (de) Objektpositionsdetektionsvorrichtung, fahrsteuersystem und fahrsteuerverfahren
DE2831296A1 (de) Vorrichtung zum elektronischen abtasten von superacht-filmen zur darstellung auf einem fernsehgeraet
DE102020134947B4 (de) Lampensteuerungsverknüpfungssystem eines Frontscheinwerfers mit eingebauter Kamera und Verfahren hierfür

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division