DE69520329T2 - Kamerasteuervorrichtung und -Verfahren - Google Patents

Kamerasteuervorrichtung und -Verfahren

Info

Publication number
DE69520329T2
DE69520329T2 DE69520329T DE69520329T DE69520329T2 DE 69520329 T2 DE69520329 T2 DE 69520329T2 DE 69520329 T DE69520329 T DE 69520329T DE 69520329 T DE69520329 T DE 69520329T DE 69520329 T2 DE69520329 T2 DE 69520329T2
Authority
DE
Germany
Prior art keywords
camera
area
display
image
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69520329T
Other languages
English (en)
Other versions
DE69520329D1 (de
Inventor
Eiji Kato
Tomoaki Kawai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP6308230A external-priority patent/JPH08149356A/ja
Priority claimed from JP08100095A external-priority patent/JP3315554B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of DE69520329D1 publication Critical patent/DE69520329D1/de
Publication of DE69520329T2 publication Critical patent/DE69520329T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

    HINTERGRUND DER ERFINDUNG
  • Die vorliegende Erfindung betrifft eine Kamerasteuerungsvorrichtung und insbesondere eine Kamerasteuerungsvorrichtung zur Steuerung der Abbildungs- (Fotografier-) -Richtung (Schwenken und/oder Kippen) und der Vergrößerung (Zoomen).
  • Herkömmliche Mittel zur Fernsteuerung des Schwenkens und / oder Kippens und Zoomens einer Videokamera umfassen einen Betätigungshebel, einen Joystick und einen Drucktastenschalter, von denen jeder Rotationen um zwei Achsen entspricht, und eine Taste auf einer Anzeige, die jede dieser Vorrichtungen imitiert bzw. nachbildet. Wenn diese Vorrichtungen verwendet werden, wird der Rotationswinkel oder die Winkelgeschwindigkeit dem Winkel des Hebels entsprechend eingestellt, oder eine Drehung in einer gewünschten Richtung, wie beispielsweise eine vertikale oder horizontale Richtung, wird durchgeführt, während die Taste betätigt wird. Analog wird eine Zoomsteuerung durchgeführt, indem eine Taste oder ähnliche Vorrichtung verwendet wird, welche einen Betrieb zu der Weitwinkelseite oder der Teleobjektivseite hin spezifiziert.
  • Wenn beispielsweise Schwenken oder Kippen unter Verwendung der vorstehend beschriebenen Kamerabetätigungsmittel oder Steuerungsvorrichtung durchgeführt wird, schwenkt oder kippt die Kamera gemäß der Betätigung, so dass die Vorrichtung für einen Betrieb geeignet ist, den der Benutzer während des Überwachens bzw. Betrachtens des Monitorschirms durchführt. Jedoch ist die Vorrichtung ungeeignet, um eine Kamera unabhängig von der derzeitigen Kameraposition zu einer Zielposition hin zu betätigen oder zu steuern.
  • Ein weiteres Verfahren ist möglich, bei dem die Winkel des Schwenkens und Kippens direkt als numerische Werte eingegeben werden, und eine Kamera unter der Steuerung einer Steuerungsvorrichtung zu der entsprechenden Position bewegt wird. In diesem Fall kann ein Bediener jedoch nicht mit seinen Sinnen erkennen, welches Gebiet in dem beweglichen Bereich des Schwenkens / Kippens innerhalb des Gesichtsfeldes ist.
  • Bei Ferndiagnose-/ oder Telekonferenzsystemen, bei denen die Gegebenheiten entfernter Orte mittels Fernsehkameras aufgenommen werden müssen, bewegt sich ein aufzunehmendes Objekt oder Objekte werden in vielen Fällen verändert, während ein Bewegtbild von einer Videokamera aufgenommen und auf einer Anzeige angezeigt wird. In diesen Fällen braucht ein Benutzer an der Kameraseite nicht immer den Aufnahmebereich zu bestätigen, indem er das Bewegtbild auf der Anzeige direkt betrachtet bzw. überwacht, da der Benutzer das aufgenommene Objekt in gewissem Ausmaß durch Überprüfen der Richtung der Kamera identifizieren kann. Wenn jedoch die Kamera an einem entfernten Ort von sowohl der Anzeige als auch dem Benutzer angeordnet ist, muss der Benutzer ein aufzunehmendes Objekt verändern, indem er ferngesteuert die Richtung der Kamera verändert, während er den Schirm betrachtet, auf dem das derzeit aufgenommene Bewegtbild angezeigt wird.
  • In diesen Fällen kann die Richtung der Kamera leichter gesteuert werden, wenn der Benutzer nicht nur ein Bewegtbild innerhalb des begrenzten Bereichs, der von der Kamera unmittelbar aufgenommen werden kann, sehen kann, sondern auch die Gegebenheiten über einen weiten Bereich an dem entfernten Ort sehen kann, die von der Kamera aufgenommen werden können. Zusätzlich ist die Präsenz verbessert und die Atmosphäre besser verständlich, wenn nicht nur ein interessierendes Objekt sondern die gesamte Szene an einem entfernten Ort auf dem Schirm angezeigt wird.
  • Die Gegebenheiten über einen breiten Bereich an einem entfernten Ort können nicht mittels Bewegtbildern übermittelt werden, es sei denn, dass mittels einer Weitwinkelkamera aufgenommene Bewegtbilder angezeigt werden. Leider wird ein interessierendes Objekt auch als ein kleines Bild angezeigt, wenn die Atmosphäre bzw. Umgebung unter Verwendung von Weitwinkelbewegtbildern übermittelt wird.
  • Verfahren mit denen dieses verhindert wird, bestehen darin, ein Bild einer gesamten Umgebung (Weitwinkel) und ein vergrößertes Bild (Standard oder Teleaufnähme) auf einer einzigen Anzeige (oder einem Anzeigefenster) selektiv anzuzeigen, und gleichzeitig zwei durch Weitwinkel- und Standard- (oder Tele-) -kameras gemachte Bilder auf zwei Anzeigen (oder Anzeigefenstern) anzuzeigen. Übertragen von Weitwinkel- und Standardbildern unter Verwendung zweier Kameras erfordert jedoch Paare von Kameras, Kamerasteuervorrichtungen und Bildübertragungsleitungen.
  • Um dies mit einer einzigen Kamera zu realisieren, sind die folgenden Verfahren möglich.
  • (1) Senden eines hochauflösenden Bewegtbildes und Anzeigen des Bildes auf einem hochauflösenden großen Schirm.
  • (2) Senden eines hochauflösenden Bewegtbildes und Vergrößern, wenn nötig, lediglich eines Objekts von Interesse auf der Anzeigeseite.
  • (3) Senden eines Bewegtbildes mit einer normalen Pixeldichte bzw. Bildelementedichte und Vergrößern eines Teils des Bildes auf der Anzeigeseite.
  • (4) Verändern des Zoomverhältnisses einer Kamera an einem entfernten Ort.
  • Bei den vorstehend beschriebenen Verfahren (1) und (2) ist es jedoch nötig, Bewegtbilder mit hoher Auflösung ( = große Kapazität) zu übertragen. Folglich wird bei Verfahren (2) die Bildqualität verschlechtert, wenn ein Bild in vergrößertem Maßstab angezeigt wird. Ebenfalls ist es bei von Verfahren (1) verschiedenen Verfahren nicht möglich, gleichzeitig das Bewegtbild über einen weiten Bereich und den Punkt von Interesse zu überprüfen, das heißt, zwei unterschiedliche Bilder von Weitwinkel- und Standardbereichen.
  • Es ist ein Hauptanliegen der vorliegenden Erfindung, eine Kamerasteuerungsvorrichtung und ein Verfahren zur Lösung der vorstehend genannten herkömmlichen Probleme anzugeben.
  • Die französische Patentschrift Nr. FR-A-2693868 offenbart ein Videoüberwachungssystem, welches zwei Kameras verwendet, eine feste, mit einem weiten Gesichtsfeld, und die andere beweglich innerhalb des Gesichtsfeldes. Die Signale werden zur Anzeige auf einem einzelnen Schirm kombiniert.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung ist eine Anzeigevorrichtung gemäß Patentanspruch 1 angegeben.
  • Gemäß einem zweiten Aspekt der Erfindung ist ein Kamerasteuerungsverfahren gemäß Patentanspruch 19 angegeben.
  • Weitere Merkmale und Vorteile der vorliegenden Erfindung werden aus der nachfolgenden Beschreibung in Verbindung mit der beigefügten Zeichnung deutlich, in der gleiche Bezugszeichen gleiche oder ähnliche Teile in den Figuren der Zeichnung bezeichnen.
  • KURZE BESCHREIBUNG DER ZEICHNUNG
  • Fig. 1 ist ein Blockschaltbild eines Ausführungsbeispiels der vorliegenden Erfindung;
  • Fig. 2 ist eine Ansicht, die ein Beispiel der auf einer Anzeigeeinheit 22 dieses Ausführungsbeispiels angezeigten Inhalte zeigt;
  • Fig. 3 ist ein Flussdiagramm des Hauptprogramms dieses Ausführungsbeispiels;
  • Fig. 4 ist ein ausführliches Flussdiagramm von Schritt S1 in Fig. 3;
  • Fig. 5 ist ein ausführliches Flussdiagramm von Schritt S2 in Fig. 3;
  • Fig. 6 ist ein ausführliches Flussdiagramm von Schritt S3 in Fig. 3;
  • Fig. 7 ist ein Flussdiagramm einer Modifikation des Hauptprogramms bei dem zweiten Ausführungsbeispiel;
  • Fig. 8 ist eine Ablaufänderung einer Modifikation des Hauptprogramms bei dem dritten Ausführungsbeispiel;
  • Fig. 9 ist eine Ansicht zur Erläuterung einer Anordnung bei der GUI für Schwenk-, Kipp-, und Zoomvorgänge auf einem rechteckigen Rahmen 44 eingestellt ist;
  • Fig. 10 ist ein Blockschaltbild des vierten Ausführungsbeispiels;
  • Fig. 11 ist eine Ansicht, die ein Beispiel der auf einer Bitmaskenanzeige bei dem vierten Ausführungsbeispiel angezeigten Inhalte zeigt;
  • Fig. 12 ist eine Ansicht zur Erläuterung einer Bewegung eines Bewegtbildfensters;
  • Fig. 13 ist ein Flussdiagramm, das einen Betrieb des Bewegens des Bewegtbildfensters bei dem vierten Ausführungsbeispiel zeigt; '
  • Fig. 14 ist eine Ansicht zur Erläuterung eines Koordinatensystems auf dem Anzeigeschirm der Bitmaskenanzeige bei dem vierten Ausführungsbeispiel;
  • Fig. 15 ist eine Ansicht zur Erläuterung eines Verfahrens zum Synthetisieren von Stehbildern;
  • Fig. 16 ist ein Blockschaltbilds des fünften Ausführungsbeispiels;
  • Fig. 17 ist ein Blockschaltbild des siebten Ausführungsbeispiels;
  • Fig. 18 ist ein Blockschaltbild des achten Ausführungsbeispiels;
  • Fig. 19 ist ein Blockschaltbild des neunten Ausführungsbeispiels; und
  • Fig. 20 ist ein Blockschaltbild des zehnten Ausführungsbeispiels;
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEI- SPIELE
  • Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend ausführlich mit Bezug auf die beigefügte Zeichnung beschrieben.
  • [Erstes Ausführungsbeispiel]
  • Fig. 1 ist ein Blockschaltbild, welches schematisch die Konfiguration des ersten Ausführungsbeispiels der vorliegenden Erfindung zeigt. In Fig. 1 bezeichnet Bezugszahl 10 eine schwenkbare und/oder kippbare und mit einer Zoomfunktion versehene Videokamera; und 20 eine Kamerasteuerungsvorrichtung gemäß diesem Ausführungsbeispiel der vorliegenden Erfindung, die die Videokamera 10 fernsteuert. Eine Anzeigeeinheit 22 zeigt einen potentiellen maximalen Aufnahmebereich der Videokamera 10 und einen Aufnahmebereich bei den jeweiligen derzeitigen Werten oder Steuerungswerten des Schwenkens und/oder Kippens und Zoomens der Videokamera 10 an. Eine Aufnahmerichtungs- (Orientierungs-) -Bestimmungseinheit 24 bestimmt eine Sollaufnahmerichtung. Eine Zoombestimmungseinheit 26 bestimmt einen Zoomwert in der Sollaufnahmerichtung. Eine Bestimmungsbestimmungseinheit 28 bestimmt die Bestimmung der Eingabe eines neuen Aufnahmebereichs. Eine Aktualisierungsbestimmungseinheit 29 bestimmt eine Aktualisierung eines Bildes, das innerhalb des potentiellen maximalen Aufnahmebereichs gemacht wurde. Bezugszahl 30 bezeichnet eine Schnittstelle zu der Videokamera 10; 32 eine CPU zur Steuerung der gesamten Kamerasteuerungsvorrichtung 20; und 34 eine Speichereinheit zur Speicherung von Steuerprogrammen und Steuerparametern der CPU und aktuellen Werten und Grenzwerten des Schwenkens, Kippens und Zoomens.
  • Wenn bei der obigen Konfiguration die Videokamera 10 und die Kamersteuerungsvorrichtung 20 eingeschaltet werden, sendet die Kamerasteuerungsvorrichtung 20 ein vorbestimmtes Rücksetzsignal zu der Videokamera 10. Auf das Empfangen dieses Rücksetzsignals hin, richtet die Videokamera 10 das Objektiv in Richtung der Mitte eines möglichen Fotografierbereichs, der durch horizontale und vertikale drehbare Bereiche definiert ist. Zu diesem Zeitpunkt wird eine Zoomfunktion als Anfangszustand auf das Weitwinkelende eingestellt.
  • Fig. 2 zeigt ein Beispiel der Inhalte, die auf der Anzeigeeinheit 22 angezeigt werden. Die Kamerasteuerungsvorrichtung 20 gemäß diesem Ausführungsbeispiel ist als ein Teil einer Arbeitsstation gestaltet, die als ein Kommunikationsendgerät eines Fernsehkonferenzsystems dient. Ein Fenster des Monitorschirms dieser Arbeitsstation dient als die Anzeigeeinheit 22.
  • In Bezug auf Fig. 2 zeigt ein durch strichpunktierte Linien angegebener rechteckiger Rahmen 40 die Position der optischen Achse für Aufnahmen an den Grenzen des Schwenkens/Kippens an. Ein äußerer rechteckiger Rahmen 42 zeigt den potentiellen maximalen Aufnahmebereich (oder Gesichtsfeld), der die äußersten Enden eines Aufnahmebereichs verbindet, wenn an den Grenzen des Schwenkens/Kippens das Zoomverhältnis zu dem Weitwinkelende gesteuert ist. Es ist zu beachten, dass bei Fig. 2 angenommen ist, dass ein Schwenkwinkel von 50 Grad und ein Kippwinkel von 20 Grad jeweils mit Bezug auf die Mitte des Feldes möglich sind. Ein rechteckiger Rahmen 44, der durch die dicken durchgezogenen Linien angezeigt ist, zeigt ein Aufnahmegesichtsfeld bei speziellen Werten (aktuellen Werten oder Steuerungswerten) des Schwenkens, Kippens und Zoomens der Videokamera 10 an. Der Aufnahmebereich an dem Weitwinkelende, wenn der Schwenkwinkel 50 Grad und der Kippwinkel -20 Grad ist, ist durch einen rechteckigen Rahmen 46 angezeigt. Der Aufnahmebereich an dem Teleende unter den gleichen Bedingungen ist durch einen rechteckigen Rahmen 48 angezeigt.
  • Der Betrieb bzw. die Funktion dieses Ausführungsbeispiels wird nachfolgend mit Bezug auf die Fig. 3 bis 6 beschrieben. Fig. 3 zeigt das Hauptprogramm gemäß diesem Ausführungsbeispiel. Dieses Programm ist in der Speichereinheit 34 gespeichert. Die CPU 32 ruft sequentiell Verarbeitung (S1) der Bestimmungseinheit 24, Verarbeitung (S2) der Bestimmungseinheit 26 und Verarbeitung (S3) der Bestimmungseinheit 28 auf. Wenn nach der Verarbeitung (S3) der Bestimmungseinheit 28 Sollwerte des Schwenkens, Kippens und Zoomens bestimmt sind (S4), ist die Bestimmung eines neuen Aufnahmebereiches vollständig. Demzufolge steuert die CPU 32 die Kamera 10 zu einem Schwenkwinkel, einem Kippwinkel und einem Zoomwert entsprechend den jeweiligen bestimmten Werten (S5). Wenn die Sollwerte nicht bestimmt sind (S4) wiederholt die CPU 32 die Schritte 51, 52 und 53.
  • Fig. 4 ist ein ausführliches Flussdiagramm von Schritt S1. Bei diesem Ausführungsbeispiel wird eine Zeigevorrichtung wie beispielsweise eine Maus als die Bestimmungseinheit 24 verwendet. Ein Bediener bewegt einen Cursor, der sich mit dieser Zeigevorrichtung bewegt, zu dem rechteckigen Rahmen 44, Fig. 2, und bestimmt eine neue Position des rechteckigen Rahmens 44 durch Ziehen der Zeigevorrichtung während die Taste der Vorrichtung gedrückt ist. Es ist überflüssig anzumerken, dass die Mitte des rechteckigen Rahmens 44 nicht aus dem rechteckigen Rahmen 40 heraus bewegt werden kann.
  • Genauer gesagt, überprüft die CPU 32 zuerst in Schritt S11, ob eine Eingabe von der Bestimmungseinheit 24 existiert. "Eingabe" bedeutet, dass die Maus bewegt wird, wobei die Maustaste gedrückt ist, während der Cursor in dem rechteckigen Rahmen 44 vorhanden ist. Wenn die Maustaste nicht gedrückt ist, ist die Verarbeitung in Fig. 4 beendet, und der Ablauf schreitet zum Schritt S2 des Hauptprogramms, Fig. 3 voran. Wenn eine Mausbewegung erfasst ist (S11) überprüft die CPU 32, ob beispielsweise die Bewegungsrichtung des Rahmens 44 den rechteckigen Rahmen 40 überschreitet, welcher die Grenzen des Schwenkens und/oder Kippens anzeigt (S12). Falls JA in Schritt S12, kehrt der Ablauf unmittelbar zu Schritt S11 zurück. Falls NEIN in Schritt S12, aktualisiert die CPU 32 die Werte der in der Speichereinheit 34 gespeicherten Schwenk- und Kippwinkel auf der neuen Position des rechteckigen Rahmens 44 entsprechende Werte und zeigt den rechteckigen Rahmen 44 erneut an der neuen Position auf dem Schirm der Anzeigeeinheit 22 an (S13).
  • Fig. 5 ist ein ausführliches Flussdiagramm von Schritt S2. Bei diesem Ausführungsbeispiel wird eine auf einer (nicht dargestellten) Tastatur bereitgestellte spezielle Taste (beispielsweise eine dem Auf- / Ab-Zoomen zugewiesene Taste) oder eine ähnliche Taste auf einer grafischen Benutzerschnittstelle als die Zoombestimmungseinheit 26 verwendet.
  • Die CPU 32 überprüft, ob eine Eingabe von der Bestimmungseinheit 26 existiert (S21). Falls NEIN bei Schritt S21, ist die Verarbeitung in Fig. 5 beendet und der Ablauf schreitet zu 53 des Hauptprogramms, Fig. 3, voran. Falls JA in Schritt S21, überprüft die CPU 32, ob die Grenze des Zoomens überschritten ist (S22). Falls JA in Schritt S22, kehrt der Ablauf unmittelbar zum Schritt S21 zurück. Falls NEIN bei Schritt S22, aktualisiert die CPU 32 den in der Speichereinheit 34 gespeicherten Zoomwert auf einen der Eingabe von der Bestimmungseinheit 26 entsprechenden neuen Wert und zeigt den rechteckigen Rahmen 44 mit einer dem neuen Zoomwert entsprechenden Größe erneut auf dem Schirm der Anzeigeeinheit 22 an (S23). Die zentrale Position bzw. Mittelposition des rechteckigen Rahmens 44 bewegt sich nicht.
  • Fig. 6 ist ein ausführliches Flussdiagramm von Schritt S3. Bei diesem Ausführungsbeispiel wird als die Bestimmungseinheit 28 eine spezielle Taste (beispielsweise eine EINGABE- TASTE) oder eine ähnliche Taste auf der grafischen Benutzerschnittstelle verwendet. Die CPU 32 überprüft, ob eine Eingabe existiert (S31). Falls NEIN bei Schritt S31, beendet die CPU 32 die Verarbeitung unmittelbar. Falls JA bei Schritt S31, gibt die CPU 32 die Werte der Schwenk- und Kippparameter und den Wert eines Zoomparameters für den rechteckigen Rahmen 44 aus, die in der Speichereinheit 34 gespeichert sind, um eine andere Verarbeitung durchzuführen und beendet die Verarbeitung (S32).
  • Wenn die Bestimmung zur Bestimmung somit eingegeben ist, steuert die CPU 32 die Kamera 10 gemäß den eingestellten Informationen (S5).
  • Bei diesem Ausführungsbeispiel überprüft das Hauptprogramm sequentiell Eingaben von den Bestimmungseinheiten 24, 26 und 28 durch Abfragen. Jedoch können Verarbeitungsaktivitäten durch diese Bestimmungseinheiten 24, 26 und 28 Unterbrechungsverarbeitungen oder als "Rückruf-Prozeduren implementiert sein, die von der grafischen Benutzerschnittstelle aktiviert werden.
  • Ebenfalls ist bei diesem Ausführungsbeispiel eine spezielle Tasteneingabe als die Bestimmungseinheit 26 eingestellt. Jedoch kann eine Zeigevorrichtung wie beispielsweise eine Maus ebenfalls als die Bestimmungseinheit 26 verwendet werden. In diesem Fall, wie es auch bei Auswertungssoftware bzw. Aufzeichnungssoftware zu finden ist, ist ein spezieller Steuerungspunkt auf dem Rahmen 44 bereit gestellt, und Zoomen wird durch Bewegen des Steuerungspunktes bestimmt. Weiterhin, wie es ebenfalls bei Aufzeichnungssoftware zu finden ist, kann Schwenken, Kippen und Zoomen gleichzeitig durch die Verwendung einer Funktion des Bewegens und des Vergrößerns oder Verkleinerns des Rahmens 44 bestimmt werden.
  • Bei diesem Ausführungsbeispiel wird die Kamera 10 gemäß der Bestimmung einer neuen Bestimmung des rechteckigen Rahmens 44 gesteuert (Schritt S5, Fig. 3). Jedoch ist es auch möglich, wenn entweder Schwenken / Kippen oder Zoomen verändert wird, die Kamera 10 unmittelbar auf den entsprechenden Steuerungswert zu steuern. Das heißt, Echtzeitsteuerung ist möglich, wenn die Geschwindigkeiten des Schwenkens, Kippens und Zoomens der Kamera 10 ausreichend hoch sind. Auch können diese beiden Steuerungsverfahren selbstverständlich wahlweise als eine Betriebsart eingestellt werden.
  • Ein Beispiel eines Betriebs des Schwenkens, Kippens und Zoomens wird nachfolgend kurz beschrieben. In dem das derzeitige Aufnahmegesichtsfeld definierenden rechteckigen Rahmen 44 (Fig. 2), sind drei Arten von Gebieten 50, 52 und 54 wie in Fig. 9 unterschiedlich schraffiert, als Betriebsgebiete zum Schwenken, Kippen und Zoomen eingestellt. Das heißt, die Gebiete 50 sind an den vier Ecken des rechteckigen Rahmens 44 eingestellt. Die Gebiete 52 sind längliche Gebiete, die sich entlang der vier Seiten des rechteckigen Rahmens 44 erstrecken. Das Gebiet 54 ist innerhalb der Gebiete 50 und 52 definiert.
  • Das Gebiet 54 wird verwendet, um Schwenken und Kippen durchzuführen. Wenn er innerhalb des Gebiets 54 bewegt wird, nimmt der Mauscursor eine Form (die Form einer offenen Hand in Fig. 9) an, die anzeigt, dass ein Schwenk- / Kippbetrieb gestartet wird. Wenn ein Benutzer die Maus in diesem Zustand zieht, während die Maustaste gedrückt ist, aktualisiert die CPU 32 entsprechend dem Ziehen den rechteckigen Rahmen 44 auf eine Position, die in der entsprechenden Bewegungsrichtung um den entsprechenden Bewegungsbetrag bewegt wurde, und schwenkt und kippt die Kamera 10 gleichzeitig um die entsprechenden Winkel. Fig. 9 zeigt ein Beispiel, bei dem der Mauscursor nach links hoch bewegt wird. Wie allgemein bekannt ist, ist der Ziehvorgang abgeschlossen, wenn die Maustaste freigegeben wird, und der Schwenk- / Kippvorgang ist ebenfalls abgeschlossen. Wenn das Leistungsvermögen der Kamerasteuerungsvorrichtung 20 hoch ist, kann die Kamera 10 dem Ziehvorgang folgend gedreht werden. Wenn die Leistungsfähigkeit gering ist, wird während des Ziehvorgangs lediglich der rechteckige Rahmen 44 ohne Steuerung der Kamera 10 aktualisiert, und die Kamera 10 wird gedreht, nachdem der Ziehvorgang abgeschlossen ist.
  • Die Gebiete 50 und 52 werden zum Durchführen des Zoomens verwendet. Wenn er in die Gebiete 50 oder 52 bewegt wird, nimmt der Mauscursor eine Form an (die Form eines zweiseitigen Pfeiles in Fig. 9, was eine Vergrößerung oder Verkleinerung des rechteckigen Rahmens 44 impliziert), die anzeigt, dass ein Zoomvorgang gestartet wird. Wenn ein Bediener die Maus in diesem Zustand zieht, während die Maustaste gedrückt ist, aktualisiert die CPU 32 den rechteckigen Rahmen 44 auf eine dem Auswärts- / oder Einwärtsbewegungsbetrag entsprechende Größe, während das Bildseitenverhältnis des Rahmens beibehalten wird, und steuert zur gleichen Zeit die Kamera 10 auf den entsprechenden Zoomwert. Der Ziehvorgang ist abgeschlossen, wenn die Maustaste freigegeben wird, und der Zoomvorgang ist ebenfalls abgeschlossen. Es ist bevorzugt, dass ein Benutzer willkürlich einen Abschnitt einstellen kann, der fest ist, wenn die Größe des rechteckigen Rahmens 44 verändert wird. Beispiele dafür sind das Verfahren, bei dem eine Seite oder eine Ecke gegenüber einer Seite oder einer Ecke, an der der Mauscursor platziert ist, fest ist, und das Verfahren, bei dem die Mitte des rechteckigen Rahmens 44 fest ist. Bei diesem Zoomvorgang, wie bei dem vorstehend beschriebenen Schwenk-/ Kippvorgang ist es von der Leistungsfähigkeit der Kamerasteuerungsvorrichtung 20 abhängig, ob die Zoomsteuerung der Kamera 10 auf den Ziehvorgang folgend durchgeführt wird.
  • [Zweites Ausführungsbeispiel]
  • Fig. 7 zeigt eine Modifikation des in Fig. 3 gezeigten Hauptprogramms. Mit Bezug auf Fig. 7 wird in einem rechteckigen Rahmen 42, der ein potentielles maximales Aufnahmegesichtsfeld anzeigt, ein dem maximalen Aufnahmegesichtsfeld entsprechendes Bild angezeigt. Das heißt, nachdem das Zoomverhältnis zu dem Weitwinkelende eingestellt wurde, werden Bilder in dem maximalen Aufnahmegesichtsfeld sequentiell eingegeben, während die Kamera von einer Grenze zu der anderen geschwenkt und gekippt wird. Die eingegebenen Bilder werden in einem Speicher (zum Beispiel einer Speichereinheit 34) gespeichert und so angezeigt, um in den rechteckigen Rahmen 42 zu passen (S41). Demgemäß kann der Benutzer unmittelbar sehen, welche Objekt- oder Personenpositionen in welchem Abschnitt des rechteckigen Rahmens 42 sind.
  • Danach, wie in Fig. 3, werden die Verarbeitung (S42) einer Bestimmungseinheit 24 und die Verarbeitung (S43) einer Bestimmungseinheit 26 aufgerufen. Wenn eine Bestimmungseinheit 29 eine Aktualisierung eines Bildes in dem maximalen Gesichtsfeld anfordert (S44), wird ein in dem rechteckigen Rahmen 42 angezeigtes Bild aktualisiert (S45). Das heißt, das Zoomverhältnis wird zu dem Weitwinkelende gesteuert und Bilder in dem maximalen Gesichtsfeld werden sequentiell eingegeben, während die Kamera von einer Grenze zu der anderen geschwenkt und gekippt wird. Diese Bilder werden in einem Speicher (beispielsweise der Speichereinheit 34) gespeichert und so angezeigt, um in den rechteckigen Rahmen 42 zu passen.
  • Darauf folgend wird die Verarbeitung (S46) einer Bestimmungseinheit 28 aufgerufen. Wenn eine Eingabe einer Kamerafunktion bestimmt ist (S47), werden die Schwenk-, Kipp- und Zoomfunktionen der Kamera 10 auf der neuen Position eines rechteckigen Rahmens 44 entsprechende Steuerwerte gesteuert.
  • Das in dem rechteckigen Rahmen 42 angezeigte Bild in dem maximalen Aufnahmegesichtsfeld wird durch Verbinden einer Vielzahl von eingegebenen Bildern ausgebildet, so dass Verzerrungen in den verbundenen Abschnitten auffallen. Jedoch beeinträchtigt diese Verzerrung nicht den Funktionsvorteil dieses Ausführungsbeispiels. Ebenfalls ist die Aktualisierungsanforderung (S44) nicht auf die Funktion der diesem Zweck gewidmeten Bestimmungseinheit 29 beschränkt. Beispielsweise ist es offensichtlich, dass eine Vielzahl bestimmter Funktionen als Aktualisierungsanforderungen verwendet werden können.
  • [Drittes Ausführungsbeispiel]
  • Ein aktuell aufgenommenes Bild kann ebenfalls angezeigt werden, um in einen rechteckigen Rahmen 44 zu passen. Fig. 8 ist ein Flussdiagramm dieser Modifikation des Flussdiagramms in Fig. 7. Das heißt, nach der Kamerasteuerung (S48) wird ein durch eine Kamera 10 aufgenommenes Bild eingegeben. Durch Verwendung dieses Bildes, das heißt, eines aktuell aufgenommenen Bildes, wird ein dem rechteckigen Rahmen 44 entsprechender Abschnitt eines Bildes in dem maximalen Gesichtsfeldbereich, der in Schritt S41 oder S45 eingegeben wurde und in einer Speichereinheit 34 gespeichert ist, aktualisiert. Danach wird das Bild in dem maximalen Gesichtsfeldbereich in einem rechteckigen Rahmen 42 aktualisiert (S49).
  • Mit dieser Funktion kann der Benutzer überprüfen, welcher Bildabschnitt in dem maximalen Gesichtsfeldbereich tatsächlich aufgenommen wird, und kann dadurch leicht bestimmen, in welchem Ausmaß die Schwenk-, Kipp- oder Zoomfunktion angepasst werden muss.
  • Wie aus der obigen Beschreibung leicht verständlich ist, kann gemäß dem ersten bis dritten Ausführungsbeispiel der vorliegenden Erfindung der Benutzer deutlich den Zustand des Schwankens, Kippens oder Zoomens innerhalb eines steuerbaren Bereichs sehen, und kann ebenfalls unmittelbar die Kamera auf gegebene Steuerwerte unabhängig vom derzeitigen Zustand steuern.
  • Weiterhin wird ein Bild in dem Bereich des maximalen Aufnahmegesichtsfeldes eingegeben und in dem Rahmen angezeigt, der diesen maximalen Fotografier-Gesichtsfeldbereich angibt. Dies erlaubt es dem Benutzer, deutlich zu sehen, welches Objekt innerhalb des möglichen Aufnahmebereiches ist, und leicht zu verstehen, wie die Kamera zu bedienen ist. Dies verbessert stark die Funktionalität der Kamera.
  • [Viertes Ausführungsbeispiel]
  • Das vierte Ausführungsbeispiel der vorliegenden Erfindung wird nachfolgend ausführlich mit Bezug auf die beigefügte Zeichnung beschrieben.
  • Fig. 10 ist ein Blockschaltbild, welches ein Bewegtbildanzeigegerät gemäß dem vierten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Ein Bewegtbildanzeigegerät 101a gemäß diesem vierten Ausführungsbeispiel enthält eine CPU 102 als eine Steuereinrichtung zur Steuerung des gesamten Geräts 101a. Diese CPU 102 ist an eine Bitmaskenanzeige 103, eine Videokamera 104, eine Kamerasteuerungsvorrichtung 105, eine Videoerfassungsvorrichtung 106, eine Maus 107, und einen Hauptspeicher 108 über einen internen Bus 109 angeschlossen. Bei der Bitmaskenanzeige 103 handelt es sich um eine Anzeigeeinrichtung, der es möglich ist, eine Multifensteranzeige durchzuführen und Bewegtbilder in Form eines Fensters anzuzeigen. Die Videokamera 104 ist eine Bewegtbildeingabeeinrichtung zum Eingeben eines Bewegtbildsignals. Die Kamerasteuerungsvorrichtung 105 ist eine Aufnahmerichtungsänderungseinrichtung zur Steuerung der Drehbewegungen der Videokamera 104 in der vertikalen und horizontalen Richtung (Schwenken und Kippen). Die Videoerfassungseinrichtung 106 hat eine Funktion zur A/D-Wandlung eines eingegebenen Videosignals von der Videokamera 104. Die Maus 107 ist eine Bewegtbildbereichbewegungseinrichtung, die zum Bewegen eines Bewegtbildfensters 131 (vergleiche Fig. 11) als ein Bewegtbildbereich verwendet wird. Der Hauptspeicher 108 speichert beispielsweise Bildinformationen.
  • Fig. 11 zeigt ein Beispiel der auf dem Schirm der Bitmaskenanzeige 103 gemäß diesem Ausführungsbeispiel angezeigten Inhalte. Es sei angenommen, dass eine Vielzahl überlappender Fenster auf der Bitmaskenanzeige 103 angezeigt werden können und ein Fenstersystem in dem Gerät 101a in Betrieb ist. Der Anzeigeschirm in Fig. 11 zeigt ein Stehbildfenster 130 als ein Stehbildbereich zum Anzeigen von Stehbildern an und das Bewegtbildfenster 131, welches innerhalb des Stehbildfensters 130 angeordnet ist, dient zur Anzeige von Bewegtbildern. Durch die Videokamera 104 unter Verwendung der Videoerfassungsvorrichtung 106 aufgenommene Bewegtbilder werden in dem Bewegtbildfenster 131 angezeigt. Die Position dieses Bewegtbildfensters 131 kann in dem Stehbildfenster 130 durch die Verwendung der Maus 107 bewegt werden. Es sei angenommen, dass das Stehbildfenster 130 größer ist als das Bewegtbildfenster 131, und dass das Bewegtbildfenster 131 zu jedem Zeitpunkt dem Stehbildfenster 130 überlagert ist.
  • Die CPU 102 liest Bilder aus bzw. gewinnt Bilder, indem sie die Videokamera 104 in der vertikalen und horizontalen Richtung steuert, ein Gesamtbild in einem Bereich, der durch die Videokamera 104 eingegeben werden kann, als ein Stehbild rekonstruiert, und dieses gesamte Bild (synthetisches Stehbild) als ein Stehbild in dem Stehbildfenster 130 anzeigt. Ebenfalls zeigt die CPU 102 ein eingegebenes Bewegtbild von der Videokamera 104 in dem Bewegtbildfenster 131 an. In diesem Fall bringt die CPU 102 die Richtungen der Videokamera 104, die Positionen der zwei Fenster 130 und 131 und die Größen der angezeigten Bilder in Einklang miteinander, damit das in dem Bewegtbildfenster 131 angezeigte Bewegtbild einem gewissen Bereich des in dem Stehbildfenster 130 angezeigten Gesamtbildes entspricht. Das heißt, das Stehbild und Bewegtbild werden angezeigt, als ob ein Abschnitt des Stehbildes durch das Bewegtbild ersetzt wird bzw. ist. Es ist nicht speziell erforderlich, die Richtung der Kamera 104 zu steuern, wenn der anzuzeigende Hintergrund vollkommen unbewegt bleibt oder ein sich bewegendes Objekt oder eine Person lediglich an einem gewissen festgelegten Ort vorkommt. Wenn die Umstände bzw. Gegebenheiten des Hintergrundes sich ändern oder die Position des sich bewegenden Objekts sich ändert und somit die Richtung der Kamera 104 geändert werden muß, bewegt der Benutzer das Bewegtbildfenster 131, das an der gleichen Position mit der gleichen Größe wie der entsprechende Bereich in dem Stehbildfenster 130 angezeigt wird, unter Verwendung der Maus 107, wodurch die Position des Bewegtbildfensters 131 zu dem Objekt von Interesse bewegt wird. Gemäß dieser Funktion steuert die CPU 102 die Richtung der Videokamera 104, so dass das Bewegtbild konstant in eine geeignete Richtung mit Bezug zu dem Gesamtbild zeigt. Zudem aktualisiert die CPU 102 einen Abschnitt des synthetischen Stehbildes, in dem das Stehbildfenster 130 existiert, vor der Bewegung, indem das in dem Bewegtbildfenster 131 angezeigte Bewegtbild verwendet wird.
  • Mit Bezug auf Fig. 12 wird die Funktion dieses Ausführungsbeispiels anhand des Flussdiagramms in Fig. 13 beschrieben. Fig. 12 ist eine Ansicht, die die Art zeigt, auf die das Bewegtbildfenster 131 bewegt wird. In Fig. 12 bezeichnet Bezugszahl 131a ein Bewegtbildfenster vor der Bewegung; und 131b ein Bewegtbildfenster nach der Bewegung. Fig. 13 ist ein Flussdiagramm, das die Prozedur des Bewegens des Bewegtbildfensters 131 zeigt.
  • Wenn der Benutzer das Bewegtbildfenster 131 von der Position 131a zu der Position 131b unter Verwendung der Maus 107 bewegt, erfaßt die CPU 102 den Bewegungsbetrag der Maus 107 (S402). Der Hauptspeicher 108 hält ein Bild 132 des letzten Vollbildes des in dem Bewegtbildfenster 131a angezeigten Bildes (S403) und bewegt die Position des Bewegtbildfensters 131 gemäß dem Bewegungsbetrag der Maus 107 (S404). Es ist zu beachten, dass diese Funktion des Bewegens des Fensters 131 durch Verwendung einer Fensterverwaltungsfunktion des Fenstersystems realisiert wird. Die CPU 102 erfaßt den Bewegungsbetrag der Maus 107 und berechnet den Bewegungsbetrag und die Position der Kamera 104 (S405). Es sei angenommen, dass ein Koordinatensystem wie in Fig. 14 dargestellt definiert ist, wobei die Richtung (θ, φ) der Kamera 104 und die Position (X0, Y0) des Bewegtbildfensters 131 die folgenden Gleichungen erfüllen:
  • XO = R · tanθ
  • YO = R · tanφ ... (D
  • wobei die Richtung (θ, φ) der Kamera enthält θ: ein Schwenkwinkel in der horizontalen Richtung und φ ein Kippwinkel in der vertikalen Richtung, und R ist eine Konstante. Die CPU 102 berechnet die Richtung der Kamera 104 aus der Position des Bewegtbildfensters 131 im Einklang mit Gleichung (1) und gibt eine Anweisung zur Bewegung an die Kamerasteuerungsvorrichtung 105 ab, wodurch die Richtung der Kamera 104 bewegt wird (S406). Da das Bewegtbildfenster 131 somit bewegt wird, ersetzt die CPU 102 zusätzlich in dem in dem Stehbildfenster 130 angezeigten Stehbild das (zu aktualisierende) Bild 132 in dem Bewegtbildfenster 131a, bevor es bewegt wurde, durch das Bild des letzten Vollbildes des bei Schritt S403 gespeicherten Bewegtbildes. Durch diese Funktion, wenn das Bewegtbildfenster 131 bewegt wird, wird das Stehbild an dem Ort, an dem das Bewegtbildfenster 131 ursprünglich existiert, durch das Bild des letzten Vollbildes des Bewegtbildes aktualisiert.
  • Es sei angenommen, dass die Kamera 104 eine Zoomfunktion hat und daher ein Auf- und Abwärtszoomen durchführen kann. Wenn das Zoomverhältnis der Kamera verändert wird, wird die Größe des Bewegtbildes unterschiedlich von der Größe des umgebenden Stehbildes. Wenn dies der Fall ist, wird bei diesem Ausführungsbeispiel das Zoomverhältnis aus der Kamerasteuervorrichtung 105 ausgelesen. Ein synthetisches Stehbild muss nur auf- oder abwärts gezoomt werden gemäß dem ausgelesenen Zoomverhältnis. Das heißt, wenn die Änderungsrate in der Vergrößerung vor und nach dem Zoomen Z ist, wird die Änderungsrate in der Anzeigevergrößerung eines Stehbildes ebenfalls auf Z eingestellt. Es ist zu beachten, dass im Fall eines Auf- oder Abwärtszoomens eines Stehbildes die Anzeigevergrößerung so verändert wird, dass Zoomen um den Mittelpunkt ((X0, Y0) in Fig. 14) des Bewegtbildfensters 131 herum erfolgt. Es ist ebenfalls zu beachten, dass diese Anzeigesteuerung eines synthetischen Stehbildes, wenn das Zoomverhältnis der Kamera verändert wird, auf die zuvor beschriebenen ersten bis dritten Ausführungsbeispiele anwendbar ist.
  • Als die anfänglichen Anzeigeinhalte beim Starten wird ein Gesamtbild konstruiert und angezeigt, indem zuvor ein gesamter Bereich unter Verwendung der Kamera 104, wie bei dem zweiten und dritten Ausführungsbeispiel abgetastet wird. Als ein Beispiel, wenn das Stehbildfenster 130 neunmal so groß ist wie das Bewegtbildfenster 131, wie in Fig. 15 dargestellt, werden neun Bilder synthetisiert durch Abtasten des Bewegtbildfensters 131 in der Reihenfolge 1 → 2 → 3 → ...→ 9. Auch können bei diesem Ausführungsbeispiel Bewegtbilder in dem Bewegtbildfenster 131 entweder durch Softwareverarbeitung seitens der CPU 102 oder unter Verwendung spezieller Hardware zur Anzeige von Bewegtbildern angezeigt werden, vorausgesetzt, dass die Software oder Hardwäre eine Funktion hat, anhand derer ein Gesamtbild in einem Abschnitt unterhalb des Bewegtbildfensters durch das letzte Vollbild eines Bewegtbildes aktualisiert werden kann, wenn die Position des Bewegtbildfensters bewegt wird. Beispielsweise muß die Software oder Hardware lediglich eine Funktion zur Speicherung eines speziellen Vollbildes eines Bewegtbildes als ein Stehbild und eine Funktion zum Ersetzen eines bestimmten Abschnitts eines Gesamtbildes durch das gespeicherte Stehbild aufweisen.
  • Bei dem wie vorstehend beschriebenen vierten Ausführungsbeispiel wird ein Bild über einen breiten Bereich, welcher eine gesamte Atmosphäre bzw. Umgebung vermittelt, als ein Stehbild angezeigt, ein interessierender Abschnitt wird als ein Bewegtbild mit einer Größe und einer Auflösung angezeigt, die das Leistungsvermögen erfüllen, und diese zwei Bilder werden synthetisiert und angezeigt, während ihre Position und Größen aneinander angepasst bzw. miteinander in Einklang gebracht werden, selbst wenn eine Bewegtbildanzeigeverarbeitung auf einem großem Schirm langsam ist oder es schwierig ist, Bewegtbilder über einen großen Bereich mit hoher Auflösung bei einer gewünschten Bildrate anzuzeigen, da das Leistungsvermögen wie beispielsweise die Bewegtbildbustransferrate zum Eingeben und Anzeigen von Bewegtbildern nicht so hoch ist. Das Ergebnis ist, dass die Bilder angezeigt werden, als wenn ein Abschnitt des Stehbilds durch das Bewegtbild ersetzt wird, so dass das Bewegtbild innerhalb eines engen Bereichs und das Stehbild über einen weiten Bereich gleichzeitig gesehen werden können. Dies erlaubt eine effiziente Bewegtbildanzeige mit geringen Computerresourcen. Selbst wenn interessierende Objekte nicht gleichzeitig in den Aufnahmebereich der Kamera 104 eingepasst werden können, kann eine gesamte Atmosphäre durch Anzeigen eines Stehbildes übermittelt werden, das durch Abtasten des Bewegtbildfensters 131 synthetisiert ist, und die interessierenden Abschnitte können als ein Bewegtbild angezeigt werden. Da ein Abschnitt des gesamten Bildes angezeigt wird, als ob der Abschnitt durch ein Bewegtbild ersetzt wird, ist zusätzlich die Beziehung zwischen den Einzelheiten und dem Ganzen leicht erkennbar. Wenn ein Objekt in einem Abschnitt, der nicht in das Bewegtbildfenster 131 eingepasst werden kann, sich nicht so oft bewegt, kann ein Stehbild gelegentlich aktualisiert werden. Wenn sich ein Objekt von Interesse bewegt, kann der Benutzer das Bewegtbildfenster 131 unter Verwendung der Zeigevorrichtung wie beispielsweise einer Maus bewegen, um dadurch die Kamera 104 in die Richtung der Bewegung zu richten. Ebenfalls wird die Beziehung, in der ein Bewegtbild angezeigt wird, als ob es ein Teil eines Stehbildes wäre, durch die Bewegung bewahrt. Zudem kann der Benutzer leicht die Entsprechung zwischen dem gesamten Bild und einem interessierenden Abschnitt verstehen. Zudem wird nicht ein gesamter Bereich eines gesamten Bildes, sondern ein Abschnitt, in dem das Bewegtbildfenster 131 vorbeizieht oder ein Abschnitt von Interesse allein aktualisiert. Dies führt zu einem geringen aktualisierten Betrag des gesamten Bildes und somit zu einer geringen Verarbeitungsbelastung.
  • [Fünftes Ausführungsbeispiel]
  • Fig. 16 ist ein Blockschaltbild, welches ein Bewegtbildanzeigegerät gemäß dem fünften Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Ein Bewegtbildanzeigegerät 101b gemäß diesem fünften Ausführungsbeispiel wird erhalten, indem ein Bewegungsdetektor 110 zu dem Bewegtbildanzeigegerät 101a gemäß dem vierten Ausführungsbeispiel hinzugefügt wird. Demzufolge bezeichnen die gleichen Bezugszahlen wie bei dem vierten Ausführungsbeispiel die gleichen Teile, und auf eine ausführliche Beschreibung davon wird verzichtet.
  • Wenn ein Stehbild lediglich an einem Ort aktualisiert wird, zu dem ein Bewegtbildfenster 131 unter Verwendung einer Maus 107 bewegt wird, kann ein Abschnitt in dem Stehbild überhaupt nicht aktualisiert werden, obwohl es eine Änderung in diesem Abschnitt gibt. Zum Vermeiden dieses Nachteils wird ein gesamtes Stehbild aktualisiert, indem eine Kamera 104 über einen dem gesamten Stehbild entsprechenden Bereich abtastet. Diese Aktualisierung des gesamten Bildes kann derart erzielt werden, dass wenn ein Stehbildfenster 130 neunmal größer als das Bewegtbildfenster 131 wie in Fig. 15 dargestellt ist, neun Bilder synthetisiert werden, indem das Bewegtbildfenster 131 in der Reihenfolge 1 → 2 → 3 → ... → 9 abgetastet wird.
  • Die Abtastung wird zu einem Zeitpunkt ausgeführt, der durch eine Unterbrechung von dem Bewegungsdetektor 110 bestimmt ist. Das heißt, falls keine Bewegung während einer vorbestimmten Zeit erfasst wird, erzeugt der Bewegungsdetektor 110 ein Unterbrechungssignal. Eine CPU 102 empfängt dieses Signal und führt die Funktion der Aktualisierung des gesamten Stehbildes aus, Fig. 15. Wenn diese Funktion des Aktualisierens des gesamten Stehbildes abgeschlossen ist, schaltet die CPU 102 zum Aktualisieren eines Stehbildes um, was durch Bewegung des Bewegtbildfensters 131 unter Verwendung der Maus 107 erfolgt. Anfängliche Anzeigeinhalte beim Starten bzw. Einschalten können gebildet werden, indem die obige Aktualisierungsabtastung zuerst durchgeführt wird.
  • Zusätzlich zu dem Effekt des vierten Ausführungsbeispiels hat das fünfte Ausführungsbeispiel mit der obigen Anordnung den Effekt des periodischen Aktualisierens eines gesamten Bildes, wenn es keine Bewegung gibt. Dies beseitigt die Möglichkeit, dass ein Abschnitt eines Stehbildes überhaupt nicht aktualisiert wird, obwohl es eine Änderung in diesem Abschnitt gibt.
  • [Sechstes Ausführungsbeispiel]
  • Als eine Modifikation (sechstes Ausführungsbeispiel) des fünften Ausführungsbeispiels ist es ebenfalls möglich, ein Stehbild nach einer festgelegten Zeitdauer erzwungenermaßen zu aktualisieren, selbst wenn es eine Bewegung gibt. Dies wird erzielt, durch Erzeugen einer Zeitgeberunterbrechung an die CPU 102 nach jeder festgelegten Zeitdauer und durch Durchführen der Stehbildaktualisierungsabtastung, Fig. 15, jedes Mal, wenn diese Zeitgeberunterbrechung erzeugt wird. Bei dem vorstehend beschriebenen fünften Ausführungsbeispiel kann ein Abschnitt, der überhaupt nicht aktualisiert wird, in einem Stehbild erzeugt werden, wenn es eine konstante Bewegung gibt. Bei diesem sechsten Ausführungsbeispiel jedoch wird ein Abschnitt, der überhaupt nicht aktualisiert wird, nicht erzeugt, da ein Stehbild erzwungenermaßen nach einer festgelegten Zeitdauer bzw. Periode aktualisiert wird.
  • [Siebtes Ausführungsbeispiel]
  • Zusätzlich zu der Funktion des sechsten Ausführungsbeispiels kann eine Kamera 104 auch wie folgt abgetastet werden. Das heißt, während ein Objekt in einem Bewegtbild sich bewegt, verfolgt die Kamera 104 das sich bewegende Objekt, und die Position des Bewegtbildes mit Bezug auf ein Stehbild wird gemäß der Verfolgung verändert. Während ein Objekt in dem Bewegtbild unbewegt bleibt, wird das Stehbild periodisch aktualisiert. Es sei angenommen, dass während der Abtastung ein Bewegungsdetektor 110 eine Bewegung des durch die Kamera 104 erhaltenen Bewegtbildes erfasst. Es sei gleichfalls angenommen, dass der Bewegungsdetektor 110 eine Bewegung eines örtlichen Bereichs in einem gesamten Bild (gesamter Bereich) erfassen kann und die Richtung und den Betrag der Bewegung aus der Differenz zwischen einzelnen Vollbildern oder unter Verwendung eines Bildverarbeitungsverfahrens wie beispielsweise einem optischen Fluss erhalten kann, indem die Tatsache berücksichtigt wird, dass das gesamte Bild sich aufgrund der Abtastung der Kamera 104 bewegt, während ein Objekt verfolgt wird. Unter Verwendung der somit erhaltenen Richtung und des Betrags der Bewegung anstelle einer Eingabe von einer Maus 107 ist es möglich, das sich bewegende Objekt mit der Kamera 104 zu verfolgen. Wenn diese Funktion zu dem vorstehend beschriebenen sechsten Ausführungsbeispiel hinzugefügt wird, während ein Objekt in einem Bewegtbild sich bewegt, kann die Kamera 104 das sich bewegende Objekt verfolgen, und zur gleichen Zeit kann die Position des Bewegtbildes mit Bezug auf ein Stehbild entsprechend der Verfolgung geändert werden. Ebenso kann, während ein Objekt in dem Bewegtbild unbewegt bleibt, ein Stehbild periodisch aktualisiert werden. Da ein Stehbild durch automatisches Verfolgen eines sich bewegenden Abschnitts aktualisiert wird, braucht der Benutzer keinen Bewegungsvorgang unter Verwendung beispielsweise der Maus 107 durchzuführen und ist somit von einem aufwendigen Bedienen der Maus oder einer ähnlichen Vorrichtung befreit.
  • Fig. 17 ist ein Blockschaltbild, das ein Bewegtbildanzeigegerät gemäß dem siebten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Ein Bewegtbildanzeigegerät 101c dieses siebten Ausführungsbeispiels wird erhalten durch Anschließen einer Bildeingabevorrichtung 111 und einer Stehbildkamera 112 an das Bewegtbildanzeigegerät 101b gemäß dem fünften und sechsten Ausführungsbeispiel.
  • Bei dem fünften und bei dem sechsten Ausführungsbeispiel wird ein Stehbild durch Abtasten der Kamera 104 aktualisiert. Jedoch macht dieses siebte Ausführungsbeispiel Gebrauch von einem durch die Stehbildkamera 112 mit einem weiteren Winkel als dem einer Videokamera 104 aufgenommenen Stehbild.
  • Die Bildeingabevorrichtung 111 schreibt das durch die Stehbildkamera 112 aufgenommene Bild in einen Hauptspeicher 108.
  • Ein gesamtes Bild wird durch periodisches Eingeben eines Bildes von der Stehbildkamera 112 aktualisiert. Das durch die Stehbildkamera 112 erhaltene Bild hat eine höhere Auflösung als ein durch eine Bewegtbildkamera erhaltenes Bild. Beispielsweise kann die Stehbildkamera 112 gleichzeitig Bilder fotografieren, die den Bereichen 1 bis 9 in Fig. 15 entsprechen. Diese Bereiche des Stehbildes können entweder gleichzeitig oder separat neunmal in der Reihenfolge der Bereiche 1 bis 9 auf die gleiche Weise, als würde eine Bewegtbildkamera verwendet werden, aktualisiert werden.
  • Bei dem siebten Ausführungsbeispiel, bei dem zusätzlich die Weitwinkel-Stehbildkamera 112 wie vorstehend beschrieben enthalten ist, ist es nicht länger erforderlich, gelegentlich die Videokamera 104 abzutasten bzw. mit dieser abzutasten, um ein gesamtes Bild (Stehbild) zu synthetisieren. Demzufolge kann die Videokamera 104 ausschließlich verwendet werden, um Bewegtbilder aufzunehmen. Es ist auch möglich, unabhängig voneinander ein Stehbild zu aktualisieren und ein Bewegtbild einzugeben und anzuzeigen.
  • [Achtes Ausführungsbeispiel]
  • Fig. 18 ist ein Blockschaltbild, das ein Bewegtbildanzeigegerät gemäß dem achten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Bei dem Bewegtbildanzeigegerät 101a gemäß dem früher beschriebenen vierten Ausführungsbeispiel sind die Videokamera 104 und die Kamerasteuerungsvorrichtung 105 an den gemeinsamen Bus 109 angeschlossen, der ebenfalls an die Bitmaskenanzeige 103 angeschlossen ist. Bei einem Bewegtbildanzeigegerät 101d gemäß diesem achten Ausführungsbeispiel, wie in Fig. 18 dargestellt, sind diese Vorrichtungen über Kommunikationsnetzwerkschnittstellen (I/Fs) 113 und 114 und ein Kommunikationsnetzwerk 115 verbunden. Das heißt, eine Kamerarichtungsbewegungsanweisung wird von einer CPU 102 über das Netzwerk 115 ausgegeben und zu einer Kamerasteuerungsvorrichtung 105 gesendet.
  • Ebenfalls wird ein von einer Videokamera 104 eingegebenes Bild von einer Videoerfassungsvorrichtung 106 empfangen und durch internen Bus 109 über das Netzwerk 115 transferiert. Das letzte Vollbild des Bildes wird unter Verwendung der CPU 102 und eines Hauptspeichers 108 gespeichert und in einem Bewegtbildfenster 131 einer Bitmaskenanzeige 103 angezeigt. Der Rest der Funktion ist gleich der des vierten Ausführungsbeispiels. Bei diesem Ausführungsbeispiel werden lediglich die in dem Bewegtbildfenster 131 anzuzeigenden Inhalte über das Netzwerk 115 transferiert.
  • Bei dem achten Ausführungsbeispiel mit der obigen Anordnung wird lediglich ein interessierender Abschnitt in einem gesamten Bild aktualisiert. Demzufolge kann der Transferbetrag in dem Netzwerk 115 stark verringert werden, selbst wenn ein gesamtes Bild groß ist, verglichen mit dem Fall, in dem ein gesamtes Bild als ein Bewegtbild zu jedem Zeitpunkt transferiert wird. Ebenfalls kann bei diesem Ausführungsbeispiel ein existierendes Computernetzwerk verwendet werden, im Gegensatz zu dem zuvor beschriebenen ersten Ausführungsbeispiel, bei dem die Fernsteuerung unter Verwendung spezieller bzw. gewidmeter Kabel durchgeführt wird. Dies erlaubt eine leichte Bewegung der Kameras.
  • Bei dem obigen Ausführungsbeispiel kann eine Sichtlinien- oder Sehachsen-Eingabevorrichtung anstelle der Maus 107 verwendet werden. Diese Sichtlinien-Eingabevorrichtung erfasst die Richtung der Sichtlinie eines Benutzers und bestimmt, welchen Teil in der Bitmaskenanzeige 103 der Benutzer sieht. Die Sichtlinien-Eingabevorrichtung mit dieser Funktion kann daher anstelle der Zeigevorrichtung verwendet werden. Diese Modifikation ist identisch mit dem obigen Ausführungsbeispiel, mit der Ausnahme, dass die Maus 107 durch die Sichtlinien-Eingabevorrichtung ersetzt ist. Die Seheigenschaften des menschlichen Auges sind derart, dass die Sehschärfe nur nahe der Mitte (als Mittelgrübchen bezeichnet) in der Richtung der Sichtlinie hoch ist und in einem Abschnitt weg von dem Mittelgrübchen stark abnimmt. Unter Verwendung dieses Prinzips wird die Position des Bewegtbildfensters 131 im Einklang mit der Richtung der Sichtlinie eines Benutzers bewegt. Die Position des Bewegtbildfensters 131 und die Richtung der Kamera 104 werden so verändert, dass die Mitte des Bewegtbildfensters konstant in die Richtung der Sichtlinie kommt. Folglich wird ein Bewegtbild nur in einem Abschnitt dargestellt, in dem die beste Sehschärfe erzielt wird, und ein Stehbild (genauer ein Bewegtbild, welches weniger häufig aktualisiert wird) wird in dem verbleibenden Abschnitt angezeigt, der von dem Mittelgrübchen entfernt ist und in dem die Sehschärfe gering ist. Demzufolge können Bewegtbilder, die die Seheigenschaften des menschlichen Auges erfüllen, angezeigt werden, während die Last auf einem Computer klein gehalten wird.
  • [Neuntes Ausführungsbeispiel]
  • Fig. 19 ist ein Blockschaltbild, das ein Bewegtbildanzeigegerät gemäß dem neunten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Bei einem Bewegtbildanzeigegerät gemäß diesem neunten Ausführungsbeispiel sind ein erster Computer 1600 und ein zweiter Computer 1700 über ein Kommunikationsnetzwerk 1800 verbunden. Die Position eines Bewegtbildfensters 131 wird auf der Seite gesteuert, wo eine Bewegtbildaufnahmereinrichtung installiert ist, und, auf die gleiche Weise wie bei dem vierten Ausführungsbeispiel, auf einer Anzeigeeinrichtung an einem Ort angezeigt, der von dem Installationsort der Bewegtbildaufnahmeeinrichtung entfernt ist. Das heißt, die Funktion des Bewegens des Bewegtbildfensters 131 wird nicht auf der Anzeigeseite durchgeführt, und die Aufnahmerichtung wird auf der Seite gesteuert, wo die Bewegtbildaufnahmeeinrichtung angeordnet ist.
  • Der erste Computer 1600 hat eine erste CPU 160 zur Steuerung des gesamten ersten Computers 1600. Diese erste CPU 160 ist an eine Bitmaskenanzeige 161, einen Hauptspeicher 162 und eine Netzwerkschnittstelle (I/F) 163 über einen internen Bus 164 angeschlossen und wird zum Anzeigen von von einer (nachfolgend zu beschreibenden) Kamera 174 des zweiten Computers 1700 an einem entfernten Ort eingegebenen Bildern verwendet.
  • Der zweite Computer 1700 hat eine zweite CPU 170 zur Steuerung des gesamten zweiten Computers 1700. Diese zweite CPU 170 ist an eine Netzwerkschnittstelle (I/F) 171, eine Videoerfassungsvorrichtung 172, eine Kamerasteuerungsvorrichtung 173, eine Videokamera 174, eine Bitmaskenanzeige 175, eine Maus 176 und einen Hauptspeicher 177 über einen internen Bus 178 angeschlossen. Das heißt, die Netzwerkschnittstelle (I/F) 171 ist zu der Konfiguration gemäß dem vierten Ausführungsbeispiel hinzugefügt.
  • Es sei angenommen, dass ein eingegebenes Bewegtbild von der Videokamera 174 und ein Stehbild (das gesamte bei dem vierten Ausführungsbeispiel beschriebene Bild), welches von dem eingegebenen Bewegtbild erzeugt wurde, in dem Stehbildfenster 130 und dem Bewegtbildfenster 131 von jeder der Bitmaskenanzeige 161 des ersten Computers 1600 und der Bitmaskenanzeige 175 des zweiten Computers 1700 synchron zueinander angezeigt werden. Es sei ebenfalls angenommen, dass die Positionen und die Größen des Stehbildfensters 130 und des Bewegtbildfensters 131 eingestellt sind, als ob ein Abschnitt des Stehbildes (gesamten Bildes) durch das Bewegtbild ersetzt sei, wie bei dem vierten Ausführungsbeispiel. Das gesamte Bild wird auch auf die gleiche Weise wie bei dem vierten Ausführungsbeispiel erzeugt.
  • Der Unterschied zu dem vierten Ausführungsbeispiel besteht darin, dass das Bewegtbildfenster 131 nicht durch Betätigen einer Maus 102 auf der Computerseite (wo keine Kamera angeschlossen ist) bewegt wird. Das heißt, das Stehbildfenster 130 und das Bewegtbildfenster 131, die auf der Bitmaskenanzeige 175 des zweiten Computers 1700 angezeigt werden, werden ebenfalls auf der Bitmaskenanzeige 161 des ersten Computers 1600 über das Netzwerk 1800 angezeigt, während die relativen Positions- und Abmessungsbeziehungen zwischen den zwei Fenstern fest beibehalten werden. Wenn die Richtung der Kamera 174 unter Verwendung der Maus 176 bei dem zweiten Computer 1700 gesteuert wird, werden das sich ergebende gesamte Bild und das Bewegtbild auch auf der Bitmaskenanzeige 161 des ersten Computers 1600 angezeigt.
  • Bei dem neunten Ausführungsbeispiel mit der obigen Anordnung kann ein Abschnitt von Interesse überwiegend mit einer geringen Kommunikationstransfermenge transferiert werden. Demgemäß ist es möglich, Bewegtbilder effizient zu übertragen und auf einem großen Schirm anzuzeigen. Zusätzlich wird bei dem zweiten Computer 1700 nicht nur die Richtung der Kamera 174 unter Verwendung der Maus 176 gesteuert, sondern die zweite CPU 170 führt ebenfalls eine Verarbeitung hinsichtlich des automatischen Erfassens eines sich bewegenden Objekts von Interesse durch. Dies ermöglicht es, ein Objekt von Interesse zu verfolgen, das automatisch aus einem eingegebenen Bild von der Kamera 174 erfasst wird. Folglich kann ein Objekt von Interesse überwiegend mit einer geringen Kommunikationstransfermenge übertragen werden, ohne den Benutzer zu veranlassen, das Objekt von Interesse unter Verwendung der Maus 176 zu verfolgen. Dies ermöglicht es, Bewegtbilder effizient zu übertragen und auf einem großen Schirm anzuzeigen.
  • [Zehntes Ausführungsbeispiel]
  • Fig. 20 ist ein Blockschaltbild, das ein Bewegtbildanzeigegerät gemäß dem zehnten Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Bei einem Bewegtbildanzeigegerät 101F gemäß diesem zehnten Ausführungsbeispiel sind eine erste Arbeitsstation 1900 und eine zweite Arbeitsstation 2000 über ein Kommunikationsnetzwerk 2100 verbunden. Aufgrund der Verwendung der Kombination des achten und neunten Ausführungsbeispiels kann die Aufnahmerichtung sowohl über das Netzwerk 2100 von einem Ort aus gesteuert werden, an dem eine Bewegtbildaufnahmeeinrichtung angeordnet ist, als auch von einem entfernten Ort, weg von der Bewegtbildaufnahmeeinrichtung, gesteuert werden.
  • Die erste Arbeitsstation 1900 enthält eine Maus 192 zum Bedienen eines Bewegtbildfensters 191, welches in einem Stehbildfenster 190 angezeigt wird.
  • Die zweite Arbeitsstation 2000 ist an eine Maus 202 zum Bedienen eines Bewegtbildfensters 201, welches in einem Stehbildfenster 200 angezeigt wird, und an eine Videokamera 203 angeschlossen. Die zweite Arbeitsstation 2000 ist ebenfalls an eine Videoerfassungsplatine und eine Kamerasteuerungsvorrichtung (keines davon ist gezeigt) analog zu jenen bei dem vierten Ausführungsbeispiel verwendeten angeschlossen. Das heißt, die zweite Arbeitsstation 2000 hat die gleiche Anordnung wie der erste Computer 1600, mit der Ausnahme, dass die Maus 202 zusätzlich an den internen Bus 164 angeschlossen ist. Es sei angenommen, dass ein Bewegtbild von der Videokamera 203 in dem Bewegtbildfenster 201 angezeigt wird.
  • Da dieses Ausführungsbeispiel zwei Steuerungssysteme hat, kann eine Steuerungskontroverse auftreten. Um dies zu verhindern, wird eine Steuerungsmediationsfunktion verwendet, durch die ein System, welches die Steuerung über die Kamera 203 erlangt, die Steuerung durchführt. Die Steuerung der Kamera 203 ist wie folgt. Das heißt, während ein Steuerungssystem die Kamera bewegt, wird jegliche Funktion von dem anderen zurückgewiesen. "Funktion zurückweisen" bedeutet, eine Nachricht anzuzeigen, die angibt, dass das andere System in Betrieb ist und jegliche Funktion zurückzuweisen, die durch die Maus 202 vorgenommen wird, während die andere in Betrieb ist.
  • Bei dem zehnten Ausführungsbeispiel mit der obigen Anordnung ermöglicht es die Verwendung der Steuerungsmediationsfunktion, die Richtung der Kamera 203 ohne irgendwelchen Steuerungszwist über das Netzwerk 2100 zu steuern, sowohl von dem Ort aus, an dem die Kamera 203 installiert ist, als auch von dem entfernten Ort, weg von der Kamera 203 aus. Demzufolge kann die Position des Bewegtbildfensters 201 in dem Stehbild über das Netzwerk 2100 sowohl von dem Ort aus bewegt werden, an dem die Kamera 203 angeordnet ist, als auch von dem entfernten Ort, weg von der Kamera 203 aus.
  • Die vorstehend beschriebenen vierten bis zehnten Ausführungsbeispiel erzielen die folgenden Wirkungen.
  • Das heißt, es ist möglich, ein Bewegtbildanzeigegerät bereitzustellen, welches selbst wenn Bewegtbildanzeigeverarbeitung auf einem großen Schirm langsam ist oder ein Bewegtbild in einem weiten Bereich mit hoher Auflösung schwierig anzuzeigen ist, da die Bewegtbildtransferrate nicht zu hoch ist, ein Bild über einen weiten Bereich anzeigen kann, der eine gesamte Atmosphäre bzw. einen Gesamteindruck als ein Stehbild vermittelt und einen interessierenden Abschnitt als ein Bewegtbild vermittelt. Zusätzlich können, da die statischen und die sich bewegenden Bilder durch Synthetisieren derselben angezeigt werden, während ihre Positionen und Größen angepasst bzw. abgeglichen werden, als ob ein Abschnitt des Stehbildes durch das Bewegtbild ersetzt wird, Bewegtbilder wirksam mit geringen Computerresourcen angezeigt werden. Ebenfalls wird nicht das gesamte synthetische Stehbild sondern lediglich der Abschnitt von Interesse aktualisiert, so dass nur eine geringe Datenmenge aktualisiert zu werden braucht. Demzufolge ist es möglich, die Gegebenheiten über einen weiten Bereich an einem entfernten Ort durch Übertragen des Abschnitts von Interesse als Bewegtbild und den Rest als ein Stehbild zu vermitteln bzw. zu übertragen. Zudem ist eine effiziente Bewegtbildanzeige möglich.
  • Die Gegebenheiten über einen weiten Bereich an einem entfernten Ort können übertragen werden, eine effiziente Bewegtbildanzeige ist möglich, und ein sich bewegender Abschnitt wird automatisch verfolgt. Dies befreit den Bediener von einem aufwendigen Vorgang des Bewegens eines Bewegtbildbereichs.
  • Da ein gesamtes synthetisches Stehbild periodisch aktualisiert wird, wird ein Abschnitt, der überhaupt nicht aktualisiert wird, obwohl es eine Änderung in jenem Abschnitt gibt, in einem Stehbild nicht erzeugt.
  • Der Bediener wird von einem aufwendigen Vorgang des Bewegens des Bewegtbildbereichs befreit, und kann ein gesamtes synthetisches Stehbild aktualisieren, während die Bewegungserfassungseinrichtung keine Bewegung eines Objekts erfasst.
  • Die Gegebenheiten über einen weiten Bereich an einem entfernten Ort können übertragen bzw. vermittelt werden, eine effiziente Bewegtbildanzeige ist möglich, und die Stehbildeingabeeinrichtung ist unabhängig von der Bewegtbildeingabeeinrichtung bereitgestellt. Demzufolge kann auf die Stehbildsynthetisierungsverarbeitung verzichtet werden.
  • Die Gegebenheiten über einen weiten Bereich an einem entfernten Ort können übertragen werden, eine effiziente Bewegtbildanzeige ist möglich, und ein sich bewegender Abschnitt wird automatisch verfolgt. Dies befreit den Bediener von einem aufwendigen Vorgang des Bewegens eines Bewegtbildbereichs. Da die Stehbildaufnahmeeinrichtung unabhängig von der Bewegtbildeingabeeinrichtung bereitgestellt ist, kann auch auf die Stehbildsynthetisierungsverarbeitung verzichtet werden.
  • Da lediglich ein Abschnitt von Interesse aktualisiert wird, kann die Übertragungsmenge in einem Kommunikationsnetzwerk stark verringert werden.
  • Eine Funktion des Bewegens eines Bewegtbildbereichs kann an einem Ort durchgeführt werden, an dem die Bewegtbildeingabeeinrichtung angeordnet ist.
  • Ein Vorgang des Bewegens eines Bewegtbildbereichs kann sowohl an einem Ort durchgeführt werden, an dem die Bewegtbildeingabeeinrichtung angeordnet ist, als auch an einem Ort, der an einem entfernten Ort, weg von der Bewegtbildeingabeeinrichtung ist.
  • Die Verwendung einer Sichtlinien-Eingabevorrichtung befreit den Bediener von einem aufwendigen Vorgang des Bewegens eines Bewegtbildbereichs.
  • Da viele offensichtlich stark unterschiedliche Ausführungsbeispiele der vorliegenden Erfindung ersonnen werden können, ohne vom Schutzbereich davon abzuweichen, ist es selbstverständlich, dass die Erfindung nicht auf die speziellen Ausführungsbeispiel davon beschränkt ist, sondern nur wie in den beigefügten Patentansprüchen definiert ist.

Claims (25)

1. Anzeigevorrichtung zur Steuerung einer zumindest schwenkbaren oder kippbaren Kamera, mit:
einer Anzeigeeinrichtung (22, 103) zum Anzeigen eines ersten Bereichs (42), welcher durch die Grenzen der Bewegung der Kamera definiert ist und welcher den derzeitigen Bildbereich der Kamera überschreitet, und eines zweiten Bereichs (44), welcher den derzeitigen Abbildungsbereich der Kamera an einer der derzeitigen Abbildungsrichtung der Kamera entsprechenden Position innerhalb des ersten Bereichs angibt.
2. Vorrichtung nach Anspruch 1, wobei die Kamera eine extern steuerbare Zoomfunktion hat, und wobei der zweite Bereich, welcher den derzeitigen Abbildungsbereich der Kamera innerhalb des ersten Bereichs angibt, im Betrieb der Vorrichtung eine dem derzeitigen Schwenk-, Kipp- und Zoom-Zustand der Kamera entsprechende Position und Größe hat.
3. Vorrichtung nach Anspruch 2, zudem mit:
einer Synthetisierungseinrichtung (102) zum wiederholten Veranlassen der Kamera zum Aufnehmen von Bildern während des Schwenkens und Kippens der Kamera und zum Synthetisieren von Bilddaten entsprechend einem maximalen Abbildungsgesichtsfeld der Kamera aus den aufgenommenen Bildern;
einer Eingabeeinrichtung zur Eingabe eines durch die Kamera derzeit aufgenommenen Bildes; und
wobei die Anzeigeeinrichtung angepasst ist, um das synthetisierte Bild in dem ersten Bereich anzuzeigen, und um das derzeitige Bild in dem zweiten Bereich anzuzeigen.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, zudem mit:
einer Betriebseinrichtung (102) zur Steuerung des auf der Anzeigeeinrichtung angezeigten zweiten Bereichs; und einer Kamerasteuereinrichtung (105), die zur Steuerung der Kamera gemäß der Position des zweiten Bereichs, wie durch die Betriebseinrichtung eingestellt, angepasst ist.
5. Vorrichtung nach Anspruch 4, mit:
einer ersten Spezifizierungseinrichtung (24, 107) zum Spezifizieren von Bewegungen des angezeigten zweiten Bereichs;
einer Anzeigeaktualisierungseinrichtung (32, 102) zur Aktualisierung der Anzeige des zweiten Bereichs gemäß den Bewegungen des angezeigten -zweiten Bereichs, wie durch die erste Spezifizierungseinrichtung spezifiziert;
wobei die Kamerasteuereinrichtung (32, 102) angepasst ist, um die Abbildungsrichtung der Kamera gemäß den Bewegungen des angezeigten zweiten Bereichs wie durch die erste Spezifizierungseinrichtung spezifiziert zu steuern.
6. Vorrichtung nach Ansprüchen 2 und 5, mit:
einer zweiten Spezifizierungseinrichtung (26, 107) zum Spezifizieren der Größe des angezeigten zweiten Bereichs, wobei die Anzeigeaktualisierungseinrichtung (32, 102) angepasst ist, um die Anzeige des zweiten Bereichs gemäß der Größe des angezeigten zweiten Bereichs wie durch die erste oder zweite Spezifizierungseinrichtung spezifiziert zu aktualisieren; und
wobei die Kamerasteuereinrichtung (32, 102) auch das Zoomverhältnis der Kamera gemäß der Bewegung und/oder Größe des angezeigten zweiten Bereichs wie durch die erste oder zweite Spezifizierungseinrichtung spezifiziert steuert.
7. Vorrichtung nach Anspruch 5 oder Anspruch 6, wobei die oder jede der Spezifizierungseinrichtungen eine Zeigeeinrichtung ist.
8. Vorrichtung nach Anspruch 7, wobei die Zeigeeinrichtung eine Maus ist.
9. Vorrichtung nach einem der Ansprüche 3 bis 8, wenn Anspruch 4 abhängig ist von Anspruch 3, zudem mit:
einer Anzeigeaktualisierungseinrichtung (32, 102) zur Aktualisierung, als ein Stehbild, eines Abschnitts des synthetisierten Stehbildes entsprechend dem zweiten Bereich, bevor der zweite Bereich bewegt wird, indem das in dem zweiten Bereich angezeigte derzeitige Bild verwendet wird, bevor die Abbildungsrichtung der Kamera und somit die Position des zweiten Bereichs verändert wird.
10. Vorrichtung nach Anspruch 9, wobei die Synthetisierungseinrichtung angepasst ist, um die Stehbilddaten periodisch zu synthetisieren und die Anzeigeaktualisierungseinrichtung angepasst ist, um das in dem ersten Bereich angezeigte Stehbild periodisch zu aktualisieren.
11. Vorrichtung nach einem der Ansprüche 7 oder 8, wobei die Kamerasteuereinrichtung angepasst ist, um die Anzeigeposition des zweiten Bereichs zu aktualisieren und das Schwenken und/oder Kippen der Kamera gemäß einem vorbestimmten Betrieb durch die Zeigeeinrichtung zu steuern, die im Betrieb von innerhalb eines Kamerabetriebsbereichs startet, der innerhalb oder in der Nähe in des zweiten Bereichs eingestellt ist.
12. Vorrichtung nach Anspruch 11, zudem mit:
einer Eingabeeinrichtung zum Eingeben eines durch die Kamera aufgenommenen derzeitigen Bildes; und
wobei die Anzeigeeinrichtung angepasst ist, um das durch die Eingabeeinrichtung eingegebene derzeitige Bild in dem zweiten Bereich anzuzeigen.
13. Vorrichtung nach einem der Ansprüche 9 bis 12, wobei die Anzeigeeinrichtung und zugeordnete Einrichtungen für die Anzeigeeinrichtung und die Eingabeeinrichtung über ein Kommunikationsnetzwerk verbunden sind.
14. Vorrichtung nach einem der Ansprüche 9 bis 13, wenn Anspruch 9 von einem der Ansprüche 4 bis 8 abhängig ist, mit zwei separaten Anzeigeeinrichtungen, wobei eine Anzeigeeinrichtung mit der anderen Anzeigeeinrichtung, der Kamera und der Kamerasteuereinrichtung über ein oder das Kommunikationsnetzwerk verbunden ist.
15. Vorrichtung nach Anspruch 14, mit zwei Spezifizierungseinrichtungen und einer Steuerungsvermittlerfunktion für die Spezifizierungseinrichtungen, wobei eine Spezifizierungseinrichtung an die Anzeigeeinrichtungen, die andere Spezifizierungeinrichtung, die Kamera und die Kamerasteuereinrichtung über das Kommunikationsnetzwerk angeschlossen ist.
16. Vorrichtung nach Anspruch 15, wobei die Spezifizierungseinrichtungen eine Sichtlinienerfassungsvorrichtung enthalten.
17. Vorrichtung nach einem der Ansprüche 9 bis 16, wenn Anspruch 9 abhängig ist von einem der Ansprüche 4 bis 8 und wenn Anspruch 4 abhängig ist von Anspruch 3, zudem mit:
einer Bewegungserfassungseinrichtung (110) zum Erfassen einer Bewegung eines Objektes in dem wie durch die Eingabeeinrichtung eingegebenen und in dem zweiten Bereich angezeigten Bild,
wobei die Kamerasteuereinrichtung angepasst ist, um den zweiten Bereich, in dem das derzeitige Bild angezeigt wird, beruhend auf Positionsinformationen des Objektes, wie durch die Bewegungserfasssungseinrichtung erfasst, zu bewegen, um die Abbildungsrichtung der Kamera zu steuern, so dass die Abbildungsrichtung der Kamera der Position des bewegten Objekts entspricht.
18. Vorrichtung nach Anspruch 17, wobei, wenn die Bewegungserfassungseinrichtung keine Bewegung eines Objekts erfasst, das Bild in dem ersten Bereich durch die Synthetisierungseinrichtung aktualisiert wird.
19. Verfahren zur Steuerung einer zumindest schwenkbaren oder kippbaren Kamera, wobei das Verfahren das Anzeigen eines ersten Bereichs, der durch die in Grenzen des Schwenkens und Kippens der Kamera definiert ist und der den derzeitigen Bildbereich der Kamera überschreitet, und das Anzeigen eines zweiten Bereichs, der den derzeitigen Abbildungsbereich der Kamera angibt, an einer Position innerhalb des ersten Bereichs, entsprechend der derzeitigen Bildpositionierung der Kamera, umfasst.
20. Verfahren nach Anspruch 19, wobei die Kamera gleichfalls zoomfähig ist und der zweite Bereich eine Position und eine Größe entsprechend den derzeitigen Schwenk-, Kipp- und Zoom-Zuständen der Kamera hat.
21. Verfahren nach Anspruch 20, einschließlich des Erfassens der Bewegung eines Objektes in dem zweiten Bereich und des Steuerns der Abbildungsrichtung der Kamera gemäß der erfassten Bewegung.
22. Verfahren nach einem der Ansprüche 19 bis 21, wobei das in dem ersten Bereich angezeigte Bild ein synthetisiertes Stehbild ist, das aus einer Kamerabewegung über den maximalen Bereich des Schwenkens und Kippens der Kamera erzeugt wurde.
23. Verfahren nach Anspruch 22, wobei, wenn der zweite Bereich gemäß einer Bewegung der Kamera bewegt wird, der den zweiten Bereich definierende Rahmen vor der Bewegung des zweiten Bereichs verwendet wird, um den durch die Bewegung des zweiten Bereichs zurückgelassenen Spalt auszufüllen.
24. Speichermedium, welches prozessorimplementierbare Anweisungen zur Steuerung eines Prozessors zum Ausführen des Verfahrens nach einem der Ansprüche 19 bis 22 speichert.
25. Elektrisches Signal, welches prozessorimplementierbare Anweisungen zur Steuerung eines Prozessors zum Ausführens des Verfahrens nach einem der Ansprüche 19 bis 22 trägt.
DE69520329T 1994-11-17 1995-11-16 Kamerasteuervorrichtung und -Verfahren Expired - Lifetime DE69520329T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6308230A JPH08149356A (ja) 1994-11-17 1994-11-17 動画表示装置
JP29252694 1994-11-28
JP08100095A JP3315554B2 (ja) 1994-11-28 1995-04-06 カメラ制御装置

Publications (2)

Publication Number Publication Date
DE69520329D1 DE69520329D1 (de) 2001-04-19
DE69520329T2 true DE69520329T2 (de) 2001-09-27

Family

ID=27303450

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69520329T Expired - Lifetime DE69520329T2 (de) 1994-11-17 1995-11-16 Kamerasteuervorrichtung und -Verfahren

Country Status (4)

Country Link
US (2) US6266085B1 (de)
EP (1) EP0713331B1 (de)
DE (1) DE69520329T2 (de)
HK (1) HK1012146A1 (de)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3745000B2 (ja) * 1995-02-03 2006-02-15 キヤノン株式会社 画像通信装置及びその制御方法
US6768563B1 (en) * 1995-02-24 2004-07-27 Canon Kabushiki Kaisha Image input system
JPH11506575A (ja) 1995-03-07 1999-06-08 インターバル リサーチ コーポレイション 情報の選択記憶システム及び方法
JP3534551B2 (ja) * 1996-09-20 2004-06-07 シャープ株式会社 動き検出装置
CN1055187C (zh) * 1996-10-07 2000-08-02 广播电影电视部广播科学研究院 视频节目制作参数的提取方法及其系统
JP3943674B2 (ja) * 1996-10-25 2007-07-11 キヤノン株式会社 カメラ制御システム並びにカメラサーバ及びその制御方法
US5893062A (en) 1996-12-05 1999-04-06 Interval Research Corporation Variable rate video playback with synchronized audio
US6263507B1 (en) 1996-12-05 2001-07-17 Interval Research Corporation Browser for use in navigating a body of information, with particular application to browsing information represented by audiovisual data
CN1053547C (zh) * 1997-01-10 2000-06-14 广播电影电视部广播科学研究院 用节目制作参数进行图象运动估计的装置及其方法
JP3869897B2 (ja) * 1997-01-28 2007-01-17 キヤノン株式会社 カメラ制御システムおよび映像受信装置および制御方法および記憶媒体
JP4332231B2 (ja) * 1997-04-21 2009-09-16 ソニー株式会社 撮像装置コントローラおよび撮像システム
US6624846B1 (en) * 1997-07-18 2003-09-23 Interval Research Corporation Visual user interface for use in controlling the interaction of a device with a spatial region
US6756974B2 (en) * 1997-09-24 2004-06-29 Canon Kabushiki Kaisha Display control apparatus and method
US6670991B1 (en) * 1997-09-26 2003-12-30 Canon Kabushiki Kaisha Image sensing system, control method, and recording medium for controlling a camera apparatus utilizing a client device connected thereto
WO1999035850A1 (en) * 1997-12-31 1999-07-15 Koninklijke Philips Electronics N.V. Multiple camera system
DE69931973T2 (de) * 1998-03-16 2007-02-01 Sanyo Electric Co., Ltd., Moriguchi Digitale Kamera mit Möglichkeit zur Bildbearbeitung
JPH11331822A (ja) * 1998-05-15 1999-11-30 Matsushita Electric Ind Co Ltd 監視カメラ装置
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6888565B1 (en) * 1999-08-31 2005-05-03 Canon Kabushiki Kaisha Apparatus and method for remote-controlling image sensing apparatus in image sensing system
US6992702B1 (en) * 1999-09-07 2006-01-31 Fuji Xerox Co., Ltd System for controlling video and motion picture cameras
US7155735B1 (en) 1999-10-08 2006-12-26 Vulcan Patents Llc System and method for the broadcast dissemination of time-ordered data
US6769131B1 (en) * 1999-11-18 2004-07-27 Canon Kabushiki Kaisha Image processing apparatus and method, image distribution system and storage medium
JP2001177741A (ja) * 1999-12-15 2001-06-29 Minolta Co Ltd 電子カメラおよび表示システム
US6757682B1 (en) 2000-01-28 2004-06-29 Interval Research Corporation Alerting users to items of current interest
US6850265B1 (en) * 2000-04-13 2005-02-01 Koninklijke Philips Electronics N.V. Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications
JP2001358980A (ja) * 2000-06-14 2001-12-26 Ricoh Co Ltd デジタルカメラ
JP2002112098A (ja) * 2000-10-03 2002-04-12 Olympus Optical Co Ltd 電子撮影装置
US6961082B2 (en) * 2000-11-16 2005-11-01 Fujitsu Limited Image display control system reducing image transmission delay
US7034791B1 (en) * 2000-12-14 2006-04-25 Gary Odom Digital video display employing minimal visual conveyance
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
US7358985B2 (en) * 2001-02-16 2008-04-15 Fuji Xerox Co., Ltd. Systems and methods for computer-assisted meeting capture
US20020171742A1 (en) * 2001-03-30 2002-11-21 Wataru Ito Method and apparatus for controlling a view field of an image picking-up apparatus and computer program therefor
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
WO2002101534A1 (en) 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
AUPR667801A0 (en) * 2001-07-27 2001-08-23 Honeywell Limited A control system for allowing an operator to proportionally control a work piece
JP3726733B2 (ja) * 2001-10-16 2005-12-14 コニカミノルタフォトイメージング株式会社 撮影システム
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
CA2386560A1 (en) * 2002-05-15 2003-11-15 Idelix Software Inc. Controlling optical hardware and dynamic data viewing systems with detail-in-context viewing tools
JP3925299B2 (ja) * 2002-05-15 2007-06-06 ソニー株式会社 モニタリングシステムおよび方法
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
JP3979894B2 (ja) * 2002-07-22 2007-09-19 本田技研工業株式会社 物体検出装置及び方法
US6839067B2 (en) * 2002-07-26 2005-01-04 Fuji Xerox Co., Ltd. Capturing and producing shared multi-resolution video
US7697025B2 (en) * 2002-08-28 2010-04-13 Sony Corporation Camera surveillance system and method for displaying multiple zoom levels of an image on different portions of a display
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
US7454707B2 (en) * 2002-09-30 2008-11-18 Canon Kabushiki Kaisha Image editing method, image editing apparatus, program for implementing image editing method, and recording medium recording program
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
US7006764B2 (en) * 2002-11-12 2006-02-28 Eastman Kodak Company User interface for controlling cropping in electronic camera
US7561793B2 (en) * 2002-11-12 2009-07-14 Eastman Kodak Company User interface for controlling cropping in electronic camera
US6907194B2 (en) 2002-11-12 2005-06-14 Eastman Kodak Company Camera having continuously cropping viewfinder
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
JP2004272217A (ja) * 2003-02-18 2004-09-30 Canon Inc 地図画像表示制御方法およびそのプログラムおよびそのプログラムを記憶する記憶媒体および電子機器
JP3711119B2 (ja) * 2003-03-31 2005-10-26 株式会社東芝 撮像装置、撮像システム及び撮像方法
TWI228378B (en) * 2003-06-19 2005-02-21 Primax Electronics Ltd Auxiliary method and device for finding view
US8126155B2 (en) * 2003-07-02 2012-02-28 Fuji Xerox Co., Ltd. Remote audio device management system
US7995090B2 (en) * 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
KR101017362B1 (ko) * 2004-01-08 2011-02-28 삼성전자주식회사 다이나믹 영상 재생을 위한 자동 줌 장치 및 방법
KR100617702B1 (ko) * 2004-01-13 2006-08-28 삼성전자주식회사 이미지 편집이 가능한 휴대용 단말기 및 이를 이용한이미지 편집 방법
US20050204524A1 (en) * 2004-03-18 2005-09-22 Morris Wayne B Memorial carrier
US8659619B2 (en) 2004-03-26 2014-02-25 Intellectual Ventures Fund 83 Llc Display device and method for determining an area of importance in an original image
US20050243165A1 (en) * 2004-04-07 2005-11-03 Endler Sean C Methods and apparatuses for mapping locations
US20050228716A1 (en) * 2004-04-07 2005-10-13 Endler Sean C Methods and apparatuses for displaying promotions
US7600201B2 (en) * 2004-04-07 2009-10-06 Sony Corporation Methods and apparatuses for viewing choices and making selections
US20050234905A1 (en) * 2004-04-07 2005-10-20 Endler Sean C Methods and apparatuses for capturing and storing content related to an event
US20050228866A1 (en) * 2004-04-07 2005-10-13 Endler Sean C Methods and apparatuses for posting messages to participants of an event
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
JP4583258B2 (ja) * 2004-07-12 2010-11-17 パナソニック株式会社 カメラ制御装置
US8004574B2 (en) * 2004-07-21 2011-08-23 Nokia Corporation Portable electronic devices with picture in picture capability
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
JP4632417B2 (ja) * 2004-10-26 2011-02-16 キヤノン株式会社 撮像装置、及びその制御方法
US7804981B2 (en) * 2005-01-13 2010-09-28 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
US8384825B2 (en) * 2005-09-15 2013-02-26 Sharp Kabushiki Kaisha Video image transfer device and display system including the device
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
JP5030261B2 (ja) * 2005-11-16 2012-09-19 キヤノン株式会社 映像配信装置、ビューワ装置、映像配信装置の制御方法、ビューワ装置の制御方法およびコンピュータプログラム
JP5044237B2 (ja) * 2006-03-27 2012-10-10 富士フイルム株式会社 画像記録装置、画像記録方法、および画像記録プログラム
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
DE102006048006A1 (de) * 2006-10-09 2008-04-10 Funkwerk Plettac Electronic Gmbh Verfahren und Vorrichtung zur Steuerung einer schwenkbaren Kamera
JP4776503B2 (ja) * 2006-11-13 2011-09-21 富士フイルム株式会社 リモコン雲台システム
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
JP5062478B2 (ja) * 2007-11-28 2012-10-31 ソニー株式会社 撮像装置および方法、情報処理装置および方法、並びにプログラム
JP4715909B2 (ja) * 2008-12-04 2011-07-06 ソニー株式会社 画像処理装置及び方法、画像処理システム、並びに、画像処理プログラム
JP2010147925A (ja) * 2008-12-19 2010-07-01 Sanyo Electric Co Ltd 撮像装置
JP5253265B2 (ja) * 2009-03-27 2013-07-31 オリンパスイメージング株式会社 画像再生装置及び画像表示制御方法
KR101634355B1 (ko) * 2009-09-18 2016-06-28 삼성전자주식회사 동작 검출 장치 및 방법
JP5054747B2 (ja) * 2009-10-06 2012-10-24 シャープ株式会社 画像表示システム
US8692884B2 (en) * 2010-09-17 2014-04-08 Gish Technology, Inc. Apparatus and method for assessing visual acuity
JP5406813B2 (ja) * 2010-10-05 2014-02-05 株式会社ソニー・コンピュータエンタテインメント パノラマ画像表示装置およびパノラマ画像表示方法
JP5791256B2 (ja) 2010-10-21 2015-10-07 キヤノン株式会社 表示制御装置、表示制御方法
WO2013085513A1 (en) * 2011-12-07 2013-06-13 Intel Corporation Graphics rendering technique for autostereoscopic three dimensional display
EP2672694B1 (de) 2012-06-05 2014-01-15 Axis AB Verbesserte Steuerung einer Bildaufnahmevorrichtung
US8531518B1 (en) * 2012-08-28 2013-09-10 Google Inc. System and method for capturing videos with a mobile device
CN104184985B (zh) * 2013-05-27 2018-05-29 华为技术有限公司 图像获取的方法及装置
WO2015005163A1 (ja) * 2013-07-12 2015-01-15 三菱電機株式会社 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
CN106716985B (zh) * 2014-09-08 2019-07-30 富士胶片株式会社 摄像控制装置、摄像控制方法、及相机系统
US9805662B2 (en) * 2015-03-23 2017-10-31 Intel Corporation Content adaptive backlight power saving technology
US10887653B2 (en) 2016-09-26 2021-01-05 Cyberlink Corp. Systems and methods for performing distributed playback of 360-degree video in a plurality of viewing windows
WO2018127280A1 (en) * 2017-01-04 2018-07-12 Telefonaktiebolaget Lm Ericsson (Publ) Control of a camera arrangement
CN108513077B (zh) * 2018-05-28 2021-01-01 安徽文香信息技术有限公司 一种通过鼠标控制摄像头位置居中的方法
JP2021144121A (ja) * 2020-03-11 2021-09-24 キヤノン株式会社 表示制御装置およびその制御方法、プログラム、並びに記憶媒体

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3933926C1 (de) * 1989-10-11 1991-02-21 Messerschmitt-Boelkow-Blohm Gmbh, 8012 Ottobrunn, De
GB2259211B (en) * 1990-04-07 1994-04-27 Marconi Gec Ltd Thermal imaging system
US5471296A (en) * 1990-05-31 1995-11-28 Parkervision, Inc. Camera lens control system and method
JP3021556B2 (ja) * 1990-06-20 2000-03-15 ソニー株式会社 映像情報処理装置とその方法
GB2249897B (en) * 1990-12-10 1994-10-19 Hughes Aircraft Co Imaging system for providing multiple simultaneous real time images
US5185667A (en) * 1991-05-13 1993-02-09 Telerobotics International, Inc. Omniview motionless camera orientation system
US5479206A (en) * 1992-02-04 1995-12-26 Fuji Photo Film Co., Ltd. Imaging system, electronic camera, computer system for controlling said electronic camera, and methods of controlling same
US5396287A (en) * 1992-02-25 1995-03-07 Fuji Photo Optical Co., Ltd. TV camera work control apparatus using tripod head
JP3050348B2 (ja) * 1992-04-17 2000-06-12 インターナショナル・ビジネス・マシーンズ・コーポレイション プロセス制御システムにおけるユーザ制御のための方法と装置
FR2693868B1 (fr) * 1992-07-15 1994-10-14 Hymatom Sa Dispositif de vidéo surveillance pour caméras à champs et signaux combinés.
US5757418A (en) * 1992-07-31 1998-05-26 Canon Kabushiki Kaisha Television conference system and method therefor
US5742329A (en) * 1992-10-26 1998-04-21 Canon Kabushiki Kaisha Image pickup system and communication system for use in video conference system or the like
GB2273410B (en) * 1992-12-10 1997-04-30 British Broadcasting Corp Higher definition video signals from lower definition sources
DE69324781T2 (de) * 1992-12-21 1999-12-09 International Business Machines Corp., Armonk Computerbedienung einer Videokamera
KR940017747A (ko) * 1992-12-29 1994-07-27 에프. 제이. 스미트 영상 처리 디바이스
WO1994017636A1 (en) * 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
GB2281468A (en) * 1993-08-12 1995-03-01 Israel State Apparatus for enlarging the field of view of observation systems
WO1995011566A1 (en) * 1993-10-20 1995-04-27 Videoconferencing Systems, Inc. Adaptive videoconferencing system

Also Published As

Publication number Publication date
US6452628B2 (en) 2002-09-17
HK1012146A1 (en) 1999-07-23
US20010040636A1 (en) 2001-11-15
EP0713331A1 (de) 1996-05-22
EP0713331B1 (de) 2001-03-14
US6266085B1 (en) 2001-07-24
DE69520329D1 (de) 2001-04-19

Similar Documents

Publication Publication Date Title
DE69520329T2 (de) Kamerasteuervorrichtung und -Verfahren
DE69629144T2 (de) Verfahren und Vorrichtung zur Kamerakontrolle
DE69827312T2 (de) Kamerakontrollsystem
DE112005000929B4 (de) Automatisches Abbildungsverfahren und Vorrichtung
DE69624603T2 (de) System für Bildeinspeisung
DE69835185T2 (de) Kamerasteuersystem
DE69232663T2 (de) Rundumsichtausrichtungssystem mit bewegungsloser kamera
DE112013000762T5 (de) Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
DE69506856T2 (de) Verbessertes chromakey-system
DE69708871T2 (de) Bildanzeigesysteme
DE69221346T2 (de) Vorrichtung und Verfahren zur Erstellung stereoskopischer Bilder
DE69930986T2 (de) Hochauflösende Kamera
DE60123534T2 (de) Gerät zum Verfolgen eines sich bewegenden Objekts
DE69820112T2 (de) Verbessertes bilderfassungssystem mit virtueller kamera
DE60305274T2 (de) Bewegungsschätzungsvorrichtung, Verfahren und maschinenlesbares Speichermedium geeignet zur Erkennung von Verschiebungen von Text und grafischen Daten
DE102011056970A1 (de) Rasterausgabe von rotierten, interpolierten Pixeln, die für digitale Bildstabilisierung optimiert ist
DE60320169T2 (de) Überwachungssystem und Verfahren sowie zugehöriges Programm- und Aufzeichnungsmedium
DE69021948T2 (de) Bildverarbeitungssystem.
DE102005018773A1 (de) Vorrichtung zur Sicht der Umgebung eines Fahrzeugs
DE112016002043T5 (de) Durchlaufanzeige von erfassten bildern
DE102007037310A1 (de) Netzwerkkamera und Steuerungsverfahren hierfür
DE102015102276B4 (de) Anzeigesteuerungsvorrichtung und anzeigeverfahren
DE112010005737B4 (de) Bildsynthesevorrichtung
DE102006001903A1 (de) Verfahren und Gerät für das Anpassen von Ausgabebildern
DE69324781T2 (de) Computerbedienung einer Videokamera

Legal Events

Date Code Title Description
8364 No opposition during term of opposition