DE102016119071A1 - image capture - Google Patents

image capture Download PDF

Info

Publication number
DE102016119071A1
DE102016119071A1 DE102016119071.3A DE102016119071A DE102016119071A1 DE 102016119071 A1 DE102016119071 A1 DE 102016119071A1 DE 102016119071 A DE102016119071 A DE 102016119071A DE 102016119071 A1 DE102016119071 A1 DE 102016119071A1
Authority
DE
Germany
Prior art keywords
image
display
point
cursor
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016119071.3A
Other languages
German (de)
Inventor
Markus Beermann
Steffen Kamp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PIXOLUS GMBH, DE
Original Assignee
Pixolus GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixolus GmbH filed Critical Pixolus GmbH
Priority to DE102016119071.3A priority Critical patent/DE102016119071A1/en
Publication of DE102016119071A1 publication Critical patent/DE102016119071A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes

Abstract

Die Erfindung betrifft ein Verfahren zur Bilderfassung, ein System zur Bilderfassung sowie ein Computerprogrammprodukt ausführbar auf wenigstens einem Prozessor, das auf einem Datenverarbeitungsgerät abläuft und zumindest einige Schritte des Verfahrens durchführt.The invention relates to a method for image acquisition, a system for image acquisition and a computer program product executable on at least one processor that runs on a data processing device and performs at least some steps of the method.

Description

Die Erfindung betrifft ein Verfahren zur Bilderfassung, ein System zur Bilderfassung sowie ein Computerprogrammprodukt ausführbar auf wenigstens einem Prozessor, welches auf einem Datenverarbeitungsgerät abläuft und zumindest einige Schritte des Verfahrens durchführt.The invention relates to a method for image acquisition, a system for image acquisition and a computer program product executable on at least one processor, which runs on a data processing device and performs at least some steps of the method.

Es gibt bereits Technologien, bei denen Bilder mit Bilderfassungsgeräten erfasst und dann auf einem Bildschirm Bildbereiche markiert und weiterverarbeitet werden können. Diese bisherigen Technologien haben den Nachteil, dass nur solche Bildbereiche markiert werden können, die zu einem bestimmten Zeitpunkt vollständig auf dem Bildschirm Platz finden. Dabei werden die markierten Bereiche während des Markierens vom Finger oder Stylus unter Umständen verdeckt.There are already technologies in which images can be captured with image acquisition devices and then marked on a screen image areas and processed further. These previous technologies have the disadvantage that only those image areas can be marked, which can be found completely on the screen at a certain time. The marked areas may be obscured during marking by the finger or stylus.

Es gibt auch Algorithmen für die Lösung des so genannten „Visual Simultaneous Localization and Mapping (vSLAM)“ – Problem, bei dem mit einem Bilderfassungsgerät dreidimensionale Koordinaten erfasst werden. Bei dieser Technologie werden anhand der Bilder einer bewegten Kamera sowohl die aktuelle Position der Kamera anhand der sichtbaren 3D-Welt geschätzt, als auch die sichtbare 3D-Welt anhand des Bildes an der aktuellen Position rekonstruiert.There are also algorithms for the solution of the so-called "Visual Simultaneous Localization and Mapping (vSLAM)" problem, in which three-dimensional coordinates are detected with an image acquisition device. This technology uses the images of a moving camera to both estimate the current position of the camera against the visible 3D world and to reconstruct the visible 3D world from the current position of the image.

WO 97/48037 A1 beschreibt eine grafische Benutzeroberfläche. WO 97/48037 A1 describes a graphical user interface.

US 2010/0031041 A1 beschreibt ein System zur Erfassung von Text, wobei immer nur ein Textabschnitt erfasst werden kann, der zu einem bestimmten Zeitpunkt vollständig in einer Anzeige angezeigt werden kann. US 2010/0031041 A1 describes a system for capturing text, whereby only one section of text can always be detected, which can be displayed completely in a display at a certain point in time.

US 2011/0285810 A1 beschreibt ein Verfahren zur Erfassung von einem Bildpanorama. US 2011/0285810 A1 describes a method for capturing a picture panorama.

Die Aufgabe der vorliegenden Erfindung besteht deshalb darin, eine Technologie bereitzustellen, mit der man Bildausschnitte aus einem Kamerabild, die größer als die halbe Anzeige oder auch größer als die Anzeige sind, einfach und präzise auswählen und weiterverarbeiten kann.The object of the present invention is therefore to provide a technology with which one can easily and precisely select and process image sections from a camera image that are larger than half the display or even larger than the display.

Die der Erfindung zugrunde liegende Aufgabe wird in einer ersten Ausführungsform gelöst durch ein Verfahren zur Bilderfassung zur Ausführung auf einem System zur Bilderfassung, umfassend wenigstens ein Bilderfassungsgerät, eine Anzeige und ein Datenverarbeitungsgerät, umfassend folgende Schritte:

  • a. das Bilderfassungsgerät erfasst eine kontinuierliche Folge von Bildern, die auf der Anzeige dargestellt werden,
  • b. durch Betätigung eines Bedienelements wird ein erster Punkt auf einem ersten Bild markiert,
  • c. der Aufnahmebereich des Bilderfassungsgeräts wird verändert,
  • d. durch Betätigung eines Bedienelements wird ein zweiter Punkt auf einem zweiten Bild markiert, und
  • e. das Datenverarbeitungsgerät errechnet wenigstens aus dem ersten Punkt und dem zweiten Punkt einen Bildbereich.
The object underlying the invention is achieved in a first embodiment by a method for image acquisition for execution on a system for image acquisition, comprising at least one image capture device, a display and a data processing device, comprising the following steps:
  • a. the image capture device captures a continuous sequence of images displayed on the display,
  • b. by actuating a control element, a first point is marked on a first image,
  • c. the recording area of the image acquisition device is changed,
  • d. by pressing a control element, a second point is marked on a second image, and
  • e. the data processing device calculates an image area at least from the first point and the second point.

Mit dem erfindungsgemäßen Verfahren können sehr einfach Bildbereiche selektiert und gegebenenfalls weiterverarbeitet werden. Diese Bildbereiche können beispielsweise größer als die Anzeige sein. Beispielsweise können so Benutzer von Smartphones Bilder aufzeichnen, die wesentlich höher aufgelöst sind als es die Auflösung der Kamera zulassen würde und können auch mit Bilder einem größeren Erfassungsbereich als dem der Kamera aufzeichnen. Gleichzeitig ist der Benutzer nicht darauf beschränkt, Bilder nur in einer (meist horizontalen) Richtung zu erweitern, wie es beispielsweise aus den Panoramafunktionen von Smartphones bekannt ist. Ein weiterer Vorteil der Erfindung besteht darin, dass der Bildbereich während der Selektion nicht verdeckt wird (wie beispielsweise mit Stiften oder Fingern im Stand der Technik). Zudem ist mit dem erfindungsgemäßen Verfahren die Geometrie der Auswahl frei definierbar – die Höhe und Breite ist frei wählbar und man kann auch Freiformen selektieren. Mit dem erfindungsgemäßen Verfahren kann erstmals in einem einzigen Arbeitsschritt (beispielsweise Berühren und Loslassen eines Touchscreens zum Auswählen des Bildbereichs) ein Bildbereich definiert werden, um ein Bild zu erzeugen, welches dann anschließend automatisiert auch annotiert (beispielsweise ein Pfeil von rechts oben nach links unten) und beispielsweise in sozialen Medien verschickt werden kann.With the method according to the invention, image areas can be selected very easily and optionally further processed. For example, these image areas may be larger than the display. For example, users of smartphones can record images that are much higher resolution than the resolution of the camera would allow and can also record images with a larger coverage than that of the camera. At the same time, the user is not limited to expanding images only in a (mostly horizontal) direction, as is known for example from the panoramic functions of smartphones. Another advantage of the invention is that the image area is not obscured during selection (such as with pins or fingers in the prior art). In addition, the geometry of the selection is freely definable with the method according to the invention - the height and width are freely selectable and you can also select freeforms. With the method according to the invention, for the first time in a single work step (for example touching and releasing a touch screen for selecting the image area), an image area can be defined in order to generate an image which then automatically also annotates (for example an arrow from top right to bottom left). and can be sent, for example, on social media.

Bilderfassungsgerät und DatenverarbeitungsgerätImage capture device and data processing device

Das Bilderfassungsgerät kann vorzugsweise eine Kamera sein. Alternativ bevorzugt kann das Bilderfassungsgerät aber auch ein Endoskop (beispielsweise für medizinische Anwendungen) sein. Die Kamera kann vorzugsweise in das Datenverarbeitungsgerät (beispielsweise Smartphone oder Brille) integriert sein.The image capture device may preferably be a camera. Alternatively, however, the image acquisition device may also be an endoscope (for example for medical applications). The camera may preferably be integrated in the data processing device (for example smartphone or glasses).

Das Datenverarbeitungsgerät umfasst vorzugsweise wenigstens einen Prozessor, Arbeitsspeicher, wenigstens ein Speichermedium und Schnittstellen, um beispielsweise mit der Anzeige und dem Bilderfassungsgerät zu kommunizieren. The data processing device preferably comprises at least one processor, main memory, at least one storage medium and interfaces for communicating with the display and the image acquisition device, for example.

Das Speichermedium des Datenverarbeitungsgeräts ist typischerweise ein nichtflüchtiger Speicher, wie beispielsweise ein Flashspeicher oder eine Festplatte. Der Flashspeicher kann ein im Datenverarbeitungsgerät integrierter Halbleiterspeicher sein. Er kann alternativ oder zusätzlich ein externer Speicher sein, der durch eine in das Datenverarbeitungsgerät einsteckbare digitale Speicherkarte realisiert ist, wie beispielsweise durch eine SD Memory Card für "Secure Digital Memory Card". The storage medium of the data processing device is typically a non-volatile memory, such as a flash memory or a hard disk. The flash memory may be a semiconductor memory integrated in the data processing device. It may alternatively or additionally be an external memory, which is realized by a pluggable into the data processing device digital memory card, such as by an SD memory card for "Secure Digital Memory Card".

Typischerweise verfügen derartige Datenverarbeitungsgeräte über einen Arbeitsspeicher (RAM), in dem zumindest Teile von Computerprogrammen, Betriebssystemroutinen, Applikationen sowie Bilder, Videos, Musikdaten und andere Daten durch den Prozessor aus dem Speichermedium geladen und ausgeführt oder verarbeitet werden. Der Arbeitsspeicher kann nichtflüchtig oder flüchtig ausgeführt sein.Typically, such computing devices have a random access memory (RAM) in which at least portions of computer programs, operating system routines, applications, as well as images, videos, music data, and other data are loaded and executed or processed by the processor from the storage medium. The working memory can be non-volatile or volatile.

Vorzugsweise wird das Verfahren mit Hilfe einer Applikation auf dem Datenverarbeitungsgerät ausgeführt. Eine Applikation – im Jargon auch kurz als "App" bezeichnet – ist ein Computerprogramm, also eine Software, die durch den Prozessor im Datenverarbeitungsgerät ausgeführt werden kann. Es weist zudem Programmschritte auf, um über den Prozessor auf andere Apps, das Betriebssystem oder auf Peripheriegeräte des Datenverarbeitungsgeräts datentechnisch zugreifen zu können.The method is preferably carried out with the aid of an application on the data processing device. An application - also referred to in short as an "app" - is a computer program, ie software that can be executed by the processor in the data processing device. It also has program steps in order to be able to access data from the processor on other apps, the operating system or on peripherals of the data processing device.

Zentrale Einheit des Datenverarbeitungsgeräts ist vorzugsweise wenigstens ein Prozessor, wie beispielsweise ein A5-Prozessor der Fa. ARM. Er ist vorzugsweise datentechnisch und/oder signaltechnisch mit dem Bilderfassungsgerät (beispielsweise Kamera oder Endoskop), mit einer Ausgabeeinheit (Monitor) oder kombinierten Ein-/Ausgabeeinheit (beispielsweise Touchscreen) und mit dem Speichermedium (beispielsweise Flashspeicher) verbunden.Central unit of the data processing device is preferably at least one processor, such as an A5 processor from the company ARM. It is preferably in terms of data technology and / or signaling with the image acquisition device (for example camera or endoscope), with an output unit (monitor) or combined input / output unit (for example touchscreen) and connected to the storage medium (for example flash memory).

Das Datenverarbeitungsgerät kann beispielsweise ein Computer, und vorzugsweise ein Desktop-PC, ein Laptop, eine Brille oder ein Smartphone sein.The data processing device may be, for example, a computer, and preferably a desktop PC, a laptop, a pair of glasses or a smartphone.

Vorzugsweise ist die Anzeige in das Datenverarbeitungsgerät und/oder das Bilderfassungsgerät integriert.Preferably, the display is integrated in the data processing device and / or the image acquisition device.

Das Bilderfassungsgerät kann vorzugsweise in einem Gerät mit der Anzeige und dem Datenverarbeitungsgerät integriert sein. Beispielsweise kann es sich bevorzugt um ein Smartphone oder eine Brille handeln, in denen alle drei Komponenten in einem Gerät integriert sind.The image capture device may preferably be integrated in a device with the display and the data processing device. For example, it can preferably be a smartphone or a pair of glasses in which all three components are integrated in one device.

Alternativ können die Komponenten vorzugsweise auch getrennt voneinander realisiert sein. So kann – beispielsweise bei einem Endoskop – das Bilderfassungsgerät von der Anzeige und dem Datenverarbeitungsgerät getrennt sein.Alternatively, the components can preferably also be realized separately from one another. For example, in an endoscope, the image capture device may be separate from the display and the computing device.

Bedienelementoperating element

Das Bedienelement in Schritt b. und das Bedienelement in Schritt d. kann beispielsweise identisch oder verschieden sein. Das Bedienelement kann vorzugsweise ein Touchscreen (beispielsweise berührungsempfindliche Anzeige) oder ein Knopf sein. Das Bedienelement kann vorzugsweise auch nur ein Teil oder eine bestimmte Stelle des Touchscreens sein. Diese Stelle kann beispielsweise auf der Anzeige gekennzeichnet sein. Vorzugsweise ist das Bedienelement in Schritt b. und das Bedienelement in Schritt d. identisch und besonders bevorzugt ein Touchscreen. Ein Vorteil eines Touchscreens ist, dass das erfindungsgemäße Verfahren mit Gesten zur Steuerung des Datenverarbeitungsgeräts kombiniert werden kann.The control in step b. and the operating element in step d. may be identical or different, for example. The operating element may preferably be a touchscreen (for example touch-sensitive display) or a button. The operating element may preferably also be only a part or a specific location of the touchscreen. This location may be marked on the display, for example. Preferably, the operating element in step b. and the operating element in step d. identical and more preferably a touch screen. An advantage of a touch screen is that the method according to the invention can be combined with gestures for controlling the data processing device.

Die Betätigung des Bedienelements in Schritt b. kann vorzugsweise ein Aktivieren (z.B. Drücken des Touchscreens oder Knopfs) und/oder die Betätigung des Bedienelements in Schritt d. ein Deaktivieren (z.B. Loslassen des Touchscreens oder Knopfs) sein. The operation of the operating element in step b. For example, it may be preferable to activate (e.g., press the touch screen or button) and / or operate the control in step d. deactivating (e.g., releasing the touchscreen or button).

Handelt es sich bei dem Bedienelement um einen Touchscreen, so kann dieser vorzugsweise identisch mit der Anzeige sein. Die Anzeige kann also vorzugsweise der Touchscreen und damit gleichzeitig das Bedienelement sein.If the operating element is a touchscreen, it may preferably be identical to the display. The display can therefore preferably be the touch screen and thus at the same time the operating element.

Vorzugsweise wird ein Bedienelement zwischen den Schritten b. und d. wenigstens einmal, ganz besonders bevorzugt wenigstens zehnmal bedient, um weitere Punkte als Zwischenpunkte zu markieren. Beispielsweise können die Konturen eines zu erfassenden Bildbereiches nachgezeichnet werden, um einen Bildbereich mit einer komplexen Geometrie zu erfassen. Vorzugsweise kann das Bedienelement nach Schritt b. auch gedrückt gehalten werden, so dass bis zum Loslassen in Schritt d. kontinuierlich Bildpunkte als Zwischenpunkte markiert werden können (Lasso-Effekt, Lasso-Werkzeug).Preferably, an operating element between the steps b. and d. at least once, most preferably at least ten times served to mark additional points as intermediate points. For example, the contours of an image area to be acquired can be traced in order to capture an image area with a complex geometry. Preferably, the control element after step b. also be held down, so that until you release in step d. continuously pixels can be marked as intermediate points (Lasso effect, Lasso tool).

Vorzugsweise werden wenigstens der erste Punkt und/oder die erfassten Zwischenpunkte auf der Anzeige (bevorzugt farblich hervorgehoben) dargestellt. Dabei können vorzugsweise auch gleich aus diesen Punkten Formen errechnet und auf der Anzeige dargestellt werden. Diese Formen können beispielsweise Rechtecke, Verbindungslinien zwischen den Punkten, Bezierkurven und vieles mehr sein.Preferably, at least the first point and / or the detected intermediate points are displayed on the display (preferably in color). In this case, it is also possible to calculate shapes directly from these points and to display them on the display. These shapes can be, for example, rectangles, connecting lines between the points, Bezier curves and much more.

Die Positionen des ersten Punktes, des zweiten Punktes und/oder der Zwischenpunkte werden vorzugsweise gespeichert. The positions of the first point, the second point and / or the intermediate points are preferably stored.

Die Positionen des ersten Punktes, des zweiten Punktes und/oder der Zwischenpunkte werden vorzugsweise auf dem angezeigten Bild auf der Anzeige kenntlich gemacht. Die Positionen von Punkten werden vorzugsweise in Bezug auf das Gesamtbild oder vorläufige Gesamtbild definiert.The positions of the first point, the second point and / or the intermediate points are preferably indicated on the displayed image on the display. The positions of dots are preferably defined in relation to the overall picture or preliminary overall picture.

Vorzugsweise wird ein Gesamtbild aus einzelnen Bildern der Bildfolge vor Schritt b. und/oder nach Schritt b. errechnet. Vor Schritt b. und/oder nach Schritt b. kann auch ein vorläufiges Gesamtbild errechnet werden. Weiter unten in dieser Anmeldung werden das Gesamtbild und das vorläufige Gesamtbild näher erläutert.Preferably, an overall image of individual images of the image sequence before step b. and / or after step b. calculated. Before step b. and / or after step b. can also be calculated a preliminary overall picture. Below in this application, the overall picture and the preliminary overall picture are explained in detail.

Werden auf den Bildern Bildstörungen (beispielsweise Reflexionen) erkannt, können diese Bildstörungen vorzugsweise dadurch aus dem resultierenden (vorläufigen) Gesamtbild entfernt werden, dass Bilder, die dieselbe Region des Gesamtbildes erfasst haben und die diese Bildstörung nicht aufweisen, zur Erstellung des (vorläufigen) Gesamtbildes hinzugezogen werden. If image disturbances (for example reflections) are detected in the images, these image disturbances can preferably be removed from the resulting (provisional) overall image so that images which have acquired the same region of the overall image and do not have this image disturbance produce the (preliminary) overall image be involved.

Die Positionen des ersten Punktes, des zweiten Punktes und/oder der Zwischenpunkte werden vorzugsweise in das Gesamtbild und/oder vorläufige Gesamtbild transformiert und besonders bevorzugt mit dem Gesamtbild und/oder vorläufigen Gesamtbild abgespeichert.The positions of the first point, the second point and / or the intermediate points are preferably transformed into the overall image and / or provisional overall image, and particularly preferably stored with the overall image and / or provisional overall image.

Bilderfassungimage capture

Kontinuierlich im Sinne der Erfindung heißt vorzugsweise, dass die Bilder der Bildfolge in zeitlicher Abfolge zueinander vom Bilderfassungsgerät erfasst werden.Continuous within the meaning of the invention preferably means that the images of the image sequence are recorded in temporal sequence relative to one another by the image acquisition device.

In Schritt a. kann beispielsweise auch nur ein Ausschnitt, eine Ausschnittsvergrößerung oder ein vorläufig aus den Bildern errechnetes Gesamtbild der in der Bildfolge erfassten Bilder auf der Anzeige dargestellt werden. Zusätzlich dazu können auf der Anzeige weitere Bildelemente wie Cursor, Bedienelemente, Pictogramme, Menüs und weitere Elemente dargestellt werden.In step a. For example, only a section, an enlargement of an enlargement or an overall picture of the pictures captured in the picture sequence can be displayed on the display. In addition to this, further picture elements such as cursors, operating elements, pictograms, menus and other elements can be displayed on the display.

In Schritt a. kann vorzugsweise auch wenigstens ein Objekt bereits erkannt werden (siehe unten). Abhängig vom Typ des Objekts (beispielsweise Buchstaben) kann vorzugsweise wenigstens ein weiterer Schritt (beispielsweise Texterkennung) durchgeführt oder dem Benutzer in einem kontextsensitiven Menü angeboten werden. Wird das wenigstens eine Objekt erkannt, so kann das Ergebnis dieser Erkennung (beispielsweise Worte erkannt) auf der Anzeige unmittelbar angezeigt werden (beispielsweise Unterstreichung der Worte). Wird der weitere Schritt durchgeführt (beispielsweise Texterkennung), kann vorzugsweise das Ergebnis dieses Schrittes auf der Anzeige angezeigt werden.In step a. Preferably, at least one object can also already be recognized (see below). Depending on the type of object (for example letters), at least one further step (for example text recognition) may preferably be performed or offered to the user in a context-sensitive menu. If the at least one object is detected, then the result of this recognition (for example, words detected) can be displayed directly on the display (for example, underlining of the words). If the further step is carried out (for example text recognition), the result of this step can preferably be displayed on the display.

Vorzugsweise ist in Schritt b. und/oder Schritt d. der erste und/oder zweite Punkt derjenige Punkt im ersten und/oder zweiten Bild, der unter einem auf der Anzeige markierten Cursor zum Zeitpunkt der Bedienung des jeweiligen Bedienelements angeordnet ist.Preferably, in step b. and / or step d. the first and / or second point of the point in the first and / or second image, which is arranged under a cursor marked on the display at the time of operation of the respective operating element.

Vorzugsweise wird in Schritt b. der Touchscreen gedrückt, bis er in Schritt d. wieder losgelassen wird. Dabei wird vorzugsweise der Cursor auf der Anzeige dargestellt. Besonders bevorzugt wird der Cursor dazu auch schon vor Schritt b. auf der Anzeige angezeigt. So kann ein Punkt markiert werden, ohne dass der Punkt mit dem Finger oder Stylus verdeckt wird. Die (geeignete) Position des Cursors kann vorzugsweise vom Datenverarbeitungsgerät berechnet werden. Die Position oder Form des Cursors kann auch durch im Bild erkannte Objekte beeinflusst werden (siehe unten Abschnitt Objekterkennung, Beispiel: Cursorhöhe passt sich an eine erkannte Worthöhe an oder Cursor springt an Position eines erkannten nächstgelegenen Wortes).Preferably, in step b. Press the touchscreen until it is in step d. is released again. The cursor is preferably displayed on the display. Especially preferred is the cursor before step b. displayed on the display. This allows you to mark a point without covering the point with your finger or stylus. The (suitable) position of the cursor can preferably be calculated by the data processing device. The position or shape of the cursor can also be influenced by objects recognized in the image (see below section Object detection, example: cursor height adapts to a recognized word height or cursor jumps to the position of a detected nearest word).

Vorzugsweise werden in Schritten a., b. und/oder d. Echtzeitbilder auf der Anzeige angezeigt. Vorzugsweise werden während der Anzeige der Echtzeitbilder in Echtzeit auch Objekte (wie unten beschrieben) erkannt. Diese Objekte werden vorzugsweise in Echtzeit auf der Anzeige kenntlich gemacht. Vorzugsweise wird auf der Anzeige auch ein Ergebnis einer Objektverarbeitung (beispielsweise Texterkennung) in Echtzeit auf der Anzeige angezeigt.Preferably, in steps a., B. and / or d. Real-time images displayed on the display. Preferably, objects are also recognized during real-time image display in real time (as described below). These objects are preferably identified in real time on the display. Preferably, a result of object processing (eg, text recognition) is also displayed on the display in real time on the display.

Vorzugsweise wird während der Schritte a. bis d. ein Cursor auf der Anzeige angezeigt. Der Cursor kann beispielsweise eingeblendet sein oder fest auf der Anzeige angeordnet sein (beispielsweise durch Druckverfahren).Preferably, during steps a. to d. a cursor appears on the display. The cursor may be, for example, faded in or fixed on the display (for example by printing).

Vorzugsweise wird der Cursor nur während der Bilderfassung eingeblendet.Preferably, the cursor is displayed only during image acquisition.

Die Position des Cursors aus dem angezeigten Bild auf der Anzeige wird vorzugsweise in das Gesamtbild und/oder vorläufige Gesamtbild transformiert. Die transformierte Position des Cursors im Gesamtbild wird vorzugsweise gespeichert.The position of the cursor from the displayed image on the display is preferably transformed into the overall image and / or preliminary overall image. The transformed position of the cursor in the overall image is preferably stored.

Vorzugsweise ist der Cursor nicht an fester Position der Anzeige angeordnet. Der Cursor kann vorzugsweise abhängig von der Darstellung des Gesamtbildes auf der Anzeige an veränderlicher Position eingeblendet werden. Vorzugsweise kann der Cursor auch (und besonders bevorzugt auch das korrespondierende Gesamtbild) auf der Anzeige verschoben werden, wenn auf der Anzeige – vorzugsweise halbtransparente – Menüs oder andere Bedienelemente eingeblendet werden.Preferably, the cursor is not located at a fixed position of the display. The cursor may preferably be superimposed on the display in a variable position depending on the representation of the overall picture. Preferably, the cursor can also (and particularly preferably the corresponding overall image) be moved on the display if the display - preferably semi-transparent - menus or other controls are displayed.

Vorzugsweise errechnet das Datenverarbeitungsgerät in Schritt c. die Bildtransformation (beispielsweise perspektivisch, affin oder nur Translation) der Bilder zueinander. Dies kann beispielsweise wie in US 2011/0285810 beschrieben geschehen, die hiermit vollständig in die Offenbarung der vorliegenden Anmeldung einbezogen wird. Preferably, the data processing device calculates in step c. the image transformation (for example, perspective, affine or only translation) of the images to each other. This can for example be like in US 2011/0285810 described, which is hereby fully incorporated in the disclosure of the present application.

Die Position des (vorläufigen) zweiten Punktes, der den (vorläufigen) Bildbereich mitbestimmt, wird vorzugsweise im Vergleich zum ersten Punkt eingeschränkt. Diese Einschränkung kann beispielsweise dadurch erreicht werden, dass ein Objekt (beispielsweise eine Textzeile) unter dem ersten Punkt erkannt wird und die Position des (vorläufigen) zweiten Punktes auf Positionen innerhalb desselben Objektes (beispielsweise innerhalb derselben Textzeile) eingeschränkt wird.The position of the (provisional) second point that co-determines the (provisional) image area is preferably restricted in comparison to the first point. This restriction can be achieved, for example, by recognizing an object (for example a text line) below the first point and restricting the position of the (provisional) second point to positions within the same object (for example within the same text line).

Vorzugsweise können das Referenzbild und ein wenigstens ein weiteres Bild in die Bildtransformation einbezogen werden, um ein Gesamtbild zu erhalten. Vorzugsweise werden Bilder der kontinuierlichen Bildfolge, insbesondere die Echtzeitbilder, in die Koordinaten des Referenzbildes transformiert, um sie in das Gesamtbild oder vorläufige Gesamtbild zu integrieren.Preferably, the reference image and at least one other image may be included in the image transformation to obtain an overall image. Preferably, images of the continuous image sequence, in particular the real-time images, are transformed into the coordinates of the reference image in order to be integrated into the overall image or preliminary overall image.

Vorzugsweise errechnet das Datenverarbeitungsgerät in Schritt c. ausgehend von dem ersten Punkt ein vorläufiges Gesamtbild, wobei dieses vorläufige Gesamtbild vollständig auf der Anzeige dargestellt wird, wobei ein vorläufiger zweiter Punkt als derjenige Punkt in einem Bild der erfassten Folge von Bildern angenommen wird, der unter einem auf der Anzeige angezeigten Cursor liegt.Preferably, the data processing device calculates in step c. starting from the first point, a preliminary complete image, this provisional overall image being displayed completely on the display, assuming a provisional second point as the point in an image of the acquired sequence of images lying below a cursor displayed on the display.

Das Gesamtbild wird vorzugsweise aus Bildern der Bildfolge zusammengesetzt, die in Schritt c. vom Bilderfassungsgerät erfasst werden. Dies kann beispielsweise wie in US 2011/0285810 beschrieben geschehen, die hiermit vollständig in die Offenbarung der vorliegenden Anmeldung einbezogen wird.The overall image is preferably composed of images of the image sequence which are described in step c. be detected by the image capture device. This can for example be like in US 2011/0285810 described, which is hereby fully incorporated in the disclosure of the present application.

Vorzugsweise wird das vorläufige Gesamtbild oder der vorläufige Bildbereich zentriert und/oder skaliert und besonders bevorzugt anzeigefüllend auf der Anzeige angezeigt. So wird die Anzeigefläche besser ausgenutzt.Preferably, the preliminary overall image or region is centered and / or scaled, and most preferably display-filled, displayed on the display. This makes better use of the display area.

Vorzugsweise wird mit der Bildfolge ein Objekt erfasst. Das Objekt ist vorzugsweise planar (und beispielsweise keine allgemeine 3D-Geometrie wie vSLAM, kein Zylinder oder 360° Panorama). Auch wenn das Objekt nicht planar ist, wird vorzugsweise seine planare Projektion in die Bildebene der Kamera erfasst.Preferably, an object is detected with the image sequence. The object is preferably planar (and, for example, no general 3D geometry such as vSLAM, no cylinder, or 360 ° panorama). Even if the object is not planar, its planar projection is preferably detected in the image plane of the camera.

Vorzugsweise erfasst das Bilderfassungsgerät auch zwischen den Schritten b. und d. eine kontinuierliche Folge von Bildern, die auf der Anzeige dargestellt werden.Preferably, the image capture device also detects between steps b. and d. a continuous sequence of images displayed on the screen.

Vorzugsweise wird bei dem erfindungsgemäßen Verfahren ein Referenzbild festgelegt. Die Festlegung des Referenzbildes kann vorzugsweise durch folgende Ereignisse ausgelöst werden:

  • – Benutzeraktion (beispielsweise Tap, Click, Auswahl, Sprachkommando, wie beispielsweise in Schritt b., Erstellen eines Fotos in oder vor Schritt b.),
  • – erkanntes Objekt,
  • – keine Bewegung, und/oder
  • – scharfes Bild.
Preferably, a reference image is determined in the method according to the invention. The definition of the reference image can preferably be triggered by the following events:
  • User action (eg, tap, click, select, voice command, such as in step b., Create a photo in or before step b.),
  • - recognized object,
  • - no movement, and / or
  • - clear image.

Tritt beispielsweise eines dieser Ereignisse ein, kann zur Erzeugung des Referenzbildes vorzugsweise mit dem Bilderfassungsgerät ein Bild, besonders bevorzugt ein hochaufgelöstes Bild, gemacht werden. If, for example, one of these events occurs, an image, particularly preferably a high-resolution image, can preferably be made with the image acquisition device to generate the reference image.

Vorzugsweise wird das Referenzbild in Schritt b. festgelegt. Besonders bevorzugt wird in Schritt b. ein Bild erzeugt, welches als Referenzbild dient. Das Referenzbild ist vorzugsweise ein Bild der Bildfolge.Preferably, the reference image in step b. established. Particularly preferred in step b. generates an image which serves as a reference image. The reference image is preferably an image of the image sequence.

Das Gesamtbild und/oder vorläufige Gesamtbild wird vorzugsweise aus dem Referenzbild und wenigstens einem weiteren nachfolgenden Bild aus der Bildfolge zusammengesetzt.The overall image and / or provisional overall image is preferably composed of the reference image and at least one further subsequent image from the image sequence.

In dem Referenzbild werden vorzugsweise mit einem Referenzpunkt die Referenzkoordinaten festgelegt. Die Referenzkoordinaten sind vorzugsweise zweidimensional. Der Referenzpunkt ist vorzugsweise die linke obere Ecke des Referenzbildes. Alle anderen in dieser Beschreibung genannten Punkte oder Koordinaten des erfindungsgemäßen Verfahrens sind vorzugsweise relative Koordinaten oder Punkte zu den Referenzkoordinaten oder zum Referenzpunkt. Die Koordinaten werden vorzugsweise in Pixeln angegeben. Die Pixel entsprechen vorzugsweise Bildpunkten der Bilder in der Bildfolge und/oder dem Referenzbild. In the reference image, the reference coordinates are preferably determined with a reference point. The reference coordinates are preferably two-dimensional. The reference point is preferably the upper left corner of the reference image. All other points or coordinates of the method according to the invention mentioned in this description are preferably relative coordinates or points to the reference coordinates or to the reference point. The coordinates are preferably given in pixels. The pixels preferably correspond to pixels of the images in the image sequence and / or the reference image.

Vorzugsweise wird das Referenzbild bei der Berechnung des Gesamtbildes und/oder vorläufigen Gesamtbildes einbezogen. Preferably, the reference image is included in the calculation of the overall image and / or preliminary overall image.

Die Bestimmung einer veränderten Perspektive des Bilderfassungsgeräts und/oder die Umrechnung von Koordinaten (beispielsweise die Transformation von Kamerakoordinaten in Anzeigekoordinaten oder Koordinaten des Gesamtbildes) ist gut in dem Standardwerk Zisserman/Hartley „Multiple View Geometry in Computer Vision“ (Cambridge University Press, 2004) beschrieben.The determination of a changed perspective of the image acquisition device and / or the conversion of coordinates (for example the transformation of camera coordinates into display coordinates or coordinates of the overall image) is good in the standard work Zisserman / Hartley "Multiple View Geometry in Computer Vision" (Cambridge University Press, 2004) described.

Vorzugsweise wird bei der Bildaufnahme durch das Bilderfassungsgerät das erfasste Bild um die Perspektive des Bilderfassungsgeräts korrigiert. Dies kann beispielsweise durch die Ermittlung von Bildknoten und/oder Merkmalsdeskriptoren (siehe unten) und/oder Blockmatching und durch anschließende Bildtransformation auf Basis einer Transformationsschätzung geschehen. Preferably, when the image is captured by the image capture device, the captured image is corrected for the perspective of the image capture device. This can be done, for example, by the determination of image nodes and / or feature descriptors (see below) and / or block matching and by subsequent image transformation on the basis of a transformation estimate.

Um Änderungen der Perspektive des Bilderfassungsgerätes von einem Bild zu einem anderen Bild (wie beispielsweise dem Referenzbild oder dem Gesamtbild oder vorläufigen Gesamtbild) in der Bildfolge besser zu berücksichtigen, kann man vorzugsweise Beschleunigungs- und/oder Lagesensoren einsetzen. Außerdem kann die Änderung der Perspektive des Bilderfassungsgerätes vorzugsweise auch durch Algorithmen (beispielsweise Algorithmen wie Kalman oder extended Kalman) abgeschätzt und/oder korrigiert werden.In order to better take into account changes in the perspective of the image acquisition device from one image to another image (such as the reference image or the overall image or preliminary overall image) in the image sequence, one can preferably use acceleration and / or position sensors. In addition, the change in the perspective of the image acquisition device can preferably also be estimated and / or corrected by algorithms (for example, algorithms such as Kalman or extended Kalman).

Bildbereichimage area

Vorzugsweise ist der Bildbereich zweidimensional.Preferably, the image area is two-dimensional.

Alle Punkte haben beispielsweise Koordinaten. Die Koordinaten sind beispielsweise zweidimensional. Vorzugsweise werden in Schritt e. bei der Berechnung des Bildbereiches oder bei der Berechnung des vorläufigen Bildbereiches die Koordinaten der Punkte berücksichtigt. Vorzugsweise werden die Koordinaten relativ zu den Referenzkoordinaten angegeben.For example, all points have coordinates. The coordinates are, for example, two-dimensional. Preferably, in step e. when calculating the image area or when calculating the preliminary image area, the coordinates of the points are taken into account. Preferably, the coordinates are given relative to the reference coordinates.

Vorzugsweise wird aus der mit dem ersten Bild beginnenden und dem zweiten Bild endenden Bildfolge ein Gesamtbild zusammengesetzt. Hierzu werden vorzugsweise wenigstens zwei, besonders bevorzugt wenigstens zehn, ganz besonders bevorzugt wenigstens 50 Bilder der Bildfolge zu dem Gesamtbild zusammengesetzt.Preferably, an overall image is composed of the image sequence starting with the first image and ending with the second image. For this purpose, preferably at least two, particularly preferably at least ten, very particularly preferably at least 50 images of the image sequence are combined to form the overall image.

Das Gesamtbild und/oder vorläufige Gesamtbild wird vorzugsweise aus einzelnen Bildern zusammengesetzt, wie es in US 2011/0285810 A1 beschrieben ist oder wie es heutzutage in Panoramafunktionen von Digitalkameras oder Smartphones üblich ist.The overall image and / or preliminary overall image is preferably composed of individual images, as shown in FIG US 2011/0285810 A1 described or as it is common nowadays in panoramic functions of digital cameras or smartphones.

Sind zwischen Schritt b. und Schritt d. Zwischenpunkte erfasst worden (s.o.), so errechnet das Datenverarbeitungsgerät aus dem ersten Punkt und dem zweiten Punkt und den erfassten Zwischenpunkten eine Kontur. Dabei ist die zeitliche Reihenfolge der Erfassung der vorgenannten Punkte vorzugsweise nicht relevant. Die Kontur definiert vorzugsweise den Bildbereich. Die Kontur kann beispielsweise durch direkte Linien zwischen den vorgenannten Punkten oder durch eine Bézierkurve verbunden.Are between step b. and step d. Intermediate points have been detected (see above), the computing device calculates a contour from the first point and the second point and the detected intermediate points. The chronological order of the detection of the aforementioned points is preferably not relevant. The contour preferably defines the image area. The contour can be connected, for example, by direct lines between the aforementioned points or by a Bézier curve.

Die Kontur kann vorzugsweise durch zwei, drei und/oder vier Punkte definiert werden. Dadurch kann vorzugsweise eine viereckige Kontur definiert werden.The contour can preferably be defined by two, three and / or four points. As a result, preferably a quadrangular contour can be defined.

Bei der Zusammensetzung der Bilder der Bildfolge zu einem Gesamtbild werden vorzugsweise keine absoluten Koordinaten, sondern nur relative Koordinaten zu den Referenzkoordinaten verwendet. When composing the images of the image sequence into an overall image, preferably no absolute coordinates, but only relative coordinates to the reference coordinates are used.

Vorzugsweise werden in den Bildern der Bildfolge vom Datenverarbeitungsgerät Merkmalsdeskriptoren bestimmt. Geeignete Punkte für Merkmalsdeskriptoren werden beispielsweise über Merkmalsdetektoren ermittelt.Preferably feature descriptors are determined by the data processing device in the images of the image sequence. Suitable points for feature descriptors are determined, for example, via feature detectors.

Merkmalsdetektoren liefern Punkte im Bild. Merkmalsdeskriptoren dienen zur Beschreibung dieser Punkte.Feature detectors provide points in the image. Feature descriptors are used to describe these points.

Die Art der Merkmalsdeskriptoren kann vorzugsweise ausgewählt sein aus Bildausschnitten selbst, SPIN Image, Shape Context, SIFT (Scale invariant feature transform), SURF (Speeded Up Robust Features) und/oder GLOH (Gradient location-orientation histogram). The type of feature descriptors may preferably be selected from image sections themselves, SPIN Image, Shape Context, SIFT (Scale invariant feature transform), SURF (Speeded Up Robust Features) and / or GLOH (Gradient location-orientation histogram).

Als Bildknoten wird ein Bildpunkt bezeichnet, zu dem es einen Merkmalsdeskriptor gibt. An image node is a pixel to which there is a feature descriptor.

Anhand der relativen Verschiebung der Bildknoten von einem Bild zu einem anderen Bild der Bildfolge, können überlappende und nicht-überlappende Bereiche der Einzelbilder der Bildfolge bestimmt werden. So kann das Gesamtbild leichter aus den Einzelbildern zusammengesetzt werden.On the basis of the relative displacement of the image nodes from one image to another image of the image sequence, overlapping and non-overlapping regions of the individual images of the image sequence can be determined. Thus, the overall picture can be easily assembled from the individual images.

Vorzugsweise werden in einem der Bilder aus der Bildfolge wenigstens 200, ganz besonders bevorzugt wenigstens 500 Merkmalsdeskriptoren und/oder Bildknoten bestimmt. Vorzugsweise werden anschließend in wenigstens einem nachfolgenden Bild, besonders bevorzugt in wenigstens zehn weiteren nachfolgenden Bildern, der Bildfolge jeweils fünf bis 150, ganz besonders bevorzugt jeweils 50 bis 100 Merkmalsdeskriptoren und/oder Bildknoten bestimmt. Vorzugsweise werden in einem Bild der Bildfolge oder dem (vorläufigen) Gesamtbild wenigstens doppelt so viele Merkmalsdeskriptoren und/oder Bildknoten bestimmt wie in einem darauffolgenden Bild.Preferably, at least 200, most preferably at least 500 feature descriptors and / or image nodes are determined in one of the images from the image sequence. Preferably, in each case at least one subsequent image, particularly preferably in at least ten further subsequent images, the image sequence is determined in each case five to 150, very particularly preferably in each case 50 to 100 feature descriptors and / or image nodes. Preferably, at least twice as many feature descriptors and / or image nodes are determined in an image of the image sequence or the (preliminary) overall image as in a subsequent image.

Die Merkmalsdeskriptoren werden beispielsweise in einer Deskriptorenliste geführt. Im Gesamtbild oder vorläufigen Gesamtbild werden beispielsweise die Deskriptoren der berücksichtigten Bilder übernommen. Die Deskriptorenliste wächst daher beispielsweise inkrementell mit jedem weiteren im (vorläufigen) Gesamtbild berücksichtigten Bild.The feature descriptors are kept, for example, in a descriptor list. In the overall picture or preliminary overall picture, for example, the descriptors of the considered images are adopted. For example, the descriptor list grows incrementally with each additional picture included in the (preliminary) overall picture.

Vorzugsweise liegt der Bildbereich vollständig innerhalb des Gesamtbildes. Preferably, the image area is completely within the overall picture.

Der (vorläufige) Bildbereich kann beispielsweise vollständig innerhalb des ersten Bildes oder des letzten Bildes oder des Referenzbildes liegen.For example, the (provisional) image area may be completely within the first image or the last image or the reference image.

Vorzugsweise ist der Bildbereich größer als ein Einzelbild.Preferably, the image area is larger than a single image.

Vorzugsweise macht der Bildbereich von der Fläche her bis zu 90%, vorzugsweise bis zu 50%, ganz besonders bevorzugt bis zu 30%, des erfassten Gesamtbildes aus. Das erfasste Gesamtbild setzt sich vorzugsweise aus wenigstens zwei der Bilder der Bildfolge zusammen, die zwischen den Schritten b. und d. erfasst wurden.Preferably, the image area makes up to 90%, preferably up to 50%, most preferably up to 30%, of the area of the captured total image. The acquired overall image is preferably composed of at least two of the images of the image sequence that are between the steps b. and d. were recorded.

Vorzugsweise erkennt das Datenverarbeitungsgerät, dass der (vorläufige) Bildbereich Regionen des (vorläufigen) Gesamtbildes beinhaltet, die vom Bilderfassungsgerät noch nicht erfasst wurden. Das Ergebnis dieser Erkennung wird beispielsweise dem Nutzer angezeigt. So können diese Regionen noch nachträglich vom Bilderfassungsgerät erfasst werden.Preferably, the data processing device recognizes that the (provisional) image area includes regions of the (provisional) overall image that have not yet been captured by the image acquisition device. The result of this recognition is displayed to the user, for example. Thus, these regions can still be detected later by the image acquisition device.

Vorzugsweise läuft das Verfahren, insbesondere Schritt e., autark, besonders bevorzugt ohne Verbindung zu einem Server, ab.Preferably, the method, in particular step e., Runs independently, particularly preferably without connection to a server.

Vorzugsweise wird der Bildbereich (beispielsweise von dem Datenverarbeitungsgerät) nach Schritt e. weiterverarbeitet. Die Weiterverarbeitung kann vorzugsweise ausgewählt sein aus Anzeige der Anzahl von erkannten Objekten, Anzeige von Kontextinformation zu erkannten Objekten, Speichern, Versenden, Weitergabe an ein anderes Computerprogrammprodukt und/oder Bildbearbeitung.Preferably, the image area (for example, from the data processing device) after step e. further processed. The further processing may preferably be selected from displaying the number of detected objects, displaying context information on detected objects, saving, sending, passing on to another computer program product and / or image processing.

Vorzugsweise kann die Weiterverarbeitung die Erkennung der Art des Bildbereiches umfassen (beispielsweise Emailadresse, Text, Bild). Dadurch kann vorzugsweise ein jeweils passendes Computerprogrammprodukt geöffnet werden (Beispiel: eine erkannte Emailadresse öffnet das Emailprogramm, ein erkanntes Datum öffnet den Kalender, ein erkanntes Foto öffnet das Bildbearbeitungsprogramm).Preferably, the further processing may include the recognition of the type of image area (for example, email address, text, image). As a result, preferably a respective matching computer program product can be opened (example: a recognized email address opens the email program, a recognized date opens the calendar, a recognized photo opens the image editing program).

Das andere Computerprogrammprodukt kann beispielsweise ein Emailprogramm, ein Bildbearbeitungsprogramm oder ein anderes Anwendungsprogramm sein. Die Weitergabe oder das Speichern kann beispielsweise als Text oder in einem bestimmten Grafikformat wie beispielsweise JPG, PNG, GIF, TIFF, PDF erfolgen. The other computer program product may be, for example, an e-mail program, an image processing program or another application program. The transfer or saving can be done, for example, as text or in a specific graphics format such as JPG, PNG, GIF, TIFF, PDF.

Nach Schritt e. kann auch vorzugsweise im Bildbereich ein grafisches Element in das Bild (beispielsweise in das Gesamtbild) eingefügt werden. Dieses grafische Element kann beispielsweise ausgewählt sein aus einer Linie, einem Pfeil, einer Sprechblase, einem Pictogramm, einem Rechteck, und/oder einem Oval. Benutzer können so beispielsweise mit Smartphones sehr hochaufgelöste Fotos aufnehmen und diese direkt in einem Arbeitsschritt auch mit grafischen Elementen versehen, um sie anschließend beispielsweise über soziale Netzwerke zu teilen. Nach Einfügen des grafischen Elements kann vorzugsweise ein Mittel zur Eingabe von Text zur Verfügung gestellt werden. Damit kann beispielsweise Text in einer Sprechblase oder zur Beschriftung eines Pfeils eingegeben werden. Das Mittel zur Eingabe von Text kann beispielsweise eine Tastatur, virtuelle Tastatur oder Spracherkennung sein.After step e. It is also possible to insert a graphic element in the image (for example in the overall image) preferably in the image area. This graphical element can be selected, for example, from a line, an arrow, a speech bubble, a pictogram, a rectangle, and / or an oval. Users can, for example, use smartphones to take very high-resolution photos and provide them directly in one step with graphic elements in order to subsequently share them, for example via social networks. After inserting the graphic element, it is preferable to provide a means for entering text. Thus, for example, text can be entered in a speech bubble or for labeling an arrow. The means for entering text may be, for example, a keyboard, virtual keyboard or speech recognition.

Vorzugsweise wird das grafische Element auch schon während Schritt c. im vorläufigen Bildbereich auf der Anzeige dargestellt.Preferably, the graphical element is already during step c. shown in the preliminary screen area on the display.

In oder vor Schritt b. kann auch vorzugsweise ein Bild vom Bilderfassungsgerät erfasst werden, in das ein grafisches Element in den in Schritt e. ermittelten Bildbereich eingesetzt wird. So kann beispielsweise in ein Foto, das vor Schritt b. gemacht wurde, ein Herz in der Größe des Gesichts einer der abgebildeten Personen durch entsprechende Auswahl des Bildbereiches über dem Kopf der Person eingefügt werden.In or before step b. It is also possible to capture, preferably, an image from the image acquisition device, into which a graphic element is inserted in the image in step e. determined image area is used. For example, in a photo that was taken before step b. a heart in the size of the face of one of the imaged persons should be inserted by appropriate selection of the image area above the person's head.

Vorzugsweise wird nach Einfügen des grafischen Elements das Echtzeitbild auf der Anzeige mit dem grafischen Element angezeigt, so dass der Nutzer mit einer weiteren Betätigung eines Bedienelements (z.B. Fotoknopf oder Button) beispielsweise ein Foto der auf dem Foto abgebildeten Person mit grafischem Element aufnehmen kann. Preferably, after inserting the graphic element, the real-time image is displayed on the display with the graphic element, so that the user can, for example, take a photo of the person with a graphic element depicted in the photo with a further actuation of an operating element (for example a photo button or button).

Die Schritte b. bis e. können auch mehrfach hintereinander in aufeinanderfolgenden Durchgängen ausgeführt werden. Dabei können die entstehenden Gesamtbilder und/oder vorläufigen Gesamtbilder der Durchgänge vom Datenverarbeitungsgerät miteinander verglichen werden und anhand der Deskriptoren und/oder Bildknoten miteinander in Beziehung gebracht werden.The steps b. to e. can also be performed several times in succession in successive passes. In this case, the resulting overall images and / or preliminary overall images of the passages from the data processing device can be compared with one another and be related to one another by means of the descriptors and / or image nodes.

Bei den vorgenannten mehrfachen Durchgängen der Schritte b. bis e. wird vorzugsweise das (vorläufige) Gesamtbild, der Referenzpunkt oder das Referenzbild des ersten Durchgangs für alle Durchgänge verwendet. Es wird also vorzugweise in nachfolgenden Durchgängen kein neues (vorläufiges) Gesamtbild erzeugt.In the aforementioned multiple passes of steps b. to e. Preferably, the (provisional) overall image, the reference point or the reference image of the first pass is used for all passes. It is therefore preferable not to create a new (preliminary) overall image in subsequent runs.

So ist es beispielsweise möglich, dass in einem vorherigen Durchgang selektierte erkannte Objekte wieder gezielt deselektiert werden können.For example, it is possible that selected detected objects selected in a previous pass can again be deselected in a targeted manner.

Vorzugsweise werden bei dem erfindungsgemäßen Verfahren keine räumlichen und/oder dreidimensionalen Koordinaten verarbeitet. Preferably, no spatial and / or three-dimensional coordinates are processed in the method according to the invention.

In einer bevorzugten Ausführungsform wird vor oder mit Schritt b. der vom Bilderfassungsgerät erfasste Bildinhalt auf der Anzeige dargestellt und der erste Punkt und der vorläufige zweite Punkt genutzt, um in dem daraus errechneten Bildbereich ein grafisches Element auf der Anzeige anzuzeigen. Auf der Anzeige kann mit dem grafischen Element das vor oder mit Schritt b. erfasste Bild, oder ein Echtzeitbild des Bilderfassungsgerätes oder die errechneten Bildbereiche aus diesen dargestellt werden. Bei Betätigung des Bedienelements in Schritt d. kann der vor oder mit Schritt b. erfasste Bildbereich mit dem darauf eingezeichneten grafischen Element weiterverarbeitet werden (z.B. gespeichert, versendet oder weiterbearbeitet werden). In a preferred embodiment, before or with step b. the image content captured by the image capture device displayed on the display and the first point and the provisional second point used to display a graphical element on the display in the image area calculated therefrom. On the display, the graphic element can be used before or with step b. captured image, or a real-time image of the image acquisition device or the calculated image areas are represented from these. When operating the control element in step d. can the before or with step b. captured image area are further processed (for example, stored, shipped or further processed) with the graphic element drawn thereon.

Anzeigedisplay

Vorzugsweise wird in Schritt c. aus dem ersten Punkt (und gegebenenfalls weiteren Punkten wie den Zwischenpunkten) und einem vorläufigen zweiten Punkt ein vorläufiger Bildbereich von dem Datenverarbeitungsgerät errechnet und der vorläufige Bildbereich (vorzugsweise zentriert) auf der Anzeige dargestellt.Preferably, in step c. from the first point (and optionally further points such as the intermediate points) and a preliminary second point, a preliminary image area is calculated by the data processing device and the preliminary image area (preferably centered) is displayed on the display.

In Schritt c. wird vorzugsweise ein vorläufiger Bildbereich durch den ersten Punkt und wenigstens den vorläufigen zweiten Punkt, der durch den Cursor definiert wird, bestimmt. In step c. Preferably, a preliminary image area is determined by the first point and at least the provisional second point defined by the cursor.

Vorzugsweise wird auf der Anzeige das (vorläufige) Gesamtbild angezeigt. Das (vorläufige) Gesamtbild kann vorzugsweise zentriert dargestellt werden. Vorzugsweise werden die Regionen des (vorläufigen) Gesamtbildes, die vom Bilderfassungsgerät noch nicht erfasst wurden, kenntlich gemacht.Preferably, the (provisional) overall image is displayed on the display. The (preliminary) overall picture can preferably be displayed centered. Preferably, the regions of the (preliminary) overall image which have not yet been detected by the image acquisition device are identified.

Vorzugsweise wird auf der Anzeige das Echtzeitbild des Bilderfassungsgerätes dargestellt.Preferably, the real-time image of the image acquisition device is displayed on the display.

Vorzugsweise kann auch ein Bildausschnitt des (vorläufigen) Gesamtbildes oder Echtzeitbildes des Bilderfassungsgerätes auf der Anzeige vergrößert angezeigt werden. Vorzugsweise kann der vergrößerte Bildausschnitt derart gewählt werden, dass der (vorläufige) Bildbereich auf der Anzeige dargestellt wird.Preferably, an image section of the (preliminary) overall image or real-time image of the image acquisition device can be displayed enlarged on the display. Preferably, the enlarged image section can be chosen such that the (preliminary) image area is displayed on the display.

In Schritt c. wird wie oben beschrieben vorzugsweise die Transformation zwischen zwei Bildern (beispielsweise zwischen Echtzeitbild und Gesamtbild) bestimmt. Vorzugsweise wird die Transformation manipuliert, um ein virtuelles Bild zu erhalten. So kann beispielsweise aus der Transformation zwischen zwei Bildern der Skalierungsfaktor bestimmt werden, der die Vergrößerung oder Verkleinerung des (vorläufigen) Gesamtbildes oder Echtzeitbildes des Bilderfassungsgerätes auf der Anzeige bestimmt. Besonders bevorzugt kann die für die Anzeige verwendete Skalierung im Vergleich zum bestimmten Skalierungsfaktor überproportional sein. Dadurch kann man mit einer vergleichsweise kleinen Veränderung des Abstandes des Bilderfassungsgerätes eine vergleichsweise starke Veränderung der Darstellungsgröße beispielsweise des Gesamtbildes erzielen.In step c. For example, as described above, the transformation between two images (for example, between the real-time image and the overall image) is preferably determined. Preferably, the transformation is manipulated to obtain a virtual image. For example, from the transformation between two images, the scaling factor can be determined, which determines the enlargement or reduction of the (provisional) overall image or real-time image of the image acquisition device on the display. Most preferably, the scaling used for the display may be disproportionate compared to the particular scaling factor. As a result, it is possible with a comparatively small change in the distance of the image acquisition device to achieve a comparatively large change in the presentation size, for example, of the overall image.

Vorzugsweise kann die Position des Cursors aufgrund der geschätzten Transformation verändert werden. Beispielsweise kann eine Translation des Bilderfassungsgeräts gegenüber dem Referenzbild eine zusätzliche Verschiebung des Cursors bewirken, sodass eine kleine Bewegung des Bilderfassungsgerätes eine große Cursorbewegung (in Referenzkoordinaten gemessen) erzielt.Preferably, the position of the cursor may be changed based on the estimated transformation. For example, a translation of the image capture device relative to the reference image may cause an additional shift of the cursor, so that a small movement of the image capture device achieves a large cursor movement (measured in reference coordinates).

Vorzugsweise kann die Größe und/oder Form des Cursors abhängig von der Objekterkennung verändert werden. Wird beispielsweise ein Wort oder Buchstabe erkannt, so kann die Höhe des Cursors an die Höhe des Wortes oder Buchstabens angepasst werden. Auch kann der Cursor beispielsweise die Form von einem Fadenkreuz auf eine Box oder einen Textcursor ändern, wenn unter dem Cursor ein Wort oder Buchstabe erkannt wird.Preferably, the size and / or shape of the cursor can be changed depending on the object recognition. For example, if a word or letter is recognized, the height of the cursor can be adjusted to the height of the word or letter. Also, for example, the cursor may change the shape of a crosshair to a box or a text cursor if a word or letter is recognized below the cursor.

Die Position des Cursors rastet vorzugsweise auf Positionen von benachbarten Bildinhalten ein. Die Bildinhalte können beispielsweise Bildknoten, erkannte Objekte, Buchstaben, Worte, Gesichter, Noten, erkannte Kanten/Gradienten im Bild und/oder Blattkanten sein.The position of the cursor preferably locks on positions of adjacent image contents. The image contents may be, for example, image nodes, recognized objects, letters, words, faces, notes, detected edges / gradients in the image, and / or leaf edges.

Blattkanten im Sinne der Erfindung sind beispielsweise die Kanten von bedruckten Blättern.Leaf edges within the meaning of the invention are, for example, the edges of printed sheets.

Objekterkennungobject recognition

Vorzugsweise werden in Bildern Objekte erkannt. Vorzugsweise werden in Bildern der Bildfolge zwischen den Schritten b. und d., ganz besonders bevorzugt auch bereits in Schritt a., Objekte in Echtzeit erkannt. Preferably, objects are recognized in images. Preferably, images of the image sequence between steps b. and d., most preferably also already detected in step a., objects in real time.

Die Art des Objekts kann ausgewählt sein aus Person, Gesicht, Fahrzeug, Gebäude, Buchstabe, Note und/oder Barcode. Die Objekterkennung geschieht beispielsweise durch die Viola-Jones-Methode, die Bag-of-Features-Methode oder Stroke-Width-Transform-Methode. Wenn ein Objekt erkannt wurde, wird vorzugsweise der Cursor angepasst und/oder ein Kontextmenü in der Anzeige eingeblendet. In diesem Kontextmenü können vorzugsweise Handlungsoptionen angezeigt werden. The type of object may be selected from person, face, vehicle, building, letter, grade and / or barcode. The object recognition is done for example by the Viola-Jones method, the Bag-of-features method or Stroke-Width-Transform method. If an object has been detected, the cursor is preferably adjusted and / or a context menu is shown in the display. Preferably action options can be displayed in this context menu.

Handelt es sich bei dem wenigstens einen Objekt um eine Vielzahl von Buchstaben, so wird der Text, der aus den Buchstaben gebildet wird, vorzugsweise durch OCR (Optical Character Recognition) erkannt. Der Text kann vorzugsweise gespeichert und/oder weiterverarbeitet werden. If the at least one object is a plurality of letters, the text formed from the letters is preferably recognized by OCR (Optical Character Recognition). The text may preferably be stored and / or further processed.

Handelt es sich bei dem wenigstens einen Objekt um eine Person oder ein Gesicht, so kann diese Person beispielsweise über biometrische Gesichtserkennung erkannt werden. Die erkannte Person kann beispielsweise mit Datenbanken oder sozialen Netzwerken abgeglichen werden, so dass auf der Anzeige zusätzliche Informationen zu dieser Person aus den Datenbanken und/oder sozialen Netzwerken eingeblendet werden können.If the at least one object is a person or a face, then this person can be recognized, for example, via biometric facial recognition. The recognized person can for example be compared with databases or social networks, so that additional information about this person can be displayed on the display from the databases and / or social networks.

Handelt es sich bei dem wenigstens einen Objekt beispielsweise um ein Fahrzeug oder ein anderes Produkt, so kann für dieses Fahrzeug anhand seiner visuellen Merkmale das Modell bestimmt werden. Das erkannte Modell kann beispielsweise mit Datenbanken oder Verkaufsplattformen abgeglichen werden, so dass auf der Anzeige zusätzliche Informationen zu diesem Modell aus den Datenbanken und/oder Verkaufsplattformen eingeblendet werden können.If the at least one object is, for example, a vehicle or another product, the model can be determined for this vehicle on the basis of its visual characteristics. For example, the identified model can be synchronized with databases or sales platforms so that additional information about that model can be displayed on the display from the databases and / or sales platforms.

Vorzugsweise können erkannte Objekte markiert werden. Vorzugsweise werden folgende Objekte selektiert:

  • a) alle erkannten Objekte auf dem Gesamtbild oder dem vorläufigen Gesamtbild,
  • b) alle erkannten Objekte innerhalb eines Rechtecks, das durch den ersten und den zweiten Punkt definiert wird, und/oder
  • c) alle erkannten Objekte in dem Bildbereich. Markierte Objekte können vorzugsweise auf der Anzeige kenntlich gemacht werden (beispielsweise durch farbliche Hervorhebung).
Preferably, recognized objects can be marked. Preferably, the following objects are selected:
  • a) all recognized objects on the overall picture or the preliminary overall picture,
  • b) all detected objects within a rectangle defined by the first and second points, and / or
  • c) all recognized objects in the image area. Marked objects may preferably be indicated on the display (for example, by color highlighting).

Die (markierten) Objekte können vorzugsweise weiterverarbeitet, beispielsweise gezählt, werden. Damit kann beispielsweise eine Objektdichte bestimmt werden. Dies ist besonders bei medizinischen Anwendungen wie der Zählung von Leberflecken hilfreich.The (marked) objects can preferably be further processed, for example counted. Thus, for example, an object density can be determined. This is especially useful in medical applications such as the counting of liver spots.

Weitere AusführungsformenFurther embodiments

In einer weiteren Ausführungsform wird die der Erfindung zugrunde liegende Aufgabe durch ein System zur Bilderfassung umfassend wenigstens ein Bilderfassungsgerät, eine Anzeige und ein Datenverarbeitungsgerät gelöst, wobei das System zur Ausführung des Verfahrens gemäß einem der vorangehenden Ansprüche konfiguriert ist.In a further embodiment, the object on which the invention is based is achieved by a system for image acquisition comprising at least one image acquisition device, a display and a data processing device, the system being configured to carry out the method according to one of the preceding claims.

In einer weiteren Ausführungsform wird die der Erfindung zugrunde liegende Aufgabe durch ein Computerprogrammprodukt ausführbar auf wenigstens einem Prozessor gelöst, das bei Ablauf auf einem Datenverarbeitungsgerät zumindest den Schritt e. des erfindungsgemäßen Verfahrens durchführt.In a further embodiment, the object on which the invention is based is achieved by a computer program product executable on at least one processor which, when running on a data processing device, comprises at least step e. of the method according to the invention.

Das erfindungsgemäße Verfahren kann beispielsweise in verschiedenen Anwendungen eingesetzt werden:
Mit dem erfindungsgemäßen Verfahren können beispielsweise Fotos erstellt werden, die größer als die Kameraauflösung sind und die beispielsweise sowohl in der Höhe als auch in der Breite über die Auflösung der Kamera hinausgehen.
The method according to the invention can be used, for example, in various applications:
With the method according to the invention, for example, photos can be created that are larger than the camera resolution and, for example, go beyond the resolution of the camera, both in height and in width.

Mit dem erfindungsgemäßen Verfahren können beispielsweise Grafiken und Texte auf Dokumenten erkannt werden. Das erfindungsgemäße Verfahren kann beispielsweise auch als kamerabasierter Scanner eingesetzt werden. With the method according to the invention, for example, graphics and texts can be recognized on documents. The method according to the invention can also be used, for example, as a camera-based scanner.

Weitere praktische Ausführungsformen und Vorteile der Erfindung sind nachfolgend im Zusammenhang mit den Zeichnungen beschrieben. Es zeigen:Further practical embodiments and advantages of the invention are described below in conjunction with the drawings. Show it:

1 zeigt den Ablauf des erfindungsgemäßen Verfahrens in der allgemeinsten Form nach dem ersten unabhängigen Anspruch. 1 shows the sequence of the method according to the invention in the most general form according to the first independent claim.

2 zeigt den Ablauf eines bevorzugten erfindungsgemäßen Verfahrens, wie es auch im nachstehenden Beispiel „Foto machen und beschriften“ beschrieben ist. 2 shows the sequence of a preferred method according to the invention, as described in the example below "make and label photo".

3 zeigt den Aufbau des erfindungsgemäßen Systems. 3 shows the structure of the system according to the invention.

4 zeigt den Ablauf des erfindungsgemäßen Verfahrens anhand von einzelnen beispielhaften Benutzungsbeispielen. 4 shows the sequence of the method according to the invention with reference to individual exemplary examples of use.

1 und 2 zeigen einen Verfahrensablauf des erfindungsgemäßen Verfahrens, wie er in den untenstehenden Ausführungsbeispielen ausführlich beschrieben ist. 1 and 2 show a method sequence of the method according to the invention, as described in detail in the embodiments below.

In 2 wird der Bildbereich erst abgespeichert, wenn nach einer vorbestimmten Zeit von z.B. zehn Sekunden der Touchscreen nicht erneut berührt wurde, um eine Beschriftung einzufügen.In 2 the image area is not stored until after a predetermined time of eg ten seconds, the touch screen has not been touched again to insert a label.

3 zeigt als Datenverarbeitungsgerät 10 ein Smartphone mit Tastatur 12. Das Datenverarbeitungsgerät 10 verfügt über Arbeitsspeicher 14, Flash-Speicher als Speichermedium 16, Firmware 18, die alle über einen Datenbus 20 mit einem Prozessor 22 und einem Transceiver 24 (WLAN, Mobilfunk, Bluetooth, ...) verbunden sind. Mit dem Datenbus 20 sind auch eine Anzeige 26, die Tastatur 12, eine Kamera 28 und ein Beschleunigungssensor 30 verbunden. 3 shows as a data processing device 10 a smartphone with keyboard 12 , The data processing device 10 has memory 14 , Flash memory as a storage medium 16 , Firmware 18 all over a data bus 20 with a processor 22 and a transceiver 24 (WLAN, mobile, Bluetooth, ...) are connected. With the data bus 20 are also an ad 26 , the keyboard 12 , a camera 28 and an acceleration sensor 30 connected.

4a. zeigt Schritt b. des erfindungsgemäßen Verfahrens. Der Aufnahmebereich 32 wird so ausgerichtet, dass der Cursor 34 auf der linken oberen Ecke des zu erfassenden Textbereiches positioniert ist. Der Touchscreen 26 wird als berührt und damit das Bedienelement betätigt, um den ersten Punkt zu bestimmen 38. 4a. shows step b. the method according to the invention. The recording area 32 is aligned so that the cursor 34 is positioned on the upper left corner of the text area to be captured. The touch screen 26 is touched and thus the control is operated to determine the first point 38 ,

Der Touchscreen wird in 4b. gehalten (40) und der Aufnahmebereich 32 der Kamera in Schritt c. des erfindungsgemäßen Verfahrens so verändert, dass durch die veränderte Position des Cursors 34 ein vorläufiger Bildbereich 36 entsteht.The touch screen will be in 4b. held ( 40 ) and the recording area 32 the camera in step c. the method of the invention changed so that by the changed position of the cursor 34 a preliminary image area 36 arises.

In 4c. wird der Touchscreen losgelassen (42), wenn der Aufnahmebereich 32 so verändert ist, dass der Cursor 34 an der unteren rechten Ecke des zu erfassenden Textbereiches positioniert ist und der Bildbereich 36 den gesamten zu erfassenden Text enthält.In 4c. the touchscreen is released ( 42 ) when the shooting area 32 changed so that the cursor 34 is positioned at the lower right corner of the text area to be detected and the image area 36 contains all the text to be recorded.

In 4d. wurde der Bildbereich 36 bearbeitet und in eine E-Mail eines Emailprogramms eingefügt, um ihn zu versenden.In 4d. became the image area 36 edited and inserted into an e-mail of an e-mail program to send it.

Ausführungsbeispieleembodiments

Referenzbeispiel – Bilderfassung mit einem Smartphone: auf einem handelsüblichen Smartphone wie dem Samsung Galaxy S7 wurde eine App (ein Computerprogramm) installiert, die auf den Touchscreen (Anzeige, Bedienelement) und die Kamera (Bilderfassungsgerät) zugreifen konnte und die konfiguriert war, das erfindungsgemäße Verfahren wie folgt durchzuführen:
Auf dem Touchscreen des S7 wurde das von der Kamera erfasste Bild in Echtzeit angezeigt. In der Mitte des Bildschirms war ein halbtransparentes Kreuz als Cursor abgebildet. Vor der Kamera wurde auf einem Tisch ein rechteckiges Blatt Papier mit einem kurzen Text platziert. Die Kamera des Smartphones wurde auf das Papier gerichtet. Das Smartphone wurde so gehalten, dass die Mitte des Kreuzes auf die linke obere Ecke des Papiers zeigte. Nun wurde der Touchscreen an einer beliebigen Stelle berührt (in diesem Fall rechts unten) und berührt gehalten. Der Finger lag also nach der ersten Berührung weiterhin auf dem Touchscreen. Nun wurde der Aufnahmebereich der Kamera durch Bewegung des Smartphones so geändert, dass die Mitte Kreuzes auf die rechte untere Ecke des Papiers zeigte. Der Finger wurde vom Touchscreen wieder entfernt. Der Bildbereich, der sich aus einem Rechteck zwischen diesen beiden Punkten ergab, wurde wie folgt vom Smartphone berechnet:
Mit Berührung des Touchscreens wurde das aktuelle Bild der Kamera als erstes Bild gespeichert. Dies Bild diente als Referenzbild. Der obere linke Eckpunkt des Bildes war der Referenzpunkt und bestimmte die Referenzkoordinaten (0 x/0 y). Da das S7 eine Auflösung der Kamera von 4272×2848 Pixeln und eine Auflösung des Touchscreens von 2560×1440 hatte, wurde des Kamerabild entsprechend verkleinert, um auf dem Touchscreen dargestellt zu werden. Das Gesamtbild war zum Zeitpunkt der ersten Berührung des Touchscreens das Referenzbild, das mit der Kamera aufgezeichnet worden war. Die Mitte des Kreuzes des Cursors befand sich auf dem Touchscreen an der Position (1280 x / 720 y). Diese Position entsprach also dem Punkt (2136 x / 1424 y) auf dem Referenzbild und damit auch dem Gesamtbild zu diesem Zeitpunkt. Dieser Punkt wurde bei Berührung des Touchscreens gespeichert und auf dem Touchscreen in Rot dargestellt, um ihn farblich zu markieren. Bei dem Verschwenken des Smartphones, um die rechte untere Ecke unter der Mitte des Kreuzes des Cursors zu positionieren wurden jede 20tel Sekunde die Kamerabilder für die Bildfolge aufgezeichnet. Dabei wurde aus dem Referenzbild und den Kamerabildern der Bildfolge das vorläufige Gesamtbild zusammengesetzt. Dazu wurden charakteristische Punkte im Bild als Bildknoten identifiziert und mit Hilfe von Deskriptoren beschrieben. Dazu wurde das Verfahren SIFT (Scale invariant feature transform) eingesetzt. In Bildpaaren (aktuelles Bild und vorläufiges Gesamtbild als Bildpaar) wurden Featurekorrespondenzen generiert. Aus diesen Featurekorrespondenzen wurde mit robusten Methoden (RANSAC) die Transformation geschätzt. Anschließend wurden noch Filter angewendet (beispielsweise extended Kalman, um die Kamerabewegung per Software zu stabilisieren). Anhand der korrespondierenden Merkmale der Bilder der Bildfolge konnte das vorläufige Gesamtbild aus den Bildern der Bildfolge zusammengesetzt werden. Das Gesamtbild war dann natürlich größer als das erste Referenzbild und wurde in seiner Gesamtheit auf dem Touchscreen dargestellt. Der rote Punkt, der den ersten Punkt definiert hatte, wurde weiterhin an den Koordinaten (2136 x / 1424 y) des Gesamtbildes dargestellt. Der rote Punkt wanderte also auf der Anzeige nach links oben, als das Gesamtbild auf der Suche nach der unteren rechten Ecke des Papiers nach rechts unten durch die weiteren aufgenommenen Bilder der Bildfolge erweitert wurde. Das Kreuz als Cursor wurde weiterhin an dem Bildpunkt im Gesamtbild dargestellt, der der Mitte des Kamerabildes entsprach – also nach rechts unten gegenüber der Mitte verschoben. Schließlich war die Mitte des Kreuzes des Cursors über der rechten unteren Ecke des Papiers zu sehen. Der Finger wurde vom Touchscreen entfernt. Zum Zeitpunkt des Loslassens des Touchscreens wurde das letzte Bild der Bildfolge von der Kamera aufgezeichnet und mit den zuvor aufgenommenen Bildern wie zuvor beschreiben zu dem endgültigen Gesamtbild zusammengesetzt. Die der Mitte des Kreuzes entsprechenden Koordinaten des zu diesem Zeitpunkt von der Kamera aufgenommenen Bildes entsprachen dem zweiten Punkt und die Koordinaten betrugen (5002 x / 3120 y) im Gesamtbild. Das Smartphone hat anschließend aus dem Gesamtbild ein Rechteck mit den beiden gegenüberliegenden Punkten (2136 x / 1424 y) / (5002 x / 3120 y) als Bildbereich ausgeschnitten und abgespeichert. Dieser Bildbereich wurde anschließend an ein Texterkennungsprogramm auf dem Smartphone weitergegeben, das dann anschließend den Text auf dem Papier richtig erkennen konnte.
Reference example - Image capture with a smartphone: on a standard smartphone such as the Samsung Galaxy S7, an app (a computer program) was installed that could access the touch screen (display, control) and the camera (image capture device) and that was configured, the inventive method as follows:
The image captured by the camera was displayed in real time on the S7 touchscreen. In the middle of the screen a semitransparent cross was shown as a cursor. In front of the camera, a rectangular piece of paper with a short text was placed on a table. The camera of the smartphone was aimed at the paper. The smartphone was held so that the center of the cross pointed to the upper left corner of the paper. Now the touch screen has been touched at any point (in this case, bottom right) and kept touching. So the finger was still on the touchscreen after the first touch. Now the camera's shooting range has been changed by moving the smartphone so that the center point crosses to the bottom right corner of the paper. The finger was removed from the touchscreen. The image area, which resulted from a rectangle between these two points, was calculated by the smartphone as follows:
Touching the touch screen, the current image of the camera was saved as the first image. This image served as a reference image. The upper left corner point of the image was the reference point and determined the reference coordinates (0x / 0y). Since the S7 had a resolution of the camera of 4272 × 2848 pixels and a resolution of the touch screen of 2560 × 1440, the camera image was scaled down accordingly to be displayed on the touch screen. The overall image was the reference image recorded with the camera at the time the touch screen touched for the first time. The center of the cursor's cross was on the touch screen at the position (1280 x / 720 y). This position corresponded to the point (2136 x / 1424 y) on the reference image and thus also the overall image at that time. This point was saved when touching the touch screen and displayed in red on the touch screen to colorize it. When the smartphone was panned to position the bottom right corner below the center of the cursor's cross, the camera images were recorded every 20 seconds for the sequence of images. The provisional overall picture was assembled from the reference picture and the camera pictures of the picture sequence. For this purpose, characteristic points in the image were identified as image nodes and described using descriptors. For this purpose, the method SIFT (Scale invariant feature transform) was used. Feature correspondences were generated in image pairs (current image and preliminary overall image as image pair). From these feature correspondences the transformation was estimated using robust methods (RANSAC). Subsequently, filters were applied (for example, extended Kalman to stabilize the camera movement by software). On the basis of the corresponding features of the images of the image sequence, the preliminary overall image could be assembled from the images of the image sequence. Of course, the overall picture was larger than the first reference picture and was shown in its entirety on the touch screen. The red dot that defined the first point was still displayed at the coordinates (2136 x / 1424 y) of the overall image. So, the red dot wandered to the upper left of the screen as the overall image, looking for the lower right corner of the paper, was extended to the lower right by the other captured images in the image sequence. The cross as a cursor was still displayed on the pixel in the overall image, which corresponded to the center of the camera image - so moved to the bottom right opposite the center. Finally, the center of the cross of the cursor was visible above the lower right corner of the paper. The finger was removed from the touch screen. At the time of releasing the touch screen, the last frame of the sequence was recorded by the camera and assembled with the previously taken pictures as previously described to form the final overall picture. The coordinates of the image taken at that time by the camera corresponding to the center of the cross corresponded to the second point and the coordinates were (5002 x / 3120 y) in the whole image. The smartphone has then out of the Overall picture a rectangle with the two opposite points (2136 x / 1424 y) / (5002 x / 3120 y) cut out as an image area and stored. This image area was then passed on to a text recognition program on the smartphone, which was then able to correctly recognize the text on the paper.

Beispiel – Markieren eines rechteckigen Bereichs: Der Ablauf war genauso wie im erstgenannten Referenzbeispiel, es sei denn, dass im Folgenden dazu abweichende Darstellung erfolgt. Zunächst wurde ein Cursor an einem Referenzpunkt in der Mitte der Anzeige angezeigt. Um einen rechteckigen Bildbereich zu markieren, hat man das Gerät zunächst so gehalten, dass der Cursor auf die linke obere Ecke des auszuwählenden Bereichs zeigt (erster Punkt). Durch berühren des Touchscreens (Bedienelement; ähnlich Maus-Button Down oder anderes Ereignis) begann die Selektion. Die linke obere Ecke bleibt fest in den Referenzkoordinaten, also fest relativ zum Bildinhalt. Die rechte untere Ecke des vorläufigen und endgültigen Bildbereiches wurde durch den Cursor bestimmt. Während der Selektion veränderte sich die Position der rechten unteren Ecke durch Verschwenken der Kamera (Bilderfassungsgerät). Durch Steuerung der Cursorposition entsprach die Mitte der Selektion der Displaymitte: Das Gerät wurde so bewegt, dass es einer Verschiebung von (x, y) Pixeln entspricht. Bei dieser Erfindung wurde der Cursor um weitere (x, y) Pixel in dieselbe Richtung bewegt. Die rechteckige Auswahl hatte so eine Größe (Breite, Höhe) von (2x, 2y). Durch Loslassen des Touchscreens (Bedienelement; Button Up) war der Selektionsvorgang abgeschlossen.Example - Marking a rectangular area: The procedure was the same as in the first-mentioned reference example, unless the following is done differently. Initially, a cursor was displayed at a reference point in the middle of the display. In order to mark a rectangular image area, the device was initially held so that the cursor points to the upper left corner of the area to be selected (first point). Touching the touch screen (control element, similar to mouse button Down or other event) started the selection. The upper left corner remains fixed in the reference coordinates, ie fixed relative to the image content. The lower right corner of the preliminary and final image area was determined by the cursor. During the selection, the position of the lower right corner changed by pivoting the camera (image acquisition device). By controlling the cursor position, the center of the middle of the screen selection corresponded to: The device was moved to correspond to a shift of (x, y) pixels. In this invention, the cursor has been moved around further (x, y) pixels in the same direction. The rectangular selection had a size (width, height) of (2x, 2y). By releasing the touchscreen (control element, button up), the selection process was completed.

Beispiel – Markieren mit dem Lasso-Effekt: Der Ablauf war genauso wie im erstgenannten Referenzbeispiel, es sei denn, dass im Folgenden dazu abweichende Darstellung erfolgt. Die Markierung eines Bildbereiches mit einem Rechteck ließ sich auch auf die Markierung durch eine beliebig geformte Kontur (“Lasso”) übertragen. Hierzu wurde während der Selektion fortwährend das geometrische Zentrum der Selektion und seine Lage relativ zum Referenzpunkt (Displaymitte) bestimmt. War das Geräte (also der Referenzpunkt im Display) um (x, y) gegen das Zentrum der Selektion verschoben, so wird der Cursor um weitere (x, y) Pixel in dieselbe Richtung verschoben dargestellt. Zu Beginn der Selektion ist der Cursor also auf dem Referenzpunkt. Es sind auch andere, auch nicht-lineare Verschiebungen des Cursors als Funktion der 2D-Verschiebung zwischen Zentrum und Referenzpunkt denkbar.Example - Marking with the lasso effect: The procedure was the same as in the first reference example, unless otherwise stated below. The marking of an image area with a rectangle could also be transferred to the marking by an arbitrarily shaped contour ("lasso"). For this purpose, the geometric center of the selection and its position relative to the reference point (display center) was continuously determined during the selection. If the device (ie the reference point in the display) was shifted by (x, y) towards the center of the selection, then the cursor is shifted by further (x, y) pixels in the same direction. At the beginning of the selection, the cursor is at the reference point. There are also other, non-linear displacements of the cursor as a function of the 2D displacement between the center and reference point conceivable.

Objektbasierte Bildselektion: In diesem Beispiel wird das Referenzbeispiel erweitert und erläutert. In dem vorläufigen Gesamtbild wurden Buchstaben (Objekte) über Buchstabenerkennungsmethoden (beispielsweise Stroke-Width-Transform-Methode und OCR) erkannt. Zu diesen Objekten wurden Bildknoten mit Koordinaten und Deskriptoren gespeichert. Vor dem Loslassen des Touchscreens (also in Schritt c.) konnten einzelne Buchstaben selektiert werden, indem die Mitte des Kreuzes vom Cursor über einen Buchstaben positioniert wurde. Der selektierte Buchstabe wurde für die Zeitdauer, dass der Cursor über dem Buchstaben positioniert war, blau eingefärbt. Es wurde eine halbtransparente Kontextbox in der Anzeige am Rand eingeblendet wo der Buchstabe „R“ eingeblendet wurde, denn dieser Buchstabe war gerade selektiert worden.Object-based image selection: In this example, the reference example is expanded and explained. In the preliminary overall picture, letters (objects) were recognized by letter recognition methods (for example, stroke-width-transform method and OCR). Image nodes with coordinates and descriptors were saved for these objects. Before releasing the touch screen (ie in step c.), Individual letters could be selected by positioning the center of the cross over a letter by the cursor. The selected letter was colored blue for the length of time that the cursor was positioned over the letter. A semitransparent context box was shown in the display on the edge where the letter "R" was shown, because this letter had just been selected.

In einer Abwandlung wurde noch vor Schritt b. der Cursor über einen Buchstaben gebracht, dann der Touchscreen gedrückt, und dann der Cursor über die nachfolgenden Buchstaben des gleichen Wortes geführt (Schritt c.) und am letzten Buchstaben wieder losgelassen (Schritt d.). Dabei veränderte der Cursor seine Form und Höhe insofern, als dass die Form in einem Textcursor geändert wurde, der die Höhe des erkannten Wortes einnahm. Dabei wurden die Buchstaben des Wortes blau eingefärbt und das erkannte Wort in einer halbtransparenten Box nach Loslassen des Touchscreens angezeigt. In diesem Fall war der errechnete Bildbereich aus Schritt e. die Fläche im Gesamtbild, die das erkannte Wort eingenommen hat.In a modification, before step b. Move the cursor over a letter, then press the touchscreen, and then move the cursor over the subsequent letters of the same word (step c.) and release it on the last letter (step d.). In doing so, the cursor changed its shape and height in that the shape was changed in a text cursor that took the height of the recognized word. The letters of the word were colored blue and the recognized word displayed in a semi-transparent box after releasing the touch screen. In this case, the calculated image area from step e. the area in the overall image that took the recognized word.

Foto machen und beschriften: In diesem Beispiel wird das Referenzbeispiel erweitert und erläutert. Nach Schritt e. wurde der Cursor erneut auf der Anzeige in der Mitte angezeigt. Weiterhin wurde der errechnete Bildbereich auf der Anzeige durch grüne Linien dargestellt. Dies konnte dadurch realisiert werden, dass das Gesamtbild analog wie in den vorigen Beispielen beschrieben mit dem Echtzeitbild von der Kamera anhand von korrespondierenden Merkmalen abgeglichen wurde. Während das Echtzeitbild von der Kamera auf der Anzeige dargestellt wurde, wurden die Ränder des errechneten Bildbereichs auf der Anzeige durch grüne Linien dargestellt. Je nachdem, wohin man die Kamera blicken ließ, wurden dann natürlich die grünen Ränder auf der Anzeige verschoben oder wanderten sogar aus der Anzeige heraus. In diesem konkreten Beispiel konnte man den Bildbereich und damit quasi das Foto dadurch beschriften, dass man die Mitte des Kreuzes des Cursors innerhalb des angezeigten Bildbereiches positioniert und den Touchscreen berührt hat. Dadurch wurde an der ausgewählten Position ein Textfeld dargestellt, in das man nun mit der virtuellen Tastatur des Smartphones eine Beschriftung eingeben konnte. Sobald der Benutzer die Beschriftung durch Betätigung der Enter/Return Taste beendet hatte, wurde der errechnete Bildbereich zusammen mit der Beschriftung als Bild im Format JPG auf dem Smartphone abgespeichert und konnte per E-Mail versendet werden.Making and labeling: In this example, the reference example is expanded and explained. After step e. the cursor was redisplayed in the middle of the screen. Furthermore, the calculated image area on the display was represented by green lines. This could be realized by the fact that the overall image was compared with the real-time image from the camera on the basis of corresponding features, as described in the previous examples. While the real-time image from the camera was displayed on the screen, the edges of the calculated image area on the screen were represented by green lines. Of course, depending on where you looked at the camera, the green borders on the display were moved or even moved out of the display. In this particular example, you could label the image area and thus the photo as you have positioned the center of the cross of the cursor within the displayed image area and touched the touch screen. As a result, a text field was displayed at the selected position, in which you could now enter a label with the virtual keyboard of the smartphone. As soon as the user had finished the labeling by pressing the Enter / Return key, the calculated image area together with the label was saved as an image in JPG format on the smartphone and could be sent by e-mail.

Die in der vorliegenden Beschreibung, in den Zeichnungen sowie in den Ansprüchen offenbarten Merkmale der Erfindung können sowohl einzeln als auch in beliebigen Kombinationen für die Verwirklichung der Erfindung in ihren verschiedenen Ausführungsformen wesentlich sein. Die Erfindung ist nicht auf die beschriebenen Ausführungsformen beschränkt. Sie kann im Rahmen der Ansprüche und unter Berücksichtigung der Kenntnisse des zuständigen Fachmanns variiert werden. The features of the invention disclosed in the present description, in the drawings and in the claims may be essential both individually and in any desired combinations for the realization of the invention in its various embodiments. The invention is not limited to the described embodiments. It can be varied within the scope of the claims and taking into account the knowledge of the person skilled in the art.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
Smartphone Smartphone
1212
Tastatur keyboard
1414
Arbeitsspeicher random access memory
1616
Speichermedium storage medium
1818
Firmware firmware
2020
Datenbus bus
2222
Prozessor processor
2424
Transceiver transceiver
2626
Anzeige display
2828
Kamera camera
3030
Beschleunigungssensor accelerometer
3232
Aufnahmebereich reception area
3434
Cursor cursor
3636
Bildbereich image area
3838
Betätigung Bedienelement (erster Punkt) Operation control element (first point)
4040
Aufnahmebereich wird verändert Recording area is changed
4242
Betätigung Bedienelement (zweiter Punkt) Operation control element (second point)
4444
Erfassung der Bildfolge Capture the image sequence
4646
Berechnung des Bildbereichs Calculation of the image area
4848
Ausgabe des Bildbereichs Output of the image area
50 50
Bedienelement erneut berührtTouched control again
5252
Eingabe von Text Input of text
5454
Beendigung der Eingabe  Termination of input

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • WO 97/48037 A1 [0004] WO 97/48037 A1 [0004]
  • US 2010/0031041 A1 [0005] US 2010/0031041 A1 [0005]
  • US 2011/0285810 A1 [0006, 0060] US 2011/0285810 A1 [0006, 0060]
  • US 2011/0285810 [0040, 0044] US 2011/0285810 [0040, 0044]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Zisserman/Hartley „Multiple View Geometry in Computer Vision“ (Cambridge University Press, 2004) [0054] Zisserman / Hartley "Multiple View Geometry in Computer Vision" (Cambridge University Press, 2004) [0054]

Claims (11)

Verfahren zur Bilderfassung zur Ausführung auf einem System zur Bilderfassung umfassend wenigstens ein Bilderfassungsgerät, eine Anzeige und ein Datenverarbeitungsgerät, umfassend folgende Schritte: a. das Bilderfassungsgerät erfasst eine kontinuierliche Folge von Bildern, die auf der Anzeige dargestellt werden, b. durch Betätigung eines Bedienelements wird ein erster Punkt auf einem ersten Bild markiert, c. der Aufnahmebereich des Bilderfassungsgeräts wird verändert, d. durch Betätigung eines zweiten Bedienelements wird ein zweiter Punkt auf einem zweiten Bild markiert, und e. das Datenverarbeitungsgerät errechnet wenigstens aus dem ersten Punkt und dem zweiten Punkt einen Bildbereich.A method of image acquisition for execution on a system for image capture comprising at least one image capture device, a display and a data processing device, comprising the following steps: a. the image capture device captures a continuous sequence of images displayed on the display, b. by actuating a control element, a first point is marked on a first image, c. the recording area of the image acquisition device is changed, d. by actuating a second control element, a second point is marked on a second image, and e. the data processing device calculates an image area at least from the first point and the second point. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in Schritt c. aus dem ersten Punkt und einem vorläufigen zweiten Punkt ein vorläufiger Bildbereich von dem Datenverarbeitungsgerät errechnet wird und der vorläufige Bildbereich zentriert und/oder skaliert auf der Anzeige dargestellt wird.A method according to claim 1, characterized in that in step c. from the first point and a preliminary second point a preliminary image area is calculated by the data processing device and the preliminary image area is centered and / or scaled on the display. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Bildbereich zweidimensional ist.A method according to claim 1 or 2, characterized in that the image area is two-dimensional. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass der Bildbereich von der Fläche her bis zu 90%, vorzugsweise bis zu 50%, ganz besonders bevorzugt bis zu 30%, des erfassten Gesamtbildes ausmacht.Method according to one of claims 1 to 3, characterized in that the image area of the area makes up up to 90%, preferably up to 50%, most preferably up to 30%, of the total recorded image. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass in Schritt b. und/oder Schritt d. der erste und/oder zweite Punkt derjenige Punkt im ersten und/oder zweiten Bild ist, der unter einem auf der Anzeige markierten Cursor zum Zeitpunkt der Bedienung des jeweiligen Bedienelements angeordnet ist.Method according to one of claims 1 to 4, characterized in that in step b. and / or step d. the first and / or second point is that point in the first and / or second image which is arranged under a cursor marked on the display at the time of operation of the respective operating element. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass in Schritten a., b. und/oder d. Echtzeitbilder auf der Anzeige angezeigt werden.A method according to any one of claims 1 to 5, characterized in that in steps a., B. and / or d. Real-time images are displayed on the display. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das Verfahren autark, vorzugsweise ohne Verbindung zu einem Server, abläuft.Method according to one of claims 1 to 6, characterized in that the method runs autonomously, preferably without connection to a server. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Datenverarbeitungsgerät in Schritt c. ausgehend von dem ersten Punkt ein vorläufiges Gesamtbild errechnet, wobei dieses vorläufige Gesamtbild vollständig auf der Anzeige dargestellt wird, wobei ein vorläufiger zweiter Punkt als derjenige Punkt in einem Bild der erfassten Folge von Bildern angenommen wird, der unter einem auf der Anzeige angezeigten Cursor liegt.Method according to one of claims 1 to 7, characterized in that the data processing device in step c. starting from the first point, a preliminary total image is calculated, this provisional overall image being displayed completely on the display, assuming a provisional second point as the point in an image of the acquired sequence of images lying below a cursor displayed on the display. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass während der Schritte a. bis d. ein Cursor auf der Anzeige angezeigt wird.Method according to one of claims 1 to 8, characterized in that during steps a. to d. a cursor appears on the display. System zur Bilderfassung umfassend wenigstens ein Bilderfassungsgerät, eine Anzeige und ein Datenverarbeitungsgerät, wobei das System zur Ausführung des Verfahrens gemäß einem der vorangehenden Ansprüche konfiguriert ist.A system for image acquisition comprising at least one image capture device, a display and a data processing device, wherein the system is configured to carry out the method according to one of the preceding claims. Computerprogrammprodukt ausführbar auf wenigstens einem Prozessor, das bei Ablauf auf einem Datenverarbeitungsgerät zumindest den Schritt e. des Verfahrens gemäß einem der Ansprüche 1 bis 9 durchführt.Computer program product executable on at least one processor, which at least expires on a data processing device step e. of the method according to one of claims 1 to 9 performs.
DE102016119071.3A 2016-10-07 2016-10-07 image capture Withdrawn DE102016119071A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016119071.3A DE102016119071A1 (en) 2016-10-07 2016-10-07 image capture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016119071.3A DE102016119071A1 (en) 2016-10-07 2016-10-07 image capture

Publications (1)

Publication Number Publication Date
DE102016119071A1 true DE102016119071A1 (en) 2018-04-12

Family

ID=61695858

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016119071.3A Withdrawn DE102016119071A1 (en) 2016-10-07 2016-10-07 image capture

Country Status (1)

Country Link
DE (1) DE102016119071A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997048037A1 (en) 1996-06-12 1997-12-18 Criticom Corporation Graphical user interfaces for computer vision systems
US20090227283A1 (en) * 2005-04-15 2009-09-10 Timo Pekka Pylvanainen Electronic device
US20100031041A1 (en) 2008-08-04 2010-02-04 Postalguard Ltd. Method and system for securing internet communication from hacking attacks
US20110285810A1 (en) 2010-05-21 2011-11-24 Qualcomm Incorporated Visual Tracking Using Panoramas on Mobile Devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997048037A1 (en) 1996-06-12 1997-12-18 Criticom Corporation Graphical user interfaces for computer vision systems
US20090227283A1 (en) * 2005-04-15 2009-09-10 Timo Pekka Pylvanainen Electronic device
US20100031041A1 (en) 2008-08-04 2010-02-04 Postalguard Ltd. Method and system for securing internet communication from hacking attacks
US20110285810A1 (en) 2010-05-21 2011-11-24 Qualcomm Incorporated Visual Tracking Using Panoramas on Mobile Devices

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zisserman/Hartley „Multiple View Geometry in Computer Vision" (Cambridge University Press, 2004)

Similar Documents

Publication Publication Date Title
DE112017002799B4 (en) METHOD AND SYSTEM FOR GENERATION OF MULTIMODAL DIGITAL IMAGES
DE60314563T2 (en) Overlay with electronic ink
DE60310331T2 (en) Method, device, program and data carrier for processing image data
DE102018006247A1 (en) Digital image completion using deep learning
DE112007001789B9 (en) Method for evaluating an image with respect to a dominant line
DE102017010210A1 (en) Image Matting by means of deep learning
DE112019000687T5 (en) PHOTOREALISTIC THREE-DIMENSIONAL TEXTURING USING CANONICAL VIEWS AND A TWO-STAGE APPROACH
DE112015004827T5 (en) Improved drag-and-drop operation in a mobile device
DE102015209138A1 (en) Monitoring device, monitoring system and monitoring method
DE102018129863A1 (en) Apparatus and method for data processing
DE202011110907U1 (en) Multi-touch marker menus and directional pattern-forming gestures
DE102017218120A1 (en) A method of providing haptic feedback to an operator of a touch-sensitive display
DE112018002775T5 (en) METHOD AND DEVICE FOR DETECTING PLANES AND / OR QUADTREES FOR USE AS A VIRTUAL SUBSTRATE
DE112011105917T5 (en) User interface device
EP2691934B1 (en) Identikit database
DE112017006406T5 (en) INTELLIGENT AUTOMATIC CUTTING OF PICTURES
DE102016109891A1 (en) Data browsing device, data browsing method, program and storage medium
DE102018003475A1 (en) Form-based graphic search
DE102013109862A1 (en) Device and method for user connection and terminal that uses the same
DE202015009137U1 (en) Use image features to extract viewports from images
DE112013002384T5 (en) Information processing apparatus, method for controlling the information processing apparatus and storage medium
DE102017005964A1 (en) Techniques for selecting objects in images
DE102017011422A1 (en) Baring prediction for a three-dimensional digital content
DE112017001660T5 (en) Data processing device, data processing method and computer readable medium
DE112017004394T5 (en) Gesture judging means, gesture operation means and gesture judging methods

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: PIXOLUS GMBH, DE

Free format text: FORMER OWNER: PIXOLUS GMBH, 50933 KOELN, DE

R082 Change of representative

Representative=s name: FREISCHEM & PARTNER PATENTANWAELTE MBB, DE

R120 Application withdrawn or ip right abandoned