DE102019214283A1 - Method and device for processing an image recorded by a camera - Google Patents
Method and device for processing an image recorded by a camera Download PDFInfo
- Publication number
- DE102019214283A1 DE102019214283A1 DE102019214283.4A DE102019214283A DE102019214283A1 DE 102019214283 A1 DE102019214283 A1 DE 102019214283A1 DE 102019214283 A DE102019214283 A DE 102019214283A DE 102019214283 A1 DE102019214283 A1 DE 102019214283A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- transformation
- camera
- user
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Abstract
Verfahren (10) zum Verarbeiten eines durch eine Kamera aufgenommenen Bildes,gekennzeichnet durch folgende Merkmale:- in einem Transformationsmodus wird das Bild einer vorgegebenen Transformation (13) unterzogen und einem Nutzer auf einer Darstellungseinheit (21) angezeigt und- der Transformationsmodus wird bei einem vorgegebenen Ereignis verlassen (14).Method (10) for processing an image recorded by a camera, characterized by the following features: - in a transformation mode, the image is subjected to a predetermined transformation (13) and displayed to a user on a display unit (21) and Exit event (14).
Description
Die vorliegende Erfindung betrifft ein Verfahren zum Verarbeiten eines durch eine Kamera aufgenommenen Bildes. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.The present invention relates to a method for processing an image captured by a camera. The present invention also relates to a corresponding device, a corresponding computer program and a corresponding storage medium.
Stand der TechnikState of the art
Unter erweiterter Realität (augmented reality, AR) wird gemeinhin die computergestützte Erweiterung der Realitätswahrnehmung in Echtzeit verstanden.Augmented reality (AR) is generally understood to mean the computer-aided expansion of the perception of reality in real time.
In
Offenbarung der ErfindungDisclosure of the invention
Die Erfindung stellt ein Verfahren zum Verarbeiten eines durch eine Kamera aufgenommenen Bildes, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.The invention provides a method for processing an image recorded by a camera, a corresponding device, a corresponding computer program and a corresponding storage medium according to the independent claims.
Dem erfindungsgemäßen Verfahren liegt die Erkenntnis zugrunde, dass sich bei üblichen AR-Anwendungen die auf dem AR-Endgerät dargestellten (augmentierten) Inhalte auf virtuelle 3D-Modelle oder zweidimensionale Flächen auf realen Oberflächen oder im Raum zur Darstellung von Text, Bildern, Videos oder Programmen beziehen. Bei vielen Anwendungen kann es von Vorteil sein, wenn statt solchen virtuellen (zusätzlichen) Objekten das Erscheinungsbild von realen Objekten für den Nutzer des AR-Endgeräts in verarbeiteter Form dargestellt wird.The method according to the invention is based on the knowledge that in conventional AR applications the (augmented) content displayed on the AR terminal is based on virtual 3D models or two-dimensional surfaces on real surfaces or in space for displaying text, images, videos or programs Respectively. In many applications it can be advantageous if, instead of such virtual (additional) objects, the appearance of real objects is displayed in processed form for the user of the AR terminal.
Mit dem vorgeschlagenen Verfahren wird es möglich, dass in bestimmten Situationen Teile der Umgebung für den Nutzer anders dargestellt werden, um ihn bei einer Aufgabe zu unterstützen. Dabei wird das aufgenommene Kamerabild in einer gewünschten Weise transformiert und im Sichtfeld des Nutzers dargestellt. Eine detaillierte Interpretation des Kamerabildes ist dabei nicht unbedingt erforderlich, was den Rechenaufwand im Rahmen hält. Im Gegensatz zu herkömmlichen AR-Anwendungen erfolgt also keine Erweiterung der Realität durch zusätzlich eingeblendete virtuelle Objekte, sondern eine auf spezifische Weise transformierte Darstellung der tatsächlichen Realität. Der Wechsel vom Standard-Modus des AR-Endgeräts in den erfindungsgemäßen Modus und umgekehrt gestaltet sich dabei für den Nutzer unkompliziert. Er kann unterschiedliche Teile seiner Aufgabe so mit demselben Gerät effizient durchführen.With the proposed method, it is possible that, in certain situations, parts of the environment are presented differently to the user in order to support him with a task. The recorded camera image is transformed in a desired manner and displayed in the user's field of vision. A detailed interpretation of the camera image is not absolutely necessary, which keeps the computational effort within limits. In contrast to conventional AR applications, there is no expansion of reality through additionally superimposed virtual objects, but a representation of actual reality that is transformed in a specific way. The change from the standard mode of the AR terminal to the mode according to the invention and vice versa is uncomplicated for the user. In this way, he can efficiently carry out different parts of his task with the same device.
Ein Vorzug dieser Lösung liegt in der Schaffung einer hilfreichen Erweiterung von AR-Videobrillen, die das dargestellte Bild für den Betrachter aufbereitet und ihn dabei unterstützt, bestimmte Arbeiten einfacher durchzuführen. Durch unterschiedliche Bildtransformationen sind dabei vielfältige Hilfestellungen für den Nutzer denkbar. Durch eine geeignete Vorauswahl der interessanten Bildbereiche sowie einen einfachen und schnellen Wechsel zwischen AR-Funktionalität und veränderter Darstellung der realen Umgebung können viele Aufgaben vereinfacht werden, bei denen derzeit unterschiedliche Hilfsmittel genutzt werden.One advantage of this solution is the creation of a helpful extension of AR video glasses, which prepares the displayed image for the viewer and supports him in doing certain work more easily. Various types of assistance for the user are conceivable through different image transformations. A suitable pre-selection of the interesting image areas as well as a simple and quick change between AR functionality and a changed representation of the real environment can simplify many tasks in which different aids are currently used.
Der vorgeschlagene Transformationsmodus setzt dabei keine wesentlichen Änderungen der Hardware der AR-Endgeräte voraus. Kamera, Verarbeitungseinheit und Bildschirm sind auch bei konventionellen AR-Endgeräten vorhanden. Der zusätzliche Modus stellt unter Umständen sogar geringere Anforderungen an die Hardware der AR-Brille als deren herkömmlicher AR-Modus. Eine Transformation des gesamten Bildes oder eines festen Bildausschnitts verursacht mitunter einen geringeren Rechenaufwand als die Darstellung von virtuellen Objekten an realen Bezugspunkten mittels optischer Bilderkennung.The proposed transformation mode does not make any significant changes to the Hardware of the AR end devices ahead. The camera, processing unit and screen are also present in conventional AR devices. The additional mode may even make lower demands on the hardware of the AR glasses than their conventional AR mode. A transformation of the entire image or a fixed image section sometimes causes less computational effort than the representation of virtual objects at real reference points by means of optical image recognition.
Ausführungsformen der Erfindung könnten im Rahmen unterschiedlichster Anwendungen eingesetzt werden, bei denen der Nutzer sowohl durch zusätzliche Informationen als auch durch eine veränderte Darstellung der Umgebung unterstützt werden kann, ohne das optische Hilfsmittel, in diesem Fall die AR-Brille, wechseln zu müssen. Derartige Anwendungen umfassen Aufbau und Reparatur oder Wartung von filigranen Komponenten (Vergrößerung), Überwachung von Anlagen (Hervorhebung von Bildausschnitten) und Arbeiten bei schlechten, veränderlichen Sichtverhältnissen (Helligkeits- und Kontrastveränderung) .Embodiments of the invention could be used in the context of a wide variety of applications in which the user can be supported both by additional information and by a changed representation of the environment without having to change the optical aid, in this case the AR glasses. Such applications include the construction and repair or maintenance of filigree components (enlargement), monitoring of systems (highlighting of image sections) and working in poor, changing visibility conditions (changes in brightness and contrast).
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. So kann der Wechsel der Modi durch Sprachkommandos und Kopfbewegungen vorgesehen sein. Dies birgt den Vorteil, dass dem Benutzer weiterhin beide Hände zur Erfüllung seiner Aufgabe zur Verfügung stehen, da er diese nicht zum Wechsel des Modus benötigt. Dies ist insbesondere bei solchen Aufgaben von Nutzen, die beidhändig ausgeführt werden müssen, sodass keine Hand zur Bedienung des Endgeräts frei ist.The measures listed in the dependent claims enable advantageous developments and improvements of the basic idea specified in the independent claim. Modes can be changed by voice commands and head movements. This has the advantage that the user continues to have both hands available to carry out his task, since he does not need them to change the mode. This is particularly useful for tasks that have to be carried out with both hands so that no hand is free to operate the terminal.
FigurenlisteFigure list
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 das Flussdiagramm eines Verfahrens gemäß einer ersten Ausführungsform. -
2 schematisch eine AR-Brille gemäß einer zweiten Ausführungsform im Standardmodus. -
3 einen erweiterten Modus mit Lupenfunktion, bei dem das Kamerabild vergrößert dargestellt wird.
-
1 the flow chart of a method according to a first embodiment. -
2 schematically, AR glasses according to a second embodiment in standard mode. -
3rd an extended mode with a magnifying glass function, in which the camera image is shown enlarged.
Ausführungsformen der ErfindungEmbodiments of the invention
In einem optionalen ersten Schritt (
In einem ebenfalls optionalen zweiten Schritt (
In einem dritten Schritt (
In einem vierten Schritt (
Diese Schritte (
Die Detektion von interessanten Bildbereichen im ersten Schritt (
Neben den anhand des Kamerabildes gewonnenen Erkenntnissen kann weiteres Wissen über die Objekte vorhanden sein und zur Vorauswahl interessanter Bildbereiche genutzt werden. So können etwa Position und Status von Roboterarmen, Waren auf Transportsystemen oder anderen Objekten von externen Informationsquellen bezogen werden.In addition to the knowledge gained from the camera image, further knowledge about the objects can be available and used to preselect interesting image areas. For example, the position and status of robot arms, goods on transport systems or other objects can be obtained from external information sources.
Die für eine Bildtransformation in Betracht kommenden Bereiche werden dem Nutzer durch entsprechende Markierungen auf der Darstellungseinheit zur Auswahl angeboten.The areas that come into consideration for image transformation are offered to the user for selection by corresponding markings on the display unit.
Aus dieser Auswahl wählt der Nutzer im zweiten Schritt (
Zu denken ist ferner an Hand- und Fingergesten, die im Sichtbereich der Kamera ausgeführt und durch Bildverarbeitung erfasst werden. Alternativ könnten solche Gesten durch einen Sensorhandschuh erkannt und dem AR-Endgerät mitgeteilt werden.Another consideration is hand and finger gestures that are carried out in the field of vision of the camera and captured by image processing. Alternatively, such gestures could be recognized by a sensor glove and communicated to the AR terminal.
Möglich sind schließlich Sprachkommandos, die über ein Mikrofon aufgenommen und ihrem Sinngehalt entsprechend verarbeitet werden, spezielle Kopfbewegungen wie Nicken, Drehen oder Schrägstellen des Kopfs, die durch Lage-, Beschleunigungs- und Drehratensensoren, aber auch durch eine Bildverarbeitung des Kamerabildes detektiert werden können, oder die Fixierung des Blicks auf einen Bereich. Für die Bestimmung der Blickrichtung können gesonderte Kameras verwendet werden, die die Augen des Nutzers erfassen. Alternativ kann auch die Bildmitte des Kamerabildes als Anhaltspunkt für die Blickrichtung verwendet werden. Die letztliche Auswahl des in Blickrichtung liegenden Bereiches kann entweder nach einer bestimmten Dauer der Fixierung selbsttätig oder einer Bestätigung durch manuelle Eingabe, Geste oder Sprachkommando erfolgen.Finally, voice commands that are recorded via a microphone and processed according to their meaning are possible, special head movements such as nodding, turning or tilting the head, which can be detected by position, acceleration and rotation rate sensors, but also by image processing of the camera image, or the fixation of the gaze on an area. Separate cameras that capture the user's eyes can be used to determine the viewing direction. Alternatively, the center of the camera image can also be used as a reference point for the viewing direction. The final selection of the area lying in the viewing direction can be made either automatically after a certain period of fixation or a confirmation by manual input, gesture or voice command.
Darüber hinaus ist auch denkbar, dass die Auswahl des Bereiches für die Bildtransformation durch einen Dritten erfolgt. Die automatische Erkennung infrage kommender Bereiche und deren Auswahl durch den Nutzer oder gemäß einer vorgegebenen Regel im Rahmen des Verfahrens (
Im dritten Schritt (
Alternativ kann eine Bildtransformation auf alle anderen Bereiche des Kamerabildes außerhalb des gewählten Bereichs bzw. abseits des ausgewählten Objekts erfolgen, um z. B. eine Ablenkung des Nutzers zu verhindern. Einschlägige Maßnahmen umfassen die Schwärzung oder anderweitige Überdeckung mit einer oder mehreren Farben oder Farbverläufen sowie unscharfe Darstellung dieser Bereiche.Alternatively, an image transformation can take place on all other areas of the camera image outside the selected area or away from the selected object in order to e.g. B. to prevent distraction of the user. Relevant measures include blackening or other covering with one or more colors or color gradients as well as blurring these areas.
Gerade für den Fall, dass die Bildtransformation nicht vom Nutzer selbst, sondern durch das AR-Endgerät oder einen Dritten ausgewählt wird, bietet es sich an, die Transformation (
Im Modus der Bildtransformation ist es sowohl denkbar, dass weiterhin AR-Inhalte eingeblendet werden, als auch dass diese Einblendung ausgesetzt wird.In the image transformation mode, it is both conceivable that AR content will continue to be displayed and that this display will be suspended.
Im vierten Schritt (
Ein Anwendungsbeispiel für den praktischen Nutzen einer AR-Brille mit Standard- und Zusatzfunktion könnte die computerunterstützte Bestückung einer Platine mit sehr kleinen Bauteilen sein. Ein entsprechendes Szenario ist in
Für die Durchführung des Arbeitsschritts selbst, vorliegend also das filigrane Löten eines sehr kleinen Bauteils, ist der zweite Modus der AR-Brille (
Nach dem durch den Nutzer bestätigten Wechsel in den Transformationsmodus wird der besagte Bildbereich oder das gesamte Bild digital vergrößert und - wie in
Nachdem der Arbeitsschritt mittels der Vergrößerung erfolgreich abgeschlossen wurde, versetzt der Nutzer die AR-Brille (
Dieses Verfahren (
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 9269011 B1 [0003]US 9269011 B1 [0003]
- US 20140043365 A1 [0004]US 20140043365 A1 [0004]
- GB 2513865 A [0005]GB 2513865 A [0005]
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019214283.4A DE102019214283A1 (en) | 2019-09-19 | 2019-09-19 | Method and device for processing an image recorded by a camera |
PCT/EP2020/071084 WO2021052660A1 (en) | 2019-09-19 | 2020-07-27 | Method and device for processing an image recorded by a camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019214283.4A DE102019214283A1 (en) | 2019-09-19 | 2019-09-19 | Method and device for processing an image recorded by a camera |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019214283A1 true DE102019214283A1 (en) | 2021-03-25 |
Family
ID=71833341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019214283.4A Withdrawn DE102019214283A1 (en) | 2019-09-19 | 2019-09-19 | Method and device for processing an image recorded by a camera |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102019214283A1 (en) |
WO (1) | WO2021052660A1 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870642B2 (en) | 2012-08-10 | 2018-01-16 | Here Global B.V. | Method and apparatus for layout for augmented reality view |
US10656808B2 (en) * | 2012-09-18 | 2020-05-19 | Adobe Inc. | Natural language and user interface controls |
US8799829B2 (en) * | 2012-09-28 | 2014-08-05 | Interactive Memories, Inc. | Methods and systems for background uploading of media files for improved user experience in production of media-based products |
US9269011B1 (en) | 2013-02-11 | 2016-02-23 | Amazon Technologies, Inc. | Graphical refinement for points of interest |
GB2513865A (en) | 2013-05-07 | 2014-11-12 | Present Pte Ltd | A method for interacting with an augmented reality scene |
US9274693B2 (en) * | 2013-10-16 | 2016-03-01 | 3M Innovative Properties Company | Editing digital notes representing physical notes |
-
2019
- 2019-09-19 DE DE102019214283.4A patent/DE102019214283A1/en not_active Withdrawn
-
2020
- 2020-07-27 WO PCT/EP2020/071084 patent/WO2021052660A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021052660A1 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2157903B1 (en) | Method for perception measurement | |
DE102010063392B4 (en) | Microscope with touch screen, associated control and operating procedures | |
DE102016210288A1 (en) | Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device | |
DE202005021436U1 (en) | Optically enhanced digital imaging system | |
DE112006002954T5 (en) | Virtual interface system | |
DE102005034597A1 (en) | Method and device for generating a depth map | |
DE3609469A1 (en) | DISPLAY CONTROL DEVICE | |
DE102005058240A1 (en) | Tracking system and method for determining poses | |
DE102019133756A1 (en) | SYSTEMS AND METHODS FOR GENERATING A LIGHTING DESIGN | |
DE102019107064A1 (en) | Display method, electronic device and storage medium therewith | |
WO1998015964A1 (en) | Method and device for operating at least one device | |
DE102012008986B4 (en) | Camera system with adapted ROI, motor vehicle and corresponding method | |
DE102019214283A1 (en) | Method and device for processing an image recorded by a camera | |
DE102013013698A1 (en) | Method for operating electronic data glasses and electronic data glasses | |
EP3857303A1 (en) | Method for setting the focus of a film camera | |
WO2016046124A1 (en) | Display device which can be placed on the head of a user, and method for controlling such a display device | |
EP2555097A1 (en) | Method and device for determining a section of an image and triggering imaging using a single touch-based gesture | |
DE19812599A1 (en) | Video microscopy method | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102019207454B4 (en) | Augmented Reality System | |
DE112004002016T5 (en) | Hand-held device for data navigation and data display | |
DE102019112471A1 (en) | Method, computer program, computer-readable medium, driver assistance system and vehicle for providing visual information about at least one hidden part of an environment | |
DE102020209453A1 (en) | Method and device for augmented reality presentation of language learning content | |
DE102013211046A1 (en) | Method and device for obtaining a control signal from an operating gesture | |
DE102019102423A1 (en) | Method for live annotation of sensor data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |