WO2021191708A1 - Verfahren zur wiedererkennung von oberflächen - Google Patents
Verfahren zur wiedererkennung von oberflächen Download PDFInfo
- Publication number
- WO2021191708A1 WO2021191708A1 PCT/IB2021/051754 IB2021051754W WO2021191708A1 WO 2021191708 A1 WO2021191708 A1 WO 2021191708A1 IB 2021051754 W IB2021051754 W IB 2021051754W WO 2021191708 A1 WO2021191708 A1 WO 2021191708A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- camera
- detail
- prominent
- video stream
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000010191 image analysis Methods 0.000 claims description 2
- 238000010422 painting Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000000701 chemical imaging Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
- G01N21/95607—Inspecting patterns on the surface of objects using a comparative method
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/018—Certifying business or products
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07D—HANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
- G07D7/00—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
- G07D7/06—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
- G07D7/12—Visible light, infrared or ultraviolet radiation
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07D—HANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
- G07D7/00—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
- G07D7/20—Testing patterns thereon
- G07D7/202—Testing patterns thereon using pattern matching
- G07D7/2033—Matching unique patterns, i.e. patterns that are unique to each individual paper
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07D—HANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
- G07D7/00—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
- G07D7/20—Testing patterns thereon
- G07D7/202—Testing patterns thereon using pattern matching
- G07D7/206—Matching template patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/956—Inspecting patterns on the surface of objects
- G01N21/95607—Inspecting patterns on the surface of objects using a comparative method
- G01N2021/95615—Inspecting patterns on the surface of objects using a comparative method with stored comparision signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/02—Mechanical
- G01N2201/022—Casings
- G01N2201/0221—Portable; cableless; compact; hand-held
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/06—Illumination; Optics
- G01N2201/061—Sources
- G01N2201/0616—Ambient light is used
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Definitions
- the invention relates to a method for the recognition of surfaces, in particular for the optical detection of structured and / or pictorial surfaces, for example of paintings or sculptures.
- DE 102014018940 A1 discloses a method for assessing colored or lacquered surfaces using a lamp.
- the lamp an LED or halogen lamp, should be able to generate a light spectrum similar to daylight that can be controlled or regulated. In particular, it should be possible to switch between daylight and the color spectrum that is more suitable for assessing the surface.
- a stationary optical scanning device for flat surfaces is disclosed in DE 3737631 C1. It has a laser light source, a light deflection device acted upon by the laser light beam, an imaging element, an imaging retroreflector and a light receiving device. It is used for troubleshooting on reflective surfaces, whereby fluttering of the surface should not affect measurements.
- Another stationary optical device for detecting surfaces of a component is described in DE 102008018586 A1.
- Two light sources and a camera device are provided, the camera receiving the light beams of the light sources reflected on the surfaces of the component in order to generate an image of the surfaces.
- DE 102016011497 B4 shows a similar optical examination device for detecting the properties of rectangular semiconductors.
- An optical scanning device for recording and reproducing information using light beams with at least three wavelengths is shown in EP 1381035 B1.
- a stationary measuring system for detecting surfaces and for hyperspectral imaging is described in DE 102017000296 A1.
- An illumination pattern of a first measuring light with a multitude of wavelengths is generated and the illumination pattern is imaged on the surface to be examined so that it can be imaged sharply by a chromatic objective at different distances.
- the intensity distribution of the split first measurement light is recorded by means of a detector and topographical properties of the surface to be examined are determined therefrom.
- the surface is also homogeneously illuminated with a second measuring light.
- a multifocal, chromatically coded 3D measuring method is combined with a non-confocal second measuring light.
- the structure and composition of the surfaces should be able to be determined quickly and precisely.
- the invention is based on the object of developing a method for recognizing surfaces, which can be used easily and safely, regardless of location.
- the object is achieved with the features of independent claim 1.
- the method according to the invention comprises the steps
- the method according to the invention enables the automatic creation of sharp and high-quality images of a surface from a predetermined distance by means of a terminal device, preferably a mobile terminal device (mobile device), which is equipped with a camera.
- a terminal device preferably a mobile terminal device (mobile device), which is equipped with a camera.
- FIG. 2 the camera according to FIG. 1 with a glare protection.
- a surface 2 to be detected, in the example a painting 1, is first aligned horizontally or vertically (FIG. 1) and illuminated optimally and without shadows by means of daylight and / or artificial light.
- the camera 5 is focused if, for example, there is no refocusing of the lens of the camera 5 within approx. 0.5 seconds.
- the physical position of the lens of the objective is continuously monitored. As far as the average of the obtained lens positions of the lens of the camera 5 from the last approx. 0.5 seconds corresponds to the next obtained lens position, the camera 5 is classified as focused and triggered by the software of the mobile device 4.
- the actual distance to the focused object (image point 3 of the surface 2) can be calculated by the aforementioned software, provided that the camera 5 has already been measured.
- the control electronics of the mobile device 4 calculate the current distance to the focused object. If the distance corresponds to a defined specification, a video recording of an area to be recognized is automatically created.
- Each individual image of the live video stream is sent to a subroutine in the control electronics for processing (individual frames can be left unprocessed, to the detriment of accuracy).
- High-contrast image points 3 are identified in each image to be processed. Colors, contrasts, distances and / or depths of structures are automatically determined. These image points 3 are surrounded by significantly more or less intense image points.
- Geometric shapes are then projected using the high-contrast image points 3 identified. These pixels 3 form the corners of the projected geometric figures.
- the number, the positions and the sizes of the geometric figures are stored in a data record for each image.
- the target image or target image that is to be found in the video stream is processed.
- the data records of the target image and the single image with the highest level of detail are compared with one another. If the target image is found in the individual image of the video, this can be determined by comparing the data sets.
- the number of projected geometric figures indicates the depth of detail in an image.
- the image with the highest level of detail, ie the greatest number of details, is selected for further processing and saved or saved as a reference (target image). was created and saved at an earlier point in time.
- a marking for the target image can be drawn in in the single image with the greatest depth of detail, the position of the target image can be determined in the single image of the video.
- the user can be guided to the desired position (target image) or the position of the target image is displayed.
- the mobile device 4 can be provided with a reversible glare shield 7.
- this anti-glare shield 7 is a flat, square frame with a cutout 8 for the camera 5.
- the anti-glare shield 7 can, for example, be attached and positioned magnetically or by means of a guide rail or click connection on the mobile device 4 (FIG. 2).
- the aforementioned software / app For a first-time acquisition of a surface, the aforementioned software / app must first be installed on the mobile device 4 and this must be registered and authenticated.
- the above-described live video stream is created with the same camera 5 and, if necessary, additional individual images of the selected area are created
- step 9 To ensure that the saved image is suitable as a reference for a fingerprint, another image of the selected area is created as described above and saved as a secondary reference image. 10. The reference image from step 8 and the secondary reference image from step 9 are used for future comparisons of the selected area.
- the user wants to determine whether a work of art / object available to him corresponds to the object originally recorded in the registration process or is identical to it.
- the user selects the work of art / object to be authenticated from their collection
- step 8 of the registration process is now used to obtain the best possible image in accordance with steps 6 and / or 7 of the registration
- step A2 To create an image of the same area (image point 3) from a distance 6 of, for example, 9-10 cm A3.
- the best image from step A2 is saved as an authentication image for further processing
- the stored authentication image is now compared by the control electronics / app of the mobile device 4 with the reference image from the registration process
- the user On the basis of matches between the authentication image and the reference image, the user receives a statement as to whether the work of art / object is the same or whether it is not the work of art / object originally recorded during the registration process.
Abstract
Die Erfindung betrifft ein Verfahren zur Wiedererkennung von Oberflächen (2), insbesondere zur optischen Wiedererkennung resp. Erfassung von strukturierten und/oder bildhaften Oberflächen (2), umfassend die Schritte - Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der Oberfläche (2) - Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) und - Führung der Kamera (5) zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der zu erfassenden Oberfläche (2) - Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) - Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild - Analyse jedes Einzelbildes des Live-Videostreams - Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild.
Description
Verfahren zur Wiedererkennung von Oberflächen
Die Erfindung betrifft ein Verfahren zur Wiedererkennung von Oberflächen, insbesondere zur optischen Erfassung von strukturierten und/oder bildhaften Oberflächen, zum Beispiel von Gemälden oder Skulpturen.
In der DE 102014018940 A1 ist ein Verfahren zur Begutachtung von Färb- oder Lackoberflächen unter Verwendung einer Leuchte offenbart. Die Leuchte, eine LED- oder Halogenleuchte, soll ein tageslichtähnliches Lichtspektrum erzeugen können, das Steuer- oder regelbar ist. Insbesondere soll ein umschalten zwischen Tageslicht und dem zur Beurteilung der Oberfläche besser geeigneten Farbspektrum möglich sein.
Eine stationäre optische Abtastvorrichtung für ebene Oberflächen ist in der DE 3737631 C1 offenbart. Sie weist eine Laserlichtquelle, eine vom Laserlichtstrahl beaufschlagte Lichtablenkvorrichtung, ein Abbildungselement, einen abbildenden Retroreflektor sowie eine Lichtempfangsvorrichtung auf. Sie dient der Fehlersuche an reflektierenden Oberflächen, wobei ein Flattern der Oberfläche Messungen nicht beeinträchtigen soll.
Eine weitere stationäre optische Vorrichtung zur Erfassung von Oberflächen eines Bauteils ist in der DE 102008018586 A1 beschrieben. Vorgesehen sind zwei Lichtquellen und eine Kameraeinrichtung, wobei die Kamera die an den Oberflächen des Bauteils reflektierten Lichtstrahlen der Lichtquellen zur Erzeugung eines Bildes der Oberflächen empfängt.
Eine ähnliche optische Untersuchungseinrichtung zur Erfassung der Eigenschaften von rechteckigen Halbleitern zeigt die DE 102016011497 B4.
Eine optische Abtastvorrichtung zur Aufzeichnung und Wiedergabe von Informationen, bei der Lichtstrahlen mit zumindest drei Wellenlängen benutzt werden, eine optische Pickupvorrichtung, zeigt die EP 1381035 B1.
Ein stationäres Messsystem zur Erfassung von Oberflächen und zur hyperspektralen Bildgebung ist in der DE 102017000296 A1 beschrieben. Es wird ein Beleuchtungsmuster eines ersten Messlichts mit einer Vielzahl von Wellenlängen erzeugt und das Beleuchtungsmuster auf der zu untersuchenden Oberfläche abgebildet, so dass es von einem chromatischen Objektiv in verschiedenen Abständen scharf abgebildet werden kann. Die Intensitätsverteilung des aufgespaltenen ersten Messlichts wird mittels eines Detektors erfasst und daraus topografische Eigenschaften der zu untersuchenden Oberfläche ermittelt. Die Oberfläche wird zudem mit einem zweiten Messlicht homogen beleuchtet. Ein multifokales chromatisch codiertes 3D-Messverfahren wird mit einem nichtkonfokalen zweiten Messlicht kombiniert. Struktur und Zusammensetzung der Oberflächen sollen schnell und genau bestimmbar sein.
In der WO 2017089736 A1 und der WO 2017198950 A1 sind Verfahren zur Authentifizierung bzw. zur erweiterten Authentifizierung von Objekten offenbart.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Wiedererkennung von Oberflächen zu entwickeln, das einfach und ortsunabhängig anwendbar und sicher ist.
Die Lösung der Aufgabe erfolgt mit den Merkmalen des unabhängigen Patentanspruchs 1. Das erfindungsgemässe Verfahren umfasst die Schritte
- Fokussierung einer Kamera auf einem markanten Bildpunkt der Oberfläche
- Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes und
Führung der Kamera zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung der Kamera auf einem markanten Bildpunkt der zu erfassenden Oberfläche
Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes
Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild
- Analyse jedes Einzelbildes des Live-Videostreams
- Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild.
Bevorzugte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen offenbart.
Das erfindungsgemässe Verfahren ermöglicht eine, automatische, Erstellung scharfer und hochwertiger Bilder von einer Oberfläche aus einer vorgebenen Entfernung mittels eines Endgerätes, bevorzugt eines mobilen Endgerätes (Mobilgerät), das mit einer Kamera ausgestattet ist.
Die Erfindung wird nachfolgend in einem Ausführungsbeispiel anhand einer Zeichnung näher beschrieben.
In der Zeichnung zeigen die
Fig. 1 : eine erfindungsgemässe Anordnung einer Kamera über der zu erfassenden Oberfläche,
Fig. 2: die Kamera nach Fig. 1 mit einem Blendschutz.
Eine zu erfassende Oberfläche 2, im Beispiel eines Gemäldes 1 wird zunächst horizontal oder vertikal ausgerichtet (Fig. 1) und optimal und schattenfrei mittels Tageslicht und/oder Kunstlicht ausgeleuchtet.
Anschliessend wird der Autofokus einer Kamera 5 eines Mobilgeräts 4, zum Beispiel ein Tablet oder ein Smartphone, aktiviert und das Mobilgerät wird mit einem Abstand 6 von beispielsweise 9-10cm etwa parallel (horizontal oder vertikal) zur Oberfläche 2 über einem markanten Bildpunkt ausgerichtet.
Die Kamera 5 ist fokussiert, wenn zum Beispiel innerhalb von ca. 0,5 Sekunden keine Neufokussierung des Objektivs der Kamera 5 erfolgt. Hierzu wird die physische Position der Linse des Objektivs kontinuierlich überwacht. Soweit der Durchschnitt der erhaltenen Linsenpositionen des Objektivs der Kamera 5 aus den jeweils letzten ca. 0,5 Sekunden der nächsten erhaltenen Linsenposition entspricht, wird die Kamera 5 von der Software des Mobilgeräts 4 als fokussiert klassifiziert und ausgelöst.
Mittels der zuletzt festgestellten physischen Linsenposition kann die tatsächliche Entfernung zum fokussierten Objekt (Bildpunkt 3 der Oberfläche 2) von der vorbezeichneten Software berechnet werden, unter der Voraussetzung, dass die Kamera 5 bereits ausgemessen ist.
Basierend auf den gemessenen Referenz-Entfernungen und der entsprechenden Linsenpositionen, wird von der Steuerungselektronik des Mobilgeräts 4 die momentane Distanz zum fokussierten Objekt errechnet. Sofern die Entfernung einer definierten Vorgabe entspricht, wird automatisch eine Videoaufnahme von einem wieder zu erkennenden Bereich erstellt.
Jedes einzelne Bild des Live-Videostreams wird zur Verarbeitung an eine Unterroutine der Steuerelektronik gesendet (bei Bedarf können zulasten der Genauigkeit einzelne Frames unbearbeitet bleiben). In jedem zu verarbeitenden Bild werden kontrastreiche Bildpunkte 3 identifiziert. Hierbei werden automatisch Farben, Kontraste, Abstände und/oder Tiefen von Strukturen ermittelt. Diese Bildpunkte 3 sind von signifikant stärker oder schwächer intensiven Bildpunkten umgeben.
Danach werden geometrische Formen anhand der identifizierten kontrastreichen Bildpunkte 3 projiziert. Diese Bildpunkte 3 bilden die Ecken der projizierten geometrischen Figuren. Die Anzahl, die Positionen, und die Grössen der geometrischen Figuren, werden in einem Datensatz für jedes Bild abgelegt.
Das Zielbild bzw. Sollbild, welches im Videostream gefunden werden soll, wird aufbereitet. Die Datensätze des Zielbildes und des Einzelbildes mit der höchsten Detailtiefe werden miteinander verglichen. Findet sich das Zielbild im Einzelbild des Videos, kann dies durch den Vergleich der Datensätze festgestellt werden. Die Anzahl der projizierten geometrischen Figuren indiziert die Detailtiefe eines Bildes. Das Bild mit der höchsten Detailtiefe, d. h. grösste Anzahl an Details, wird zur Weiterverarbeitung ausgewählt und als Referenz (Zielbild) gespeichert resp. wurde bereits zu einem früheren Zeitpunkt erstellt und gespeichert.
Aufgrund der so ermittelten Koordinaten des Bildpunktes 3 kann eine Markierung für das Zielbild im Einzelbild mit der höchsten Detailtiefe eingezeichnet werden, die Position des Zielbildes kann im Einzelbild des Videos ermittelt werden.
Durch nachfolgende Einspielung des modifizierten Einzelbildes in den Videostream kann der Nutzer zur gewünschten Position (Zielbild) geführt werden bzw. bekommt die Position des Zielbildes angezeigt.
Falls die zu erfassende Oberfläche 2 spiegelt und/oder hinter einer spiegelnden, durchsichtigen Abdeckung angeordnet ist, kann das Mobilgerät 4 mit einem reversiblen Blendschutz 7 versehen werden. Dieser Blendschutz 7 ist im Beispiel ein flacher viereckiger Rahmen mit einem Ausschnitt 8 für die Kamera 5. Der Blendschutz 7 kann zum Beispiel magnetisch oder mittels Führungsschiene oder Klickverbindung auf dem Mobilgerät 4 angebracht und positioniert sein (Fig. 2).
Für eine erstmalige Erfassung einer Oberfläche muss vorgängig die vorbezeichnete Software/App auf dem Mobilgerät 4 installiert werden und dieses muss registriert und authentifiziert werden.
Ablauf einer Registrierung:
1.. Erfassung der persönlichen Daten des Eigentümers des zu erfassenden Objekts (Kunstwerk)
2. Erfassung der Eckdaten des Objektes, wie z. B. Name, Ersteller, Jahr der Erstellung, Abmasse in Zentimeter
3. Fotografie der Vorderseite des gesamten Objektes
4. Optionale Fotografie der Rückseite/übrigen Seiten des Objektes
5. Auswahl eines Bereiches auf dem Objekt, der als wiedererkennbarer Bereich (resp. Fingerabdruck) genutzt werden soll 6. Erfassung der Oberfläche des Objekts mittels Mobilgerät 4 entsprechend der vorgenannten Beschreibung (Erstellung eines Bildes mit höchster Detailtiefe des ausgewählten Bereiches).
7. Um die Qualität des gewählten Referenz-Bildes (Zielbild) weiter zu erhöhen, wird der vorbeschriebene Live Videostream mit derselben Kamera 5 erstellt und ggf. werden weitere Einzelbilder des gewählten Bereiches erstellt
8. Das letztlich beste Bild aus den Schritten 5-7 wird gespeichert
9. Zur Sicherstellung, dass das gespeicherte Bild als Referenz für einen Fingerabdruck geeignet ist, wird ein weiteres Bild des gewählten Bereichs gemäss vorstehender Beschreibung erstellt und als sekundäres Referenz-Bild gespeichert. 10. Das Referenzbild aus Schritt 8, sowie das sekundäre Referenzbild aus Schritt 9 werden für zukünftige Vergleiche des ausgewählten Bereichs genutzt.
Ablauf Authentifikation:
Der Nutzer will feststellen, ob ein ihm vorliegendes Kunstwerk / Objekt dem ursprünglich im Ablauf der Registrierung aufgenommenem Objekt entspricht bzw. mit diesem identisch ist.
A1. Der Nutzer wählt das zu authentifizierende Kunstwerk/Objekt aus seiner Sammlung aus
A2. Das Referenzbild aus Schritt 8 des Ablaufs der Registrierung wird nun genutzt, um entsprechend der Schritte 6 und/oder 7 der Registrierung ein bestmögliches
Abbild des gleichen Bereiches (Bildpunkt 3) aus einem Abstand 6 von beispielsweise 9- 10cm zu erstellen
A3. Das beste Bild aus Schritt A2 wird als Authentifikations-Bild zur Weiterverarbeitung gespeichert
A4. Das gespeicherte Authentifikations-Bild wird nun von der Steuerungselektronik/App des Mobilgeräts 4 mit dem Referenz-Bild aus dem Registrationsablauf verglichen
A5. Anhand von Übereinstimmungen zwischen dem Authentifikations-Bild und dem Referenz-Bild erhält der Nutzer eine Aussage, ob es sich bei dem Kunstwerk/Objekt um dasselbe handelt, bzw. ob es nicht das ursprünglich unter Ablauf der Registrierung aufgenommene Kunstwerk/ Objekt ist.
Auflistung der Bezugszeichen
1 Gemälde
2 Oberfläche 3 Bildpunkt
4 Mobilgerät
5 Kamera
6 Abstand
7 Blendschutz 8 Ausschnitt
Claims
1. Verfahren zur Wiedererkennung von Oberflächen, insbesondere zur optischen Wiedererkennung resp. Erfassung von strukturierten und/oder bildhaften Oberflächen, umfassend die Schritte
- Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der Oberfläche
(2)
- Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) und
Führung der Kamera zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung einer Kamera auf einem markanten Bildpunkt der zu erfassenden Oberfläche
Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes
Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild
- Analyse jedes Einzelbildes des Live-Videostreams
- Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild .
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Position des Zielbildes im Einzelbild des Videos ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Abstand (6) der Kamera (5) von der Oberfläche (2) 9-10cm beträgt.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Referenzbild mit einer, zu irgendeinem späteren Zeitpunkt erstellten Aufnahme des markanten Bildpunktes (3) der Oberfläche (2) verglichen wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/913,508 US20230206637A1 (en) | 2020-03-23 | 2021-03-03 | Method for recognizing surfaces |
EP21710597.2A EP4127670A1 (de) | 2020-03-23 | 2021-03-03 | Verfahren zur wiedererkennung von oberflächen |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH00344/20A CH717252A2 (de) | 2020-03-23 | 2020-03-23 | Verfahren zur Wiedererkennung von Oberflächen. |
CHCH00344/20 | 2020-03-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021191708A1 true WO2021191708A1 (de) | 2021-09-30 |
Family
ID=77887811
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/IB2021/051754 WO2021191708A1 (de) | 2020-03-23 | 2021-03-03 | Verfahren zur wiedererkennung von oberflächen |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230206637A1 (de) |
EP (1) | EP4127670A1 (de) |
CH (1) | CH717252A2 (de) |
WO (1) | WO2021191708A1 (de) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3737631C1 (de) | 1987-11-05 | 1989-03-02 | Sick Optik Elektronik Erwin | Optische Abstastvorrichtung fuer ebene Oberflaechen |
US5673338A (en) * | 1993-06-10 | 1997-09-30 | Verification Technologies, Inc. | System for verification of unique items |
EP1381035B1 (de) | 1999-01-22 | 2007-05-23 | Konica Minolta Opto, Inc. | Optische Abtastvorrichtung zur Informationsaufzeichnung und Informationswiedergabe |
DE102008018586A1 (de) | 2008-04-12 | 2009-11-05 | Mühlbauer Ag | Optische Erfassungsvorrichtung und Verfahren für die Erfassung von Oberflächen von Bauteilen |
DE102014018940A1 (de) | 2014-12-22 | 2016-06-23 | Sata Gmbh & Co. Kg | Vorrichtung und Verfahren zur Begutachtung von Oberflächen, insbesondere von Farb- oder Lackoberflächen |
WO2017089736A1 (fr) | 2015-11-27 | 2017-06-01 | Kerquest | Procede d'authentification et/ou de controle d'integrite d'un sujet |
WO2017198950A1 (fr) | 2016-05-17 | 2017-11-23 | Kerquest | Procédé d'authentification augmentée d'un sujet matériel |
DE102017000296A1 (de) | 2017-01-15 | 2018-07-19 | Baden-Württemberg Stiftung Ggmbh | Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung |
WO2018212809A1 (en) * | 2017-05-19 | 2018-11-22 | Google Llc | Efficient image analysis using environment sensor data |
CN108898597A (zh) * | 2018-06-28 | 2018-11-27 | 广东创图文化传媒有限公司 | 一种基于智能手机的书画鉴证的方法 |
DE102016011497B4 (de) | 2016-09-21 | 2019-01-24 | Mühlbauer Gmbh & Co. Kg | Optische Untersuchungseinrichtung und optisches Untersuchungsverfahren mit sichtbarem und infrarotem Licht für Halbleiterbauteile |
-
2020
- 2020-03-23 CH CH00344/20A patent/CH717252A2/de unknown
-
2021
- 2021-03-03 EP EP21710597.2A patent/EP4127670A1/de active Pending
- 2021-03-03 US US17/913,508 patent/US20230206637A1/en active Pending
- 2021-03-03 WO PCT/IB2021/051754 patent/WO2021191708A1/de unknown
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3737631C1 (de) | 1987-11-05 | 1989-03-02 | Sick Optik Elektronik Erwin | Optische Abstastvorrichtung fuer ebene Oberflaechen |
US5673338A (en) * | 1993-06-10 | 1997-09-30 | Verification Technologies, Inc. | System for verification of unique items |
EP1381035B1 (de) | 1999-01-22 | 2007-05-23 | Konica Minolta Opto, Inc. | Optische Abtastvorrichtung zur Informationsaufzeichnung und Informationswiedergabe |
DE102008018586A1 (de) | 2008-04-12 | 2009-11-05 | Mühlbauer Ag | Optische Erfassungsvorrichtung und Verfahren für die Erfassung von Oberflächen von Bauteilen |
DE102014018940A1 (de) | 2014-12-22 | 2016-06-23 | Sata Gmbh & Co. Kg | Vorrichtung und Verfahren zur Begutachtung von Oberflächen, insbesondere von Farb- oder Lackoberflächen |
WO2017089736A1 (fr) | 2015-11-27 | 2017-06-01 | Kerquest | Procede d'authentification et/ou de controle d'integrite d'un sujet |
WO2017198950A1 (fr) | 2016-05-17 | 2017-11-23 | Kerquest | Procédé d'authentification augmentée d'un sujet matériel |
DE102016011497B4 (de) | 2016-09-21 | 2019-01-24 | Mühlbauer Gmbh & Co. Kg | Optische Untersuchungseinrichtung und optisches Untersuchungsverfahren mit sichtbarem und infrarotem Licht für Halbleiterbauteile |
DE102017000296A1 (de) | 2017-01-15 | 2018-07-19 | Baden-Württemberg Stiftung Ggmbh | Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung |
WO2018212809A1 (en) * | 2017-05-19 | 2018-11-22 | Google Llc | Efficient image analysis using environment sensor data |
CN108898597A (zh) * | 2018-06-28 | 2018-11-27 | 广东创图文化传媒有限公司 | 一种基于智能手机的书画鉴证的方法 |
Also Published As
Publication number | Publication date |
---|---|
CH717252A2 (de) | 2021-09-30 |
EP4127670A1 (de) | 2023-02-08 |
US20230206637A1 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10081029B4 (de) | Bildbearbeitung zur Vorbereitung einer Texturnalyse | |
DE102017001366A1 (de) | Geometrie-messsystem, geometrie-messapparat und geometrie-messverfahren | |
EP3014569B1 (de) | Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs | |
DE112012004493B4 (de) | Steuerungsverfahren für die Farbbeleuchtung zur Verbesserung der Bildqualität in einembildgebenden System | |
EP2619525B1 (de) | Verfahren zum optischen antasten einer kante in oder an einem oberlächenbereich | |
WO2015144557A1 (de) | Konfokales mikroskop mit aperturkorrelation | |
DE112019003985T5 (de) | Waferinspektionsverfahren und -inspektionsvorrichtung | |
DE102013108722B4 (de) | Verfahren und Vorrichtung zum Erfassen von Defekten einer ebenen Oberfläche | |
EP0805996A1 (de) | Verfahren und vorrichtung zum aufnehmen eines objektes | |
DE102018222231A1 (de) | Vorrichtung und Verfahren zur optischen Vermessung einer Innenkontur einer Brillenfassung | |
DE19848243A1 (de) | Biegewinkelerfassungssystem | |
DE102014108789A1 (de) | Mehrstufiges Verfahren zur Untersuchung von Oberflächen sowie entsprechende Vorrichtung | |
EP3040705A1 (de) | Verfahren zum Bestimmen von Partikeln | |
WO2021191708A1 (de) | Verfahren zur wiedererkennung von oberflächen | |
WO2021191707A1 (de) | Verfahren zur beurteilung von kontrasten von oberflächen | |
AT406528B (de) | Verfahren und einrichtung zur feststellung, insbesondere zur visualisierung, von fehlern auf der oberfläche von gegenständen | |
DE102013211286A1 (de) | Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor | |
EP0417625B1 (de) | Verfahren zur Datenaufnahme mittels eines, mindestens eine Detektorzeile enthaltenden Detektorarrays und Vorrichtung zur Durchführung des Verfahrens | |
DE69719984T2 (de) | Streifenmusterdiskriminator für diffraktionsrasterinterferometer | |
EP3049757B1 (de) | Fahrwerksvermessung bei umgebungslicht | |
DE102016109027A1 (de) | Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen | |
DE102016109131B4 (de) | Verfahren zur dreidimensionalen Erfassung eines Objekts | |
EP3540507A1 (de) | Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung | |
DE102015222393A1 (de) | Messverfahren zur Bewertung von Lichtverteilungen von Kraftfahrzeugscheinwerfern | |
EP2917897B1 (de) | Qualitätsprüfung eines kippbildes einer linsenstruktur |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21710597 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2021710597 Country of ref document: EP Effective date: 20221024 |