WO2021191708A1 - Verfahren zur wiedererkennung von oberflächen - Google Patents

Verfahren zur wiedererkennung von oberflächen Download PDF

Info

Publication number
WO2021191708A1
WO2021191708A1 PCT/IB2021/051754 IB2021051754W WO2021191708A1 WO 2021191708 A1 WO2021191708 A1 WO 2021191708A1 IB 2021051754 W IB2021051754 W IB 2021051754W WO 2021191708 A1 WO2021191708 A1 WO 2021191708A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
detail
prominent
video stream
Prior art date
Application number
PCT/IB2021/051754
Other languages
English (en)
French (fr)
Inventor
Kai Zeh
Original Assignee
4Art Holding Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 4Art Holding Ag filed Critical 4Art Holding Ag
Priority to US17/913,508 priority Critical patent/US20230206637A1/en
Priority to EP21710597.2A priority patent/EP4127670A1/de
Publication of WO2021191708A1 publication Critical patent/WO2021191708A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/018Certifying business or products
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/06Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency using wave or particle radiation
    • G07D7/12Visible light, infrared or ultraviolet radiation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/202Testing patterns thereon using pattern matching
    • G07D7/2033Matching unique patterns, i.e. patterns that are unique to each individual paper
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/202Testing patterns thereon using pattern matching
    • G07D7/206Matching template patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95607Inspecting patterns on the surface of objects using a comparative method
    • G01N2021/95615Inspecting patterns on the surface of objects using a comparative method with stored comparision signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/02Mechanical
    • G01N2201/022Casings
    • G01N2201/0221Portable; cableless; compact; hand-held
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources
    • G01N2201/0616Ambient light is used
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Definitions

  • the invention relates to a method for the recognition of surfaces, in particular for the optical detection of structured and / or pictorial surfaces, for example of paintings or sculptures.
  • DE 102014018940 A1 discloses a method for assessing colored or lacquered surfaces using a lamp.
  • the lamp an LED or halogen lamp, should be able to generate a light spectrum similar to daylight that can be controlled or regulated. In particular, it should be possible to switch between daylight and the color spectrum that is more suitable for assessing the surface.
  • a stationary optical scanning device for flat surfaces is disclosed in DE 3737631 C1. It has a laser light source, a light deflection device acted upon by the laser light beam, an imaging element, an imaging retroreflector and a light receiving device. It is used for troubleshooting on reflective surfaces, whereby fluttering of the surface should not affect measurements.
  • Another stationary optical device for detecting surfaces of a component is described in DE 102008018586 A1.
  • Two light sources and a camera device are provided, the camera receiving the light beams of the light sources reflected on the surfaces of the component in order to generate an image of the surfaces.
  • DE 102016011497 B4 shows a similar optical examination device for detecting the properties of rectangular semiconductors.
  • An optical scanning device for recording and reproducing information using light beams with at least three wavelengths is shown in EP 1381035 B1.
  • a stationary measuring system for detecting surfaces and for hyperspectral imaging is described in DE 102017000296 A1.
  • An illumination pattern of a first measuring light with a multitude of wavelengths is generated and the illumination pattern is imaged on the surface to be examined so that it can be imaged sharply by a chromatic objective at different distances.
  • the intensity distribution of the split first measurement light is recorded by means of a detector and topographical properties of the surface to be examined are determined therefrom.
  • the surface is also homogeneously illuminated with a second measuring light.
  • a multifocal, chromatically coded 3D measuring method is combined with a non-confocal second measuring light.
  • the structure and composition of the surfaces should be able to be determined quickly and precisely.
  • the invention is based on the object of developing a method for recognizing surfaces, which can be used easily and safely, regardless of location.
  • the object is achieved with the features of independent claim 1.
  • the method according to the invention comprises the steps
  • the method according to the invention enables the automatic creation of sharp and high-quality images of a surface from a predetermined distance by means of a terminal device, preferably a mobile terminal device (mobile device), which is equipped with a camera.
  • a terminal device preferably a mobile terminal device (mobile device), which is equipped with a camera.
  • FIG. 2 the camera according to FIG. 1 with a glare protection.
  • a surface 2 to be detected, in the example a painting 1, is first aligned horizontally or vertically (FIG. 1) and illuminated optimally and without shadows by means of daylight and / or artificial light.
  • the camera 5 is focused if, for example, there is no refocusing of the lens of the camera 5 within approx. 0.5 seconds.
  • the physical position of the lens of the objective is continuously monitored. As far as the average of the obtained lens positions of the lens of the camera 5 from the last approx. 0.5 seconds corresponds to the next obtained lens position, the camera 5 is classified as focused and triggered by the software of the mobile device 4.
  • the actual distance to the focused object (image point 3 of the surface 2) can be calculated by the aforementioned software, provided that the camera 5 has already been measured.
  • the control electronics of the mobile device 4 calculate the current distance to the focused object. If the distance corresponds to a defined specification, a video recording of an area to be recognized is automatically created.
  • Each individual image of the live video stream is sent to a subroutine in the control electronics for processing (individual frames can be left unprocessed, to the detriment of accuracy).
  • High-contrast image points 3 are identified in each image to be processed. Colors, contrasts, distances and / or depths of structures are automatically determined. These image points 3 are surrounded by significantly more or less intense image points.
  • Geometric shapes are then projected using the high-contrast image points 3 identified. These pixels 3 form the corners of the projected geometric figures.
  • the number, the positions and the sizes of the geometric figures are stored in a data record for each image.
  • the target image or target image that is to be found in the video stream is processed.
  • the data records of the target image and the single image with the highest level of detail are compared with one another. If the target image is found in the individual image of the video, this can be determined by comparing the data sets.
  • the number of projected geometric figures indicates the depth of detail in an image.
  • the image with the highest level of detail, ie the greatest number of details, is selected for further processing and saved or saved as a reference (target image). was created and saved at an earlier point in time.
  • a marking for the target image can be drawn in in the single image with the greatest depth of detail, the position of the target image can be determined in the single image of the video.
  • the user can be guided to the desired position (target image) or the position of the target image is displayed.
  • the mobile device 4 can be provided with a reversible glare shield 7.
  • this anti-glare shield 7 is a flat, square frame with a cutout 8 for the camera 5.
  • the anti-glare shield 7 can, for example, be attached and positioned magnetically or by means of a guide rail or click connection on the mobile device 4 (FIG. 2).
  • the aforementioned software / app For a first-time acquisition of a surface, the aforementioned software / app must first be installed on the mobile device 4 and this must be registered and authenticated.
  • the above-described live video stream is created with the same camera 5 and, if necessary, additional individual images of the selected area are created
  • step 9 To ensure that the saved image is suitable as a reference for a fingerprint, another image of the selected area is created as described above and saved as a secondary reference image. 10. The reference image from step 8 and the secondary reference image from step 9 are used for future comparisons of the selected area.
  • the user wants to determine whether a work of art / object available to him corresponds to the object originally recorded in the registration process or is identical to it.
  • the user selects the work of art / object to be authenticated from their collection
  • step 8 of the registration process is now used to obtain the best possible image in accordance with steps 6 and / or 7 of the registration
  • step A2 To create an image of the same area (image point 3) from a distance 6 of, for example, 9-10 cm A3.
  • the best image from step A2 is saved as an authentication image for further processing
  • the stored authentication image is now compared by the control electronics / app of the mobile device 4 with the reference image from the registration process
  • the user On the basis of matches between the authentication image and the reference image, the user receives a statement as to whether the work of art / object is the same or whether it is not the work of art / object originally recorded during the registration process.

Abstract

Die Erfindung betrifft ein Verfahren zur Wiedererkennung von Oberflächen (2), insbesondere zur optischen Wiedererkennung resp. Erfassung von strukturierten und/oder bildhaften Oberflächen (2), umfassend die Schritte - Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der Oberfläche (2) - Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) und - Führung der Kamera (5) zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der zu erfassenden Oberfläche (2) - Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) - Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild - Analyse jedes Einzelbildes des Live-Videostreams - Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild.

Description

Verfahren zur Wiedererkennung von Oberflächen
Die Erfindung betrifft ein Verfahren zur Wiedererkennung von Oberflächen, insbesondere zur optischen Erfassung von strukturierten und/oder bildhaften Oberflächen, zum Beispiel von Gemälden oder Skulpturen.
In der DE 102014018940 A1 ist ein Verfahren zur Begutachtung von Färb- oder Lackoberflächen unter Verwendung einer Leuchte offenbart. Die Leuchte, eine LED- oder Halogenleuchte, soll ein tageslichtähnliches Lichtspektrum erzeugen können, das Steuer- oder regelbar ist. Insbesondere soll ein umschalten zwischen Tageslicht und dem zur Beurteilung der Oberfläche besser geeigneten Farbspektrum möglich sein.
Eine stationäre optische Abtastvorrichtung für ebene Oberflächen ist in der DE 3737631 C1 offenbart. Sie weist eine Laserlichtquelle, eine vom Laserlichtstrahl beaufschlagte Lichtablenkvorrichtung, ein Abbildungselement, einen abbildenden Retroreflektor sowie eine Lichtempfangsvorrichtung auf. Sie dient der Fehlersuche an reflektierenden Oberflächen, wobei ein Flattern der Oberfläche Messungen nicht beeinträchtigen soll.
Eine weitere stationäre optische Vorrichtung zur Erfassung von Oberflächen eines Bauteils ist in der DE 102008018586 A1 beschrieben. Vorgesehen sind zwei Lichtquellen und eine Kameraeinrichtung, wobei die Kamera die an den Oberflächen des Bauteils reflektierten Lichtstrahlen der Lichtquellen zur Erzeugung eines Bildes der Oberflächen empfängt.
Eine ähnliche optische Untersuchungseinrichtung zur Erfassung der Eigenschaften von rechteckigen Halbleitern zeigt die DE 102016011497 B4.
Eine optische Abtastvorrichtung zur Aufzeichnung und Wiedergabe von Informationen, bei der Lichtstrahlen mit zumindest drei Wellenlängen benutzt werden, eine optische Pickupvorrichtung, zeigt die EP 1381035 B1. Ein stationäres Messsystem zur Erfassung von Oberflächen und zur hyperspektralen Bildgebung ist in der DE 102017000296 A1 beschrieben. Es wird ein Beleuchtungsmuster eines ersten Messlichts mit einer Vielzahl von Wellenlängen erzeugt und das Beleuchtungsmuster auf der zu untersuchenden Oberfläche abgebildet, so dass es von einem chromatischen Objektiv in verschiedenen Abständen scharf abgebildet werden kann. Die Intensitätsverteilung des aufgespaltenen ersten Messlichts wird mittels eines Detektors erfasst und daraus topografische Eigenschaften der zu untersuchenden Oberfläche ermittelt. Die Oberfläche wird zudem mit einem zweiten Messlicht homogen beleuchtet. Ein multifokales chromatisch codiertes 3D-Messverfahren wird mit einem nichtkonfokalen zweiten Messlicht kombiniert. Struktur und Zusammensetzung der Oberflächen sollen schnell und genau bestimmbar sein.
In der WO 2017089736 A1 und der WO 2017198950 A1 sind Verfahren zur Authentifizierung bzw. zur erweiterten Authentifizierung von Objekten offenbart.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Wiedererkennung von Oberflächen zu entwickeln, das einfach und ortsunabhängig anwendbar und sicher ist.
Die Lösung der Aufgabe erfolgt mit den Merkmalen des unabhängigen Patentanspruchs 1. Das erfindungsgemässe Verfahren umfasst die Schritte
- Fokussierung einer Kamera auf einem markanten Bildpunkt der Oberfläche
- Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes und
Führung der Kamera zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung der Kamera auf einem markanten Bildpunkt der zu erfassenden Oberfläche
Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes
Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild - Analyse jedes Einzelbildes des Live-Videostreams
- Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild.
Bevorzugte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen offenbart.
Das erfindungsgemässe Verfahren ermöglicht eine, automatische, Erstellung scharfer und hochwertiger Bilder von einer Oberfläche aus einer vorgebenen Entfernung mittels eines Endgerätes, bevorzugt eines mobilen Endgerätes (Mobilgerät), das mit einer Kamera ausgestattet ist.
Die Erfindung wird nachfolgend in einem Ausführungsbeispiel anhand einer Zeichnung näher beschrieben.
In der Zeichnung zeigen die
Fig. 1 : eine erfindungsgemässe Anordnung einer Kamera über der zu erfassenden Oberfläche,
Fig. 2: die Kamera nach Fig. 1 mit einem Blendschutz.
Eine zu erfassende Oberfläche 2, im Beispiel eines Gemäldes 1 wird zunächst horizontal oder vertikal ausgerichtet (Fig. 1) und optimal und schattenfrei mittels Tageslicht und/oder Kunstlicht ausgeleuchtet.
Anschliessend wird der Autofokus einer Kamera 5 eines Mobilgeräts 4, zum Beispiel ein Tablet oder ein Smartphone, aktiviert und das Mobilgerät wird mit einem Abstand 6 von beispielsweise 9-10cm etwa parallel (horizontal oder vertikal) zur Oberfläche 2 über einem markanten Bildpunkt ausgerichtet. Die Kamera 5 ist fokussiert, wenn zum Beispiel innerhalb von ca. 0,5 Sekunden keine Neufokussierung des Objektivs der Kamera 5 erfolgt. Hierzu wird die physische Position der Linse des Objektivs kontinuierlich überwacht. Soweit der Durchschnitt der erhaltenen Linsenpositionen des Objektivs der Kamera 5 aus den jeweils letzten ca. 0,5 Sekunden der nächsten erhaltenen Linsenposition entspricht, wird die Kamera 5 von der Software des Mobilgeräts 4 als fokussiert klassifiziert und ausgelöst.
Mittels der zuletzt festgestellten physischen Linsenposition kann die tatsächliche Entfernung zum fokussierten Objekt (Bildpunkt 3 der Oberfläche 2) von der vorbezeichneten Software berechnet werden, unter der Voraussetzung, dass die Kamera 5 bereits ausgemessen ist.
Basierend auf den gemessenen Referenz-Entfernungen und der entsprechenden Linsenpositionen, wird von der Steuerungselektronik des Mobilgeräts 4 die momentane Distanz zum fokussierten Objekt errechnet. Sofern die Entfernung einer definierten Vorgabe entspricht, wird automatisch eine Videoaufnahme von einem wieder zu erkennenden Bereich erstellt.
Jedes einzelne Bild des Live-Videostreams wird zur Verarbeitung an eine Unterroutine der Steuerelektronik gesendet (bei Bedarf können zulasten der Genauigkeit einzelne Frames unbearbeitet bleiben). In jedem zu verarbeitenden Bild werden kontrastreiche Bildpunkte 3 identifiziert. Hierbei werden automatisch Farben, Kontraste, Abstände und/oder Tiefen von Strukturen ermittelt. Diese Bildpunkte 3 sind von signifikant stärker oder schwächer intensiven Bildpunkten umgeben.
Danach werden geometrische Formen anhand der identifizierten kontrastreichen Bildpunkte 3 projiziert. Diese Bildpunkte 3 bilden die Ecken der projizierten geometrischen Figuren. Die Anzahl, die Positionen, und die Grössen der geometrischen Figuren, werden in einem Datensatz für jedes Bild abgelegt. Das Zielbild bzw. Sollbild, welches im Videostream gefunden werden soll, wird aufbereitet. Die Datensätze des Zielbildes und des Einzelbildes mit der höchsten Detailtiefe werden miteinander verglichen. Findet sich das Zielbild im Einzelbild des Videos, kann dies durch den Vergleich der Datensätze festgestellt werden. Die Anzahl der projizierten geometrischen Figuren indiziert die Detailtiefe eines Bildes. Das Bild mit der höchsten Detailtiefe, d. h. grösste Anzahl an Details, wird zur Weiterverarbeitung ausgewählt und als Referenz (Zielbild) gespeichert resp. wurde bereits zu einem früheren Zeitpunkt erstellt und gespeichert.
Aufgrund der so ermittelten Koordinaten des Bildpunktes 3 kann eine Markierung für das Zielbild im Einzelbild mit der höchsten Detailtiefe eingezeichnet werden, die Position des Zielbildes kann im Einzelbild des Videos ermittelt werden.
Durch nachfolgende Einspielung des modifizierten Einzelbildes in den Videostream kann der Nutzer zur gewünschten Position (Zielbild) geführt werden bzw. bekommt die Position des Zielbildes angezeigt.
Falls die zu erfassende Oberfläche 2 spiegelt und/oder hinter einer spiegelnden, durchsichtigen Abdeckung angeordnet ist, kann das Mobilgerät 4 mit einem reversiblen Blendschutz 7 versehen werden. Dieser Blendschutz 7 ist im Beispiel ein flacher viereckiger Rahmen mit einem Ausschnitt 8 für die Kamera 5. Der Blendschutz 7 kann zum Beispiel magnetisch oder mittels Führungsschiene oder Klickverbindung auf dem Mobilgerät 4 angebracht und positioniert sein (Fig. 2).
Für eine erstmalige Erfassung einer Oberfläche muss vorgängig die vorbezeichnete Software/App auf dem Mobilgerät 4 installiert werden und dieses muss registriert und authentifiziert werden.
Ablauf einer Registrierung:
1.. Erfassung der persönlichen Daten des Eigentümers des zu erfassenden Objekts (Kunstwerk)
2. Erfassung der Eckdaten des Objektes, wie z. B. Name, Ersteller, Jahr der Erstellung, Abmasse in Zentimeter 3. Fotografie der Vorderseite des gesamten Objektes
4. Optionale Fotografie der Rückseite/übrigen Seiten des Objektes
5. Auswahl eines Bereiches auf dem Objekt, der als wiedererkennbarer Bereich (resp. Fingerabdruck) genutzt werden soll 6. Erfassung der Oberfläche des Objekts mittels Mobilgerät 4 entsprechend der vorgenannten Beschreibung (Erstellung eines Bildes mit höchster Detailtiefe des ausgewählten Bereiches).
7. Um die Qualität des gewählten Referenz-Bildes (Zielbild) weiter zu erhöhen, wird der vorbeschriebene Live Videostream mit derselben Kamera 5 erstellt und ggf. werden weitere Einzelbilder des gewählten Bereiches erstellt
8. Das letztlich beste Bild aus den Schritten 5-7 wird gespeichert
9. Zur Sicherstellung, dass das gespeicherte Bild als Referenz für einen Fingerabdruck geeignet ist, wird ein weiteres Bild des gewählten Bereichs gemäss vorstehender Beschreibung erstellt und als sekundäres Referenz-Bild gespeichert. 10. Das Referenzbild aus Schritt 8, sowie das sekundäre Referenzbild aus Schritt 9 werden für zukünftige Vergleiche des ausgewählten Bereichs genutzt.
Ablauf Authentifikation:
Der Nutzer will feststellen, ob ein ihm vorliegendes Kunstwerk / Objekt dem ursprünglich im Ablauf der Registrierung aufgenommenem Objekt entspricht bzw. mit diesem identisch ist.
A1. Der Nutzer wählt das zu authentifizierende Kunstwerk/Objekt aus seiner Sammlung aus
A2. Das Referenzbild aus Schritt 8 des Ablaufs der Registrierung wird nun genutzt, um entsprechend der Schritte 6 und/oder 7 der Registrierung ein bestmögliches
Abbild des gleichen Bereiches (Bildpunkt 3) aus einem Abstand 6 von beispielsweise 9- 10cm zu erstellen A3. Das beste Bild aus Schritt A2 wird als Authentifikations-Bild zur Weiterverarbeitung gespeichert
A4. Das gespeicherte Authentifikations-Bild wird nun von der Steuerungselektronik/App des Mobilgeräts 4 mit dem Referenz-Bild aus dem Registrationsablauf verglichen
A5. Anhand von Übereinstimmungen zwischen dem Authentifikations-Bild und dem Referenz-Bild erhält der Nutzer eine Aussage, ob es sich bei dem Kunstwerk/Objekt um dasselbe handelt, bzw. ob es nicht das ursprünglich unter Ablauf der Registrierung aufgenommene Kunstwerk/ Objekt ist.
Auflistung der Bezugszeichen
1 Gemälde
2 Oberfläche 3 Bildpunkt
4 Mobilgerät
5 Kamera
6 Abstand
7 Blendschutz 8 Ausschnitt

Claims

Patentansprüche
1. Verfahren zur Wiedererkennung von Oberflächen, insbesondere zur optischen Wiedererkennung resp. Erfassung von strukturierten und/oder bildhaften Oberflächen, umfassend die Schritte
- Fokussierung einer Kamera (5) auf einem markanten Bildpunkt (3) der Oberfläche
(2)
- Erstellung von mindestens einem Live-Videostream von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes (3) und
Führung der Kamera zum Einzelbild des Videos mit der höchsten Detailtiefe durch Fokussierung einer Kamera auf einem markanten Bildpunkt der zu erfassenden Oberfläche
Erstellung von mindestens zwei Bildern von einem wieder zu erkennenden, kontrastreichen Bereich des Bildpunktes
Speicherung der Aufnahme mit der höchsten Detailtiefe als Referenzbild
- Analyse jedes Einzelbildes des Live-Videostreams
- Vergleich des Einzelbildes mit der höchsten Detailtiefe mit einem Ziel- bzw. Referenzbild .
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Position des Zielbildes im Einzelbild des Videos ermittelt wird.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Abstand (6) der Kamera (5) von der Oberfläche (2) 9-10cm beträgt.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Referenzbild mit einer, zu irgendeinem späteren Zeitpunkt erstellten Aufnahme des markanten Bildpunktes (3) der Oberfläche (2) verglichen wird.
PCT/IB2021/051754 2020-03-23 2021-03-03 Verfahren zur wiedererkennung von oberflächen WO2021191708A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/913,508 US20230206637A1 (en) 2020-03-23 2021-03-03 Method for recognizing surfaces
EP21710597.2A EP4127670A1 (de) 2020-03-23 2021-03-03 Verfahren zur wiedererkennung von oberflächen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH00344/20A CH717252A2 (de) 2020-03-23 2020-03-23 Verfahren zur Wiedererkennung von Oberflächen.
CHCH00344/20 2020-03-23

Publications (1)

Publication Number Publication Date
WO2021191708A1 true WO2021191708A1 (de) 2021-09-30

Family

ID=77887811

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2021/051754 WO2021191708A1 (de) 2020-03-23 2021-03-03 Verfahren zur wiedererkennung von oberflächen

Country Status (4)

Country Link
US (1) US20230206637A1 (de)
EP (1) EP4127670A1 (de)
CH (1) CH717252A2 (de)
WO (1) WO2021191708A1 (de)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3737631C1 (de) 1987-11-05 1989-03-02 Sick Optik Elektronik Erwin Optische Abstastvorrichtung fuer ebene Oberflaechen
US5673338A (en) * 1993-06-10 1997-09-30 Verification Technologies, Inc. System for verification of unique items
EP1381035B1 (de) 1999-01-22 2007-05-23 Konica Minolta Opto, Inc. Optische Abtastvorrichtung zur Informationsaufzeichnung und Informationswiedergabe
DE102008018586A1 (de) 2008-04-12 2009-11-05 Mühlbauer Ag Optische Erfassungsvorrichtung und Verfahren für die Erfassung von Oberflächen von Bauteilen
DE102014018940A1 (de) 2014-12-22 2016-06-23 Sata Gmbh & Co. Kg Vorrichtung und Verfahren zur Begutachtung von Oberflächen, insbesondere von Farb- oder Lackoberflächen
WO2017089736A1 (fr) 2015-11-27 2017-06-01 Kerquest Procede d'authentification et/ou de controle d'integrite d'un sujet
WO2017198950A1 (fr) 2016-05-17 2017-11-23 Kerquest Procédé d'authentification augmentée d'un sujet matériel
DE102017000296A1 (de) 2017-01-15 2018-07-19 Baden-Württemberg Stiftung Ggmbh Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung
WO2018212809A1 (en) * 2017-05-19 2018-11-22 Google Llc Efficient image analysis using environment sensor data
CN108898597A (zh) * 2018-06-28 2018-11-27 广东创图文化传媒有限公司 一种基于智能手机的书画鉴证的方法
DE102016011497B4 (de) 2016-09-21 2019-01-24 Mühlbauer Gmbh & Co. Kg Optische Untersuchungseinrichtung und optisches Untersuchungsverfahren mit sichtbarem und infrarotem Licht für Halbleiterbauteile

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3737631C1 (de) 1987-11-05 1989-03-02 Sick Optik Elektronik Erwin Optische Abstastvorrichtung fuer ebene Oberflaechen
US5673338A (en) * 1993-06-10 1997-09-30 Verification Technologies, Inc. System for verification of unique items
EP1381035B1 (de) 1999-01-22 2007-05-23 Konica Minolta Opto, Inc. Optische Abtastvorrichtung zur Informationsaufzeichnung und Informationswiedergabe
DE102008018586A1 (de) 2008-04-12 2009-11-05 Mühlbauer Ag Optische Erfassungsvorrichtung und Verfahren für die Erfassung von Oberflächen von Bauteilen
DE102014018940A1 (de) 2014-12-22 2016-06-23 Sata Gmbh & Co. Kg Vorrichtung und Verfahren zur Begutachtung von Oberflächen, insbesondere von Farb- oder Lackoberflächen
WO2017089736A1 (fr) 2015-11-27 2017-06-01 Kerquest Procede d'authentification et/ou de controle d'integrite d'un sujet
WO2017198950A1 (fr) 2016-05-17 2017-11-23 Kerquest Procédé d'authentification augmentée d'un sujet matériel
DE102016011497B4 (de) 2016-09-21 2019-01-24 Mühlbauer Gmbh & Co. Kg Optische Untersuchungseinrichtung und optisches Untersuchungsverfahren mit sichtbarem und infrarotem Licht für Halbleiterbauteile
DE102017000296A1 (de) 2017-01-15 2018-07-19 Baden-Württemberg Stiftung Ggmbh Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung
WO2018212809A1 (en) * 2017-05-19 2018-11-22 Google Llc Efficient image analysis using environment sensor data
CN108898597A (zh) * 2018-06-28 2018-11-27 广东创图文化传媒有限公司 一种基于智能手机的书画鉴证的方法

Also Published As

Publication number Publication date
CH717252A2 (de) 2021-09-30
EP4127670A1 (de) 2023-02-08
US20230206637A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
DE102017001366A1 (de) Geometrie-messsystem, geometrie-messapparat und geometrie-messverfahren
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE112012004493B4 (de) Steuerungsverfahren für die Farbbeleuchtung zur Verbesserung der Bildqualität in einembildgebenden System
EP2619525B1 (de) Verfahren zum optischen antasten einer kante in oder an einem oberlächenbereich
WO2015144557A1 (de) Konfokales mikroskop mit aperturkorrelation
DE112019003985T5 (de) Waferinspektionsverfahren und -inspektionsvorrichtung
DE102013108722B4 (de) Verfahren und Vorrichtung zum Erfassen von Defekten einer ebenen Oberfläche
EP0805996A1 (de) Verfahren und vorrichtung zum aufnehmen eines objektes
DE102018222231A1 (de) Vorrichtung und Verfahren zur optischen Vermessung einer Innenkontur einer Brillenfassung
DE19848243A1 (de) Biegewinkelerfassungssystem
DE102014108789A1 (de) Mehrstufiges Verfahren zur Untersuchung von Oberflächen sowie entsprechende Vorrichtung
EP3040705A1 (de) Verfahren zum Bestimmen von Partikeln
WO2021191708A1 (de) Verfahren zur wiedererkennung von oberflächen
WO2021191707A1 (de) Verfahren zur beurteilung von kontrasten von oberflächen
AT406528B (de) Verfahren und einrichtung zur feststellung, insbesondere zur visualisierung, von fehlern auf der oberfläche von gegenständen
DE102013211286A1 (de) Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
EP0417625B1 (de) Verfahren zur Datenaufnahme mittels eines, mindestens eine Detektorzeile enthaltenden Detektorarrays und Vorrichtung zur Durchführung des Verfahrens
DE69719984T2 (de) Streifenmusterdiskriminator für diffraktionsrasterinterferometer
EP3049757B1 (de) Fahrwerksvermessung bei umgebungslicht
DE102016109027A1 (de) Verfahren zur Lageüberprüfung charakteristischer Punkte in Lichtverteilungen
DE102016109131B4 (de) Verfahren zur dreidimensionalen Erfassung eines Objekts
EP3540507A1 (de) Bildaufnahmevorrichtung und verfahren zum aufnehmen einer bildaufnahme eines dokuments und verwendung
DE102015222393A1 (de) Messverfahren zur Bewertung von Lichtverteilungen von Kraftfahrzeugscheinwerfern
EP2917897B1 (de) Qualitätsprüfung eines kippbildes einer linsenstruktur

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21710597

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021710597

Country of ref document: EP

Effective date: 20221024