PL239789B1 - Digital-optical system and method of recognizing labels with superimposed data projection - Google Patents

Digital-optical system and method of recognizing labels with superimposed data projection Download PDF

Info

Publication number
PL239789B1
PL239789B1 PL431566A PL43156619A PL239789B1 PL 239789 B1 PL239789 B1 PL 239789B1 PL 431566 A PL431566 A PL 431566A PL 43156619 A PL43156619 A PL 43156619A PL 239789 B1 PL239789 B1 PL 239789B1
Authority
PL
Poland
Prior art keywords
digital
image
pattern
graphic
label
Prior art date
Application number
PL431566A
Other languages
Polish (pl)
Other versions
PL431566A1 (en
Inventor
Marcin Leszczyński
Original Assignee
Klanad Spolka Z Ograniczona Odpowiedzialnoscia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Klanad Spolka Z Ograniczona Odpowiedzialnoscia filed Critical Klanad Spolka Z Ograniczona Odpowiedzialnoscia
Priority to PL431566A priority Critical patent/PL239789B1/en
Publication of PL431566A1 publication Critical patent/PL431566A1/en
Publication of PL239789B1 publication Critical patent/PL239789B1/en

Links

Landscapes

  • Projection Apparatus (AREA)
  • Studio Devices (AREA)

Description

PL 239 789 B1PL 239 789 B1

Opis wynalazkuDescription of the invention

Przedmiotem wynalazku jest cyfrowo-optyczny sposób rozpoznawania etykiet z nałożoną projekcją danych. W niniejszym opisie patentowym pojęcie „etykieta” obejmuje jakikolwiek nadruk lub inne odwzorowanie motywu graficznego na płaskich lub zakrzywionych powierzchniach produktów.The present invention relates to a digital-optical method for recognizing labels with superimposed data projection. In this specification, the term "label" includes any print or other representation of a graphic pattern on the flat or curved surfaces of products.

Znane są dwuwymiarowe, matrycowe, kwadratowe kody graficzne (z j. ang.: QR Codes) opracowane przez japońskie przedsiębiorstwo Denso-Wave w 1994 roku. Budowa kodu umożliwia jego umieszczenie i odczyt na przedmiotach szybko przemieszczających się względem skanera stanowiącego najczęściej odpowiednio oprogramowane urządzenie przenośne. Przy wykorzystaniu tych kodów patentowane są liczne nowe systemowe zastosowania, jak ujawniono w opisach patentowych np. US10366315B1, US10375060B1. Innym popularnym rozwiązaniem jest występowanie na etykietach produktów kodów paskowych (z j. ang. barcodes). Głównym zastosowaniem kodu kreskowego jest automatyczna identyfikacja produktów. Kody te, podobnie jak QR codes są standaryzowane, a na ich postawie patentowane są nowe sposoby wykorzystywane w technice, jak ujawniono w opisach patentowych np. US10380580B2 oraz US10212306B1.There are two-dimensional, matrix, square graphic codes (QR Codes) developed by the Japanese company Denso-Wave in 1994. The structure of the code makes it possible to place and read it on objects that move quickly in relation to the scanner, which is usually a suitably programmed portable device. Using these codes, numerous new systemic applications are patented as disclosed in patents e.g. US10366315B1, US10375060B1. Another popular solution is the use of barcodes on product labels. The main application of the bar code is automatic product identification. These codes, like QR codes, are standardized, and on their basis new methods used in the art are patented, as disclosed in patents, e.g. US10380580B2 and US10212306B1.

Dotychczas stosowane specjalnie umieszczane na etykietach produktów kody graficzne, skanowane, obrazowane i rozpoznawane poprzez wykorzystanie elektronicznych urządzeń mobilnych typu smartphone nie wywołują wrażenia na użytkowniku, jakby zawartość cyfrowa, zasocjowana z danym kodem graficznym, była częścią rozpoznawanej etykiety. Wynika to z faktu, że w znanych rozwiązaniach informacje odczytywane z tych kodów nie są w technicznie bezpośredni sposób wyświetlane, w czasie niemal rzeczywistym, względem obrazowanej całej etykiety.So far, graphic codes, scanned, imaged and recognized by means of electronic mobile devices such as smartphones, used specially placed on product labels, do not create an impression on the user, as if the digital content associated with a given graphic code was part of a recognized label. This is due to the fact that in known solutions the information read from these codes is not technically directly displayed, in almost real time, in relation to the entire label being pictured.

Celem wynalazku było opracowanie sposobu rozpoznawania etykiet z nałożoną projekcją danych, który daje użytkownikowi wrażenie, jakby projekcja dodatkowych danych (np. informacji przydatnych dla konsumenta) była częścią rozpoznawalnej etykiety.The object of the invention was to provide a label recognition method with superimposed data projection which gives the user the impression that the projection of additional data (e.g., consumer useful information) is part of a recognizable label.

Istotą wynalazku jest cyfrowo-optyczny sposób rozpoznawania etykiet z nałożoną projekcją danych, polegający na tym, że kamera cyfrowa z funkcją automatycznego ustawiania ostrości rejestruje obraz cyfrowy zawierający etykietę w oświetleniu o natężeniu co najmniej 200 luksów, który następnie poprzez mikrokontroler jest parametryzowany liczbowo, a wyznaczone wartości porównywane są z wartościami liczbowymi sparametryzowanego cyfrowego wzorca motywu graficznego odwzorowanego na etykiecie. Jeżeli wystąpi zgodność porównywanych parametrów wzorca i rejestrowanego motywu graficznego następuje projekcja danych na ekranie wyświetlacza w części rozpoznanego motywu graficznego, która zakrywa ten motyw graficzny, przy niezmienionym tle rejestrowanego na bieżąco obrazu.The essence of the invention is a digital-optical method of recognizing labels with superimposed data projection, which consists in the fact that a digital camera with an automatic focusing function records a digital image containing a label under lighting with an intensity of at least 200 lux, which is then numerically parameterized by a microcontroller and the the values are compared with the numerical values of the parameterized digital pattern of the graphic motif mapped on the label. If there is a match between the parameters of the pattern and the registered graphic motif, the data is projected on the display screen in the part of the recognized graphic motif that covers this graphic motif, with the background of the recorded image unchanged.

Dzięki opracowanemu rozwiązaniu na wyświetlaczu widziany jest rejestrowany obraz, na którym, w miejscu jego charakterystycznego motywu graficznego, niemal w czasie rzeczywistym, następuje projekcja danych graficznych, np. informacji dot. właściwości produktu. Daje to użytkownikowi wrażenie, jakby wyświetlane dane były częścią rozpoznawalnej etykiety. Technika ta umożliwia wytwarzanie wizualnie atrakcyjnych etykiet produktów, których charakterystyczne motywy graficzne będą rozpoznawane i zastępowane przewidzianą projekcją danych.Thanks to the developed solution, the display shows the recorded image, where, in place of its characteristic graphic motif, graphic data is projected almost in real time, e.g. information on product properties. This gives the user the impression that the displayed data is part of a recognizable label. This technique enables the production of visually appealing product labels whose distinctive graphic motifs will be recognized and replaced with the predicted data projection.

Wynalazek w przykładzie realizacji został zobrazowany na rysunku, który wyjaśnia sposób rozpoznawania etykiet z nałożoną projekcją danych.In an embodiment, the invention is illustrated in the drawing which explains the method of recognizing labels with superimposed data projection.

P r z y k ł a d realizacjiExample of implementation

Cyfrowo-optyczny układ rozpoznawania etykiet 1 z nałożoną projekcją danych w przykładzie realizacji składał się z etykiety 1 umieszczonej na powierzchni 2 butelki, kamery cyfrowej 3 z funkcją automatycznego ustawiania ostrości o rozdzielczości 10 megapikseli i częstotliwości próbkowania 30 klatek na sekundę, zarządzaną przez mikrokontroler 4 typu Arm Cortex M4 (TXZ 4 series), który był połączony z pamięcią zewnętrzną 5 oraz z ekranem wyświetlacza 6 w rozdzielczości FulIHD 1920 x 1080 pikseli (wyświetlacz typu AMOLED). Układ ten charakteryzuje się tym, że po zarejestrowaniu przez kamerę 3 i rozpoznaniu przez mikrokontroler 4 obrazu cyfrowego 7, część ekranu wyświetlacza 6 jest wyodrębniona do projekcji danych niezależnych od rejestrowanego obrazu. Wyodrębniona część 9 wyświetlacza 6 zakrywa rozpoznany motyw graficzny 8, przy niezmienionym tle 10 rejestrowanego obrazu cyfrowego 7 na pozostałej części wyświetlacza 6. Wyświetlane dane, w przykładzie realizacji, dotyczyły właściwości zdrowotnych etykietowanego produktu. W innym przykładzie realizacji układ ten może stanowić integralną część znanych urządzeń przenośnych typu smartphone, iPhone.The digital-optical label recognition system 1 with superimposed data projection in the exemplary embodiment consisted of a label 1 placed on the surface 2 of the bottle, a digital camera 3 with an autofocus function with a resolution of 10 megapixels and a sampling rate of 30 frames per second, managed by a type 4 microcontroller Arm Cortex M4 (TXZ 4 series), which was combined with 5 external memory and 6 display screen with FulIHD 1920 x 1080 pixels resolution (AMOLED display). This system is characterized in that after the camera 3 has recorded and the microcontroller 4 recognizes the digital image 7, a part of the display screen 6 is separated for the projection of data independent of the recorded image. A separate part 9 of the display 6 covers the recognized graphic motif 8, with the background 10 of the recorded digital image 7 unchanged on the rest of the display 6. The displayed data, in an exemplary embodiment, related to the health properties of the labeled product. In another embodiment, the system may be an integral part of known mobile devices such as smartphone, iPhone.

Sposób w przykładzie realizacji realizowany był w następujących etapach:The method in the embodiment was carried out in the following steps:

PL 239 789 B1 • kamera cyfrowa 3 z funkcją automatycznego ustawiania ostrości rejestruje obraz cyfrowy 7 zawierający motyw graficzny (8) w warunkach oświetlenia o natężeniu 200 luksów, • parametryzowanie liczbowe rejestrowanych obrazów 7 poprzez mikrokontroler 4, • porównywanie wartości liczbowych sparametryzowanego obrazu 7 z wartościami sparametryzowanego cyfrowego wzorca 11 motywu graficznego 8, • przy wystąpieniu zgodności porównywanych parametrów wzorca 11 i rejestrowanego motywu graficznego 8 następuje projekcja danych na ekranie wyświetlacza 6 w części 9 rozpoznanego motywu graficznego 8, która zakrywa ten motyw graficzny 8, przy niezmienionym tle 10 rejestrowanego na bieżąco obrazu 7.• a digital camera 3 with an auto focus function records a digital image 7 containing a graphic pattern (8) in a 200 lux lighting condition, • numerical parameterization of the recorded images 7 through a microcontroller 4, • comparing the numerical values of the parameterized image 7 with the values parameterized digital pattern 11 of the graphic pattern 8, • when the compared parameters of pattern 11 and the registered graphic pattern 8 match, the data is projected on the display screen 6 in part 9 of the recognized graphic pattern 8, which covers this graphic pattern 8, with an unchanged background 10 recorded on an ongoing basis image 7.

Parametryzowanie cyfrowego wzorca 11 motywu graficznego 8 w przykładzie realizacji polegało na:The parameterization of the digital pattern 11 of the graphic motif 8 in the example implementation consisted in:

• opracowaniu mapy cieplnej obrazu wzorca 11 - etap A;• working out a heat map of the pattern 11 image - stage A;

• następnie na wyliczeniu sumy kontrolnej dla każdego obszaru mapy cieplnej, który charakteryzował się większą szczegółowością niż jego otoczenie - etap B;• then, to calculate the checksum for each area of the heat map that was more detailed than its surroundings - stage B;

• wyznaczeniu sumy kontrolnej całego obrazu w postaci macierzy sum kontrolnych - etap C;• determining the check sum of the whole image in the form of a checksum matrix - step C;

• uśrednienie wartości kolorów wszystkich obszarów - etap D.• averaging the color values of all areas - stage D.

Istotą wcześniej wskazanych etapów (A, B, C i D) jest w przykładzie realizacji, kolejno:The essence of the previously indicated stages (A, B, C and D) is in the example implementation, in turn:

• Etap A• Stage A

W tym etapie porównywane są poszczególne piksele obrazu wraz z sąsiadującymi pikselami. Każdy gradient zmiany barwy bądź natężenia poszczególnych pikseli oznaczony jest wartością od 0 do 1024, gdzie 0 to brak jakiejkolwiek zmiany, a 1024 to zmiana o 100% przynajmniej jednego kanału czerwonego, zielonego lub niebieskiego (R, G lub B). Odsetek zmiany na poszczególnych kanałach jest sumowany, jednak tylko do osiągnięcia 100%. Na podstawie tak opracowanej mapy możliwe są do rozróżnienia obszary, które odróżniają się od otoczenia czy innych, nieskojarzonych obszarów, np. obraz dwóch różnych obiektów stojących obok siebie.In this step, the individual pixels of the image are compared along with the adjacent pixels. Each gradient of color change or intensity of individual pixels is marked with a value from 0 to 1024, where 0 is no change, and 1024 is a 100% change of at least one red, green or blue channel (R, G or B). The percentage of change on individual channels is summed up, but only until it reaches 100%. On the basis of such a map, it is possible to distinguish areas that differ from the surroundings or other, unassociated areas, e.g. an image of two different objects standing next to each other.

• Etapy B i C• Stages B and C

Do wyliczenia sumy kontrolnej w przykładzie realizacji brane były tylko te obszary, których gradient wynosi przynajmniej 512. Dla każdego obszaru wyliczany jest uśredniony kolor, proporcje obszaru, wielkość obszaru (wyrażana w pikselach kwadratowych) oraz gradienty pomiędzy poszczególnymi pikselami obszaru. Taki zbiór informacji o danym obszarze jest zapisywany w formie binarnej, a sumy kontrolne wszystkich obszarów tworzą macierz, będącą sumą kontrolną całej grafiki.For the calculation of the checksum in the example embodiment, only those areas whose gradient is at least 512 were taken. For each area, an average color, area aspect ratio, area size (expressed in square pixels) and gradients between individual area pixels are calculated. Such a set of information about a given area is stored in binary form, and the checksums of all areas form a matrix which is the checksum of the entire graphic.

• Etap D• Stage D

Uśrednianie kolorów obszaru polegało na zsumowaniu wartości kanału czerwonego wszystkich pikseli i podzieleniu sumy przez ilość pikseli. Tak otrzymano uśrednioną wartość kanału czerwonego (R). Analogiczny proces należy powtórzyć dla kanałów zielonego (G) i niebieskiego (B). W efekcie otrzymujemy wartości wszystkich trzech kanałów, tj. uśredniony kolor obszaru.The averaging of the area colors consisted in summing the red channel values of all pixels and dividing the sum by the number of pixels. Thus, the average value of the red channel (R) was obtained. The same process should be repeated for the green (G) and blue (B) channels. As a result, we get the values of all three channels, i.e. the average color of the area.

Wyznaczone parametry wzorca cyfrowego wzorca 11 motywu graficznego 8 wraz z danymi przeznaczonymi do projekcji w części wyświetlacza 6 znajdowały się w pamięci zewnętrznej 5.The determined parameters of the digital pattern 11 of the graphic motif 8 together with the data to be projected in the display part 6 were in the external memory 5.

Parametryzowanie obrazu 7 i rozpoznanie go w porównaniu ze sparametryzowanym cyfrowym wzorcem 11 następowało, w przykładzie realizacji, w następujących etapach:The parameterization of the image 7 and its recognition in comparison with the parameterized digital pattern 11 took place, in an exemplary embodiment, in the following steps:

1. Skierowanie kamery 3 na etykietę 1 w taki sposób, aby zarejestrować cały motyw graficzny 8 wraz z informacją na temat ostrości i jasności oświetlenia w momencie rejestrowania obrazu 7.1. Directing the camera 3 at the label 1 in such a way as to record the entire graphic pattern 8 together with the information on the focus and brightness of the lighting at the time of recording the image 7.

2. Wyliczenie sumy kontrolnej, analogicznie do wyliczania sumy kontrolnej cyfrowego wzorca 11, uwzględniając jednak następujące zmiany:2. Calculation of the checksum, similarly to the calculation of the checksum of digital pattern 11, however, taking into account the following changes:

• po opracowaniu mapy cieplnej obrazu 7, wyliczanie sum kontrolnych obszarów następuje w kolejności od środka obrazu, spiralnie do jego brzegów;• after working out the heat map of the image 7, computing the checksums of the areas takes place in the sequence from the center of the image, spiraling to its edges;

• jeśli po wyliczeniu sumy kontrolnej dla obszarów obejmujących 50% obrazu nie został odnaleziony żaden obszar odpowiadający sumą kontrolną obszarowi z grafiki cyfrowego wzorca 11 z uwzględnieniem tolerancji 15%, dalsze wyliczanie sumy kontrolnej dla tego obrazu nie jest kontynuowane i mikrokontroler 4 rozpoczyna przetwarzanie kolejnego zapisanego w pamięci obrazu;• if, after calculating the checksum for the areas covering 50% of the image, no area corresponding to the checksum of the area from the digital pattern 11 with the tolerance of 15% was found, further calculation of the checksum for this image is not continued and the microcontroller 4 starts processing the next saved in image memory;

Claims (1)

PL 239 789 B1 • w przypadku wykrycia w pierwszych 50% obrazu obszaru odpowiadającego sumą kontrolną obszarowi z grafiki cyfrowego wzorca 11 w formie cyfrowej z uwzględnieniem tolerancji 15%, procesor zwraca informację o położeniu rozpoznanego obszaru względem środka zarejestrowanego obrazu oraz względem środka grafiki etykiety w formie cyfrowej;In the case of detecting in the first 50% of the image of the area corresponding to the check sum of the area from the graphic of the digital pattern 11 in digital form with a tolerance of 15%, the processor returns information about the position of the recognized area in relation to the center of the recorded image and in relation to the center of the graphic of the label in the form of digital; • przy porównaniach kolejnych zarejestrowanych obrazów 7 zamiast wielkości 50% jest uwzględniane 90% wielkości obrazu, natomiast tolerancja zostaje zwiększona do 25%. W przypadku nie wykrycia podobieństwa, wartości te dla kolejnych obrazów wracają do pierwotnych wartości;• when comparing successive captured images 7, instead of 50%, 90% of the image size is considered, and the tolerance is increased to 25%. If no similarity is detected, these values return to the original values for subsequent images; • w tym samym czasie, kiedy mikrokontroler 4 zajmuje się porównywaniem kolejnych rejestrowanych przez kamerę obrazów 7, są one przekazywane na ekran, w celu śledzenia przez użytkownika obszaru rejestrowanego przez kamerę 3;• at the same time, when the microcontroller 4 is comparing consecutive images recorded by the camera 7, these are transferred to the screen for the user to follow the area captured by the camera 3; • w momencie, w którym mikrokontroler rozpoznaje obraz 7 z cyfrowym wzorcem 11, na ekranie, przedstawiającym obraz z kamery zaczyna być wyświetlana zawartość cyfrowa, przypisana do rozpoznawanej etykiety.• at the moment when the microcontroller recognizes the image 7 with the digital pattern 11, the screen showing the image from the camera begins to display the digital content assigned to the recognized label. Zawartość wyświetlana (projekcja danych) jest w rozmiarze i położeniu 9 względem położenia wykrytego motywu graficznego 8 na skanowanym obrazie i docelowego położenia zawartości cyfrowej założonego dla danej grafiki etykiety w formie cyfrowej. Daje to użytkownikowi wrażenie, jakby zawartość cyfrowa była częścią rozpoznawanej etykiety.The displayed content (data projection) is in size and position 9 relative to the location of the detected graphic pattern 8 in the scanned image and the target position of the digital content assumed for the given label graphic in digital form. This gives the user the impression that the digital content is part of a recognized label. W przykładzie realizacji sposobu według wynalazku przedstawiono wykorzystanie przykładowej metody rozpoznawania obrazów cyfrowych, która nie wyklucza wykorzystania innych metod analizy obrazu, realizujących ten sam cel wynalazku.In an embodiment of the method according to the invention, the use of an exemplary method of recognizing digital images is presented, which does not exclude the use of other image analysis methods that fulfill the same object of the invention. Zastrzeżenie patentowePatent claim 1. Cyfrowo-optyczny sposób rozpoznawania etykiet z nałożoną projekcją danych, znamienny tym, że kamera cyfrowa (3) z funkcją automatycznego ustawiania ostrości rejestruje obraz cyfrowy (7) zawierający etykietę (1) w oświetleniu o natężeniu co najmniej 200 luksów, który następnie poprzez mikrokontroler (4) jest parametryzowany liczbowo, a wyznaczone wartości porównywane są z wartościami liczbowymi sparametryzowanego cyfrowego wzorca (11) motywu graficznego (8) odwzorowanego na etykiecie (1), przy czym jeżeli wystąpi zgodność porównywanych parametrów wzorca (11) i rejestrowanego motywu graficznego (8) następuje projekcja danych na ekranie wyświetlacza (6) w części (9) rozpoznanego motywu graficznego (8), która zakrywa ten motyw graficzny (8), przy niezmienionym tle (10) rejestrowanego na bieżąco obrazu (7).1. A digital-optical label recognition method with superimposed data projection, characterized in that the digital camera (3) with an autofocus function captures a digital image (7) containing the label (1) under an illumination of at least 200 lux, which then the microcontroller (4) is numerically parameterized, and the determined values are compared with the numerical values of the parameterized digital pattern (11) of the graphic pattern (8) mapped on the label (1), provided that if there is a match between the parameters of the pattern (11) and the registered graphic pattern ( 8), the data is projected on the display screen (6) in the part (9) of the recognized graphic pattern (8) that covers this graphic pattern (8), with the background (10) of the continuously recorded image (7) unchanged.
PL431566A 2019-10-22 2019-10-22 Digital-optical system and method of recognizing labels with superimposed data projection PL239789B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PL431566A PL239789B1 (en) 2019-10-22 2019-10-22 Digital-optical system and method of recognizing labels with superimposed data projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PL431566A PL239789B1 (en) 2019-10-22 2019-10-22 Digital-optical system and method of recognizing labels with superimposed data projection

Publications (2)

Publication Number Publication Date
PL431566A1 PL431566A1 (en) 2021-05-04
PL239789B1 true PL239789B1 (en) 2022-01-10

Family

ID=75723134

Family Applications (1)

Application Number Title Priority Date Filing Date
PL431566A PL239789B1 (en) 2019-10-22 2019-10-22 Digital-optical system and method of recognizing labels with superimposed data projection

Country Status (1)

Country Link
PL (1) PL239789B1 (en)

Also Published As

Publication number Publication date
PL431566A1 (en) 2021-05-04

Similar Documents

Publication Publication Date Title
US20120070086A1 (en) Information reading apparatus and storage medium
US9064187B2 (en) Method and system for item identification
WO2016035774A1 (en) Determination method, determination system, determination device, and program therefor
JP5447235B2 (en) Marker processing method, marker processing apparatus, and marker processing program
TWI608422B (en) Optical character recognition device, optical character recognition method, and recording medium
JP2010211498A (en) Image processing program and image processing system
US9652652B2 (en) Method and device for identifying a two-dimensional barcode
JP2010226580A (en) Color correction method and imaging system
JP5454639B2 (en) Image processing apparatus and program
PL239789B1 (en) Digital-optical system and method of recognizing labels with superimposed data projection
JP4675055B2 (en) Marker processing method, marker processing apparatus, program, and recording medium
JP2023046979A (en) Collation device and program
JP7269335B2 (en) Image sensor for optical code recognition
JP6249025B2 (en) Image processing apparatus and program
CN111311696A (en) License plate authenticity detection method based on hyperspectral unmixing technology
US20130163871A1 (en) System and method for segmenting image data to identify a character-of-interest
JP5888374B2 (en) Image processing apparatus and program
WO2013126286A1 (en) System and method for segmenting image data to identify a character-of-interest
JP5641103B2 (en) Image processing apparatus and program
US20170200383A1 (en) Automated review of forms through augmented reality
JP2023061880A (en) Collation device and program
KR100920457B1 (en) A method and system of recognizing objects for intelligent robot
WO2009017617A1 (en) System and method for image processing
CN116563833A (en) Method and device for identifying article inventory, electronic equipment and storage medium
JP2014225298A (en) Identification device and program