PL239789B1 - Digital-optical system and method of recognizing labels with superimposed data projection - Google Patents
Digital-optical system and method of recognizing labels with superimposed data projection Download PDFInfo
- Publication number
- PL239789B1 PL239789B1 PL431566A PL43156619A PL239789B1 PL 239789 B1 PL239789 B1 PL 239789B1 PL 431566 A PL431566 A PL 431566A PL 43156619 A PL43156619 A PL 43156619A PL 239789 B1 PL239789 B1 PL 239789B1
- Authority
- PL
- Poland
- Prior art keywords
- digital
- image
- pattern
- graphic
- label
- Prior art date
Links
Landscapes
- Projection Apparatus (AREA)
- Studio Devices (AREA)
Description
PL 239 789 B1PL 239 789 B1
Opis wynalazkuDescription of the invention
Przedmiotem wynalazku jest cyfrowo-optyczny sposób rozpoznawania etykiet z nałożoną projekcją danych. W niniejszym opisie patentowym pojęcie „etykieta” obejmuje jakikolwiek nadruk lub inne odwzorowanie motywu graficznego na płaskich lub zakrzywionych powierzchniach produktów.The present invention relates to a digital-optical method for recognizing labels with superimposed data projection. In this specification, the term "label" includes any print or other representation of a graphic pattern on the flat or curved surfaces of products.
Znane są dwuwymiarowe, matrycowe, kwadratowe kody graficzne (z j. ang.: QR Codes) opracowane przez japońskie przedsiębiorstwo Denso-Wave w 1994 roku. Budowa kodu umożliwia jego umieszczenie i odczyt na przedmiotach szybko przemieszczających się względem skanera stanowiącego najczęściej odpowiednio oprogramowane urządzenie przenośne. Przy wykorzystaniu tych kodów patentowane są liczne nowe systemowe zastosowania, jak ujawniono w opisach patentowych np. US10366315B1, US10375060B1. Innym popularnym rozwiązaniem jest występowanie na etykietach produktów kodów paskowych (z j. ang. barcodes). Głównym zastosowaniem kodu kreskowego jest automatyczna identyfikacja produktów. Kody te, podobnie jak QR codes są standaryzowane, a na ich postawie patentowane są nowe sposoby wykorzystywane w technice, jak ujawniono w opisach patentowych np. US10380580B2 oraz US10212306B1.There are two-dimensional, matrix, square graphic codes (QR Codes) developed by the Japanese company Denso-Wave in 1994. The structure of the code makes it possible to place and read it on objects that move quickly in relation to the scanner, which is usually a suitably programmed portable device. Using these codes, numerous new systemic applications are patented as disclosed in patents e.g. US10366315B1, US10375060B1. Another popular solution is the use of barcodes on product labels. The main application of the bar code is automatic product identification. These codes, like QR codes, are standardized, and on their basis new methods used in the art are patented, as disclosed in patents, e.g. US10380580B2 and US10212306B1.
Dotychczas stosowane specjalnie umieszczane na etykietach produktów kody graficzne, skanowane, obrazowane i rozpoznawane poprzez wykorzystanie elektronicznych urządzeń mobilnych typu smartphone nie wywołują wrażenia na użytkowniku, jakby zawartość cyfrowa, zasocjowana z danym kodem graficznym, była częścią rozpoznawanej etykiety. Wynika to z faktu, że w znanych rozwiązaniach informacje odczytywane z tych kodów nie są w technicznie bezpośredni sposób wyświetlane, w czasie niemal rzeczywistym, względem obrazowanej całej etykiety.So far, graphic codes, scanned, imaged and recognized by means of electronic mobile devices such as smartphones, used specially placed on product labels, do not create an impression on the user, as if the digital content associated with a given graphic code was part of a recognized label. This is due to the fact that in known solutions the information read from these codes is not technically directly displayed, in almost real time, in relation to the entire label being pictured.
Celem wynalazku było opracowanie sposobu rozpoznawania etykiet z nałożoną projekcją danych, który daje użytkownikowi wrażenie, jakby projekcja dodatkowych danych (np. informacji przydatnych dla konsumenta) była częścią rozpoznawalnej etykiety.The object of the invention was to provide a label recognition method with superimposed data projection which gives the user the impression that the projection of additional data (e.g., consumer useful information) is part of a recognizable label.
Istotą wynalazku jest cyfrowo-optyczny sposób rozpoznawania etykiet z nałożoną projekcją danych, polegający na tym, że kamera cyfrowa z funkcją automatycznego ustawiania ostrości rejestruje obraz cyfrowy zawierający etykietę w oświetleniu o natężeniu co najmniej 200 luksów, który następnie poprzez mikrokontroler jest parametryzowany liczbowo, a wyznaczone wartości porównywane są z wartościami liczbowymi sparametryzowanego cyfrowego wzorca motywu graficznego odwzorowanego na etykiecie. Jeżeli wystąpi zgodność porównywanych parametrów wzorca i rejestrowanego motywu graficznego następuje projekcja danych na ekranie wyświetlacza w części rozpoznanego motywu graficznego, która zakrywa ten motyw graficzny, przy niezmienionym tle rejestrowanego na bieżąco obrazu.The essence of the invention is a digital-optical method of recognizing labels with superimposed data projection, which consists in the fact that a digital camera with an automatic focusing function records a digital image containing a label under lighting with an intensity of at least 200 lux, which is then numerically parameterized by a microcontroller and the the values are compared with the numerical values of the parameterized digital pattern of the graphic motif mapped on the label. If there is a match between the parameters of the pattern and the registered graphic motif, the data is projected on the display screen in the part of the recognized graphic motif that covers this graphic motif, with the background of the recorded image unchanged.
Dzięki opracowanemu rozwiązaniu na wyświetlaczu widziany jest rejestrowany obraz, na którym, w miejscu jego charakterystycznego motywu graficznego, niemal w czasie rzeczywistym, następuje projekcja danych graficznych, np. informacji dot. właściwości produktu. Daje to użytkownikowi wrażenie, jakby wyświetlane dane były częścią rozpoznawalnej etykiety. Technika ta umożliwia wytwarzanie wizualnie atrakcyjnych etykiet produktów, których charakterystyczne motywy graficzne będą rozpoznawane i zastępowane przewidzianą projekcją danych.Thanks to the developed solution, the display shows the recorded image, where, in place of its characteristic graphic motif, graphic data is projected almost in real time, e.g. information on product properties. This gives the user the impression that the displayed data is part of a recognizable label. This technique enables the production of visually appealing product labels whose distinctive graphic motifs will be recognized and replaced with the predicted data projection.
Wynalazek w przykładzie realizacji został zobrazowany na rysunku, który wyjaśnia sposób rozpoznawania etykiet z nałożoną projekcją danych.In an embodiment, the invention is illustrated in the drawing which explains the method of recognizing labels with superimposed data projection.
P r z y k ł a d realizacjiExample of implementation
Cyfrowo-optyczny układ rozpoznawania etykiet 1 z nałożoną projekcją danych w przykładzie realizacji składał się z etykiety 1 umieszczonej na powierzchni 2 butelki, kamery cyfrowej 3 z funkcją automatycznego ustawiania ostrości o rozdzielczości 10 megapikseli i częstotliwości próbkowania 30 klatek na sekundę, zarządzaną przez mikrokontroler 4 typu Arm Cortex M4 (TXZ 4 series), który był połączony z pamięcią zewnętrzną 5 oraz z ekranem wyświetlacza 6 w rozdzielczości FulIHD 1920 x 1080 pikseli (wyświetlacz typu AMOLED). Układ ten charakteryzuje się tym, że po zarejestrowaniu przez kamerę 3 i rozpoznaniu przez mikrokontroler 4 obrazu cyfrowego 7, część ekranu wyświetlacza 6 jest wyodrębniona do projekcji danych niezależnych od rejestrowanego obrazu. Wyodrębniona część 9 wyświetlacza 6 zakrywa rozpoznany motyw graficzny 8, przy niezmienionym tle 10 rejestrowanego obrazu cyfrowego 7 na pozostałej części wyświetlacza 6. Wyświetlane dane, w przykładzie realizacji, dotyczyły właściwości zdrowotnych etykietowanego produktu. W innym przykładzie realizacji układ ten może stanowić integralną część znanych urządzeń przenośnych typu smartphone, iPhone.The digital-optical label recognition system 1 with superimposed data projection in the exemplary embodiment consisted of a label 1 placed on the surface 2 of the bottle, a digital camera 3 with an autofocus function with a resolution of 10 megapixels and a sampling rate of 30 frames per second, managed by a type 4 microcontroller Arm Cortex M4 (TXZ 4 series), which was combined with 5 external memory and 6 display screen with FulIHD 1920 x 1080 pixels resolution (AMOLED display). This system is characterized in that after the camera 3 has recorded and the microcontroller 4 recognizes the digital image 7, a part of the display screen 6 is separated for the projection of data independent of the recorded image. A separate part 9 of the display 6 covers the recognized graphic motif 8, with the background 10 of the recorded digital image 7 unchanged on the rest of the display 6. The displayed data, in an exemplary embodiment, related to the health properties of the labeled product. In another embodiment, the system may be an integral part of known mobile devices such as smartphone, iPhone.
Sposób w przykładzie realizacji realizowany był w następujących etapach:The method in the embodiment was carried out in the following steps:
PL 239 789 B1 • kamera cyfrowa 3 z funkcją automatycznego ustawiania ostrości rejestruje obraz cyfrowy 7 zawierający motyw graficzny (8) w warunkach oświetlenia o natężeniu 200 luksów, • parametryzowanie liczbowe rejestrowanych obrazów 7 poprzez mikrokontroler 4, • porównywanie wartości liczbowych sparametryzowanego obrazu 7 z wartościami sparametryzowanego cyfrowego wzorca 11 motywu graficznego 8, • przy wystąpieniu zgodności porównywanych parametrów wzorca 11 i rejestrowanego motywu graficznego 8 następuje projekcja danych na ekranie wyświetlacza 6 w części 9 rozpoznanego motywu graficznego 8, która zakrywa ten motyw graficzny 8, przy niezmienionym tle 10 rejestrowanego na bieżąco obrazu 7.• a digital camera 3 with an auto focus function records a digital image 7 containing a graphic pattern (8) in a 200 lux lighting condition, • numerical parameterization of the recorded images 7 through a microcontroller 4, • comparing the numerical values of the parameterized image 7 with the values parameterized digital pattern 11 of the graphic pattern 8, • when the compared parameters of pattern 11 and the registered graphic pattern 8 match, the data is projected on the display screen 6 in part 9 of the recognized graphic pattern 8, which covers this graphic pattern 8, with an unchanged background 10 recorded on an ongoing basis image 7.
Parametryzowanie cyfrowego wzorca 11 motywu graficznego 8 w przykładzie realizacji polegało na:The parameterization of the digital pattern 11 of the graphic motif 8 in the example implementation consisted in:
• opracowaniu mapy cieplnej obrazu wzorca 11 - etap A;• working out a heat map of the pattern 11 image - stage A;
• następnie na wyliczeniu sumy kontrolnej dla każdego obszaru mapy cieplnej, który charakteryzował się większą szczegółowością niż jego otoczenie - etap B;• then, to calculate the checksum for each area of the heat map that was more detailed than its surroundings - stage B;
• wyznaczeniu sumy kontrolnej całego obrazu w postaci macierzy sum kontrolnych - etap C;• determining the check sum of the whole image in the form of a checksum matrix - step C;
• uśrednienie wartości kolorów wszystkich obszarów - etap D.• averaging the color values of all areas - stage D.
Istotą wcześniej wskazanych etapów (A, B, C i D) jest w przykładzie realizacji, kolejno:The essence of the previously indicated stages (A, B, C and D) is in the example implementation, in turn:
• Etap A• Stage A
W tym etapie porównywane są poszczególne piksele obrazu wraz z sąsiadującymi pikselami. Każdy gradient zmiany barwy bądź natężenia poszczególnych pikseli oznaczony jest wartością od 0 do 1024, gdzie 0 to brak jakiejkolwiek zmiany, a 1024 to zmiana o 100% przynajmniej jednego kanału czerwonego, zielonego lub niebieskiego (R, G lub B). Odsetek zmiany na poszczególnych kanałach jest sumowany, jednak tylko do osiągnięcia 100%. Na podstawie tak opracowanej mapy możliwe są do rozróżnienia obszary, które odróżniają się od otoczenia czy innych, nieskojarzonych obszarów, np. obraz dwóch różnych obiektów stojących obok siebie.In this step, the individual pixels of the image are compared along with the adjacent pixels. Each gradient of color change or intensity of individual pixels is marked with a value from 0 to 1024, where 0 is no change, and 1024 is a 100% change of at least one red, green or blue channel (R, G or B). The percentage of change on individual channels is summed up, but only until it reaches 100%. On the basis of such a map, it is possible to distinguish areas that differ from the surroundings or other, unassociated areas, e.g. an image of two different objects standing next to each other.
• Etapy B i C• Stages B and C
Do wyliczenia sumy kontrolnej w przykładzie realizacji brane były tylko te obszary, których gradient wynosi przynajmniej 512. Dla każdego obszaru wyliczany jest uśredniony kolor, proporcje obszaru, wielkość obszaru (wyrażana w pikselach kwadratowych) oraz gradienty pomiędzy poszczególnymi pikselami obszaru. Taki zbiór informacji o danym obszarze jest zapisywany w formie binarnej, a sumy kontrolne wszystkich obszarów tworzą macierz, będącą sumą kontrolną całej grafiki.For the calculation of the checksum in the example embodiment, only those areas whose gradient is at least 512 were taken. For each area, an average color, area aspect ratio, area size (expressed in square pixels) and gradients between individual area pixels are calculated. Such a set of information about a given area is stored in binary form, and the checksums of all areas form a matrix which is the checksum of the entire graphic.
• Etap D• Stage D
Uśrednianie kolorów obszaru polegało na zsumowaniu wartości kanału czerwonego wszystkich pikseli i podzieleniu sumy przez ilość pikseli. Tak otrzymano uśrednioną wartość kanału czerwonego (R). Analogiczny proces należy powtórzyć dla kanałów zielonego (G) i niebieskiego (B). W efekcie otrzymujemy wartości wszystkich trzech kanałów, tj. uśredniony kolor obszaru.The averaging of the area colors consisted in summing the red channel values of all pixels and dividing the sum by the number of pixels. Thus, the average value of the red channel (R) was obtained. The same process should be repeated for the green (G) and blue (B) channels. As a result, we get the values of all three channels, i.e. the average color of the area.
Wyznaczone parametry wzorca cyfrowego wzorca 11 motywu graficznego 8 wraz z danymi przeznaczonymi do projekcji w części wyświetlacza 6 znajdowały się w pamięci zewnętrznej 5.The determined parameters of the digital pattern 11 of the graphic motif 8 together with the data to be projected in the display part 6 were in the external memory 5.
Parametryzowanie obrazu 7 i rozpoznanie go w porównaniu ze sparametryzowanym cyfrowym wzorcem 11 następowało, w przykładzie realizacji, w następujących etapach:The parameterization of the image 7 and its recognition in comparison with the parameterized digital pattern 11 took place, in an exemplary embodiment, in the following steps:
1. Skierowanie kamery 3 na etykietę 1 w taki sposób, aby zarejestrować cały motyw graficzny 8 wraz z informacją na temat ostrości i jasności oświetlenia w momencie rejestrowania obrazu 7.1. Directing the camera 3 at the label 1 in such a way as to record the entire graphic pattern 8 together with the information on the focus and brightness of the lighting at the time of recording the image 7.
2. Wyliczenie sumy kontrolnej, analogicznie do wyliczania sumy kontrolnej cyfrowego wzorca 11, uwzględniając jednak następujące zmiany:2. Calculation of the checksum, similarly to the calculation of the checksum of digital pattern 11, however, taking into account the following changes:
• po opracowaniu mapy cieplnej obrazu 7, wyliczanie sum kontrolnych obszarów następuje w kolejności od środka obrazu, spiralnie do jego brzegów;• after working out the heat map of the image 7, computing the checksums of the areas takes place in the sequence from the center of the image, spiraling to its edges;
• jeśli po wyliczeniu sumy kontrolnej dla obszarów obejmujących 50% obrazu nie został odnaleziony żaden obszar odpowiadający sumą kontrolną obszarowi z grafiki cyfrowego wzorca 11 z uwzględnieniem tolerancji 15%, dalsze wyliczanie sumy kontrolnej dla tego obrazu nie jest kontynuowane i mikrokontroler 4 rozpoczyna przetwarzanie kolejnego zapisanego w pamięci obrazu;• if, after calculating the checksum for the areas covering 50% of the image, no area corresponding to the checksum of the area from the digital pattern 11 with the tolerance of 15% was found, further calculation of the checksum for this image is not continued and the microcontroller 4 starts processing the next saved in image memory;
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PL431566A PL239789B1 (en) | 2019-10-22 | 2019-10-22 | Digital-optical system and method of recognizing labels with superimposed data projection |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PL431566A PL239789B1 (en) | 2019-10-22 | 2019-10-22 | Digital-optical system and method of recognizing labels with superimposed data projection |
Publications (2)
Publication Number | Publication Date |
---|---|
PL431566A1 PL431566A1 (en) | 2021-05-04 |
PL239789B1 true PL239789B1 (en) | 2022-01-10 |
Family
ID=75723134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PL431566A PL239789B1 (en) | 2019-10-22 | 2019-10-22 | Digital-optical system and method of recognizing labels with superimposed data projection |
Country Status (1)
Country | Link |
---|---|
PL (1) | PL239789B1 (en) |
-
2019
- 2019-10-22 PL PL431566A patent/PL239789B1/en unknown
Also Published As
Publication number | Publication date |
---|---|
PL431566A1 (en) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20120070086A1 (en) | Information reading apparatus and storage medium | |
US9064187B2 (en) | Method and system for item identification | |
WO2016035774A1 (en) | Determination method, determination system, determination device, and program therefor | |
JP5447235B2 (en) | Marker processing method, marker processing apparatus, and marker processing program | |
TWI608422B (en) | Optical character recognition device, optical character recognition method, and recording medium | |
JP2010211498A (en) | Image processing program and image processing system | |
US9652652B2 (en) | Method and device for identifying a two-dimensional barcode | |
JP2010226580A (en) | Color correction method and imaging system | |
JP5454639B2 (en) | Image processing apparatus and program | |
PL239789B1 (en) | Digital-optical system and method of recognizing labels with superimposed data projection | |
JP4675055B2 (en) | Marker processing method, marker processing apparatus, program, and recording medium | |
JP2023046979A (en) | Collation device and program | |
JP7269335B2 (en) | Image sensor for optical code recognition | |
JP6249025B2 (en) | Image processing apparatus and program | |
CN111311696A (en) | License plate authenticity detection method based on hyperspectral unmixing technology | |
US20130163871A1 (en) | System and method for segmenting image data to identify a character-of-interest | |
JP5888374B2 (en) | Image processing apparatus and program | |
WO2013126286A1 (en) | System and method for segmenting image data to identify a character-of-interest | |
JP5641103B2 (en) | Image processing apparatus and program | |
US20170200383A1 (en) | Automated review of forms through augmented reality | |
JP2023061880A (en) | Collation device and program | |
KR100920457B1 (en) | A method and system of recognizing objects for intelligent robot | |
WO2009017617A1 (en) | System and method for image processing | |
CN116563833A (en) | Method and device for identifying article inventory, electronic equipment and storage medium | |
JP2014225298A (en) | Identification device and program |