KR100701292B1 - Image code and method and apparatus for recognizing thereof - Google Patents

Image code and method and apparatus for recognizing thereof Download PDF

Info

Publication number
KR100701292B1
KR100701292B1 KR1020040064858A KR20040064858A KR100701292B1 KR 100701292 B1 KR100701292 B1 KR 100701292B1 KR 1020040064858 A KR1020040064858 A KR 1020040064858A KR 20040064858 A KR20040064858 A KR 20040064858A KR 100701292 B1 KR100701292 B1 KR 100701292B1
Authority
KR
South Korea
Prior art keywords
objects
image
predetermined
color
code
Prior art date
Application number
KR1020040064858A
Other languages
Korean (ko)
Other versions
KR20060016430A (en
Inventor
유현중
Original Assignee
(주)아이미디어아이앤씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아이미디어아이앤씨 filed Critical (주)아이미디어아이앤씨
Priority to KR1020040064858A priority Critical patent/KR100701292B1/en
Publication of KR20060016430A publication Critical patent/KR20060016430A/en
Application granted granted Critical
Publication of KR100701292B1 publication Critical patent/KR100701292B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06046Constructional details
    • G06K19/0614Constructional details the marking being selective to wavelength, e.g. color barcode or barcodes only visible under UV or IR
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/36Image preprocessing, i.e. processing the image information without deciding about the identity of the image
    • G06K9/46Extraction of features or characteristics of the image
    • G06K9/4671Extracting features based on salient regional features, e.g. Scale Invariant Feature Transform [SIFT] keypoints
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/36Image preprocessing, i.e. processing the image information without deciding about the identity of the image
    • G06K9/46Extraction of features or characteristics of the image
    • G06K9/4652Extraction of features or characteristics of the image related to colour

Abstract

본 발명은 소정의 정보를 표시하기 위한 정보 표시용 이미지 코드 및 이를 검출하여 인식하기 위한 방법과 장치에 관한 것이다.The present invention relates to an information display image code for displaying predetermined information, and a method and apparatus for detecting and recognizing the same.
본 발명에 따라 컬러를 이용하여 소정의 정보를 표시하기 위한 이미지 코드는, 컬러를 가지는 적어도 둘의 오브젝트가 서로 분리되어 소정의 영역에 포함되며, 오브젝트간의 소정의 관계를 이용하여 정보를 표시하는 것을 특징으로 한다.According to the present invention, an image code for displaying predetermined information using color includes at least two objects having colors separated from each other and included in a predetermined area, and displaying information using a predetermined relationship between the objects. It features.
이에 따라, 서로 분리된 복수의 오브젝트들을 이용하여 색 간섭을 줄일 수 있다. 또한, 복수의 오브젝트의 다양한 속성들을 이용하여 오브젝트간의 관계나 문자 또는 숫자 등을 표현하므로 타인의 무단 도용을 방지할 수도 있다.Accordingly, color interference may be reduced by using a plurality of objects separated from each other. In addition, by using various attributes of the plurality of objects to express the relationship between the objects, letters or numbers, it is possible to prevent unauthorized theft of others.

Description

이미지 코드 및 그 인식방법과 장치{Image code and method and apparatus for recognizing thereof}Image code and method and apparatus for recognizing
도 1은 종래의 컬러 코드의 일 예를 도시한 것이다.1 illustrates an example of a conventional color code.
도 2는 RGB 컬러 큐브를 보여주며, 도 3은 이로부터 만들어진 HSI 컬러 모델을 보여준다. 2 shows an RGB color cube and FIG. 3 shows an HSI color model made from it.
도 4a, 4b, 및 4c는 본 발명에 따른 이미지 코드의 일 실시예를 도시한 것이다.4A, 4B, and 4C illustrate one embodiment of an image code in accordance with the present invention.
도 5a 내지 도 5c는 본 발명에 따른 이미지 코드의 다른 실시예를 도시한 것이다.5a to 5c show another embodiment of an image code according to the invention.
도 6 내지 도 10은 본 발명에 따른 이미지 코드의 또 다른 실시예들을 나타낸다.6 to 10 show further embodiments of an image code according to the invention.
도 11은 본 발명에 따른 이미지 코드로 표현할 수 있는 조합의 수를 나타낸다.11 shows the number of combinations that can be represented by an image code according to the present invention.
도 12는 본 발명에 따른 이미지 코드의 생성 장치의 블록도를 나타낸다.12 shows a block diagram of an apparatus for generating an image code according to the present invention.
도 13은 본 발명에 따른 이미지 코드의 인식 장치의 블록도를 나타내며, 도 14는 그 동작 흐름도를 나타내는 도면이다.13 is a block diagram of a device for recognizing an image code according to the present invention, and FIG. 14 is a diagram illustrating an operation flowchart thereof.
본 발명은 소정의 정보를 표시하기 위한 정보 표시용 이미지 코드 및 이를 검출하여 인식하기 위한 방법과 장치에 관한 것이다.The present invention relates to an information display image code for displaying predetermined information, and a method and apparatus for detecting and recognizing the same.
문자나 숫자와 같은 정보를 이미지 형태로 표현하는 대표적인 것으로 바코드가 있다. 바코드는 선의 두께와 폭을 이용하여 정보를 표현하며, 바코드 리더기를 바코드가 표시된 부분에 가까이 접근시켜 직접 바코드를 읽도록 한다. 이와 같이, 종래에 사용되는 바코드의 경우 바코드 리더기가 바코드 이미지 부분 가까이에서 직접 촬영하여 이를 인식하는 방식으로 수행된다. 그러나, 움직이는 물체에 코드 이미지를 부착한 다음 그 코드 이미지에 의하여 그 물체를 식별하기 위해서는 종래의 방식을 적용할 수 없다.Barcodes are a representative example of information such as letters and numbers in the form of images. Barcodes express information using the thickness and width of the line, and the barcode reader is read close to the barcode marked area. As described above, in the case of a barcode used in the related art, a barcode reader is directly photographed near a barcode image portion to recognize the barcode. However, conventional methods cannot be applied to attach a code image to a moving object and then identify the object by the code image.
한편, 움직이는 물체를 식별하기 위해서 컬러 코드가 사용되기도 한다. 도 1은 종래의 컬러 코드의 일 예를 도시한 것이다. 도 1과 같이 각 색상 별로 정해진 코드 값을 이용하여 컬러 코드를 표현한다. 컬러 코드는 먼 거리에서 디지털 카메라 등을 이용하여 촬영하여도 정확하게 정보를 얻을 수 있는 장점이 있다. 그러나, 도 1에 도시된 바와 같이, 각 컬러 영역이 인접하면 각 인접 컬러 영역간에 간섭이 발생하기 쉬운 단점이 있다. 또한, 색상이라는 하나의 요소(parameter)를 이용하여 코드화하기 때문에, 쉽게 해독 가능하여 타인의 무단 도용에 취약한 문제점이 있다. 나아가, 이러한 유형의 컬러 코드는, 예를 들어 좌에서 우로 읽는 것과 같이 컬러 코드의 구성 단위의 순서가 단순하게 고정되어 있기 때문에 실질적으 로 이차원 코딩의 장점을 충분히 살리지 못하는 단점이 있다.On the other hand, color codes may be used to identify moving objects. 1 illustrates an example of a conventional color code. As shown in FIG. 1, a color code is expressed using a code value determined for each color. The color code has an advantage of obtaining accurate information even when photographed using a digital camera at a long distance. However, as shown in FIG. 1, when each color area is adjacent, interference between each adjacent color area is likely to occur. In addition, since the coding using a single parameter (color), there is a problem that is easily decipherable and vulnerable to unauthorized theft of others. Furthermore, this type of color code has a disadvantage in that it does not actually take full advantage of the two-dimensional coding because the order of the structural units of the color code is simply fixed, for example, reading from left to right.
따라서, 본 발명의 기술적 과제는 전술한 문제점을 해결하기 위하여, 영상 장치로 촬영된 이미지에서 간섭 없이 정확하게 정보를 추출할 수 있는 이미지 코드를 제공하는 것이다.Accordingly, the technical problem of the present invention is to provide an image code capable of accurately extracting information without interference from an image captured by an imaging device.
또한, 본 발명의 다른 과제는 코드의 파라미터를 추가하여 표현할 수 있는 조합의 수를 현격히 증가시키는 것이다.Another object of the present invention is to significantly increase the number of combinations that can be represented by adding parameters of the code.
또한, 본 발명의 다른 과제는 촬영된 영상으로부터 이미지 코드를 추출하여 소정의 정보를 인식하기 위한 방법 및 장치를 제공하는 것이다.Another object of the present invention is to provide a method and apparatus for recognizing predetermined information by extracting an image code from a captured image.
전술한 기술적 과제는 본 발명에 따라, 컬러를 이용하여 소정의 정보를 표시하기 위한 이미지 코드에 있어서, 컬러를 가지는 적어도 둘의 오브젝트가 서로 분리되어 소정의 영역에 포함되며, 오브젝트간의 소정의 관계를 이용하여 정보를 표시하며, 상기 소정 영역은 상기 오브젝트가 존재하는 도메인 영역을 나타내는 것을 특징으로 하는 이미지 코드에 의해 달성된다.According to the present invention, in the image code for displaying predetermined information using color, at least two objects having a color are separated from each other and included in a predetermined area, and a predetermined relationship between the objects is provided. Information is displayed, the predetermined area being achieved by an image code characterized in that it represents a domain area in which the object exists.
상기 오브젝트는 폐곡면을 형성하며, 각 오브젝트는 소정의 거리 이상 서로 떨어져 있는 것이 바람직하다.The objects form a closed curved surface, and each object is preferably separated from each other by a predetermined distance or more.
또한, 상기 오브젝트의 모양, 컬러, 또는 테두리 스타일 중 적어도 하나를 오브젝트간의 관계를 정의하는데 사용하는 것이 바람직하며,In addition, it is preferable to use at least one of the shape, color, or border style of the object to define the relationship between the objects,
상기 오브젝트간의 관계는 오브젝트간의 각도 또는 거리 중 적어도 하나를 포함하는 것이 특히 바람직하다.It is particularly preferable that the relationship between the objects include at least one of an angle or a distance between the objects.
또한, 상기 오브젝트 중에는 타인이 무단으로 정보를 해독하는 것을 방지하도록 교란용 오브젝트를 더 포함하는 것이 바람직하며,The object may further include a disturbing object to prevent another person from decrypting the information without permission.
상기 오브젝트 중에는 정보의 정확한 전달을 확인하도록 패러티 체크용 오브젝트를 더 포함하는 것이 바람직하다.Among the objects, it is preferable to further include an object for parity check to confirm the correct transfer of information.
또한, 상기 소정의 영역 내에서 첫 번째 오브젝트의 시작 위치를 임의로 정의할 수 있는 것이 바람직하다.In addition, it is preferable that the starting position of the first object can be arbitrarily defined within the predetermined area.
삭제delete
또한, 상기 소정의 영역의 소정의 위치에 배치되어, 오브젝트를 미리 정의된 소정의 각도로 방향을 전환시키는 방향 전환용 오브젝트를 더 포함하는 것이 바람직하다.In addition, it is preferable to further include a direction switching object arranged at a predetermined position of the predetermined area, the object for changing the direction at a predetermined predetermined angle.
한편, 본 발명의 다른 분야에 따르면 전술한 기술적 과제는, 컬러를 이용하여 소정의 정보를 표시하는 이미지 코드가 포함된 이미지를 수신하여 이미지로부터 이미지 코드를 인식하는 방법에 있어서, 이미지에서 소정의 도메인 영역을 검출하는 단계; 검출된 도메인 영역 내에서 소정의 위치로부터 검색하여 서로 분리된 적어도 둘의 오브젝트를 검출하는 단계; 검출된 오브젝트에 대한 적어도 하나의 속성을 인식하는 단계; 인식된 오브젝트의 속성을 해석하여 오브젝트간의 소정의 관계를 찾아내는 단계; 및 찾아낸 오브젝트간의 관계를 이용하여 정보를 해석하는 단계를 포함하는 것을 특징으로 하는 이미지 코드의 인식 방법에 의해 달성된다.On the other hand, according to another aspect of the present invention, the above technical problem, in the method for receiving an image containing an image code for displaying predetermined information by using a color to recognize the image code from the image, the predetermined domain in the image Detecting an area; Detecting at least two objects separated from each other by searching from a predetermined position in the detected domain region; Recognizing at least one attribute for the detected object; Analyzing the attributes of the recognized object to find a predetermined relationship between the objects; And interpreting the information by using the relationship between the found objects.
한편, 본 발명의 다른 분야에 따르면 전술한 기술적 과제는, 컬러를 이용하 여 소정의 정보를 표시하는 이미지 코드가 포함된 이미지를 수신하여 이미지로부터 이미지 코드를 인식하는 장치에 있어서, 이미지에서 소정의 도메인 영역을 검출하고, 검출된 도메인 영역의 소정의 위치로부터 검색하여 서로 분리된 적어도 둘의 오브젝트를 검출하며, 검출된 오브젝트에 대한 적어도 하나의 속성을 인식하는 이미지 처리부; 인식된 오브젝트의 속성에 대응하는 오브젝트간의 관계 및 문자나 숫자와의 코드 변환 관계가 설정된 저장부; 및 코드 변환 관계에 따라 인식된 오브젝트에 대한 속성을 해석하여 오브젝트간의 소정의 관계를 찾아내고, 찾아낸 오브젝트간의 관계를 이용하여 표시 정보를 해석하여 문자나 숫자를 생성하는 디코더부를 포함하는 것을 특징으로 하는 이미지 코드의 인식 장치에 의해 달성된다.On the other hand, according to another aspect of the present invention, the above technical problem, in the apparatus for receiving an image containing an image code for displaying a predetermined information by using a color to recognize the image code from the image, the predetermined domain in the image An image processor for detecting an area, detecting at least two objects separated from each other by searching from a predetermined position of the detected domain area, and recognizing at least one property of the detected object; A storage unit in which relationships between objects corresponding to attributes of the recognized objects and code conversion relationships with letters or numbers are set; And a decoder for analyzing a property of a recognized object according to a code conversion relationship to find a predetermined relationship between the objects, and interpreting display information using the found objects to generate letters or numbers. Is achieved by a device for recognition of image codes.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
도 2는 RGB 컬러 큐브를 보여주며, 도 3은 이로부터 만들어진 HSI 컬러 모델을 보여준다.2 shows an RGB color cube and FIG. 3 shows an HSI color model made from it.
도 3에서 원형 단면은 I(intensity) 축에 수직이다. 이 도면에서 보듯이 채도(Saturation) 값은 원점으로부터의 거리에 비례하며, 색조(Hue) 값은 적색으로부터의 각도에 해당한다. 다음의 수학식 1과 2는 각각 채도와 색조 값 계산을 위한 공식이다.In Figure 3 the circular cross section is perpendicular to the I (intensity) axis. As shown in this figure, the saturation value is proportional to the distance from the origin, and the hue value corresponds to the angle from red. Equations 1 and 2 are formulas for calculating saturation and hue values, respectively.
Figure 112006028661643-pat00001
Figure 112006028661643-pat00001
Figure 112006028661643-pat00002
Figure 112006028661643-pat00002
여기서, 각 θ는 다음의 수학식 3과 같이 표현된다.Here, the angle θ is expressed as in Equation 3 below.
Figure 112006028661643-pat00003
Figure 112006028661643-pat00003
따라서, 이미지 코드에 사용된 컬러들이 순수 컬러, 즉 이른바 안전색이라고 불리는 R, G, B, C, M, Y의 여섯 컬러이면, 수학식 1에 의해 채도 값이 최대 1.0이며, 이들의 색조값은 수학식 2에 의해 60도의 배수에 해당하는 값을 가짐을 알 수 있다. 즉, 이미지 코드는 수학식 1에 의해서는 최대값인 1.0, 수학식 2에 의해서는 60의 배수를 갖게 된다. Therefore, if the colors used in the image code are pure colors, that is, six colors of R, G, B, C, M, and Y called so-called safety colors, the saturation value is 1.0 at the maximum by Equation 1, and their hue values are It can be seen that Equation 2 has a value corresponding to a multiple of 60 degrees. That is, the image code has a multiple of 1.0, which is the maximum value by Equation 1, and 60 by Equation 2.
본 발명의 실시예에 의하면, 이미지 코드에 사용되는 컬러로 안전색인 R, G, B, C, M, Y를 사용하면, 이들 컬러들의 위와 같은 특징을 이용하여 후술하는 각 오브젝트간의 관계를 정의하는데, 전술한 컬러를 사용할 수 있다. 즉, 각 오브젝트의 컬러를 각 오브젝트간의 각도(방향)를 정의하는데 사용할 수 있다.According to an embodiment of the present invention, when the safety colors R, G, B, C, M, and Y are used as the colors used in the image code, the above-described characteristics of these colors are used to define the relationship between the objects described below. The above-mentioned color can be used. That is, the color of each object can be used to define the angle (direction) between each object.
보다 구체적으로, 각 오브젝트의 컬러를 이용하여 각 오브젝트간의 각도를 정의한 이미지 코드에 대해 살펴본다. 도 4a, 4b, 및 4c는 본 발명에 따른 이미지 코드의 일 실시예를 도시한 것이다.More specifically, the image code in which angles between the objects are defined using the colors of the objects will be described. 4A, 4B, and 4C illustrate one embodiment of an image code in accordance with the present invention.
도 4a를 참조하면, 오브젝트의 모양과 오브젝트의 컬러를 이용하여 정보를 표시하는 이미지 코드의 일 실시예가 도시되어 있다. 후술하는 소정의 영역에 복수의 오브젝트들이 포함된다. 각 오브젝트들은 소정의 거리 이상 떨어져 서로 분리되어 있음을 특징으로 한다. 이에 따라, 종래의 컬러 코드의 경우 간격없이 컬러를 배열함으로써 서로 간섭이 일어날 수 있었던 문제점을 해결할 수 있다. 도 4a에서 화살표는 실제 이미지코드에는 표시되지 않으며, 오브젝트의 속성에 의해 결정되는 오브젝트의 순서를 나타내기 위해 편의상 표시한 것이다. 이 예에서 각 오브젝트의 테두리선은 이미지 코드 내에서 오브젝트와 배경과의 분리를 용이하게 하기 위해 배경과 대조되는 컬러로 표시하는 것이 바람직하다.Referring to FIG. 4A, an embodiment of an image code for displaying information using a shape of an object and a color of an object is illustrated. A plurality of objects are included in a predetermined area to be described later. Each object is separated from each other by a predetermined distance or more. Accordingly, in the case of the conventional color code, it is possible to solve the problem that interference may occur by arranging colors without a gap. In FIG. 4A, the arrows are not displayed in the actual image code, but are shown for convenience to indicate the order of the objects determined by the attributes of the objects. In this example, the borderline of each object is preferably displayed in a color contrasting with the background to facilitate separation of the object from the background in the image code.
도 4b는 각 오브젝트의 모양에 따른 코드 값이 도시되어 있다. 각 오브젝트들은 정삼각형, 역삼각형, 원형, 정사각형, 마름모 등으로 표현될 수 있으며, 그밖에 가로로 긴 직사각형이나 세로로 긴 직사각형 등의 다양한 모양을 더 포함할 수 있다. 설명의 편의를 위해 이하에서는 0-4까지의 코드 값을 가지는 정삼각형-마름모까지의 모양을 기준으로 설명한다. 4B shows code values according to the shape of each object. Each object may be represented by an equilateral triangle, an inverted triangle, a circle, a square, a rhombus, and the like, and may further include various shapes such as a horizontally long rectangle and a vertically long rectangle. For convenience of explanation, hereinafter, the description will be made based on the shape of an equilateral triangle-diamond having a code value of 0-4.
한편, 도 4c는 각 오브젝트의 컬러에 따른 코드 값이 도시되어 있다. 전술한 바와 같이 채도가 1.0인 빨강(R), 노랑(Y), 초록(G), 사이안(Cyan), 파랑(B), 마젠타(M)와 같은 순수 컬러가 사용되는 것이 바람직하다. 각 컬러들은 0-5까지의 코드 값을 가진다. 물론, 표시하고자 하는 정보의 수가 큰 경우, 컬러의 수를 더 늘릴 수 있다. 또한, 오브젝트의 크기를 다양하게 변형하여, 빨강색의 다른 크기의 오브젝트(R2)나 파랑색의 다른 크기의 오브젝트(B2)를 더 포함할 수도 있다. 다만, 이하에서는 설명의 편의상 0-5의 빨강-마젠타의 경우만을 예로 들어 설명한다. On the other hand, Figure 4c shows a code value according to the color of each object. As described above, pure colors such as red (R), yellow (Y), green (G), cyan (blue), blue (B), and magenta (M) having a saturation of 1.0 are preferably used. Each color has a code value of 0-5. Of course, if the number of information to be displayed is large, the number of colors can be further increased. In addition, the size of the object may be variously modified to further include an object R2 having a different size of red or an object B2 having a different size of blue. However, hereinafter, only the case of 0-5 red-magenta will be described for convenience of description.
나아가, 각 오브젝트의 컬러에 코드 값뿐만 아니라, 각 오브젝트간의 관계를 나타내는 속성을 지정하는 것이 바람직하다. 즉, 컬러라는 속성을 이용하여 다음 오브젝트에 대한 방향 정보를 나타내도록 하여, 현재 오브젝트 다음의 오브젝트를 지정된 각도의 방향에서 찾을 수 있다. 도 4c의 세 번째 열을 참조하면, 전술한 도 3의 컬러 모델을 이용하여, 빨강(R)은 0도, 노랑(Y) 60도, 초록(G)은 120도, 사이안(Cyan)은 180도, 파랑(B)은 240도, 마젠타(Magenta)는 300도를 나타내도록 한다. 즉, 60도의 배수로 6개의 오브젝트간의 각도를 표현할 수 있다. 표시하고자 하는 정보의 수가 큰 경우, 도 4c의 네 번째 열과 같이 각도의 간격을 더 작게 하여 45도의 배수로 표현할 수도 있다. 반대로, 촬영시 이미지의 기하학적 왜곡이 발생할 수 있는 환경이라면 오브젝트간의 각도의 간격을 더 크게 하여 90도의 배수 등으로 표현할 수도 있다. 또한, 각도의 간격은 균등하지 않게 지정할 수도 있다.Furthermore, it is preferable to specify not only the code value but the attribute representing the relationship between each object in the color of each object. That is, by using the attribute of color to indicate the direction information for the next object, the object next to the current object can be found in the direction of the specified angle. Referring to the third column of FIG. 4C, using the color model of FIG. 3 described above, red (R) is 0 degrees, yellow (Y) is 60 degrees, green (G) is 120 degrees, and cyan is 180 degrees, blue (B) is 240 degrees, magenta (Magenta) is 300 degrees. That is, the angle between six objects can be expressed in multiples of 60 degrees. When the number of pieces of information to be displayed is large, the intervals of the angles may be made smaller by 45 degrees as shown in the fourth column of FIG. 4C. On the contrary, in an environment in which geometric distortion of an image may occur during photographing, an interval between angles of objects may be increased to represent a multiple of 90 degrees. Incidentally, the intervals of the angles may be specified not evenly.
정리하면, 오브젝트의 모양 및 컬러의 코드 값을 조합하여 표시 정보를 해석할 수 있으며, 현재 오브젝트 다음에 해석될 오브젝트는 현재 오브젝트의 컬러에 대응하는 각도의 방향에서 찾을 수 있다.In summary, the display information may be interpreted by combining the code values of the shape and the color of the object, and the object to be interpreted after the current object may be found in the direction of the angle corresponding to the color of the current object.
보다 구체적으로, 도 4a 내지 도 4c를 참조하여, 도시된 이미지 코드로부터 표시 정보를 해석해보자. 여기서, 맨 좌측 상단의 오브젝트를 시작 오브젝트라고 가정한다. 도 4a의 첫 번째 오브젝트는 마젠타(M)색의 원형 오브젝트이다. 현재 오브젝트가 표시하는 정보는, 모양과 컬러 순으로 해석한다고 가정할 때, 도 4b 및 도 4c의 코드 변환 테이블에 표시된 바와 같이, 원형에 대응하는 2와 마젠타 색에 대응하는 5를 조합하여 코드 값 25가 된다. 도 4a에 도시된 화살표는 오브젝트의 해석 순서를 설명하기 위해 참고로 표시한 것일 뿐, 실제 이미지 코드에는 포함되지 않는다.More specifically, referring to Figs. 4A to 4C, let us interpret display information from the image code shown. Here, it is assumed that the object in the upper left corner is a start object. The first object of FIG. 4A is a circular object of magenta (M) color. Assuming that the information displayed by the current object is interpreted in the order of shape and color, as shown in the code conversion tables of FIGS. 4B and 4C, a code value is obtained by combining 2 corresponding to a circle and 5 corresponding to a magenta color. 25. The arrows shown in FIG. 4A are only shown for reference to explain the interpretation order of the objects, and are not included in the actual image code.
이제 다음에 해석할 오브젝트를 찾으려면, 도 4c를 참조하여 현재 오브젝트의 색상인 마젠타(M)에 대응하는 각도인 300을 알아내고, 도 3에 도시된 바와 같이 수평 방향으로부터 반시계 방향으로 300도 만큼의 방향에 있는 오브젝트를 검색한다. 도 4a에 도시된 바와 같이, 300도 방향의 빨강색의 마름모가 두 번째 오브젝트가 된다. 첫 번째 오브젝트와 같은 방법으로 도 4b 및 도 4c를 참조하여 코드 값을 해석하면 마름모에 대응하는 4와 빨강색에 대응하는 0을 조합하여 40을 얻을 수 있다.Now, to find the object to be interpreted next, with reference to FIG. 4C, the angle 300 corresponding to magenta (M) of the current object is found, and as shown in FIG. 3, 300 degrees counterclockwise from the horizontal direction. Search for objects in the same direction. As shown in FIG. 4A, the red rhombus in the 300 degree direction becomes the second object. If the code value is interpreted with reference to FIGS. 4B and 4C in the same manner as in the first object, 40 may be obtained by combining 4 corresponding to a rhombus and 0 corresponding to a red color.
다음 세 번째 오브젝트로는 두 번째 오브젝트의 빨강색이 0도에 대응하므로 0도 방향에서 초록색의 역삼각형을 찾을 수 있다. 이때, 각 오브젝트간의 각도는 각 오브젝트의 중심점을 기준으로 계산하게 되므로, 노란색의 정삼각형은 무시된다. 즉, 도 4a에서 방향 표시 가상선(화살표)이 오브젝트의 중심점으로부터 일정 거리 이상 벗어나면 그 오브젝트를 무시하고 진행하여 검색한다. 세 번째 오브젝트인 초록색의 역삼각형은 코드 값 12를 가진다.As the next third object, the red color of the second object corresponds to 0 degrees, so we can find the green inverted triangle in the 0 degree direction. At this time, since the angle between each object is calculated based on the center point of each object, the yellow equilateral triangle is ignored. That is, in FIG. 4A, when the direction indication virtual line (arrow) deviates by a predetermined distance or more from the center point of the object, the object is ignored and proceeds to search. The third object, the green inverted triangle, has a code value of 12.
다음 네 번째 오브젝트로는 세 번째 오브젝트의 초록색이 120도에 대응하므로 120도 방향에서 파랑색의 정사각형을 찾을 수 있다. 이 오브젝트의 코드 값은 34가 된다. As the next fourth object, since the green color of the third object corresponds to 120 degrees, a blue square can be found in the 120 degree direction. The code value of this object is 34.
마지막으로, 다섯 번째 오브젝트로는 네 번째 오브젝트의 파랑색에 대응하는 240도 방향에서 노랑색의 정삼각형 오브젝트를 찾게 된다. 코드 값은 01이며, 노랑색에 대응하는 60도 방향에서 이미 처리된 파랑색 사각형 외에 더 이상의 오브젝트를 찾을 수 없으므로 이미지 코드의 해석은 종료된다. Finally, as the fifth object, a yellow equilateral triangle object is found in the 240 degree direction corresponding to the blue color of the fourth object. The code value is 01, and no further objects can be found except the blue squares that have already been processed in the 60-degree direction corresponding to yellow, so the interpretation of the image code is terminated.
여기서, 종료 조건은 다르게 정의될 수도 있다. 예를 들어, 역 방향으로 다시 검색하게 될 때 바로 이전 오브젝트를 무시하고 직진해서 그 뒷부분에서 검색하는 것이다. 이 때, 도 4a에서와 같이 이전 오브젝트 뒤에 방향 표시 가상선 상에 더 이상의 오브젝트가 존재하지 않으면 현재 오브젝트에서 코드가 종료된다. Here, the termination condition may be defined differently. For example, when searching again in the reverse direction, you ignore the previous object and go straight ahead and search later. In this case, as in FIG. 4A, if there are no more objects on the direction indication virtual line behind the previous object, the code ends in the current object.
다른 예를 들면, 이전 오브젝트 방향으로 되돌아가는 경우, 이전 오브젝트에서는 진행 방향을 기준으로 각도를 바꿔 검색하는 것이다. 이 방법에서는, 오브젝트의 코드를 중복하여 사용하는 것도 가능하다. 중복 사용된 오브젝트에서도 같은 방식으로 검색하여, 연결되는 오브젝트가 없다면 검색을 종료한다. 도 4a에서는 원형의 사이안(Cyan) 색의 오브젝트로 코드가 연결되고, 여기서 다시 시작 오브젝트로 연결되는데, 이 조건, 즉, 시작 오브젝트와 만나는 것을 종료 조건으로 이용할 수도 있다.In another example, when returning to the previous object direction, the previous object is searched by changing the angle based on the advancing direction. In this method, it is also possible to duplicate the code of an object. Search for duplicate objects in the same way, and terminate the search if no objects are connected. In FIG. 4A, a code is connected to an object of a circular Cyan color, which is connected to a start object again. This condition, that is, encountering a start object may be used as an end condition.
도 4a에서 전술한 역 방향 검색 방식이 허용되지 않는 경우, 사이안(Cyan)색의 원형은 대응하는 방향에 놓여 있지 않기 때문에 이미지 코드의 해석에 이용되지 않는다. 이와 같은 교란용 오브젝트는 타인이 무단으로 이미지 코드를 해석하지 못하도록 방지하는 역할을 한다. 교란용 오브젝트의 포함 여부는 이미지 코드 제작자의 선택사항이다.If the reverse direction search method described above in FIG. 4A is not allowed, the Cyan circle is not used in the interpretation of the image code since it does not lie in the corresponding direction. This disturbing object prevents others from interpreting the image code without permission. Inclusion of disturbing objects is an option of the image code creator.
또한, 각 오브젝트들이 정확하게 해석되었는지를 확인하기 위한 패러티 체크용 오브젝트를 사용할 수도 있다. 예를 들어, 맨 마지막 오브젝트라거나, 세 번째마다의 오브젝트라거나 후술하는 도메인 영역의 경계에 접해있다거나 하는 식으로 패러티 체크용 오브젝트를 둘 수 있다.In addition, an object for parity check may be used to confirm that each object is correctly interpreted. For example, an object for parity check can be placed in the last object, every third object, or in contact with a boundary of a domain region described later.
한편, 도메인 영역의 가장자리 오브젝트들은 선택할 수 있는 방향이 제한된다. 이러한 방향 옵션의 제한을 해결하기 위하여, 해당 오브젝트가 도메인 영역의 가장자리(벽)를 가리키게 되면, 마치 벽을 뚫고 지나가듯이 진행해서 반대 방향의 벽을 뚫고 들어와서 검색하는 랩어라운(Wraparound, 둘러 겹침) 모드, 또는 벽에서 빛이 반사되듯이 되돌아와서 검색하는 리플렉션(reflection, 반사) 모드, 또는 무조건 정해진 방향으로 회전해서 진행하는 모드 등을 채택할 수도 있다.On the other hand, the edge objects of the domain area are limited in the direction that can be selected. To solve this limitation of the orientation option, when the object points to the edge (wall) of the domain area, it wraps around and searches through the wall in the opposite direction. ), A reflection mode that returns and searches as if light is reflected from a wall, or a mode that rotates in a predetermined direction unconditionally.
또한, 본원 발명에 따른 이미지 코드의 특징 중 하나는, 같은 순서의 오브젝트 배치라고 해도 인접 오브젝트간의 거리에 의해 전체 코드 값이 달라질 수 있다는 것이다. 즉, 다음 오브젝트를 검색하고 나서, 현재 오브젝트로부터의 거리를 측정하여 그 정보를 코드에 포함시키는 것이다. 이는 기존의 오브젝트의 단순한 이차원 배치로는 구현할 수 없는 기능이다. 여기서, 거리는 현재 오브젝트의 크기를 기준으로 하여, 즉, 내접 최대 원 또는 외접 최소 원의 반경의 배수 등으로 계산할 수 있다.In addition, one of the features of the image code according to the present invention is that even if the object arrangement in the same order, the total code value may vary depending on the distance between adjacent objects. That is, after searching for the next object, the distance from the current object is measured and the information is included in the code. This is a feature not possible with simple two-dimensional layout of existing objects. Here, the distance may be calculated based on the size of the current object, that is, a multiple of the radius of the largest inscribed circle or the smallest inscribed circle.
나아가, 오브젝트의 컬러 대신 모양마다 각도를 지정하여, 오브젝트의 모양이 오브젝트간의 관계를 나타내도록 본 실시예를 변형할 수도 있다.Furthermore, the present embodiment may be modified so that the shape of the object represents the relationship between the objects by specifying the angle for each shape instead of the color of the object.
또한, 각 오브젝트들을 검색할 도메인 영역으로서 컬러 이미지 영역을 설정 하는 것이 바람직하다. 이에 따라, 촬영된 이미지 전체를 검색하는 대신, 설정된 컬러 이미지 영역만을 검색하여 보다 효율적으로 각 오브젝트들을 해석할 수 있다. 또한, 시작 오브젝트의 위치도 중앙 또는 좌상단과 같이 다양하게 변경하여 지정할 수 있다.In addition, it is preferable to set the color image area as a domain area to search for each object. Accordingly, instead of searching the entire photographed image, each object may be analyzed more efficiently by searching only the set color image area. In addition, the position of the start object may be variously changed and designated such as the center or upper left.
도 9는 본 발명에 따른 실시예를 다양하게 변형한 다른 실시예들을 도시한다. 그림을 참조하면, 원형, 사각형, 마름모 등의 모양을 가지는 컬러 이미지 영역이 도시되어 있다. 이미지 코드의 정확한 해석을 위해 컬러 이미지 영역의 백그라운드 컬러는 백색인 것이 바람직하다. 도 9에서 오브젝트가 백색인 경우가 있는데, 각 오브젝트에 테두리선을 사용하면, 백색도 오브젝트에 사용할 수 있다. 도 4a에서는 각 오브젝트의 영역을 배경색인 백색과 쉽게 구분시키기 위해 흑색 테두리를 사용한다.9 shows another embodiment of various modifications to the embodiment according to the present invention. Referring to the figure, there is shown a color image area having a shape of a circle, a square, a rhombus, or the like. For accurate interpretation of the image code, the background color of the color image area is preferably white. In FIG. 9, an object may be white. If a border line is used for each object, the object may be used for a whiteness object. In FIG. 4A, a black border is used to easily distinguish the area of each object from white, which is a background color.
한편, 이하에서는 다른 실시예로서, 오브젝트의 모양과 컬러 외에 테두리 스타일을 더 포함하는 이미지 코드에 대해 살펴본다. 또한, 오브젝트간의 관계도 전술한 각도(방향)외에 오브젝트간의 거리를 더 정의해본다.Meanwhile, as another embodiment, the image code further including the border style in addition to the shape and color of the object will be described. In addition to the above-described angles (directions), the distance between objects is further defined.
도 5a 및 도 5b는 본 발명에 따른 이미지 코드의 다른 실시예를 도시한 것이다. 즉, 도 4a에 비하여 오브젝트의 테두리 스타일이 더 추가된 이미지 코드가 도시된다. 5A and 5B show another embodiment of an image code according to the present invention. That is, an image code is shown in which the border style of the object is added as compared to FIG. 4A.
도 5b를 참조하면, 오브젝트의 테두리 스타일에 대응하는 오브젝트간의 거리가 정의되어 있다. 예를 들어, 오브젝트의 테두리 스타일이 실선인 경우 오브젝트간 거리는 기준 거리를 X라 가정하면 기준 거리 X의 2배로, 점선 1인 경우 기준 거 리 X의 3배로, 선과 공백의 길이가 다르게 정의된 점선 2인 경우 기준 거리 X의 4배로, 일점 쇄선의 경우 기준 거리 X의 5배로 정의될 수 있다. Referring to FIG. 5B, a distance between objects corresponding to an edge style of an object is defined. For example, if the border style of an object is a solid line, the distance between objects is twice the reference distance X assuming the reference distance X, and if the dotted line 1 is three times the reference distance X, the dotted line is defined with different lengths of lines and blanks. 2 may be defined as 4 times the reference distance X, and in the case of a single-dot chain line, 5 times the reference distance X.
이에 따라, 도 5a에 도시된 이미지 코드를 해석하면, 첫 번 째 오브젝트는 마젠타 색의 원형으로 마젠타 색에 대응하는 300도 방향에서 두 번 째 오브젝트를 찾을 수 있다. 이 때, 테두리 스타일이 점선 1이므로 도 5b에 정의된 바와 같이 기준 거리 X의 3배만큼 떨어진 위치에서 두 번째 오브젝트를 찾을 수 있다. 또한, 두 번째 오브젝트가 빨강색의 마름모로서, 빨강색에 대응하는 0도 방향에서 다음 오브젝트를 찾을 수 있다. 이때, 테두리 스타일이 점선 2이므로, 도 5b에 정의된 바와 같이 기준거리 X의 4배만큼 떨어진 위치에서 세 번째 오브젝트를 찾을 수 있다. 이와 같이, 각도만을 이용하여 다음 오브젝트를 찾는 경우보다, 각도와 거리의 조합으로 다음 오브젝트를 찾는 것이 검색 시간을 줄일 수 있고, 같은 방향선 상에서 여러 오브젝트를 위치시킬 수 있으므로 오브젝트의 배치에 대한 제한을 줄일 수 있어 보다 효율적이다.Accordingly, when the image code illustrated in FIG. 5A is interpreted, the first object may be a magenta circle, and the second object may be found in the 300 degree direction corresponding to the magenta color. At this time, since the border style is a dotted line 1, the second object can be found at a position separated by three times the reference distance X as defined in FIG. 5B. Also, the second object is a red rhombus, and the next object can be found in the 0 degree direction corresponding to the red color. At this time, since the border style is a dotted line 2, the third object can be found at a position separated by four times the reference distance X as defined in FIG. 5B. As such, finding the next object by the combination of angle and distance can reduce the search time and place multiple objects on the same direction line, rather than finding the next object using only the angle. It can be reduced and more efficient.
도 5c는 도 5a에서 테두리선을 내부 컬러 영역으로부터 쉽게 분리시키기 위해 오브젝트와 테두리선 사이에 빈 공간을 둔 경우를 도시한다. 이와 같이 테두리선과 오브젝트 사이에 빈 공간을 두는 것은, 컬러 왜곡이 큰 경우에 도 5a의 형태에서는 테두리선과 오브젝트를 분리시켜 테두리선을 해석하는 것이 어려울 수도 있기 때문이다.FIG. 5C illustrates a case where an empty space is provided between the object and the border line in FIG. 5A to easily separate the border line from the inner color area. The empty space between the border line and the object in this way is because, in the case of color distortion, it may be difficult to analyze the border line by separating the border line and the object in the form of FIG. 5A.
도 6 내지 도 8 및 도 10은 본 발명에 따른 이미지 코드의 또 다른 실시예들을 나타낸다.6 to 8 and 10 show further embodiments of the image code according to the present invention.
도 6은 오브젝트의 테두리의 스타일로 각 오브젝트간의 거리만을 지정하는 경우의 실시예이다. 이 경우, 컬러를 이용한 각 오브젝트간의 각도는 이용하지 않는다고 가정한다. 즉, 소정의 영역의 시작 오브젝트의 위치로부터 각 오브젝트의 테두리 스타일에 대응하는 거리만큼 떨어진 위치에서 다음 오브젝트를 찾아 해석한다. 만약, 컬러에 대응하는 코드 값이 0-5의 숫자 대신 각 컬러를 대표하는 대문자 첫 글자를 사용한다면, 시작 오브젝트의 색상이 파랑색이므로 코드 값은 B가되며, 테두리 스타일이 점선 2이므로 도 5b에서 도시된 바와 같이 기준 거리 X의 4배 떨어진 위치에서 두 번째 오브젝트를 찾는다. 두 번째 오브젝트는 빨강색이며 점선 1의 테두리 스타일을 가지므로, 코드 값은 R이고 다음 오브젝트는 기준 거리 X의 3배 떨어진 위치에서 세 번째 오브젝트를 찾는다. 세 번째 오브젝트는 초록색이며 테두리가 실선이므로 코드 값은 G이며 다음 오브젝트는 기준 거리 X의 2배 떨어진 위치에서 네 번째 오브젝트를 찾는다. 네 번째 오브젝트는 마젠타 색이며 일점 쇄선 테두리를 가지므로 코드 값은 M이며 다음 오브젝트는 기준 거리 X의 3배 떨어진 위치에서 다섯 번째 오브젝트를 찾는다. 그러나, 해당 위치에서는 더 이상의 중복 사용되지 않는 오브젝트를 찾을 수 없으므로, 이미지 코드의 해석을 종료한다. 결과적으로 그림과 같은 이미지 코드의 경우 응용에 따라 선택적으로 BRGM또는 B2R1G0M3이라는 코드 값을 얻게 된다. 이와 같이, 각 오브젝트의 코드 값을 숫자뿐만 아니라 문자로 정의할 수도 있으며, 오브젝트간의 관계도 각도 외에 거리등을 나타내도록 다양하게 변형할 수 있다. 이 모델에서 등거리 원 상에 복수의 오브젝트가 존재하는 경우의 검색 순서는 수평축에서부터 반시계 방향으로 우선 검 색하게 할 수 있다.FIG. 6 illustrates an embodiment in which only a distance between objects is specified in the style of an object's border. In this case, it is assumed that the angle between each object using color is not used. That is, the next object is found and analyzed at a position separated by a distance corresponding to the border style of each object from the position of the start object of the predetermined area. If the code value corresponding to the color uses the first letter of the uppercase letter representing each color instead of the number 0-5, the code value is B because the color of the start object is blue, and the border style is dotted line 2, so that FIG. As shown in Fig. 2, the second object is found at a position four times the reference distance X. Since the second object is red and has a border style of dotted line 1, the code value is R and the next object finds the third object at three times the reference distance X. Since the third object is green and has a solid border, the code value is G, and the next object finds the fourth object two times the reference distance X. The fourth object is magenta and has a dashed border, so the code value is M, and the next object finds the fifth object three times the base distance X. However, at this point, no more redundant objects can be found, so the interpretation of the image code ends. As a result, in the case of an image code such as the figure, depending on the application, a code value of BRGM or B2R1G0M3 may be selectively obtained. In this way, the code value of each object may be defined not only as a number but also as a letter, and the relationship between the objects may be variously modified to represent distances in addition to angles. In this model, the search order when there are a plurality of objects on an equidistant circle can be searched first in the counterclockwise direction from the horizontal axis.
또한 본 실시예의 다른 변형으로서, 인코딩 시에 다음과 같은 방법을 사용한다면, 오브젝트의 전체 속성들을 결합해서 하나의 부호를 형성하게 하는 응용에서 발생할 가능성이 있는 오브젝트의 오버랩 배치를 피할 수 있도록 설계할 수 있다. 즉, 새로 생성된 오브젝트가 이미 배치된 오브젝트와 오버랩 되는 경우, 겹치지 않을 때까지 해당 오브젝트의 방향을 소정의 각도씩 돌리거나, 거리를 미리 정해진 단계만큼씩 증가시키거나, 각도와 거리를 조합하여 변경하여 오브젝트의 위치를 재조정할 수 있다.In addition, as another variation of the present embodiment, if the following method is used in encoding, it can be designed to avoid the overlap arrangement of objects that may occur in an application that combines the entire attributes of the object to form a single sign. have. In other words, if a newly created object overlaps with an already placed object, change the direction of the object by a predetermined angle, increase the distance by a predetermined step, or change the angle and distance until it does not overlap. To reposition the object.
도 7은 본 발명에 따른 이미지 코드의 또 다른 실시예로서 시작 오브젝트로부터 최단 거리에 있는 오브젝트가 다음 오브젝트로 해석되는 경우의 예이다. 이 경우 오브젝트간의 각도나 지정된 거리를 고려하지 않고, 현재 오브젝트로부터 가장 가까운 오브젝트들 중 중복 사용되지 않는 오브젝트를 다음 오브젝트로 해석한다. 등거리 상에 복수의 오브젝트가 존재하는 경우의 검색 순서는 수평축에서부터 반시계 방향으로 우선 검색하게 할 수 있다. 오브젝트의 코드 값을 컬러에 대응하는 문자 값으로 하는 경우라면, 결과 코드 값은 BGCBGRYGM이 된다. 도 6에서 전술한 바와 같이 오브젝트간의 거리를 코드에 삽입한다면 조합의 수를 더 늘릴 수도 있다.FIG. 7 is an example of the case where an object at the shortest distance from the start object is interpreted as the next object as another embodiment of the image code according to the present invention. In this case, without considering the angle or the specified distance between the objects, the object that is not used duplicated among the nearest objects from the current object is interpreted as the next object. The search order in the case where a plurality of objects exist on equidistant distances can be made to search first in the counterclockwise direction from the horizontal axis. If the code value of the object is a character value corresponding to the color, the result code value is BGCBGRYGM. As described above in FIG. 6, if the distance between objects is inserted into the code, the number of combinations may be further increased.
도 8은 중간에 패러티 체크용 오브젝트를 더 포함하는 또 다른 실시예이다. 오브젝트의 컬러에 대응하는 문자 값과, 오브젝트의 모양에 대응하는 숫자 값을 조합하여 코드 값을 구하는 경우를 가정하면, 결과 코드 값은 B2G3C2B2G2R2Y2G2M2가 된다. 대응되는 코드 값을 다양하게 변형할 수도 있다. 마지막 끝의 두 자리(M2)는 각각 컬러와 테두리의 패러티 체크용 디지트들이다. 8 is another embodiment of the invention further including an object for parity check in the middle. Assuming that a code value is obtained by combining a text value corresponding to the color of an object and a numeric value corresponding to the shape of the object, the result code value is B2G3C2B2G2R2Y2G2M2. Various corresponding code values may be modified. The last two digits (M2) are the digits for parity check of color and border, respectively.
또한, 오브젝트의 속성을 더 추가하여 새로운 코드 값을 추가하는 경우라면 하나의 오브젝트가 2자리뿐만 아니라 3자리 코드 값을 갖도록 변형할 수도 있다. In addition, in the case of adding a new code value by adding more attributes of an object, one object may be modified to have a three-digit code value as well as two digits.
한편, 도 10은 방향 전환용 오브젝트를 더 포함하는 본 발명의 또 다른 실시예이다. 도 10을 참조하면, 컬러 이미지 영역내의 특정 위치에 방향 전환용 오브젝트를 배치한 경우가 도시되어 있다. 즉, 오브젝트를 인코딩 또는 디코딩 하는 중 도시된 바와 같은 방향 전환용 오브젝트를 만나면, 예를 들어 시계방향으로 90도 등과 같이 미리 정의된 각도로 해당 오브젝트의 방향을 꺾어 진행하여 다른 오브젝트를 검색하게 할 수 있다. 이에 따라 컬러 이미지 영역 내의 공간을 보다 효율적으로 사용할 수 있다. On the other hand, Figure 10 is another embodiment of the present invention further includes a direction switching object. Referring to FIG. 10, a case where a direction switching object is arranged at a specific position in a color image area is illustrated. That is, when an object for changing direction as shown while encoding or decoding an object is encountered, the object may be searched by turning the object at a predetermined angle such as 90 degrees in a clockwise direction to search for another object. have. This makes it possible to use the space in the color image area more efficiently.
또한, 방향 전환용 오브젝트를 사용하는 경우, 코드를 구성하는 각 오브젝트의 컬러, 모양, 테두리 등의 다른 속성들에 의해 다음 오브젝트를 검색하지 않고, 가장 가까운 방향 전환용 오브젝트를 찾고, 여기서 시계 방향 또는 반시계 방향으로 일정한 각도만큼 회전하여 진행하여 다음 오브젝트를 검색하도록 할 수도 있다. 이 경우 각 해석해야 하는 오브젝트의 속성 수를 줄임으로써, 이미지 코드의 인코딩 및 디코딩의 효율성을 높일 수 있다.In addition, when using an object for redirection, the next object is searched for the nearest object without changing the next object by other attributes such as color, shape, and border of each object constituting the code, where clockwise or It may be rotated counterclockwise by a certain angle to search for the next object. In this case, by reducing the number of attributes of each object to be interpreted, it is possible to increase the efficiency of encoding and decoding the image code.
요약하면, 본 발명의 다양한 실시예에서 살펴본 바와 같이, 오브젝트의 다양한 속성을 이용하면, 이들의 조합에 의해 다양한 코드 값을 부여할 수 있다. 나아가 오브젝트의 속성을 이용하여 각 오브젝트간의 거리라든지, 각도와 같은 다양한 관계를 지정할 수도 있다. 이에 따라, 하나의 이미지 코드를 해석하는데 다양한 요소(parameter)들이 이용됨으로써, 이미지 코드의 다양한 응용이 가능하다. In summary, as described in various embodiments of the present disclosure, by using various attributes of an object, various code values may be given by a combination thereof. In addition, various properties such as distances or angles between objects can be specified using attributes of objects. Accordingly, various parameters are used to interpret one image code, thereby enabling various applications of the image code.
또한, 권한 없는 타인의 경우, 고려해야 하는 요소가 증가함에 따라 기하급수적으로 이미지 코드를 무단으로 해석하는 것이 어려워진다. 또한, 교란용 오브젝트를 추가함으로써 이미지코드의 무단 도용을 방지할 수 있다. 나아가, 패러티 체크용 오브젝트를 이용하면 이미지 코드의 정확한 전송 및 해석이 가능해진다.In addition, in the case of unauthorized persons, as the factors to be considered increase, it becomes difficult to interpret the image code unauthorizedly. In addition, by adding a disturbing object, it is possible to prevent unauthorized theft of the image code. In addition, the parity check object enables accurate transmission and interpretation of the image code.
도 11은 본 발명에 따른 이미지 코드로 표현할 수 있는 조합의 수를 나타낸다. 패러티 체크용 오브젝트를 포함하지 않고, 5가지 모양(Ns=5)과 6가지 컬러(Nc=6)를 가지는 이미지 코드의 경우를 가정해본다. 11 shows the number of combinations that can be represented by an image code according to the present invention. Consider the case of an image code having five shapes (Ns = 5) and six colors (Nc = 6) without including an object for parity check.
먼저, CASE1의 경우는 도 4a에 도시된 이미지 코드를 오브젝트의 모양 및 컬러를 조합하여 코드 값을 지정하는 경우를 도시한다. 오브젝트 수(No)에 따른 표현 가능한 조합의 수는 다음 수학식4에 의해 계산할 수 있다.First, in the case of CASE1, a code value is designated by combining the shape and color of an object with the image code shown in FIG. 4A. The number of representable combinations according to the object number (No) can be calculated by the following equation (4).
Figure 112006028661643-pat00004
Figure 112006028661643-pat00004
여기서, Ns는 오브젝트의 모양의 수, Nc는 오브젝트의 컬러의 수, No는 사용되는 오브젝트의 수를 나타낸다. Here, Ns represents the number of shapes of the object, Nc represents the number of colors of the object, and No represents the number of objects used.
특히, 상수 2는 직각 사각형인 경우의 컬러 이미지 영역에서 좌상단에 시작 오브젝트가 있고 여섯 가지 방향을 사용한다고 가정하는 경우, 이 위치에서는 0도와 300도 두 가지 경우만 가능한 것을 나타낸다. 따라서, 시작 오브젝트가 컬러 이미지 영역의 중앙에서 시작하는 경우라면 Nc = 6으로 변경될 수 있다. 두 번째 오브젝트부터는, 이전 오브젝트 방향으로의 역진행이 제외되는 일반적인 디자인의 경우 Nc-1 = 5개의 방향이 가능하다. 표현 가능한 조합의 수의 계산 결과가 도 10의 두 번째 열에 도시되어 있다. 여기에 순서상 인접한 오브젝트간의 거리를 측정하여 도 5b의 세 번째 열과 같이 네 가지로 분류해서 코드에 포함시킨다면, 도 10의 세 번째 열의 조합 수를 얻을 수 있다.In particular, the constant 2 indicates that there are only two cases where 0 degrees and 300 degrees are possible at this position, assuming that there is a starting object in the upper left corner and six directions are used in the color image area in the case of a rectangular rectangle. Therefore, if the start object starts at the center of the color image area, it may be changed to Nc = 6. Starting with the second object, Nc-1 = 5 directions are possible for a typical design that excludes backward travel to the previous object direction. The calculation result of the number of representable combinations is shown in the second column of FIG. If the distance between adjacent objects is measured in this order and classified into four types as shown in the third column of FIG. 5B, the combination number of the third column of FIG. 10 can be obtained.
한편, CASE2의 경우는 도 5a 또는 도 5c에 도시된 이미지 코드에서 오브젝트의 모양, 컬러뿐만 아니라, 테두리의 스타일도 포함하여 3자리의 조합 코드를 생성하는 경우가 도시되어 있다. 도 5c의 경우 세 자리로 조합한 코드 값은, 모양->컬러->테두리 스타일 순일 경우 252-403-121-341-011이 될 것이다. 도 11의 세 번째 열에는 상기 수학식 4에 따라 계산한 표현 가능한 조합의 수가 도시되어 있다.Meanwhile, in the case of CASE2, a case of generating a three-digit combination code including not only the shape and color of an object but also the style of a border from the image code illustrated in FIG. 5A or 5C is illustrated. In the case of FIG. 5C, the three-digit code value will be 252-403-121-341-011 in the order of Shape-> Color-> Border Style. In the third column of FIG. 11, the number of representable combinations calculated according to Equation 4 is shown.
도 11에 도시된 바와 같이, 표현 가능한 조합의 수는 사용되는 오브젝트의 수에 따라 기하급수적으로 증가한다. 특히, 도 11의 세 번째 열에서 오브젝트 당 세 개의 속성을 사용하는 경우와 같이, 오브젝트의 수를 조금만 늘려주어도 충분히 큰 수의 조합을 표현할 수 있다.As shown in FIG. 11, the number of representable combinations increases exponentially with the number of objects used. In particular, as in the case of using three attributes per object in the third column of FIG. 11, even if the number of objects is slightly increased, a sufficiently large number of combinations can be expressed.
도 12는 본 발명에 따른 이미지 코드의 생성 장치의 블록도를 나타낸다.12 shows a block diagram of an apparatus for generating an image code according to the present invention.
도 12를 참조하면, 이미지 코드에 표시하고자 하는 목적정보가 설정되면 코드변환표(111)를 참조하여 목적정보에 포함된 문자나 숫자에 대응하는 각 오브젝트의 모양, 컬러, 또는 테두리 스타일이 정해진다. 또한, 각 오브젝트간의 관계를 나타내는 오브젝트의 모양, 컬러, 또는 테두리 스타일이 정해진다. 인코더(112)는 이미지 코드에 포함될 오브젝트들의 모양, 컬러, 또는 테두리 스타일과, 각 오브젝트간의 관계에 따라 이미지 코드를 생성한다. 출력부(113)는 인코더(112)에서 생성된 이미지 코드를 스티커나 기타 필요한 형태로 프린트한다.Referring to FIG. 12, when the object information to be displayed in the image code is set, the shape, color, or border style of each object corresponding to the letter or number included in the object information is determined by referring to the code conversion table 111. . In addition, the shape, color, or border style of the object representing the relationship between the objects is determined. The encoder 112 generates the image code according to the shape, color, or border style of the objects to be included in the image code and the relationship between each object. The output unit 113 prints the image code generated by the encoder 112 in a sticker or other necessary form.
도 13은 본 발명에 따른 이미지 코드의 인식 장치의 블록도를 나타낸다.13 shows a block diagram of an apparatus for recognizing an image code according to the present invention.
도 12에서와 같이 프린트되어 배포된 이미지 코드가 카메라나 캠코더와 같은 영상촬영장치에 의해 이미지 형태로 획득한 다음 이로부터 원래의 목적정보를 추출하는 것이다. As shown in FIG. 12, an image code printed and distributed is obtained in an image form by an image capturing apparatus such as a camera or a camcorder, and then original object information is extracted therefrom.
영상촬영장치에 의하여 획득된 이미지가 이미지 처리부(123)로 입력되면, 이미지 처리부(123)는 우선 입력 이미지에 이미지 코드가 포함된 전술한 컬러 이미지 영역이 존재하는지를 확인한다. 즉, 이미지로부터 도메인 영역을 검출하고, 검출된 도메인 영역의 시작 위치로부터 검색하여 오브젝트를 검출한다. 또한, 검출된 오브젝트의 모양, 컬러, 테두리의 스타일과 같은 속성을 인식한다.When the image acquired by the image capturing apparatus is input to the image processor 123, the image processor 123 first checks whether the aforementioned color image region including the image code exists in the input image. That is, the domain region is detected from the image, and the object is detected by searching from the start position of the detected domain region. It also recognizes attributes such as the shape, color, and border style of the detected object.
저장부(121)에는 인식된 오브젝트의 속성에 대응하는 오브젝트간의 관계 및 문자나 숫자와의 코드 변환 관계가 설정된 코드변환표가 저장되어 있다. The storage unit 121 stores a code conversion table in which relationships between objects corresponding to attributes of the recognized object and code conversion relationships with letters or numbers are set.
디코더부(122)는 저장부에 저장된 코드변환표에 따라 인식된 오브젝트에 대한 속성을 해석하여 각 오브젝트간의 각도, 거리등과 같은 관계를 찾아내고, 이 오브젝트간의 관계를 이용하여 표시 정보를 해석하여 문자나 숫자를 추출하여 원래의 목적정보를 검출한다 각 오브젝트의 속성을 인식함에 있어서, 쏠림(shearing), 회전, 사영 왜곡(projective distortion) 등으로 왜곡된 오브젝트를 사영 변환(projective transformation), 어파인 변환(affine transformation) 등에 의해 보 정할 수 있다. The decoder 122 analyzes the attributes of the recognized objects according to the code conversion table stored in the storage unit, finds relationships such as angles and distances between the objects, and interprets the display information by using the relationships between the objects. Detect the original object information by extracting letters or numbers. In recognizing the attributes of each object, projective transformation and affine of objects distorted by shearing, rotation, projective distortion, etc. This can be corrected by an affine transformation or the like.
도 14는 본 발명에 따른 이미지 코드의 인식 장치의 동작 흐름도를 나타내는 도면이다.14 is a flowchart illustrating an operation of an apparatus for recognizing an image code according to the present invention.
도 14를 참조하면, 이미지 코드를 획득하여(1302 단계), 도메인 영역으로서 컬러 이미지 영역을 찾아낸다. 특히, 이미지 획득 과정에서 쏠림(shearing), 회전(rotation), 사영 왜곡(projective distortion) 등의 기하학적 왜곡이 발생한 이미지 코드들을 어파인 변환 또는 사영 변환 등에 의해 보정하고, 필요한 경우 기준 축을 찾아낼 수 있다. 또한, 보정된 컬러 이미지 영역에 포함된 오브젝트들의 모양, 컬러, 테두리 스타일 등의 오브젝트 속성을 인식한다(1304 단계). 오브젝트의 모양을 인식(shape recognition)하기 위하여, region skeleton을 구하는 방법, 또는 templates를 사용하는 방법 등의 널리 알려진 방법을 이용할 수 있다. 또한, 오브젝트의 컬러는 오브젝트의 내부 화소의 히스토그램을 통계적으로 분석하거나 인공신경망 등으로 처리하여 인식할 수 있다.Referring to FIG. 14, an image code is obtained (step 1302) to find a color image area as a domain area. In particular, image codes in which geometric distortions such as shearing, rotation, and projective distortion occur during image acquisition can be corrected by affine transformation or projection transformation, and a reference axis can be found if necessary. . In operation 1304, object properties such as shape, color, and border style of the objects included in the corrected color image area are recognized. In order to recognize the shape of an object, a well-known method such as obtaining a region skeleton or using templates may be used. In addition, the color of the object may be recognized by statistically analyzing the histogram of the internal pixels of the object or by processing by an artificial neural network.
이상과 같이 오브젝트의 모양, 컬러, 테두리 스타일 등을 인식한 결과를 이용하여 오브젝트간의 관계를 알아내며, 또한 각 속성들의 조합을 이용하여 문자 또는 숫자 등으로 변환하여 목적 정보를 검출할 수 있다(1306 단계).As described above, the result of recognizing the shape, color, and border style of the object may be used to determine the relationship between the objects, and the object information may be detected by converting the object into a letter or a number using a combination of attributes (1306). step).
정리하면, 본 발명에 따라 이미지 코드를 인식하는 방법은, 수신된 이미지에서 도메인 영역인 컬러 이미지 영역을 검출하고, 검출된 컬러 이미지 영역 내에서 시작위치로부터 검색하여 서로 분리된 복수의 오브젝트들을 검출하며, 검출된 오브젝트에 대하여 속성을 인식하고, 인식된 오브젝트의 속성을 해석하여 오브젝트간의 소정의 관계를 찾아내며, 찾아낸 오브젝트간의 관계를 이용하여 목적 정보를 해석하는 단계를 포함한다.In summary, a method of recognizing an image code according to the present invention may include detecting a color image area that is a domain area in a received image, detecting a plurality of objects separated from each other by searching from a start position within the detected color image area. Recognizing attributes of the detected objects, analyzing attributes of the recognized objects to find a predetermined relationship between the objects, and interpreting the objective information using the found relationships between the objects.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드디스크, 플로피디스크, 플래쉬 메모리, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로서 저장되고 실행될 수 있다.The invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, flash memory, optical data storage device, and also carrier waves (for example, transmission over the Internet). It also includes the implementation in the form of. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명에 따른 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only one embodiment of the present invention, and those skilled in the art may implement the present invention in a modified form without departing from the essential characteristics of the present invention. Therefore, it should be interpreted to include various embodiments that are not limited to the examples according to the present invention but within the scope equivalent to those described in the claims.
전술한 바와 같이 본 발명에 따르면, 복수의 오브젝트가 서로 분리되어 소정의 영역에 포함되는 이미지 코드가 제공된다. 이에 따라, 촬영된 이미지에서 색 간섭 없이 정확하게 정보를 추출할 수 있다.As described above, according to the present invention, an image code is provided in which a plurality of objects are separated from each other and included in a predetermined area. Accordingly, information can be accurately extracted from the captured image without color interference.
또한, 오브젝트의 다양한 속성을 이용하면, 이들의 조합에 의해 다양한 코드 값을 부여할 수 있다. 나아가 오브젝트의 속성을 이용하여 각 오브젝트간의 거리라든지, 각도와 같은 다양한 관계를 지정할 수도 있다. 이에 따라, 하나의 이미지 코드를 해석하는데 다양한 요소(parameter)들이 이용됨으로써, 이미지 코드의 다양한 응용이 가능하다. In addition, by using various attributes of the object, various combinations of code values can be given. In addition, various properties such as distances or angles between objects can be specified using attributes of objects. Accordingly, various parameters are used to interpret one image code, thereby enabling various applications of the image code.
나아가, 권한 없는 타인의 경우, 고려해야 하는 요소가 증가함에 따라 기하급수적으로 이미지 코드를 무단으로 해석하는 것이 어려워진다. 또한, 교란용 오브젝트를 추가함으로써 이미지코드의 무단 도용을 방지할 수 있다. 또한, 패러티 체크용 오브젝트를 이용하면 이미지 코드의 정확한 전송 및 해석이 가능해진다.Further, for unauthorized persons, as the factors to be considered increase, it becomes difficult to interpret the image code unauthorizedly. In addition, by adding a disturbing object, it is possible to prevent unauthorized theft of the image code. In addition, using the parity check object enables accurate transmission and interpretation of the image code.
또한, 바코드나 종래의 컬러코드에 비하여 다양한 모양의 오브젝트를 자유롭게 배치할 수 있으므로, 이미지 코드의 미적 디자인이 가능해진다.In addition, since objects of various shapes can be freely arranged as compared with barcodes or conventional color codes, aesthetic design of image codes becomes possible.

Claims (13)

  1. 컬러를 이용하여 소정의 정보를 표시하기 위한 이미지 코드에 있어서,An image code for displaying predetermined information using color,
    상기 컬러를 가지는 적어도 둘의 오브젝트가 서로 분리되어 도메인 영역에 포함되며,At least two objects having the color are separated from each other and included in a domain area.
    상기 오브젝트간의 소정의 관계를 이용하여 상기 정보를 표시하며,The information is displayed using a predetermined relationship between the objects,
    상기 오브젝트의 관계는 상기 오브젝트의 속성인 모양, 컬러 및 테두리 스타일 중 적어도 어느 하나에 의하여 정의되는 상기 오브젝트간의 각도 또는 거리인 것을 특징으로 하는 이미지 코드.And the relationship of the object is an angle or distance between the objects defined by at least one of a shape, a color, and a border style which are attributes of the object.
  2. 삭제delete
  3. 제1항에 있어서,The method of claim 1,
    상기 오브젝트들은 상기 오브젝트의 관계에 의하여 순서가 정해지며, 정해진 순서에 따른 오브젝트들의 속성에 의하여 정보를 표시하는 것을 특징으로 하는 이미지 코드.The objects are ordered by the relation of the objects, and the image code, characterized in that to display the information by the properties of the objects in the predetermined order.
  4. 삭제delete
  5. 제1항에 있어서,The method of claim 1,
    상기 오브젝트 중에는 타인이 무단으로 정보를 해독하는 것을 방지하도록 교란용 오브젝트를 더 포함하는 것을 특징으로 하는 이미지 코드.The image code of the object further comprises a disturbing object to prevent unauthorized decryption of information by others.
  6. 제1항에 있어서,The method of claim 1,
    상기 오브젝트 중에는 정보의 정확한 전달을 확인하도록 패러티 체크용 오브젝트를 더 포함하는 것을 특징으로 하는 이미지 코드.The object code of the object further comprises a parity check object to confirm the correct transfer of information.
  7. 삭제delete
  8. 제1항에 있어서,The method of claim 1,
    상기 소정의 영역 내에서 첫 번째 오브젝트의 시작 위치를 임의로 정의할 수 있는 것을 특징으로 하는 이미지 코드.And a start position of a first object in the predetermined area can be arbitrarily defined.
  9. 제1항에 있어서,The method of claim 1,
    상기 소정의 영역의 소정의 위치에 배치되어, 상기 오브젝트를 미리 정의된 소정의 각도로 방향을 전환시키는 방향 전환용 오브젝트를 더 포함하는 것을 특징으로 하는 이미지 코드.And a direction changing object arranged at a predetermined position of the predetermined area to change the direction of the object at a predetermined predetermined angle.
  10. 컬러를 이용하여 소정의 정보를 표시하는 이미지 코드가 포함된 이미지를 수신하여 상기 이미지로부터 상기 이미지 코드를 인식하는 방법에 있어서,In the method for receiving the image containing the image code for displaying the predetermined information by using the color to recognize the image code from the image,
    상기 이미지에서 소정의 도메인 영역을 검출하는 단계;Detecting a predetermined domain region in the image;
    상기 검출된 도메인 영역 내에서 소정의 위치로부터 검색하여 서로 분리된 적어도 둘의 오브젝트를 검출하는 단계;Detecting at least two objects separated from each other by searching from a predetermined position in the detected domain region;
    상기 검출된 오브젝트에 대한 적어도 하나의 속성을 인식하는 단계;Recognizing at least one attribute for the detected object;
    상기 인식된 오브젝트의 속성을 해석하여 상기 오브젝트간의 소정의 관계를 찾아내는 단계; 및Analyzing a property of the recognized object to find a predetermined relationship between the objects; And
    상기 찾아낸 오브젝트간의 관계를 이용하여 상기 정보를 해석하는 단계를 포함하며,Interpreting the information using the relationship between the found objects,
    상기 오브젝트의 관계는 상기 오브젝트의 속성인 모양, 컬러 및 테두리 스타일 중 적어도 어느 하나에 의하여 정의되는 상기 오브젝트간의 각도 또는 거리인 것을 특징으로 하는 이미지 코드의 인식 방법. And the relationship between the objects is an angle or a distance between the objects defined by at least one of a shape, a color, and a border style, which are attributes of the object.
  11. 제10항에 있어서,The method of claim 10,
    상기 오브젝트들은 상기 오브젝트의 관계에 의하여 순서가 정해지며, 정해진 순서에 따른 오브젝트들의 속성에 의하여 정보를 표시하는 것을 특징으로 하는 이미지 코드의 인식방법. The objects are ordered according to the relationship of the object, and the image code recognition method, characterized in that to display the information by the properties of the objects in the predetermined order.
  12. 컬러를 이용하여 소정의 정보를 표시하는 이미지 코드가 포함된 이미지를 수신하여 상기 이미지로부터 상기 이미지 코드를 인식하는 장치에 있어서,An apparatus for receiving an image including an image code for displaying predetermined information by using color to recognize the image code from the image,
    상기 이미지에서 소정의 도메인 영역을 검출하고, 상기 검출된 도메인 영역의 소정의 위치로부터 검색하여 서로 분리된 적어도 둘의 오브젝트를 검출하며, 상기 검출된 오브젝트에 대한 적어도 하나의 속성을 인식하는 이미지 처리부;An image processing unit for detecting a predetermined domain area in the image, searching for a predetermined location of the detected domain area to detect at least two objects separated from each other, and recognizing at least one property of the detected object;
    상기 인식된 오브젝트의 속성에 대응하는 상기 오브젝트간의 관계 및 문자나 숫자와의 코드 변환 관계가 설정된 저장부; 및A storage unit in which a relationship between the objects corresponding to attributes of the recognized object and a code conversion relationship between letters and numbers is set; And
    상기 코드 변환 관계에 따라 상기 인식된 오브젝트에 대한 속성을 해석하여 상기 오브젝트간의 소정의 관계를 찾아내고, 상기 찾아낸 오브젝트간의 관계를 이용하여 상기 표시 정보를 해석하여 문자나 숫자를 생성하는 디코더부를 포함하며A decoder unit for analyzing a property of the recognized object according to the code conversion relationship to find a predetermined relationship between the objects, and interpreting the display information using the found objects to generate letters or numbers;
    상기 오브젝트의 관계는 상기 오브젝트의 속성인 모양, 컬러 및 테두리 스타일 중 적어도 어느 하나에 의하여 정의되는 상기 오브젝트간의 각도 또는 거리인 것을 특징으로 하는 이미지 코드의 인식 장치.  And the relationship between the objects is an angle or a distance between the objects defined by at least one of a shape, a color, and a border style, which are attributes of the object.
  13. 제10항 또는 제11항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록 한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method of claim 10 or 11 on a computer.
KR1020040064858A 2004-08-17 2004-08-17 Image code and method and apparatus for recognizing thereof KR100701292B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040064858A KR100701292B1 (en) 2004-08-17 2004-08-17 Image code and method and apparatus for recognizing thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040064858A KR100701292B1 (en) 2004-08-17 2004-08-17 Image code and method and apparatus for recognizing thereof

Publications (2)

Publication Number Publication Date
KR20060016430A KR20060016430A (en) 2006-02-22
KR100701292B1 true KR100701292B1 (en) 2007-03-29

Family

ID=37124715

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040064858A KR100701292B1 (en) 2004-08-17 2004-08-17 Image code and method and apparatus for recognizing thereof

Country Status (1)

Country Link
KR (1) KR100701292B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100702292B1 (en) * 2005-05-03 2007-03-30 (주)아이미디어아이앤씨 Image code and method and apparatus for recognizing thereof
US9111164B1 (en) * 2015-01-19 2015-08-18 Snapchat, Inc. Custom functional patterns for optical barcodes
KR101684626B1 (en) * 2015-10-16 2016-12-08 (주)디지엔터테인먼트 Picture recognition method of paper and video representation method using this
KR101901645B1 (en) * 2016-12-08 2018-09-27 경희대학교 산학협력단 Method, apparatus, system and computer program for image retrieval

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111040A (en) * 1992-09-28 1994-04-22 Dainippon Ink & Chem Inc Color code
JPH06309518A (en) * 1993-04-23 1994-11-04 Masanori Yamaguchi Circle code
JPH08263580A (en) * 1995-03-20 1996-10-11 Y E Data Inc Identification code mark
JPH0981711A (en) * 1995-09-20 1997-03-28 Olympus Optical Co Ltd Information recording medium, information reproduction system, and information recording the system
JP2001159866A (en) 1999-12-01 2001-06-12 Minoru Nakamura Display system for identification display
KR20010051212A (en) * 1999-11-13 2001-06-25 한탁돈 Machine readable code for representing information and method and apparatus for encoding/decoding the same
KR20050051029A (en) * 2003-11-26 2005-06-01 (주)아이미디어아이앤씨 Method and apparatus for detecting code image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06111040A (en) * 1992-09-28 1994-04-22 Dainippon Ink & Chem Inc Color code
JPH06309518A (en) * 1993-04-23 1994-11-04 Masanori Yamaguchi Circle code
JPH08263580A (en) * 1995-03-20 1996-10-11 Y E Data Inc Identification code mark
JPH0981711A (en) * 1995-09-20 1997-03-28 Olympus Optical Co Ltd Information recording medium, information reproduction system, and information recording the system
KR20010051212A (en) * 1999-11-13 2001-06-25 한탁돈 Machine readable code for representing information and method and apparatus for encoding/decoding the same
JP2001159866A (en) 1999-12-01 2001-06-12 Minoru Nakamura Display system for identification display
KR20050051029A (en) * 2003-11-26 2005-06-01 (주)아이미디어아이앤씨 Method and apparatus for detecting code image

Also Published As

Publication number Publication date
KR20060016430A (en) 2006-02-22

Similar Documents

Publication Publication Date Title
USRE44982E1 (en) Mixed code, and method and apparatus for generating the same
USRE44139E1 (en) Method and apparatus for decoding mixed code
JP4515999B2 (en) Mixed code decoding method and apparatus, and recording medium
US9396421B2 (en) Producing, capturing and using visual identification tags for moving objects
US7438232B2 (en) Two-dimensional code and information processing method
JP3943638B2 (en) Automatic recognition method of drop word in document image without using OCR
US8483499B2 (en) Image processing apparatus, image processing method, computer-readable medium and computer data signal
US7864985B1 (en) Automatic operator-induced artifact detection in document images
Bagherinia et al. Robust real-time detection of multi-color markers on a cell phone
US20060061777A1 (en) Modifying digital documents
KR100701292B1 (en) Image code and method and apparatus for recognizing thereof
KR100606404B1 (en) Method and apparatus for detecting color code image
JP2007081458A (en) Image processing apparatus and control method of image processing apparatus
US20170161580A1 (en) Method and system for text-image orientation
JP2008028716A (en) Image processing method and apparatus
JP2006252562A (en) Image recognition method
JP2003091730A (en) Image checkup device, image checkup method and image checkup program
US20200065601A1 (en) Method and system for transforming handwritten text to digital ink
JP4793868B2 (en) Writing medium, writing information detection device, writing information detection method, program, and recording medium
US10956799B2 (en) Method for detecting and recognizing long-range high-density visual markers
Tian et al. Self-verifiable paper documents and automatic content verification
AU2014277851A1 (en) Detecting a gap between text columns from text line fragments
Carrazoni Entenza Copy-move forgery detection in scanned text documents using Zernike and Hu moments
JP2004013188A (en) Business form reading device, business form reading method and program therefor
AU2005209670B2 (en) Modifying digital documents

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130321

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150824

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee