KR101558486B1 - Method for providing tire information using a portable terminal - Google Patents

Method for providing tire information using a portable terminal Download PDF

Info

Publication number
KR101558486B1
KR101558486B1 KR1020150026915A KR20150026915A KR101558486B1 KR 101558486 B1 KR101558486 B1 KR 101558486B1 KR 1020150026915 A KR1020150026915 A KR 1020150026915A KR 20150026915 A KR20150026915 A KR 20150026915A KR 101558486 B1 KR101558486 B1 KR 101558486B1
Authority
KR
South Korea
Prior art keywords
image
tire
region
character
information
Prior art date
Application number
KR1020150026915A
Other languages
Korean (ko)
Inventor
이영기
Original Assignee
주식회사 다인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 다인 filed Critical 주식회사 다인
Priority to KR1020150026915A priority Critical patent/KR101558486B1/en
Application granted granted Critical
Publication of KR101558486B1 publication Critical patent/KR101558486B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0633Lists, e.g. purchase orders, compilation or processing
    • G06F17/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/40

Abstract

The present invention relates to a tire information providing method using a portable terminal. According to an embodiment of the present invention, the tire information providing method using a portable terminal includes: a step of receiving a selection signal for an image search among search menus of a tire information providing system; a step of operating a camera module of the portable terminal in response to the received selection signal; a step of obtaining a tire image by photographing a predetermined tire; a step of analyzing the obtained tire image; and a step of providing the tire information according to the analysis result.

Description

휴대 단말기를 이용한 타이어 정보 제공 방법{Method for providing tire information using a portable terminal}TECHNICAL FIELD [0001] The present invention relates to a tire information providing method using a portable terminal,

본 개시는 휴대 단말기를 이용한 타이어 정보 제공 방법에 관한 것이다. The present disclosure relates to a tire information providing method using a portable terminal.

종래에 운전자들의 타이어 구입방식은 오프라인으로 타이어의 매장을 찾아 판매자의 의도된 설명만 듣고 상품을 구매하는 방식으로 타이어에 정확한 정보를 알 수 없고 가격비교 또한 할 수 없어 손해를 보는 경우가 많았었다.In the past, drivers' tires were purchased offline by purchasing goods only by the intention of the seller to search for the tire store, so that the tire could not know the exact information and could not compare the price.

온라인이 발달하면서 타이어도 온라인 구매가 증가했으며 온라인 타이어 판매 사이트도 활성화되었다. 이러한 온라인 구매는 가격비교를 할 수 있어 저렴한 구매가 가능하게 되었다.As the online market has grown, online tire purchases have also increased and online tire sales sites have also been activated. These online purchases can be made at affordable prices by comparing prices.

종래에 온라인 상품검색 방식은 차종검색, 사이즈검색을 이용한 상품검색 방식이며 운전자가 타이어 사이즈를 정확하게 알고 있다는 전제에서의 상품검색 방식이다. Conventionally, an online product search method is a product search method using a vehicle type search and a size search, and is a product search method on the premise that the driver accurately knows the tire size.

예를 들면, 차종검색 방식은 자동차의 제조사, 차종, 타이어 사이즈를 순차적으로 선택하는 방식이다. 차종 검색 방식에서 사이즈를 선택할 때 동일 차종에 타이어 사이즈가 여러 종류이므로 선택이 어렵다. 또한, 사이즈검색 방식은 단면 폭, 편평비, 인치를 순차적으로 선택하는 방식이다. 타이어의 정확한 사이즈를 알 수 없는 경우 상품검색을 할 수 없다. 온라인 타이어 판매 사이트에서, 사이즈를 모르는 운전자를 위해 이미지, 텍스트, 동영상 등의 방법으로 알려주기도 하지만 구매자 입장에선 사이즈를 파악하기에는 여전히 어려움이 있다.For example, a vehicle type search method is a method of sequentially selecting an automobile manufacturer, a vehicle type, and a tire size. When choosing a size for a vehicle type, it is difficult to select the size because there are many different tire sizes for the same model. In addition, the size search method is a method of sequentially selecting the cross-sectional width, the flatness ratio, and the inch. If the exact size of the tire is not known, the product search can not be done. On the online tire sales site, it is possible to inform the driver of the size by image, text, video, etc. However, it is still difficult for the buyer to understand the size.

온라인에서 상품검색을 하려면 본인의 타이어 사이즈를 정확하게 알고 있어야하며, 타이어 사이즈를 모르면 정확한 타이어 구매를 할 수 없다. 하지만, 대부분의 운전자는 본인 차량에 장착된 타이어 사이즈를 모르며 온라인 구매 시 어려움을 느끼고 있다. To search for products online, you must know your tire size correctly. If you do not know the tire size, you will not be able to buy the correct tire. However, most drivers do not know the size of the tire in their vehicle and feel it is difficult to buy online.

본 실시 예들은, 온라인 영역, 예를 들면 PC, 모바일, 애플리케이션에서 휴대 단말기를 이용한 타이어 정보 제공 방법을 제공하는 것이다.The present embodiments provide a tire information providing method using a portable terminal in an online area, for example, a PC, a mobile, and an application.

또한, 현재 장착된 타이어 정보와 장착 가능한 상품에 대한 정보를 실시간으로 제공하여 상품 선택 및 구매에 도움을 줄 수 있는 타이어 정보 제공 방법을 제공하는 것이다.It is another object of the present invention to provide a tire information providing method which can provide information on currently mounted tire information and mountable goods in real time to assist in product selection and purchase.

본 실시 예들은, 전술한 과제에 한정되지 않으며, 이하 구체적인 내용에서 다양한 기술적 과제들을 제공할 수 있다.The embodiments are not limited to the above-described problems, and various technical problems can be provided in the following detailed description.

상기의 기술적 과제를 달성하기 위한, 휴대 단말기를 이용한 타이어 정보 제공 방법에 있어서, 타이어 정보 제공 시스템에서 제공하는 검색 메뉴 중 이미지 검색에 대한 선택 신호를 수신하는 단계; 상기 수신된 선택 신호에 응답하여, 상기 휴대 단말기의 카메라 모듈을 구동시키는 단계; 소정의 타이어를 촬영하여 타이어 이미지를 획득하는 단계; 상기 획득된 타이어 이미지를 분석하는 단계; 및 상기 분석 결과에 따른 상기 타이어 정보를 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of providing tire information using a mobile terminal, the method comprising: receiving a selection signal for an image search among search menus provided by a tire information providing system; Driving a camera module of the portable terminal in response to the received selection signal; Capturing a predetermined tire to obtain a tire image; Analyzing the obtained tire image; And providing the tire information according to the analysis result.

상기 타이어 정보는 상기 타이어와 동일하거나 유사한 타이어에 관한 타이어 상품 정보, 상기 타이어의 손상 정보, 상기 타이어의 마모도 정보 중 적어도 하나를 포함하는 것을 특징으로 한다.The tire information includes at least one of tire product information related to a tire same as or similar to the tire, damage information of the tire, and wear information of the tire.

상기 타이어 상품 정보는, 제조사, 상품명, 사이즈, 제품기능, 제조일자, 오프라인 가격, 온라인 가격, 가격 비교 정보, 공장도 가격, 교체여부 판단정보, 리뷰 정보, 선호도 정보 및 이벤트 정보 중 적어도 하나를 포함하는 것을 특징으로 한다. The tire product information includes at least one of a manufacturer, a product name, a size, a product function, a manufacturing date, an offline price, an online price, a price comparison information, a factory price, a replacement determination information, review information, .

상기 분석 단계는, 상기 타이어 이미지 내 원형의 타이어 부분을 일자형태 이미지로 변환하는 단계; 상기 일자형태 이미지 내 인식대상 글자영역을 추출하는 단계; 및 기 구축된 학습 글자 군에서 상기 추출한 인식대상 글자영역과 가장 유사한 학습 글자를 상기 인식대상 글자영역의 글자로 파악하는 단계를 포함하는 것을 특징으로 한다.Wherein the analyzing step comprises the steps of: converting a circular tire portion in the tire image into a linear image; Extracting a recognition target character region in the date image; And recognizing the learning character most similar to the extracted recognition target character area as the character of the recognition target character area in the group of the learned learning characters.

상기 일자형태 이미지로 변환하는 단계는, 상기 이미지 내 원형의 타이어 부분을 추출하고, 상기 타이어 부분 내 휠 영역에 대응되는 원 또는 타원의 원주에 직각한 직선에 대응되는 직선 이미지들을 동일방향으로 재배치하여 상기 일자형태의 타이어 이미지를 획득하거나, 상기 이미지 내 원형의 타이어 부분을 추출하고, 상기 원형의 타이어 부분에서 휠 부분을 제거하고, 상기 휠 부분이 제거된 타이어 부분을 상기 일자형태 이미지로 변환하거나, 상기 이미지 촬영시 제공된 가이드라인을 기초로 상기 타이어 부분을 포함하는 일정 영역을 추출하고, 상기 추출된 영역을 일자형태 이미지로 변환하는 것을 특징으로 한다.The step of converting into the linear image includes extracting a circular tire portion in the image and rearranging linear images corresponding to a straight line perpendicular to the circumference of the circle or ellipse corresponding to the wheel region in the tire portion in the same direction Wherein the wheel portion is removed from the circular tire portion, the wheel portion is converted into the linear image, or the tire portion is removed from the circular tire portion, Extracting a certain region including the tire portion based on a guideline provided at the time of image photographing, and converting the extracted region into a linear image.

상기 일자형태 이미지로 변환하는 단계는, 상기 타이어 이미지의 촬영시 제공된 가이드라인을 기초로 추출된 원형의 타이어 부분을 일자형태 이미지로 1차 변환하는 단계; 상기 제1 일자형태의 이미지에서 인텐서티를 기준으로 휠 영역의 경계를 산출하는 단계; 및 상기 경계를 기초로 상기 타이어 이미지 내 원형의 타이어 부분을 다시 추출하여 일자형태 이미지로 2차 변환하는 단계를 포함하는 것을 특징으로 한다.The step of transforming the image into a linear image may include: converting a circular tire part extracted based on a guideline provided at the time of photographing the tire image into a linear image; Calculating a boundary of the wheel region based on the intensity of the image of the first date format; And a step of re-extracting the circular tire portion in the tire image based on the boundary and performing secondary conversion to a linear image.

상기 휠 영역의 경계를 산출하는 단계는, 상기 일자형태 이미지의 각 선들에 대해 방향에 따른 가중치를 부여하는 단계; 및 상기 일자형태 이미지에서 인텐서티를 기준으로 구분되는 각 영역의 경계선을 구하는 단계; 및 상기 각 영역의 경계선으로 이루어진 경로 이미지에 상기 방향에 따른 가중치를 적용하여 상기 경로 이미지의 양단을 연결하는 최단 경로를 산출하는 단계를 포함하는 것을 특징으로 한다.Wherein the step of calculating the boundaries of the wheel region includes: weighting a direction of each line of the image in the form of a rectangle; And obtaining a boundary line of each area based on intensities in the image of the date type; And calculating a shortest path connecting both ends of the path image by applying a weight according to the direction to the path image formed by the boundary lines of the respective regions.

상기 2차 변환하는 단계는, 상기 최단 경로를 원형의 이미지로 변환하는 단계; 상기 원형의 이미지 내 최단 경로를 원 또는 타원으로 보정하는 단계; 및 상기 보정된 원 또는 타원을 기초로 상기 이미지 내 타이어 부분을 다시 추출하는 단계; 및 상기 다시 추출된 타이어 부분을 일자형태의 타이어 이미지로 변환하는 단계를 포함하는 것을 특징으로 한다.Converting the shortest path to a circular image; Correcting the shortest path in the circular image to a circle or an ellipse; And re-extracting the in-image tire portion based on the corrected circle or ellipse; And converting the re-extracted tire portion into a straight tire image.

상기 글자 영역을 추출하는 단계는, 상기 일자형태의 이미지에서 질감, 패턴, 에지 중 적어도 하나의 특징을 이용하여 각 글자 영역을 추출하는 단계를 포함하는 것을 특징으로 한다.The step of extracting the character region may include extracting each character region using at least one of a texture, a pattern, and an edge in the image of the date format.

상기 글자 영역을 추출하는 단계는, 상기 일자형태 이미지에 엔트로피 필터를 적용하는 단계; 상기 엔트로피 필터를 적용한 결과 이미지에 적응적 임계값을 이용하여 흑과 백의 영역으로 구성된 이진 이미지를 획득하는 단계; 상기 이진 이미지에서 기 설정된 크기 이하의 잡음영역을 제거하는 단계; 및 상기 잡음영역이 제거된 이미지 내 인식대상 글자영역을 추출하는 단계를 포함하는 것을 특징으로 한다.Wherein the extracting of the character region comprises: applying an entropy filter to the date image; Acquiring a binary image composed of regions of black and white using an adaptive threshold value for an image obtained by applying the entropy filter; Removing noise regions of a predetermined size or less from the binary image; And extracting the recognition target character region in the image from which the noise region is removed.

상기 글자를 파악하는 단계는, 상기 인식대상 글자영역에 적어도 하나 이상의 필터를 적용하여 특징정보를 획득하는 단계; 및 학습 글자 군에 대해 상기 적어도 하나 이상의 필터를 적용하여 기 구축한 글자별 특징 정보와 상기 인식대상 글자영역의 특징정보를 비교하여, 가장 유사한 특징정보를 가진 학습 글자를 상기 인식대상 글자영역에 포함된 글자로 파악하는 단계를 포함하는 것을 특징으로 한다.The step of recognizing the character includes: obtaining characteristic information by applying at least one filter to the character region to be recognized; And the learning character group is compared with the characteristic information of the character region to be recognized by applying the at least one filter to the recognition target character region to include the learning character having the most similar characteristic information in the recognition target character region And recognizing the character as a character.

상기 카메라 모듈이 구동된 후, 상기 휴대 단말기의 화면에 적어도 하나 이상의 가이드라인을 표시하는 단계; 상기 카메라 모듈을 통해 획득된 타이어 이미지를 상기 화면에 표시하는 단계를 포함하고, Displaying at least one guide line on a screen of the portable terminal after the camera module is driven; And displaying the tire image obtained through the camera module on the screen,

상기 적어도 하나 이상의 가이드라인은, 원형의 제1 가이드라인과 상기 제1 가이드라인 내에 상기 제1 가이드라인보다 작은 지름을 가진 원형의 제2 가이드라인을 포함하고,Wherein the at least one guide line includes a circular first guide line and a circular second guide line having a smaller diameter than the first guide line in the first guide line,

상기 휴대 단말기의 기울기 또는 상기 카메라 모듈과 상기 타이어의 거리에 따라 상기 가이드라인의 모양을 적응적으로 변형하여 표시하는 것을 특징으로 한다.And the shape of the guide line is adaptively modified according to the inclination of the portable terminal or the distance between the camera module and the tire.

상기 분석 단계는, 상기 타이어 이미지의 측면에 위치한 문자, 숫자, 기호 중 적어도 하나의 타이어 이미지 데이터를 이용하여 데이터베이스에서 비교대상 이미지 또는 상기 비교대상 이미지에 상응하는 비교대상 데이터를 검색하는 단계; 및 상기 타이어 이미지와 상기 비교대상 이미지의 차이 또는 상기 타이어 이미지 데이터와 상기 비교대상 데이터의 차이를 기초로 손상 여부를 판별하는 단계를 더 포함하는 것을 특징으로 한다.Wherein the analyzing step comprises: searching for a comparison object image or comparison object data corresponding to the comparison object image in a database using at least one of the characters, numbers, and symbols located on the side of the tire image; And determining whether the tire image is damaged based on a difference between the tire image and the comparison object or a difference between the tire image data and the comparison object data.

상기 비교대상 이미지를 검색하는 단계는, 상기 타이어 이미지 내 원형의 타이어 부분을 일자형태 이미지로 변환하는 단계; 상기 일자형태 이미지 내 인식대상 글자영역을 추출하는 단계; 기 구축된 학습 글자 군에서 상기 추출한 인식대상 글자영역과 가장 유사한 학습 글자를 상기 인식대상 글자영역의 글자로 파악하는 단계; 및 상기 파악된 글자를 기초로 상기 데이터베이스 내 비교대상 이미지를 검색하는 단계를 포함하는 것을 특징으로 한다.Wherein the step of retrieving the comparison image comprises: converting a tire portion of a circle in the tire image into a linear image; Extracting a recognition target character region in the date image; Recognizing the learning character most similar to the extracted recognition target character region as the character of the recognition target character region in the pre-established learning character group; And searching the comparison object image in the database based on the recognized character.

상기 분석 단계는, 상기 타이어 이미지 내 선 성분을 검출하는 단계; 상기 타이어 이미지 내 글자 영역을 검출하는 단계; 상기 검출된 선 성분에서 상기 글자 영역에 위치한 선 성분을 제거하는 단계; 및 상기 제거하는 단계 이후 남아 있는 선 성분을 기초로 손상 여부를 판별하는 단계를 더 포함하는 것을 특징으로 한다.Wherein the analyzing step comprises: detecting a line component in the tire image; Detecting a character region in the tire image; Removing line components located in the character region from the detected line components; And determining whether the damage is caused based on the line component remaining after the removing step.

상기 타이어 이미지는 동영상이고, 상기 동영상을 기초로 타이어의 3차원 형상의 이미지를 생성하는 단계; 및 상기 3차원 형상의 이미지 내 트레드 영역의 깊이를 기초로 타이어 트레드의 마모도를 측정하는 단계를 포함하는 것을 특징으로 한다.Wherein the tire image is a moving image and generating an image of a three-dimensional shape of the tire based on the moving image; And measuring the wear of the tire tread based on the depth of the tread area in the image of the three-dimensional shape.

상기 3차원 형상의 이미지를 생성하는 단계는, 상기 동영상 이미지를 복수의 정지 이미지 단위로 분리하는 단계; 복수의 정지 이미지들 사이의 화소별 대응관계를 파악하는 단계; 상기 화소별 대응관계를 통해 상기 동영상의 촬영시 각도 및 거리를 포함하는 파라미터를 파악하는 단계; 및 상기 파라미터를 기초로 복수의 정지 이미지 사이의 깊이 정보를 파악하여 타이어에 대한 3차원 형상 이미지를 생성하는 단계를 포함하는 것을 특징으로 한다.Wherein the generating the three-dimensional image comprises: separating the moving image into a plurality of still image units; Recognizing a pixel-by-pixel correspondence relationship between the plurality of still images; Determining a parameter including an angle and a distance at the time of photographing the moving picture through the pixel-by-pixel correspondence relationship; And generating depth information of the plurality of still images based on the parameters to generate a three-dimensional shape image for the tire.

상기 마모도를 측정하는 단계는, 상기 3차원 형상의 이미지에 대한 곡률 분석을 기초로 트레드 홈 영역과 표면 영역을 검출하는 단계; 상기 검출된 표면영역으로부터 상기 홈 영역의 깊이를 파악하는 단계; 상기 파악된 깊이를 기초로 상기 타이어의 마모도를 인식하는 단계를 포함하는 것을 특징으로 한다.Wherein the measuring the wear rate comprises: detecting a tread groove region and a surface region based on curvature analysis of the image of the three-dimensional shape; Determining a depth of the groove region from the detected surface region; And recognizing wear of the tire based on the detected depth.

상기 트레드 홈 영역과 표면 영역을 검출하는 단계는, 상기 3차원 형상 이미지의 각 화소의 곡률을 분석하는 단계; 곡률이 기 설정된 범위 내에서 유사하고 상호 거리가 기 설정된 거리 범위 내인 화소들을 연결하여 생성된 영역 중 가장 큰 곡률을 가진 영역을 파악하는 단계; 및 상기 가장 큰 곡률을 가진 영역을 기준으로 분리되는 트레드 홈 영역과 표면 영역을 검출하는 단계를 포함하는 것을 특징으로 한다.Wherein the step of detecting the tread groove region and the surface region comprises: analyzing a curvature of each pixel of the three-dimensional shape image; Determining a region having a largest curvature among regions generated by connecting pixels having similar curvatures within a predetermined range and having mutual distances within a predetermined distance range; And detecting a tread groove region and a surface region separated on the basis of the region having the largest curvature.

상기 다른 기술적 과제를 달성하기 위한, 다른 실시 예에 따른 타이어 정보 제공 방법을 컴퓨터에서 실행시키기 위한 프로그램을 저장한 기록매체를 포함한다.According to another aspect of the present invention, there is provided a recording medium storing a program for causing a computer to execute a tire information providing method according to another embodiment.

실시 예에 따른 온라인 영역, 예를 들면 PC, 모바일, 애플리케이션에서 휴대 단말기를 이용한 타이어 정보 제공 방법은 현재 장착된 타이어 정보와 장착 가능한 상품에 대한 정보를 실시간으로 제공하여 상품 선택 및 구매에 도움을 줄 수 있다.The tire information providing method using the mobile terminal in the on-line area, for example, PC, mobile, and application according to the embodiment provides information on the currently installed tire information and the mountable product in real time, .

또한, 사용자는 자신의 타이어 사이즈를 몰라도, 현재 차량에 장착된 타이어와 동일하거나 유사한 타이어를 손쉽게 검색할 수 있으며, 가격 비교를 통해 저렴하게 타이어를 구매할 수 있다. Also, the user can easily search for tires which are the same as or similar to the tires mounted on the vehicle, without knowing the tire size of the user, and purchase the tires cheaply by comparing the prices.

도 1은 일 실시 예에 따른 타이어 정보 제공을 위한 전체 시스템의 개략적인 구조를 도시한 도면이다.
도 2는 도 1에 도시된 휴대 단말기(110)와 타이어 정보 제공 서버(100)의 개략적인 블록 도이다.
도 3 및 4는 종래기술에 따른 타이어 검색 방법을 설명하기 위한 예시 도들이다.
도 5는 다른 실시 예에 따른 타이어 정보 제공 방법을 설명하기 위한 흐름도이다.
도 6a은 도 2에 도시된 휴대 단말기(110)의 개략적인 블록 도이다.
도 6b는 휴대 단말기(110)를 통해 타이어 이미지를 촬영하는 일 예를 도시한 도면이다.
도 7 및 8은 또 다른 실시 예에 따른 촬영 조건에 따라 변형되는 가이드라인의 일 예를 도시한 도면들이다.
도 9는 또 다른 실시 예에 따른 휴대 단말기(110)의 일 예의 구성을 도시한 도면이다.
도 10은 또 다른 실시 예에 따른 휴대 단말기를 통한 타이어 이미지 획득 방법의 일 예를 도시한 흐름도이다.
도 11은 도 2에 도시된 타이어 인식 모듈(104)의 개략적인 블록 도이다.
도 12 및 13은 또 다른 실시 예에 따른 원형의 타이어 부분을 일자형태 이미지로 변환하는 방법의 일 예를 도시한 도면들이다.
도 14a 내지 14g는 또 다른 실시 예에 따른 일자형태 이미지를 보정 하는 방법의 일 예를 도시한 도면이다.
도 14i 내지 14l은 또 다른 실시 예에 따른 일자형태 이미지를 영역별로 분리하는 방법의 일 예를 도시한 도면들이다.
도 14m은 또 다른 실시 예에 따른 영역별로 분리된 이미지를 보정하는 방법의 일 예를 도시한 도면이다.
도 15a는 또 다른 실시 예에 따른 영역별로 분리된 이미지로부터 글자 영역을 추출하는 방법의 일 예를 도시한 도면이다.
도 15b는 또 다른 실시 예에 따른 글자 영역에서 각 글자 단위로 이미지 영역을 추출하는 방법의 일 예를 도시한 도면이다.
도 16은 또 다른 실시 예에 따른 타이어 문자 인식을 위한 각 글자의 비교 방법의 일 예를 도시한 도면이다.
도 17은 또 다른 실시 예에 따른 타이어 인식 방법의 일 예의 흐름을 도시한 도면이다.
도 18은 또 다른 실시 예에 따른 일자형태 이미지로의 변환 과정의 일 예의 흐름을 도시한 도면이다.
도 19는 또 다른 실시 예에 따른 일자형태 이미지의 보정 방법의 일 예의 흐름을 도시한 도면이다.
도 20은 또 다른 실시 예에 따른 일자형태 이미지로부터 글자 영역을 추출하는 방법의 일 예의 흐름을 도시한 도면이다.
도 21은 또 다른 실시 예에 따른 타이어 글자 인식 방법의 일 예의 흐름을 도시한 도면이다.
도 22는 도 2에 도시된 손상 인식 모듈(105)의 개략적인 블록 도이다.
도 23은 도 2에 도시된 손상 인식 모듈(105)의 다른 블록 도이다.
도 24 내지 26은 또 다른 실시 예에 따른 타이어 손상 인식 방법의 흐름도들이다.
도 25는 또 다른 실시 예에 따른 타이어 손상 인식 방법의 흐름도이다.
도 27 및 28은 타이어 이미지로부터 무채색 영역을 추출하는 방법의 일 예를 도시한 도면이다.
도 29는 도 27의 무채색 영역에서 검은 영역을 추출하는 방법의 일 예를 도시한 도면이다.
도 30은 도 29의 방법을 적용하여 얻은 검은 영역으로 구성된 이미지의 일 예를 도시한 도면이다.
도 31은 도 30의 검은 영역에서 선 성분을 추출하는 방법의 일 예를 도시한 도면이다.
도 32는 도 31의 선 성분 이미지에서 글자 영역의 선 성분을 제거하는 방법의 일 예를 도시한 도면이다.
도 34는 도 31의 선 성분을 데이터베이스의 비교 이미지와 비교하여 손상을 인식하는 방법의 일 예를 도시한 도면이다.
도 35는 마모도 측정 모듈(106)의 일 실시 예의 구성을 도시한 도면이다.
도 36은 또 다른 실시 예에 따른 타이어 마모도를 측정하는 방법의 일 예를 도시한 흐름도이다.
도 37은 또 다른 실시 예에 따른 타이어 마모도 측정을 위해 동영상 이미지로부터 3차원 형상의 이미지를 생성하는 방법의 일 예를 도시한 흐름도이다.
도 38은 복수의 정지 이미지들의 2차원 좌표를 3차원 공간의 공간좌표로 변환하는 일 예를 도시한 도면이다.
도 39는 타이어 트레드 동영상으로부터 획득한 3차원 형상의 이미지의 일 예를 도시한 도면이다.
도 40은 생성된 3차원 형상의 이미지로부터 타이어 트레드 마모도를 측정하는 구체적인 방법의 일 예를 도시한 흐름도이다.
도 41은 3차원 형상 이미지를 화소의 곡률 크기별로 구분한 일 예를 도시한 도면이다.
도 42는 3차원 형상 이미지를 트레드 홈 영역의 방향과 폭을 기준으로 다수의 구간으로 구분한 일 예를 도시한 도면이다.
도 43은 3차원 형상 이미지의 일 예를 도시한 도면이다.
도 44는 도 43의 3차원 형상 이미지로부터 트레드 홈 깊이를 파악하는 방법의 일 예를 도시한 도면이다.
도 45는 3차원 형상 이미지를 근사 평면으로 보정한 일 예를 도시한 도면이다.
1 is a diagram illustrating a schematic structure of an overall system for providing tire information according to an embodiment.
FIG. 2 is a schematic block diagram of the portable terminal 110 and the tire information providing server 100 shown in FIG.
3 and 4 are illustrations for explaining a tire search method according to the related art.
5 is a flowchart for explaining a tire information providing method according to another embodiment.
6A is a schematic block diagram of the portable terminal 110 shown in FIG.
6B is a diagram illustrating an example of photographing a tire image through the portable terminal 110. As shown in FIG.
7 and 8 are views showing an example of a guideline that is modified according to photographing conditions according to another embodiment.
9 is a diagram showing a configuration of one example of the portable terminal 110 according to another embodiment.
10 is a flowchart illustrating an example of a method of acquiring a tire image through a portable terminal according to another embodiment of the present invention.
11 is a schematic block diagram of the tire recognition module 104 shown in FIG.
12 and 13 are views showing an example of a method of converting a circular tire portion according to yet another embodiment into a linear image.
14A to 14G are views showing an example of a method of correcting a linear image according to another embodiment.
FIGS. 14I through 14L are diagrams illustrating an example of a method of separating a date-shaped image according to another embodiment into regions.
FIG. 14M is a diagram illustrating an example of a method of correcting divided images according to another embodiment.
FIG. 15A is a diagram illustrating an example of a method of extracting a character region from an image separated by regions according to another embodiment. FIG.
FIG. 15B is a diagram illustrating an example of a method of extracting an image area in each character unit in a character area according to another embodiment.
FIG. 16 is a diagram illustrating an example of a method of comparing each character for tire character recognition according to another embodiment.
17 is a diagram showing a flow of an example of a tire recognizing method according to another embodiment.
FIG. 18 is a view showing a flow of an example of a conversion process to a linear image according to another embodiment.
FIG. 19 is a diagram showing a flow of an example of a correction method of a linear image according to another embodiment.
FIG. 20 is a diagram showing a flow of an example of a method of extracting a character region from a linear image according to another embodiment.
21 is a diagram showing a flow of an example of a tire character recognition method according to another embodiment.
22 is a schematic block diagram of the damage recognition module 105 shown in FIG.
23 is another block diagram of the damage recognition module 105 shown in FIG.
24 to 26 are flowcharts of a tire damage recognition method according to still another embodiment.
25 is a flowchart of a tire damage recognition method according to still another embodiment.
27 and 28 are views showing an example of a method of extracting an achromatic region from a tire image.
29 is a diagram showing an example of a method of extracting a black region in the achromatic region of FIG.
30 is a view showing an example of an image composed of black regions obtained by applying the method of FIG.
31 is a diagram showing an example of a method of extracting line components in the black region of FIG.
FIG. 32 is a diagram showing an example of a method of removing a line component of a character region in the line component image of FIG. 31;
FIG. 34 is a diagram showing an example of a method of recognizing a damage by comparing the line component of FIG. 31 with a comparison image of a database.
35 is a diagram showing a configuration of an embodiment of the wear rate measurement module 106. In Fig.
FIG. 36 is a flowchart showing an example of a method of measuring the tire wear rate according to another embodiment.
37 is a flowchart illustrating an example of a method of generating a three-dimensional image from a moving image for tire wear measurement according to another embodiment.
38 is a diagram showing an example of converting the two-dimensional coordinates of the plurality of still images into the spatial coordinates of the three-dimensional space.
39 is a view showing an example of an image of a three-dimensional shape acquired from a tire tread moving picture.
FIG. 40 is a flowchart showing an example of a concrete method of measuring tire tread wear from an image of the generated three-dimensional shape.
41 is a view showing an example of dividing a three-dimensional shape image by curvature magnitudes of pixels.
42 is a view showing an example in which a three-dimensional shape image is divided into a plurality of sections based on the direction and width of the tread groove region.
43 is a view showing an example of a three-dimensional shape image.
44 is a view showing an example of a method of grasping a tread groove depth from the three-dimensional shape image of FIG. 43;
45 is a view showing an example of correcting a three-dimensional shape image to an approximate plane.

이하에서, 첨부된 도면들을 참조하여 본 실시 예에 따른 타이어 정보 제공 방법에 대해 상세히 설명한다.Hereinafter, the tire information providing method according to the present embodiment will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 타이어 정보 제공을 위한 전체 시스템의 개략적인 구조를 도시한 도면이다.1 is a diagram illustrating a schematic structure of an overall system for providing tire information according to an embodiment.

도 1을 참조하면, 전체 시스템은 휴대 단말기(110), 통신망(120) 및 타이어 정보 제공 서버(100)를 포함한다.Referring to FIG. 1, the overall system includes a portable terminal 110, a communication network 120, and a tire information providing server 100.

휴대 단말기(110)는 스마트 폰, PC, 노트 북, 웨어러블 컴퓨터 등을 포함한 사용자 단말로서, 이하에서는 휴대 단말기(110)로 지칭한다.The portable terminal 110 is a user terminal including a smart phone, a PC, a notebook, a wearable computer, and the like, and is hereinafter referred to as a portable terminal 110.

타이어 정보 제공 서버(100)는 통신망(120)을 통해 접속한 휴대 단말기(110)에 타이어 정보를 제공한다. 여기서, 타이어 정보는, 사용자의 차량에 현재 장착된 타이어와 동일한 타이어 상품 정보, 현재 장착된 타이어의 손상 정보, 현재 장착된 타이어의 마모도 정보 등을 포함할 수 있다. 또한, 타이어 상품 정보는, 제조사, 상품명, 사이즈, 제품기능, 제조일자, 오프라인 가격, 온라인 가격 등을 포함할 수 있다. The tire information providing server 100 provides tire information to the portable terminal 110 connected through the communication network 120. [ Here, the tire information may include the same tire product information as the tire currently mounted on the user's vehicle, damage information of the currently mounted tire, wear information of the currently mounted tire, and the like. The tire product information may include a manufacturer, a product name, a size, a product function, a manufacturing date, an offline price, an online price, and the like.

타이어 정보 제공 서버(100)는 휴대 단말기(110)에 타이어 정보를 제공하고, 온라인에서 타이어 구매 및 결제를 제공하며, 구매한 타이어를 사용자가 원하는 장착 매장에 배송하도록 하여, 사용자가 원하는 장착 매장에서 타이어를 교체할 수 있는 서비스를 제공한다. 타이어 정보 제공 서버(100)의 구체적인 구성은 도 2를 참조하여 후술한다.The tire information providing server 100 provides tire information to the portable terminal 110, provides tire purchasing and payment on-line, ships the purchased tire to a mounting shop desired by the user, It provides a service to replace tires. The concrete configuration of the tire information providing server 100 will be described later with reference to FIG.

도 2는 도 1에 도시된 휴대 단말기(110)와 타이어 정보 제공 서버(100)의 개략적인 블록 도이다.FIG. 2 is a schematic block diagram of the portable terminal 110 and the tire information providing server 100 shown in FIG.

타이어 정보 제공 서버(100)에 접속한 휴대 단말기(100)에는 타이어 검색을 위한 검색 메뉴로서, 차종 검색(111), 사이즈 검색(112) 및 이미지 검색(113)이 제공될 수 있다. The mobile terminal 100 connected to the tire information providing server 100 may be provided with a vehicle type search 111, a size search 112 and an image search 113 as a search menu for tire search.

차종 검색(111)은, 도 3a 내지 3d에 도시된 바와 같이, 차종 검색 방식은 사용자가 자동차 제조사, 차종, 타이어 사이즈를 순차적으로 선택하는 방식이다. 하지만, 이러한 차종검색 방식에서 사이즈를 선택할 때 동일 차종에 타이어 사이즈가 여러 종류이므로 선택이 어렵다.As shown in FIGS. 3A to 3D, the vehicle type search 111 is a method in which a user sequentially selects an automobile manufacturer, a vehicle type, and a tire size. However, when selecting a size for such a vehicle search method, it is difficult to select the size because there are many different tire sizes for the same vehicle model.

사이즈 검색(112)은 도 4a 내지 4d에 도시된 바와 같이, 단면폭, 편평비, 인치를 순차적으로 선택하는 방식이다. 사이즈 검색 방식은 타이어의 사이즈를 정확하게 알지 못하면 선택할 수 없고 차종검색 방식보다 어렵다.The size search 112 is a method of sequentially selecting a cross-sectional width, a flatness ratio, and an inch as shown in Figs. 4A to 4D. The size search method can not be selected unless the size of the tire is known precisely, which is more difficult than the method of searching for a car.

도 3 및 4에 도시된 차종검색, 사이즈검색 방식은 위와 같이 타이어 사이즈를 알아야 상품 검색이 가능한 방식이다.The vehicle type search and size search methods shown in FIGS. 3 and 4 are methods in which a product can be searched by knowing the tire size as described above.

이미지 검색(113)은 사용자가 자신의 휴대 단말기(110)로 자신의 차량에 장착된 타이어를 촬영하는 경우, 카메라 모듈의 라이브 뷰 영상을 타이어 정보 제공 서버(100)에 전송하면, 타이어 정보 제공 서버(100)에서, 전송된 타이어 이미지를 분석하여, 타이어를 인식하여 동일하거나 유사한 타이어를 검색하여, 사용자에게 타이어 정보로서, 타이어 상품 정보를 제공하는 것이다. 또한, 타이어 상품 정보뿐만 아니라, 현재 장착된 타이어의 손상 정보, 또는 타이어의 마모도 정보를 제공할 수도 있다. 여기서, 타이어 상품 정보는, 제조사, 상품명, 사이즈, 제품기능, 제조일자, 오프라인 가격, 온라인 가격, 가격 비교 정보, 공장도 가격, 교체여부 판단정보, 리뷰 정보, 선호도 정보, 또는 이벤트 정보, 또는 이들의 조합을 포함할 수 있으나, 이에 한정되지 않는다.When the user photographs a tire mounted on his / her vehicle with his / her portable terminal 110, the image search 113 transmits a live view image of the camera module to the tire information providing server 100, (100) analyzes the transmitted tire image, recognizes the tire, searches for the same or similar tire, and provides the tire product information to the user as tire information. It is also possible to provide not only the tire product information but also the damage information of the currently mounted tire or the wear degree information of the tire. Here, the tire product information includes at least one of manufacturer, product name, size, product function, manufacturing date, offline price, online price, price comparison information, factory price, replacement determination information, review information, preference information, But is not limited thereto.

이미지 검색(113)과 관련하여, 도 5를 참조하여 설명한다.With reference to the image search 113, this will be described with reference to FIG.

도 5는 다른 실시 예에 따른 타이어 정보 검색 방법을 설명하기 위한 흐름도이다. 5 is a flowchart for explaining a tire information search method according to another embodiment.

도 5를 참조하면, 단계 500에서, 사용자가 이미지 검색을 선택한다. 여기서, 사용자는 자신의 휴대 단말기(110)를 통해 타이어 정보 제공 서버(100)에서 제공하는 검색 인터페이스 중 하나인 이미지 검색을 선택하는 것을 의미한다. Referring to FIG. 5, in step 500, the user selects an image search. Here, the user selects an image search through one of the search interfaces provided by the tire information providing server 100 through the portable terminal 110.

단계 502에서, 휴대 단말기(110)에 구비된 카메라 모듈을 구동시킨다. 사용자의 이미지 검색(113) 선택에 따라 자동으로 카메라 모듈이 초기화되어, 촬영 준비를 한다. In step 502, the camera module included in the portable terminal 110 is driven. The camera module is automatically initialized according to the selection of the user's image search 113, and the camera is ready for shooting.

단계 504에서, 카메라 모듈이 구동되면, 사용자는 자신의 휴대 단말기(110)를 이용하여 차량에 장착된 타이어를 피사체로 하면, 타이어에 대한 라이브 뷰 이미지를 획득하게 된다. 여기서, 라이브 뷰 이미지로서 설명하지만, 이에 한정되지 않고, 사용자가 촬영 버튼 또는 촬영 아이콘을 클릭하여, 타이어를 촬영한 캡쳐 이미지일 수도 있다. In step 504, when the camera module is driven, the user uses his or her portable terminal 110 to take a tire mounted on the vehicle as a subject, and obtains a live view image of the tire. However, the present invention is not limited to this, and may be a captured image obtained by photographing a tire by clicking a photographing button or a photographing icon by a user.

단계 506에서, 촬영된 타이어 이미지(라이브 뷰 이미지 또는 캡쳐 이미지)를 타이어 정보 제공 서버(100)에 전송한다. 여기서, 타이어 정보 제공 서버(100)에 전송하는 것으로 설명하지만, 타이어 정보 제공을 위한 애플리케이션이 휴대 단말기(110)에 탑재된 경우, 촬영된 타이어 이미지가 애플리케이션에 제공되어, 이미지 분석 및 타이어 정보를 제공하도록 구현할 수 있음은 물론이다. In step 506, the captured tire image (live view image or captured image) is transmitted to the tire information providing server 100. However, in the case where an application for providing tire information is mounted on the portable terminal 110, a photographed tire image is provided to the application to provide image analysis and tire information Of course.

단계 508에서, 타이어 이미지를 분석 및 인식한다. 타이어 이미지 분석은, 타이어 내의 문자를 인식하여 타이어를 인식하거나, 타이어의 손상을 인식하거나, 타이어의 마모도를 측정하는 것을 포함한다. At step 508, the tire image is analyzed and recognized. The tire image analysis includes recognizing the characters in the tire to recognize the tire, recognizing the damage of the tire, or measuring the wear of the tire.

단계 510에서, 타이어 정보를 제공한다. 도 3d 및 4d에 도시된 것처럼, 사용자의 차량에 장착된 타이어와 동일한 타이어에 대한 상품 리스트를 제공하거나, 타이어 손상 정보, 타이어 마모도 정보를 제공할 수 있다. In step 510, tire information is provided. As shown in Figs. 3d and 4d, it is possible to provide a list of goods for the same tire as the tire mounted on the user's vehicle, or to provide tire damage information, tire wear information.

다시 도 2를 참조하면, 타이어 정보 제공 서버(100)는 전체 서버 동작을 제어하는 제어 모듈(101), 차종 검색 모듈(102-1), 사이즈 검색 모듈(102-2), 이미지 검색 모듈(102-3)을 포함하는 검색 인터페이스 모듈(102), 사용자 단말들과의 네트워크 접속을 제어하는 접속 인터페이스(103), 타이어를 인식하는 타이어 인식 모듈(104), 타이어의 손상 정도를 인식하는 타이어 손상 인식 모듈(105), 타이어의 마모도를 측정하는 타이어 마모도 측정 모듈(106)을 포함한다. 여기서, 검색 인터페이스(102)와 분석 모듈들(104 내지 106)은 애플리케이션으로 구현되어, 휴대 단말기(110)에 탑재되어 구현될 수 있음은 물론이다. 2, the tire information providing server 100 includes a control module 101, a vehicle type search module 102-1, a size search module 102-2, an image search module 102-2, 3), a connection interface 103 for controlling network connection with user terminals, a tire recognition module 104 for recognizing tires, a tire damage recognition A module 105, and a tire wear measurement module 106 for measuring the wear of the tire. Here, the search interface 102 and the analysis modules 104 to 106 may be implemented as an application, and may be implemented in the portable terminal 110 and implemented.

타이어 정보 제공 서버(100)는 사용자 DB(107-1)과 타이어 DB(107-2)를 포함하고, 사용자의 타이어 결제를 담당하는 결제 모듈(108)과 배송 모듈(109)을 포함할 수 있다. 여기서, 타이어 정보 제공 서버(100)가 결제 모듈(108)과 배송 모듈(109)을 포함하는 것으로 도시되어 있지만, 외부 결제/배송 시스템과 연동하여 사용자에게 결제/배송 서비스를 진행할 수 있음은 물론이다.The tire information providing server 100 may include a user DB 107-1 and a tire DB 107-2 and may include a payment module 108 and a delivery module 109 responsible for tire settlement of a user . Here, although the tire information providing server 100 includes the payment module 108 and the delivery module 109, it is needless to say that the payment / delivery service can be performed to the user in cooperation with the external payment / delivery system .

도 6a은 도 2에 도시된 휴대 단말기(110)의 개략적인 블록 도이다.6A is a schematic block diagram of the portable terminal 110 shown in FIG.

휴대 단말기(110)는, 사용자 입력부(131), 출력부(132), 제어부(130), 및 통신부(150) 이외에 센싱부(140), A/V 입력부(160), 및 메모리(170)를 포함할 수도 있다. The portable terminal 110 includes a sensing unit 140, an A / V input unit 160, and a memory 170 in addition to the user input unit 131, the output unit 132, the control unit 130, and the communication unit 150 .

사용자 입력부(131)는, 사용자가 타이어 검색을 위한 선택을 입력하는 수단을 의미할 수 있다. 예를 들어, 사용자 입력부(131)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 131 may mean a means for the user to input a selection for tire search. For example, the user input unit 131 may be a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type resistive type, an infrared detection type, a surface ultrasonic wave conduction type, A tension measuring method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

출력부(1320)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(132)는 디스플레이부(133), 음향 출력부(134), 및 진동 모터(135)를 포함할 수 있다.The output unit 1320 may output an audio signal or a video signal or a vibration signal and the output unit 132 may include a display unit 133, an acoustic output unit 134, and a vibration motor 135 have.

디스플레이부(133)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. The display unit 133 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display A 3D display, and an electrophoretic display.

음향 출력부(134)는 통신부(150)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 이러한 음향 출력부(134)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 134 can output audio data received from the communication unit 150 or stored in the memory 170. [ The sound output unit 134 may include a speaker, a buzzer, and the like.

진동 모터(135)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(135)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(135)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 135 can output a vibration signal. For example, the vibration motor 135 may output a vibration signal corresponding to an output of audio data or video data (e.g., a call signal reception tone, a message reception tone, etc.). In addition, the vibration motor 135 may output a vibration signal when a touch is input to the touch screen.

제어부(130)는, 통상적으로 휴대 단말기(110)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(130)는, 메모리(170)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(131), 출력부(132), 센싱부(140), 통신부(150), A/V 입력부(160) 등을 전반적으로 제어할 수 있다. 또한, 제어부(130)는 휴대 단말기(110)의 타이어 검색 동작을 수행하기 위하여, 휴대 단말기(110) 내의 구성 요소들을 제어할 수 있다.The control unit 130 can generally control the overall operation of the portable terminal 110. For example, the control unit 130 may include a user input unit 131, an output unit 132, a sensing unit 140, a communication unit 150, an A / V input unit 160 ) Can be generally controlled. Also, the controller 130 may control the components in the mobile terminal 110 to perform the tire search operation of the mobile terminal 110.

구체적으로, 제어부(130)는 타이어 검색을 위해, 사용자가 이미지 검색을 선택한 경우, 카메라 모듈(161)을 구동시켜, 타이어를 촬영하는 동작을 수행한다. 또한, 촬영된 타이어 이미지를 타이어 정보 제공 서버(100)에 전송하거나, 애플리케이션으로 구현되는 경우, 제어부(130) 내의 타이어 분석 모듈에 제공하여 타이어 이미지를 분석할 수 있다.Specifically, when the user selects the image search, the control unit 130 drives the camera module 161 to photograph the tires. The captured tire image may be transmitted to the tire information providing server 100 or may be provided to the tire analysis module in the control unit 130 to analyze the tire image when the image is implemented as an application.

센싱부(140)는, 휴대 단말기(110)의 상태 또는 주변의 상태를 감지하고, 감지된 정보를 제어부(130)로 전달할 수 있다. The sensing unit 140 may sense the state of the portable terminal 110 or the surrounding state, and may transmit the sensed information to the controller 130. [

센싱부(140)는, 지자기 센서(Magnetic sensor)(141), 가속도 센서(Acceleration sensor)(142), 온/습도 센서(143), 적외선 센서(144), 자이로스코프 센서(145), 위치 센서(예컨대, GPS)(146), 기압 센서(147), 근접 센서(148), 및 RGB 센서(illuminance sensor)(149) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The sensing unit 140 includes a magnetism sensor 141, an acceleration sensor 142, a temperature / humidity sensor 143, an infrared sensor 144, a gyroscope sensor 145, (GPS) 146, an air pressure sensor 147, a proximity sensor 148, and an RGB sensor (illuminance sensor) 149. However, the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

통신부(150)는, 휴대 단말기(110)와 타이어 정보 제공 서버(100) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(150)는, 근거리 통신부(151), 이동 통신부(152), 방송 수신부(153)를 포함할 수 있다. The communication unit 150 may include one or more components for communicating between the portable terminal 110 and the tire information providing server 100. For example, the communication unit 150 may include a short-range communication unit 151, a mobile communication unit 152, and a broadcast reception unit 153.

근거리 통신부(short-range wireless communication unit)(151)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 151 includes a Bluetooth communication unit, a BLE (Bluetooth Low Energy) communication unit, a Near Field Communication unit, a WLAN communication unit, a Zigbee communication unit, IrDA, an infrared data association) communication unit, a WFD (Wi-Fi Direct) communication unit, an UWB (ultra wideband) communication unit, an Ant + communication unit, and the like.

이동 통신부(152)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 152 can transmit and receive a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data depending on a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

방송 수신부(153)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신할 수 있다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 휴대 단말기(110)가 방송 수신부(153)를 포함하지 않을 수도 있다.The broadcast receiving unit 153 can receive broadcast signals and / or broadcast-related information from outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. The portable terminal 110 may not include the broadcast receiving unit 153 according to the embodiment.

또한, 통신부(150)는, 타이어 이미지를 타이어 정보 제공 서버(100)에 전송하고, 타이어 정보 제공 서버(100)로부터 타이어 정보를 수신할 수 있다. The communication unit 150 may transmit the tire image to the tire information providing server 100 and receive the tire information from the tire information providing server 100. [

A/V(Audio/Video) 입력부(160)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(161)와 마이크로폰(162) 등이 포함될 수 있다. 카메라(161)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(130) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A / V (Audio / Video) input unit 160 is for inputting an audio signal or a video signal, and may include a camera 161 and a microphone 162. The camera 161 can obtain an image frame such as a still image or a moving image through the image sensor in a video communication mode or a photographing mode. The image captured through the image sensor can be processed through the control unit 130 or a separate image processing unit (not shown).

카메라(161)에서 처리된 화상 프레임은 메모리(170)에 저장되거나 통신부(150)를 통하여 외부로 전송될 수 있다. 카메라(161)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 161 can be stored in the memory 170 or transmitted to the outside through the communication unit 150. [ The camera 161 may be equipped with two or more cameras according to the configuration of the terminal.

마이크로폰(162)은, 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. 예를 들어, 마이크로폰(162)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(162)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 162 can receive an external sound signal and process it as electrical sound data. For example, the microphone 162 may receive acoustic signals from an external device or speaker. The microphone 162 may use various noise reduction algorithms to remove noise generated in receiving an external sound signal.

메모리(170)는, 제어부(130)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 휴대 단말기(110)로 입력되거나 휴대 단말기(110)로부터 출력되는 데이터를 저장할 수도 있다. The memory 170 may store a program for processing and controlling the control unit 130 and may store data input to or output from the portable terminal 110. [

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 170 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) , An optical disc, and the like.

메모리(170)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(171), 터치 스크린 모듈(172), 알림 모듈(173) 등으로 분류될 수 있다. The programs stored in the memory 170 may be classified into a plurality of modules according to their functions, for example, a UI module 171, a touch screen module 172, a notification module 173, .

UI 모듈(171)은, 애플리케이션 별로 휴대 단말기(110)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(172)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(130)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(172)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(172)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 171 can provide a specialized UI, a GUI, and the like, which are interlocked with the portable terminal 110 for each application. The touch screen module 172 senses a touch gesture on the user's touch screen and can transmit information on the touch gesture to the control unit 130. [ The touch screen module 172 according to some embodiments may recognize and analyze the touch code. The touch screen module 172 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided in or near the touch screen to sense the touch or near touch of the touch screen. An example of a sensor for sensing the touch of the touch screen is a tactile sensor. A tactile sensor is a sensor that detects the contact of a specific object with a degree or more that a person feels. The tactile sensor can detect various information such as the roughness of the contact surface, the rigidity of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, a proximity sensor is an example of a sensor for sensing the touch of the touch screen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of proximity sensors include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. The user's touch gestures can include tap, touch & hold, double tap, drag, panning, flick, drag and drop, swipe, and the like.

알림 모듈(173)은 휴대 단말기(110)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 휴대 단말기(110)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1731)은 디스플레이부(133)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(134)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(135)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.The notification module 173 may generate a signal for notifying the occurrence of an event of the portable terminal 110. Examples of events generated in the portable terminal 110 include call signal reception, message reception, key signal input, schedule notification, and the like. The notification module 1731 may output a notification signal in the form of a video signal through the display unit 133 or may output a notification signal in the form of an audio signal through the sound output unit 134, It is possible to output a notification signal in the form of a vibration signal.

도 6b는 휴대 단말기(110)를 통해 타이어 이미지를 촬영하는 일 예를 도시한 도면이다. 6B is a diagram illustrating an example of photographing a tire image through the portable terminal 110. As shown in FIG.

도 6b를 참조하면, 휴대 단말기(110)의 화면에는 카메라가 촬영할 영상이 표시되며, 또한 타이어 이미지의 촬영을 보조하기 위한 적어도 하나 이상의 가이드라인(600,610)이 표시된다. Referring to FIG. 6B, on the screen of the portable terminal 110, an image to be photographed by the camera is displayed, and at least one or more guide lines 600 and 610 for assisting the photographing of the tire image are displayed.

예를 들어, 가이드라인(600,610)은 타이어 전체 크기에 대응되는 제1 가이드라인(600)과 타이어의 휠 부분에 대응되는 제2 가이드라인(610)을 포함할 수 있다. 제1 및 제2 가이드라인(600,610)은 직경이 서로 다른 두 개의 원 또는 타원 형태이며, 제2 가이드라인(610)은 제1 가이드라인(600) 내부에 위치할 수 있다. For example, the guidelines 600 and 610 may include a first guide line 600 corresponding to the entire tire size and a second guide line 610 corresponding to the wheel portion of the tire. The first and second guide lines 600 and 610 may have two circular or elliptical shapes with different diameters and the second guide line 610 may be positioned within the first guide line 600.

다른 예로, 가이드라인(600,610)은 삼각형, 사각형, 오각형 등 다각형 형태이거나, 원형 또는 다각형의 일부 선만 나타나는 형태 등 다양하게 변형 가능하다. 또한, 가이드라인(600,610)의 개수는 한 개 또는 세 개 이상일 수 있다. As another example, the guidelines 600 and 610 may be variously modified such as a polygonal shape such as a triangle, a rectangle, a pentagon, or a shape in which only a part of a circle or a polygon appears. Further, the number of guide lines 600 and 610 may be one or three or more.

사용자는 휴대 단말기(110) 화면에 표시된 가이드라인(600,610)에 맞춰 타이어 이미지를 촬영할 수 있다. 이때 휴대 단말기(610)와 피사체 사이의 거리 또는 타이어 이미지 촬영 각도에 따라 가이드라인(600,610)의 모양은 변경될 수 있으며, 이는 도 7 및 8에서 살펴본다.The user can take a tire image in accordance with the guidelines 600 and 610 displayed on the screen of the portable terminal 110. At this time, the shapes of the guide lines 600 and 610 may be changed according to the distance between the portable terminal 610 and the subject or the tire image photographing angle, which will be described with reference to FIGS.

도 7을 참조하면, 카메라의 촬영 각도, 즉 휴대 단말기(110)의 기울어진 정도에 따라 단말기(110) 화면에 표시되는 가이드라인의 곡률이 변경된다. 예를 들어, 사용자가 타이어의 높이에 맞춰 정면에서 타이어 이미지를 찍는 경우에 단말기(110)의 기울기는 거의 0이며, 이 경우 가이드라인(700,710)의 모양은 원이 된다. Referring to FIG. 7, the curvature of the guideline displayed on the screen of the terminal 110 is changed according to the photographing angle of the camera, that is, the tilting degree of the portable terminal 110. For example, when the user takes a tire image in front of the tire according to the height of the tire, the slope of the terminal 110 is substantially zero, and the shape of the guide lines 700 and 710 is a circle in this case.

반면, 카메라가 높은 곳에서 아래 방향으로 타이어 이미지를 찍는 경우와 같이 단말기(110)가 앞쪽으로 기울어진 경우에, 카메라로 촬영되는 타이어 이미지는 타원형태가 되므로, 가이드라인(720,730) 또한 이에 맞도록 타원 형태로 변경된다. On the other hand, when the terminal 110 is tilted forward, such as when a camera takes a tire image in a downward direction, the image of the tire taken by the camera becomes an elliptical shape, so that the guide lines 720 and 730 also fit It is changed into an elliptic shape.

도 8을 참조하면, 휴대 단말기(110)와 타이어 사이의 거리, 즉 피사체와의 거리가 가까우면 촬영되는 피사체의 크기가 커지므로 이에 따라 가이드라인(800,810)의 크기 또한 커지고, 단말기와 타이어 사이의 거리가 멀어지면 가이드라인(820,830)의 크기는 작아진다. Referring to FIG. 8, when the distance between the portable terminal 110 and the tire, that is, the distance from the subject, is small, the sizes of the guide lines 800 and 810 are increased, As the distance increases, the size of the guide lines 820 and 830 becomes smaller.

이와 같이, 단말기의 촬영 각도나 피사체와의 거리 등에 따라 가이드라인의 곡률이나 크기, 위치 등은 적응적으로 변형되어 단말기 화면에 표시한다. 다시 말해, 단말기에서 타이어 이미지를 찍는 방향이나 거리, 조명 등 촬영 조건에 따라 촬영되는 타이어 이미지의 모양 등이 달라지므로, 휴대 단말기(110)는 촬영 조건에 따라 달라지는 모양에 따라 가이드라인의 모양을 제어한다. As described above, the curvature, size, and position of the guide line are adaptively modified according to the photographing angle of the terminal and the distance to the subject, and displayed on the terminal screen. In other words, the shape and the like of the tire image photographed according to the photographing conditions such as the direction of taking a tire image in the terminal, the distance, the illumination, and the like are different. Therefore, the mobile terminal 110 controls the shape of the guide line according to the shape do.

본 실시 예는 단말기의 각도와 피사체와의 거리에 따른 가이드라인의 변형에 대해 기술하고 있으나, 반드시 이에 한정되는 것은 아니며 다른 다양한 촬영 조건에 따른 가이드라인의 변형 방법을 적용할 수 있다. Although the present embodiment describes the deformation of the guiding line according to the distance between the angle of the terminal and the subject, the guiding line deformation method according to various other imaging conditions can be applied.

도 9는 휴대 단말기(110)의 프로세서의 일 예의 구성을 도시한 도면이다.9 is a diagram showing a configuration example of a processor of the portable terminal 110. As shown in Fig.

도 9를 참조하면, 휴대 단말기(110)는 가이드라인표시부(900), 영상획득부(910) 및 전송부(920)를 포함한다. 9, the portable terminal 110 includes a guide line display unit 900, an image acquisition unit 910, and a transmission unit 920. [

가이드라인표시부(900)는 타이어 이미지 촬영을 위한 가이드라인을 화면상에 표시한다. 가이드라인은 단말기의 기울기나 피사체인 타이어와의 거리에 따라 크기나 곡률이 변형되는 원 또는 타원 형태일 수 있으나 반드시 이에 한정되는 것은 아니다. 영상획득부(910)는 카메라를 통해 타이어 이미지를 획득한다. 예를 들어, 사용자는 도 6b와 같이 단말기 화면에 두 타원으로 표시되는 가이드라인(600,610)을 촬영대상 타이어의 휠 부분과 타이어 외곽에 맞춘 후 촬영한다. 전송부(920)는 영상획득부(910)에 의해 촬영된 타이어 부분을 포함한 이미지를 직접 또는 제3의 장치를 통해 타이어 정보 제공 서버(100)로 전송한다. 타이어 정보 제공 서버(100)가 일종의 애플리케이션으로 만들어져 단말기 내에 구현된 경우라면 전송부(920)는 생략될 수 있다. The guide line display unit 900 displays a guide line for photographing a tire image on the screen. The guideline may be a circular or elliptical shape in which the size or the curvature is deformed according to the inclination of the terminal or the distance to the subject tire, but is not limited thereto. The image acquiring unit 910 acquires the tire image through the camera. For example, as shown in FIG. 6B, the user aligns the guide lines 600 and 610 indicated by two ellipses on the terminal screen with the wheel portion of the target tire and the outside of the tire. The transmitting unit 920 transmits the image including the tire portion taken by the image obtaining unit 910 directly or through the third device to the tire information providing server 100. The transmitter 920 may be omitted if the tire information providing server 100 is constructed as a kind of application and implemented in the terminal.

가이드라인이 단말기 상태에 따라 그 모양이 적응적으로 변경되는 것이 아니라 단말기 화면 내 고정되어 있고, 타이어 정보 제공 서버(100)가 단말기 내 고정된 가이드라인의 위치, 크기 등의 정보를 미리 알고 있다면, 전송부(920)는 가이드라인의 크기나, 곡률, 위치 등에 대한 정보를 타이어 정보 제공 서버(100)로 전송하지 아니하여도 된다. 그러나 가이드라인이 단말기 상태에 따라 변경되거나 타이어 정보 제공 서버(100)에 가이드라인에 대한 사전 정보가 없는 경우라면, 전송부(920)는 가이드라인의 화면 내 위치, 크기, 모양 등의 정보를 촬영된 이미지와 함께 타이어 정보 제공 서버(100)로 전송할 수 있다. If the guideline is fixed in the terminal screen instead of adaptively changing its shape according to the terminal status and the tire information providing server 100 knows information such as the position and size of the fixed guideline in the terminal in advance, The transmitting unit 920 may not transmit information on the size, curvature, position, etc. of the guideline to the tire information providing server 100. [ However, if the guide line is changed according to the terminal status, or if the tire information providing server 100 does not have the advance information on the guide line, the transmitter 920 transmits information such as position, size, To the tire information providing server 100 together with the image.

도 10은 또 다른 실시 예에 따른 휴대 단말기를 통한 타이어 이미지 획득 방법의 일 예를 도시한 흐름도이다.10 is a flowchart illustrating an example of a method of acquiring a tire image through a portable terminal according to another embodiment of the present invention.

도 10을 참조하면, 단계 1000에서, 단말기는 촬영 각도, 피사체와의 거리 등을 파악한다. 촬영 각도는 단말기에 내장된 자이로센서 등과 같은 기울기를 검출할 수 있는 다양한 센서를 통해 단말기 기울기를 파악함으로써 알 수 있다. 피사체와의 거리는 자동초점 알고리즘이나 다양한 거리 측정 센서 등을 통해서 파악할 수 있다. Referring to FIG. 10, in step 1000, the terminal recognizes an angle of view, a distance to a subject, and the like. The photographing angle can be obtained by grasping the inclination of the terminal through various sensors capable of detecting a tilt such as a gyro sensor built in the terminal. The distance to the subject can be determined through an auto focus algorithm or various distance measuring sensors.

단계 1002에서, 휴대 단말기(110)는 촬영각도나 피사체와의 거리 등에 따라 화면에 표시되는 가이드라인의 크기나 곡률, 위치 등을 제어하여 표시한다. 실시 예에 따라 가이드라인은 단말기의 상태에 따라 변경되지 아니하고 고정되어 있을 수 있다. In step 1002, the portable terminal 110 controls the size, the curvature, and the position of the guide line displayed on the screen according to the photographing angle, the distance to the subject, and the like. According to an embodiment, the guideline may be fixed and not changed according to the state of the terminal.

단계 1004에서, 단말기는 카메라를 통해 타이어 부분을 포함하는 이미지를 촬영한다. 촬영시 사용자는 화면에 표시되는 가이드라인을 타이어 부분에 대응시켜 촬영함으로써 추후 타이어 정보 제공 서버(100)에서 타이어 부분을 보다 용이하게 식별하고 분석할 수 있도록 한다.In step 1004, the terminal captures an image including the tire portion via the camera. In shooting, the user photographs the guide line displayed on the screen in correspondence with the tire portion, so that the tire information providing server 100 can more easily identify and analyze the tire portion.

단계 1006에서, 단말기는 촬영된 이미지를 직접 또는 제3의 장치를 경유하여 타이어 정보 제공 서버(100)로 전송한다. 가이드라인의 모양이나, 크기 또는 곡률 등이 단말기 상태에 따라 적응적으로 변형되는 경우라면, 단말기는 가이드라인의 크기나 위치 등의 정보를 타이어 이미지와 함께 타이어 정보 제공 서버(100)로 전송할 수 있다.In step 1006, the terminal transmits the photographed image to the tire information providing server 100 directly or via the third device. If the shape, size, or curvature of the guide line is adaptively changed according to the terminal state, the terminal can transmit information such as the size and position of the guide line to the tire information providing server 100 together with the tire image .

도 11은 도 2에 도시된 타이어 인식 모듈(104)의 개략적인 블록 도이다. 11 is a schematic block diagram of the tire recognition module 104 shown in FIG.

도 11을 참조하면, 타이어 인식 모듈(104)는 이미지변환부(1110), 보정부(1120), 영역분할부(1130), 글자영역추출부(1140), 글자인식부(1150) 및 학습데이터베이스(1160)를 포함한다. 실시 예에 따른 타이어 인식 모듈(104)은 일반적인 종이 문서와 달리 흑백의 구분이 명확하지 아니한 타이어 측면 글자를 인식할 수 있도록 한다. 따라서, 사용자는 스마트폰 등을 이용하여 타이어 측면 이미지를 촬영함으로써 타이어에 대한 정보를 용이하게 획득할 수 있다. 또한 타이어 이미지 촬영시 가이드라인을 제공하여 타이어 인식 과정을 보다 용이하게 할 수 있다. 11, the tire recognition module 104 includes an image conversion unit 1110, a correction unit 1120, an area division unit 1130, a character region extraction unit 1140, a character recognition unit 1150, (1160). The tire recognition module 104 according to the embodiment allows tire side characters that are not clearly distinguished in black and white, unlike a general paper document. Therefore, the user can easily acquire information about the tire by photographing the tire lateral image using a smart phone or the like. In addition, it is possible to provide a guideline for shooting a tire image, thereby facilitating the tire recognition process.

이미지변환부(1110)는 이미지 내 원형의 타이어 부분을 일자형태의 이미지로 변환한다. 보다 구체적으로, 이미지변환부(1110)는 이미지 내 휠 부분과 나머지 타이어 부분 사이의 경계가 뚜렷한 점을 이용하여 타이어 휠 부분 경계를 추정하고, 추정한 휠 부분 경계를 이용하여 휠 부분을 제외한 타이어 부분을 추출하고, 추출한 타이어 부분을 일자형태의 이미지로 변환할 수 있다. 이미지변환부(1110)는 보다 명료한 이미지를 얻기 위하여 일자형태 이미지에 대해 히스토그램 평활화(histrogram equalization) 등을 포함한 다양한 이미지 처리 과정을 수행할 수 있다. The image converting unit 1110 converts the tire portion of the circle in the image into a date-shaped image. More specifically, the image transformation unit 1110 estimates the tire wheel part boundary using a point having a clear boundary between the wheel part in the image and the remaining tire part, and estimates the tire wheel part boundary using the estimated wheel part boundary, And convert the extracted tire portion into an image in the form of a date. The image converting unit 1110 may perform various image processing processes including histogram equalization and the like for a linear image in order to obtain a clearer image.

본 실시 예는 타이어에서 휠 부분을 제거한 타이어 부분을 일자형태의 이미지로 변환하는 경우를 예시하고 있으나, 본 발명은 반드시 이에 한정되는 것은 아니며 휠 부분의 제거 없이 타이어 전체를 일자형태의 이미지로 변환하거나 휠 부분의 일부가 포함된 타이어 부분을 일자형태의 이미지로 변환할 수 있다. The present embodiment illustrates the case of converting a tire portion from which a wheel is removed from a tire into a straight image, but the present invention is not limited thereto. The present invention is not limited to this, It is possible to convert a tire portion including a part of the wheel portion into an image of a straight shape.

다만 이하에서는 타이어 휠 부분을 제거한 타이어 부분에 대해 일자형태 이미지로 변환하는 경우를 위주로 설명한다. In the following description, however, the case of converting the tire portion removed from the tire wheel portion into a straight image is mainly described.

일 예로, 이미지변환부(1110)는 도 12와 같이 두 개의 원형 가이드라인(600,610) 사이에 위치한 타이어 부분(630)을 추출하여 일자형태의 이미지로 변환할 수 있다. 일자형태의 이미지 변환은 도 13에 도시된 방법을 적용할 수 있다. 그러나 본 실시 예들은 도 13에 도시된 방법에 한정되는 것은 아니며, 종래의 다양한 이미지 처리 방법을 이용하여 원형의 이미지를 일자형태로 펼 수 있다. For example, the image converting unit 1110 may extract the tire portion 630 located between the two circular guide lines 600 and 610 as shown in FIG. 12, and convert the tire portion 630 into a straight image. The image conversion in the form of a date can be applied to the method shown in Fig. However, the present embodiments are not limited to the method shown in FIG. 13, and circular images can be laid out in a date form by using various conventional image processing methods.

가이드라인(600,610)을 이용하여 타이어 부분을 추출하는 경우에, 도 14g의 위쪽 그림(1460)과 같이 휠 부분의 일정 부분이 함께 추출될 뿐만 아니라 타이어 부분이 일자형태로 바르게 펴지지 아니하므로, 휠 부분을 정확하게 제거하고 타이어 부분을 바르게 편 도 14g의 아래 그림(1461)을 얻을 수 있는 보정과정을 수행할 수 있다. 이러한 보정과정은 아래 보정부(1120)에 의해 수행되며, 보정부(1120)는 실시 예에 따라 생략될 수도 있다.In the case of extracting the tire portion using the guidelines 600 and 610, not only a certain portion of the wheel portion is extracted together with the upper portion of the wheel portion as shown in the upper diagram 1460 of FIG. 14G but the tire portion is not straightened properly, And correcting the tire portion to obtain the lower figure 1461 of the piece 14g. This correction process is performed by the correction unit 1120, and the correction unit 1120 may be omitted according to the embodiment.

보정부(1120)는 이미지변환부(1110)에서 일자형태의 이미지를 얻기 위하여 이용한 휠 부분 경계를 보정한 후 보정된 경계를 기초로 이미지 내 타이어 부분을 다시 추출하여 일자형태의 이미지를 생성한다. The correcting unit 1120 corrects the wheel part boundaries used for obtaining the image in the form of a date in the image converting unit 1110, and re-extracts the tire part in the image based on the corrected boundary to generate a straight image.

예를 들어, 보정부(1120)는 이미지변환부(1110)에 의해 생성된 일자형태 이미지의 인텐서티(intensity)를 기초로 타이어 휠 부분 경계를 파악한다. 일자형태 이미지에서 휠 영역과 나머지 타이어 영역의 경계는 대체로 가로 방향의 직선상에 위치한다. 따라서, 보정부(1120)는 일자형태 이미지에서 인텐서티를 기초로 구분되는 복수의 영역에 대한 경계선을 구하고, 경계선들로 구성되는 미로 형태의 경로 이미지의 양단을 연결하는 최단 경로를 경계선들의 방향에 따른 가중치를 고려하여 산출한다. 산출된 최단 경로는 타이어 휠 부분 경계에 해당한다. 여기서 최단 경로는 단순히 거리가 가장 짧은 경로가 아니라 가중치를 고려한 최단 경로를 의미한다. 예를 들어, 제1 경로의 길이가 10이고 가중치가 0.8, 제2 경로의 길이가 11이고 가중치가 0.5이면, 제1 경로의 가중치 고려한 길이는 10*0.8=8이고, 제2 경로의 가중치 고려한 길이는 11*0.5=5.5로서, 제2 경로가 최단 경로로 선택된다. 이에 대한 상세한 설명은 도 14a 내지 14g에서 살펴본다.For example, the corrector 1120 grasps the tire wheel part boundaries based on intensities of the date-shaped images generated by the image transform unit 1110. The boundary between the wheel area and the remaining tire area in the straight image is generally on a straight line in the horizontal direction. Accordingly, the correcting unit 1120 obtains boundary lines for a plurality of regions classified on the basis of intensities in a linear image, calculates a shortest path connecting both ends of a path-shaped path image composed of boundary lines, By taking into consideration the weight according to the weight. The calculated shortest path corresponds to the tire wheel part boundary. Here, the shortest path is not the shortest path but the shortest path considering the weight. For example, if the length of the first path is 10, the weight is 0.8, the length of the second path is 11, and the weight is 0.5, the weighted length of the first path is 10 * 0.8 = 8, The length is 11 * 0.5 = 5.5, and the second path is selected as the shortest path. A detailed description thereof will be given in Figs. 14A to 14G.

영역분할부(1130)는 일자형태의 이미지를 재질이나 패턴, 에지 등을 이용하여 적어도 하나 이상의 영역으로 분할한다. 예를 들어, 타이어 측면은 트레드 영역과 큰 글자가 존재하는 영역, 작은 글자가 존재하는 영역의 재질이나 패턴 등의 상태가 서로 상이하므로 이들 상이한 재질의 경계를 추출하여 각 영역을 구분한다. 이미지 내 각 영역을 구분하는 다양한 방법이 존재할 수 있으며, 그 일 예에 대해서는 도 14h 내지 14m을 참조하여 설명한다. 본 실시 예는 글자영역의 추출을 보다 용이하게 할 수 있도록 일자형태 이미지를 글자열을 포함하는 수 개의 영역을 나누는 영역분할부(1130)의 구성을 도시하고 있으나, 영역분할부(1130)의 구성은 생략될 수도 있다. The area dividing unit 1130 divides the image in the form of a line into at least one area using a material, a pattern, and an edge. For example, the tire side is divided into tread regions, regions where large characters exist, regions where small characters exist, materials and patterns are different from each other, so that boundaries of these different materials are extracted to separate the regions. Various methods of distinguishing each region in an image may exist, and an example thereof will be described with reference to Figs. 14H to 14M. Although the present embodiment shows a configuration of an area dividing section 1130 that divides a number of areas including a character string into a linear image so as to facilitate extraction of a character area, May be omitted.

글자영역추출부(1140)는 영역분할부(1130)에 의해 분할된 각 영역에 글자가 존재하는 인식대상 글자영역을 추출한다. 다른 예로 영역분할부(1130)가 생략되는 경우 글자영역추출부(1140)는 일자형태 이미지 전체에서 글자가 존재하는 인식대상 글자영역을 추출한다. 여기서 글자는 타이어 정보를 표시하는 알파벳, 한글, 숫자, 기호, 이미지 등을 의미한다.The character region extracting unit 1140 extracts a recognition target character region in which characters exist in the respective regions divided by the region dividing unit 1130. [ As another example, when the region dividing unit 1130 is omitted, the character region extracting unit 1140 extracts a recognition target character region in which characters exist in the entire date image. Here, the letters indicate alphabets, Hangul characters, numbers, symbols, images, and the like that display tire information.

글자가 존재하는 영역은 에지가 다른 배경 영역에 비해 상대적으로 많다는 점을 이용하여, 글자영역추출부(1140)는 인텐서티 분석, 히스토그램 분석, 에지 분석 등 다양한 이미지 분석 방법을 이용하여 글자가 위치하는 인식대상 글자영역을 추출한다. 여기서 인식대상 글자영역은 글자 그 자체가 아니라 글자가 포함된 일정 영역이다. 예를 들어, 글자영역추출부(1140)는 도 15와 같이 복수의 글자로 구성된 영역을 1차 추출하고, 1차 추출된 영역 내 각 글자 영역을 인식대상 글자영역으로 추출할 수 있다. The character region extracting unit 1140 extracts a character using a variety of image analysis methods such as intensities analysis, histogram analysis, edge analysis, and the like, And extracts the recognition target character area. Here, the recognition target character area is not a character itself but a certain area including characters. For example, the character region extracting unit 1140 may first extract an area composed of a plurality of characters as shown in Fig. 15, and extract each character region in the first extracted region as a character region to be recognized.

글자인식부(1150)는 글자영역추출부(1140)에 의해 추출된 각 인식대상 글자영역에 존재하는 글자가 무엇인지를 파악한다. 타이어 이미지 내 글자와 그 주변 배경 색은 흑백이 뚜렷이 구분되지 아니하므로 일반적인 영상인식 방법으로 글자를 인식하기 어렵다. 따라서 글자인식부(750)는 학습 글자 군에 대한 특징 정보를 포함하고 있는 학습 데이터베이스(1160)를 미리 구축한 후, 글자영역추출부(1140)에서 추출한 각 글자와 가장 유사한 글자를 학습 데이터베이스(1160)와 비교하여 인식대상 글자영역의 글자를 파악한다. The character recognition unit 1150 determines what characters exist in each recognition target character area extracted by the character area extraction unit 1140. [ Since the characters in the tire image and the surrounding background color are not distinguished from each other in black and white, it is difficult to recognize a character by a general image recognition method. Therefore, the character recognition unit 750 constructs a learning database 1160 including characteristic information about the learning character group in advance, and then outputs the character most similar to each character extracted by the character area extraction unit 1140 to the learning database 1160 , The character of the recognition target character area is grasped.

사용자는 타이어 촬영 이미지에서 각 글자를 포함한 학습 영역을 분리하고, 각 학습 영역에 적어도 하나 이상의 필터를 적용하여 얻은 적어도 하나 이상의 특징정보를 해당 학습 영역의 글자 정보와 함께 저장하는 학습 데이터베이스(1160)를 구축한다. 예를 들어, 사용자는 타이어 측면 이미지에서 "M" 이라는 학습 글자를 포함하는 일정 크기의 이미지 영역을 추출한 후 해당 영역에 필터를 적용하여 얻은 하나 이상의 특징 정보를 학습 데이터베이스(1160)에 저장한다. 따라서 글자인식부(1150)는 글자영역추출부(1140)에서 추출한 인식대상 글자영역의 특징 정보가 학습 데이터베이스(1160)에 기 구축된 "M"에 대한 특징 정보와 가장 유사하면, 추출한 인식대상 글자영역에 존재하는 글자가 'M'이라고 파악한다. 필터를 이용한 특징 정보를 비교하여 글자를 인식하는 방법의 일 예는 도 16에 도시되어 있다.The user may include a learning database 1160 for storing at least one or more pieces of feature information obtained by separating a learning region including each character in a tire photographing image and applying at least one filter to each learning region together with character information of the learning region Build. For example, the user extracts an image area of a predetermined size including the learning character "M" in the tire side image, and then stores one or more pieces of feature information obtained by applying the filter to the area in the learning database 1160. Therefore, if the feature information of the recognition target character area extracted by the character area extraction unit 1140 is most similar to the feature information of "M" preliminarily stored in the learning database 1160, the character recognition unit 1150 extracts And recognizes that the character existing in the area is 'M'. An example of a method of recognizing characters by comparing feature information using a filter is shown in Fig.

도 12 및 13은 또 다른 실시 예에 따른 원형의 타이어 부분을 일자형태 이미지로 변환하는 방법의 일 예를 도시한 도면들이다.12 and 13 are views showing an example of a method of converting a circular tire portion according to yet another embodiment into a linear image.

도 12 및 13을 참조하면, 타이어 인식 모듈(104)은 이미지 촬영시 제공된 제1 및 제2 가이드라인(600,610) 사이에 위치한 원형의 이미지(630)를 일자형태의 타이어 이미지(1200)로 변환한다. 이때 타이어 인식 모듈(104)은 휠 영역에 대응되는 제2 가이드라인(610)의 원주를 따라 직각방향으로 배치된 소정 개수(예를 들어, N개)의 직선에 대응되는 직선 이미지(1320,1320-m)를 한 방향으로 재배치하여 일자형태의 타이어 이미지(1200)를 생성한다.12 and 13, the tire recognition module 104 converts a circular image 630 located between the first and second guide lines 600 and 610 provided at the time of image shooting into a tire image 1200 in the form of a straight line . At this time, the tire recognition module 104 generates linear images 1320 and 1320 corresponding to a predetermined number (for example, N) of straight lines arranged in a direction perpendicular to the circumference of the second guide line 610 corresponding to the wheel region -m) are rearranged in one direction to generate a straight-line tire image 1200.

예를 들어, 원형의 제2 가이드라인(610)의 0도에서 360도까지 원주에 직각 인 N개의 직선을 설정하고, N개의 직선에 대응되는 타이어 추출 이미지(630) 내 화소들로 이루어진 직선 이미지(1320,1320-m)를 순차적으로 동일방향으로 배치한다. 즉 0도의 첫 번째 직선 이미지(1320)와 A도의 m번째 직선 이미지(1320-m)를 도 13과 같이 동일 선상에 동일 방향으로 배치한다. For example, N straight lines that are perpendicular to the circumference are set from 0 degrees to 360 degrees of the circular second guide line 610, and a straight line image consisting of pixels in the tire extracting image 630 corresponding to N straight lines (1320 and 1320-m) are sequentially arranged in the same direction. The first straight line image 1320 of 0 degree and the mth straight line image 1320-m of the A degree are arranged in the same direction on the same line as in Fig.

도 14a 내지 14g는 또 다른 실시 예에 따른 일자형태 이미지를 보정 하는 방법의 일 예를 도시한 도면이다.14A to 14G are views showing an example of a method of correcting a linear image according to another embodiment.

도 14a를 참조하면, 타이어 인식 모듈(104)은 일자형태 이미지에 방향에 따른 가중치를 부여할 수 있는 방향 필터를 적용한다. 도 12와 같은 일자형태 이미지(1200)에서 휠 영역의 경계는 가로방향, 즉 0도 방향에 가까우므로 타이어 인식 모듈(104)은 가로방향에 대해 보다 높은 가중치를 부여하기 위하여 0도 방향의 방향필터를 일자형태 이미지에 적용하며, 가중치의 크기를 색깔로 나타내면 도 14a와 같은 이미지(1400)로 표시된다. Referring to FIG. 14A, the tire recognition module 104 applies a direction filter capable of giving a weight according to a direction to a linear image. 12, since the boundary of the wheel region is close to the transverse direction, that is, the 0 degree direction, the tire recognition module 104 has a directional filter of 0 degree direction to give a higher weight to the transverse direction, Is applied to a date image, and when the size of the weight is expressed by color, the image 1400 is displayed as shown in FIG. 14A.

예를 들어, 타이어 인식 모듈(104)은 일자형태 이미지에 나타나는 선들에 대해 0도(또는 360도) 방향에는 가중치 1을 부여하고, 90도(또는 180도) 방향에는 가중치0을 부여하고, 그 사이의 각도에 해당하는 선들에 대해서는 각도에 따라 0과 1사의 가중치를 부여한다. For example, the tire recognition module 104 may assign a weight 1 to the 0 degrees (or 360 degrees) direction for the lines appearing in the linear image, a weight 0 to the 90 degrees (or 180 degrees) direction, The weights of 0 and 1 are given according to the angle.

도 14b를 참조하면, 타이어 인식 모듈(104) 일자형태 이미지에서 인텐서티를 기초로 구분되는 각 영역의 경계선을 구한다. 예를 들어, 일자형태 이미지의 각 화소의 인텐서티 크기로 나타내면(1430), 도 14d와 같이 각 영역 사이에 산마루(ridge)(1431,1432,1433)가 나타난다. 타이어 인식 모듈(104)은 이러한 산마루들로 이루어진 경계선들에 의해 나타나는 복잡한 미로 형태의 경로 이미지(1410)를 도 14b와 같이 산출한다. 타이어 인식 모듈(104)은 인텐서티를 기초로 구분되는 산마루 부분을 파악하기 위한 알고리즘의 일 예로 워터셰드(wartershed) 알고리즘을 이용할 수 있다. Referring to FIG. 14B, the boundaries of the respective regions, which are classified based on intensities in the image of the tire recognition module 104, are obtained. For example, if the intensities of each pixel of the image in the form of a date are expressed (1430), ridges (1431, 1432, 1433) appear between the regions as shown in FIG. The tire recognition module 104 calculates a path image 1410 of a complex labyrinth shape represented by the boundary lines made up of such ridges as shown in FIG. 14B. The tire recognition module 104 may use a wartershed algorithm as an example of an algorithm for grasping the ridgeline portion classified based on intensities.

도 14c를 참조하면, 타이어 인식 모듈(104)은 도 14a와 같은 일자형태 이미지의 가중치를 도 14b의 경로 이미지(1410)에 반영한 도 14c의 이미지(1420)를 구한 후, 이미지(1420)의 양단을 연결하는 가중치 반영 최단 경로를 구한다. 예를 들어, 타이어 인식 모듈(104)은 도 14a와 도 14b의 이미지를 합쳐 도 14c의 이미지를 구할 수 있다.14C, the tire recognition module 104 obtains the image 1420 of FIG. 14C, which reflects the weight of the image in the form of a line image as shown in FIG. 14A in the path image 1410 of FIG. 14B, The shortest path that reflects the weight. For example, the tire recognition module 104 may combine the images of Figures 14A and 14B to obtain the image of Figure 14C.

도 14e를 참조하면, 일자형태 이미지는 원형 타이어 이미지를 편 이미지이므로 좌측단과 우측단이 서로 대응되므로, 타이어 인식 모듈(104)은 좌측의 출발점과 우측의 도착점의 위치가 동일한 점을 이용하여 양단을 잇는 경로를 종래의 다양한 경로탐색 알고리즘을 적용하여 파악한다. 이때, 타이어 인식 모듈(104)은 가중치가 높을수록 쉽게 갈 수 있는 경로로 설정하여 가장 쉽게 경유할 수 있는 경로(1440)를 산출한다. 14E, since the left and right ends correspond to each other, the tire recognition module 104 uses the point where the left start point and the right end start point are the same, And the paths are identified by applying various conventional path search algorithms. At this time, the tire recognizing module 104 sets a route that can be easily reached as the weight is higher, and calculates the route 1440 that can be passed most easily.

도 14f를 참조하면, 타이어 인식 모듈(104)은 도 14e에서 구한 경로를 도 12의 일자형태 이미지에 적용한다. 그러나 도 14e에서 산출한 경로는 도 14a의 방향필터에 의한 스무딩(smoothing) 효과 등으로 인해 경로에 계단과 같은 현상(1450)이 나타날 수 있다. Referring to Fig. 14F, the tire recognition module 104 applies the path obtained in Fig. 14E to the image in the shape of a rectangle in Fig. However, a step 1450 similar to a step may appear in the path due to the smoothing effect of the direction filter in FIG. 14A or the like.

이 경우, 타이어 인식 모듈(104)은 경로(1510)에 계단과 같은 현상을 제거하여 매끄러운 선으로 보정하는 과정을 추가 수행할 수 있다. 예를 들어, 타이어 정보 인식 모듈(104)은 각 픽셀간의 탄성과 외부 이미지의 경사력(gradient force)를 고려한 동적 윤곽선 모델(active contour model)을 적용하여 경로(1510)의 계단 현상을 제거할 수 있다. 또한 실제 타이어 이미지에 나타나는 휠 부분의 경계는 원 또는 타원 형태이므로, 타이어 인식 모듈(104)은 경로(1510)를 포함하는 일자형태 이미지(1450)를 원형 이미지로 변환한 후 경로(1510)를 원 또는 타원으로 보정한다. In this case, the tire recognizing module 104 may further perform a process of correcting the path 1510 to a smooth line by removing a phenomenon such as a step. For example, the tire information recognition module 104 may apply a dynamic contour model that considers the elasticity between each pixel and the gradient force of the external image to remove the staircase of the path 1510 have. In addition, since the boundary of the wheel portion appearing in the actual tire image is circular or elliptical, the tire recognition module 104 converts the diagonal image 1450 including the path 1510 into a circular image, Or an ellipse.

도 14g를 참조하면, 도 14c에 구한 타이어 휠 경계를 나타내는 경로(1510) 또는 도 14f와 같은 계단 현상이 나타나는 경우 이를 보정한 경로를 수신 이미지에 다시 적용하여 휠 부분을 제외한 타이어 부분을 추출하고, 추출한 부분을 일자형태의 이미지(1461)로 변환한다. 휠 영역 경계를 보정하기 전의 일자형태 이미지(1460)에 비해 휠 영역 경계를 보정한 후의 일자형태 이미지(1461)가 타이어 부분을 보다 정확하게 구분함을 알 수 있다. Referring to FIG. 14G, when a step 1510 representing a tire wheel boundary as shown in FIG. 14C or a stepped phenomenon as shown in FIG. 14F appears, the corrected path is applied again to the received image to extract a tire portion excluding the wheel portion, And converts the extracted portion into an image 1461 in the form of a date. It can be seen that the linear image 1461 after correcting the wheel region boundary more accurately distinguishes the tire portion than the straight image 1460 before correcting the wheel region boundary.

도 14h 내지 14l은 또 다른 실시 예에 따른 일자형태 이미지를 영역별로 분리하는 방법의 일 예를 도시한 도면들이다.FIGS. 14H to 14L are views showing an example of a method of separating the image in the form of a line, according to another embodiment.

도 14h를 참조하면, 타이어 인식 모듈(104)은 이미지 내 글자 영역 주변과 패턴이 있는 곳은 복잡도가 크고 무늬 혹은 특징이 없는 영역은 복잡도가 작다는 사실을 이용하여 일자 형태 이미지(1470)에 엔트로피 필터를 적용하여 글자 영역과 그 외 부분의 차이를 높인다. 14H, the tire recognition module 104 uses the fact that the complexity is large around the character area in the image and the pattern is small and the complexity is small in the area where the pattern or the feature is not, Apply a filter to increase the difference between the text area and the rest.

도 14i을 참조하면, 타이어 인식 모듈(104)은 일자형태 이미지(1480)를 흑과 백의 이진 이미지(1481)로 변환한다. 일 예로, 타이어 인식 모듈(104)은 적응적 임계값(Adaptive Threshold)를 이용하여 일자형태 이미지(1480)를 이진 이미지(1481)로 변환할 수 있다. 이 경우, 타이어 인식 모듈(104)은 기 설정된 소정 개수의 픽셀(예를 들어, 3X3 픽셀)로 이루어진 커널 내 중심 픽셀의 인텐서티가 커널 내 픽셀값의 표준편차 등에 따라 적응적으로 변경되는 임계값보다 크면 해당 픽셀을 흰색으로 결정하고 그 반대면 검은색으로 결정하여 흑과 백으로 구성된 이진 이미지(1810)를 획득할 수 있다.14I, the tire recognition module 104 converts the linear image 1480 into a binary image 1481 of black and white. In one example, the tire recognition module 104 may convert the linear image 1480 into a binary image 1481 using an adaptive threshold. In this case, the tire recognition module 104 determines whether or not the intensities of a predetermined number of pixels (for example, 3X3 pixels) in the kernel are adaptively changed according to standard deviations of pixel values in the kernel, The pixel is determined to be white and the other side is determined to be black so that a binary image 1810 composed of black and white can be obtained.

도 14j를 참조하면, 타이어 인식 모듈(104)은 도 14i의 이진 이미지(1481)의 잡음 영역을 제거하여 도 14j와 같은 이미지(1490)를 산출한다. 예를 들어, 타이어 인식 모듈(104)은 도 14i의 이진 이미지(1481)에서 기 설정된 일정 크기보다 작은 흰 영역을 제거하여 도 14j의 이미지(1490)를 구할 수 있다.Referring to FIG. 14J, the tire recognition module 104 removes the noise region of the binary image 1481 of FIG. 14I to produce an image 1490 as shown in FIG. 14J. For example, the tire recognition module 104 may obtain an image 1490 of FIG. 14J by removing a white area smaller than a predetermined size in the binary image 1481 of FIG. 14I.

도 14k을 참조하면, 타이어 인식 모듈(104)은 잡음 제거된 이진 이미지(1500)에 최단 경로 알고리즘을 적용하여 양단을 가로지르는 적어도 하나 이상의 경로(2010,2020)를 산출한다.Referring to FIG. 14K, the tire recognition module 104 applies a shortest path algorithm to the noise-removed binary image 1500 to calculate at least one path 2010,2020 across the two ends.

도 14l을 참조하면, 타이어 인식 모듈(104)은 일자형태 이미지(1600)에 도 14k에서 구한 경로(2010,2020)를 적용하여 트레드 영역과 큰 글자가 존재하는 영역, 작은 글자가 존재하는 영역 등을 분할한다.Referring to FIG. 14L, the tire recognition module 104 applies the paths 2010 and 2020 obtained in FIG. 14K to the linear image 1600 to determine a tread area and a region in which large characters exist, a region in which small characters exist .

도 14m은 또 다른 실시 예에 따른 영역별로 분리된 이미지를 보정하는 방법의 일 예를 도시한 도면이다. FIG. 14M is a diagram illustrating an example of a method of correcting divided images according to another embodiment.

도 14m을 참조하면, 타이어 인식 모듈(104)은 분할된 각 영역(2200)의 이미지 내에 포함된 글자 영역을 보다 명확하게 구분하기 위하여 외부 광원의 효과를 제거하는 등의 배경 보정 과정을 수행한다. 예를 들어, 타이어 인식 모듈(104)은 각 분할 영역(2200)에 모션 블러(motion blur), 엔트로피 필터 등의 이미지 처리 과정을 적용하여 순차적으로 적용한 이미지(2210,2220)를 산출한다. Referring to FIG. 14M, the tire recognition module 104 performs a background correction process such as eliminating the effect of the external light source in order to more clearly distinguish the character regions included in the images of the divided regions 2200. For example, the tire recognition module 104 calculates images 2210 and 2220 sequentially applied to each of the divided regions 2200 by applying an image processing process such as a motion blur and an entropy filter.

도 15a는 또 다른 실시 예에 따른 영역별로 분리된 이미지로부터 글자 영역을 추출하는 방법의 일 예를 도시한 도면이고, 도 15b는 또 다른 실시 예에 따른 글자 영역에서 각 글자 단위로 이미지 영역을 추출하는 방법의 일 예를 도시한 도면이다. FIG. 15A is a diagram illustrating an example of a method of extracting a character region from an image divided into regions according to another embodiment, FIG. 15B is a diagram illustrating an example of extracting an image region in each character unit in a character region according to another embodiment And the like.

도 15a를 참조하면, 타이어 인식 모듈(104)은 글자 주변에 에지(edge)가 많으므로 에지를 기초로 획득한 특징점을 바탕으로 각 글자 영역을 추출할 수 있다. 도 15b를 참조하면, 타이어 인식 모듈(104)은 각 글자 영역에 포함된 적어도 하나 이상의 단어를 각 글자 단위로 추출한다. Referring to FIG. 15A, since the tire recognition module 104 has many edges around characters, each character region can be extracted based on feature points acquired on the basis of edges. Referring to FIG. 15B, the tire recognition module 104 extracts at least one or more words included in each character region in units of characters.

도 16은 또 다른 실시 예에 따른 타이어 문자 인식을 위한 각 글자의 비교 방법의 일 예를 도시한 도면이다.FIG. 16 is a diagram illustrating an example of a method of comparing each character for tire character recognition according to another embodiment.

도 16을 참조하면, 시스템 구축시 미리 타이어 측면 이미지에 위치한 글자 영역을 학습 대상 영역(1800)으로 분리하고, 학습 대상 영역(1800)에 필터를 적용하여 얻은 적어도 하나 이상의 특징 정보(1810,1820)를 학습 데이터베이스에 저장한다. 여기서 필터로 가버(garber) 필터나 하-라이크(Haar-like) 필터 등을 이용할 수 있다.16, at the time of building a system, at least one or more feature information 1810, 1820 obtained by separating a character region located in a tire side image into a learning object region 1800 and applying a filter to the learning object region 1800, To the learning database. Here, a garber filter or a Haar-like filter can be used as the filter.

예를 들어, 타이어 인식 모듈(104)은 단말기로부터 수신한 타이어 이미지를 분석하여 'A'를 포함하는 인식대상 글자영역(1900)을 추출하고, 해당 추출한 인식대상 글자영역(1900)에 적어도 하나 이상의 필터를 적용하여 하나 이상의 특징 정보(1910,1920)를 얻는다. 그리고 타이어 인식 모듈(104)은 인식대상 글자영역(1900)의 특징 정보(1910,1920)와 학습 데이터베이스에 각 학습 글자별로 미리 구축된 특징 정보를 비교하여, 가장 유사한 특징 정보(1810,1820)를 가진 학습 글자 'A'를 파악한다.For example, the tire recognition module 104 analyzes the tire image received from the terminal, extracts a recognition target character area 1900 including 'A', and adds at least one or more A filter is applied to obtain one or more feature information (1910, 1920). The tire recognition module 104 compares the feature information 1910 and 1920 of the recognition target character area 1900 with the feature information previously constructed for each learning character in the learning database and obtains the most similar feature information 1810 and 1820 And recognizes the learned learning character 'A'.

도 17은 또 다른 실시 예에 따른 타이어 인식 방법의 일 예의 흐름을 도시한 도면이다. 17 is a diagram showing a flow of an example of a tire recognizing method according to another embodiment.

도 17을 참조하면, 단계 2000에서, 타이어 이미지를 수신한다. 단계 2010에서, 타이어 인식 모듈(104)은 수신한 이미지 내 타이어 부분을 일자형태의 이미지로 변환한다. 실시 예에 따라 타이어 휠 부분을 제거한 타이어 부분만을 일자형태의 이미지로 변환하거나 타이어 휠 부분을 포함한 전체 타이어 부분을 일자형태의 이미지로 변환할 수 있다. 타이어 인식 모듈(104)은 휠 부분 제거를 위하여 이미지 촬영시 제공된 가이드라인을 이용하거나 여러 가지 이미지 처리 방법을 적용하여 얻은 휠 부분 경계선을 이용할 수 있다.Referring to FIG. 17, in step 2000, a tire image is received. In step 2010, the tire recognition module 104 converts the received tire image portion into an image in the form of a date. According to the embodiment, it is possible to convert only the tire portion from which the tire wheel portion is removed into an image in the form of a straight line, or convert an entire tire portion including the tire wheel portion into a straight line image. The tire recognizing module 104 may use the guideline provided at the time of image photographing to remove the wheel part or the wheel part boundary obtained by applying various image processing methods.

단계 2020에서, 타이어 인식 모듈(104)은 일자형태의 이미지 내 패턴이나 질감, 에지 등을 이용하여 각 글자 영역을 추출한다. 타이어 인식 모듈(104)은 일자형태 이미지를 여러 영역으로 분할한 후 각 영역에 존재하는 글자를 포함하는 인식대상 글자영역을 추출할 수 있다. 이때 보다 명료한 글자 영역 추출을 위해 엔트로피 필터, 모션 블러 등 다양한 이미지 처리 과정을 수행할 수 있다.In step 2020, the tire recognition module 104 extracts each character region by using a pattern, texture, edge, or the like in the image in the form of a line. The tire recognizing module 104 may divide the image in a line shape into a plurality of regions, and then extract a recognition target character region including characters existing in each region. At this time, various image processing processes such as entropy filter, motion blur, and the like can be performed in order to extract a clear character region.

단계 2030에서, 타이어 인식 모듈(104)은 인식대상 글자영역이 무슨 글자를 나타내는지 파악하기 위하여 학습 데이터베이스와 비교한다. 학습 데이터베이스는 타이어 측면 이미지에 존재하는 각 글자 영역에 다양한 필터를 적용하여 얻은 하나 이상의 특징 정보를 저장하고 있다. 따라서 추출한 인식대상 글자영역에 필터를 적용하여 얻은 하나 이상의 특징 정보와 가장 유사한 특징 정보를 가진 학습 글자를 학습 데이터베이스에서 검색함으로써 추출한 글자가 어떤 글자인지를 인식한다.In step 2030, the tire recognition module 104 compares the recognition target character area with a learning database to determine what character is to be recognized. The learning database stores one or more feature information obtained by applying various filters to each character region existing in the tire side image. Accordingly, the learning database having the feature information most similar to the one or more feature information obtained by applying the filter to the extracted recognition target character region is searched in the learning database, thereby recognizing the character of the extracted character.

타이어 인식 모듈(104)은 타이어 이미지에 존재하는 각 글자를 인식한 후 타이어 정보가 저장된 데이터베이스를 참조하여 타이어의 종류, 크기 등 타이어 정보를 파악하고, 파악한 타이어 정보를 단말기로 제공할 수 있다. The tire recognition module 104 recognizes each character existing in the tire image, and recognizes the tire information such as the type and size of the tire by referring to the database in which the tire information is stored, and provides the obtained tire information to the terminal.

도 18은 또 다른 실시 예에 따른 일자형태 이미지로의 변환 과정의 일 예의 흐름을 도시한 도면이다.FIG. 18 is a view showing a flow of an example of a conversion process to a linear image according to another embodiment.

도 18을 참조하면, 단계 2100에서, 타이어 인식 모듈(104)은 이미지 내 타이어 휠 부분을 제거한다. 타이어 인식 모듈(104)은 휠 부분 제거를 위하여 이미지 촬영시 제공된 가이드라인을 이용할 수 있다. Referring to FIG. 18, in step 2100, the tire recognition module 104 removes the tire wheel portion in the image. The tire recognition module 104 may use the guideline provided at the time of image photographing to remove the wheel portion.

단계 2110에서, 타이어 인식 모듈(104)은 휠 부분이 제거된 원형의 타이어 부분을 일자형태의 이미지로 변환한다. 원형 이미지를 일자 형태로 변환하는 다양한 방법이 존재할 수 있다. In step 2110, the tire recognition module 104 converts the circular tire portion from which the wheel portion has been removed into an image in the form of a line. There can be various ways to convert a circular image to a date format.

일자형태로 이미지를 변환할 때 가이드라인을 이용하는 경우에 일자형태 이미지 내에는 휠 부분의 일정 부분이 포함될 수 있다. When a guideline is used to convert an image in the form of a date, a certain portion of the wheel portion may be included in the date image.

단계 2120에서, 보다 정확한 휠 부분을 제거하기 위하여 일자형태 이미지에서 휠 부분 경계를 추출한 후, 해당 휠 부분 경계를 이용하여 이미지로부터 다시 타이어 부분을 추출한 후 일자형태 이미지로 변환하는 보정 과정을 수행한다. 보정 과정에 대한 상세 구성은 도 19에서 설명한다.In step 2120, a wheel part boundary is extracted from the linear shape image to remove a more accurate wheel part, a tire part is extracted from the image again using the wheel part boundary, and a correction process is performed to convert the tire part image into a linear shape image. The detailed configuration of the correction process is described in Fig.

도 19는 또 다른 실시 예에 따른 일자형태 이미지의 보정 방법의 일 예의 흐름을 도시한 도면이다.FIG. 19 is a diagram showing a flow of an example of a correction method of a linear image according to another embodiment.

도 19를 참조하면, 단계 2200에서, 타이어 인식 모듈(104)은 일자형태 이미지에 방향필터를 적용한 제1 이미지를 획득한다. 도 12과 같은 일자형태 이미지(1200)에서 휠 부분의 경계는 가로방향에 가까우므로, 0도 방향에 가까울수록 높은 가중치를 부여하는 방향필터를 일자형태 이미지(1200)에 적용하여 도 14a와 같은 제1 이미지(1400)를 얻는다.Referring to Fig. 19, in step 2200, the tire recognition module 104 acquires a first image to which a directional filter is applied to a linear image. 12A and 12B, since the boundary of the wheel part is close to the horizontal direction, a direction filter that gives a higher weight value toward the 0 degree direction is applied to the linear image 1200, 1 image 1400 is obtained.

단계 2210에서, 타이어 인식 모듈(104)은 일자형태 이미지에서 인텐서티를 기준으로 구분되는 각 영역의 경계선을 산출한 제2 이미지를 획득한다. 일자형태 이미지를 인텐서티 크기로 살펴보면 도 14d과 같이 산마루들(1431,1432,1433)이 형성되므로, 타이어 인식 모듈(104)은 워터셰드 알고리즘 등을 이용하여 그 산마루를 각각 경계선으로 표시한 도 14b과 같은 제2 이미지(1410)를 획득한다.In step 2210, the tire recognition module 104 obtains a second image, which is a boundary line of each area divided on the basis of intensities in a linear image. As shown in FIG. 14D, the tire recognition module 104 uses the water-shed algorithm or the like to display the ridgelines as boundary lines, as shown in FIG. 14B And acquires a second image 1410 such as < / RTI >

단계 2220에서, 타이어 인식 모듈(104)은 제2 이미지에 제1 이미지를 합쳐서 가중치가 부여된 경계선들로 이루어진 미로 같은 경로에 경로 탐색 알고리즘을 적용하여 가중치를 고려한 최단 경로를 산출한다. 이렇게 구한 최단 경로는 타이어 휠 부분의 경계에 해당한다.In step 2220, the tire recognition module 104 calculates the shortest path considering the weight by applying the path search algorithm to the maze-like path made up of the weighted boundaries by combining the first image with the second image. The shortest path thus obtained corresponds to the boundary of the tire wheel portion.

단계 2230에서, 타이어 인식 모듈(104)은 일자형태 이미지에 존재하는 최단 경로를 일자형태로 변환되기 이전의 원형 이미지로 변환하고, 원형 이미지 내 존재하는 최단 경로를 원 또는 타원으로 보정한다. In step 2230, the tire recognition module 104 converts the shortest path existing in the linear image into a circular image before conversion into a date form, and corrects the shortest path existing in the circular image to a circle or an ellipse.

단계 2240에서, 타이어 인식 모듈(104)은 최단 경로를 보정하여 생성된 원 또는 타원을 기초로 원 이미지 내 타이어 부분을 다시 추출하여 일자형태 이미지로 변환한다. In step 2240, the tire recognition module 104 re-extracts the tire portion in the original image based on the circle or ellipse created by correcting the shortest path, and converts it into a linear image.

도 20은 또 다른 실시 예에 따른 일자형태 이미지로부터 글자 영역을 추출하는 방법의 일 예의 흐름을 도시한 도면이다.FIG. 20 is a diagram showing a flow of an example of a method of extracting a character region from a linear image according to another embodiment.

도 20을 참조하면, 단계 2300 및 2310에서, 타이어 인식 모듈(104)은 일자형태 이미지에 엔트로피 필터, 모션 블러 등의 전처리 단계를 수행하여 명료한 이미지를 획득한다. 실시 예에 따라, 타이어 인식 모듈(104)은 다른 여러 전처리 단계를 수행하거나 전처리 단계를 생략할 수도 있다.Referring to FIG. 20, in steps 2300 and 2310, the tire recognition module 104 performs a pre-processing step such as an entropy filter, a motion blur, and the like on a linear image to obtain a clear image. Depending on the embodiment, the tire recognition module 104 may perform several other preprocessing steps or omit the preprocessing step.

단계 2320에서, 타이어 인식 모듈(104)은 전처리 단계가 종료된 일자형태 이미지를 흑과 백으로 구성된 이진 영상으로 변환한다. 타이어 인식 모듈(104)은 적응적 임계값을 적용하여 이진 영상을 구할 수 있다. In step 2320, the tire recognition module 104 converts the date-type image in which the preprocessing step has been completed into a binary image composed of black and white. The tire recognition module 104 may obtain a binary image by applying an adaptive threshold.

단계 2330에서, 타이어 인식 모듈(104)은 이진 영상의 잡음 영역, 즉 기 설정된 크기보다 작은 영역을 제거한다. 잡음 제거된 상태의 일 예는 도 14j와 같다.In step 2330, the tire recognition module 104 removes the noise region of the binary image, i.e., the region smaller than the predetermined size. An example of the noise canceled state is shown in FIG. 14J.

단계 2340에서, 타이어 인식 모듈(104)은 잡음 제거된 이진 영상에 경로 탐색 알고리즘을 적용하여 양단을 잇는 경로를 적어도 하나 이상 산출한 후, 단계 2350에서, 도 14k과 같이 산출한 경로(2010,2020)를 일자형태 이미지에 적용하여 적어도 하나 이상의 영역으로 분할한다.In step 2340, the tire recognition module 104 applies a path search algorithm to the noise-removed binary image to calculate at least one path connecting both ends, and then in step 2350, the path 2010202020 ) Is applied to the date image to divide it into at least one area.

단계 2360에서, 타이어 인식 모듈(104)은 분할된 각 영역내에서 글자를 포함하는 인식대상 글자영역을 추출한다. 타이어 이미지 내에 글자 부분은 일반적인 종이문서 등과 달리 배경과 흑백의 구별이 명확하지 아니하므로 일반적인 문자인식 알고리즘을 적용하여 문자를 인식할 수는 없다. 따라서 타이어 인식 모듈(104)은 글자의 경우 많은 에지가 존재한다는 특징을 기초로 에지가 많은 부분이 글자가 존재하는 부분으로 파악하여 해당 영역을 추출한다. 각 글자 사이, 예를 들어, 도 15와 같이 에지가 많은 일정 영역에서 각 글자, 즉 'M'과 'I' 사이는 에지가 없는 평평한 영역이므로, 이러한 평평한 영역을 기준으로 각 글자 사이를 구분하여 각 글자별로 나누어진 인식 대상 영역을 추출할 수 있다. In step 2360, the tire recognition module 104 extracts a recognition target character area including characters in each divided area. Unlike a typical paper document, the character portion in a tire image can not be recognized by applying a general character recognition algorithm since the distinction between the background and black and white is not clear. Therefore, the tire recognizing module 104 extracts a region having many edges as a portion where a character exists, based on the characteristic that many edges exist in the case of characters. As shown in FIG. 15, for example, between the letters 'M' and 'I' in a certain area having a large number of edges as shown in FIG. 15 is a flat area without edges. Therefore, It is possible to extract the recognition target area divided for each character.

도 21은 또 다른 실시 예에 따른 타이어 글자 인식 방법의 일 예의 흐름을 도시한 도면이다.21 is a diagram showing a flow of an example of a tire character recognition method according to another embodiment.

도 21을 참조하면, 단계 2400에서, 먼저 학습 데이터베이스가 구축된다. 학습 데이터베이스는 타이어 이미지에서 추출한 각 글자를 포함하는 학습 영역에 적어도 하나 이상의 필터를 적용하여 얻은 적어도 하나 이상의 특징 정보를 저장하고 있다. Referring to FIG. 21, at step 2400, a learning database is first constructed. The learning database stores at least one feature information obtained by applying at least one filter to a learning region containing each character extracted from the tire image.

단계 2410에서, 타이어 인식 모듈(104)은 단말기로부터 수신한 이미지를 분석하여 추출한 인식 대상 영역에 기 설정된 적어도 하나 이상의 필터를 적용하여 하나 이상의 특징 정보를 산출한다. 단계 2420에서, 타이어 인식 모듈(104)은 인식대상 글자영역의 특징 정보와 학습 데이터베이스에 학습 글자별로 저장된 특징 정보를 비교하여 가장 유사한 특징 정보를 가진 학습 글자를 인식대상 글자영역의 글자로 파악한다. 예를 들어, 인식대상 글자영역의 특징 정보가 학습 데이터베이스의 학습 글자 'A'를 포함하는 영역의 특징 정보와 유사하면, 타이어 인식 모듈(104)은 인식대상 글자영역에 존재하는 글자가 'A'라고 파악한다.In step 2410, the tire recognition module 104 analyzes one or more images received from the terminal and applies one or more predetermined filters to the extracted recognition target area to calculate one or more pieces of feature information. In step 2420, the tire recognition module 104 compares the feature information of the recognition target character area with the feature information stored in the learning database for each learning character, and grasps the learning character having the most similar characteristic information as the character of the recognition target character area. For example, if the feature information of the recognition target character region is similar to the feature information of the region including the learning character 'A' in the learning database, the tire recognition module 104 determines that the character existing in the recognition target character region is 'A' .

그러나, 타이어의 마모나 오염 등으로 인해 몇몇 글자는 정확하게 인식되지 않을 수도 있다. 이 경우 단계 2430 및 2440에서, 타이어 인식 모듈(104)은 특정 영역의 글자열에 대해 인식한 결과와 미리 학습 데이터베이스에 저장된 글자열을 비교하여 가장 유사한 글자열을 단말기로부터 수신한 타이어 이미지 내에 존재하는 글자열로 파악한다. 예를 들어, 타이어 이미지에 원래 존재하는 글자열이 'MICHELIN'이나 타이어 마모나 오염 등으로 인해, 타이어 인식 모듈(104)은 해당 글자열을 'MIO ELIN'등과 같이 일부 글자는 잘못 인식하고 일부 글자는 아예 인식하지 못하는 경우가 있다. 이 경우 타이어 인식 모듈(104)은 학습 데이터베이스에 미리 저장된 문자열들 중 "MIO ELIN"과 가장 유사한 문자열 'MICHELIN'을 인식하고자 하는 타이어의 문자열로 파악한다. However, some characters may not be recognized correctly due to tire wear or contamination. In this case, in steps 2430 and 2440, the tire recognizing module 104 compares the recognition result of the character string of the specific area with the character string stored in the learning database in advance, and obtains the most similar character string from the character Heat. For example, the tire recognition module 104 erroneously recognizes some characters such as 'MIO ELIN' and the like, due to 'MICHELIN' which is originally present in the tire image, tire wear or contamination, May not be recognized at all. In this case, the tire recognizing module 104 recognizes the character string 'MICHELIN' most similar to "MIO ELIN" among the strings stored in the learning database as a character string of a tire to be recognized.

도 22는 도 2에 도시된 손상 인식 모듈(105)의 개략적인 블록 도이다. 22 is a schematic block diagram of the damage recognition module 105 shown in FIG.

도 22를 참조하면, 손상 인식 모듈(105)는 DB 검색부(2210), 비교대상이미지 데이터베이스(2220), 비교부(2230) 및 손상파악부(2240)를 포함한다. 타이어는 제조과정이나 사용 중에 여러 가지 원인에 의해 도 34와 같은 크랙등의 손상(3400)이 발생한다. 타이어 측면에는 타이어에 대한 각종 정보를 나타내는 글자와 다양한 무늬나 패턴 등이 존재하므로 일반적인 이미지 분석과정을 통해 크랙과 같은 손상을 구분하기가 용이하지 않다. 따라서, 실시 예에 따른 손상 인식 모듈(105)은 사용자가 직접 눈으로 확인할 필요없이 카메라를 통해 촬영된 이미지를 통해 타이어 손상, 예를 들면 크랙을 인식할 수 있게 한다. 따라서, 사용자는 카메라 또는 카메라 기능이 내장된 스마트 폰 등을 이용하여 타이어 이미지를 촬영함으로써 타이어 손상 여부를 용이하게 파악할 수 있다. 또한 타이어 손상이 존재하여 타이어 교체가 요구될 경우에 사용자는 해당 타이어에 대한 정보도 함께 제공받을 수 있다. 22, the damage recognition module 105 includes a DB search unit 2210, a comparison object image database 2220, a comparison unit 2230, and a damage recognition unit 2240. The tires suffer damage (3400) such as cracks as shown in Fig. 34 due to various causes during the manufacturing process or use. Since there are letters and various patterns and patterns on the tire side, it is not easy to distinguish cracks and other damages through a general image analysis process. Accordingly, the damage recognition module 105 according to the embodiment allows a user to recognize a tire damage, for example, a crack, through an image photographed through a camera without directly checking with the eyes. Accordingly, the user can easily recognize whether or not the tire is damaged by photographing the tire image using a camera or a smart phone with a built-in camera function. In addition, when tire damage is present and tire replacement is required, the user can be provided with information about the tire.

DB 검색부(2210)는 타이어 이미지의 측면에 위치한 문자, 숫자, 기호 중 적어도 하나 이상을 이용하여 데이터베이스에서 비교대상 이미지를 검색한다. The DB search unit 2210 searches the database for a comparison target image using at least one of letters, numbers, and symbols located on the side of the tire image.

일 예로, DB 검색부(2210)는 타이어 이미지의 측면에 존재하는 글자를 인식하여 타이어 정보를 파악한 후, 파악한 타이어 정보를 기초로 데이터베이스를 검색하여 비교대상 이미지를 추출할 수 있다. 이때 DB 검색부(2210)는 타이어 인식 모듈(104)에 의해 파악된 타이어 정보를 이용할 수 있다. For example, the DB search unit 2210 recognizes the characters existing on the side of the tire image and recognizes the tire information, and then searches the database based on the detected tire information to extract the comparison target image. At this time, the DB search unit 2210 can use the tire information recognized by the tire recognition module 104. [

예를 들어, DB 검색부(2210)는 단말기로부터 직접 타이어 정보를 수신하거나, 타이어 측면에 인쇄된 글자 등을 타이어 인식 모듈(104)에서 기술한 방법 이외의 다른 이미지 처리 방법을 통해 파악하여 타이어 정보를 파악하거나, 사용자가 단말기를 통해 접속한 서버에서 특정 타이어를 선택하도록 하는 등 다양한 방법이 적용될 수 있다.For example, the DB search unit 2210 receives the tire information directly from the terminal, grasps the characters printed on the side of the tire through an image processing method other than the method described by the tire recognition module 104, Or to allow a user to select a specific tire from a server connected through a terminal, or the like.

또 다른 예로, DB 검색부(2210)는 타이어 정보를 파악하지 아니하고, 타이어 이미지의 특징과 유사한 특징을 가진 비교대상 이미지를 데이터베이스(2220)에서 추출할 수 있다. 타이어 이미지에 대해 가버 필터와 하-라이크 필터 등과 같이 특징 정보를 추출할 수 있는 필터를 적용하여 추출한 적어도 하나 이상의 특징 정보를 비교대상 이미지와 함께 데이터베이스에 미리 저장한 후, DB 검색부(2210)는 수신한 타이어 이미지에 대해 필터를 적용하여 얻은 특징정보와 가장 유사한 특징정보를 가진 비교대상 이미지를 데이터베이스(2220)에서 추출할 수 있다. 이 경우 비교대상 이미지의 특징 정보와 보다 정확한 비교를 위하여, DB 검색부(2210)는 수신한 타이어 이미지의 크기와 방향 등을 기 설정된 크기와 방향으로 보정하는 과정을 특징 정보 추출 전에 수행할 수 있다. As another example, the DB search unit 2210 can extract a comparison object image having a characteristic similar to that of the tire image from the database 2220 without grasping the tire information. After storing at least one or more pieces of feature information extracted by applying a filter capable of extracting feature information, such as a Gabor filter and a low-level filter, to the tire image in advance in the database together with the comparison object image, the DB search unit 2210 The database 2220 can extract the comparison object image having the feature information most similar to the feature information obtained by applying the filter to the received tire image. In this case, for more accurate comparison with the feature information of the comparison object, the DB search unit 2210 can perform the process of correcting the size and direction of the received tire image to predetermined sizes and directions before the feature information extraction .

데이터베이스는 각 타이어에 대한 비교대상 이미지를 미리 저장하고 있다. 여기서 비교대상 이미지는 타이어 출고시의 타이어 이미지와 같이 이물질이 묻지 않은 이미지이다. 데이터베이스는 타이어 정보와 맵핑하여 비교대상 이미지를 저장한다. 또 다른 예로, 특징 정보를 기초로 비교대상 이미지를 검색하고자 하는 경우에, 데이터베이스는 특징 정보와 맵핑하여 비교대상 이미지를 저장할 수 있다. 또한, 선택적으로 데이터베이스에는 비교대상 이미지를 나타내는 비교대상 데이터가 저장될 수 있다. 비교대상 데이터는 예를 들면, 수신된 타이어 이미지의 측면에 위치한 문자, 숫자, 기호 중 적어도 하나의 타이어 이미지 데이터와 비교 가능한 데이터일 수 있다. The database stores the comparison target image for each tire in advance. Here, the image to be compared is an image in which no foreign substance is observed, such as a tire image at the time of delivery of a tire. The database maps the tire information and stores the comparison target image. As another example, in the case of searching a comparative image based on the feature information, the database may store the comparative image by mapping it with the feature information. Alternatively, the comparison target data representing the comparison target image may be stored in the database. The data to be compared may be, for example, data comparable to at least one tire image data among letters, numbers and symbols located on the side of the received tire image.

본 실시 예의 데이터베이스(2220)는 앞서 살핀 타이어 인식 모듈(104)의 학습 데이터베이스와 함께 구축되거나 별도로 구축될 수 있다. The database 2220 of the present embodiment may be constructed together with the learning database of the tire recognition module 104 discussed above or may be separately constructed.

비교부(2230)는 수신한 타이어 이미지와 데이터베이스(2220)로부터 추출한 비교대상 이미지를 비교하여 크랙이나 찢어짐 등과 같은 손상 여부를 판별한다. 즉 비교부(2230)는 비교대상 이미지에는 존재하지 아니하고 수신한 타이어 이미지에만 존재하는 영역 등을 파악한다. 수신한 타이어 이미지와 비교대상 이미지의 비교를 위해서는 두 이미지의 크기나 특징점들(예를 들어, 글자 영역 등의 위치)의 위치가 일치하는 것이 바람직하다. 이를 위하여 비교부(2230)는 각 특징점들의 위치가 일치하고 두 이미지의 크기나 모양이 일치하도록 수신한 타이어 이미지 또는 비교대상 이미지의 크기 및 방향을 조정한다. The comparator 2230 compares the received tire image with the comparison image extracted from the database 2220 to determine whether the tire image is damaged, such as cracks or tears. That is, the comparator 2230 does not exist in the comparison target image but grasps an area existing only in the received tire image. In order to compare the received tire image with the comparison target image, it is preferable that the sizes of the two images or the positions of the minutiae points (for example, the positions of the character areas and the like) coincide with each other. To this end, the comparator 2230 adjusts the size and the direction of the received tire image or the comparison target image so that the positions of the respective minutiae coincide with each other and the sizes and shapes of the two images coincide with each other.

손상파악부(2240)는 비교부(2230)에 의해 파악된 상이한 영역(예를 들어, 크랙과 같은 선 성분) 등을 기초로 손상 유무를 판별한다. 예를 들어, 손상파악부(2240)는 비교부(2230)에 의해 파악된 선 성분의 크기가 기 설정된 일정 크기 이상인 경우 타이어 손상으로 판별한다. 또 다른 예로, 손상파악부(2240)는 선 성분의 개수나 크기 등을 기초로 타이어 손상 여부를 판별한 후 타이어의 교체 여부 등을 단말기에게 제공할 수 있다. The damage detection unit 2240 determines the presence or absence of damage based on a different area (e.g., a line component such as a crack) recognized by the comparison unit 2230 or the like. For example, if the size of the line component detected by the comparison unit 2230 is equal to or larger than a predetermined size, the damage detection unit 2240 determines that the tire is damaged. In another example, the damage detection unit 2240 may determine whether the tire is damaged based on the number and size of line components, and then provide the terminal with information such as whether to replace the tire or the like.

도 23은 도 2에 도시된 손상 인식 모듈(105)의 다른 블록 도이다.23 is another block diagram of the damage recognition module 105 shown in FIG.

도 23을 참조하면, 손상 인식 모듈(105)는 선성분검출부(2310), 글자영역검출부(2320), 손상파악부(2330), DB 검색부(2340) 및 비교대상이미지 데이터베이스(2350)를 포함한다. 23, the damage recognition module 105 includes a line component detection unit 2310, a text region detection unit 2320, a damage recognition unit 2330, a DB search unit 2340, and a comparison object image database 2350 do.

선성분 검출부(2310)는 수신한 타이어 이미지 내 선 성분을 검출한다. 선성분 검출부(2310)는 타이어 이미지 내 유채색 부분과 면 형태의 영역을 제거하여 선 성분만을 검출할 수 있다. 선 성분 검출의 일 예는 도 27 내지 32에 도시되어 있다. 선성분 검출부(2310)는 이미지 내 무채색 중 특히 크랙 등의 손상영역과 같은 검은 영역의 선 성분만을 검출하는 것으로서, 도 27 내지 32의 과정에 반드시 한정되는 것은 아니며, 다양한 이미지 처리 방법을 통해 이미지 내 검은 선 성분만을 검출할 수 있다. The line component detection unit 2310 detects a line component in the received tire image. The linear component detector 2310 can detect only the linear component by removing the chromatic portion and the surface region in the tire image. One example of linear component detection is shown in Figs. The line component detection unit 2310 detects only line components of a black region such as a crack region, particularly cracks, among the achromatic colors in the image. The line component detection unit 2310 is not limited to the processes of FIGS. 27 to 32, Only black line components can be detected.

글자영역 검출부(2320)는 타이어 이미지 내 글자 영역을 검출한다. 글자영역 검출부(2320)는 타이어 이미지 내 에지가 많은 영역의 검출을 통해 글자 영역을 검출할 수 있다. 또 다른 예로, 글자영역 검출부(2320)는 타이어 인식 모듈(104)에서 타이어 인식을 위해 파악되는 글자 영역의 결과를 이용할 수 있다. The character area detection unit 2320 detects a character area in the tire image. The character region detecting unit 2320 can detect a character region through detection of an area having many edges in the tire image. As another example, the character area detection unit 2320 can use the result of the character area recognized for the tire recognition in the tire recognition module 104. [

또 다른 예로, 글자영역 검출부(2320)는 데이터베이스(2340)에서 추출한 비교대상 이미지를 참조하여 글자영역을 추출할 수 있다. 즉, 데이터베이스(2340)의 구축시 비교대상 이미지별로 미리 글자 영역에 대한 정보를 파악하여 함께 저장한 후, DB 검색부(2340)가 타이어 이미지에 대한 비교대상 이미지를 검색하면, 글자영역 추출부(1120)는 검색된 비교대상 이미지의 글자 영역에 대한 정보를 참조하여 수신한 타이어 이미지의 글자 영역을 파악할 수 있다. As another example, the character region detection unit 2320 can extract a character region by referring to a comparison object image extracted from the database 2340. [ That is, when the DB 23 retrieves the image to be compared with respect to the tire image after the database 2340 obtains information on the character region in advance for each image to be compared at the time of building the database 2340, 1120 can recognize the character area of the received tire image by referring to the information about the character area of the searched comparison target image.

DB 검색부(2340)는 타이어 이미지의 글자 영역 등을 기초로 데이터베이스(2340)에서 비교대상 이미지를 검색한다. The DB search unit 2340 searches the database 2340 for a comparison target image based on the character area of the tire image or the like.

손상파악부(2330)는 선성분 검출부(2310)에서 검출된 선 성분들 중 글자영역에 해당하는 선 성분을 제외하고 남은 선 성분을 기초로 손상 여부를 판별한다.The damage detection unit 2330 determines whether or not the line component corresponding to the character area is damaged based on the line component that is not included in the character area detected from the line component detection unit 2310.

손상파악부(2330)는 보다 정확한 손상 파악을 위하여, DB 검색부(2330)에 의해 검색된 비교대상 이미지와 선성분 검출부(2300)에서 검출된 선 성분들로 이루어진 이미지를 비교하여 손상을 판단한다. 예를 들어, 선성분 검출부(2300)에서 검출된 선 성분들 중 비교대상 이미지와 일치하는 부분이 있다면 이는 손상부분이 아니다. 따라서 손상파악부(2330)는 선성분 검출부(2300)에서 검출된 선 성분들 중 글자 영역의 선 성분을 제외하고 남은 선 성분 중에서 비교대상 이미지와 일치하지 아니한 선 성분이 존재하는지 여부를 기초로 손상 유무를 판별한다. The damage detection unit 2330 compares the image of the line component detected by the line component detection unit 2300 with the image of the comparison object searched by the DB search unit 2330 for more accurate damage detection and determines the damage. For example, if there is a portion of the line components detected by the line component detection unit 2300 that coincides with the image to be compared, this is not a damaged portion. Therefore, the damage detection unit 2330 determines whether or not the line component of the character region is removed from the line components detected by the line component detection unit 2300, .

도 24 내지 26은 또 다른 실시 예에 따른 타이어 손상 인식 방법의 흐름도들이다.24 to 26 are flowcharts of a tire damage recognition method according to still another embodiment.

도 24를 참조하면, 단계 2400에서, 서버는 타이어 이미지를 수신한다. 단계 2410에서, 손상 인식 모듈(105)은 타이어 이미지의 측면에 위치하는 글자 등을 인식하여 타이어의 종류 등과 같은 타이어 정보를 파악한다. 단계 2420에서, 손상 인식 모듈(105)은 파악된 타이어 정보를 기초로 데이터베이스를 검색하여 기 저장된 비교대상 이미지를 추출한다. 단계 2430에서, 손상 인식 모듈(105)은 비교대상이미지와 수신한 타이어 이미지를 비교하고, 단계 2440에서, 두 이미지 사이에 상이한 영역(예를 들어, 선 성분)을 파악하여 손상 여부를 판별한다. 그리고 서버는 파악된 타이어 정보와 손상 정보를 단말기에 제공한다. Referring to FIG. 24, in step 2400, the server receives a tire image. In step 2410, the damage recognition module 105 recognizes the character or the like located on the side of the tire image, and grasps the tire information such as the type of the tire. In step 2420, the damage recognition module 105 searches the database based on the identified tire information and extracts a previously stored comparison image. In step 2430, the damage recognition module 105 compares the comparison image with the received tire image, and in step 2440, identifies a different area (e.g., line component) between the two images to determine whether the image is damaged. The server then provides the identified tire information and damage information to the terminal.

도 25를 참조하면, 단계 2500에서, 서버는 타이어 이미지를 수신한다. 단계 2510에서, 손상 인식 모듈(105)은 타이어 이미지 내 선 성분을 검출한다. 단계 2520에서, 손상 인식 모듈(105)은 타이어 이미지 내 글자 영역을 검출하고, 단계 2530에서, 검출된 선 성분 중 글자 영역에 관한 선 성분을 제거한다. 단계 2540에서, 손상 인식 모듈(105)은 글자 영역의 선 성분을 제거하고 남은 선 성분 중의 크기 등을 기초로 손상을 판별한다. 이때 손상 인식 모듈(105)은 글자 영역의 선 성분을 제거하고 남은 선 성분들을 포함하는 타이어 이미지와 데이터베이스에 추출한 비교대상 이미지를 비교하여 보다 정확한 손상 유무를 판별할 수 있다. 비교대상 이미지와 타이어 이미지를 비교하기 위하여 앞서 살핀 두 이미지 사이의 정합 과정이 수행될 수 있다. 25, in step 2500, the server receives a tire image. In step 2510, the damage recognition module 105 detects a line component in the tire image. In step 2520, the damage recognition module 105 detects a character area in the tire image, and in step 2530, removes the line component of the detected character component in the character area. In step 2540, the damage recognition module 105 removes the line component of the character area and determines the damage based on the size and the like of the remaining line components. At this time, the damage recognition module 105 can remove the line component of the character area, compare the tire image including the remaining line components with the extracted comparison image in the database, and determine whether the damage is more accurate. A matching process between the two images can be performed to compare the comparison image with the tire image.

도 26을 참조하면, 단계 2600에서, 서버는 타이어 이미지를 수신한다. 단계 2610에서, 손상 인식 모듈(105)은 수신한 타이어 이미지에서 유채색을 제거한다. 예를 들어, 서버는 이미지의 각 화소에 대해 RGB 모델의 각 성분을 검출하고, RGB 모델의 각 성분 값의 차이가 기 설정된 범위를 벗어나는 화소를 제거하여 무채색 영역만으로 이루어진 이미지를 추출할 수 있다. 26, in step 2600, the server receives a tire image. In step 2610, the damage recognition module 105 removes the chromatic color from the received tire image. For example, the server may detect each component of the RGB model for each pixel of the image, and may remove the pixel whose difference between the component values of the RGB model is out of a predetermined range, thereby extracting an image consisting of only the achromatic region.

단계 2620에서, 일반적으로 크랙과 같은 손상영역은 검은색이므로, 서버는 무채색 이미지에서 밝기가 기 설정된 임계값 이하인 영역을 추출한다. 예를 들어, 도 29과 같이, 무채색 이미지에 대한 히스토그램 분석을 통해 밝기가 일정 이하인 화소, 즉 검은 부분의 영역만을 포함하는 검은 이미지를 획득한다. In step 2620, since the damaged area such as crack is generally black, the server extracts an area in which the brightness is equal to or less than a predetermined threshold value in the achromatic image. For example, as shown in FIG. 29, a black image including only a pixel having a brightness of less than a certain level, that is, a black region is obtained through histogram analysis of an achromatic image.

단계 2630에서, 손상 인식 모듈(105)은 검은 이미지에서 선 성분만을 남기고 면 성분을 제거한다. 예를 들어, 서버는 리지 필터(ridge filter)를 이용하여 선의 형태를 갖는 영역을 남기고 면의 형태를 띠는 영역을 제거한다. 서버는 선 영역을 검출하기 위하여 이 외 다양한 영상 처리 기술이나 다른 종류의 필터 등을 이용할 수 있다.At step 2630, the damage recognition module 105 removes the surface component leaving only the line component in the black image. For example, the server uses a ridge filter to remove the area having a line shape and the area having a line shape. The server can use various image processing techniques or other kinds of filters to detect the line area.

단계 2640에서, 손상 인식 모듈(105)은 추출한 선 성분으로 이루어진 이미지에서 글자 영역의 선 성분을 제거한다. 예를 들어, 앞서 살핀, 타이어 인식 과정을 통해 각 글자 영역을 추출할 수 있다. 또 다른 예로, 손상 인식 모듈(105)은 타이어 인식 모듈(104)의 전 과정을 수행하지 아니하고, 글자 영역의 에지가 상대적으로 많은 특징을 이용하여 타이어 이미지로부터 바로 글자 영역을 추출할 수 있다. 또 다른 예로, 손상 인식 모듈(105)은 데이터베이스의 비교대상 이미지와 함께 미리 저장된 각 타이어별 글자 영역의 위치 정보를 기초로 타이어의 글자 영역을 파악할 수 있다. In step 2640, the damage recognition module 105 removes the line component of the character region from the extracted line component image. For example, each character region can be extracted through the tire recognizing process, which was previously discussed. As another example, the damage recognition module 105 does not perform the entire process of the tire recognition module 104, and can extract the character region directly from the tire image by using a feature having a relatively large edge of the character region. As another example, the damage recognition module 105 can grasp the character area of the tire based on the position information of the character area of each tire stored in advance together with the comparison object image of the database.

단계 2650 및 2660에서, 손상 인식 모듈(105)은 글자 영역의 선 성분을 제거하고 남은 선 성분들을 포함하는 이미지와 데이터베이스에서 검색한 비교대상 이미지를 비교하여, 손상 여부를 판단한다. 비교대상 이미지와 선 성분을 포함하는 이미지의 비교를 위하여 두 이미지 사이의 크기, 모양, 방향 등의 정합이 미리 수행될 수 있다. In steps 2650 and 2660, the damage recognition module 105 removes the line component of the character area and compares the image including the remaining line components with the comparison image retrieved from the database to determine whether the image is damaged. For comparison of the image including the comparison object image and the line component, the matching of the size, shape, direction, etc. between the two images can be performed in advance.

도 27 및 28은 타이어 이미지로부터 무채색 영역을 추출하는 방법의 일 예를 도시한 도면이다.27 and 28 are views showing an example of a method of extracting an achromatic region from a tire image.

도 27을 참조하면, 사용 중인 타이어는 여러 이물질(2710,2720,2730)이 묻어있을 수 있으며, 이러한 이물질은 다양한 색상일 수 있다. 반면 손상영역(2702,2704,2706)은 타이어 표면에 갈라진 검은선 형태이므로, 손상 인식 모듈(105)은 우선 타이어 이미지(2700) 내 색상이 있는 영역(2720,2730)을 제거한다. 예를 들어, 선 형태의 칼라페인트가 타이어가 묻어 있는 경우 서버는 색상이 존재하는 선 형태를 타이어 이미지에서 제거할 수 있어 손상의 보다 정확한 판단이 가능하다. Referring to FIG. 27, a tire in use may have various foreign substances 2710, 2720 and 2730, and these foreign substances may be various colors. On the other hand, since the damaged areas 2702, 2704 and 2706 are in the shape of a black line broken on the tire surface, the damage recognition module 105 first removes the colored areas 2720 and 2730 in the tire image 2700. For example, when a line color paint is applied to a tire, the server can remove the line shape in which the color is present from the tire image, thereby enabling a more accurate determination of the damage.

타이어 이미지 내 색상 부분을 제거하기 위한 다양한 방법이 존재할 수 있으나, 본 실시 예는 RGB 모델의 R,G,B 성분의 크기를 기초로 색상 부분을 제거한다. 무채색 영역의 경우 RGB의 크기가 유사하므로, 서버는 RGB의 각 성분 크기가 일정 크기 이상 차이가 나는 화소들을 제거하여 색상 부분(1520,1530)을 제거할 수 있다. 도 27에서 RGB모델의 각 성분의 차이가 나는 영역을 제거하면, 도 28과 같이 무채색 영역만으로 이루어진 타이어 이미지(2800)가 생성된다. Various methods for removing a color portion in a tire image may exist, but this embodiment removes a color portion based on the sizes of R, G, and B components of the RGB model. In the case of the achromatic region, since the sizes of RGB are similar to each other, the server can remove the color portions 1520 and 1530 by removing pixels having different component sizes of RGB by a predetermined size or more. In Fig. 27, when a region in which the difference of each component of the RGB model is removed, a tire image 2800 composed of only the achromatic region is generated as shown in Fig.

도 29는 도 27의 무채색 영역에서 검은 영역을 추출하는 방법의 일 예를 도시한 도면이고, 도 30은 도 29의 방법을 적용하여 얻은 검은 영역으로 구성된 이미지의 일 예를 도시한 도면이다. FIG. 29 shows an example of a method of extracting a black region in the achromatic region of FIG. 27, and FIG. 30 is a view showing an example of an image composed of black regions obtained by applying the method of FIG.

도 29를 참조하면, 손상영역은 검은색에 가까우므로 서버는 무채색 중 밝은 부분(예를 들어, 글자 부분 등)을 제거하고 어두운 부분만을 추출한다. 이를 위해 서버는 밝기에 대한 히스토그램을 이용하여 밝기가 일정 크기 이상인 화소들을 제거하여, 검은 영역만을 추출한다. Referring to FIG. 29, since the damaged area is close to black, the server removes a bright part (e.g., a letter part) of the achromatic color and extracts only a dark part. To do this, the server extracts only the black region by removing the pixels whose brightness is larger than a certain size by using the histogram of the brightness.

밝기 값이 일정 크기 이하인 화소만을 남기면, 도 28의 무채색 영역으로 구성된 이미지(2800) 중 대부분의 영역이 제거되고 타이어에 존재하는 손상영역(1502,1504,1506)이나, 검은 얼룩(1510), 글자가 존재하는 영역에서 빛에 의한 그림자 부분 정도가 남는 이미지(3000)가 생성된다. Most of the image 2800 composed of the achromatic area of FIG. 28 is removed and the damaged areas 1502, 1504, 1506, black spots 1510, There is generated an image 3000 in which the degree of the shadow part due to light remains in the area where the light is present.

도 31은 도 30의 검은 영역에서 선 성분을 추출하는 방법의 일 예를 도시한 도면이다.31 is a diagram showing an example of a method of extracting line components in the black region of FIG.

도 31을 참조하면, 손상 인식 모듈(105)은 도 30의 검은 영역 이미지(3000)에서 면 형태의 얼룩(2710) 등을 제거한 이미지(3100)를 획득한다. 검은 얼룩 부분(2710)은 면의 형태를 띠므로, 서버는 선 성분만을 남기고 면 성분을 제거하는 이미지 처리 과정을 수행한다. 이를 위해, 서버는 선 성분을 통과시키고 면 성분을 제거할 수 있는 리지 필터(ridge filter)를 이용할 수 있다. 선 성분만의 검출을 위하여 이 외 다양한 이미지 처리 기법이 적용될 수 있음은 물론이다. Referring to FIG. 31, the damage recognition module 105 obtains an image 3100 from which a surface-shaped speckle 2710 or the like is removed from the black area image 3000 of FIG. Since the black speckle portion 2710 is in the form of a face, the server performs an image processing process to remove the plane component while leaving only the line component. To this end, the server may use a ridge filter that can pass line components and remove surface components. It is needless to say that various other image processing techniques can be applied to detect only the line component.

도 32는 도 31의 선 성분 이미지에서 글자 영역의 선 성분을 제거하는 방법의 일 예를 도시한 도면이다.FIG. 32 is a diagram showing an example of a method of removing a line component of a character region in the line component image of FIG. 31;

도 32를 참조하면, 면 성분이 제거되고 선 성분만으로 구성된 이미지(3200)에는 글자에 의한 선 성분(3210)도 함께 포함되어 있을 수 있다. 따라서 서버는 글자에 의한 선 성분을 제거하는 과정을 수행한다. Referring to FIG. 32, a line component 3210 may be included in an image 3200 in which a surface component is removed and composed only of line components. Therefore, the server performs the process of removing the line component by the character.

예를 들어, 서버는 각 선 성분의 시작점과 끝점을 파악하고, 시작점과 끝점이 모두 글자 영역 내에 존재하면 이들 선 성분(3210)을 제거한다. 글자 영역은 문자 인식 과정을 통해 파악되는 등 앞서 살핀 다양한 방법을 이용하여 파악될 수 있다. For example, the server grasps the start and end points of each line component and removes these line components (3210) if both the start and end points are within the text area. The character area can be grasped by various methods such as the character recognition process.

도 33은 도 31의 선 성분을 데이터베이스의 비교 이미지와 비교하여 손상을 인식하는 방법의 일 예를 도시한 도면이다.33 is a diagram showing an example of a method of comparing a line component of FIG. 31 with a comparison image of a database to recognize a damage.

도 33을 참조하면, 손상 인식 모듈(105)은 도 32의 과정을 통해 추출한 선 성분을 포함하는 타이어 이미지(3310)와 데이터베이스로부터 추출한 비교대상 이미지(3300)를 비교하여 손상 여부를 판별한다.Referring to FIG. 33, the damage recognition module 105 compares the tire image 3310 including the line components extracted through the process of FIG. 32 with the comparison object image 3300 extracted from the database to determine whether the image is damaged.

손상 인식 모듈(105)은 먼저, 선 성분을 포함하는 타이어 이미지(3310)와 비교대상 이미지(3300)의 회전 각도나 크기 등을 정합한다. 예를 들어, 타이어 이미지는 차량의 무게 등으로 인하여 타원 형태인 반면, 데이터베이스에서 기 저장된 타이어 이미지는 공장 출고시의 타이어 이미지로서 원 형태일 수 있다. 또한 타이어 이미지 내 각 글자 영역과 같은 특징점들의 위치가 비교대상 이미지와 서로 상이한 위치에 존재할 수 있다.The damage recognition module 105 first matches the rotation angle or the size of the tire image 3310 including the line component and the comparison image 3300. For example, the tire image may be elliptical due to the weight of the vehicle, etc., while the tire image previously stored in the database may be in the form of a tire as a factory image. In addition, the positions of the minutiae such as each character region in the tire image may exist at positions different from the comparison image.

따라서 손상 인식 모듈(105)은 비교대상이미지(3300)와 선 성분을 포함하는 타이어 이미지(3310)의 크기와 모양, 회전 각도 등을 정합시키기 위하여 비교대상 이미지(3300) 또는 이미지 처리한 수신 이미지(3310)의 크기나 모양 등을 보정한다. The damage recognition module 105 compares the comparison image 3300 with the comparison image 3300 to match the size, shape, rotation angle, and the like of the tire image 3310 including the line component, 3310 are corrected.

그리고 서버는 정합된 두 이미지(3300,3310)를 비교하여 도 31에서 산출한 선 성분(2702,2704,2706)이 비교대상 이미지(3300)에 존재하는지 여부를 기초로 손상 여부를 판별한다. Then, the server compares the matched two images 3300 and 3310 and determines whether the line components 2702, 2704 and 2706 calculated in FIG. 31 are damaged in the comparison image 3300 or not.

도 35는 마모도 측정 모듈(106)의 일 실시 예의 구성을 도시한 도면이다.35 is a diagram showing a configuration of an embodiment of the wear rate measurement module 106. In Fig.

도 35를 참조하면, 마모도 측정 모듈(106)은 3D 이미지 생성부(3510), 트레드영역 검출부(3520) 및 마모도 측정부(3530)를 포함한다. 타이어 트레드에는 제동력과 구동력 향상 등을 위하여 깊은 홈이 파여 있다. 타이어 트레드는 도로 표면과 맞닿는 부분이므로 주행 거리가 늘어남에 따라 도 46과 같이 트레드(4600,4610)는 마모되어 홈의 깊이가 줄어들며, 이에 따라 제동력이 감소 되고 안전에 영향을 미친다. 운전자는 타이어 트레드의 깊이를 직접 측정하여 깊이가 얕아진 경우에 타이어를 교체하여야 하는데, 타이어 교체 시기를 좀 더 용이하게 알려주시기 위하여 종래의 타이어 트레드 옆에 삼각형 표시가 존재한다. 그러나 사용자가 직접 타이어 트레드의 깊이를 일일이 측정하여 교체 시기를 파악하여는 불편함이 존재하며, 일부 운전자는 타이어 트레드의 마모도가 타이어를 교체할 정도인지 파악하는 방법조차 인지하지 못하는 경우가 있다. 실시 예에 따른 마모도 측정 모듈(106)은 사용자가 카메라 등을 통해 촬영한 타이어 트레드 부분의 동영상 이미지를 기초로 타이어 마모도를 용이하게 측정할 수 있도록 한다. 사용자는 타이어 트레드 홈의 깊이를 일일이 측정할 필요없이 스마트폰 등의 카메라를 통해 타이어 동영상 이미지를 촬영함으로서 타이어 마모도를 용이하게 파악할 수 있다. 또한 측정된 타이어 마모도를 기초로 타이어 교체 시기 등을 알려줄 수 있다. 또한 타이어 교체 시기가 된 경우, 해당 타이어의 정보를 함께 제공할 수 있다.35, the wear rate measurement module 106 includes a 3D image generation unit 3510, a tread region detection unit 3520, and a wear rate measurement unit 3530. The tire tread has deep grooves for improving braking force and driving force. Since the tire tread abuts against the surface of the road, the travel distance increases. As a result, the treads 4600 and 4610 are worn as shown in FIG. 46, thereby reducing the depth of the grooves, thereby reducing the braking force and affecting safety. The driver must directly measure the depth of the tire tread to replace the tire when the depth is shallow. There is a triangle mark next to the conventional tire tread to more easily inform the tire replacement time. However, it is inconvenient for the user to individually measure the depth of the tire tread to determine the replacement timing, and some drivers may not even know how to determine whether the wear of the tire tread is enough to replace the tire. The wear measurement module 106 according to the embodiment allows the user to easily measure tire wear on the basis of a moving image of a tire tread portion taken by a user via a camera or the like. The user can easily grasp tire wear by photographing a tire moving image through a camera such as a smart phone without having to individually measure the depth of the tire tread groove. It is also possible to inform the timing of tire replacement based on the measured tire wear. Also, when the tire replacement period has come, information on the tire can be provided together.

3D 이미지 생성부(3510)는 동영한 이미지를 3차원 형상의 이미지로 생성한다. 각각 다른 방향에서 촬영된 2차원 이미지로부터 발생하는 양안시차를 이용하여 3차원 형상의 이미지를 생성할 수 있다. 따라서 3D 이미지 생성부(3510)는 동영상 이미지를 복수의 정지 이미지로 분리한 후 정지 이미지들 사이의 양안시차를 이용하여 3차원 형상의 이미지를 생성한다. The 3D image generating unit 3510 generates the 3D image of the video image. An image of a three-dimensional shape can be generated using the binocular parallax generated from two-dimensional images taken in different directions. Accordingly, the 3D image generating unit 3510 separates the moving image into a plurality of still images, and then generates a three-dimensional image using the binocular parallax between the still images.

보다 구체적으로, 3D 이미지 생성부(3510)는 타이어 트레드에 대한 동영상 이미지를 복수의 정지 이미지로 분리하고, 각 정지 이미지 사이의 화소별 대응관계를 파악하고, 파악된 화소별 대응관계를 기초로 촬영 각도와 거리 등에 관한 촬영 파라미터를 파악하고, 파악된 촬영 파리미터를 기초로 각 화소별 깊이를 파악하여 트레드 영역에 대한 3차원 형상의 이미지를 생성한다. 3차원 형상 이미지의 생성 방법에 대해서는 도 37 및 38에 도시되어 있다.More specifically, the 3D image generation unit 3510 separates the moving image for the tire tread into a plurality of still images, grasps the correspondence relation between pixels of each still image, Capturing parameters relating to angles, distances, and the like are acquired, and the depth of each pixel is grasped on the basis of the captured image parameters, thereby generating a three-dimensional image of the tread area. A method of generating a three-dimensional shape image is shown in Figs. 37 and 38. Fig.

트레드 영역 검출부(3520)는 3차원 형상의 이미지에서 트레드 영역의 표면 영역과 홈 영역을 구분하고 검출한다. 예를 들어, 3차원 형상의 이미지에서 트레드 홈 영역과 표면 영역 사이의 모서리는 곡률이 다른 영역에 비해 매우 크므로, 트레드 영역 검출부(3520)는 3차원 형상의 이미지 내 각 화소들에 대한 곡률을 분석하여 모서리 영역을 검출하고, 검출된 모서리 영역을 기준으로 트레드 홈 영역과 표면 영역을 구분한다. The tread area detecting unit 3520 detects and detects the surface area and the groove area of the tread area in the three-dimensional image. For example, since the corner between the tread groove region and the surface region in the three-dimensional image is much larger than the curvature in the other regions, the tread region detecting unit 3520 detects the curvature of each pixel in the three- The edge region is detected, and the tread groove region and the surface region are distinguished based on the detected corner region.

마모도 측정부(3530)는 트레드 영역 검출부(3520)에 의해 검출된 트레드 홈 영역과 표면 영역 사이의 깊이를 파악하여 마모도를 측정한다. 일 예로, 마모도 측정부(3530)는 3차원 형상 이미지에서 트레드 홈 영역과 표면 영역을 평면 근사 알고리즘을 이용하여 근사 평면으로 보정한 후, 근사 평면을 기초로 트레드 홈 깊이를 파악할 수 있다. 또 다른 예로, 타이어 마모도가 트레드 홈 위치에 따라 서로 상이할 수 있으므로, 마모도 측정부(3530)는 트레드 홈 영역을 다수의 구간으로 구분한 후 각 구간별로 홈 깊이를 파악하고, 가장 깊은 곳을 기준으로 타이어 마모도를 측정할 수 있다. 3차원 형상 이미지에 나타난 타이어 크기와 실제 타이어 크기가 상이할 수 있으며, 이 경우 3차원 형상 이미지로부터 구한 트레드 홈 깊이의 크기만으로 정확한 마모도의 측정이 어려울 수 있다.The wear rate measuring unit 3530 measures the wear degree by grasping the depth between the tread groove area and the surface area detected by the tread area detecting unit 3520. [ For example, the wear rate measuring unit 3530 may correct the tread groove region and the surface region in the three-dimensional shape image to an approximate plane using a planar approximation algorithm, and then grasp the depth of the tread groove based on the approximate plane. As another example, since the tire wear rate can be different from each other depending on the tread groove positions, the wear rate measuring unit 3530 divides the tread groove region into a plurality of sections, and then grasps the groove depth for each section, The tire wear rate can be measured. The tire size and the actual tire size may differ from each other. In this case, it may be difficult to accurately measure the wear amount only by the depth of the tread groove obtained from the three-dimensional shape image.

이를 위하여, 마모도 측정부(3530)는 3차원 형상 이미지로부터 구한 트레드 홈 깊이의 크기를 실제 타이어 크기로 보정하거나, 또는 트레드 홈 깊이를 3차원 형상 이미지 내 트레드 폭 등과의 비율 값으로 파악하여 마모도를 측정할 수 있다. For this purpose, the wear rate measuring unit 3530 corrects the tread groove depth obtained from the three-dimensional shape image to the actual tire size or grasps the tread groove depth as a ratio of the tread width in the three-dimensional shape image, Can be measured.

예를 들어, 트레드 홈 깊이의 크기를 타이어 크기로 보정하고자 하는 경우, 마모도 측정부(3530)는 실제 타이어의 트레드 폭 또는 트레드 사이 간격 등과 3차원 형상의 이미지 내 트레드 폭 또는 트레드 사이 간격 사이의 비례 크기만큼 트레드 홈 깊이의 크기를 보정한다. For example, when the tread depth depth is to be corrected to the tire size, the wear rate measuring unit 3530 measures the tread width or tread spacing of the actual tire and the tread width of the three- Correct the size of the tread groove depth by the size.

도 36은 또 다른 실시 예에 따른 타이어 마모도를 측정하는 방법의 일 예를 도시한 흐름도이다.FIG. 36 is a flowchart showing an example of a method of measuring the tire wear rate according to another embodiment.

도 36을 참조하면, 단계 3600에서, 마모도 측정 모듈(106)은 타이어 트레드 부분에 대한 동영상을 획득한다. 단계 3610에서, 마모도 측정 모듈(106)은 타이어 동영상 이미지를 이용하여 타이어 트레드 영역에 대한 3차원 형상의 이미지를 생성한다. 그리고 단계 3620에서, 마모도 측정 모듈(106)은 3차원 형상의 이미지로부터 트레드 홈 깊이를 파악하여 마모도를 측정한다.Referring to FIG. 36, in step 3600, the wear rate measurement module 106 obtains a moving picture about a tire tread portion. In step 3610, the wear rate measurement module 106 generates a three-dimensional image of the tire tread area using the tire moving image. Then, in step 3620, the wear measurement module 106 determines the depth of the tread groove from the image of the three-dimensional shape and measures the wear degree.

도 37은 또 다른 실시 예에 따른 타이어 마모도 측정을 위해 동영상 이미지로부터 3차원 형상의 이미지를 생성하는 방법의 일 예를 도시한 흐름도이고, 도 38은 복수의 정지 이미지들의 2차원 좌표를 3차원 공간의 공간좌표로 변환하는 일 예를 도시한 도면이다.37 is a flowchart illustrating an example of a method of generating a three-dimensional image from a moving image for tire wear measurement according to another embodiment, and FIG. 38 is a flowchart illustrating an example of a method of generating a three- Into spatial coordinates of the image plane.

도 37을 참조하면, 단계 3700에서, 마모도 측정 모듈(106)은 동영상을 복수의 정지 이미지로 분리한다. 단계 3710에서, 마모도 측정 모듈(106)은 복수의 정지 이미지들 사이의 화소별 대응관계를 파악한다. 예를 들어, 도 38을 참조하면, 객체를 서로 다른 위치에서 촬영한 단말기(110)에 의해 생성된 이미지들의 특정 위치의 화소, 즉 k-1번째 정지 이미지(3800)의 한 화소, Pj ,k-1이 k번째 정지 이미지(3802)의 화소 Pj ,k, k+1번째 정지 이미지(3804)의 화소 Pj ,k+ 1가 서로 대응된다면, 이들 각 화소의 대응관계를 계산하여 저장한다. 이를 일반적으로 스테레오 매칭이라고 한다. 본 실시 예에서, 정지 이미지들 사이의 특징점(3810)들을 파악하여 정지 이미지 사이의 화소별 매칭 관계를 파악하는 종래의 다양한 방법이 적용될 수 있다. Referring to FIG. 37, in step 3700, the wear rate measurement module 106 divides a moving image into a plurality of still images. In step 3710, the wear measurement module 106 grasps the pixel-by-pixel correspondence between the plurality of still images. For example, referring to Figure 38, an object for each pixel of a particular position of an image generated by the terminal 110 taken at different locations, that is, k-1 of the pixel of the second still image (3800), P j, If k-1 is the pixel P j, k + 1 of the k-th still image 3802 pixels P j, k, k + 1-th still image 3804 in correspondence with each other, and stores the calculation of these correspondence relationship between each pixel . This is commonly referred to as stereo matching. In the present embodiment, various conventional methods of grasping feature points 3810 between still images and grasping the pixel-by-pixel matching relationship between still images can be applied.

단계 3720에서, 마모도 측정 모듈(106)은 복수의 정지 이미지들 사이의 화소별 대응관계를 기초로 각 정지 이미지가 촬영될 때의 단말기(즉, 단말기의 카메라)의 위치에 대한 상대적인 관계를 계산한다. 다시 말해, 마모도 측정 모듈(106)은 정지 이미지들 사이의 화소별 대응관계를 기초로 각 정지 이미지의 촬영시의 측정 파라미터(카메라 초점거리, 촬영 각도, 카메라 위치 등)를 역으로 산출한다. In step 3720, the wear measurement module 106 calculates a relative relationship to the position of the terminal (i.e., the camera of the terminal) when each still image is captured based on the pixel-by-pixel correspondence between the plurality of still images . In other words, the wear rate measurement module 106 reversely calculates measurement parameters (camera focal length, photographing angle, camera position, etc.) at the time of photographing each still image based on the pixel-by-pixel correspondence relationship between still images.

단계 3730에서, 마모도 측정 모듈(106)은 정지 이미지들의 화소별 양안시차 및 촬영 방향과 위치를 기초로 삼각측량법 등을 이용하여 각 화소가 삼차원 공간상의 어떤 점에 해당하는지 공간 좌표를 파악하고, 이러한 공간좌표들의 점들을 모두 모아 3차원 공간상의 이미지를 생성한다. In step 3730, the wear measurement module 106 determines the spatial coordinates of each point on the three-dimensional space based on the binocular parallax, the photographing direction, and the position of each pixel of the still images using the triangulation method or the like. And collects all the points of the spatial coordinates to generate an image on the three-dimensional space.

예를 들어, 도 38을 참조하면, 객체(3830)에 대한 k-1 정지이미지(3800), k 정지이미지(3802), k+1 정지이미지(3804) 사이에 대응되는 특징점(3810)에 대한 각 화소 Pk ,k-1, Pj ,k, Pj ,k+ 1를 파악하고, 각 정지 이미지의 촬영 위치 및 촬영 각도를 파악한 후, 이들 각 화소에 대해 삼각측량법을 이용하여 공간상의 어떤 점에 대응되는지 파악하여 공간좌표(3820)를 획득할 수 있다. 이러한 공간좌표들의 점들을 연결하면 3차원 이미지가 생성된다. 38, for a feature point 3810 corresponding to a k-1 still image 3800, k still image 3802, k + 1 still image 3804 for an object 3830, After capturing each of the pixels P k , k-1 , P j , k , P j , k + 1 and capturing position and angle of each still image, The spatial coordinates 3820 can be obtained. By connecting the points of these spatial coordinates, a three-dimensional image is generated.

타이어 트레드에 대한 동영상 이미지를 촬영하는 경우에 단말의 촬영위치에 움직임이 생기며, 이러한 촬영위치의 움직임에 따라 획득된 동영상 이미지 내 복수의 정지 이미지들은 양안시차를 가지게 된다. 도 37은 이러한 동영상 이미지 내 양안시차를 가지는 복수의 정지 이미지들로부터 3차원 이미지를 생성하는 방법의 일 예를 도시한 것이며, 본 실시 예들은 도 37의 방법에 한정되지 아니하며, 종래의 다양한 3차원 이미지 생성 방법을 이용할 수 있음은 물론이다.When a moving image of a tire tread is photographed, a motion occurs at a photographing position of the terminal, and a plurality of still images in the moving image obtained according to the motion of the photographing position have binocular parallax. 37 shows an example of a method of generating a three-dimensional image from a plurality of still images having binocular parallax in the moving image, and these embodiments are not limited to the method of Fig. 37, It is needless to say that an image generation method can be used.

도 39는 타이어 트레드 동영상으로부터 획득한 3차원 형상의 이미지의 일 예를 도시한 도면이다.39 is a view showing an example of an image of a three-dimensional shape acquired from a tire tread moving picture.

도 39를 참조하면, 마모도 측정 모듈(106)은 동영상 이미지를 복수의 정지 이미지로 분리하고, 복수의 정지 이미지들에 대한 카메라의 상대적인 위치, 촬영 각도를 파악함으로써, 복수의 카메라(3900)에 의해 촬영된 것과 같이 양안시차를 가진 복수의 정지 이미지를 얻을 수 있다. 39, the wear rate measurement module 106 separates a moving image into a plurality of still images, and obtains a relative position and a photographing angle of the plurality of still images with respect to the plurality of still images, It is possible to obtain a plurality of still images having binocular parallax as captured.

마모도 측정 모듈(106)은 양안시차를 가진 복수의 정지 이미지들을 기초로 타이어 드레드 영역에 대한 3차원 형상의 이미지(3910)를 생성한다. The wear measurement module 106 generates a three-dimensional shaped image 3910 for the tire dread area based on a plurality of still images with binocular parallax.

도 40은 생성된 3차원 형상의 이미지로부터 타이어 트레드 마모도를 측정하는 구체적인 방법의 일 예를 도시한 흐름도이다.FIG. 40 is a flowchart showing an example of a concrete method of measuring tire tread wear from an image of the generated three-dimensional shape.

도 40을 참조하면, 단계 4000에서, 마모도 측정 모듈(106)은 도 39와 같은 3차원 형상의 이미지를 획득하면, 먼저 3차원 형상의 이미지 내 각 화소의 곡률을 분석한다. 단계 4010에서, 마모도 측정 모듈(106)은 곡률 크기가 유사하고 상호 거리가 일정 범위 내의 화소들을 연결한다. 각 화소의 곡률 크기별로 구분된 각 영역을 색깔로 구분하여 표시한 일 예가 도 41에 도시되어 있다. 각 영역을 구분하기 위한 곡률 크기의 범위는 실시 예에 따라 다양하게 설정가능하다. Referring to FIG. 40, in step 4000, the wear rate measurement module 106 obtains an image of a three-dimensional shape as shown in FIG. 39, and first analyzes the curvature of each pixel in the image of the three-dimensional shape. In step 4010, the wear rate measurement module 106 connects pixels within a certain range of curvature magnitude similarities and mutual distances. FIG. 41 shows an example in which each area classified by the curvature size of each pixel is color-coded and displayed. The range of the curvature size for distinguishing each region can be variously set according to the embodiment.

예를 들어, 기 설정된 임계값보다 큰 곡률 크기를 가진 화소들을 서로 연결하는 경우 3차원 형상의 이미지에서 표면 영역과 홈 영역 사이의 모서리 영역(4110)이 검출된다. 또한 곡률이 거의 0에 가까운 화소들을 연결하면 평면 형태인 표면 영역과 홈 영역이 검출된다. 그러나 3차원 형상 이미지의 각 화소별 곡률 크기를 이용하여 각 영역을 구분하면 도 41과 같이 작은 잡음 영역들이 생길 수 있다. 이러한 잡음 영역들의 크기는 표면 영역이나, 홈 영역, 모서리 영역의 크기보다 상대적으로 매우 작으므로, 기 설정된 일정 크기 이하의 영역들을 제거하는 과정을 통해 잡음 영역을 제거할 수 있다. 다시 말해, 도 41과 같이 표면 영역에 나타나는 일정 크기 이하의 영역들을 모두 큰 영역에 흡수시켜 고른 평면을 만들 수 있다.For example, when connecting pixels having a curvature size larger than a preset threshold value, an edge region 4110 between the surface region and the groove region is detected in a three-dimensional image. In addition, when the pixels having a curvature close to zero are connected, a planar surface region and a groove region are detected. However, if each region is divided using the curvature magnitude of each pixel of the three-dimensional shape image, small noise regions may be generated as shown in FIG. Since the size of the noise regions is relatively smaller than the size of the surface region, the groove region, and the edge region, the noise region can be removed by removing regions having a predetermined size or smaller. In other words, as shown in FIG. 41, it is possible to absorb all of the regions of a predetermined size or less appearing in the surface region into a large region to form a uniform plane.

단계 4020에서, 마모도 측정 모듈(106)은 곡률이 가장 큰 영역, 즉 모서리 영역(4110)을 기준으로 트레드 홈 영역(4120)과 표면 영역(4100)을 구분한다. 단계 4030에서, 마모도 측정 모듈(106)은 트레드 홈 영역(4120)의 깊이를 기초로 타이어 마모도를 바로 구할 수도 있으나, 트레드 마모도가 트레드 홈 영역(4120)의 측정 위치마다 다를 수 있는 점 등을 고려하여 트레드 홈 영역을 복수의 구간으로 구분한다.In step 4020, the wear rate measurement module 106 distinguishes the tread groove area 4120 and the surface area 4100 with respect to the area with the largest curvature, i.e., the edge area 4110. In step 4030, the wear measurement module 106 may directly determine the tire wear rate based on the depth of the tread groove area 4120, but may consider that the tread wear rate may differ from measurement position to tread groove area 4120 Thereby dividing the tread groove region into a plurality of sections.

트레드 홈 영역을 복수의 구간으로 구분하기 위한 다양한 방법이 존재할 수 있다. 일 예로, 도 42를 참조하면, 트레드 홈 영역의 방향과 폭을 기준으로 다수의 구간으로 구분할 수 있다. 구체적으로, 마모도 측정 장치는 트레드 홈 영역(4120)의 방향에 대한 중간축(4200,4210,4220)을 파악하고, 중간축(4200, 4291,4292)에 수직인 방향벡터(4230,4240,4250)를 기초로 각 트레드 홈의 폭을 파악한다. 그리고 마모도 측정 장치는 방향과 폭을 기준으로 트레드 홈 영역을 다수의 구간(4260,4262,4264,4266,4268,4270,4272)으로 구분할 수 있다.There can be various methods for dividing the tread groove region into a plurality of sections. For example, referring to FIG. 42, it can be divided into a plurality of sections based on the direction and width of the tread groove region. Specifically, the wear measurement device identifies the intermediate axes 4200, 4210, and 4220 with respect to the direction of the tread groove region 4120 and detects the direction vectors 4230, 4240, 4250 perpendicular to the intermediate axes 4200, The width of each tread groove is determined. In addition, the wear measuring apparatus can divide the tread groove region into a plurality of sections (4260, 4262, 4264, 4266, 4268, 4270, 4272) on the basis of the direction and width.

예를 들어, 도 42에서 왼쪽 세로 방향의 트레드 홈 부분에 대한 중간축에 수직인 방향의 폭을 살펴보면, 가운데 부분의 영역이 상대적으로 크므로, 이러한 폭을 기준으로 세 부분(4260,4262,4264)으로 구분할 수 있다. 나머지 영역도 폭 등을 기준으로 각 영역별 구분이 가능하다. 이 외 트레드 홈 영역(4120)을 일정 면적이나 일정 길이 단위로 구분하는 등 다른 다양한 방법을 통해 트레드 홈 영역을 구분하는 것도 가능하다. For example, if we look at the width in the direction perpendicular to the intermediate axis with respect to the tread groove portion in the left vertical direction in FIG. 42, since the area in the middle portion is relatively large, three portions (4260, 4262, ). The remaining areas can be classified by each area based on the width. It is also possible to divide the tread groove region by various other methods such as dividing the outer tread groove region 4120 by a certain area or a predetermined length unit.

마모도 측정 모듈(106)은 트레드 홈 영역(4120)과 표면 영역(4100)을 근사 평면으로 보정할 수 있다. 예를 들어, 도 45를 참조하면, 마모도 측정 장치는 최소자승법(Least Squares Fitting) 등과 같은 평면 근사 알고리즘을 이용하여 표면 영역과 홈 영역 등의 표면을 근사 평면(4500)으로 만들 수 있다.The wear measurement module 106 may correct the tread groove area 4120 and the surface area 4100 to an approximate plane. For example, referring to FIG. 45, an abrasion measuring apparatus can make a surface of a surface region and a groove region into an approximate plane 4500 by using a planar approximation algorithm such as Least Squares Fitting.

단계 4050에서, 마모도 측정 모듈(106)은 포면 영역으로부터 홈 영역의 깊이를 파악한다. 예를 들어, 도 43과 같이 3차원 형상 이미지(4300)의 표면 영역과 트레드 홈 영역이 구분되면, 도 44와 같이 표면으로부터 홈의 깊이를 파악할 수 있다. 또는 표면 영역과 트레드 홈 영역을 구분하는 모서리 영역(4110)의 길이를 파악하여 홈의 깊이를 파악할 수 있다. 만약, 도 45와 같이 근사 평면(4500)을 구한 경우라면 그 근사 평면을 기초로 홈 영역의 깊이를 파악할 수 있다. 또한 도 42와 같이 트레드 홈 영역을 다수의 구간(4260~4272)으로 구분한 경우라면, 각 구간에 대해 홈 영역의 깊이를 파악한 후 가장 깊은 곳을 타이어 트레드의 홈 깊이로 할 수 있다.At step 4050, the wear rate measurement module 106 determines the depth of the groove area from the top surface area. For example, if the surface area of the three-dimensional shape image 4300 is separated from the tread groove area as shown in FIG. 43, the depth of the groove from the surface can be grasped as shown in FIG. Or the depth of the groove can be grasped by grasping the length of the edge area 4110 that distinguishes the surface area from the tread groove area. If the approximate plane 4500 is found as shown in Fig. 45, the depth of the groove region can be grasped based on the approximate plane. If the tread groove region is divided into a plurality of regions 4260 to 4272 as shown in FIG. 42, the depth of the groove region may be determined for each region, and then the depth of the tire tread may be the deepest region.

단계 4060에서, 마모도 측정 모듈(106)은 트레드 홈 영역의 깊이를 기초로 타이어의 마모도가 어느 정도 인지 파악한 후 타이어 교체 여부나 교체 시기에 대한 정보를 산출하여 단말기에 제공할 수 있다. 3차원 형상의 이미지 내 타이어 크기와 실제 타이어 크기는 일정한 비례관계에 있으므로, 마모도 측정 장치는 3차원 형상의 이미지로부터 구한 홈 깊이를 그대로 사용하는 것이 아니라 실제 타이어 크기로 보정하여 타이어 마모도를 측정할 수 있다. In step 4060, the wear measurement module 106 determines the degree of wear of the tire based on the depth of the tread groove area, and then calculates information on whether or not the tire is to be replaced or replaced, and provides the information to the terminal. Since the tire size in the image of the three-dimensional shape and the actual tire size are in a constant proportional relationship, the wear measuring apparatus can measure tire wear by correcting the actual tire size instead of using the groove depth obtained from the image of the three- have.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 다양한 형태의 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can also be embodied as computer-readable codes on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include various types of ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like. The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.The present invention has been described with reference to the preferred embodiments. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

Claims (20)

휴대 단말기를 이용한 타이어 정보 제공 방법에 있어서,
타이어 정보 제공 시스템에서 제공하는 검색 메뉴 중 이미지 검색에 대한 선택 신호를 수신하는 단계;
상기 수신된 선택 신호에 응답하여, 상기 휴대 단말기의 카메라 모듈을 구동시키는 단계;
소정의 타이어를 촬영하여 타이어 이미지를 획득하는 단계;
상기 획득된 타이어 이미지를 분석하는 단계; 및
상기 분석 결과에 따른 상기 타이어 정보를 제공하는 단계를 포함하고,
상기 분석 단계는,
상기 타이어 이미지 내 원형의 타이어 부분을 일자형태 이미지로 변환하는 단계; 상기 일자형태 이미지 내 인식대상 글자영역을 추출하는 단계; 및 기 구축된 학습 글자 군에서 상기 추출한 인식대상 글자영역과 가장 유사한 학습 글자를 상기 인식대상 글자영역의 글자로 파악하는 단계를 포함하고,
상기 일자형태 이미지로 변환하는 단계는,
상기 이미지 내 원형의 타이어 부분을 추출하고, 상기 타이어 부분 내 휠 영역에 대응되는 원 또는 타원의 원주에 직각한 직선에 대응되는 직선 이미지들을 동일방향으로 재배치하여 상기 일자형태의 타이어 이미지를 획득하거나,
상기 이미지 내 원형의 타이어 부분을 추출하고, 상기 원형의 타이어 부분에서 휠 부분을 제거하고, 상기 휠 부분이 제거된 타이어 부분을 상기 일자형태 이미지로 변환하거나,
상기 이미지 촬영시 제공된 가이드라인을 기초로 상기 타이어 부분을 포함하는 일정 영역을 추출하고, 상기 추출된 영역을 일자형태 이미지로 변환하는 것을 특징으로 하는 타이어 정보 제공 방법.
A method for providing tire information using a portable terminal,
Receiving a selection signal for an image search among search menus provided by a tire information providing system;
Driving a camera module of the portable terminal in response to the received selection signal;
Capturing a predetermined tire to obtain a tire image;
Analyzing the obtained tire image; And
And providing the tire information according to the analysis result,
Wherein the analyzing step comprises:
Converting a circular tire portion in the tire image into a linear image; Extracting a recognition target character region in the date image; And recognizing the learning character most similar to the extracted recognition target character area as the character of the recognition target character area in the group of the learned learning characters,
Wherein the step of converting into the date-
Extracting a circular tire portion in the image and rearranging straight images corresponding to a straight line perpendicular to the circumference of the circle or ellipse corresponding to the wheel region in the tire portion in the same direction to obtain the straight tire image,
Extracting a circular tire portion in the image, removing the wheel portion from the circular tire portion, converting the tire portion from which the wheel portion is removed into the linear image,
Extracting a certain region including the tire portion based on a guide line provided at the time of image capturing, and converting the extracted region into a linear image.
제 1 항에 있어서,
상기 타이어 정보는,
상기 타이어와 동일하거나 유사한 타이어에 관한 타이어 상품 정보, 상기 타이어의 손상 정보, 상기 타이어의 마모도 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
The tire information includes:
Wherein the tire information includes at least one of tire product information related to tires identical or similar to the tire, damage information of the tire, and wear resistance information of the tire.
제 2 항에 있어서,
상기 타이어 상품 정보는,
제조사, 상품명, 사이즈, 제품기능, 제조일자, 오프라인 가격, 온라인 가격, 가격 비교 정보, 공장도 가격, 교체 여부 판단정보, 리뷰 정보, 선호도 정보 및 이벤트 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
3. The method of claim 2,
The tire product information may include:
Wherein the information includes at least one of a manufacturer, a product name, a size, a product function, a manufacturing date, an offline price, an online price, price comparison information, factory price, replacement determination information, review information, Information delivery method.
삭제delete 삭제delete 제 1 항에 있어서,
상기 일자형태 이미지로 변환하는 단계는,
상기 타이어 이미지의 촬영시 제공된 가이드라인을 기초로 추출된 원형의 타이어 부분을 일자형태 이미지로 1차 변환하는 단계;
상기 제1 일자형태의 이미지에서 인텐서티를 기준으로 휠 영역의 경계를 산출하는 단계; 및
상기 경계를 기초로 상기 타이어 이미지 내 원형의 타이어 부분을 다시 추출하여 일자형태 이미지로 2차 변환하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
Wherein the step of converting into the date-
Converting the extracted circular tire portion into a linear image based on a guideline provided at the time of shooting the tire image;
Calculating a boundary of the wheel region based on the intensity of the image of the first date format; And
Extracting a tire portion of a circular shape in the tire image based on the boundary, and performing a second transformation on the tire image into a linear shape image.
제 6 항에 있어서,
상기 휠 영역의 경계를 산출하는 단계는,
상기 일자형태 이미지의 각 선들에 대해 방향에 따른 가중치를 부여하는 단계; 및
상기 일자형태 이미지에서 인텐서티를 기준으로 구분되는 각 영역의 경계선을 구하는 단계; 및
상기 각 영역의 경계선으로 이루어진 경로 이미지에 상기 방향에 따른 가중치를 적용하여 상기 경로 이미지의 양단을 연결하는 최단 경로를 산출하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 6,
Wherein the step of calculating the boundaries of the wheel regions comprises:
Assigning a weight to each line of the image in the form of a direction; And
Obtaining a boundary line of each area based on intensities in the date image; And
And calculating a shortest path connecting both ends of the path image by applying a weight according to the direction to the path image formed by the boundary lines of the respective regions.
제 7 항에 있어서,
상기 2차 변환하는 단계는,
상기 최단 경로를 원형의 이미지로 변환하는 단계;
상기 원형의 이미지 내 최단 경로를 원 또는 타원으로 보정하는 단계;
상기 보정된 원 또는 타원을 기초로 상기 이미지 내 타이어 부분을 다시 추출하는 단계; 및
상기 다시 추출된 타이어 부분을 일자형태의 타이머 이미지로 변환하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
8. The method of claim 7,
Wherein the step of performing the second-
Converting the shortest path to a circular image;
Correcting the shortest path in the circular image to a circle or an ellipse;
Extracting the tire portion in the image based on the corrected circle or ellipse; And
And converting the re-extracted tire portion into a date-type timer image.
제 1 항에 있어서,
상기 글자 영역을 추출하는 단계는,
상기 일자형태의 이미지에서 질감, 패턴, 에지 중 적어도 하나의 특징을 이용하여 각 글자 영역을 추출하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
Wherein the step of extracting the character region comprises:
And extracting each character region using at least one of a texture, a pattern, and an edge in the image in the form of a date.
제 1 항에 있어서,
상기 글자 영역을 추출하는 단계는,
상기 일자형태 이미지에 엔트로피 필터를 적용하는 단계;
상기 엔트로피 필터를 적용한 결과 이미지에 적응적 임계값을 이용하여 흑과 백의 영역으로 구성된 이진 이미지를 획득하는 단계;
상기 이진 이미지에서 기 설정된 크기 이하의 잡음영역을 제거하는 단계; 및
상기 잡음영역이 제거된 이미지 내 인식대상 글자영역을 추출하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
Wherein the step of extracting the character region comprises:
Applying an entropy filter to the linear image;
Acquiring a binary image composed of regions of black and white using an adaptive threshold value for an image obtained by applying the entropy filter;
Removing noise regions of a predetermined size or less from the binary image; And
And extracting the recognition target character region in the image from which the noise region has been removed.
제 1 항에 있어서, 상기 글자를 파악하는 단계는,
상기 인식대상 글자영역에 적어도 하나 이상의 필터를 적용하여 특징정보를 획득하는 단계; 및
학습 글자 군에 대해 상기 적어도 하나 이상의 필터를 적용하여 기 구축한 글자별 특징 정보와 상기 인식대상 글자영역의 특징정보를 비교하여, 가장 유사한 특징정보를 가진 학습 글자를 상기 인식대상 글자영역에 포함된 글자로 파악하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method as claimed in claim 1,
Acquiring feature information by applying at least one filter to the recognition target character region; And
The learning character group is compared with the characteristic information of the character region to be recognized by applying the at least one filter to the learning character group to determine the learning character having the most similar character information as the character region included in the recognition target character region And recognizing the tire information as a character.
제 1 항에 있어서,
상기 카메라 모듈이 구동된 후,
상기 휴대 단말기의 화면에 적어도 하나 이상의 가이드라인을 표시하는 단계;
상기 카메라 모듈을 통해 획득된 타이어 이미지를 상기 화면에 표시하는 단계를 포함하고,
상기 적어도 하나 이상의 가이드라인은,
원형의 제1 가이드라인과 상기 제1 가이드라인 내에 상기 제1 가이드라인보다 작은 지름을 가진 원형의 제2 가이드라인을 포함하고,
상기 휴대 단말기의 기울기 또는 상기 카메라 모듈과 상기 타이어의 거리에 따라 상기 가이드라인의 모양을 적응적으로 변형하여 표시하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
After the camera module is driven,
Displaying at least one guide line on a screen of the portable terminal;
And displaying the tire image obtained through the camera module on the screen,
Wherein the at least one guide line comprises:
A first guide line having a circular shape and a circular second guide line having a smaller diameter than the first guide line in the first guide line,
Wherein the shape of the guide line is adaptively modified according to a tilt of the portable terminal or a distance between the camera module and the tire.
제 1 항에 있어서,
상기 분석 단계는,
상기 타이어 이미지의 측면에 위치한 문자, 숫자, 기호 중 적어도 하나의 타이어 이미지 데이터를 이용하여 데이터베이스에서 비교대상 이미지 또는 상기 비교대상 이미지에 상응하는 비교대상 데이터를 검색하는 단계; 및
상기 타이어 이미지와 상기 비교대상 이미지의 차이 또는 상기 타이어 이미지 데이터와 상기 비교대상 데이터의 차이를 기초로 손상 여부를 판별하는 단계를 더 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
Wherein the analyzing step comprises:
Searching for a comparison target image or data to be compared corresponding to the comparison target image in the database using at least one of the characters, numbers, and symbols located on the side of the tire image; And
Further comprising determining whether the tire image is damaged based on a difference between the tire image and the comparison object or a difference between the tire image data and the comparison object data.
제 13 항에 있어서,
상기 비교대상 이미지를 검색하는 단계는,
상기 타이어 이미지 내 원형의 타이어 부분을 일자형태 이미지로 변환하는 단계;
상기 일자형태 이미지 내 인식대상 글자영역을 추출하는 단계;
기 구축된 학습 글자 군에서 상기 추출한 인식대상 글자영역과 가장 유사한 학습 글자를 상기 인식대상 글자영역의 글자로 파악하는 단계; 및
상기 파악된 글자를 기초로 상기 데이터베이스 내 비교대상 이미지를 검색하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
14. The method of claim 13,
Wherein the step of searching for the comparison-
Converting a circular tire portion in the tire image into a linear image;
Extracting a recognition target character region in the date image;
Recognizing the learning character most similar to the extracted recognition target character region as the character of the recognition target character region in the pre-established learning character group; And
And searching the comparison image in the database based on the identified character.
제 13 항에 있어서,
상기 분석 단계는,
상기 타이어 이미지 내 선 성분을 검출하는 단계;
상기 타이어 이미지 내 글자 영역을 검출하는 단계;
상기 검출된 선 성분에서 상기 글자 영역에 위치한 선 성분을 제거하는 단계; 및
상기 제거하는 단계 이후 남아 있는 선 성분을 기초로 손상 여부를 판별하는 단계를 더 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
14. The method of claim 13,
Wherein the analyzing step comprises:
Detecting a line component in the tire image;
Detecting a character region in the tire image;
Removing line components located in the character region from the detected line components; And
Further comprising the step of determining whether the tire is damaged based on the remaining line component after the removing step.
제 1 항에 있어서,
상기 타이어 이미지는 동영상이고,
상기 동영상을 기초로 타이어의 3차원 형상의 이미지를 생성하는 단계; 및
상기 3차원 형상의 이미지 내 트레드 영역의 깊이를 기초로 타이어 트레드의 마모도를 측정하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
The method according to claim 1,
The tire image is a moving image,
Generating an image of a three-dimensional shape of the tire based on the moving image; And
And measuring wear of the tire tread based on the depth of the tread area in the image of the three-dimensional shape.
제 16 항에 있어서,
상기 3차원 형상의 이미지를 생성하는 단계는,
상기 동영상 이미지를 복수의 정지 이미지 단위로 분리하는 단계;
복수의 정지 이미지들 사이의 화소별 대응관계를 파악하는 단계;
상기 화소별 대응관계를 통해 상기 동영상의 촬영시 각도 및 거리를 포함하는 파라미터를 파악하는 단계; 및
상기 파라미터를 기초로 복수의 정지 이미지 사이의 깊이 정보를 파악하여 타이어에 대한 3차원 형상 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
17. The method of claim 16,
Wherein the step of generating the three-
Separating the moving image into a plurality of still image units;
Recognizing a pixel-by-pixel correspondence relationship between the plurality of still images;
Determining a parameter including an angle and a distance at the time of photographing the moving picture through the pixel-by-pixel correspondence relationship; And
And generating a three-dimensional shape image for the tire by grasping depth information between the plurality of still images based on the parameter.
제 16 항에 있어서,
상기 마모도를 측정하는 단계는,
상기 3차원 형상의 이미지에 대한 곡률 분석을 기초로 트레드 홈 영역과 표면 영역을 검출하는 단계;
상기 검출된 표면영역으로부터 상기 홈 영역의 깊이를 파악하는 단계;
상기 파악된 깊이를 기초로 상기 타이어의 마모도를 인식하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
17. The method of claim 16,
Wherein the step of measuring the wear rate comprises:
Detecting a tread groove region and a surface region based on a curvature analysis of the image of the three-dimensional shape;
Determining a depth of the groove region from the detected surface region;
And recognizing wear of the tire based on the detected depth.
제 18 항에 있어서,
상기 트레드 홈 영역과 표면 영역을 검출하는 단계는,
상기 3차원 형상 이미지의 각 화소의 곡률을 분석하는 단계;
곡률이 기 설정된 범위 내에서 유사하고 상호 거리가 기 설정된 거리 범위 내인 화소들을 연결하여 생성된 영역 중 가장 큰 곡률을 가진 영역을 파악하는 단계; 및
상기 가장 큰 곡률을 가진 영역을 기준으로 분리되는 트레드 홈 영역과 표면 영역을 검출하는 단계를 포함하는 것을 특징으로 하는 타이어 정보 제공 방법.
19. The method of claim 18,
Wherein the step of detecting the tread groove region and the surface region comprises:
Analyzing a curvature of each pixel of the three-dimensional shape image;
Determining a region having a largest curvature among regions generated by connecting pixels having similar curvatures within a predetermined range and having mutual distances within a predetermined distance range; And
And detecting a tread groove region and a surface region separated on the basis of the region having the largest curvature.
제 1 항 내지 제 3 항, 제 6 항 내지 제 19 항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 저장한 기록매체.A recording medium storing a program for causing a computer to execute the method according to any one of claims 1 to 3 and 6 to 19.
KR1020150026915A 2015-02-26 2015-02-26 Method for providing tire information using a portable terminal KR101558486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150026915A KR101558486B1 (en) 2015-02-26 2015-02-26 Method for providing tire information using a portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150026915A KR101558486B1 (en) 2015-02-26 2015-02-26 Method for providing tire information using a portable terminal

Publications (1)

Publication Number Publication Date
KR101558486B1 true KR101558486B1 (en) 2015-10-07

Family

ID=54344130

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150026915A KR101558486B1 (en) 2015-02-26 2015-02-26 Method for providing tire information using a portable terminal

Country Status (1)

Country Link
KR (1) KR101558486B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345967A (en) * 2002-05-23 2003-12-05 Tire Net:Kk Tire sales system
KR101321504B1 (en) 2010-07-13 2013-10-28 요코하마 고무 가부시키가이샤 Tire information monitoring system and setting method for a tire information monitoring system
KR101425019B1 (en) * 2012-08-08 2014-08-06 아이오토 주식회사 System for providing tire change service through online

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345967A (en) * 2002-05-23 2003-12-05 Tire Net:Kk Tire sales system
KR101321504B1 (en) 2010-07-13 2013-10-28 요코하마 고무 가부시키가이샤 Tire information monitoring system and setting method for a tire information monitoring system
KR101425019B1 (en) * 2012-08-08 2014-08-06 아이오토 주식회사 System for providing tire change service through online

Similar Documents

Publication Publication Date Title
KR101556354B1 (en) Method for providing tire defect information using a portable terminal
CN107169405B (en) Method and device for living body identification based on binocular camera
US9818023B2 (en) Enhanced face detection using depth information
CN107545592B (en) Dynamic camera calibration
US9269009B1 (en) Using a front-facing camera to improve OCR with a rear-facing camera
US9483680B2 (en) Method of recognizing contactless fingerprint and electronic device for performing the same
US9792491B1 (en) Approaches for object tracking
US20110286640A1 (en) Rolled fingerprint acquisition apparatus and method for automatically detecting start and end of registration and synthesis
KR20180068578A (en) Electronic device and method for recognizing object by using a plurality of senses
KR102661590B1 (en) Apparatus and method for recognizing object in image
CN106851238A (en) Method for controlling white balance, white balance control device and electronic installation
US20120219177A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
EP2339507A1 (en) Head detection and localisation method
US9798946B2 (en) Systems and methods for optical recognition of tire specification
US9710707B1 (en) Detecting iris orientation
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
US20170277943A1 (en) Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method
KR101558487B1 (en) Method for providing tire information
EP3477537A1 (en) Body information analysis apparatus and method of simulating face shape by using same
CN109948630B (en) Target paper image identification method, device and system and storage medium
KR101961266B1 (en) Gaze Tracking Apparatus and Method
KR101556353B1 (en) Method for providing tire information using a portable terminal
CN109891459B (en) Image processing apparatus and image processing method
KR20120011533A (en) Detection system of road line using both laser sensor and camera
US20210350633A1 (en) Augmented reality system and anchor display method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180725

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190731

Year of fee payment: 5