KR20190127487A - Method for Providing Augmented Helmet Service Based on Mobile Web - Google Patents

Method for Providing Augmented Helmet Service Based on Mobile Web Download PDF

Info

Publication number
KR20190127487A
KR20190127487A KR1020180052152A KR20180052152A KR20190127487A KR 20190127487 A KR20190127487 A KR 20190127487A KR 1020180052152 A KR1020180052152 A KR 1020180052152A KR 20180052152 A KR20180052152 A KR 20180052152A KR 20190127487 A KR20190127487 A KR 20190127487A
Authority
KR
South Korea
Prior art keywords
user
information
helmet
head
distance
Prior art date
Application number
KR1020180052152A
Other languages
Korean (ko)
Inventor
고시라
김재형
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020180052152A priority Critical patent/KR20190127487A/en
Publication of KR20190127487A publication Critical patent/KR20190127487A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0621Item configuration or customization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method for providing an augmented helmet service based on a mobile web, which processes a user-specific helmet product to be customized and purchased. The method of the present invention comprises: a first step of checking whether a mobile web environment is driven; a second step of obtaining access authority for a camera unit of a user wireless terminal; a third step of recognizing a user head region; a fourth step of determining user head value information; a fifth step of receiving user head geometry structure information and the user head value information; a sixth step of generating 3D modeling data of a user-specific helmet product; a seventh step of checking user-specific helmet data; an eighth step of receiving the user-specific helmet data, and storing the same in a designated storage region; a ninth step of recognizing the user head region in real time; and a tenth step of augmenting a user head.

Description

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법{Method for Providing Augmented Helmet Service Based on Mobile Web}Method for Providing Augmented Helmet Service Based on Mobile Web {Method for Providing Augmented Helmet Service Based on Mobile Web}

본 발명은 모바일 웹 환경에서 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 머리와 일대일 매칭되는 사용자 전용 헬맷의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역에 중첩 표시하여 사용자의 머리를 증강한 후 사용자가 자신의 실제 머리에 꼭 맞는 자신만의 사용자 전용 헬맷제품을 주문하여 구매하도록 처리하는 것이다.The present invention reads one or more image data included in the image data input through the camera unit of the user wireless terminal in a mobile web environment to generate user-specific modeling data including 3D modeling data of the user-specific helmet to match one-to-one with the user's head After the user-specific helmet data generated by applying the designated helmet design to the user-specific modeling data is superimposed on the user's head region existing in the image data input through the camera unit, the user's head is augmented. It will be processed to order your own custom helmet products that fit the actual head.

헬맷은 오토바이, 자전거, 스케이트보드 등 사용자의 머리를 보호해야 할 필요가 있는 상황에서 착용하는 용구로서, 최근 기능적인 면 뿐만 아니라 디자인 측면도 부각되면서 패션 아이템으로 그 활용도가 넓어지고 있다. 종래의 헬맷 서비스는 사용자가 직접 오프라인 상점에 방문하여 착용해보고 헬맷을 구매하는 오프라인 방식으로 형태로 제공되어 있어 비용과 시간이 많이 소모되는 문제점을 지니고 있다.Helmet is a tool worn in a situation where it is necessary to protect a user's head such as a motorcycle, a bicycle and a skateboard. Recently, as the functional aspect as well as the design aspect are highlighted, the use of it is expanding as a fashion item. The conventional helmet service has a problem in that it is costly and time consuming because the user is provided in an offline manner in which the user visits the offline store and wears the helmet.

한편 오프라인 상점에 방문하지 않고 온라인을 통해 헬맷제품을 주문할 수 있는데, 이 경우 온라인을 통해 주문한 헬맷제품의 사이즈나 머리와 밀착하는 부위가 사용자의 머리 구조와 맞지 않는 경우가 비일비재하며, 설사 온라인을 통해 구매한 헬맷이 단순히 사용자의 머리 사이즈에 맞더라도 해당 헬맷제품을 착용하여 사용자가 원하는 수준의 미의 욕구를 해소하지 못하는 경우가 비일비재하게 발생하는 문제점을 지니고 있다.On the other hand, you can order a helmet product online without visiting the offline store, in which case the size of the helmet product ordered online or the part of the head that is in close contact with your head does not match your hair structure. Even if the purchased helmet is simply fit to the size of the user's head has a problem that occurs when the user does not solve the desire of beauty of the level desired by the user wearing the helmet product.

상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 모바일 웹 환경에서 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 머리 영역을 인식하여 상기 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성함과 동시에 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하고, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 상기 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역에 중첩 표시하여 사용자의 머리를 증강한 후 사용자가 자신의 실제 머리에 꼭 맞는 자신만의 사용자 전용 헬맷제품을 주문 제작하여 구매하도록 처리하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법을 제공함에 있다.An object of the present invention for solving the above problems is to read the one or more image data included in the image data input through the camera unit of the user wireless terminal in a mobile web environment to recognize the user's head region formed in the head region Generating user head geometry information by analyzing the geometry of the user head, and determining user head numerical information of the real world and one-to-one accumulation of the geometry of the user head formed in the head region, and determining the user head geometry information. And user-specific modeling data including 3D modeling data of a user-specific helmet product that is one-to-one matched with the user's actual head using one-to-one accumulation of user head numerical information, and apply a helmet design to user-specific modeling data. Generated yarn The custom helmet data is superimposed on the user's head area present in the image data input through the camera unit to enhance the user's hair, and then the user customizes his or her own custom helmet product that fits the actual head. The present invention provides a method for providing an enhanced helmet service based on a mobile web that is processed to purchase a product.

본 발명에 따른 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법은, 페이지를 통해 제공되고 브라우져를 통해 구동되는 프로그램모듈과, 통신망 상의 지정된 운영서버를 통해 실행되는 방법에 있어서, 상기 프로그램모듈이 브라우져를 통해 구동된 경우 상기 구동된 프로그램모듈이 D(D≥1)개의 지정된 무선단말 기종 중 어느 한 기종의 사용자 무선단말에 구비된 브라우져를 통해 구동된 모바일 웹 환경인지 확인하는 제1 단계와 상기 모바일 웹 환경을 확인한 경우 상기 프로그램모듈이 상기 모바일 웹 환경에 대응하는 사용자 무선단말의 카메라부에 대한 접근 권한을 획득하는 제2 단계와 상기 프로그램모듈이 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 제3 단계와 상기 프로그램모듈이 상기 인식된 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성하고 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하는 제4 단계와 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 지정된 운영서버로 전송하면, 상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 수신하는 제5 단계와 상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하는 제6 단계와상기 운영서버에서 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 확인하는 제7 단계와 상기 운영서버에서 상기 프로그램모듈로 상기 사용자 전용 헬맷 데이터를 제공하면, 상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터를 수신하여 지정된 저장영역에 저장하는 제8 단계와 상기 프로그램모듈이 사용자 머리에 대한 사용자 머리 기하학 구조 정보를 근거로 상기 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 제9 단계 및 상기 프로그램모듈이 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강하는 제10 단계를 포함하는 것을 특징으로 한다.The method for providing a mobile web based enhanced helmet service according to the present invention includes a program module provided through a page and driven through a browser, and executed through a designated operating server on a communication network, wherein the program module is accessed through a browser. A first step of checking whether the driven program module is a mobile web environment driven through a browser provided in a user wireless terminal of any one of D (D≥1) designated wireless terminal models when the driven program module is driven; The second step of acquiring the access right to the camera unit of the user wireless terminal corresponding to the mobile web environment and the program module included in the image data input through the camera unit of the user wireless terminal Read the above image data to determine the user's head area The third step of the equation and the program module generates the user head geometry information analysis of the geometry of the user head formed in the recognized head region and accumulate one-to-one with the real world of the geometry of the user head formed in the head region The fourth step of determining the user head numerical information of the program module and the program module transmits the user head geometry information and the user head numerical information to a designated operation server, the user head geometry information and the user head numerical information from the operation server And a fifth step of generating 3D modeling data of a user-only helmet product that is matched one-to-one with the actual head of the user by using the user head geometry information and the user head numerical information of one-to-one accumulation in the operation server. The company in the operational server Step 7 of checking the user-specific helmet data generated by applying the specified helmet design to the user-specific modeling data generated by one-to-one matching the actual head of the ruler and if the user-specific helmet data to the program module from the operating server, An eighth step in which the program module receives the user-specific helmet data and stores the data in a designated storage area; and an image included in the image data input by the program module through the camera unit based on the user head geometry information of the user's head. A ninth step of real time recognizing a user's head region existing in the image data by reading data; and when the program module recognizes a user's head region present in the image data in real time, the user's head recognized on the image data Above four in the area Indicator overlapping a private Helmets data, and characterized in that it comprises a tenth step of enhancing the user's head.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제3 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 단계를 포함하고, 상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the third step may include: reading, by the program module, image data input in an auto focus photographing state of the camera unit, and recognizing an area of a user's head to wear a helmet. The fourth step may include: determining, by the program module, at least two feature points that can be specified for distance calculation on the user's head geometry, and having the focal length and the image data automatically determined in an autofocus process of the camera unit. At least one of the pixel distance between the specific point and the camera specification information provided in the wireless terminal is substituted into the input value of the specified calculation formula to calculate the determined distance between the two or more specific points as the numerical information of the real world and one-to-one accumulation. Characterized in that it comprises a step.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제3 단계는, 상기 프로그램모듈이 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 거리가 지정된 식별거리를 유지하여 촬영하도록 유도하고,상기 제4 단계는, 상기 프로그램모듈이 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on mobile web, the third step may cause the program module to photograph the distance between the camera lens and each part of the user's head while maintaining a specified identification distance. Step 4 includes the program module including the photographing-induced identification distance in the input value of the calculation formula and calculating the distance between the determined two or more feature points as numerical information of the real world and one-to-one accumulation. It features.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 현실세계의 길이를 재는 도구를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the fourth step is a tool for determining, by the program module, two or more feature points that can be specified for distance calculation on the user head geometry, and measuring the length of the real world. And processing to input numerical information obtained by measuring the distance between the two or more feature points determined using.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제3 단계는, 상기 프로그램모듈이 상기 사용자 머리 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 머리와 길이를 재는 도구를 함께 촬영하도록 유도하고, 상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식하고, 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the third step may include capturing a length measuring tool with the user's head after the program module includes a tool for measuring the length of the real world near the head. In the fourth step, the program module determines two or more specific feature points that can be specified for distance calculation on the user head geometry, and the numerical distance of the real world between the scales of the measuring tool on the image data. Recognizing the relationship between the pixel distance on the image data, and reading the pixel distance between the determined two or more feature points through the relationship between the numerical distance and the pixel distance between the grid of the recognized tool to determine the distance between the two or more feature points and the real world And calculating the numerical information of the one-to-one accumulation. .

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 무선단말은, 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부를 구비하고, 상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부를 통해 센싱된 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 확인하고, 상기 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing a mobile web based enhanced helmet service, the wireless terminal includes a distance recognition sensor unit for recognizing a distance between a subject and a camera lens existing in a camera line of sight, and the fourth step includes the program module. Determining two or more specific feature points for the distance calculation on the user head geometry, and identifying the identification distance between the camera lens and the respective parts of the user head sensed through the distance recognition sensor unit, And calculating the distance between the determined two or more feature points as numerical information of the real world and one-to-one accumulation by substituting the identification distance as an input value of a designated calculation formula.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제3 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 단계를 포함하고, 상기 제4 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the third step may include: reading, by the program module, image data input in an auto focus photographing state of the camera unit, and recognizing a user's head area to wear a helmet. The fourth step may include one or more pieces of information including a focal length determined automatically by the program module in an autofocus process of the camera unit, pixel distance between two or more specific points on the image data, and camera specification information provided in the wireless terminal. And calculating the distance between the determined two or more specific points as numerical information of the real world and one-to-one accumulation by including the value in an input value of the calculation formula.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보를 지정된 저장영역에 저장하는 단계를 더 포함하고, 상기 제8 단계는, 상기 프로그램모듈이 상기 저장된 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing a mobile web based enhanced helmet service, the fourth step further includes the program module storing the user head geometry information in a designated storage area, and the eighth step includes the program. And recognizing, in real time, the user's head region present in the image data input through the camera unit by using the stored user head geometry information.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제8 단계는, 상기 운영서버에서 상기 프로그램모듈로 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보를 제공하면, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보를 수신하여 지정된 저장영역에 저장하는 단계를 더 포함하고, 상기 제9 단계는, 상기 프로그램모듈이 상기 운영서버로부터 수신하여 저장한 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the eighth step may include: providing the user head geometry information corresponding to the user-specific helmet data from the operation server to the program module; And receiving the head geometry information in a designated storage area, wherein the ninth step is input through the camera unit using the user head geometry information received and stored by the program module from the operation server. And real-time recognition of the user's head region present in the image data.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 사용자 머리 기하학 구조 정보는, 전두골과 좌우 두정골에 대응하는 골격 구조 및 좌우 두정근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 측두골에 대응하는 골격 구조 및 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 두정골과 좌우 측두골에 대응하는 골격 구조 및 좌우 두정근과 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골의 전두융기에 대응하는 골격 구조 및 전두근에 의해 형성된 머리 전면의 이마 곡률 정보, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 이마의 지정된 부분부터 좌측 측두의 지정된 부분까지 상기 좌측 측두 곡률을 따라 연결한 좌측 측두 거리 정보, 전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 이마의 지정된 부분부터 우측 측두의 지정된 부분까지 상기 우측 측두 곡률을 따라 연결한 우측 측두 거리 정보 중 하나 이상의 정보를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the user's head geometry information includes information on the frontal head distance formed by the skeleton structure corresponding to the frontal bone and the left and right parietal bone and the thickness of the left and right parietal muscles and the left and right scalp. , Skeletal structure corresponding to the frontal and left and right temporal bones, horizontal head distance information of the front of the head formed by the thickness of the left and right temporal and right and left scalp, skeletal structure corresponding to the frontal and left and right parietal and left and right temporal bones, Horizontal head distance information of the front of the head formed by the thickness of the left and right scalp, skeletal structure corresponding to the frontal ridge of the frontal bone, and forehead curvature information formed on the frontal head formed by the frontal muscle, skeletal structure corresponding to the left part of the frontal bone and the left parietal bone, and Left to left forehead by left frontal and left parietal muscles Left temporal curvature information in the left temporal direction in the head, skeletal structure corresponding to the left and left temporal bones of the frontal bone, and left temporal curvature information in the left temporal direction in the left temporal region formed by the left frontal and left temporal muscles, the frontal bone Skeletal structure corresponding to the left part of the left parietal and left temporal bone and left temporal bone and left temporal curvature information in the left temporal region formed by the left frontal and left parietal and left temporal muscles in the left temporal region, from the designated part of the forehead to the left temporal Left temporal distance information connected along the left temporal curvature to the designated part, skeletal structure corresponding to the right part of the frontal bone and the right parietal bone, and right temporal in the right temporal direction formed in the right temporal region on the right forehead by the right frontal and right parietal muscles Curvature information, the right part of the frontal bone Skeletal structure corresponding to the temporal temporal bone and right temporal curvature information in the right temporal direction formed from the right forehead by the right anterior and right atrophy muscles, skeletal structure corresponding to the right part of the frontal bone and the right parietal and right temporal bone and the right frontal muscle And right temporal curvature information in the right temporal to right temporal region formed by the right parietal and right temporal muscles, and right temporal distance information connected along the right temporal curvature from the designated part of the forehead to the designated part of the right temporal It is characterized by including the above information.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 거리 정보는, 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함하고, 상기 곡률 정보는, 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the distance information includes coordinate distance information on a coordinate system set to determine a user head geometry of a user head region, and the curvature information is a user of the user head region. And the coordinate curvature information on the set coordinate system to determine the head geometry.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 이마 곡률 정보는, 화상데이터에 포함된 이마의 그라데이션 정보와 전두골의 전두융기에 대한 해부학적 통계 정보를 근거로 산출되는 것을 특징으로 한다.In the mobile web-based enhanced helmet service providing method, the forehead curvature information is calculated based on anatomical statistical information on the frontal ridge of the frontal bone and the gradient information of the forehead included in the image data.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 좌측 측두 곡률 정보는, 화상데이터에 포함된 좌측 이마의 그라데이션 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분의 곡률까지 산출되는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the left temporal curvature information may include curvature information of the left forehead corresponding to gradation information of the left forehead included in image data, and a left portion of the frontal bone corresponding to the left forehead. Based on the statistical information of the anatomical coupling relationship of the left temporal bone, the curvature of the left temporal part covered by the hair from the left forehead is calculated.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 우측 측두 곡률 정보는, 화상데이터에 포함된 우측 이마의 그라데이션 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분의 곡률까지 산출되는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the right temporal curvature information includes: curvature information of the right forehead corresponding to gradation information of the right forehead included in image data, and a right portion of the frontal bone corresponding to the right forehead; Based on the statistical information of the anatomical coupling relationship of the right temporal bone, the curvature of the right temporal part covered by the hair from the right forehead is calculated.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 이마 곡률 정보는, 무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우,상기 거리인식 센서부를 통해 센싱된 이마의 센싱 정보와 전두골의 전두융기에 대한 해부학적 통계 정보를 근거로 산출되는 것을 특징으로 한다.In the mobile web-based enhanced helmet service providing method, the forehead curvature information, the wireless terminal is provided with a distance recognition sensor for recognizing the distance between the subject and the camera lens, sensing of the forehead sensed by the distance recognition sensor The information is calculated based on anatomical statistical information on the frontal ridges of the frontal bone.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 좌측 측두 곡률 정보는, 무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우,상기 거리인식 센서부를 통해 센싱된 좌측 이마의 센싱 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분의 곡률까지 산출되는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the left temporal curvature information includes a distance recognition sensor unit recognizing a distance between a subject and a camera lens in a wireless terminal, and a left forehead sensed by the distance recognition sensor unit. Based on the curvature information of the left forehead corresponding to the sensing information of and the statistical information of the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead, the curvature of the left temporal part covered by the hair from the left forehead is calculated. It is characterized by.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 우측 측두 곡률 정보는, 무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우, 상기 거리인식 센서부를 통해 센싱된 우측 이마의 센싱 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분의 곡률까지 산출되는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the right temporal curvature information includes a distance recognition sensor unit for recognizing a distance between a subject and a camera lens in a wireless terminal, and the right forehead sensed by the distance recognition sensor unit. Based on the curvature information of the right forehead corresponding to the sensing information of and the statistical information of the anatomical coupling relationship between the right part of the frontal bone and the right temporal bone corresponding to the right forehead, the curvature of the right temporal part covered by the hair from the right forehead is calculated. It is characterized by.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 머리 수치 정보는, 현실세계와 일대일 축적의 머리 둘레 길이 범위정보를 포함하여 이루어지는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the head numerical information is characterized in that it comprises head range length information of one-to-one accumulation with the real world.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 머리 둘레 길이는, 상기 사용자 머리 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 머리 기하학 구조를 형성하는 전두골과 좌우 두정골과 좌우 측두골 및 후두골 중 둘 이상의 골격 구조를 결합하는 해부학적 결합 관계의 통계 정보를 근거로 지정된 오차 범위 내에서 산출되는 것을 특징으로 한다.In the method of providing an enhanced helmet service based on a mobile web, the head circumference length includes one or more numerical information calculated corresponding to the user head geometry information, and the frontal bone, left and right parietal bone, and left and right temporal bone forming the user head geometry. And it is characterized in that it is calculated within a specified error range based on the statistical information of the anatomical coupling relationship that combines two or more skeletal structures of the occipital bone.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제6 단계는, 상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리 영역에 형성된 이마와 측두에 밀착하여 착용 가능하며 사용자의 머리 둘레 길이에 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing a mobile web based enhanced helmet service, the sixth step may include a forehead and a temporal head formed in an actual head region of a user using the user head geometry information and one-to-one accumulation of user head numerical information in the operation server. It is characterized in that it comprises a step of generating 3D modeling data of the user-only helmet product that can be worn in close contact with the user's head circumferential length.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제7 단계는, 상기 운영서버에서 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈로 제공하면, 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보를 수신하여 출력하는 단계와 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계 및 상기 운영서버에서 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인을 적용한 사용자 전용 헬맷 데이터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In a method of providing an enhanced helmet service based on a mobile web, the seventh step is a design for storing N (N≥2) helmet design information registered and designed by M (M≥1) helmet designers in the operation server. When n (1≤n≤N) helmet design information is extracted from a DB and provided to a program module, the program module receives and outputs the n helmet design information and the program module receives the n helmet design information. Receiving the design selection information at the operation server, the design selection information selected to apply at least one of the target helmet design information, and the helmet design corresponding to the design selection information to the user-specific modeling data in the operation server It characterized in that it comprises a step of generating a user-specific helmet data applied.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제7 단계는, In the method of providing an enhanced helmet service based on mobile web, the seventh step may include:

상기 운영서버에서 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈로 제공하면, 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보를 수신하여 출력하는 단계와 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계와 상기 운영서버에서 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 등록한 디자이너단말로 상기 사용자 전용 모델링 데이터와 상기 디자인선택정보를 제공하는 단계 및 상기 운영서버에서 상기 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 수신하는 단계를 포함하여 이루어지는 것을 특징으로 한다.A program module extracts n (1≤n≤N) helmet design information from a design DB that stores N (N≥2) helmet design information registered and designed by M (M≥1) helmet designers in the operation server. When the program module receives and outputs the n helmet design information and the program module transmits design selection information for selecting at least one of the helmet design information to be applied to the at least one helmet design information, Receiving the design selection information from an operation server and providing the user-specific modeling data and the design selection information to a designer terminal that registers helmet design information corresponding to the design selection information in the operation server, and at the operation server. The design selection information from the designer terminal to the user-specific modeling data; Receiving a user-specific helmet data generated by applying a helmet design corresponding to the.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 제7 단계는, 상기 운영서버에서 M(M≥1)명의 헬맷 디자이너 중 m(1≤m≤M)명의 헬맷 디자이너가 이용하는 m개의 디자이너단말로 상기 사용자 전용 모델링 데이터를 제공하는 단계 및 상기 운영서버에서 i(1≤i≤m)개의 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 해당 헬맷 디자이너의 헬맷 디자인을 적용하여 생성된 j(j≥i)개의 사용자 전용 헬맷 데이터를 수신하는 단계를 포함하여 이루어지는 것을 특징으로 한다.In the mobile web-based enhanced helmet service providing method, the seventh step includes m designer terminals used by m (1 ≦ m ≦ M) helmet designers among M (M ≧ 1) helmet designers in the operation server. J (j≥i) generated by applying the helmet design of the corresponding helmet designer to the user-specific modeling data from the step of providing the user-specific modeling data and the i (1≤i≤m) designer terminals in the operation server. Receiving the user-only helmet data.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계 및 상기 운영서버에서 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 포함하는 제작요청정보와 상기 주문 제작된 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버로 제공하거나 디자이너단말로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the mobile web-based enhanced helmet service providing method, if the program module configures the order request information for requesting the order of the user-specific helmet product corresponding to the user-specific helmet data, and transmits to the operation server, the operation server Receiving the order request information in the production step and the production request information, including the user head geometry information, user head numerical information and helmet design information for the custom production of the user-specific helmet product corresponding to the order request information in the operation server And providing the delivery address information of the user who will deliver the customized user-only helmet product to a designated product providing server or by providing it to a designer terminal.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계와 상기 운영서버에서 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하는 단계 및 상기 매칭된 사용자 전용 헬맷제품을 확인한 경우, 상기 운영서버에서 상기 매칭된 사용자 전용 헬맷제품의 제공을 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버로 제공하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.In the mobile web-based enhanced helmet service providing method, if the program module configures the order request information for requesting the order of the user-specific helmet products corresponding to the user-specific helmet data, and transmits to the operation server, the operation server Receiving the order request information in the step and confirming the helmet product matching one-to-one with the user-specific helmet product corresponding to the order request information through a database that stores information about the helmet product manufactured in the operation server and When the matched user-only helmet product is confirmed, the operation server provides the request information for requesting the provision of the matched user-only helmet product and the delivery address information of the user who will deliver the user-only helmet product to the designated product providing server. Characterized in that the step further comprises .

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 프로그램모듈이 근거리 무선 통신을 통해 근거리에 구비된 헬맷 제작장치로 상기 사용자 전용 헬맷 데이터를 전달하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 제작을 요청하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.A method for providing an enhanced helmet service based on a mobile web, wherein the program module transmits the user-specific helmet data to a helmet manufacturing apparatus provided at a short distance through short-range wireless communication to correspond to the user-specific helmet data. Characterized in that it further comprises the step of requesting the production of.

모바일 웹 기반의 증강된 헬맷 서비스 제공 방법에 있어서, 상기 헬맷 제작장치에서 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.A method for providing an enhanced helmet service based on a mobile web, the method further comprising the step of manufacturing a user-specific helmet product corresponding to the user-specific helmet data in the helmet manufacturing apparatus.

본 발명에 따르면, 모바일 웹 환경에서 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성한 후 상기 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 사용자 전용 헬맷제품을 주문 제작하므로 별다른 수고나 노력 없이도 전문가로부터 서비스 받는 것과 유사한 헬맷 서비스를 제공받는 이점이 있다.According to the present invention, a user including 3D modeling data of a user-only helmet product that matches one-to-one with a real head of a user by reading one or more image data included in image data input through a camera unit of a user wireless terminal in a mobile web environment. After generating dedicated modeling data and applying custom helmet designs to the user-specific modeling data, custom-made helmet products are custom-made, and thus, there is an advantage of providing a helmet service similar to service from an expert without any effort or effort.

본 발명에 따르면, 사용자의 실제 머리와 일대일 매칭되게 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성한 사용자 전용 헬맷 데이터를 모바일 웹 환경에 대응하는 사용자 무선단말의 브라우져를 통해 구동된 프로그램모듈로 제공한 후 상기 프로그램모듈에서 사용자의 실제 머리와 일대일 매칭되는 사용자 머리의 기하학 구조를 통해 카메라부로부터 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 후 상기 실시간 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 실시간 중첩 표시하여 사용자의 머리를 증강함으로써 상기 사용자는 상기 사용자 전용 헬맷제품의 주문 전에 상기 사용자 전용 헬맷제품을 자신이 착용하였을 때 느껴지는 심미감과 가장 유사한 심미감을 경험한 후 이를 기반으로 사용자 전용 헬맷제품을 주문 제작 요청하는 이점이 있다.According to the present invention, a program module driven through a browser of a user wireless terminal corresponding to a mobile web environment, user-specific helmet data generated by applying a designated helmet design to user-specific modeling data generated in one-to-one correspondence with a user's actual head. After providing the user's head region in the image data input from the camera unit through the geometry of the user's head that is matched one-to-one with the actual head of the user in the program module after real-time recognized the user's head region By superimposing the user-specific helmet data on a real time to augment the user's head, the user experiences an aesthetic that is most similar to the aesthetics felt when he wears the user-specific helmet product before ordering the user-specific helmet product. group On the other hand, there is an advantage of requesting custom helmet products.

도 1은 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 사용자 무선단말과 브라우져를 통해 구동되는 프로그램모듈의 기능 구성을 도시한 도면이다.
도 3은 본 발명의 실시 방법에 따른 사용자 머리 기하학 구조에 대응하는 두개골의 골격 구조를 예시한 도면이다.
도 4는 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 위한 사용자 전용 헬맷 데이터 제공 과정을 도시한 도면이다.
도 5는 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스 제공 과정을 도시한 도면이다.
도 6은 본 발명의 일 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 이용한 사용자 전용 헬맷제품의 주문 제작 과정을 도시한 도면이다.
도 7은 본 발명의 다른 일 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 이용한 사용자 전용 헬맷제품의 주문 제작 과정을 도시한 도면이다.
1 is a diagram showing the configuration of a mobile web-based enhanced helmet service system according to an embodiment of the present invention.
2 is a diagram illustrating a functional configuration of a program module driven by a user wireless terminal and a browser according to an embodiment of the present invention.
3 is a diagram illustrating a skeleton structure of the skull corresponding to the user head geometry in accordance with an embodiment of the present invention.
4 is a diagram illustrating a process for providing user-only helmet data for an enhanced helmet service based on a mobile web according to an embodiment of the present invention.
5 is a diagram illustrating a process of providing an enhanced helmet service based on a mobile web according to an embodiment of the present invention.
FIG. 6 is a view illustrating a custom manufacturing process of a helmet product for a user using an enhanced helmet service based on a mobile web according to an embodiment of the present invention.
FIG. 7 is a view illustrating a custom manufacturing process of a user-only helmet product using an enhanced helmet service based on a mobile web according to another embodiment of the present invention.

이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다.Hereinafter, with reference to the accompanying drawings and description will be described in detail the operating principle of the preferred embodiment of the present invention. However, the drawings and the following description shown below are for the preferred method among various methods for effectively explaining the features of the present invention, the present invention is not limited only to the drawings and description below.

즉, 하기의 실시예는 본 발명의 수 많은 실시예 중에 바람직한 합집합 형태의 실시예 예에 해당하며, 하기의 실시예에서 특정 구성(또는 단계)를 생략하는 실시예, 또는 특정 구성(또는 단계)에 구현된 기능을 특정 구성(또는 단계)로 분할하는 실시예, 또는 둘 이상의 구성(또는 단계)에 구현된 기능을 어느 하나의 구성(또는 단계)에 통합하는 실시예, 특정 구성(또는 단계)의 동작 순서를 교체하는 실시예 등은, 하기의 실시예에서 별도로 언급하지 않더라도 모두 본 발명의 권리범위에 속함을 명백하게 밝혀두는 바이다. 따라서 하기의 실시예를 기준으로 부분집합 또는 여집합에 해당하는 다양한 실시예들이 본 발명의 출원일을 소급받아 분할될 수 있음을 분명하게 명기하는 바이다.That is, the following embodiments correspond to embodiments of the preferred union form among many embodiments of the present invention, and embodiments or omit specific configurations (or steps) in the following embodiments. An embodiment of dividing a function implemented in a specific configuration (or step), or an embodiment, a specific configuration (or step) incorporating a function implemented in two or more configurations (or steps) into one configuration (or step). Embodiments to replace the order of operation, etc., unless explicitly stated otherwise in the following examples will be apparent that all belong to the scope of the present invention. Therefore, it will be clearly stated that various embodiments corresponding to a subset or a filter based on the following examples can be divided retrospectively according to the filing date of the present invention.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users or operators. Therefore, the definition should be made based on the contents throughout the present invention.

결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.As a result, the technical spirit of the present invention is determined by the claims, and the following examples are one means for efficiently explaining the technical spirit of the present invention to those skilled in the art to which the present invention pertains. It is only.

도면1은 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스 시스템의 구성을 도시한 도면이다.1 is a diagram showing the configuration of a mobile web-based enhanced helmet service system according to an embodiment of the present invention.

보다 상세하게 본 도면1은 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 머리 영역을 인식하여 상기 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성함과 동시에 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하고, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 상기 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역에 중첩 표시하여 사용자의 머리를 증강한 후 사용자가 자신의 실제 머리에 꼭 맞는 자신만의 사용자 전용 헬맷제품을 주문(또는 주문제작)하여 구매하도록 처리하는 시스템의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 증강된 헬맷 서비스 시스템에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 1 reads one or more image data included in the image data input through the camera unit 210 of the user wireless terminal 200 to recognize the user's head region and the geometry of the user's head formed in the head region The user head geometry information generated by analyzing the structure is generated, and the user head numerical information of the real world and one-to-one accumulation of the geometry of the user head formed in the head region is determined, and the user head geometry information and one-to-one accumulation of the head are determined. User-specific modeling data including 3D modeling data of a user-specific helmet product that is one-to-one matched with the user's actual head is generated using the user's head numerical information, and the user-only model generated by applying a designated helmet design to the user-specific modeling data. Helmet data to the camera unit 210 Overlays the user's head in the image data input through the augmented user's head and processes the user's own custom helmet product that fits his / her actual head. As the configuration of the system to be described, those of ordinary skill in the art to which the present invention pertains, various implementation methods (for example, some configuration) for the enhanced helmet service system by referring to and / or modifying the present Figure 1 Addition, omission, subdivision, or combined) may be inferred, but the present invention includes all the inferred implementation methods, and the technical features are not limited to the implementation method shown in FIG. No.

본 발명의 시스템은, D(D≥1)개의 지정된 무선단말 기종 중 어느 한 기종에 대응하며 지정된 브라우져(예컨대, 지정된 마크업(Markup) 언어를 통해 구현된 페이지를 출력 가능하며 상기 페이지에 포함된 지정된 스크립트(Script) 언어 체계의 프로그램모듈(230)을 구동 가능한 브라우져)를 구비한 사용자 무선단말(200)과, 증강된 헬맷 서비스를 제공하기 위해 상기 사용자 무선단말(200)로 제공된 페이지에 스크립트 언어 형태로 포함되어 상기 사용자 무선단말(200)의 브라우져를 통해 구동된 프로그램모듈(230)과 연동하여 증강된 헬맷 서비스를 제공하기 위한 지정된 적어도 하나의 서버 측 기능을 수행하는 운영서버(100)를 포함하여 이루어지며, 헬맷 디자이너가 이용하며 사용자 전용 헬맷 데이터를 생성하거나 및/또는 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 헬맷제품을 주문받아 제작하는데 이용되는 디자이너단말(165)과, 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 헬맷제품을 제작하기 위한 일련의 절차를 수행하거나 또는 기 제작된 복수의 헬맷제품 중 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 헬맷 데이터와 일대일 매칭되는 헬맷제품을 사용자 전용 헬맷제품으로 결정하기 위한 일련의 절차를 수행하는 제품제공서버(170)를 더 포함하며, 실시 방법에 따라 사용자 무선단말(200)의 근거리에 구비되어 사용자 전용 헬맷 데이터를 이용하여 사용자 전용 헬맷제품을 제작하는 헬맷 제작장치(175)를 더 포함할 수 있다. The system of the present invention is capable of outputting a page corresponding to any one of D (D≥1) designated wireless terminal models and implemented through a designated browser (eg, a designated markup language) and included in the page. A script language on a page provided to the user wireless terminal 200 having a browser capable of driving a program module 230 of a designated script language system and the user wireless terminal 200 to provide an enhanced helmet service. Included in the form includes an operating server 100 to perform a specified at least one server-side function for providing an enhanced helmet service in conjunction with the program module 230 driven through the browser of the user wireless terminal 200 Is used by the helmet designer and generates user-specific helmet data and / or the program module 230 and the operation server 100 Performs a series of procedures for producing a user-specific helmet product determined in conjunction with the designer terminal (165) and the program module 230 and the operation server 100 used to order and produce a user-specific helmet product determined at the same time Or a series of procedures for determining a helmet product that is one-to-one matching with user-specific helmet data determined by interworking with the program module 230 and the operation server 100 among a plurality of manufactured helmet products. It further includes a product providing server 170, and further comprises a helmet manufacturing device 175 is provided at the short distance of the user wireless terminal 200 according to the implementation method for manufacturing a user-specific helmet product using the user-specific helmet data can do.

상기 사용자 무선단말(200)은 D(D≥1)개의 지정된 무선단말 기종 중 어느 한 기종에 대응하며 증강된 헬맷 서비스를 제공받을 사용자가 이용하는 무선통신기기의 총칭으로서, 상기 사용자 무선단말(200)은 지정된 마크업 언어를 통해 구현된 페이지를 출력 가능하며 상기 페이지에 포함된 지정된 스크립트 언어 체계의 프로그램모듈(230)을 구동 가능한 브라우져를 구비한다. 예를들어, 상기 사용자 무선단말(200)은 지정된 브라우져를 구비한 사용자의 이동통신단말, 휴대폰, 스마트폰, 태블릿PC 등을 포함할 수 있다. The user wireless terminal 200 is a generic term for a wireless communication device used by a user corresponding to any one of D (D≥1) designated wireless terminal models and to be provided with an enhanced helmet service. The user wireless terminal 200 Has a browser capable of outputting a page implemented through a designated markup language and driving a program module 230 of a designated script language system included in the page. For example, the user wireless terminal 200 may include a mobile communication terminal, a mobile phone, a smart phone, a tablet PC, etc. of a user having a designated browser.

상기 디자이너단말(165)은 헬맷 디자이너가 이용하는 단말의 총칭으로서, 헬맷 디자인을 디자인하는 기능과, 상기 디자인된 헬맷 디자인을 상기 운영서버(100)에 등록하는 기능과, 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 제공받아 이를 이용하여 사용자 전용 모델링 데이터를 생성하는 기능과, 상기 운영서버(100)에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 생성하거나 또는 상기 디자이너에 의해 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 생성하는 기능과, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하거나 및/또는 상기 생성된 사용자 전용 헬맷 데이터를 이용하여 실제로 사용자 머리에 착용할 사용자 전용 헬맷제품을 제작하기 위한 일련의 기능 중 적어도 하나의 기능을 수행하는 디자이너용 앱을 설치 실행할 수 있다.The designer terminal 165 is a generic term for a terminal used by a helmet designer, and includes a function of designing a helmet design, a function of registering the designed helmet design with the operation server 100, and accumulating one-to-one with user head geometry information. A function of generating user-specific modeling data using the user head numerical information including a user head circumferential length range of the user head, and the user head geometrical structure information and one-to-one accumulation of user head numerical information in the operation server 100. Generating user-specific helmet data including user-specific helmet data by applying the specified helmet design to the user-specific modeling data generated by the designer or generated by the designer, and accumulating one-to-one accumulation of the user head geometry information. User head numerical information To and / or use of the generated data, the user only helmets can actually run to install the app for designers to perform at least one function of a set of functions for creating user specific products Helmets worn on the user's head.

상기 제품제공서버(170)는 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 헬맷제품을 제작하기 위한 일련의 절차를 수행하거나 또는 기 제작된 복수의 헬맷제품 중 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 결정한 사용자 전용 헬맷 데이터와 일대일 매칭되는 헬맷제품을 사용자 전용 헬맷제품으로 결정하기 위한 일련의 절차를 수행하는 서버의 총칭으로서, 상기 프로그램모듈(230)과 운영서버(100)가 연동하여 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 기반으로 사용자의 실제 머리 구조와 매칭되는 사용자 전용 헬맷 데이터가 생성되거나 및/또는 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작하도록 결정된 경우, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하거나 및/또는 상기 사용자 전용 헬맷 데이터를 이용하여 사용자 전용 헬맷제품을 제작하기 위한 일련의 절차를 수행하는 기능을 수행할 수 있다. 또는 상기 제품제공서버(170)는 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하거나 및/또는 상기 사용자 전용 헬맷 데이터를 이용하여 기 제작된 복수의 헬맷제품 중 사용자 전용 헬맷제품을 결정하기 위한 일련의 절차를 수행하는 기능을 수행할 수 있다. The product providing server 170 performs a series of procedures for manufacturing a user-only helmet product determined by interworking with the program module 230 and the operation server 100 or the program module among a plurality of manufactured helmet products. The program module 230 is a generic term for a server that performs a series of procedures for determining a helmet product that is one-to-one matched with the user-specific helmet data determined by interworking with the operation server 100 and the user-only helmet product. The operation server 100 is linked to generate user-specific helmet data that matches the user's actual head structure based on the user head geometry information including the user head geometry information and the user head circumference length range of one-to-one accumulation and / or If it is determined to manufacture a user-specific helmet product corresponding to the user-specific helmet data, Here it is possible to head geometry information and the user's head using the one-to-one numerical information storage and / or functions to perform a series of steps to produce a user-only Helmets products using the user private data helmet. Alternatively, the product providing server 170 may use a user-only helmet product among a plurality of helmet products manufactured by using the user head geometry information and one-to-one accumulation of user head numerical information and / or the user-only helmet data. Function to perform a series of procedures to make a decision.

본 발명의 실시 방법에 따르면, 상기 제품제공서버(170)는 헬맷제품을 제작하는 헬맷제품 제작장치(예컨대, 헬맷 제작기, 헬맷 제작을 위한 3D 프린터 등)를 포함하는 헬맷제품 제작시스템과 연결되고, 상기 헬맷제품 제작시스템과 연동하여 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작하기 위한 일련의 절차를 수행할 수 있다. 한편 실시 방법에 따라 상기 제품제공서버(170)는 다수의 디자이너단말(165)과 연결 가능하며, 특정 사용자 전용 헬맷 데이터에 대응하는 헬맷제품을 제작할 디자이너를 선별하여 상기 선별된 디자이너가 이용하는 디자이너단말(165)로 상기 사용자 전용 헬맷 데이터를 제공하여 사용자 전용 헬맷제품을 제작하거나 제작 후 배송하도록 지시하는 절차를 수행할 수 있다. According to an embodiment of the present invention, the product providing server 170 is connected to a helmet product manufacturing system including a helmet product manufacturing apparatus (eg, helmet maker, 3D printer for helmet production) for manufacturing a helmet product, In conjunction with the helmet product manufacturing system can perform a series of procedures for manufacturing a user-specific helmet product corresponding to the user-specific helmet data. According to the implementation method, the product providing server 170 may be connected to a plurality of designer terminals 165, and select a designer to manufacture a helmet product corresponding to a specific user-specific helmet data by using the selected designer terminal ( In step 165, the user-specific helmet data may be provided to manufacture a user-specific helmet product or may be instructed to deliver after manufacturing.

상기 헬맷 제작장치(175)는 사용자 전용 헬맷 데이터를 제공받아 사용자 전용 헬맷제품을 제작하는 장치의 총칭으로서, 바람직하게 헬맷제품 제작을 위한 3D 프린터를 포함할 수 있다. The helmet manufacturing apparatus 175 is a generic term for a device for manufacturing a user-specific helmet product by receiving user-specific helmet data, and may preferably include a 3D printer for manufacturing a helmet product.

본 발명의 실시 방법에 따르면, 상기 헬맷 제작장치(175)는 사용자 무선단말(200)의 근거리에 구비(예컨대, 사용자가 방문한 카페나 편의점 등)될 수 있으며, 사용자 무선말과 근거리 무선 통신(예컨대, 블루투스 통신, 와이파이 통신, 지그비 통신, UWB 통신, NFC, 근거리 RF 통신 중 적어도 하나의 근거리 무선 통신)하여 상기 프로그램모듈(230)으로부터 사용자 전용 헬맷제품을 제작하기 위한 사용자 전용 모델링 데이터를 제공받고, 상기 사용자 전용 모델링 데이터를 이용하여 사용자 전용 헬맷제품을 제작할 수 있다. 한편 실시 방법에 따라 상기 헬맷 제작장치(175)는 통신망을 경유하여 상기 프로그램모듈(230)과 연계된 운영서버(100)로부터 사용자 전용 헬맷제품을 제작하기 위한 사용자 전용 모델링 데이터를 제공받고, 상기 사용자 전용 모델링 데이터를 이용하여 사용자 전용 헬맷제품을 제작할 수 있다. According to an exemplary embodiment of the present invention, the helmet manufacturing apparatus 175 may be provided at a short distance (eg, a cafe or a convenience store visited by a user) of the user wireless terminal 200, and the wireless communication with the user wireless terminal (eg, At least one short-range wireless communication of Bluetooth communication, Wi-Fi communication, Zigbee communication, UWB communication, NFC, and short-range RF communication) to receive user-specific modeling data for manufacturing a user-specific helmet product from the program module 230, The user-only helmet product can be manufactured using the user-specific modeling data. Meanwhile, according to an embodiment, the helmet manufacturing apparatus 175 is provided with user-specific modeling data for manufacturing a user-only helmet product from the operation server 100 associated with the program module 230 via a communication network, and the user Custom modeling data can be used to create custom helmet products.

상기 운영서버(100)는 통신망을 경유하여 상기 프로그램모듈(230)과 통신하여 증강된 헬맷 서비스를 제공하기 위해 지정된 적어도 하나의 서버 측 기능을 수행하는 서버의 총칭으로서, 적어도 하나의 서버나 둘 이상의 서버 조합의 형태로 구현될 수 있으며, 실시 방법에 따라 기 구비된 서버에 설치되는 서버용 소프트웨어 형태로 구현될 수 있다. 편의상 이하 실시예의 설명이나 도면을 통해 본 발명의 증강된 헬맷 서비스를 위한 기능 중 일부 기능은 프로그램모듈(230)을 통해 구현되는 것으로 설명하고 다른 일부 기능은 운영서버(100)를 통해 구현되는 것으로 설명할 것이나, 본 발명에서 증강된 헬맷 서비스를 제공하는 기능이 단말 측 기능과 서버 측 기능으로 명확하게 구분되는 것은 아니며, 본 발명에 도시 설명된 단말 측 기능 중 일부는 서버 측 기능에 포함되어 수행되거나 반대로 서버 측 기능 중 일부도 단말 측 기능에 포함되어 수행될 수 있으며, 본 발명은 이러한 실시예도 권리범위로 포함함을 명백하게 밝혀두는 바이다.The operation server 100 is a generic term for a server that performs at least one server side function designated to provide an enhanced helmet service by communicating with the program module 230 through a communication network, and includes at least one server or two or more servers. It may be implemented in the form of a server combination, it may be implemented in the form of software for the server is installed in the server provided according to the embodiment. For convenience, some of the functions for the enhanced helmet service of the present invention will be described through the program module 230 through the description or drawings of the following embodiments, and some other functions will be described through the operation server 100. However, the function of providing an enhanced helmet service in the present invention is not clearly divided into a terminal side function and a server side function, and some of the terminal side functions described in the present invention are included in a server side function or performed. On the contrary, some of the server-side functions may also be included in the terminal-side functions, and the present invention clearly indicates that such embodiments are included in the scope of rights.

도면1을 참조하면, 상기 운영서버(100)는, M(M≥1)명의 헬맷 디자이너가 이용하는 M개의 디자이너단말(165)로부터 N(N≥2)개의 헬맷 디자인 정보를 등록받아 지정된 디자인DB(도시생략)에 저장하는 디자인 등록부(105)를 구비한다. Referring to FIG. 1, the operation server 100 receives N (N≥2) helmet design information from M designer terminals 165 used by M (M≥1) helmet designers and designates a design DB ( And a design registration unit 105 for storing in the drawing.

상기 운영서버(100)를 운영사는 M(M≥1)명의 헬맷 디자이너와 제휴하여 M명의 디자이너가 이용하는 M개의 디자이너단말(165)에 지정된 디자이너용 앱을 설치하며, 상기 디자인 등록부(105)는 상기 M개의 디자이너단말(165)에 설치 실행된 디자이너용 앱과 연동하여 M개의 디자이너단말(165)로부터 각각의 헬맷 디자이너가 디자인한 N(N≥2)개의 헬맷 디자인 정보를 등록받아 지정된 디자인DB에 저장한다. 여기서, 상기 디자인DB에 등록되는 헬맷 디자인 정보는 특정 사용자 머리의 기하학 구조와 수치에 최적화되지 않은 범용(또는 표준 머리 구조 기반)의 헬맷제품에에 적용 가능한 범용(또는 표준 머리 구조 기반)의 헬맷 디자인을 포함하며, 특정 사용자 머리의 기하학 구조와 수치에 최적화(또는 조정) 가능한 벡터 정보를 포함하여 이루어질 수 있다. 또는 상기 헬맷 디자인 정보는 와이어프레임으로 이루어진 헬맷제품의 3D 모델링 데이터에 렌더링 가능한 디자인 도안이나 패턴, 사진, 캐릭터, 이미지 등의 텍스쳐 데이터를 포함할 수 있다. The operator operating the operation server 100 in cooperation with M (M≥1) helmet designers to install the designer app for the M designer terminal 165 used by M designers, the design register 105 Registered N (N≥2) helmet design information designed by each helmet designer from M designer terminals 165 in connection with the designer app installed on M designer terminals 165, and stores them in the designated design DB. do. Here, the helmet design information registered in the design DB is a general purpose (or standard head structure based) helmet design applicable to a general (or standard head structure based) helmet product that is not optimized for the geometry and numerical value of a specific user's head. It may include, and may include a vector information that can be optimized (or adjusted) to the geometry and numerical value of the particular user head. Alternatively, the helmet design information may include texture data such as a design drawing, a pattern, a photo, a character, or an image that can be rendered on the 3D modeling data of the helmet product made of wireframe.

한편 본 발명의 실시 방법에 따라 특정 사용자의 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보가 수신(또는 확인)되는 시점에 적어도 하나의 디자이너단말(165)과 연계하여 상기 사용자 머리 기하학 구조 정보와 머리 수치 정보에 최적화된 사용자 전용 헬맷 디자인을 디자인하는 경우 상기 디자인 등록부(105)나 디자인DB는 생략 가능하며, 이에 의해 본 발명이 한정되지 아니한다. 한편 실시 방법에 따라 상기 디자인DB는 각 사용자 무선단말(200)의 저장영역에 구현될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. At least one designer terminal 165 at the time point of receiving (or confirming) user head geometry information of a specific user and user head numerical information including a user head circumference length range of one-to-one accumulation according to an embodiment of the present invention; When designing a user-specific helmet design optimized for the user head geometry information and the head numerical information in association, the design register 105 or the design DB may be omitted, and the present invention is not limited thereto. In the meantime, the design DB may be implemented in a storage area of each user wireless terminal 200. Accordingly, the present invention is not limited thereto.

도면1을 참조하면, 증강된 헬맷 서비스를 위한 페이지를 사용자 무선단말(200)로 제공하는 페이지 제공부(110)를 구비한다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 페이지는 별도의 웹서버(도시 생략)를 통해 상기 사용자 무선단말(200)로 제공될 수 있으며, 본 발명은 별도의 웹서버를 이용하는 실시예도 권리범위로 포함한다. 이하 편의상 상기 페이지 제공부를 통해 사용자 무선단말(200)로 증강된 헬맷 서비스를 위한 페이지를 제공하는 실시예를 통해 본 발명의 특징을 설명하기로 한다.Referring to FIG. 1, a page providing unit 110 providing a page for an enhanced helmet service to the user wireless terminal 200 is provided. Meanwhile, according to another exemplary embodiment of the present invention, the page may be provided to the user wireless terminal 200 through a separate web server (not shown), and the present invention may also be implemented by using a separate web server. Include. Hereinafter, for convenience, a feature of the present invention will be described through an embodiment of providing a page for a helmet service enhanced to the user wireless terminal 200 through the page providing unit.

사용자 무선단말(200)에서 브라우져를 구동하여 지정된 웹주소로 증강된 헬맷 서비스를 위한 페이지를 요청하면, 상기 웹주소에 대응하는 페이지 제공부(110)는 마크업 언어를 통해 증강된 헬맷 서비스를 위한 인터페이스 화면을 구현하는 페이지부(228)와, 스크립트 언어를 통해 증강된 헬맷 서비스를 위한 지정된 기능(예컨대, 도면2의 프로그램모듈(230) 내에 도시된 구성부에 대응하는 적어도 하나의 기능)을 구현하는 프로그램모듈(230)을 포함하는 페이지를 지정된 매체로부터 추출하거나 또는 지정된 절차에 따라 상기 페이지부와 프로그램모듈(230)을 포함하는 페이지를 생성하고, 상기 사용자 무선단말(200)의 브라우져로 상기 페이지부와 프로그램모듈(230)을 포함하는 페이지를 제공한다.When the user wireless terminal 200 requests a page for the enhanced helmet service to a specified web address by driving a browser, the page providing unit 110 corresponding to the web address may be configured for the enhanced helmet service through a markup language. A page unit 228 for implementing an interface screen, and a designated function (eg, at least one function corresponding to a component shown in the program module 230 of FIG. 2) for an enhanced helmet service through a scripting language Extracting a page including the program module 230 from a designated medium or generating a page including the page unit and the program module 230 according to a specified procedure, and then using the browser of the user wireless terminal 200. It provides a page including a section and a program module 230.

상기 사용자 무선단말(200)의 브라우져는 상기 페이지를 수신하고, 상기 페이지에 포함된 페이지부에 대응하는 마크업 언어를 판독하여 증강된 헬맷 서비스를 위한 인터페이스 화면을 표시하면서, 상기 페이지에 포함된 스크립트 형태의 프로그램모듈(230)을 구동한다.The browser of the user wireless terminal 200 receives the page, reads a markup language corresponding to the page part included in the page, and displays an interface screen for an enhanced helmet service. Drives the program module 230 of the form.

도면1을 참조하면, 상기 운영서버(100)는, 사용자 무선단말(200)의 브라우져를 통해 구동된 프로그램모듈(230)에서 사용자 머리에 대한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 생성/결정하여 전송하면, 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 수신하는 정보 수신부(115)와, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 근거로 사용자의 실제 머리와 일대일 매칭되어 상기 사용자의 실제 머리의 기하학 구조에 밀착하여 착용 가능한 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하는 모델링 생성부(135)를 구비한다. 한편 실시 방법에 따라 상기 정보 수신부(115)는 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터나 상기 영상데이터에 포함된 하나 이상의 화상데이터를 수신 가능하며, 이 경우 상기 운영서버(100)는, 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 인식 처리부(120)와, 상기 인식된 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성하는 구조 생성부(125)와, 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 결정하는 수치 결정부(130)를 더 구비할 수 있다.Referring to FIG. 1, the operation server 100 may generate / determine user head geometry and user head numerical information of a user head in a program module 230 driven through a browser of the user wireless terminal 200. The user head geometry information including the user head geometry information and the user head numerical value information, and the user head geometry information including the user head geometry information and the user head circumference length range of one-to-one accumulation. It is provided with a modeling generation unit 135 for generating a user-specific modeling data including 3D modeling data of a user-only helmet product that is matched one-to-one with the user's real head and in close contact with the geometry of the user's real head. Meanwhile, according to an embodiment, the information receiver 115 may receive image data input through the camera unit 210 of the user wireless terminal 200 or one or more image data included in the image data. The server 100 reads one or more image data to recognize a user's head area to wear a helmet, and user's head geometry information analyzing the geometry of the user's head formed in the recognized head area. Numerical determination unit 130 for determining the user's head numerical information including the real-world and one-to-one accumulation of the user's head circumference of the structure of the user's head formed in the head region and generating a structure; It may be further provided.

사용자 무선단말(200)의 브라우져를 통해 구동된 프로그램모듈(230)해당 사용자 무선단말(200)에 구비된 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 버퍼링한다. 한편 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 과정을 운영서버(100)에서 수행하는 경우, 상기 프로그램모듈(230)은 상기 영상데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 정보 수신부(115)는 상기 프로그램모듈(230)으로부터 상기 영상데이터를 수신하여 버퍼링할 수 있다. Program module 230 driven through the browser of the user wireless terminal 200 through the camera unit 210 provided in the corresponding user wireless terminal 200 to capture the image data of the subject present in the specified angle of view in the camera gaze direction Take input and buffer it. On the other hand, when the operation server 100 performs a process of recognizing one or more image data included in the image data to recognize the user's head region to be worn on the helmet, the program module 230 transmits the image data to the operation server. In this case, the information receiver 115 may receive and buffer the image data from the program module 230.

사용자 무선단말(200)의 브라우져를 통해 구동된 프로그램모듈(230)상기 카메라부(210)를 통해 입력되어 버퍼링되는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 상기 카메라부(210)를 통해 촬영한 피사체 중 헬맷을 착용할 사용자 머리에 대응하는 피사체를 식별하고, 상기 식별된 사용자 머리 영역을 인식한다. 한편 상기 영상데이터가 운영서버(100)로 수신된 경우, 상기 인식 처리부(120)는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 헬맷을 착용할 사용자 머리에 대응하는 피사체를 식별하고, 상기 식별된 사용자 머리 영역을 인식할 수 있다. The program module 230 driven through the browser of the user wireless terminal 200 selects one or more image data included in the image data input and buffered through the camera unit 210 and applies the specified pattern recognition algorithm to the camera. A subject corresponding to a user's head to wear a helmet among the subjects photographed through the unit 210 is identified, and the identified user's head region is recognized. On the other hand, when the image data is received by the operation server 100, the recognition processing unit 120 selects one or more image data included in the image data and applies to a specified pattern recognition algorithm corresponding to the user's head to wear a helmet The subject may be identified and the identified user head region may be recognized.

본 발명의 다른 실시 방법에 따르면, 상기 프로그램모듈(230)에서 상기 머리 영역을 인식한 경우, 상기 프로그램모듈(230)은 상기 인식한 머리 영역에 대응하는 화상데이터를 포함하는 머리 영역 데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 인식 처리부(120)는 상기 머리 영역 데이터를 수신할 수 있다. According to another exemplary embodiment of the present invention, when the head region is recognized by the program module 230, the program module 230 operates the head region data including image data corresponding to the recognized head region. The recognition processing unit 120 may receive the head region data.

상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 인식된 머리 영역에 대응하는 화상데이터를 포함하는 머리 영역 데이터에 지정된 패턴인식알고리즘을 적용하여 도면3에 예시된 전두골과 좌우 두정골에 대응하는 골격 구조 및 좌우 두정근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 측두골에 대응하는 골격 구조 및 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 두정골과 좌우 측두골에 대응하는 골격 구조 및 좌우 두정근과 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보 중 적어도 하나의 가로 방향 머리 거리 정보와, 전두골의 전두융기에 대응하는 골격 구조 및 전두근에 의해 형성된 머리 전면의 이마 곡률 정보와, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보와, 이마의 지정된 부분부터 좌측 측두의 지정된 부분까지 상기 좌측 측두 곡률을 따라 연결한 좌측 측두 거리 정보와, 전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보 중 적어도 하나의 우측 측두 곡률 정보와, 이마의 지정된 부분부터 우측 측두의 지정된 부분까지 상기 우측 측두 곡률을 따라 연결한 우측 측두 거리 정보 중 하나 이상(예컨대, 적어도 하나 또는 둘 이상의 조합)의 정보를 포함하는 사용자 머리 기하학 구조 정보를 생성할 수 있다.The program module 230 (or the structure generating unit 125) applies a pattern recognition algorithm to the head region data including the image data corresponding to the recognized head region to the frontal and left parietal bones illustrated in FIG. Horizontal head distance information of the front of the head formed by the corresponding skeletal structure and the thickness of the left and right parietal muscles and left and right scalp, skeletal structure corresponding to the frontal bone and left and right temporal bones and transverse head direction formed by the thickness of the left and right temporal and right and left scalp Horizontal head distance information of at least one of head distance information, a skeletal structure corresponding to the frontal bone, left and right parietal bones, left and right temporal bones, and horizontal head distance information of the front of the head formed by the thicknesses of the left and right parietal muscles, the left and right temporal muscles and the left and right scalp; The forehead of the front of the head formed by the skeletal structure and the frontal muscle corresponding to the frontal ridge of the frontal bone Curvature information, skeletal structure corresponding to the left and left parietal bones of the frontal bone, and left temporal curvature information in the left temporal direction formed from the left forehead by the left front and left parietal muscles, corresponding to the left and left temporal bones of the frontal bone Left temporal curvature information in the left temporal region from the left forehead by the left frontal and left atrophy, the skeletal structure corresponding to the left part of the frontal bone, the left parietal and the left temporal bone, and the left frontal and left parietal muscles Left temporal curvature information of at least one of the left temporal curvature information in the left temporal direction from the left forehead to the left temporal region by the left temporal and the left temporal curvature from the designated part of the forehead to the designated part of the left temporal The temporal distance information and the right part of the frontal bone Skeletal structure corresponding to the temporal parietal bone and right temporal curvature information in the right temporal direction from the right forehead by the right frontal and right parietal muscles, skeletal structure corresponding to the right and right temporal bones of the frontal bone and the right frontal and right axes Right temporal curvature information in the right temporal direction from the right forehead to the right temporal region, skeletal structures corresponding to the right part of the frontal bone and the right parietal and right temporal bones, and the right forehead and right parietal and right temporal muscles to the right forehead At least one of right temporal curvature information of right temporal curvature information formed in the temporal right temporal direction and right temporal distance information connected along the right temporal curvature from the designated part of the forehead to the designated part of the right temporal (eg, Information of at least one or a combination of two or more) It may generate a user's head geometry information including.

본 발명의 실시 방법에 따르면, 상기 가로 방향 머리 거리 정보와 좌측 측두 곡률 정보와 좌측 측두 거리 정보와 우측 측두 곡률 정보와 우측 측두 거리 정보 중 하나의 정보에 포함되는 골격의 종류와 결합 관계는 헬맷 착용 영역이나 각 사람들의 두개골 구조나 크기에 따라 상기의 경우의 수 중 적어도 하나를 포함할 수 있으나, 이에 의해 본 발명이 한정되는 것은 아니다.According to an embodiment of the present invention, the type and coupling relationship of the skeleton included in one of the horizontal head distance information, the left temporal curvature information, the left temporal curvature information, the right temporal curvature information, and the right temporal distance information are related to the helmet wearing. Depending on the area or the skull structure or size of each person may include at least one of the above cases, but the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 사용자 머리 기하학 구조 정보의 거리 정보는 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계(예컨대, 화상데이터를 판독하는 좌표계) 상의 좌표 거리 정보를 포함할 수 있다. 상기 곡률 정보는 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함할 수 있다. 한편 상기 사용자 머리 기하학 구조 정보에 포함되는 기하학 구조 정보를 해석하는 좌표계는 특정한 좌표계로 한정되는 것은 아니며, 다만 상기 사용자 머리의 기하학 구조 정보에 포함되는 기하학 구조 정보는 현실세계의 도량형에 따른 단위의 기하학 구조 정보를 포함하지 않더라도 무방함을 의미한다.According to an embodiment of the present invention, the distance information of the user head geometry information may include coordinate distance information on a coordinate system (eg, a coordinate system for reading image data) set to determine the user head geometry of the user head region. have. The curvature information may include coordinate curvature information on a coordinate system set to determine a user head geometry of the user head region. On the other hand, the coordinate system for analyzing the geometric structure information included in the user's head geometric structure information is not limited to a specific coordinate system, but the geometric structure information included in the geometric structure information of the user's head is the geometry of the unit according to the metrology in the real world. It does not matter even if it does not include structural information.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 인식된 머리 영역에 대응하는 화상데이터 중 머리 전면 방향에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 머리 전면의 이마 영역에 대응하는 픽셀 영역에 형성되는 그라데이션의 깊이와 면적을 해석함과 동시에 전두골의 전두융기에 대한 해부학적 통계 정보(예컨대, 성인 남성의 전두융기에 대한 평균적 곡률 패턴)를 근거로 상기 머리 전면의 이마 곡률 정보를 산출할 수 있다.According to the exemplary embodiment of the present invention, the program module 230 (or the structure generating unit 125) applies a pattern recognition algorithm designated to image data photographed from the front of the head of the image data corresponding to the recognized head region. Analyze the depth and area of the gradation formed in the pixel area corresponding to the forehead area of the front of the head of the geometric structure information of the user, and at the same time anatomical statistical information about the frontal ridge of the frontal bone (e.g. Forehead curvature information on the front of the head can be calculated based on the average curvature pattern).

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 인식된 머리 영역에 대응하는 화상데이터 중 좌측 관자놀이 방향(예컨대, 머리 전면에서 좌측 30°~45° 방향)에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 좌측 이마의 그라데이션 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분에 대한 좌측 측두 곡률 정보(예컨대, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보)를 산출할 수 있다.According to an embodiment of the present invention, the program module 230 (or the structure generating unit 125) may have a left temple direction (eg, 30 ° to 45 ° left from the front of the head) of image data corresponding to the recognized head region. Direction of the left forehead and left temporal bone of the frontal bone corresponding to the left forehead and the curvature information of the left forehead corresponding to the gradation information of the left forehead of the user's head geometry by applying a pattern recognition algorithm specified to the image data photographed in Left temporal curvature information for the left temporal portion of the left forehead based on statistical information of the anatomical coupling relationship (e.g., skeletal structure corresponding to the left and left parietal bones of the frontal bone and left by the left frontal and left parietal muscles) Left temporal curvature information in the left temporal direction from the forehead to the left temporal side, left side of frontal bone Skeletal structure corresponding to the left and right temporal bones, left temporal curvature information in the left temporal region formed by the left frontal and left atrophy muscles, skeletal structure corresponding to the left part of the frontal bone and the left parietal and left temporal bones At least one left temporal curvature information of the left temporal curvature information formed in the left temporal region of the left forehead by the frontal muscle, the left parietal muscle and the left temporal muscle) can be calculated.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 인식된 머리 영역에 대응하는 화상데이터 중 우측 관자놀이 방향(예컨대, 머리 전면에서 우측 30°~45° 방향)에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 우측 이마의 그라데이션 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분에 대한 우측 측두 곡률 정보(예컨대, 전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보 중 적어도 하나의 우측 측두 곡률 정보)를 산출할 수 있다.According to the exemplary embodiment of the present invention, the program module 230 (or the structure generating unit 125) may have a right temple play direction (eg, 30 ° to 45 ° right from the front of the head) of the image data corresponding to the recognized head region. Direction of the right forehead and right temporal bone of the frontal bone corresponding to the right forehead and the curvature information of the right forehead corresponding to the gradation information of the right forehead of the user's head geometry by applying a pattern recognition algorithm specified to the image data photographed in Right temporal curvature information for the right temporal region covered by the hair in the right forehead based on statistical information of the anatomical coupling relationship (e.g., skeletal structures corresponding to the right and right parietal bones of the frontal bone and the right frontal and right parietal muscles) Right temporal curvature information in the right temporal direction from the forehead to the right temporal side, right side of frontal bone Skeletal structure corresponding to the branch and right temporal bone, and right temporal curvature information in the right temporal direction formed from the right forehead by the right frontal and right atrophy, the skeletal structure corresponding to the right part of the frontal bone and the right parietal and right temporal bone and the right At least one right temporal curvature information of the right temporal curvature information in the right temporal direction formed on the right temporal region by the frontal muscle, the right parietal muscle and the right temporal muscle) can be calculated.

한편 상기 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)(예컨대, 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예: 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예: 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라 등)를 구비할 수 있다.On the other hand, the user wireless terminal 200 is a distance recognition sensor unit 212 for recognizing the distance between the subject and the camera lens in the direction of the camera line of sight (for example, to transmit an optical signal of a specified wavelength and the optical signal reflected by the subject Optical sensor unit (eg, infrared sensor unit, laser sensor unit, major sensor unit, etc.) that senses the distance by sensing the distance, transmits an electromagnetic wave signal of a specified wavelength or a radio frequency signal in the form of a radio frequency signal and reflects the radio signal Wireless sensor unit for sensing the distance to detect the distance, Sound wave sensor unit (for example, ultrasonic sensor unit, etc.) to recognize the distance by transmitting a sound wave signal of the specified frequency band and sensing the sound wave signal reflected by the subject, spaced at a specified interval Two camera lenses and a dual camera including a camera module).

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 사용자 무선단말(200)에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부(212)를 구비한 경우, 상기 거리인식 센서부(212)를 통해 상기 사용자 머리 기하학 구조 정보 중 이마 영역을 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득(예컨대, 거리인식 센서부(212)가 송출하는 신호의 방향을 조정하여 이마 영역의 각 부분 영역에 신호를 송출하고 반사되는 신호를 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득)할 수 있으며, 상기 거리인식 센서부(212)를 통해 센싱된 이마의 센싱 정보와 전두골의 전두융기에 대한 해부학적 통계 정보(예컨대, 성인 남성의 전두융기에 대한 평균적 곡률 패턴)를 근거로 상기 머리 전면의 이마 곡률 정보를 산출할 수 있다.According to the exemplary embodiment of the present invention, the program module 230 (or the structure generator 125) includes a distance recognition sensor unit 212 that recognizes the distance between the subject and the camera lens in the user wireless terminal 200. In one case, the sensing information corresponding to the forehead curvature is obtained by sensing the forehead area of the user's head geometry information through the distance recognition sensor unit 212 (eg, the direction of the signal transmitted by the distance recognition sensor unit 212). By transmitting a signal to each partial area of the forehead area and sensing the reflected signal to obtain sensing information corresponding to the forehead curvature), and the sensing information of the forehead sensed by the distance recognition sensor 212 Forehead curvature information on the front of the head can be calculated based on anatomical statistical information (eg, average curvature pattern for the frontal ridge of an adult male).

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))은 상기 사용자 무선단말(200)에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부(212)를 구비한 경우, 상기 거리인식 센서부(212)를 통해 상기 사용자 머리 기하학 구조 정보 중 좌측 이마 영역을 센싱하여 좌측 이마 곡률에 대응하는 센싱 정보를 획득(예컨대, 거리인식 센서부(212)가 송출하는 신호의 방향을 조정하여 좌측 이마 영역의 각 부분 영역에 신호를 송출하고 반사되는 신호를 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득)할 수 있으며, 상기 거리인식 센서부(212)를 통해 센싱된 좌측 이마의 센싱 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분에 대한 좌측 측두 곡률 정보(예컨대, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보)를 산출할 수 있다.According to an exemplary embodiment of the present invention, the program module 230 (or the structure generator 125) includes a distance recognition sensor unit 212 that recognizes a distance between a subject and a camera lens in the user wireless terminal 200. In one case, the sensing device corresponding to the left forehead curvature is obtained by sensing the left forehead region of the user head geometry through the distance recognition sensor unit 212 (for example, a signal transmitted by the distance recognition sensor unit 212). The sensing direction corresponding to the curvature of the forehead by acquiring a signal to each partial region of the left forehead region by sensing the direction of the forehead and sensing the reflected signal), and is sensed by the distance recognition sensor unit 212. The left forehead is based on the curvature information of the left forehead corresponding to the sensing information of the forehead and statistical information of the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead. Left temporal curvature information for the left temporal part obscured by the hair at the forehead (e.g., the skeletal structure corresponding to the left part of the frontal bone and the left parietal bone and the left temporal direction formed in the left temporal region on the left forehead by the left frontal and left parietal muscles) Temporal curvature information, skeletal structure corresponding to the left and left temporal bones of the frontal bone, and left temporal curvature information in the left temporal direction formed from the left forehead by the left frontal and left temporal muscles, the left part of the frontal bone and the left parietal and left At least one left temporal curvature information of the left temporal curvature information in the left temporal direction formed in the left temporal region by the left frontal muscle, the left parietal muscle and the left temporal muscle corresponding to the temporal bone) can be calculated.

한편 상기 프로그램모듈(230)에서 사용자 머리 전면의 가로 방향 머리 거리 정보와, 머리 전면의 이마 곡률 정보와, 좌측 관자놀이 방향의 좌측 측두 곡률 정보와, 좌측 관자놀이 방향의 좌측 측두 거리 정보와, 우측 관자놀이 방향의 우측 측두 곡률 정보와, 우측 관자놀이 방향의 우측 측두 거리 정보 중 하나 이상의 정보를 포함하는 사용자 머리 기하학 구조 정보를 구성한 경우, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보를 운영서버(100)로 전송할 수 있으며, 상기 정보 수신부(115)는 상기 사용자 머리 기하학 구조 정보를 수신할 수 있다.In the program module 230, horizontal head distance information in front of the user's head, forehead curvature information in front of the head, left temporal curvature information in the left temple direction, left temporal distance information in the left temple direction, and right temple play direction When the user head geometry information including at least one of right temporal curvature information and right temporal distance information in the right temple direction is configured, the program module 230 operates the user head geometry information in operation server 100. The information receiver 115 may receive the user head geometry information.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 구조 생성부(125))가 상기 사용자 머리의 기하학 구조를 해석하여 생성한 사용자 머리 기하학 구조 정보는 사용자의 실제 머리의 수치를 반영하지 못할 수 있다. 본 발명은 단순히 가상의 헬맷 데이터를 생성하는 것 뿐만아니라, 사용자의 실제 머리에 밀착하여 착용할 사용자 전용 헬맷제품을 제작하거나 판정하는 구성까지 포함하므로, 사용자의 실제 머리의 수치 정보를 획득해야 한다.According to an embodiment of the present invention, the user head geometry information generated by the program module 230 (or the structure generator 125) by analyzing the geometry of the user head does not reflect the numerical value of the user's head. You may not be able to. The present invention not only generates virtual helmet data, but also includes a configuration for manufacturing or determining a user-only helmet product to be worn in close contact with the user's actual head, so that the numerical information of the user's actual head must be obtained.

본 발명에 따르면, 각 사용자 별로 사용자 머리의 기하학 구조나 수치는 사용자 별로 모두 상이하며, 특정한 사용자의 사용자 전용 헬맷제품을 3D 모델링하거나 제작하기 위해 사용자 머리의 기하학 구조를 인식함과 동시에 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하는 과정을 거칠 수 있다.According to the present invention, the geometry of the user's head or the numerical value of each user is different for each user, and the geometry of the user's head while recognizing the geometry of the user's head in order to 3D model or produce a user-specific helmet product for a specific user. The process of determining the numerical information of the user head of the real world and the one-to-one accumulation of the structure can be performed.

본 발명의 실시 방법에 따르면, 상기 사용자 머리 기하학 구조 정보는 지정된 좌표계 상에서 좌표 값으로 해석 가능한 벡터 정보를 적어도 일부 포함하고 있으므로, 사용자 머리의 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하여 상기 특징 점 간의 거리를 현실세계와 일대일 축적으로 결정하는 과정을 통해 상기 사용자 머리 기하학 구조 정보를 사용자의 실제 머리의 수치와 일대일 매칭되는 사용자 머리 전용의 기하학 구조 정보로 이용할 수 있다.According to an embodiment of the present invention, since the user head geometry information includes at least a part of vector information that can be interpreted as a coordinate value on a designated coordinate system, two or more feature points that can be specified for calculating a distance on the geometry of the user head are determined. By using the process of determining the distance between the feature points to the real world in one-to-one scale, the user head geometry information may be used as geometry information dedicated to the user head that is one-to-one matched to the numerical value of the user's head.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)은 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하기 위해 카메라부(210)를 통해 사용자 머리를 촬영하는 시점부터 사용자 머리의 수치를 결정할 수 있는 방식으로 촬영하도록 처리하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the program module 230 starts from the point of photographing the user's head through the camera unit 210 to determine the user's head numerical information of the real world and one-to-one accumulation of the geometry of the user's head. It is desirable to process the shooting in such a way that the numerical value of the user's head can be determined.

본 발명의 제1 수치 결정 실시예에 따르면, 프로그램모듈(230)은 상기 사용자 무선단말(200)에 구비된 카메라부(210)의 자동초점 촬영 상태에서 지정된 방향의 사용자 머리를 촬영하도록 제어(또는 설정)할 수 있으며, 이 경우 상기 프로그램모듈(230)(또는 인식 처리부(120))은 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식할 수 있다. According to the first numerical determination embodiment of the present invention, the program module 230 controls (or photographs) the user's head in a specified direction in the autofocus photographing state of the camera unit 210 provided in the user wireless terminal 200. In this case, the program module 230 (or the recognition processing unit 120) reads the input image data in the auto focus photographing state of the camera unit 210 to recognize the user's head area to wear the helmet. can do.

한편 본 발명의 제1 수치 결정 실시예에서 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 구조 생성부(125)를 통해 생성된 사용자 머리 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점(예컨대, 얼굴의 눈썹 윗 부분의 이마, 좌측 이마와 좌측 머리카락 부분의 경계, 좌측 귀, 우측 이마와 우측 머리카락 부분의 경계, 우측 귀 등)을 결정하고, 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 예를들어, '초점거리(f)=[카메라 렌즈와 피사체 사이의 식별거리(L)×이미지크기(V)] / [피사체높이(H)]'의 산출식으로 산출될 수 있는데, 위 산출식에서 초점거리(f)는 카메라부(210)의 자동초점 과정에서 자동 결정되고 머리 영역에 대한 이미지크기(V)는 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 이용하여 도출 가능하므로, 카메라 렌즈와 피사체 사이의 식별거리(L)만 도출하면 사용자 머리 기하학 구조 정보 상의 특정 점 간 거리(=피사체높이(H))를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. Meanwhile, in the first numerical determination embodiment of the present invention, the program module 230 (or the numerical decision unit 130) is capable of specifying a distance on the user head geometry structure generated by the structure generation unit 125. Two or more feature points (eg, the forehead of the upper part of the eyebrow, the boundary of the left forehead and the left hair part, the left ear, the boundary of the right forehead and the right hair part, the right ear, etc.) are determined, and the camera unit 210 is determined. Is determined by substituting one or more pieces of information of a focal length automatically determined in the autofocusing process, pixel distance between two or more specific points on the image data, and camera specification information included in the wireless terminal 200 as input values of a specified calculation formula. The distance between two or more specific points can be calculated as numerical information of the real world and one-to-one accumulation. For example, it can be calculated by a formula of 'focal length (f) = [identification distance (L) × image size (V)] / [subject height (H)] between the camera lens and the subject'. In the equation, the focal length f is automatically determined in the autofocusing process of the camera unit 210, and the image size V for the head region is provided in the wireless terminal 200 and the pixel distance between two or more specific points on the image data. Since it is possible to derive by using one or more information of the camera specification, the distance between a specific point (= subject height (H)) on the user's head geometry information can be obtained by deriving only the identification distance (L) between the camera lens and the subject And numerical information of one-to-one accumulation.

본 발명의 실시 방법에 따르면, 프로그램모듈(230)은 카메라 촬영 인터페이스를 통해 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 거리가 지정된 식별거리(예컨대, 10cm, 15cm, 20cm 등)를 유지하여 촬영하도록 유도하며, 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 다만 본 발명의 실시 방법에 따르면, 프로그램모듈(230)이 상기 카메라 렌즈와 사용자 머리의 각 부분 사이의 거리를 지정된 식별거리로 유지하여 촬영하도록 유도하더라도, 상기 유도된 식별거리와 실제 식별거리 사이에는 오차가 발생하며, 이에 프로그램모듈(230)(또는 수치 결정부(130))는 상기 유도된 식별거리를 이용하여 상기 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하되, 상기 유도된 식별거리의 전/후 일정 범위의 거리에 대한 하나 이상의 식별거리를 더 이용하여 복수의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출한 후 이 중에서 사용자 머리의 실제 특징 점 간 거리와 매칭되는 거리를 확률적으로 결정하거나 또는 상기 산출된 복수의 특징 점 간 거리를 통계 처리하여 현실세계와 일대일 축적의 수치 정보를 산출할 수 있다. According to an exemplary embodiment of the present invention, the program module 230 maintains an identification distance (eg, 10 cm, 15 cm, 20 cm, etc.) in which a distance between the camera lens and each part of the user's head is designated through a camera photographing interface. The distance between the determined two or more feature points may be calculated as numerical information of the real world and one-to-one accumulation by including the photographing guided identification distance as an input value of the calculation formula. However, according to the exemplary embodiment of the present invention, even if the program module 230 induces photographing while maintaining the distance between the camera lens and each part of the user's head at a specified identification distance, the distance between the induced identification distance and the actual identification distance is determined. An error occurs, and the program module 230 (or the numerical determiner 130) calculates the distance between the feature points as the numerical information of the real world and the one-to-one accumulation using the derived identification distance, By using one or more identification distances for a range of distances before and after the identification distance, the distance between the plurality of feature points is calculated as numerical information of the real world and one-to-one accumulation, and the distance between the actual feature points of the user's head Probably determine the matching distance or statistically process the calculated distance between the plurality of feature points to the numerical value of the real world and one-to-one accumulation The beam can be calculated.

본 발명의 제2 수치 결정 실시예에 따르면, 프로그램모듈(230)은 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 머리를 촬영히도록 유도한다. 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 구조 생성부(125)를 통해 생성된 사용자 머리 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 한편 프로그램모듈(230)은 상기 사용자 머리를 촬영하기 전 또는 후에 현실세계의 길이를 재는 도구(예컨대, 자)를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리할 수 있으며, 상기 프로그램모듈(230)(또는 수치 결정부(130))는 상기 입력된 수치 정보를 상기 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보로 결정할 수 있다.According to the second numerical determination embodiment of the present invention, the program module 230 induces the user's head to be photographed in the designated photographing mode state (for example, the auto focus photographing state). The program module 230 (or the numerical determiner 130) determines at least two feature points that can be specified for distance calculation on the user head geometry information generated by the structure generator 125. Meanwhile, the program module 230 may process to input numerical information obtained by measuring the distance between the determined two or more feature points using a tool (eg, a ruler) measuring the length of the real world before or after photographing the user's head. The program module 230 (or the numerical determiner 130) may determine the input numerical information as the user head numerical information of the real world and the one-to-one accumulation of the geometry of the user's head.

본 발명의 제3 수치 결정 실시예에 따르면, 프로그램모듈(230)은 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 머리를 촬영히도록 유도하되, 상기 사용자 머리 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 머리와 길이를 재는 도구(예컨대, 자)를 함께 촬영하도록 유도한다. 바람직하게, 상기 프로그램모듈(230)은 상기 길이를 재는 도구의 눈금과 수치가 카메라부(210)의 화각 내에 포함되어 화상데이터 상에 존재하도록 촬영 유도하는 것이 바람직하다.According to the third numerical determination embodiment of the present invention, the program module 230 induces the user's head to be photographed in a designated shooting mode state (for example, an auto focus shooting state, etc.), but the length of the real world near the user's head. After the measuring tool is provided, the user's head and the measuring tool (eg, the ruler) are guided to photograph together. Preferably, the program module 230 may induce photographing so that the scale and the numerical value of the measuring tool are included in the angle of view of the camera unit 210 and exist on the image data.

한편 본 발명의 제3 수치 결정 실시예에서 상기 카메라부(210)를 통해 촬영된 화상데이터 상에 사용자 머리와 길이를 재는 도구(예컨대, 도구의 눈금과 수치 등)학 함께 포함된 경우, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 상기 프로그램모듈(230)(또는 수치 결정부(130))은 지정된 패턴인식알고리즘을 통해 상기 화상데이터 상에 존재하는 현실세계의 길이를 재는 도구를 인식함과 동시에 상기 길이를 재는 도구에 표시된 눈금과 수치값을 인식하고, 이를 기반으로 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식한다. 예를들어, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 화상데이터 상의 픽셀 거리 200 픽셀은 현실세계 10mm에 해당한다는 형태의 관계를 인식할 수 있다. 만약 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계가 인식되면, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계(예컨대, 비율)를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.On the other hand, in the third numerical determination embodiment of the present invention, when the tool (eg, scale and numerical value of the tool, etc.) for measuring the user's head and length is included in the image data photographed by the camera unit 210, the program is included. Module 230 (or numerical determiner 130) determines two or more specific feature points that are specific for distance calculation on the user head geometry. The program module 230 (or the numerical determiner 130) recognizes a tool for measuring the length of the real world existing on the image data through a designated pattern recognition algorithm, and at the same time, the scale displayed on the tool for measuring the length and Recognize the numerical value, and based on this, the relationship between the numerical distance in the real world and the pixel distance in the image data between the scales of the tool for measuring the length on the image data. For example, the program module 230 (or the numerical determiner 130) may recognize a relationship in the form that 200 pixels of the pixel distance on the image data corresponds to 10 mm of the real world. If the relationship between the numerical distance in the real world between the scales of the measuring tool on the image data and the pixel distance on the image data is recognized, the program module 230 (or the numerical determiner 130) determines the The distance between the two or more feature points may be calculated as numerical information of the real world and the one-to-one accumulation by reading the pixel distance between the determined two or more feature points through a relationship (eg, a ratio) between the numerical distance between the grids and the pixel distance.

본 발명의 제4 수치 결정 실시예에 따르면, 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)를 구비할 수 있다. 본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예컨대, 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예컨대, 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라(예컨대, 듀얼 카메라는 카메라 기능을 제공함과 동시에 거리인식을 위한 센서의 기능을 제공) 중 적어도 하나의 센서부를 포함할 수 있다. 그러나 본 발명의 거리인식 센서부(212)가 상기 예시된 센서부로 한정되는 것은 아니며, 당업자의 의도에 따라 거리인식에 사용 가능한 센서라면 모두 본 발명의 권리범위에 포함될 수 있음을 명백하게 밝혀두는 바이다.According to the fourth numerical determination embodiment of the present invention, the user wireless terminal 200 may include a distance recognition sensor unit 212 for recognizing the distance between the subject and the camera lens in the direction of the camera eye. According to the exemplary embodiment of the present invention, the distance recognition sensor unit 212 may transmit an optical signal having a specified wavelength and sense an optical signal reflected by a subject to recognize a distance (eg, an infrared sensor unit and a laser). Sensor unit, major sensor unit, etc.), a wireless sensor unit for transmitting a radio wave signal of a specified wavelength or a radio frequency signal form and sensing a distance by sensing a radio signal reflected by a subject, and a sound wave signal of a specified frequency band A sound wave sensor unit (for example, an ultrasonic sensor unit, etc.) for transmitting a distance and sensing a sound wave signal reflected by a subject, a dual camera (eg, a dual camera) including two camera lenses and a camera module spaced at a predetermined interval May provide a camera function and at the same time provide a function of a sensor for distance recognition). The. However, the distance recognition sensor unit 212 of the present invention is not limited to the above-described sensor unit, and it will be apparent that any sensor that can be used for distance recognition according to the intention of the skilled person may be included in the scope of the present invention.

본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 센싱 방향과 센싱 범위를 지니며, 상기 거리인식 센서부(212)의 센싱 방향은 상기 카메라부(210)의 시선 방향과 동기화되고, 상기 거리인식 센서부(212)의 센싱 범위는 상기 카메라부(210)의 화각과 매칭되는 것이 바람직하다. 한편 실시 방법에 따라 상기 거리인식 센서부(212)는 센싱 방향을 카메라 시선 방향과 동기화한 상태에서 지정된 센싱 범위 내에서 센싱할 부분 영역(예컨대, 화상데이터 상의 특징 영역(예: 화상데이터 상의 영역 중 대비 값이 지정된 기준 값 이상인 영역), 화상데이터의 전체 영역이나 특정 영역을 복수의 영역으로 분할한 분할 영역 등)을 지정하여 거리를 센싱할 수 있으며, 이로써 카메라부(210)를 통해 촬영하는 피사체의 3차원 구조 중 카메라 시선 방향(또는 센싱 방향)의 3차원 구조를 센싱할 수 있다. According to the exemplary embodiment of the present invention, the distance recognition sensor unit 212 has a specified sensing direction and a sensing range, and the sensing direction of the distance recognition sensor unit 212 is synchronized with the eyeline direction of the camera unit 210. The sensing range of the distance recognition sensor unit 212 is preferably matched with the angle of view of the camera unit 210. According to an exemplary embodiment, the distance recognition sensor unit 212 may be configured to sense a partial area (eg, a feature area on image data (eg, an area on image data) within a specified sensing range while synchronizing a sensing direction with a camera line of sight direction. An area where the contrast value is greater than or equal to a specified reference value), an entire area of the image data, or a divided area in which a specific area is divided into a plurality of areas, etc.) to sense the distance, thereby subjecting the subject to be photographed through the camera unit 210. The 3D structure of the 3D structure of the camera can be sensed in the direction (or sensing direction) of the camera.

한편 본 발명의 제4 수치 결정 실시예에서 상기 사용자 무선단말(200)에 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)가 구비된 경우, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부(212)를 통해 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 센싱하거나 상기 거리인식 센서부(212)를 센싱된 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 확인하고, 상기 거리인식 센서부(212)를 통해 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.Meanwhile, in the fourth numerical determination embodiment of the present invention, when the user wireless terminal 200 is provided with a distance recognition sensor unit 212 for recognizing the distance between the subject and the camera lens in the direction of the camera eye, the program module 230 (or the numerical determiner 130) determines at least two feature points that can be specified for distance calculation on the user head geometry, and the camera lens and the user head through the distance recognition sensor 212. Sensing the identification distance between each part of the or the distance recognition sensor unit 212 to check the identification distance between the respective parts of the camera lens and the user's head sensed, and confirmed through the distance recognition sensor unit 212 The distance between the two or more feature points determined may be calculated as numerical information of the real world and one-to-one accumulation by substituting the determined identification distance as an input value of a specified calculation formula. .

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)은 상기 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식할 수 있으며, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to an embodiment of the present invention, the program module 230 may recognize the user's head region to wear a helmet by reading the image data input in the auto focus photographing state of the camera unit 210, the program module 230 (or the numerical determiner 130) is provided in the wireless terminal 200 and the focal length automatically determined during the autofocus process of the camera unit 210, the pixel distance between two or more specific points on the image data. One or more pieces of camera specification information may be included in an input value of the calculation formula to calculate the determined distance between two or more specific points as numerical information of the real world and one-to-one accumulation.

본 발명의 제5 수치 결정 실시예에 따르면, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 제1 내지 제4 수치 결정 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 머리 기하학 구조 상에서 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 결정할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fifth numerical determination embodiment of the present invention, the program module 230 (or the numerical value determining unit 130) may at least partially combine at least two or more embodiments of the first to fourth numerical determination embodiments. The distance between two or more specific points determined on the user head geometry in the form may be determined by numerical information of the real world and one-to-one accumulation, and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 머리 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출함과 동시에, 현실세계와 일대일 축적의 사용자 머리 둘레 길이 범위정보를 산출할 수 있다. 바람직하게, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 상기 사용자 머리 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 머리 기하학 구조를 형성하는 전두골과 좌우 두정골과 좌우 측두골 및 후두골 중 둘 이상의 골격 구조를 결합하는 해부학적 결합 관계의 통계 정보를 근거로 지정된 오차 범위 내에서 현실세계와 일대일 축적의 사용자 머리 둘레 길이 범위정보를 산출할 수 있다. 상기 사용자 머리 수치 정보는 상기 산출된 사용자 머리 둘레 길이 범위정보를 포함한다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 프로그램모듈(230)(또는 수치 결정부(130))은 사용자가 줄자로 자신의 머리 둘레 길이를 잰 수치 형태로 상기 사용자 머리 둘레 길이 범위정보를 입력받을 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the exemplary embodiment of the present invention, the program module 230 (or the numerical determiner 130) may designate a specific point on the user head geometry according to at least one of the first to fifth numerical determiner embodiments. The distance between the user may be calculated as numerical information of the real world and the one-to-one accumulation, and the user's head circumference range information of the real world and the one-to-one accumulation may be calculated. Preferably, the program module 230 (or the numerical determiner 130) is one or more numerical information calculated corresponding to the user head geometry information and the frontal bone, left and right parietal bone and left and right temporal bone forming the user head geometry And user head circumference length range information of the real world and one-to-one accumulation within a specified error range based on statistical information of an anatomical coupling relationship combining two or more skeletal structures of the laryngeal bone. The user head numerical value information includes the calculated user head circumference length range information. Meanwhile, according to another exemplary embodiment of the present invention, the program module 230 (or the numerical determiner 130) receives the user's head circumference length range information in a numerical form in which a user measures the length of his circumference with a tape measure. As such, the present invention is not limited thereto.

한편 상기 프로그램모듈(230)에서 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 머리 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 포함하는 사용자 머리 수치 정보를 결정한 경우, 상기 프로그램모듈(230)은 상기 사용자 머리 수치 정보를 운영서버(100)로 전송할 수 있으며, 상기 정보 수신부(115)는 상기 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 수신할 수 있다.In the meantime, in the program module 230, a user head including, as numerical information of the real world and one-to-one accumulation, a specified distance between specific points on a user's head geometry according to at least one of the first to fifth numerical determination embodiments. When the numerical information is determined, the program module 230 may transmit the user head numerical information to the operation server 100, and the information receiver 115 may have a one-to-one accumulation of the real world with respect to the geometry of the user head. User head numerical information can be received.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)에서 사용자 머리 기하학 구조 정보를 생성한 경우, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보를 사용자 무선단말(200)의 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 머리 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. 한편 상기 프로그램모듈(230)에서 사용자 머리 수치 정보를 결정한 경우, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보와 상기 사용자 머리 수치 정보를 연계하여 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. According to the exemplary embodiment of the present invention, when the user module geometry information is generated by the program module 230, the program module 230 transmits the user head geometry information to a designated storage area of the user wireless terminal 200. In this case, the user head geometry information is stored in the image data included in the image data input through the camera unit 210 of the user wireless terminal 200, and the user exists in the image data. It can be used as a user-specific head recognition information for real-time recognition of the head area of. On the other hand, when the user head numerical information is determined by the program module 230, the program module 230 may manage the user head geometry by storing the user head numerical information in a designated storage area in association with the user head. In this case, the user head geometry information and the user head numerical information are read from the image data included in the image data input through the camera unit 210 of the user wireless terminal 200, and the user's head region exists in the image data. Can be used as user-specific head recognition information for real time recognition.

한편 상기 정보 수신부(115)를 통해 프로그램모듈(230)으로부터 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보 중 적어도 하나의 정보를 수신하거나 및/또는 상기 구조 생성부(125)를 통해 사용자 머리 기하학 구조 정보를 생성하거나 및/또는 상기 수치 결정부(130)를 통해 일대일 축적의 사용자 머리 수치 정보를 결정한 경우, 상기 모델링 생성부(135)는 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 근거로 사용자의 실제 머리와 일대일 매칭되어 상기 사용자의 실제 머리의 기하학 구조에 밀착하여 착용 가능한 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성할 수 있다.Meanwhile, at least one of user head geometry information and one-to-one accumulation of user head numerical information is received from the program module 230 through the information receiver 115 and / or the user head through the structure generator 125. When generating geometric structure information and / or determining one-to-one accumulation of user head numerical information through the numerical determiner 130, the modeling generator 135 may calculate the user head geometry and one-to-one accumulation of user head numerical values. Based on the information, one-to-one matching with the actual head of the user may generate 3D modeling data of a user-only helmet product that can be worn in close contact with the geometry of the actual head of the user.

본 발명의 실시 방법에 따르면, 상기 모델링 생성부(135)는 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리 영역에 형성된 이마와 측두에 밀착하여 착용 가능하며 사용자의 머리 둘레 길이에 매칭되는 사용자의 실제 머리 영역과 일대일 매칭된 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the modeling generator 135 may include a forehead formed in an actual head region of a user using the user head geometry information including the user head geometry information and the user head circumference length range of one-to-one accumulation. It is desirable to generate 3D modeling data of a user-specific helmet product that is worn in close contact with the frontal head and is matched one-to-one with a user's actual head region that matches the length of the user's head.

도면1을 참조하면, 상기 운영서버(100)는, 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 확인하는 데이터 확인부(140)와, 상기 프로그램모듈(230)으로 상기 사용자 전용 헬맷 데이터를 제공하는 데이터 제공부(145)를 구비하며, 상기 프로그램모듈(230)으로 상기 사용자 머리 기하학 구조 정보를 제공하거나, 및/또는 상기 프로그램모듈(230)으로 상기 사용자 머리 수치 정보를 제공하는 정보 제공부(150)를 더 구비한다.Referring to Figure 1, the operation server 100, the user-specific helmet data including the user-specific helmet data generated by applying the specified helmet design to the user-specific modeling data generated by one-to-one matching the actual head of the user And a data checking unit 140 for checking and a data providing unit 145 for providing the user-only helmet data to the program module 230 and providing the user head geometry information to the program module 230. Or, and / or the information providing unit 150 for providing the user head numerical information to the program module 230.

상기 모델링 생성부(135)를 통해 상기 사용자의 실제 머리에 일대일 매칭된 사용자 전용 모델링 데이터(예컨대, 사용자 전용 헬맷제품의 3D 모델링 데이터)가 생성되면, 상기 데이터 확인부(140)는 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 확인하기 위해 지정된 하나 이상의 절차를 수행한다. When the user-specific modeling data (eg, 3D modeling data of a user-only helmet product) that is one-to-one matched to the actual head of the user is generated through the modeling generation unit 135, the data checking unit 140 generates the user's actual head. One or more designated procedures are performed to confirm the user-specific helmet data including the user-specific helmet data generated by applying the specified helmet design to the user-specific modeling data generated by one-to-one matching to the head.

본 발명의 제1 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈(230)으로 제공할 수 있으며, 상기 프로그램모듈(230)은 상기 n개의 헬맷 디자인 정보를 수신하여 출력하고, 사용자로 하여금 n개의 헬맷 디자인 정보 중 어느 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택하도록 유도한다.According to an embodiment of the first user-specific data check of the present invention, the data checking unit 140 stores N (N≥2) helmet design information designed and registered by M (M≥1) helmet designers. N (1 ≦ n ≦ N) helmet design information may be extracted and provided to the program module 230, and the program module 230 receives and outputs the n helmet design information, and allows the user to n To select at least one of the helmet design information to be applied among the helmet design information.

상기 프로그램모듈(230)에서 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 데이터 확인부(140)는 상기 디자인선택정보를 수신하고, 상기 디자인선택정보에 대응하는 적용 대상 헬맷 디자인 정보를 추출한다. 만약 상기 디자인선택정보에 적용 대상 헬맷 디자인 정보가 포함된 경우, 상기 데이터 확인부(140)는 상기 디자인선택정보로부터 적용 대상 헬맷 디자인 정보를 추출할 수 있다. 또는 상기 데이터 확인부(140)는 N개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 상기 디자인선택정보에 대응하는 적용 대상 헬맷 디자인 정보를 추출할 수 있다. When the program module 230 transmits design selection information for selecting at least one target helmet design information of the n helmet design information, the data checking unit 140 receives the design selection information and selects the design. Extract the applicable helmet design information corresponding to the information. If the design selection information includes the application target helmet design information, the data checking unit 140 may extract the application target helmet design information from the design selection information. Alternatively, the data checking unit 140 may extract application target helmet design information corresponding to the design selection information from a design DB storing N helmet design information.

한편 상기 적용 대상 헬맷 디자인 정보가 추출되면, 상기 데이터 확인부(140)는 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 적용할 사용자 전용 모델링 데이터를 확인하고, 상기 확인된 사용자 전용 모델링 데이터에 상기 추출된 적용 대상 헬맷 디자인 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 생성한다. Meanwhile, when the application target helmet design information is extracted, the data checking unit 140 includes the design selection information among user-specific modeling data including 3D modeling data of the user-only helmet product generated by the modeling generator 135. A user including the user-specific helmet data by identifying the user-specific modeling data to apply the helmet design information corresponding to the applied to the identified user-specific modeling data (for example, rendering, etc.) Create dedicated helmet data.

본 발명의 제2 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈(230)으로 제공할 수 있으며, 상기 프로그램모듈(230)은 상기 n개의 헬맷 디자인 정보를 수신하여 출력하고, 사용자로 하여금 n개의 헬맷 디자인 정보 중 어느 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택하도록 유도한다.According to the second user-only data confirmation embodiment of the present invention, the data confirmation unit 140 stores a design DB of N (N≥2) helmet design information registered and designed by M (M≥1) helmet designers. N (1 ≦ n ≦ N) helmet design information may be extracted and provided to the program module 230, and the program module 230 receives and outputs the n helmet design information, and allows the user to n To select at least one of the helmet design information to be applied among the helmet design information.

상기 프로그램모듈(230)에서 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 데이터 확인부(140)는 상기 디자인선택정보를 수신한다. 상기 데이터 확인부(140)는 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 등록한 디자이너단말(165)과 연동하기 위한 디자이너의 통신수단정보(예컨대, 디자이너용 앱식별정보, 메일주소, 웹스토리지정보, 휴대폰정보 등)를 확인하고, 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 적용할 사용자 전용 모델링 데이터를 확인한 후, 상기 디자이너의 통신수단정보를 이용하여 상기 디자이너단말(165)로 상기 확인된 사용자 전용 모델링 데이터와 상기 디자인선택정보(또는 디자인선택정보를 이용하여 디자인DB로부터 추출한 헬맷 디자인 정보 등)를 제공한다. 이후 상기 디자이너는 상기 디자이너단말(165)의 앱을 통해 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 생성한다. 상기 디자이너단말(165)의 앱에서 상기 생성된 사용자 전용 헬맷 데이터를 상기 운영서버(100)로 제공하면, 상기 데이터 확인부(140)는 상기 디자이너단말(165)로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 수신한다.When the program module 230 transmits the design selection information for selecting at least one of the helmet design information to be applied among the n helmet design information, the data checking unit 140 receives the design selection information. The data confirmation unit 140 is a communication means information of the designer for interlocking with the designer terminal 165 registered helmet design information corresponding to the design selection information (for example, app identification information, e-mail address, web storage information for designers, User information to check the mobile phone information) and apply helmet design information corresponding to the design selection information among user-specific modeling data including 3D modeling data of the user-specific helmet product generated by the modeling generator 135. After checking the modeling data, the user-specific modeling data and the design selection information (or design selection information extracted from the design DB using the design selection information, etc.) identified by the designer terminal 165 using the communication means information of the designer. ). Thereafter, the designer applies the helmet design information corresponding to the design selection information to the user modeling data through the app of the designer terminal 165 (eg, rendering, etc.), and includes user-specific helmet data including user-specific helmet data. Create When providing the generated user-only helmet data in the app of the designer terminal 165 to the operation server 100, the data checking unit 140 to the user-specific modeling data from the designer terminal 165 to the design Receive user-specific helmet data including user-specific helmet data generated by applying a helmet design corresponding to the selection information.

본 발명의 제3 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 M(M≥1)명의 헬맷 디자이너 중 m(1≤m≤M)명의 헬맷 디자이너가 이용하는 m개의 디자이너단말(165)과 연동하기 위한 각 디자이너의 통신수단정보(예컨대, 디자이너용 앱식별정보, 메일주소, 웹스토리지정보, 휴대폰정보 등)를 확인하고, 상기 모델링 생성부(135)를 통해 생성된 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터 중 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 적용할 사용자 전용 모델링 데이터를 확인한 후, 각 디자이너의 통신수단정보를 이용하여 m개의 디자이너단말(165)로 상기 확인된 사용자 전용 모델링 데이터를 제공한다. 이후 상기 m명의 디자이너 중 적어도 한 명의 디자이너는 자신이 이용하는 디자이너단말(165)의 앱을 통해 상기 사용자 전용 모델링 데이터에 자신이 디자인한 헬맷 디자인 정보를 적용(예컨대, 렌더링 등)하여 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 생성한다. 상기 디자이너단말(165)의 앱에서 상기 생성된 사용자 전용 헬맷 데이터를 상기 운영서버(100)로 제공하면, 상기 데이터 확인부(140)는 상기 디자이너단말(165)로부터 상기 사용자 전용 모델링 데이터에 상기 디자이너의 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 수신한다.According to the third user-specific data confirmation embodiment of the present invention, the data confirmation unit 140 is m (1 ≤ m ≤ M) helmet designers of the m (M ≥ 1) helmet designers of m designer terminals ( Check the communication means information (for example, app identification information, e-mail address, web storage information, mobile phone information, etc.) for each designer for interworking with the user, and the user-only helmet generated through the modeling generation unit 135 After checking the user-specific modeling data to which the helmet design information corresponding to the design selection information is applied among the user-specific modeling data including the 3D modeling data of the product, m designer terminals 165 using communication means information of each designer. To provide the identified user-specific modeling data. Thereafter, at least one of the m designers applies the helmet design information designed by the user to the user-specific modeling data through the app of the designer's terminal 165 to use the user-specific helmet data (eg, rendering). Create custom helmet data for inclusion. When providing the generated user-only helmet data in the app of the designer terminal 165 to the operation server 100, the data checking unit 140 to the user-specific modeling data from the designer terminal 165 to the designer Receive user-specific helmet data, including user-specific helmet data generated by applying a helmet design of.

본 발명의 제4 사용자 전용 데이터 확인 실시예에 따르면, 상기 데이터 확인부(140)는 상기 제1 내지 제3 사용자 전용 데이터 확인 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 전용 모델링 데이터에 특정 디자이너의 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 확인할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fourth user-only data confirmation embodiment of the present invention, the data confirmation unit 140 is a user-only form in a form in which at least two or more embodiments of the first to third user-only data confirmation embodiments are at least partially combined. User-specific helmet data including user-specific helmet data generated by applying a helmet design of a specific designer to modeling data can be checked, and the present invention is not limited thereto.

상기 데이터 확인부(140)를 통해 사용자의 실제 머리와 일대일 매칭된 사용자 전용 헬맷 데이터가 확인되면, 상기 데이터 제공부(145)는 상기 프로그램모듈(230)으로 상기 사용자 전용 헬맷 데이터를 제공하며, 상기 프로그램모듈(230)은 상기 사용자 전용 헬맷 데이터를 수신하여 지정된 저장영역에 저장한다.When the user-specific helmet data matched to the actual head of the user through the data checking unit 140 is confirmed, the data providing unit 145 provides the user-only helmet data to the program module 230, and The program module 230 receives the user-only helmet data and stores it in a designated storage area.

한편 상기 운영서버(100) 측에서 사용자 머리 기하학 구조 정보가 생성되거나 및/또는 프로그램모듈(230)에서 사용자 머리 기하학 구조 정보가 생성되더라도 사용자 무선단말(200)에 상기 사용자 머리 기하학 구조 정보가 저장되지 않은 경우, 상기 정보 제공부(150)는 상기 프로그램모듈(230)으로 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보를 제공하며, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보를 수신하여 지정된 저장영역에 저장한다. 바람직하게, 상기 사용자 머리 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. The user head geometry information is not stored in the user wireless terminal 200 even if the user head geometry information is generated on the operation server 100 and / or the user head geometry information is generated in the program module 230. If not, the information providing unit 150 provides the user module geometry information corresponding to the user-only helmet data to the program module 230, the program module 230 receives the user head geometry information Save to the designated storage area. Preferably, the user head geometry information is read in real time image data included in the image data input through the camera unit 210 of the user wireless terminal 200 to recognize the user's head region present in the image data in real time Can be used as user-specific head recognition information.

또는 상기 운영서버(100) 측에서 사용자 머리 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)에 상기 사용자 머리 기하학 구조 정보가 저장되지 않은 상태에서, 상기 운영서버(100) 측에서 상기 사용자 머리 기하학 구조 정보에 대응하는 사용자 머리 수치 정보가 결정된 경우, 상기 정보 제공부(150)는 상기 프로그램모듈(230)으로 상기 사용자 머리 기하학 구조 정보를 제공하는 과정과 연동하여 상기 사용자 머리 기하학 구조 정보에 대응하는 사용자 머리 수치 정보를 제공할 수 있으며, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보와 상기 사용자 머리 수치 정보를 수신하여 지정된 저장영역에 연계 저장할 수 있다. 바람직하게, 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자 머리 영역을 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. Alternatively, the user head geometry information is generated on the operation server 100 side and / or the user head geometry information is not stored in the user wireless terminal 200, and the user at the operation server 100 side. When the user head numerical information corresponding to the head geometry information is determined, the information providing unit 150 is linked to the user head geometry information in conjunction with the process of providing the user head geometry information to the program module 230. Corresponding user head numerical information may be provided, and the program module 230 may receive the user head geometrical structure information and the user head numerical information and store it in association with a designated storage area. Preferably, the user head geometry information and the user head numerical information read the image data included in the image data input through the camera unit 210 of the user wireless terminal 200, the user head present in the image data Can be used as user-specific head recognition information for recognizing the area.

한편 상기 사용자 전용 헬맷 데이터를 제공받아 지정된 저장영역에 저장한 프로그램모듈(230)에서 사용자 무선단말(200)의 카메라부(210)를 통해 영상데이터를 입력받는 경우, 상기 프로그램모듈(230)은 상기 프로그램모듈(230)에서 생성하여 저장한 사용자 머리 기하학 구조 정보와 상기 운영서버(100)로부터 수신하여 저장한 사용자 머리 기하학 구조 정보 중 적어도 하나의 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한다. 한편 실시 방법에 따라 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보와 함께 사용자 머리 수치 정보를 더 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 보다 정확하게 인식할 수 있다.On the other hand, the program module 230 receives the user-specific helmet data stored in the designated storage area to receive the image data through the camera unit 210 of the user wireless terminal 200, the program module 230 is The camera unit 210 using at least one of the user head geometry information generated and stored in the program module 230 and the user head geometry information received and stored from the operation server 100. The image data included in the image data input through the user is read in real time to recognize the user's head region present in the image data. According to an embodiment, the program module 230 may further read the image data included in the image data input through the camera unit 210 by further using the user head geometry information together with the user head geometry information. Recognize the user's head region in the data more accurately.

만약 상기 프로그램모듈(230)에서 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 경우, 상기 프로그램모듈(230)은 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강할 수 있다. 즉, 상기 카메라부(210)를 통해 입력되는 영상데이터에는 상기 사용자 전용 헬맷 데이터에 대응하는 헬맷이 존재하지 않지만, 상기 프로그램모듈(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터에서 인식된 사용자의 머리 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 머리 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리 영역에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩하여 표시함으로써, 상기 사용자 전용 헬맷 데이터를 통해 상기 사용자의 실제 머리 영역을 증강하여 표시할 수 있다. If the program module 230 recognizes the user's head region present in the image data input through the camera unit 210 in real time, the program module 230 recognizes the user's head region recognized on the image data. The user's head may be augmented by superimposing and displaying the user-specific helmet data on. That is, although the helmet corresponding to the user-specific helmet data does not exist in the image data input through the camera unit 210, the program module 230 recognizes the image data input through the camera unit 210. Recognizing the user-specific helmet data based on the three-dimensional coordinate system set to interpret the direction of the user's head and the camera's line of sight while recognizing the value between the specified feature point and the two or more feature points existing in the user's head region The user-specific helmet data may be superimposed on the user's head area by rotating, enlarging or contracting the user's head area to display the user's actual head area through the user-only helmet data.

본 발명의 실시 방법에 따르면, 상기 사용자 전용 헬맷 데이터는 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 근거로 생성된 3D 모델링 데이터를 기반으로 생성되었으므로, 사용자 무선단말(200)의 카메라부(210)를 통해 사용자 머리의 전면을 촬영하지 않고 좌측이나 우측의 측면을 비스듬히 촬영(예컨대, 사용자의 우측 귀나 좌측 귀가 노출되도록 촬영)하는 경우에도, 상기 프로그램모듈(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 머리 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리의 측면부에 중첩 표시할 수 있다. According to the exemplary embodiment of the present invention, since the user-only helmet data is generated based on the 3D modeling data generated based on the user head geometry information and the user head numerical information, the camera unit 210 of the user wireless terminal 200. Even when photographing the left side or the right side of the user at an angle without photographing the front of the user's head at an angle (for example, photographing the user's right ear or the left ear to be exposed), the program module 230 uses the camera unit 210. Based on the three-dimensional coordinate system set up to interpret the direction of the user's head and the camera's line of sight while recognizing the value between the specified feature point and two or more feature points existing in the front or side region of the user's head of the input image data Rotate or enlarge the user-specific helmet data to fit the side of the user's head. Or it may be reduced and superimposed on the side part of the user's head.

한편 본 발명의 실시 방법에 따르면, 사용자는 상기 사용자 무선단말(200)의 전면 측 카메라부(210)를 통해 자신의 머리를 촬영하는 것이 아니라 후면 측 카메라를 통해 거울에 비친 자신의 머리를 촬영할 수 있으며, 이 경우 상기 프로그램모듈(230)은 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우 상기 후면 측 카메라를 통해 입력되는 영상데이터를 거울에 비친 사용자 머리를 촬영한 것으로 (1차)판단할 수 있다. 만약 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 프로그램모듈(230)은 상기 후면 측 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 머리를 직접 촬영한 것인지 거울에 비친 사용자 머리를 촬영한 것인지 보다 정확하게 판단하는 절차를 수행할 수 있다. 예를들어, 상기 프로그램모듈(230)은 상기 카메라부(210)를 통해 사용자 머리의 특정한 부분이나 사용자 머리 이외의 다른 부분에 대한 초점 맞추기를 시도하여 초점 맞추기 위해 초점거리가 변화되는지 확인하거나, 또는 상기 카메라부(210)를 통해 사용자 머리와 상기 머리 이외의 다른 부분 사이에 심도 변화가 발생하는지 확인하거나, 또는 사용자 머리에 초점을 맞춘 상태에서 아웃포커싱을 시도하여 아웃포커싱이 유효하게 발생하는지 확인하는 과정 중 적어도 하나의 과정을 통해 상기 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 머리를 직접 촬영한 것인지 거울에 비친 사용자 머리를 촬영한 것인지 판단할 수 있다. 거울에 비친 사용자 머리를 촬영한 경우 초첨거리가 변하지 않거나 기 설정된 값 미만으로 변할 수 있으며, 심도 변화가 발생하지 않거나 기 설정된 값 미만으로 발생할 수 있으며, 아웃포커싱이 처리되지 않거니 기 설정된 값 미만으로 처리될 수 있다. 만약 상기 사용자 무선단말(200)의 카메라를 통해 거울에 비친 사용자의 머리를 촬영하는 것으로 판단된 경우, 상기 프로그램모듈(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리 영역에 맞게 회전하거나 확대하거나 축소하여 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 헬맷 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. 만약 사용자가 거울에 비친 사용자의 머리의 비스듬히 촬영하는 경우, 상기 프로그램모듈(230)은 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리의 측면부에 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 헬맷 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. Meanwhile, according to the embodiment of the present invention, the user may not photograph his head through the front side camera unit 210 of the user wireless terminal 200, but may photograph his head reflected in the mirror through the rear side camera. In this case, when the image data is input through the rear camera unit 210 of the wireless terminal 200, the program module 230 may display a user's head reflecting the image data input through the rear camera in a mirror. You can judge (primary) by photographing. If the image data is input through the rear camera unit 210 of the wireless terminal 200, the program module 230 is the image data input through the rear camera unit 210 is the user's head The procedure may be performed to more accurately determine whether the user's head or the user's head is reflected in the mirror. For example, the program module 230 attempts to focus on a specific part of the user's head or a part other than the user's head through the camera unit 210 to check whether the focal length is changed to focus, or Check whether the depth change occurs between the user's head and other parts other than the head through the camera unit 210, or try to focus the user's head to determine whether the out focusing is effective. Through at least one of the processes, the image data input through the camera unit 210 may determine whether the user's head is directly photographed or the user's head reflected in the mirror. When the user's head is reflected in the mirror, the focusing distance may not change or may be less than the preset value, the depth change may not occur or may be less than the preset value, and the out focusing may not be processed or may be less than the preset value. Can be processed. If it is determined that the user's head reflected in the mirror through the camera of the user wireless terminal 200, the program module 230 is present in the user's head of the image data input through the camera unit 210 Recognizes a value between a specified feature point and two or more feature points, and rotates, enlarges, or reduces the user-specific helmet data based on a three-dimensional coordinate system corresponding to a subject reflected in a mirror, and displays the overlapped display. According to an implementation method, the user-specific helmet data may be superimposed and displayed by giving a light effect reflected on the mirror. If the user photographs the user's head at an angle in the mirror, the program module 230 may include a specified feature point existing in the front region or the side region of the user's head of the image data input through the camera unit 210. Recognizes values between two or more feature points, and displays the user-specific helmet data based on a three-dimensional coordinate system corresponding to a mirror-viewed object to rotate, enlarge or reduce the user-specific helmet data to overlap the side of the user's head. According to an implementation method, the user-specific helmet data may be superimposed and displayed by giving a light effect reflected on the mirror.

상기 프로그램모듈(230)은 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 위한 주문 인터페이스를 제공할 수 있다. 만약 사용자가 상기 주문 인터페이스를 통해 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하면, 상기 프로그램모듈(230)은 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송할 수 있다.The program module 230 may provide an ordering interface for ordering a user-only helmet product corresponding to the user-only helmet data. If a user requests an order for a user-only helmet product corresponding to the user-only helmet data through the order interface, the program module 230 requests an order for a user-only helmet product corresponding to the user-only helmet data. Configure order request information for the transmission to the operation server (100).

한편 사용자 무선단말(200)의 근처에 상기 사용자 무선단말(200)과 근거리 무선 통신 가능하며 상기 사용자 전용 헬맷 데이터를 이용하여 사용자 전용 헬맷제품을 제작 가능한 헬맷 제작장치(175)가 구비된 경우, 상기 프로그램모듈(230)은 근거리 무선 통신을 통해 근거리에 구비된 헬맷 제작장치(175)로 상기 사용자 전용 헬맷 데이터를 전달하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 제작을 요청할 수 있다. 이 경우 상기 헬맷 제작장치(175)는 근거리 무선 통신을 통해 상기 프로그램모듈(230)으로부터 상기 사용자 전용 헬맷 데이터를 수신하고, 상기 헬맷 제작장치(175)의 구성부를 제어하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작할 수 있다. 한편 실시 방법에 따라 상기 사용자 무선단말(200) 근처의 헬맷 제작장치(175)는 상기 프로그램모듈(230)을 통한 요청에 따라 지정된 운영서버(100)로부터 상기 사용자 전용 헬맷 데이터를 수신하고, 상기 헬맷 제작장치(175)의 구성부를 제어하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.On the other hand, in the vicinity of the user wireless terminal 200 is provided with a helmet manufacturing device 175 capable of short-range wireless communication with the user wireless terminal 200 and can produce a user-specific helmet product using the user-specific helmet data The program module 230 may transmit the user-only helmet data to the helmet manufacturing apparatus 175 provided at a short distance through short-range wireless communication and request the manufacture of a user-specific helmet product corresponding to the user-specific helmet data. In this case, the helmet manufacturing apparatus 175 receives the user-specific helmet data from the program module 230 through short-range wireless communication, and controls the component of the helmet manufacturing apparatus 175 to correspond to the user-specific helmet data. You can make your own helmet products. In the meantime, the helmet manufacturing apparatus 175 near the user wireless terminal 200 receives the user-specific helmet data from the designated operation server 100 in response to a request through the program module 230, and the helmet It is possible to manufacture a user-specific helmet product corresponding to the user-specific helmet data by controlling the component of the manufacturing apparatus 175, thereby the present invention is not limited.

도면1을 참조하면, 상기 운영서버(100)는, 프로그램모듈(230)에서 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 전송하면, 상기 주문요청정보를 수신하는 주문 수신부(155)와, 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭 가능한 경우 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하여 상기 매칭된 사용자 전용 헬맷제품을 확인한 경우에 상기 매칭된 사용자 전용 헬맷제품을 제공하도록 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 상기 사용자 전용 헬맷제품을 제공하는 지정된 제품제공서버(170)로 제공하는 주문 처리부(160)를 구비하며, 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭되지 않는 경우 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 포함하는 제작요청정보와 상기 주문 제작된 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버(170)로 제공하거나 디자이너단말(165)로 제공하는 주문 처리부(160)를 구비한다. Referring to FIG. 1, when the operation server 100 constructs and sends order request information for requesting an order of a user-only helmet product corresponding to the user-only helmet data, the operation module 100 transmits the order request. The order request information 155 for receiving information and a database storing information about the manufactured helmet product when the user-specific helmet product corresponding to the order request information is matched with the manufactured helmet product. Upon checking the one-to-one helmet product that matches the user-only helmet product corresponding to the identified user-only helmet product, if the matching user-only helmet product is provided, the request information and request for providing the user-specific helmet product may be delivered. Designated product providing server 170 providing the user's shipping information for the user's dedicated helmet product A user for ordering a user-only helmet product corresponding to the order request information when the user-specific helmet product corresponding to the order request information is not matched with a manufactured helmet product corresponding to the order request information. Providing manufacturing request information including head geometry information, user head numerical information, helmet design information, and delivery address information of a user who will deliver the customized helmet product to a designated product providing server 170 or to a designer terminal 165. It has an order processing unit 160 to provide.

상기 사용자 전용 헬맷 데이터를 제공받은 프로그램모듈(230)에서 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 전송하면, 상기 주문 수신부(155)는 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 위한 주문요청정보를 수신한다.When the program module 230 provided with the user-specific helmet data is configured to transmit order request information for requesting an order of the user-specific helmet product corresponding to the user-specific helmet data, the order receiving unit 155 may transmit the user-specific helmet data. Receive order request information for ordering a user-specific helmet product corresponding to the dedicated helmet data.

만약 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭 가능한 경우, 상기 주문 처리부(160)는 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하여 상기 매칭된 사용자 전용 헬맷제품을 확인한 경우에 상기 매칭된 사용자 전용 헬맷제품을 제공하도록 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 상기 사용자 전용 헬맷제품을 제공하는 지정된 제품제공서버(170)로 제공할 수 있다.If a user-specific helmet product corresponding to the order request information is matched with a pre-made helmet product, the order processing unit 160 corresponds to the order request information through a database storing information about the pre-made helmet product. When the user-specific helmet product to check the one-to-one matching the helmet product to check the matched user-only helmet product to provide the request information and request for providing the matched user-specific helmet product of the user who will deliver the user-specific helmet product Delivery address information may be provided to a designated product providing server 170 that provides the user-only helmet product.

한편 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭되지 않는 경우, 상기 주문 처리부(160)는 지정된 제품제공서버(170)나 디자이너단말(165)을 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하도록 처리할 수 있다.On the other hand, if the user-only helmet product corresponding to the order request information does not match the pre-made helmet product, the order processing unit 160 through the designated product providing server 170 or designer terminal 165 the order request information It can be processed to customize the user-specific helmet products corresponding to the.

본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 포함할 수 있다. 또는 상기 운영서버(100)에 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나가 저장된 경우, 상기 주문요청정보는 운영서버(100)에 저장된 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 식별하기 위한 식별정보를 포함할 수 있다. According to an exemplary embodiment of the present invention, the order request information may include at least one of user head geometry information, user head numerical information, and helmet design information for custom-made a custom helmet product. Alternatively, when at least one of the user head geometry information, the user head value information, and the helmet design information is stored in the operation server 100, the order request information may include the user head geometry information and the user head value stored in the operation server 100. It may include identification information for identifying at least one of the information and helmet design information.

한편 본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터를 포함하며, 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 중 적어도 하나를 더 포함하거나 및/또는 운영서버(100)에 저장된 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 식별하기 위한 식별정보를 더 포함할 수 있다. On the other hand, according to an embodiment of the present invention, the order request information includes user-specific helmet data for ordering a user-specific helmet product, the user head geometry and information corresponding to the user-specific helmet data It may further include at least one of the helmet design information, and / or may further include identification information for identifying at least one of the user head geometry information stored in the operation server 100 and the user head numerical information and helmet design information. .

상기 주문 수신부(155)를 통해 상기 주문요청정보가 수신되면, 상기 주문 처리부(160)는 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터와 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 하나 이상 포함하는 제작요청정보와 상기 주문 제작된 헬맷제품을 배송할 사용자의 배송지정보(예컨대, 프로그램모듈(230)으로부터 수신된 배송지정보, 또는 프로그램모듈(230)을 통해 등록된 사용자의 배송지정보 등)를 지정된 제품제공서버(170)로 제공하여 상기 사용자 전용 헬맷제품의 주문 제작 후 배송을 요청할 수 있으며, 상기 제품제공서버(170)는 지정된 헬맷 제작장치(175)를 통해 상기 사용자 전용 헬맷제품을 제작하고 상기 배송지정보로 배송하기 위한 절차를 수행할 수 있다. When the order request information is received through the order receiving unit 155, the order processing unit 160 may include user-specific helmet data and user head geometry information for ordering a user-specific helmet product corresponding to the order request information. Production request information including one or more user head numerical information and helmet design information, and delivery address information of a user who will deliver the customized helmet product (eg, delivery address information received from the program module 230, or the program module 230). The user's delivery address information, etc. registered through the designated product providing server 170 may be requested to be delivered after the custom-made helmet product is made to order. The product providing server 170 may designate the designated helmet manufacturing device 175. ), The user-only helmet product can be manufactured and the procedure for delivery to the delivery address information can be performed.

한편 상기 주문 처리부(160)는 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터와 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 하나 이상 포함하는 제작요청정보와 상기 주문 제작된 헬맷제품을 배송할 사용자의 배송지정보(예컨대, 프로그램모듈(230)으로부터 수신된 배송지정보, 또는 프로그램모듈(230)을 통해 등록된 사용자의 배송지정보 등)를 지정된 디자이너가 이용하는 디자이너단말(165)로 제공하여 상기 사용자 전용 헬맷제품의 주문 제작 후 배송을 요청할 수 있으며, 상기 디자이너는 상기 디자이너단말(165)을 통해 상기 제작요청정보와 배송지정보를 확인한 후 상기 지정된 헬맷 제작장치(175)를 이용하거나 핸드메이드 방식으로 상기 사용자 전용 헬맷제품을 제작하고 상기 배송지정보로 배송하기 위한 절차를 수행할 수 있다. Meanwhile, the order processing unit 160 includes one or more user-specific helmet data, user head geometry information, user head numerical information, and helmet design information for ordering a user-specific helmet product corresponding to the order request information. The designated designer uses the information and shipping address information (eg, shipping address information received from the program module 230, or shipping address information of the user registered through the program module 230) to deliver the customized helmet product. Provided to the designer terminal 165 to request the delivery after the custom-made helmet product for the user, the designer checks the production request information and the delivery information through the designer terminal 165 after the designated helmet production device ( 175) or by hand-made helmet product for the user The procedure for manufacturing and delivering the delivery address information may be performed.

도면2는 본 발명의 실시 방법에 따른 사용자 무선단말(200)과 브라우져를 통해 구동되는 프로그램모듈(230)의 기능 구성을 도시한 도면이다.2 is a diagram illustrating a functional configuration of a program module 230 driven through a user wireless terminal 200 and a browser according to an embodiment of the present invention.

보다 상세하게 본 도면2는 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 머리 영역을 인식하여 상기 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성함과 동시에 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하고, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 상기 사용자의 실제 머리와 일대일 매칭되게 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용한 사용자 전용 헬맷 데이터가 확인된 경우, 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강하며, 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문(또는 주문제작)을 요청하는 앱(230)의 구성과 사용자 무선단말(200)의 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면2를 참조 및/또는 변형하여 상기 사용자 무선단말(200) 기능에 대한 다양한 실시 방법을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면2에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다. 바람직하게, 본 도면2의 사용자 무선단말(200)은 각종 이동통신단말, 각종 휴대폰, 각종 스마트폰, 각종 태블릿PC 중 적어도 하나를 포함할 수 있다.In more detail, Figure 2 reads one or more image data included in the image data input through the camera unit 210 to recognize the user's head region to analyze the user's head geometry formed in the head region Simultaneously with the generation of the structure information, the user head numerical information of the real world and the one-to-one accumulation of the geometric structure of the user head formed in the head region is determined, and the user head geometric structure information and the user head numerical information of the one-to-one accumulation are used. When the user-specific helmet data applying the designated helmet design to the user-specific modeling data generated in one-to-one correspondence with the actual head of the user is confirmed, the user's head region existing in the image data input through the camera unit 210 is confirmed. Overlapping the user-specific helmet data By augmenting the user's head, as shown in the configuration of the app 230 and the user of the wireless terminal 200 to request the order (or custom-made) of the user-specific helmet products corresponding to the user-specific helmet data, Those skilled in the art to which the present invention pertains may refer to and / or modify this drawing 2 to infer various implementation methods for the function of the user wireless terminal 200, but the present invention infers the above. It is made including all the implementation method that is, the technical features are not limited only to the implementation method shown in FIG. Preferably, the user wireless terminal 200 of FIG. 2 may include at least one of various mobile communication terminals, various mobile phones, various smart phones, and various tablet PCs.

도면2를 참조하면, 상기 사용자 무선단말(200)은, 제어부(202)와 메모리부(225)와 화면 출력부(204)와 사용자 입력부(206)와 사운드 처리부(208)와 카메라부(210)와 무선망 통신부(214)와 근거리망 통신부(216)와 USIM 리더부(218) 및 USIM와 근거리 무선부(220)를 구비하며, 전원 공급을 위한 배터리를 구비한다. 한편 실시 방법에 따라 상기 사용자 무선단말(200)은 카메라부(210)의 카메라 렌즈와 피사체 사이의 거리를 인식하는 거리인식 센서부(212)를 더 구비할 수 있다.Referring to FIG. 2, the user wireless terminal 200 includes a control unit 202, a memory unit 225, a screen output unit 204, a user input unit 206, a sound processor 208, and a camera unit 210. And a wireless network communication unit 214, a local area network communication unit 216, a USIM reader unit 218, and a USIM and local area wireless unit 220, and a battery for power supply. Meanwhile, according to an exemplary embodiment, the user wireless terminal 200 may further include a distance recognition sensor unit 212 that recognizes a distance between the camera lens and the subject of the camera unit 210.

상기 제어부(202)는 상기 사용자 무선단말(200)의 동작을 제어하는 구성의 총칭으로서, 적어도 하나의 프로세서와 실행 메모리를 포함하여 구성되며, 상기 사용자 무선단말(200)에 구비된 각 구성부와 버스(BUS)를 통해 연결된다. 본 발명에 따르면, 상기 제어부(202)는 상기 프로세서를 통해 상기 사용자 무선단말(200)에 구비되는 적어도 하나의 프로그램코드를 상기 실행 메모리에 로딩하여 연산하고, 그 결과를 상기 버스를 통해 적어도 하나의 구성부로 전달하여 상기 사용자 무선단말(200)의 동작을 제어한다. 이하, 사용자 무선단말(200)로 수신되어 브라우져를 통해 구동되는 프로그램모듈(230)에 대응하는 구성을 본 제어부(202) 내에 도시하여 설명하기로 한다.The control unit 202 is a generic term for a configuration for controlling the operation of the user wireless terminal 200, and includes at least one processor and an execution memory, and each of the components provided in the user wireless terminal 200. It is connected via a bus. According to the present invention, the control unit 202 loads at least one program code included in the user wireless terminal 200 through the processor into the execution memory, and calculates at least one result through the bus. Transfer to a component to control the operation of the user wireless terminal 200. Hereinafter, a configuration corresponding to the program module 230 received by the user wireless terminal 200 and driven through the browser will be described in the controller 202.

상기 메모리부(225)는 상기 사용자 무선단말(200)의 저장 자원에 대응되는 비휘발성 메모리의 총칭으로서, 상기 제어부(202)를 통해 실행되는 적어도 하나의 프로그램코드와, 상기 프로그램코드가 이용하는 적어도 하나의 데이터셋트를 저장하여 유지한다. 상기 메모리부(225)는 기본적으로 상기 사용자 무선단말(200)의 운영체제에 대응하는 시스템프로그램코드와 시스템데이터셋트, 상기 사용자 무선단말(200)의 무선 통신 연결을 처리하는 통신프로그램코드와 통신데이터셋트 및 적어도 하나의 응용프로그램코드와 응용데이터셋트를 저장하며, 상기 브라우저에 대응하는 프로그램코드와 데이터셋트도 상기 메모리부(225)에 저장된다.The memory unit 225 is a generic term for a nonvolatile memory corresponding to a storage resource of the user wireless terminal 200, and includes at least one program code executed through the control unit 202 and at least one used by the program code. Save and maintain the data set. The memory unit 225 basically includes a system program code and a system data set corresponding to an operating system of the user wireless terminal 200, and a communication program code and a communication data set for processing a wireless communication connection of the user wireless terminal 200. And at least one application program code and an application data set, and the program code and data set corresponding to the browser are also stored in the memory unit 225.

상기 화면 출력부(204)는 화면출력기(예컨대, LCD(Liquid Crystal Display) 등)와 이를 구동하는 출력모듈을 포함하여 이루어지며, 상기 제어부(202)와 연동되어 상기 제어부(202)의 각종 연산 결과 중 화면 출력에 대응하는 연산 결과를 상기 화면출력기로 출력한다.The screen output unit 204 includes a screen output device (for example, an LCD (Liquid Crystal Display)) and an output module for driving the same, and is linked with the control unit 202 as a result of various calculations of the control unit 202. The calculation result corresponding to the screen output is output to the screen output device.

상기 사용자 입력부(206)는 하나 이상의 사용자입력기(예컨대, 버튼, 키패드, 터치패드, 화면 출력부(204)와 연동하는 터치스크린 등)와 이를 구동하는 입력모듈을 포함하여 이루어지며, 상기 제어부(202)와 연동되어 상기 제어부(202)의 각종 연산을 명령하는 명령을 입력하거나, 또는 상기 제어부(202)의 연산에 필요한 데이터를 입력한다.The user input unit 206 includes one or more user input devices (eg, a button, a keypad, a touch pad, a touch screen interworking with the screen output unit 204) and an input module for driving the user input unit, and the control unit 202. ) Is input in conjunction with the command to command various operations of the control unit 202, or inputs data required for the operation of the control unit 202.

상기 사운드 처리부(208)는 스피커와 마이크로폰과 및 이를 구동하는 사운드모듈을 포함하여 이루어지며, 상기 제어부(202)의 각종 연산 결과 중 사운드 출력에 대응하는 사운드 데이터를 디코딩(Decoding)하여 상기 스피커를 통해 출력하거나, 또는 상기 마이크로폰을 통해 입력되는 사운드 신호를 엔코딩(Encoding)하여 상기 제어부(202)로 전달한다.The sound processor 208 includes a speaker, a microphone, and a sound module for driving the same, and decodes sound data corresponding to a sound output among various calculation results of the controller 202 to decode the sound data. The sound signal, which is output or is input through the microphone, is encoded and transmitted to the controller 202.

상기 카메라부(210)는 카메라 렌즈와 이미지센 및 이를 구동하는 카메라모듈을 포함하여 이루어지며, 자동초점 기능이나 손떨림보정 기능을 위한 액츄에이터(Actuator) 및/또는 각종 필터(예컨대, IR필터 등) 등을 더 포함하여 이루어진다. 바람직하게, 상기 카메라부(210)는 시선 방향의 피사체 중 지정된 화각 내의 피사체에 대한 광학 신호를 카메라 렌즈를 통해 입력받아 이미지센서를 통해 디지털화하여 영상데이터를 생성하여 제어부(202)로 제공하며, 상기 액츄에이터를 통해 자동초점 기능이나 손떨림보정 기능을 제공하며, 적어도 하나의 필터를 통해 상기 영상데이터의 품질을 보정한다. 한편 실시 방법에 따라 상기 카메라부(210)는 품질 향상을 위한 적어도 하나의 기능 구성부를 더 구비하거나 및/또는 품질 향상이나 피사체와 카메라 렌즈 사이의 거리인식을 위한 듀얼카메라 기능을 구비할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. The camera unit 210 includes a camera lens, an image sensor, and a camera module for driving the same, and includes an actuator and / or various filters (eg, an IR filter) for an autofocus function or a camera shake correction function. It is made to include more. Preferably, the camera unit 210 receives an optical signal for a subject within a specified field of view among the subjects in the line of sight and digitizes it through an image sensor to generate image data and provide the image data to the controller 202. An actuator provides an autofocus function or a camera shake correction function, and corrects the quality of the image data through at least one filter. Meanwhile, according to an embodiment, the camera unit 210 may further include at least one functional component for improving quality and / or may include a dual camera function for improving quality or recognizing a distance between a subject and a camera lens. Thereby, this invention is not limited.

상기 거리인식 센서부(212)는 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 기능 구성부의 총칭으로서, 바람직하게 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예컨대, 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예컨대, 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라(예컨대, 듀얼 카메라는 카메라 기능을 제공함과 동시에 거리인식을 위한 센서의 기능을 제공) 중 적어도 하나의 센서부를 포함할 수 있다. 그러나 본 발명의 거리인식 센서부(212)가 상기 예시된 센서부로 한정되는 것은 아니며, 당업자의 의도에 따라 거리인식에 사용 가능한 센서라면 모두 본 발명의 권리범위에 포함될 수 있음을 명백하게 밝혀두는 바이다.The distance recognizing sensor unit 212 is a generic term for a function configuration unit for recognizing a distance between the subject and the camera lens in the direction of the camera line of sight, and preferably transmits an optical signal having a specified wavelength and senses an optical signal reflected by the subject. Optical sensor unit (e.g., infrared sensor unit, laser sensor unit, major sensor unit, etc.) for recognizing a distance, and transmitting an electromagnetic signal of a specified wavelength or a radio frequency signal in the form of a radio frequency signal and sensing a radio signal reflected by a subject Wireless sensor unit for recognizing distance by using a sensor, transmitting a sound wave signal of a specified frequency band and sensing a sound wave signal reflected by a subject to detect a distance (for example, ultrasonic sensor unit, etc.), two spaced at a specified interval Cameras including two camera lenses and a camera module (eg, a dual camera provides a camera function and At the same time it may include at least one sensor unit of (provides a function of a sensor for distance recognition). However, the distance recognition sensor unit 212 of the present invention is not limited to the above-described sensor unit, and it will be apparent that any sensor that can be used for distance recognition according to the intention of the skilled person may be included in the scope of the present invention.

본 발명의 실시 방법에 따르면, 상기 거리인식 센서부(212)는 지정된 센싱 방향과 센싱 범위를 지니며, 상기 거리인식 센서부(212)의 센싱 방향은 상기 카메라부(210)의 시선 방향과 동기화되고, 상기 거리인식 센서부(212)의 센싱 범위는 상기 카메라부(210)의 화각과 매칭되는 것이 바람직하다. 한편 실시 방법에 따라 상기 거리인식 센서부(212)는 센싱 방향을 카메라 시선 방향과 동기화한 상태에서 지정된 센싱 범위 내에서 센싱할 부분 영역(예컨대, 화상데이터 상의 특징 영역(예: 화상데이터 상의 영역 중 대비 값이 지정된 기준 값 이상인 영역), 화상데이터의 전체 영역이나 특정 영역을 복수의 영역으로 분할한 분할 영역 등)을 지정하여 거리를 센싱할 수 있으며, 이로써 카메라부(210)를 통해 촬영하는 피사체의 3차원 구조 중 카메라 시선 방향(또는 센싱 방향)의 3차원 구조를 센싱할 수 있다. According to the exemplary embodiment of the present invention, the distance recognition sensor unit 212 has a specified sensing direction and a sensing range, and the sensing direction of the distance recognition sensor unit 212 is synchronized with the eyeline direction of the camera unit 210. The sensing range of the distance recognition sensor unit 212 is preferably matched with the angle of view of the camera unit 210. According to an exemplary embodiment, the distance recognition sensor unit 212 may be configured to sense a partial area (eg, a feature area on image data (eg, an area on image data) within a specified sensing range while synchronizing a sensing direction with a camera line of sight direction. An area where the contrast value is greater than or equal to a specified reference value), an entire area of the image data, or a divided area in which a specific area is divided into a plurality of areas, etc.) to sense the distance, thereby subjecting the subject to be photographed through the camera unit 210. The 3D structure of the 3D structure of the camera can be sensed in the direction (or sensing direction) of the camera.

상기 무선망 통신부(214)와 근거리망 통신부(216)는 상기 사용자 무선단말(200)을 지정된 통신망에 접속시키는 통신 자원의 총칭이다. 바람직하게, 상기 사용자 무선단말(200)은 무선망 통신부(214)를 기본 통신 자원으로 구비할 수 있으며, 하나 이상의 근거리망 통신부(216)를 구비할 수 있다.The wireless network communication unit 214 and the local area network communication unit 216 are generic terms of communication resources for connecting the user wireless terminal 200 to a designated communication network. Preferably, the user wireless terminal 200 may include a wireless network communication unit 214 as a basic communication resource, and may include one or more local area network communication unit 216.

상기 무선망 통신부(214)는 상기 사용자 무선단말(200)을 기지국을 경유하는 무선 통신망에 접속시키는 통신 자원의 총칭으로서, 특정 주파수 대역의 무선 주파수 신호를 송수신하는 안테나, RF모듈, 기저대역모듈, 신호처리모듈을 적어도 하나 포함하여 구성되며, 상기 제어부(202)와 연결되어 상기 제어부(202)의 각종 연산 결과 중 무선 통신에 대응하는 연산 결과를 무선 통신망을 통해 전송하거나 또는 무선 통신망을 통해 데이터를 수신하여 상기 제어부(202)로 전달함과 동시에, 상기 무선 통신의 접속, 등록, 통신, 핸드오프의 절차를 수행한다. 본 발명에 따르면, 상기 무선망 통신부(214)는 상기 사용자 무선단말(200)을 교환기를 경유하는 통화채널과 데이터채널을 포함하는 통화망에 연결할 수 있으며, 경우에 따라 상기 교환기를 경유하지 않고 패킷 통신 기반의 무선망 데이터 통신(예컨대, 인터넷)을 제공하는 데이터망에 연결할 수 있다.The wireless network communication unit 214 is a generic term for communication resources for connecting the user wireless terminal 200 to a wireless communication network via a base station, and includes an antenna, an RF module, a baseband module, which transmits and receives a radio frequency signal of a specific frequency band. It is configured to include at least one signal processing module, and is connected to the control unit 202 transmits the operation result corresponding to the wireless communication of the various operation results of the control unit 202 through the wireless communication network or data through the wireless communication network Receives and transmits to the control unit 202, and performs the procedure of connection, registration, communication, handoff of the wireless communication. According to the present invention, the wireless network communication unit 214 may connect the user wireless terminal 200 to a communication network including a communication channel and a data channel via an exchange, and in some cases, a packet without passing through the exchange. It may be connected to a data network that provides communication-based wireless network data communication (eg, the Internet).

본 발명의 실시 방법에 따르면, 상기 무선망 통신부(214)는 CDMA/WCDMA/LTE 규격에 따라 이동 통신망에 접속, 위치등록, 호처리, 통화연결, 데이터통신, 핸드오프를 적어도 하나 수행하는 이동 통신 구성을 포함한다. 한편 당업자의 의도에 따라 상기 무선망 통신부(214)는 IEEE 802.16 관련 규격에 따라 휴대인터넷에 접속, 위치등록, 데이터통신, 핸드오프를 적어도 하나 수행하는 휴대 인터넷 통신 구성을 더 포함할 수 있으며, 상기 무선망 통신부(214)가 제공하는 무선 통신 구성에 의해 본 발명이 한정되지 아니함을 명백히 밝혀두는 바이다. 즉, 상기 무선망 통신부(214)는 무선 구간의 주파수 대역이나 통신망의 종류 또는 프로토콜에 무관하게 셀 기반의 기지국을 통해 무선 통신망에 접속하는 구성부의 총칭이다.According to the exemplary embodiment of the present invention, the wireless network communication unit 214 performs at least one of mobile communication network access, location registration, call processing, call connection, data communication, and handoff according to the CDMA / WCDMA / LTE standard. Include configuration. Meanwhile, according to the intention of the person skilled in the art, the wireless network communication unit 214 may further include a portable Internet communication configuration for performing at least one connection, location registration, data communication, or handoff to the portable Internet according to the IEEE 802.16 standard. It is apparent that the present invention is not limited by the wireless communication configuration provided by the wireless network communication unit 214. That is, the wireless network communication unit 214 is a general term for a component that accesses a wireless communication network through a cell-based base station regardless of a frequency band of a wireless section, a type of a communication network, or a protocol.

상기 근거리망 통신부(216)는 일정 거리 이내(예컨대, 10m)에서 무선 주파수 신호를 통신매체로 이용하여 통신세션을 연결하고 이를 기반으로 상기 사용자 무선단말(200)을 통신망에 접속시키는 통신 자원의 총칭으로서, 바람직하게 와이파이 통신, 블루투스 통신, 공중무선 통신, UWB 중 적어도 하나를 통해 상기 사용자 무선단말(200)을 통신망에 접속시킬 수 있다. 본 발명에 따르면, 상기 근거리망 통신부(216)는 무선AP를 통해 상기 사용자 무선단말(200)을 패킷 통신 기반의 근거리 무선 데이터 통신을 제공하는 데이터망에 연결한다.The local area network communication unit 216 is a generic term for communication resources for connecting a communication session using a radio frequency signal as a communication medium within a predetermined distance (for example, 10m) and connecting the user wireless terminal 200 to a communication network based on this. For example, the user wireless terminal 200 may be connected to a communication network through at least one of Wi-Fi communication, Bluetooth communication, public wireless communication, and UWB. According to the present invention, the local area network communication unit 216 connects the user wireless terminal 200 to a data network for providing short-range wireless data communication based on packet communication through a wireless AP.

상기 USIM 리더부(218)는 ISO/IEC 7816 규격을 기반으로 상기 사용자 무선단말(200)에 탑재 또는 이탈착되는 범용가입자식별모듈(Universal Subscriber Identity Module)과 적어도 하나의 데이터셋트를 교환하는 구성의 총칭으로서, 상기 데이터셋트는 APDU(Application Protocol Data Unit)를 통해 반이중 통신 방식으로 교환된다.The USIM reader unit 218 is configured to exchange at least one data set with a Universal Subscriber Identity Module mounted or detached from the user wireless terminal 200 based on ISO / IEC 7816 standard. Collectively, the datasets are exchanged in a half-duplex manner via an Application Protocol Data Unit (APDU).

상기 USIM은 상기 ISO/IEC 7816 규격에 따른 IC칩이 구비된 SIM 타입의 카드로서, 상기 USIM 리더부(218)와 연결되는 적어도 하나의 접점을 포함하는 입출력 인터페이스와, 적어도 하나의 IC칩용 프로그램코드와 데이터셋트를 저장하는 IC칩 메모리와, 상기 입출력 인터페이스와 연결되어 상기 사용자 무선단말(200)로부터 전달되는 적어도 하나의 명령에 따라 상기 IC칩용 프로그램코드를 연산하거나 상기 데이터셋트를 추출(또는 가공)하여 상기 입출력 인터페이스로 전달하는 프로세서를 포함하여 이루어진다.The USIM is a SIM type card having an IC chip according to the ISO / IEC 7816 standard, an input / output interface including at least one contact point connected to the USIM reader unit 218, and at least one IC chip program code. And an IC chip memory for storing a data set, and calculating program code for the IC chip or extracting (or processing) the data set according to at least one command transmitted from the user wireless terminal 200 connected to the input / output interface. It includes a processor for transmitting to the input and output interface.

상기 근거리 무선부(220)는 지정된 규격의 근거리 무선 통신을 처리하는 기능 구성부의 총칭으로서, 바람직하게 블루투스 통신, 와이파이 통신, 지그비 통신, UWB 통신, NFC, 근거리 RF 통신 중 적어도 하나의 근거리 무선 통신을 처리한다. 본 발명의 실시 방법에 따르면, 상기 근거리 무선부(220)는 상기 근거리망 통신부(216)와 통합된 형태로 실시되거나, 또는 상기 근거리망 통신부(216)와 다른 별개의 근거리 무선 통신을 위한 구성부로 실시(예컨대, 근거리망 통신부(216)가 와이파이 통신을 제공하는 경우 근거리 무선부(220)는 블루투스 통신을 제공함)될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.The short-range wireless unit 220 is a generic term for a functional component that processes short-range wireless communication of a specified standard, and preferably, at least one short-range wireless communication among Bluetooth communication, Wi-Fi communication, Zigbee communication, UWB communication, NFC, and short-range RF communication. Process. According to the exemplary embodiment of the present invention, the short range wireless unit 220 may be implemented in an integrated form with the local area network communication unit 216 or as a component for separate short range wireless communication that is different from the local area network communication unit 216. (For example, when the local area communication unit 216 provides Wi-Fi communication, the local area wireless unit 220 provides Bluetooth communication), and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 근거리 무선부(220)는 사용자 무선단말(200)의 근거리에 존재하는 헬맷 제작장치(175) 중 적어도 하나의 헬맷 제작장치(175)와 근거리 무선 통신을 처리할 수 있다.According to an exemplary embodiment of the present invention, the short range wireless unit 220 may process short range wireless communication with at least one helmet manufacturing device 175 of the helmet manufacturing device 175 existing in the short range of the user wireless terminal 200. Can be.

사용자 무선단말(200)의 브라우져는 지정된 웹주소로 증강된 헤어밴드 서비스를 위한 페이지(226)를 요청하고, 상기 웹주소로부터 마크업 언어를 통해 증강된 헤어밴드 서비스를 위한 인터페이스 화면을 구현하는 페이지부(228)와, 스크립트 언어를 통해 증강된 헤어밴드 서비스를 위한 지정된 기능(예컨대, 도면2의 프로그램모듈(230) 내에 도시된 구성부에 대응하는 적어도 하나의 기능)을 구현하는 프로그램모듈(230)을 포함하는 페이지(226)를 수신하고, 상기 페이지(226)에 포함된 페이지부(228)에 대응하는 마크업 언어를 판독하여 증강된 헤어밴드 서비스를 위한 인터페이스 화면을 표시하면서, 상기 페이지(226)에 포함된 스크립트 형태의 프로그램모듈(230)을 구동한다. A browser of the user wireless terminal 200 requests a page 226 for augmented hairband service to a designated web address, and implements an interface screen for augmented hairband service through a markup language from the web address. A program module 230 for implementing a designated function (eg, at least one function corresponding to the component shown in the program module 230 of FIG. 2) through the script language and the script language. Receiving a page 226 including a), reading a markup language corresponding to the page portion 228 included in the page 226, and displaying an interface screen for an enhanced hairband service. The program module 230 in the form of a script included in 226 is driven.

도면2를 참조하면, 상기 브라우져를 통해 구동된 프로그램모듈(230)은, 상기 프로그램모듈(230)이 브라우져를 통해 구동된 경우 상기 구동된 프로그램모듈(230)이 D(D≥1)개의 지정된 무선단말 기종 중 어느 한 기종의 사용자 무선단말(200)에 구비된 브라우져를 통해 구동된 모바일 웹 환경인지 확인하는 환경 확인부(235)와, 상기 모바일 웹 환경을 확인한 경우 상기 프로그램모듈(230)이 상기 모바일 웹 환경에 대응하는 사용자 무선단말(200)의 카메라부(210)에 대한 접근 권한을 획득하는 권한 획득부(140)와, 상기 권한이 획득된 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 처리하는 절차를 수행하는 영상 처리부(245)와, 상기 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 인식 처리부(250)와, 상기 인식된 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성하는 구조 생성부(255)와, 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 결정하는 수치 결정부(260)와, 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 지정된 운영서버(100)로 전송하는 정보 전송부(265)를 구비하며, 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 머리 기하학 구조 정보를 저장하여 관리하는 정보 관리부(270)를 구비한다. Referring to FIG. 2, when the program module 230 is driven through the browser, the program module 230 driven through the browser may be configured to have D (D≥1) specified radios. An environment check unit 235 for checking whether the mobile web environment is driven through a browser provided in the user wireless terminal 200 of any one of the terminal models, and the program module 230 checks the mobile web environment. Designation of the camera gaze direction through the authority acquisition unit 140 for acquiring the access right to the camera unit 210 of the user wireless terminal 200 corresponding to the mobile web environment, and the camera unit 210 for which the authority is obtained. An image processor 245 for receiving and processing image data photographing a subject present in an angle of view, and reading one or more image data included in the input image data and A recognition processing unit 250 for recognizing a user's head region to be worn, a structure generation unit 255 for generating user head geometry information analyzing the geometry of the user's head formed in the recognized head region, and the head region A numerical decision unit 260 for determining user head numerical information including a real world and a user head circumference length range of one-to-one accumulation of the geometric structure of the user head formed in the user head; And an information transmitter 265 for transmitting to a designated operation server 100, and stores user head geometry information for real-time recognition of a user's head region present in the image data input through the camera unit 210. And an information management unit 270 for managing.

상기 영상 처리부(245)는 상기 카메라부(210)를 통해 카메라 시선 방향의 지정된 화각 내에 존재하는 피사체를 촬영한 영상데이터를 입력받아 지정된 버퍼링영역에 버퍼링한다. 한편 상기 운영서버(100)에서 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 과정을 수행하는 경우, 상기 영상 처리부(245)는 상기 영상데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 운영서버(100)는 상기 프로그램모듈(230)으로부터 상기 영상데이터를 수신하여 버퍼링할 수 있다. The image processor 245 receives image data photographing a subject existing within a designated angle of view in the camera line direction through the camera unit 210 and buffers the image data in a designated buffering area. Meanwhile, when the operation server 100 reads one or more image data included in the image data and recognizes a user's head area to wear a helmet, the image processor 245 operates the image data. In this case, the operation server 100 may receive and buffer the image data from the program module 230.

상기 인식 처리부(250)는 상기 영상 처리부(245)를 통해 카메라부(210)로부터 입력되어 버퍼링되는 영상데이터에 포함된 하나 이상의 화상데이터를 선별하고 지정된 패턴인식알고리즘에 적용하여 상기 카메라부(210)를 통해 촬영한 피사체 중 헬맷을 착용할 사용자 머리에 대응하는 피사체를 식별하고, 상기 식별된 사용자 머리 영역을 인식한다. 한편 실시 방법에 따라 상기 운영서버(100)로 상기 영상데이터가 전송된 경우, 상기 사용자 머리 영역은 상기 운영서버(100)를 통해 인식될 수 있다.The recognition processor 250 selects one or more image data included in the image data buffered from the camera unit 210 through the image processor 245 and applies the specified pattern recognition algorithm to the camera unit 210. A subject corresponding to a user's head to wear a helmet among the photographed subjects is identified, and the identified user's head region is recognized. Meanwhile, when the image data is transmitted to the operation server 100 according to an embodiment, the user head region may be recognized by the operation server 100.

본 발명의 다른 실시 방법에 따르면, 상기 인식 처리부(250)는 상기 인식한 머리 영역에 대응하는 화상데이터를 포함하는 머리 영역 데이터를 상기 운영서버(100)로 전송할 수 있으며, 이 경우 상기 운영서버(100)는 상기 머리 영역 데이터를 수신할 수 있다. According to another exemplary embodiment of the present invention, the recognition processing unit 250 may transmit the head region data including the image data corresponding to the recognized head region to the operation server 100, in which case the operation server ( 100 may receive the head region data.

상기 구조 생성부(255)는 상기 인식된 머리 영역에 대응하는 화상데이터를 포함하는 머리 영역 데이터에 지정된 패턴인식알고리즘을 적용하여 도면3에 예시된 전두골과 좌우 두정골에 대응하는 골격 구조 및 좌우 두정근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 측두골에 대응하는 골격 구조 및 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보, 전두골과 좌우 두정골과 좌우 측두골에 대응하는 골격 구조 및 좌우 두정근과 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보 중 적어도 하나의 가로 방향 머리 거리 정보와, 전두골의 전두융기에 대응하는 골격 구조 및 전두근에 의해 형성된 머리 전면의 이마 곡률 정보와, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보와, 이마의 지정된 부분부터 좌측 측두의 지정된 부분까지 상기 좌측 측두 곡률을 따라 연결한 좌측 측두 거리 정보와, 전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보 중 적어도 하나의 우측 측두 곡률 정보와, 이마의 지정된 부분부터 우측 측두의 지정된 부분까지 상기 우측 측두 곡률을 따라 연결한 우측 측두 거리 정보 중 하나 이상(예컨대, 적어도 하나 또는 둘 이상의 조합)의 정보를 포함하는 사용자 머리 기하학 구조 정보를 생성할 수 있다.The structure generation unit 255 applies a pattern recognition algorithm to a head region data including image data corresponding to the recognized head region, and a skeletal structure corresponding to the frontal bone and left and right parietal bones illustrated in FIG. Horizontal head distance information of the front of the head formed by the thickness of the left and right scalp, skeletal structures corresponding to the frontal and left temporal bones, and horizontal head distance information of the front of the head formed by the thickness of the left and right temporal and left and right scalp, frontal and left and right parietal bones Skeletal structure corresponding to the left and right temporal bones and at least one of the horizontal head distance information of the front side of the head formed by the thickness of the left and right parietal muscles, the left and right temporal muscles and the left and right scalp, and the skeleton corresponding to the frontal ridge of the frontal bone. Forehead curvature information of the front of the head formed by the structure and the frontal muscles, Skeletal structure corresponding to the left part and the left parietal bone, left temporal curvature information in the left temporal region formed by the left frontal and left parietal muscles in the left temporal region, skeletal structure corresponding to the left part of the frontal bone and the left temporal bone and the left frontal muscle Left temporal curvature information in the left temporal direction from the left forehead by the left and right axons, skeletal structures corresponding to the left part of the frontal bone and the left parietal and left temporal bones, and the left frontal and left parietal and left temporal muscles Left temporal curvature information of at least one of the left temporal curvature information in the left temporal direction in the left temporal region, the left temporal distance information connected along the left temporal curvature from the designated part of the forehead to the designated part of the left temporal region, and the frontal bone Corresponding to the right part and right parietal bone of Skeletal structure and right temporal curvature information in the right temporal to right temporal region formed by the right frontal and right parietal muscles, skeletal structures corresponding to the right and right temporal bones of the frontal bone, and the right forehead by the right frontal and right axillary muscles. Right temporal curvature information in the right temporal direction in the right temporal region, skeletal structures corresponding to the right part of the frontal bone and the right parietal and right temporal bones, and the right temporal in the right temporal region on the right forehead by the right frontal muscle, right parietal and right temporal muscle At least one of right temporal curvature information of right temporal curvature information in a direction and right temporal distance information connected along the right temporal curvature from a designated portion of the forehead to a designated portion of the right temporal region (eg, at least one or more than two) User head containing the information of the combination) Geometry information can be generated.

본 발명의 실시 방법에 따르면, 상기 가로 방향 머리 거리 정보와 좌측 측두 곡률 정보와 좌측 측두 거리 정보와 우측 측두 곡률 정보와 우측 측두 거리 정보 중 하나의 정보에 포함되는 골격의 종류와 결합 관계는 헬맷 착용 영역이나 각 사람들의 두개골 구조나 크기에 따라 상기의 경우의 수 중 적어도 하나를 포함할 수 있으나, 이에 의해 본 발명이 한정되는 것은 아니다.According to an embodiment of the present invention, the type and coupling relationship of the skeleton included in one of the horizontal head distance information, the left temporal curvature information, the left temporal curvature information, the right temporal curvature information, and the right temporal distance information are related to the helmet wearing. Depending on the area or the skull structure or size of each person may include at least one of the above cases, but the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 사용자 머리 기하학 구조 정보의 거리 정보는 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계(예컨대, 화상데이터를 판독하는 좌표계) 상의 좌표 거리 정보를 포함할 수 있다. 상기 곡률 정보는 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함할 수 있다. 한편 상기 사용자 머리 기하학 구조 정보에 포함되는 기하학 구조 정보를 해석하는 좌표계는 특정한 좌표계로 한정되는 것은 아니며, 다만 상기 사용자 머리의 기하학 구조 정보에 포함되는 기하학 구조 정보는 현실세계의 도량형에 따른 단위의 기하학 구조 정보를 포함하지 않더라도 무방함을 의미한다.According to an embodiment of the present invention, the distance information of the user head geometry information may include coordinate distance information on a coordinate system (eg, a coordinate system for reading image data) set to determine the user head geometry of the user head region. have. The curvature information may include coordinate curvature information on a coordinate system set to determine a user head geometry of the user head region. On the other hand, the coordinate system for analyzing the geometric structure information included in the user's head geometric structure information is not limited to a specific coordinate system, but the geometric structure information included in the geometric structure information of the user's head is the geometry of the unit according to the metrology in the real world. It does not matter even if it does not include structural information.

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)는 상기 인식된 머리 영역에 대응하는 화상데이터 중 머리 전면 방향에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 머리 전면의 이마 영역에 대응하는 픽셀 영역에 형성되는 그라데이션의 깊이와 면적을 해석함과 동시에 전두골의 전두융기에 대한 해부학적 통계 정보(예컨대, 성인 남성의 전두융기에 대한 평균적 곡률 패턴)를 근거로 상기 머리 전면의 이마 곡률 정보를 산출할 수 있다.According to an embodiment of the present invention, the structure generation unit 255 may apply a pattern recognition algorithm to the image data photographed in the front direction of the head among the image data corresponding to the recognized head region, and thus, among the user head geometry information. Analyze the depth and area of the gradation formed in the pixel area corresponding to the forehead area of the front of the head, and at the same time, based on anatomical statistical information about the frontal ridges of the frontal bone (e.g., average curvature pattern for the frontal ridges of an adult male). Forehead curvature information of the front of the head can be calculated.

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)는 상기 인식된 머리 영역에 대응하는 화상데이터 중 좌측 관자놀이 방향(예컨대, 머리 전면에서 좌측 30°~45° 방향)에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 좌측 이마의 그라데이션 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분에 대한 좌측 측두 곡률 정보(예컨대, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보)를 산출할 수 있다.According to the method of the present invention, the structure generating unit 255 is configured to the image data photographed in the left temple direction (for example, the left 30 ° to 45 ° direction from the front of the head) of the image data corresponding to the recognized head region. By applying a specified pattern recognition algorithm, the curvature information of the left forehead corresponding to the gradation information of the left forehead and statistical information of the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead Left temporal curvature information for the left temporal part covered by the hair on the left forehead (e.g., the skeletal structure corresponding to the left part of the frontal bone and the left parietal bone, and the left temporal part formed in the left temporal part on the left forehead by the left frontal and left parietal muscles). Left temporal curvature information in the direction, against the left part of the frontal bone and the left temporal bone Left temporal curvature information in the left temporal direction from the left forehead by the left frontal and left atrophy, the skeletal structure corresponding to the left part of the frontal bone, the left parietal and the left temporal bone, and the left frontal and left parietal muscles And left temporal curvature information of at least one of left temporal curvature information in a left temporal direction formed in the left temporal region by the left temporal muscle).

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)는 상기 인식된 머리 영역에 대응하는 화상데이터 중 우측 관자놀이 방향(예컨대, 머리 전면에서 우측 30°~45° 방향)에서 촬영된 화상데이터에 지정된 패턴인식알고리즘을 적용하여 상기 사용자 머리 기하학 구조 정보 중 우측 이마의 그라데이션 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분에 대한 우측 측두 곡률 정보(예컨대, 전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보, 전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보 중 적어도 하나의 우측 측두 곡률 정보)를 산출할 수 있다.According to an exemplary embodiment of the present invention, the structure generator 255 may be configured to display image data photographed in a right temple play direction (for example, 30 ° to 45 ° right from the front of the head) of the image data corresponding to the recognized head region. By applying a specified pattern recognition algorithm, the curvature information of the right forehead corresponding to the gradation information of the right forehead and the anatomical coupling relationship between the right part of the frontal bone and the right temporal bone corresponding to the right forehead are obtained. Right temporal curvature information for the right temporal region covered by the hair on the right forehead (e.g., the skeletal structure corresponding to the right and right parietal bones of the frontal bone and the right temporal region formed in the right temporal region on the right forehead by the right frontal and right parietal muscles) Right temporal curvature information in the direction, against the right part of the frontal bone and the right temporal bone Skeletal structure and right temporal curvature information in the right temporal direction from the right forehead by the right anterior and right atrophy, the skeletal structure corresponding to the right part of the frontal bone, the right parietal and the right temporal bone, and the right frontal and right parietal muscles And right temporal curvature information of right temporal curvature information in the right temporal direction formed in the right temporal region by the right temporal muscle).

한편 상기 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)(예컨대, 지정된 파장의 광 신호를 송출하고 피사체에 의해 반사되는 광 신호를 센싱하여 거리를 인식하는 광 센서부(예: 적외선 센서부, 레이저 센서부, 메이저 센서부 등), 지정된 파장의 전자파 신호나 무선주파수 신호 형태의 무선 신호를 송출하고 피사체의 의해 반사되는 무선 신호를 센싱하여 거리를 인식하는 무선 센서부, 지정된 주파수 대역의 음파 신호를 송출하고 피사체의 의해 반사되는 음파 신호를 센싱하여 거리를 인식하는 음파 센서부(예: 초음파 센서부 등), 지정된 간격으로 이격된 두 개의 카메라 렌즈와 카메라모듈을 포함하는 듀얼 카메라 등)를 구비할 수 있다.On the other hand, the user wireless terminal 200 is a distance recognition sensor unit 212 for recognizing the distance between the subject and the camera lens in the direction of the camera line of sight (for example, to transmit an optical signal of a specified wavelength and the optical signal reflected by the subject Optical sensor unit (eg, infrared sensor unit, laser sensor unit, major sensor unit, etc.) that senses the distance by sensing the distance, transmits an electromagnetic wave signal of a specified wavelength or a radio frequency signal in the form of a radio frequency signal and reflects the radio signal Wireless sensor unit for sensing the distance to detect the distance, Sound wave sensor unit (for example, ultrasonic sensor unit, etc.) to recognize the distance by transmitting a sound wave signal of the specified frequency band and sensing the sound wave signal reflected by the subject, spaced at a specified interval Two camera lenses and a dual camera including a camera module).

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)는 상기 사용자 무선단말(200)에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부(212)를 구비한 경우, 상기 거리인식 센서부(212)를 통해 상기 사용자 머리 기하학 구조 정보 중 이마 영역을 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득(예컨대, 거리인식 센서부(212)가 송출하는 신호의 방향을 조정하여 이마 영역의 각 부분 영역에 신호를 송출하고 반사되는 신호를 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득)할 수 있으며, 상기 거리인식 센서부(212)를 통해 센싱된 이마의 센싱 정보와 전두골의 전두융기에 대한 해부학적 통계 정보(예컨대, 성인 남성의 전두융기에 대한 평균적 곡률 패턴)를 근거로 상기 머리 전면의 이마 곡률 정보를 산출할 수 있다.According to an exemplary embodiment of the present invention, when the structure generation unit 255 includes a distance recognition sensor unit 212 that recognizes a distance between a subject and a camera lens in the user wireless terminal 200, the distance recognition sensor unit Sensing the forehead area of the user's head geometry through the 212 to obtain sensing information corresponding to the forehead curvature (eg, adjusting the direction of the signal transmitted by the distance recognition sensor 212 to each part of the forehead area) And transmits a signal to an area and obtains sensing information corresponding to the forehead curvature by sensing the reflected signal), and the anatomy of sensing information of the forehead sensed by the distance recognition sensor unit 212 and the frontal ridge of the frontal bone. Forehead curvature information on the front of the head may be calculated based on statistical information (eg, an average curvature pattern for frontal ridges of an adult male).

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)는 상기 사용자 무선단말(200)에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부(212)를 구비한 경우, 상기 거리인식 센서부(212)를 통해 상기 사용자 머리 기하학 구조 정보 중 좌측 이마 영역을 센싱하여 좌측 이마 곡률에 대응하는 센싱 정보를 획득(예컨대, 거리인식 센서부(212)가 송출하는 신호의 방향을 조정하여 좌측 이마 영역의 각 부분 영역에 신호를 송출하고 반사되는 신호를 센싱하여 이마 곡률에 대응하는 센싱 정보를 획득)할 수 있으며, 상기 거리인식 센서부(212)를 통해 센싱된 좌측 이마의 센싱 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분에 대한 좌측 측두 곡률 정보(예컨대, 전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보, 전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보 중 적어도 하나의 좌측 측두 곡률 정보)를 산출할 수 있다.According to an exemplary embodiment of the present invention, when the structure generation unit 255 includes a distance recognition sensor unit 212 that recognizes a distance between a subject and a camera lens in the user wireless terminal 200, the distance recognition sensor unit Sensing the left forehead region of the user's head geometry information through 212 to obtain sensing information corresponding to the left forehead curvature (eg, adjusting the direction of a signal transmitted by the distance recognition sensor unit 212 to the left forehead region). And transmits a signal to each partial region of the sensor and obtains sensing information corresponding to the forehead curvature by sensing the reflected signal. The left side corresponding to the sensing information of the left forehead sensed by the distance recognition sensor unit 212. Cover the hair on the left forehead based on the curvature of the forehead and statistical information on the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead. Left temporal curvature information for the left temporal part (e.g., skeletal structure corresponding to the left part of the frontal bone and the left parietal bone, and left temporal curvature information in the left temporal direction formed in the left temporal region on the left forehead by the left frontal and left parietal muscles, Skeletal structure corresponding to the left and left temporal bones of the frontal bone, and left temporal curvature information in the left temporal region formed by the left frontal and left temporal muscles in the left temporal region, corresponding to the left part of the frontal bone and the left parietal and left temporal bones The left temporal curvature information of the left temporal curvature information in the left temporal direction formed in the left temporal region by the skeletal structure and the left frontal muscle, the left parietal muscle and the left temporal muscle) can be calculated.

한편 상기 구조 생성부(255)를 통해 사용자 머리 전면의 가로 방향 머리 거리 정보와, 머리 전면의 이마 곡률 정보와, 좌측 관자놀이 방향의 좌측 측두 곡률 정보와, 좌측 관자놀이 방향의 좌측 측두 거리 정보와, 우측 관자놀이 방향의 우측 측두 곡률 정보와, 우측 관자놀이 방향의 우측 측두 거리 정보 중 하나 이상의 정보를 포함하는 사용자 머리 기하학 구조 정보를 구성한 경우, 상기 정보 전송부(265)는 상기 사용자 머리 기하학 구조 정보를 운영서버(100)로 전송할 수 있으며, 상기 운영서버(100)는 상기 사용자 머리 기하학 구조 정보를 수신할 수 있다.On the other hand, through the structure generating unit 255, the horizontal head distance information in front of the user's head, the forehead curvature information in the front of the head, the left temporal curvature information in the left temple direction, the left temporal distance information in the left temple direction, and the right When the user head geometry information including at least one of right temporal curvature information in the temple direction and right temporal distance information in the right temple direction is configured, the information transmitter 265 operates the user head geometry information server. It may be transmitted to the 100, the operation server 100 may receive the user head geometry information.

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)가 상기 사용자 머리의 기하학 구조를 해석하여 생성한 사용자 머리 기하학 구조 정보는 사용자의 실제 머리의 수치를 반영하지 못할 수 있다. 본 발명은 단순히 가상의 헬맷 데이터를 생성하는 것 뿐만아니라, 사용자의 실제 머리에 밀착하여 착용할 사용자 전용 헬맷제품을 제작하거나 판정하는 구성까지 포함하므로, 사용자의 실제 머리의 수치 정보를 획득해야 한다.According to the exemplary embodiment of the present invention, the user head geometry information generated by the structure generator 255 by analyzing the geometry of the user head may not reflect the numerical value of the user's head. The present invention not only generates virtual helmet data, but also includes a configuration for manufacturing or determining a user-only helmet product to be worn in close contact with the user's actual head, so that the numerical information of the user's actual head must be obtained.

본 발명에 따르면, 각 사용자 별로 사용자 머리의 기하학 구조나 수치는 각각의 사용자 별로 모두 상이하며, 특정한 사용자의 사용자 전용 헬맷제품을 3D 모델링하거나 제작하기 위해 사용자 머리의 기하학 구조를 인식함과 동시에 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하는 과정을 거칠 수 있다.According to the present invention, the geometry or numerical values of the user's head for each user are different for each user, and at the same time the user's head recognizes the geometry of the user's head in order to 3D model or produce a user-specific helmet product for a specific user. The user's head of the real-world and one-to-one accumulation of the geometry of the user may be subjected to the process of determining numerical information.

본 발명의 실시 방법에 따르면, 상기 사용자 머리 기하학 구조 정보는 지정된 좌표계 상에서 좌표 값으로 해석 가능한 벡터 정보를 적어도 일부 포함하고 있으므로, 사용자 머리의 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하여 상기 특징 점 간의 거리를 현실세계와 일대일 축적으로 결정하는 과정을 통해 상기 사용자 머리 기하학 구조 정보를 사용자의 실제 머리의 수치와 일대일 매칭되는 사용자 머리 전용의 기하학 구조 정보로 이용할 수 있다.According to an embodiment of the present invention, since the user head geometry information includes at least a part of vector information that can be interpreted as a coordinate value on a designated coordinate system, two or more feature points that can be specified for calculating a distance on the geometry of the user head are determined. By using the process of determining the distance between the feature points to the real world in one-to-one scale, the user head geometry information may be used as geometry information dedicated to the user head that is one-to-one matched to the numerical value of the user's head.

본 발명의 실시 방법에 따르면, 상기 프로그램모듈(230)은 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하기 위해 카메라부(210)를 통해 사용자 머리를 촬영하는 시점부터 사용자 머리의 수치를 결정할 수 있는 방식으로 촬영하도록 처리하는 것이 바람직하다.According to an exemplary embodiment of the present invention, the program module 230 starts from the point of photographing the user's head through the camera unit 210 to determine the user's head numerical information of the real world and one-to-one accumulation of the geometry of the user's head. It is desirable to process the shooting in such a way that the numerical value of the user's head can be determined.

본 발명의 제1 수치 결정 실시예에 따르면, 상기 영상 처리부(245)는 상기 사용자 무선단말(200)에 구비된 카메라부(210)의 자동초점 촬영 상태에서 지정된 방향의 사용자 머리를 촬영하도록 제어(또는 설정)할 수 있으며, 이 경우 상기 인식 처리부(250)는 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식할 수 있다. According to the first numerical determination embodiment of the present invention, the image processing unit 245 controls to photograph the user's head in the specified direction in the auto focus photographing state of the camera unit 210 provided in the user wireless terminal 200 ( In this case, the recognition processing unit 250 may read the image data input in the auto focus photographing state of the camera unit 210 to recognize the user's head area to wear the helmet.

한편 본 발명의 제1 수치 결정 실시예에서 상기 수치 결정부(260)는 상기 구조 생성부(255)를 통해 생성된 사용자 머리 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점(예컨대, 얼굴의 눈썹 윗 부분의 이마, 좌측 이마와 좌측 머리카락 부분의 경계, 좌측 귀, 우측 이마와 우측 머리카락 부분의 경계, 우측 귀 등)을 결정하고, 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 예를들어, '초점거리(f)=[카메라 렌즈와 피사체 사이의 식별거리(L)×이미지크기(V)] / [피사체높이(H)]'의 산출식으로 산출될 수 있는데, 위 산출식에서 초점거리(f)는 카메라부(210)의 자동초점 과정에서 자동 결정되고 머리 영역에 대한 이미지크기(V)는 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 이용하여 도출 가능하므로, 카메라 렌즈와 피사체 사이의 식별거리(L)만 도출하면 사용자 머리 기하학 구조 정보 상의 특정 점 간 거리(=피사체높이(H))를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. Meanwhile, in the first numerical determination embodiment of the present invention, the numerical determiner 260 may identify two or more feature points (eg, faces) that are specific for calculating distances on the user head geometry information generated by the structure generator 255. The forehead of the upper part of the eyebrow, the boundary of the left forehead and the left hair part, the left ear, the boundary of the right forehead and the right hair part, the right ear, etc.), and the focal point automatically determined in the autofocusing process of the camera unit 210. The distance between the two or more specific points is determined by substituting one or more pieces of information between a distance and a pixel distance between two or more specific points on the image data and camera specification information included in the wireless terminal 200 as input values of a specified calculation formula. Can be calculated with numerical information of world and one-to-one accumulation. For example, it can be calculated by a formula of 'focal length (f) = [identification distance (L) × image size (V)] / [subject height (H)] between the camera lens and the subject'. In the equation, the focal length f is automatically determined in the autofocusing process of the camera unit 210, and the image size V for the head region is provided in the wireless terminal 200 and the pixel distance between two or more specific points on the image data. Since it is possible to derive by using one or more information of the camera specification, the distance between a specific point (= subject height (H)) on the user's head geometry information can be obtained by deriving only the identification distance (L) between the camera lens and the subject And numerical information of one-to-one accumulation.

본 발명의 실시 방법에 따르면, 상기 영상 처리부(245)는 카메라 촬영 인터페이스를 통해 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 거리가 지정된 식별거리(예컨대, 10cm, 15cm, 20cm 등)를 유지하여 촬영하도록 유도하며, 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다. 다만 본 발명의 실시 방법에 따르면, 상기 영상 처리부(245)가 상기 카메라 렌즈와 사용자 머리의 각 부분 사이의 거리를 지정된 식별거리로 유지하여 촬영하도록 유도하더라도, 상기 유도된 식별거리와 실제 식별거리 사이에는 오차가 발생하며, 이에 상기 수치 결정부(260)는 상기 유도된 식별거리를 이용하여 상기 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하되, 상기 유도된 식별거리의 전/후 일정 범위의 거리에 대한 하나 이상의 식별거리를 더 이용하여 복수의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출한 후 이 중에서 사용자 머리의 실제 특징 점 간 거리와 매칭되는 거리를 확률적으로 결정하거나 또는 상기 산출된 복수의 특징 점 간 거리를 통계 처리하여 현실세계와 일대일 축적의 수치 정보를 산출할 수 있다. According to an embodiment of the present invention, the image processing unit 245 maintains an identification distance (eg, 10 cm, 15 cm, 20 cm, etc.) in which a distance between the camera lens and each part of the user's head is designated through a camera photographing interface. Inducing photographing, and including the photographing-induced identification distance in the input value of the calculation formula may calculate the distance between the determined two or more feature points as numerical information of the real world and one-to-one accumulation. However, according to the exemplary embodiment of the present invention, even if the image processing unit 245 induces the distance between the camera lens and each part of the user's head at a specified identification distance, the image processing unit 245 maintains the distance between the induced identification distance and the actual identification distance. An error occurs, and the numerical determiner 260 calculates the distance between the feature points as the numerical information of the real world and the one-to-one accumulation using the derived identification distance, but before / after the derived identification distance. By using one or more identification distances for a range of distances, the distances between the plurality of feature points are calculated as numerical information of the real world and one-to-one accumulation, and the distances that match the distances between the actual feature points of the user's head are probabilistic. Or statistically processing the calculated distance between the plurality of feature points to calculate numerical information of the real world and one-to-one accumulation. There.

본 발명의 제2 수치 결정 실시예에 따르면, 상기 영상 처리부(245)는 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 머리를 촬영히도록 유도한다. 상기 수치 결정부(260)는 상기 구조 생성부(255)를 통해 생성된 사용자 머리 기하학 구조 정보 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 한편 상기 영상 처리부(245)는 상기 사용자 머리를 촬영하기 전 또는 후에 현실세계의 길이를 재는 도구(예컨대, 자)를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리할 수 있으며, 상기 수치 결정부(260)는 상기 입력된 수치 정보를 상기 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보로 결정할 수 있다.According to the second numerical determination embodiment of the present invention, the image processing unit 245 instructs the user's head to be photographed in the designated photographing mode state (for example, the auto focus photographing state). The numerical determiner 260 determines at least two feature points that can be specified for distance calculation on the user head geometry information generated by the structure generator 255. Meanwhile, the image processing unit 245 may process to input numerical information obtained by measuring the distance between the determined two or more feature points using a tool (eg, a ruler) measuring the length of the real world before or after photographing the user's head. In addition, the numerical determiner 260 may determine the input numerical information as the user head numerical information of the real world and one-to-one accumulation of the geometry of the user's head.

본 발명의 제3 수치 결정 실시예에 따르면, 상기 영상 처리부(245)는 지정된 촬영모드 상태(예컨대, 자동초점 촬영 상태 등)에서 사용자 머리를 촬영히도록 유도하되, 상기 사용자 머리 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 머리와 길이를 재는 도구(예컨대, 자)를 함께 촬영하도록 유도한다. 바람직하게, 상기 영상 처리부(245)는 상기 길이를 재는 도구의 눈금과 수치가 카메라부(210)의 화각 내에 포함되어 화상데이터 상에 존재하도록 촬영 유도하는 것이 바람직하다.According to the third numerical determination embodiment of the present invention, the image processing unit 245 induces to photograph the user's head in the designated shooting mode state (for example, the auto focus photographing state, etc.). After the measuring tool is provided, the user's head and the measuring tool (eg, a ruler) are guided to photograph together. Preferably, the image processing unit 245 may induce photographing so that the scale and the numerical value of the measuring tool are included in the angle of view of the camera unit 210 to exist on the image data.

한편 본 발명의 제3 수치 결정 실시예에서 상기 카메라부(210)를 통해 촬영된 화상데이터 상에 사용자 머리와 길이를 재는 도구(예컨대, 도구의 눈금과 수치 등)학 함께 포함된 경우, 상기 수치 결정부(260)는 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정한다. 상기 수치 결정부(260)는 지정된 패턴인식알고리즘을 통해 상기 화상데이터 상에 존재하는 현실세계의 길이를 재는 도구를 인식함과 동시에 상기 길이를 재는 도구에 표시된 눈금과 수치값을 인식하고, 이를 기반으로 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식한다. 예를들어, 상기 수치 결정부(260)는 상기 화상데이터 상의 픽셀 거리 200 픽셀은 현실세계 10mm에 해당한다는 것과 형태의 관계를 인식할 수 있다. 만약 상기 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계가 인식되면, 상기 수치 결정부(260)는 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계(예컨대, 비율)를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.Meanwhile, in the third numerical determination embodiment of the present invention, when the user's head and length measuring tool (for example, the scale and the numerical value of the tool) are included in the image data photographed through the camera unit 210, the numerical value is included. The determination unit 260 determines two or more feature points that can be specified for distance calculation on the user head geometry. The numerical determiner 260 recognizes a tool for measuring the length of the real world existing on the image data through a designated pattern recognition algorithm, and at the same time recognizes a scale and a numerical value displayed on the tool for measuring the length. The relationship between the numerical distance in the real world and the pixel distance on the image data between the scales of the measuring tool on the image data is recognized. For example, the numerical determiner 260 may recognize a relationship between a shape and a pixel distance of 200 pixels on the image data corresponding to 10 mm of the real world. If the relationship between the numerical distance in the real world between the scales of the measuring tool on the image data and the pixel distance on the image data is recognized, the numerical determiner 260 may determine the numerical distance between the scales of the recognized tool and the pixel distance. The distance between the two or more feature points may be calculated as the numerical information of the real world and the one-to-one accumulation by reading the pixel distance between the determined two or more feature points through a relationship (eg, a ratio).

본 발명의 제4 수치 결정 실시예에 따르면, 사용자 무선단말(200)은 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부(212)를 구비할 수 있으며, 이 경우 상기 수치 결정부(260)는 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부(212)를 통해 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 센싱하거나 상기 거리인식 센서부(212)를 센싱된 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 확인하고, 상기 거리인식 센서부(212)를 통해 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to the fourth numerical determination embodiment of the present invention, the user wireless terminal 200 may include a distance recognition sensor unit 212 for recognizing the distance between the subject and the camera lens in the camera line of sight, in this case The numerical determiner 260 determines two or more feature points that can be specified for distance calculation on the user head geometry, and between the camera lens and each part of the user head through the distance recognition sensor 212. Sensing an identification distance or checking an identification distance between the camera lens sensed by the distance recognition sensor unit 212 and each part of the user's head, and assigns an identification distance identified through the distance recognition sensor unit 212. The distance between the two or more feature points determined as an input value of the calculation formula may be calculated as numerical information of the real world and the one-to-one accumulation.

본 발명의 실시 방법에 따르면, 상기 인식 처리부(250)는 상기 카메라부(210)의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식할 수 있으며, 상기 수치 결정부(260)는 상기 카메라부(210)의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말(200)에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출할 수 있다.According to the exemplary embodiment of the present invention, the recognition processing unit 250 may read the image data input in the auto focus photographing state of the camera unit 210 to recognize the user's head area to wear the helmet, and determine the numerical value. The unit 260 may determine one or more pieces of information of a focal length that is automatically determined in the autofocus process of the camera unit 210, pixel distance between two or more specific points on the image data, and camera specification information provided in the wireless terminal 200. The distance between the determined two or more specific points may be included in the input value of the calculation formula as numerical information of the one-to-one accumulation with the real world.

본 발명의 제5 수치 결정 실시예에 따르면, 상기 수치 결정부(260)는 상기 제1 내지 제4 수치 결정 실시예 중 적어도 둘 이상의 실시예를 적어도 부분적으로 조합한 형태로 사용자 머리 기하학 구조 상에서 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 결정할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the fifth numerical determination embodiment of the present invention, the numerical determination unit 260 is determined on the user head geometry in the form of at least partially combining at least two or more embodiments of the first to fourth numerical determination embodiments. The distance between two or more specific points may be determined by numerical information of the real world and one-to-one accumulation, and the present invention is not limited thereto.

본 발명의 실시 방법에 따르면, 상기 수치 결정부(260)는 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 머리 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출함과 동시에, 현실세계와 일대일 축적의 사용자 머리 둘레 길이 범위정보를 산출할 수 있다. 바람직하게, 상기 수치 결정부(260)는 상기 사용자 머리 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 머리 기하학 구조를 형성하는 전두골과 좌우 두정골과 좌우 측두골 및 후두골 중 둘 이상의 골격 구조를 결합하는 해부학적 결합 관계의 통계 정보를 근거로 지정된 오차 범위 내에서 현실세계와 일대일 축적의 사용자 머리 둘레 길이 범위정보를 산출할 수 있다. 상기 사용자 머리 수치 정보는 상기 산출된 사용자 머리 둘레 길이 범위정보를 포함한다. 한편 본 발명의 다른 실시 방법에 따르면, 상기 수치 결정부(260)는 사용자가 줄자로 자신의 머리 둘레 길이를 잰 수치 형태로 상기 사용자 머리 둘레 길이 범위정보를 입력받을 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.According to the exemplary embodiment of the present invention, the numerical determiner 260 accumulates one-to-one distance between the specified specific points on the user head geometry according to at least one of the first to fifth numerical determination embodiments. At the same time, the user's head circumference length range information of the real world and one-to-one accumulation can be calculated. Preferably, the numerical determiner 260 may include one or more numerical information calculated corresponding to the user head geometry information, and two or more skeletal structures of the frontal bone, left and right parietal bone, left and right temporal bone and laryngeal bone forming the user head geometric structure. Based on the statistical information of the anatomical coupling relationship to be combined, the user can calculate the length information of the head circumference of the real world and one-to-one accumulation within a specified error range. The user head numerical value information includes the calculated user head circumference length range information. Meanwhile, according to another exemplary embodiment of the present invention, the numerical determiner 260 may receive the user's head circumference length range information in a numerical form in which a user measures the length of his head circumference with a tape measure. It is not limited.

한편 상기 수치 결정부(260)를 통해 상기 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 사용자 머리 기하학 구조 상의 지정된 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 포함하는 사용자 머리 수치 정보를 결정한 경우, 상기 정보 전송부(265)는 상기 사용자 머리 수치 정보를 운영서버(100)로 전송할 수 있으며, 상기 운영서버(100)는 상기 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 수신할 수 있다.Meanwhile, the numerical determiner 260 includes, as the numerical information of the real world and the one-to-one accumulation, the distance between the specified specific points on the user's head geometry according to at least one of the first to fifth numerical determination embodiments. When determining the user head numerical information, the information transmitter 265 may transmit the user head numerical information to the operation server 100, the operation server 100 and the real world with respect to the geometry of the user head One-to-one accumulation of user head numerical information can be received.

본 발명의 실시 방법에 따르면, 상기 구조 생성부(255)를 통해 사용자 머리 기하학 구조 정보가 생성된 경우, 상기 정보 관리부(270)는 상기 사용자 머리 기하학 구조 정보를 사용자 무선단말(200)의 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 머리 기하학 구조 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. 한편 상기 수치 결정부(260)를 통해 사용자 머리 수치 정보를 결정한 경우, 상기 정보 관리부(270)는 상기 사용자 머리 기하학 구조 정보와 상기 사용자 머리 수치 정보를 연계하여 지정된 저장영역에 저장하여 관리할 수 있으며, 이 경우 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. According to the exemplary embodiment of the present invention, when the user head geometry information is generated through the structure generator 255, the information manager 270 stores the user head geometry information in the user wireless terminal 200. In this case, the user head geometry information is present in the image data by reading image data included in the image data input through the camera unit 210 of the user wireless terminal 200. The head may be used as user-specific head recognition information for real-time recognition of the user's head region. Meanwhile, when the user head numerical information is determined through the numerical determiner 260, the information manager 270 may store and manage the user head geometrical structure information and the user head numerical information in a designated storage area. In this case, the user head geometry information and the user head numerical information are read from the image data included in the image data input through the camera unit 210 of the user wireless terminal 200 to the user of the existing in the image data. It can be used as user-specific head recognition information for real time recognition of the head area.

도면2를 참조하면, 상기 프로그램모듈(230)은, 상기 운영서버(100)에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 통해 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷 데이터를 확인하여 전송하면 상기 사용자 전용 헬맷 데이터를 수신하여 저장하거나 출력하는 데이터 처리부(275)를 구비하며, 상기 운영서버(100)에서 상기 사용자 머리 기하학 구조 정보를 제공하면 상기 사용자 머리 기하학 구조 정보를 수신하여 지정된 저장영역에 저장 관리하거나, 및/또는 상기 운영서버(100)에서 상기 사용자 머리 기하학 구조 정보에 대응하는 사용자 머리 수치 정보를 제공하면 상기 사용자 머리 수치 정보를 수신하고 상기 사용자 머리 기하학 구조 정보와 연계하여 지정된 저장영역에 저장 관리하는 정보 관리부(270)를 구비한다.Referring to FIG. 2, the program module 230 may provide user-specific helmet data that is one-to-one matched to the actual head of the user through the user head geometry information and one-to-one accumulation of user head numerical information in the operation server 100. And a data processing unit 275 for receiving and storing or outputting the user-only helmet data when the transmission is confirmed. When the operation server 100 provides the user head geometry information, the user head geometry information is received. Store the user head in the designated storage area, and / or when the operation server 100 provides the user head numerical information corresponding to the user head geometry information, the user head numerical information is received and associated with the user head geometry information. Information management unit 270 to store and manage in a designated storage area The rain.

상기 운영서버(100)는 프로그램모듈(230)으로부터 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 수신하거나 및/또는 상기 프로그램모듈(230)으로부터 수신된 영상데이터를 근거로 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 생성/결정한 후, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 둘레 길이범위를 포함하는 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리 영역에 형성된 이마와 측두에 밀착하여 착용 가능하며 사용자의 머리 둘레 길이에 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하고, 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 확인하여 상기 프로그램모듈(230)으로 제공할 수 있으며, 상기 데이터 처리부(275)는 상기 운영서버(100)로부터 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷 데이터를 수신하여 지정된 저장영역에 저장하거나 및/또는 상기 수신된 사용자 전용 헬맷 데이터를 화면 출력한다. 한편 실시 방법에 따라 상기 데이터 처리부(275)는 상기 운영서버(100)에서 사용자 전용 헬맷 데이터를 확인하는 과정에 개입하여 처리할 수 있다. The operation server 100 receives the user head geometry information and the user head numerical information from the program module 230 and / or the user head geometry information based on the image data received from the program module 230. After generating / determining the user's head numerical information, the user's head can be worn in close contact with the forehead and the temporal region formed in the user's actual head region by using the user's head geometric information including the user's head geometric structure information and the length of the user's head circumference. And generate 3D modeling data of a user-specific helmet product that matches the length of the user's head circumference, and apply the user-specific helmet data generated by applying a specified helmet design to the user-specific modeling data generated by one-to-one matching to the user's actual head. User-specific helmet data to include It can be confirmed and provided to the program module 230, the data processing unit 275 receives the user-specific helmet data matching one-to-one with the actual head of the user from the operation server 100 to store in a designated storage area, and And / or display the received user specific helmet data. In the meantime, the data processor 275 may process the user server through the process of checking the user-specific helmet data in the operation server 100.

한편 상기 운영서버(100) 측에서 사용자 머리 기하학 구조 정보가 생성되거나 및/또는 프로그램모듈(230)에서 사용자 머리 기하학 구조 정보가 생성되더라도 사용자 무선단말(200)에 상기 사용자 머리 기하학 구조 정보가 저장되지 않은 경우, 상기 운영서버(100)는 상기 프로그램모듈(230)으로 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보를 제공하며, 상기 정보 관리부(270)는 상기 운영서버(100)로부터 사용자 머리 기하학 구조 정보를 수신하여 지정된 저장영역에 저장한다. 바람직하게, 상기 사용자 머리 기하학 구조 정보는 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. The user head geometry information is not stored in the user wireless terminal 200 even if the user head geometry information is generated on the operation server 100 and / or the user head geometry information is generated in the program module 230. If not, the operation server 100 provides the user module geometry information corresponding to the user-specific helmet data to the program module 230, the information management unit 270 is the user head geometry from the operation server 100 Receive structure information and store it in the designated storage area. Preferably, the user head geometry information is user-only head recognition information for real-time recognition of the user's head region present in the image data by reading the image data included in the image data input through the camera unit 210 Can be used as

또는 상기 운영서버(100) 측에서 사용자 머리 기하학 구조 정보가 생성되거나 및/또는 사용자 무선단말(200)에 상기 사용자 머리 기하학 구조 정보가 저장되지 않은 상태에서, 상기 운영서버(100) 측에서 상기 사용자 머리 기하학 구조 정보에 대응하는 사용자 머리 수치 정보가 결정된 경우, 상기 운영서버(100)는 상기 프로그램모듈(230)으로 상기 사용자 머리 기하학 구조 정보를 제공하는 과정과 연동하여 상기 사용자 머리 기하학 구조 정보에 대응하는 사용자 머리 수치 정보를 제공할 수 있으며, 상기 정보 관리부(270)는 상기 사용자 머리 기하학 구조 정보와 상기 사용자 머리 수치 정보를 수신하여 지정된 저장영역에 연계 저장할 수 있다. 바람직하게, 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보는 상기 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자 머리 영역을 인식하기 위한 사용자 전용 머리인식정보로 사용될 수 있다. Alternatively, the user head geometry information is generated at the operation server 100 side and / or the user head geometry information is not stored at the user wireless terminal 200. The user at the operation server 100 side When the user head numerical information corresponding to the head geometry information is determined, the operation server 100 corresponds to the user head geometry information in connection with the process of providing the user head geometry information to the program module 230. The user head numerical information may be provided, and the information manager 270 may receive the user head geometry information and the user head numerical information and store the information in association with a designated storage area. Preferably, the user head geometry information and the user head numerical information read the image data included in the image data input through the camera unit 210 of the user wireless terminal 200, the user head present in the image data Can be used as user-specific head recognition information for recognizing the area.

도면2를 참조하면, 상기 프로그램모듈(230)은, 상기 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 정보 관리부(270)를 통해 저장 관리되는 사용자 머리에 대한 사용자 머리 기하학 구조 정보를 근거로 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 영역 인식부(280)와, 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강하는 증강 처리부(285)를 구비한다. Referring to FIG. 2, when the image data is input through the camera unit 210, the program module 230 may provide user head geometry information regarding the user head stored and managed through the information manager 270. A region recognizing unit 280 for real-time recognizing a user's head region present in the image data by reading image data included in the image data inputted through the camera unit 210 based on the present invention; When the user's head region is recognized in real time, an augmentation processor 285 is provided to augment the user's head by superimposing the user-specific helmet data on the user's head region recognized on the image data.

상기 정보 관리부(270)를 통해 사용자 머리에 대한 사용자 머리 기하학 구조 정보가 저장 관리되는 상태에서 상기 영상 처리부(245)를 통해 상기 카메라부(210)로부터 영상데이터가 입력되는 경우, 상기 영역 인식부(280)는 상기 정보 관리부(270)를 통해 지정된 저장영역에 저장된 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한다. When the image data is input from the camera unit 210 through the image processor 245 while the user head geometry information of the user's head is stored and managed through the information manager 270, the area recognition unit ( 280 reads the image data included in the image data input through the camera unit 210 by using the user head geometry information stored in the storage area designated by the information manager 270 and exists in the image data. Recognize the user's head area in real time.

만약 상기 영역 인식부(280)를 통해 상기 카메라부(210)로부터 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 경우, 상기 증강 처리부(285)는 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 증강할 수 있다. 즉, 상기 카메라부(210)를 통해 입력되는 영상데이터에는 상기 사용자 전용 헬맷 데이터에 대응하는 헬맷이 존재하지 않지만, 상기 증강 처리부(285)는 상기 카메라부(210)를 통해 입력되는 영상데이터에서 인식된 사용자의 머리 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 머리 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리 영역에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩하여 표시함으로써, 상기 사용자 전용 헬맷 데이터를 통해 상기 사용자의 실제 머리 영역을 증강하여 표시할 수 있다. If the head region of the user existing in the image data input from the camera unit 210 is recognized in real time through the area recognition unit 280, the augmentation processor 285 may recognize the head of the user recognized on the image data. The user-specific helmet data can be overlaid and displayed in the area. That is, a helmet corresponding to the user-specific helmet data does not exist in the image data input through the camera unit 210, but the augmentation processor 285 recognizes the image data input through the camera unit 210. Recognizing the user-specific helmet data on the basis of a three-dimensional coordinate system set to interpret the direction of the user's head and the camera's line of sight while recognizing the value between the specified feature point and the two or more feature points existing in the user's head region The user-specific helmet data may be superimposed and displayed on the user's head area by rotating, enlarging or contracting the head area so that the user's actual head area may be augmented and displayed through the user's dedicated helmet data.

본 발명의 실시 방법에 따르면, 상기 사용자 전용 헬맷 데이터는 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 근거로 생성된 3D 모델링 데이터를 기반으로 생성되었으므로, 사용자 무선단말(200)의 카메라부(210)를 통해 사용자 머리의 전면을 촬영하지 않고 좌측이나 우측의 측면을 비스듬히 촬영(예컨대, 사용자의 우측 귀나 좌측 귀가 노출되도록 촬영)하는 경우에도, 상기 증강 처리부(285)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하면서 사용자의 머리 방향과 카메라의 시선 방향을 해석하기 위해 설정된 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리의 측면부에 중첩 표시할 수 있다. According to the exemplary embodiment of the present invention, since the user-only helmet data is generated based on the 3D modeling data generated based on the user head geometry information and the user head numerical information, the camera unit 210 of the user wireless terminal 200. Even when photographing the left or right side of the user at an angle without photographing the front of the user's head at an angle (for example, photographing the user's right or left ear to be exposed), the augmentation processor 285 uses the camera unit 210. Based on the three-dimensional coordinate system set up to interpret the direction of the user's head and the camera's line of sight while recognizing the value between the specified feature point and two or more feature points existing in the front area or the side area of the user's head of the input image data Rotate or enlarge the user-specific helmet data to fit the side of the user's head. Or it can be shrunk to be displayed superimposed on the side of the user's head.

한편 본 발명의 실시 방법에 따르면, 사용자는 상기 사용자 무선단말(200)의 전면 측 카메라부(210)를 통해 자신의 머리를 촬영하는 것이 아니라 후면 측 카메라를 통해 거울에 비친 자신의 머리를 촬영할 수 있으며, 이 경우 상기 증강 처리부(285)는 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우 상기 후면 측 카메라를 통해 입력되는 영상데이터를 거울에 비친 사용자 머리를 촬영한 것으로 (1차)판단할 수 있다. 만약 상기 무선단말(200)의 후면 측 카메라부(210)를 통해 영상데이터가 입력되는 경우, 상기 증강 처리부(285)는 상기 후면 측 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 머리를 직접 촬영한 것인지 거울에 비친 사용자 머리를 촬영한 것인지 보다 정확하게 판단하는 절차를 수행할 수 있다. 예를들어, 상기 증강 처리부(285)는 상기 카메라부(210)를 통해 사용자 머리의 특정한 부분이나 사용자 머리 이외의 다른 부분에 대한 초점 맞추기를 시도하여 초점 맞추기 위해 초점거리가 변화되는지 확인하거나, 또는 상기 카메라부(210)를 통해 사용자 머리와 상기 머리 이외의 다른 부분 사이에 심도 변화가 발생하는지 확인하거나, 또는 사용자 머리에 초점을 맞춘 상태에서 아웃포커싱을 시도하여 아웃포커싱이 유효하게 발생하는지 확인하는 과정 중 적어도 하나의 과정을 통해 상기 카메라부(210)를 통해 입력되는 영상데이터가 사용자의 머리를 직접 촬영한 것인지 거울에 비친 사용자 머리를 촬영한 것인지 판단할 수 있다. 거울에 비친 사용자 머리를 촬영한 경우 초첨거리가 변하지 않거나 기 설정된 값 미만으로 변할 수 있으며, 심도 변화가 발생하지 않거나 기 설정된 값 미만으로 발생할 수 있으며, 아웃포커싱이 처리되지 않거니 기 설정된 값 미만으로 처리될 수 있다. 만약 상기 사용자 무선단말(200)의 카메라를 통해 거울에 비친 사용자의 머리를 촬영하는 것으로 판단된 경우, 상기 증강 처리부(285)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리 영역에 맞게 회전하거나 확대하거나 축소하여 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 헬맷 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. 만약 사용자가 거울에 비친 사용자의 머리의 비스듬히 촬영하는 경우, 상기 증강 처리부(285)는 상기 카메라부(210)를 통해 입력되는 영상데이터의 사용자 머리의 전면 영역이나 측면 영역에 존재하는 지정된 특징 점과 둘 이상의 특징 점 사이의 수치를 인식하되 거울에 비친 피사체에 대응하는 3차원 좌표계를 기준으로 상기 사용자 전용 헬맷 데이터를 상기 사용자 머리의 측면부에 맞게 회전하거나 확대하거나 축소하여 상기 사용자 머리의 측면부에 중첩 표시할 수 있으며, 실시 방법에 따라 상기 사용자 전용 헬맷 데이터에 거울에 비쳐진 광 효과를 주어 중첩 표시할 수 있다. Meanwhile, according to the embodiment of the present invention, the user may not photograph his head through the front side camera unit 210 of the user wireless terminal 200, but may photograph his head reflected in the mirror through the rear side camera. In this case, when the image data is input through the rear camera unit 210 of the wireless terminal 200, the augmentation processor 285 may display the user's head reflecting the image data input through the rear camera in the mirror. You can judge (primary) by photographing. If the image data is input through the rear camera unit 210 of the wireless terminal 200, the augmentation processor 285 is the image data input through the rear camera unit 210 to the user's head. The procedure may be performed to more accurately determine whether the user's head or the user's head is reflected in the mirror. For example, the augmentation processor 285 attempts to focus on a specific part of the user's head or a part other than the user's head through the camera unit 210 to check whether the focal length is changed to focus, or Check whether the depth change occurs between the user's head and other parts other than the head through the camera unit 210, or try to focus the user's head to determine whether the out focusing is effective. Through at least one of the processes, the image data input through the camera unit 210 may determine whether the user's head is directly photographed or the user's head reflected in the mirror. When the user's head is reflected in the mirror, the focusing distance may not change or may be less than the preset value, the depth change may not occur or may be less than the preset value, and the out focusing may not be processed or may be less than the preset value. Can be processed. If it is determined that the user's head reflected in the mirror through the camera of the user wireless terminal 200, the augmentation processor 285 is present in the user's head of the image data input through the camera unit 210 Recognizes a value between a specified feature point and two or more feature points, and rotates, enlarges, or reduces the user-specific helmet data based on a three-dimensional coordinate system corresponding to a subject reflected in a mirror, and displays the overlapped display. According to an implementation method, the user-specific helmet data may be superimposed and displayed by giving a light effect reflected on the mirror. If the user photographs the user's head at an angle in the mirror, the augmentation processing unit 285 may include a specified feature point existing in the front region or the side region of the user's head of the image data input through the camera unit 210. Recognizes values between two or more feature points, and displays the user-specific helmet data based on a three-dimensional coordinate system corresponding to a mirrored object to rotate, enlarge or reduce the user-specific helmet data to overlap the side of the user's head. In some embodiments, the user-specific helmet data may be superimposed and displayed by giving a light effect reflected on the mirror.

도면2를 참조하면, 상기 프로그램모듈(230)은, 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송하기 위한 절차를 수행하거나, 및/또는 근거리 무선 통신을 통해 근거리의 헬맷 제작장치(175)로 상기 사용자 전용 헬맷 데이터를 제공하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문 제작을 요청하기 위한 절차를 수행하는 제품 주문부(290)와, 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문 제작 요청에 대한 결제를 처리하는 결제 처리부(295)를 구비한다. Referring to FIG. 2, the program module 230 configures order request information for requesting an order of a user-only helmet product corresponding to the user-only helmet data and performs a procedure for transmitting to the operation server 100. Or, and / or provide the user-specific helmet data to the near-field helmet manufacturing apparatus 175 through short-range wireless communication to perform a procedure for requesting a custom-made helmet product corresponding to the user-specific helmet data. The product ordering unit 290 and a payment processing unit 295 for processing a payment for an order production request for a user-specific helmet product corresponding to the user-specific helmet data.

상기 제품 주문부(290)는 상기 데이터 처리부(275)를 통해 수신/출력하는 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 주문 요청하기 위한 주문 인터페이스를 표시할 수 있다. 또는 상기 제품 주문부(290)는 상기 증강 처리부(285)와 연동하여 상기 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역에 중첩하여 증강 표시된 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 주문 요청하기 위한 주문 인터페이스를 표시할 수 있다. The product ordering unit 290 may display an ordering interface for requesting a user-specific helmet product corresponding to user-specific helmet data received / outputted through the data processing unit 275. Alternatively, the product ordering unit 290 may be linked to the augmentation processing unit 285 to correspond to the user-specific helmet data that is augmented and displayed by being superimposed on the user's head region existing in the image data input through the camera unit 210. You can display an ordering interface for ordering a dedicated helmet product.

상기 제품 주문부(290)는 상기 주문 인터페이스를 통해 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 위한 주문 관련 정보를 입력/선택받는다. 예를들어, 상기 제품 주문부(290)는 상기 주문 인터페이스를 통해 사용자 전용 헬맷제품 중 주문 요청할 대상을 선택하거나 및/또는 주문할 수량이나 옵션을 선택하거나 및/또는 배송지정보 등을 입력할 수 있다. The product ordering unit 290 receives / receives order-related information for ordering a user-only helmet product corresponding to the user-specific helmet data through the order interface. For example, the product ordering unit 290 may select an order request target among user-only helmet products and / or select a quantity or option to order and / or input delivery address information through the order interface.

한편 상기 주문 인터페이스를 통해 상기 주문 관련 정보를 입력/선택된 경우, 상기 결제 처리부(295)는 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 위한 결제를 처리한다. 한편 상기 결제 처리부(295)가 상기 결제를 처리하는 순서는 운영서버(100)로 주문요청정보를 전송한 후에 처리되거나, 및/또는 사용자 무선단말(200)의 근처에서 사용자 전용 헬맷제품을 제작하는 헬맷 제작장치(175)를 통해 결제 가능한 경우 생략될 수 있으며, 이에 의해 본 발명이 한정되지 아니한다. On the other hand, when the order-related information is input / selected through the order interface, the payment processor 295 processes a payment for an order of a user-only helmet product corresponding to the user-specific helmet data. Meanwhile, the payment processing unit 295 may process the payment after transmitting the order request information to the operation server 100, and / or to manufacture a user-only helmet product in the vicinity of the user wireless terminal 200. If it is possible to pay through the helmet manufacturing device 175 may be omitted, thereby the present invention is not limited.

본 발명의 일 제품 주문 실시예에 따라 상기 운영서버(100)로 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하는 경우, 상기 제품 주문부(290)는 상기 주문 인터페이스를 통해 입력/선택된 주문 관련 정보를 근거로 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버(100)로 전송할 수 있으며, 상기 운영서버(100)는 상기 프로그램모듈(230)으로부터 상기 주문요청정보를 수신한다.When requesting an order for a user-only helmet product corresponding to the user-only helmet data to the operation server 100 according to the product ordering embodiment of the present invention, the product ordering unit 290 is input through the order interface. Based on the selected order-related information, the order request information for requesting an order of a user-only helmet product corresponding to the user-specific helmet data may be configured and transmitted to the operation server 100, and the operation server 100 may be configured as described above. The order request information is received from the program module 230.

본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 포함할 수 있다. 또는 상기 운영서버(100)에 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나가 저장된 경우, 상기 주문요청정보는 운영서버(100)에 저장된 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 식별하기 위한 식별정보를 포함할 수 있다. According to an exemplary embodiment of the present invention, the order request information may include at least one of user head geometry information, user head numerical information, and helmet design information for custom-made a custom helmet product. Alternatively, when at least one of the user head geometry information, the user head value information, and the helmet design information is stored in the operation server 100, the order request information may include the user head geometry information and the user head value stored in the operation server 100. It may include identification information for identifying at least one of the information and helmet design information.

한편 본 발명의 실시 방법에 따르면, 상기 주문요청정보는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터를 포함하며, 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 중 적어도 하나를 더 포함하거나 및/또는 운영서버(100)에 저장된 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보 중 적어도 하나를 식별하기 위한 식별정보를 더 포함할 수 있다. On the other hand, according to an embodiment of the present invention, the order request information includes user-specific helmet data for ordering a user-specific helmet product, the user head geometry and information corresponding to the user-specific helmet data It may further include at least one of the helmet design information, and / or may further include identification information for identifying at least one of the user head geometry information stored in the operation server 100 and the user head numerical information and helmet design information. .

만약 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭 가능한 경우, 상기 운영서버(100)는 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하여 상기 매칭된 사용자 전용 헬맷제품을 확인한 경우에 상기 매칭된 사용자 전용 헬맷제품을 제공하도록 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 상기 사용자 전용 헬맷제품을 제공하는 지정된 제품제공서버(170)로 제공하여 상기 사용자 전용 헬맷제품의 배송을 요청할 수 있으며, 상기 제품제공서버(170)는 상기 사용자 전용 헬맷제품을 확인하고 상기 배송지정보로 배송하기 위한 절차를 수행할 수 있다. If a user-only helmet product corresponding to the order request information is matched with a pre-made helmet product, the operation server 100 corresponds to the order request information through a database storing information about the pre-made helmet product. Check the helmet product that is one-to-one matched with the user-only helmet product to provide the request information and request to provide the user-specific helmet product when the matched user-specific helmet product of the user who will deliver the user-specific helmet product The delivery destination information may be provided to the designated product providing server 170 providing the user's dedicated helmet product to request delivery of the user's dedicated helmet product, and the product providing server 170 confirms the user's dedicated helmet product and the You can perform the procedure to deliver the delivery information.

한편 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품이 기 제작된 헬맷제품과 매칭되지 않는 경우, 상기 운영서버(100)는 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터와 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 하나 이상 포함하는 제작요청정보와 상기 주문 제작된 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버(170)로 제공하여 상기 사용자 전용 헬맷제품의 주문 제작 후 배송을 요청할 수 있으며, 상기 제품제공서버(170)는 지정된 헬맷 제작장치(175)를 통해 상기 사용자 전용 헬맷제품을 제작하고 상기 배송지정보로 배송하기 위한 절차를 수행할 수 있다. On the other hand, if the user-only helmet product corresponding to the order request information does not match the pre-made helmet product, the operation server 100 is a user-only helmet for ordering a user-specific helmet product corresponding to the order request information Providing production request information including at least one of data, user head geometry, user head numerical information, and helmet design information, and destination information of a user who will deliver the customized helmet product to the designated product providing server 170. After the custom-made helmet product can be requested for delivery, the product providing server 170 may perform a procedure for producing the user-only helmet product through the designated helmet manufacturing device 175 and delivering it to the shipping address information. Can be.

또는 상기 운영서버(100)는 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 전용 헬맷 데이터와 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 하나 이상 포함하는 제작요청정보와 상기 주문 제작된 헬맷제품을 배송할 사용자의 배송지정보를 지정된 디자이너가 이용하는 디자이너단말(165)로 제공하여 상기 사용자 전용 헬맷제품의 주문 제작 후 배송을 요청할 수 있으며, 상기 디자이너는 상기 디자이너단말(165)을 통해 상기 제작요청정보와 배송지정보를 확인한 후 상기 지정된 헬맷 제작장치(175)를 이용하거나 핸드메이드 방식으로 상기 사용자 전용 헬맷제품을 제작하고 상기 배송지정보로 배송하기 위한 절차를 수행할 수 있다. Alternatively, the operation server 100 may include one or more user-specific helmet data, user head geometry information, user head numerical information, and helmet design information for ordering a user-specific helmet product corresponding to the order request information. Information and delivery address information of a user who will deliver the customized helmet product is provided to a designer terminal 165 used by a designated designer to request delivery of the customized helmet product for the user, and the designer may request the designer terminal ( After confirming the production request information and the delivery address information through 165, the user can use the designated helmet production device 175 or a procedure for manufacturing the user-only helmet product in a handmade manner and delivering it to the delivery address information. .

한편 사용자 무선단말(200)의 근처에 상기 사용자 무선단말(200)과 근거리 무선 통신 가능하며 상기 사용자 전용 헬맷 데이터를 이용하여 사용자 전용 헬맷제품을 제작 가능한 헬맷 제작장치(175) 중 적어도 하나의 헬맷 제작장치(175)가 구비된 경우, 상기 제품 주문부(290)는 상기 근거리 무선부(220)를 이용한 근거리 무선 통신을 통해 근거리에 구비된 헬맷 제작장치(175)로 상기 사용자 전용 헬맷 데이터를 전달하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 제작을 요청할 수 있다. 이 경우 상기 헬맷 제작장치(175)는 근거리 무선 통신을 통해 상기 프로그램모듈(230)으로부터 상기 사용자 전용 헬맷 데이터를 수신하고, 상기 헬맷 제작장치(175)의 구성부를 제어하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작할 수 있다. 한편 실시 방법에 따라 상기 사용자 무선단말(200) 근처의 헬맷 제작장치(175)는 상기 프로그램모듈(230)을 통한 요청에 따라 지정된 운영서버(100)로부터 상기 사용자 전용 헬맷 데이터를 수신하고, 상기 헬맷 제작장치(175)의 구성부를 제어하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작할 수 있으며, 이에 의해 본 발명이 한정되지 아니한다.Meanwhile, at least one helmet is manufactured from a helmet manufacturing apparatus 175 capable of short-range wireless communication with the user wireless terminal 200 near the user wireless terminal 200 and manufacturing a user-only helmet product using the user-specific helmet data. When the device 175 is provided, the product ordering unit 290 transmits the user-only helmet data to the helmet manufacturing apparatus 175 provided at a short distance through short range wireless communication using the short range wireless unit 220. It is possible to request the manufacture of a user-specific helmet product corresponding to the user-specific helmet data. In this case, the helmet manufacturing apparatus 175 receives the user-specific helmet data from the program module 230 through short-range wireless communication, and controls the component of the helmet manufacturing apparatus 175 to correspond to the user-specific helmet data. You can make your own helmet products. In the meantime, the helmet manufacturing apparatus 175 near the user wireless terminal 200 receives the user-specific helmet data from the designated operation server 100 in response to a request through the program module 230, and the helmet It is possible to manufacture a user-specific helmet product corresponding to the user-specific helmet data by controlling the component of the manufacturing apparatus 175, thereby the present invention is not limited.

도면3은 본 발명의 실시 방법에 따른 사용자 머리 기하학 구조에 대응하는 두개골의 골격 구조를 예시한 도면이다.3 is a diagram illustrating a skeleton structure of a skull corresponding to a user head geometry according to an embodiment of the present invention.

보다 상세하게 본 도면3은 증강된 헬맷 서비스를 위해 사용자 무선단말(200)의 카메라를 통해 촬영하여 인식해야할 사용자 머리 기하학 구조에 대응하는 두개골의 골격 구조를 예시한 것이다. 사람의 머리의 두개골은 해부학적으로 전두골, 두정골, 측두골, 접형골 및 후두골을 포함하여 이루어지며, 헬맷 착용 위치는 헬맷의 종류나 각 사람의 두개골의 골격 구조에 따라 전두골과 두정골을 포함하는 위치에서부터 전두골, 두정골, 측두골, 접형골 및 후두골을 모두 포함하는 위치까지 다양하게 이루어질 수 있다. 전두골은 이마와 앞머리에 해당하는 부분으로, 이마 영역은 전두골의 전두융기와 전두근에 대응하는 지정된 곡률로 이루어진다. 통상적으로 헬맷(예컨대, 야구 헬맷 등)를 착용했을 때 헬맷의 챙과 밀치하는 부분은 전두골의 전두융기에서 좌우 접형골이나 측두골의 일부까지 포함할 수 있으며, 실시 방법에 따라 일부 헬맷(예컨대, 중절모 등)의 경우 축두골의 전체와 후두골을 포함할 수 있다. 헬맷을 착용했을 때 심미감을 주기 위해서는 헬맷의 챙 부분과 사용자의 피부나 두피가 밀착함과 동시에, 원래의 헬맷 디자인에서 디자이너가 의도한 헬맷의 챙 위치와 모델의 골격 부분의 매칭 위치가 실제 사용자가 착용했을 경우에도 동일하게 매칭되어야만 디자이너가 의도한 심미감을 사용자에게서도 느낄 수 있으며, 본 발명은 각각의 사용자들에게서 이러한 심미감을 최대한 유도하기 위해 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 생성하거나 산출한다. In more detail, Figure 3 illustrates a skeleton structure of the skull corresponding to the user head geometry to be photographed and recognized through the camera of the user wireless terminal 200 for enhanced helmet service. The skull of the human head is anatomically composed of the frontal, parietal, temporal, sphenoid and laryngeal bones, and the position of the helmet is based on the frontal and the parietal bones, depending on the type of helmet or the skeleton structure of each person's skull. , Parietal, temporal bone, sphenoid bone and laryngeal bone can be made in various ways. The frontal bone is the part corresponding to the forehead and forehead, and the forehead area is composed of the designated curvatures corresponding to the frontal ridge and the frontal muscle of the frontal bone. In general, when wearing a helmet (eg, a baseball helmet, etc.), the part of the helmet that comes in contact with the visor may include a portion of the left and right sphenoid bones or temporal bones in the frontal ridge of the frontal bone. ) May include the entire apical bone and the occipital bone. In order to give an aesthetic when wearing the helmet, the visor part of the helmet and the skin or scalp of the user are in close contact, and the matching position of the helmet's visor position and the model's skeleton part in the original helmet design Even when worn, the user can feel the aesthetic sense intended by the designer to match the user, and the present invention generates or calculates the user's head geometry and user's head information in order to induce such aesthetics to each user as much as possible. .

도면4는 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 위한 사용자 전용 헬맷 데이터 제공 과정을 도시한 도면이다.4 is a diagram illustrating a process for providing user-specific helmet data for an enhanced helmet service based on mobile web according to an embodiment of the present invention.

보다 상세하게 본 도면4는 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 사용자 머리 영역을 인식하여 상기 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성함과 동시에 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하고, 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 상기 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 사용자 전용 모델링 데이터를 생성하고, 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 확인하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면4를 참조 및/또는 변형하여 상기 사용자 전용 헬맷 데이터 제공 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면4에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 4 illustrates the geometry of the user's head formed in the head region by recognizing the user's head region by reading one or more image data included in the image data input through the camera unit 210 of the user wireless terminal 200. The user head geometry information generated by analyzing the structure is generated and the user head numerical information of the real world and the one-to-one accumulation of the geometry of the user head formed in the head region is determined, and the user head geometry information and the one-to-one accumulation of the head are determined. User-specific modeling data including 3D modeling data of a user-specific helmet product that is one-to-one matched with the user's actual head is generated using the user's head numerical information, and the user-only model generated by applying a designated helmet design to the user-specific modeling data. Check the helmet data As those skilled in the art to which the present invention pertains, various methods of implementing the user-only helmet data providing process (for example, some steps may be omitted or may be omitted) by referring to and / or modifying the present invention. It is possible to infer an implementation method in which the order is changed), but the present invention includes all the implementation methods inferred above, and the technical features are not limited only to the implementation method shown in FIG.

도면4를 참조하면, 프로그램모듈(230)은 본 발명의 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 일대일 축적의 사용자 머리 수치 정보를 결정 가능한 방식으로 카메라부(210)를 통해 피사체를 촬영한 영상데이터를 입력받아 버퍼링하고(400), 상기 입력되어 버퍼링된 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식한다(405).Referring to FIG. 4, the program module 230 controls the camera unit 210 in a manner capable of determining user head numerical information of one-to-one accumulation according to at least one of the first to fifth numerical determination embodiments of the present invention. Input and buffer image data photographing a subject (400), and read one or more image data included in the input and buffered image data to recognize a user's head region to wear a helmet (405).

만약 상기 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역이 인식되면, 상기 프로그램모듈(230)은 상기 인식된 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성하고(410), 본 발명의 제1 내지 제5 수치 결정 실시예 중 적어도 하나의 실시예에 따라 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정한다(415). If the user head region to be worn on the helmet is recognized by reading one or more image data included in the image data, the program module 230 analyzes the user head geometry formed in the recognized head region. Generates the structure information (410), and the user's head value of the real world and one-to-one accumulation of the geometry of the user's head formed in the head region according to at least one of the first to fifth numerical determination embodiments of the present invention. The information is determined (415).

만약 상기 영상데이터를 통해 상기 사용자 머리 기하학 구조 정보가 생성되고 상기 사용자 머리 수치 정보가 결정되면, 상기 프로그램모듈(230)은 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 운영서버(100)로 전송한다(420). 한편 상기 프로그램모듈(230)은 증강된 헬맷 서비스를 위해 상기 사용자 머리 기하학 구조 정보를 포함하는 사용자 전용 머리인식정보를 지정된 저장영역에 저장하여 관리한다(425).If the user head geometry information is generated through the image data and the user head value information is determined, the program module 230 transmits the user head geometry information and the user head value information to the operation server 100. (420). Meanwhile, the program module 230 stores and manages user-specific head recognition information including the user head geometry information in a designated storage area for enhanced helmet service (425).

한편 상기 운영서버(100)는 상기 프로그램모듈(230)으로부터 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 수신하고(430), 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 포함하는 적어도 하나의 사용자 전용 모델링 데이터를 생성한다(430). On the other hand, the operation server 100 receives the user head geometry information and the user head numerical information from the program module 230 (430), using the user head geometry information and one-to-one accumulation of user head numerical information At least one user-specific modeling data including 3D modeling data of a user-only helmet product that is matched one-to-one with a real head of the user is generated (430).

만약 상기 사용자 전용 모델링 데이터가 생성되면, 상기 운영서버(100)는 본 발명의 제1 내지 제4 사용자 전용 데이터 확인 실시예 중 적어도 하나의 실시예를 통해 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 포함하는 사용자 전용 헬맷 데이터를 확인하며(440), 이를 위해 상기 프로그램모듈(230)은 상기 사용자 전용 모델링 데이터에 적용할 적용 대상 헬맷 디자인 정보를 선택하여 제공할 수 있으며(440a), 헬맷 디자인 정보를 제공한 디자이너단말(165)은 상기 사용자 전용 모델링 데이터에 자신이 디자인한 헬맷 디자인 정보를 적용하여 사용자 전용 헬맷 데이터를 생성하여 제공할 수 있다(440b).If the user-specific modeling data is generated, the operation server 100 is generated by one-to-one matching to the actual head of the user through at least one embodiment of the first to fourth user-specific data confirmation embodiment of the present invention The user-specific helmet data including the user-specific helmet data generated by applying the designated helmet design to the user-specific modeling data is identified (440), and for this, the program module 230 is subject to be applied to the user-specific modeling data. The helmet design information may be selected and provided (440a), and the designer terminal 165 providing the helmet design information generates and provides user-specific helmet data by applying the helmet design information designed by the user to the user-specific modeling data. It may be done (440b).

만약 상기 사용자 전용 헬맷 데이터가 확인되면, 상기 운영서버(100)는 상기 프로그램모듈(230)으로 상기 사용자 전용 헬맷 데이터를 제공하며(445), 상기 프로그램모듈(230)은 상기 운영서버(100)로부터 상기 사용자 전용 헬맷 데이터를 수신하여 지정된 저장영역에 저장하거나 화면에 출력한다(450).If the user-only helmet data is confirmed, the operation server 100 provides the user-only helmet data to the program module 230 (445), the program module 230 from the operation server 100 The user-only helmet data is received and stored in the designated storage area or output on the screen (450).

도면5는 본 발명의 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스 제공 과정을 도시한 도면이다.5 is a diagram illustrating a mobile web-based enhanced helmet service providing process according to an embodiment of the present invention.

보다 상세하게 본 도면5는 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 확인하고 사용자 머리 기하학 구조 정보를 사용자 무선단말(200)의 카메라부(210)를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 후 상기 영상데이터의 사용자 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 상기 사용자의 머리를 증강하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면5를 참조 및/또는 변형하여 상기 증강된 헬맷 서비스 제공 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면5에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, Figure 5 checks the user-specific helmet data generated by applying the specified helmet design to the user-specific modeling data generated by one-to-one matching the actual head of the user and the user's head geometry information of the user's wireless terminal 200 After recognizing the user's head region present in the image data input through the camera unit 210 in real time, the process of augmenting the user's head by overlaying the user's dedicated helmet data on the user's head region of the image data is shown. As one skilled in the art to which the present invention pertains, various methods of implementing the enhanced helmet service providing process (eg, some steps may be omitted or may be omitted) by referring to and / or modifying the present invention. It may be inferred that the order of implementation is changed). Is made, including any exemplary method, to which the technical feature that is not limited to the exemplary method shown in the figure 5.

도면5를 참조하면, 상기 도면4의 과정을 통해 프로그램모듈(230)으로 사용자 전용 헬맷 데이터가 제공되고 상기 사용자 무선단말(200)의 지정된 저장영역에 사용자 머리 기하학 구조 정보를 포함하는 사용자 전용 머리인식정보가 저장된 경우, 상기 프로그램모듈(230)은 카메라부(210)를 통해 피사체를 촬영한 영상데이터가 입력되는지 확인하고(500), 만약 상기 영상데이터가 입력되는 경우에 지정된 저장영역에 사용자 머리 기하학 구조 정보를 포함하는 사용자 전용 머리인식정보를 확인하고(505), 상기 확인된 사용자 전용 머리인식정보를 이용하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한다(510).Referring to FIG. 5, user-specific helmet data is provided to the program module 230 through the process of FIG. 4, and user-specific head recognition includes user head geometry information in a designated storage area of the user wireless terminal 200. When the information is stored, the program module 230 checks whether the image data photographing the subject is input through the camera unit 210 (500), and if the image data is input, the user head geometry in the designated storage area. The user head recognition information including the structure information is checked (505), and the user's head region existing in the image data is recognized in real time using the identified user head recognition information (510).

만약 상기 영상데이터에 존재하는 사용자의 머리 영역이 실시간 인식되면, 상기 프로그램모듈(230)은 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강한다(515).If the user's head region present in the image data is recognized in real time, the program module 230 augments the user's head by superimposing the user-specific helmet data on the user's head region recognized on the image data ( 515).

도면6은 본 발명의 일 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 이용한 사용자 전용 헬맷제품의 주문 제작 과정을 도시한 도면이다.FIG. 6 is a diagram illustrating an order-customization process of a user-only helmet product using an enhanced helmet service based on a mobile web according to an embodiment of the present invention.

보다 상세하게 본 도면6은 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 이용하여 운영서버(100)를 통해 사용자 전용 헬맷제품을 주문 제작하여 배송 처리하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 사용자 전용 헬맷제품의 주문 제작 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 6 shows an order for a user-only helmet product through the operation server 100 using the user-specific helmet data generated by applying a designated helmet design to user-specific modeling data generated by one-to-one matching to the actual head of the user. As shown in the manufacturing and shipping process, those skilled in the art to which the present invention pertains, various implementation methods for the custom-made process of the user-specific helmet product by referring to and / or modified in this figure 6 (For example, some steps may be omitted, or the order of implementation may be changed), but the present invention includes all the implementation methods inferred above, and the technical features thereof are only shown in the implementation method shown in FIG. This is not limited.

도면6을 참조하면, 상기 도면4의 과정을 통해 프로그램모듈(230)으로 사용자 전용 헬맷 데이터가 제공되거나 및/또는 상기 도면5의 과정을 통해 사용자 전용 헬맷 데이터를 이용하여 사용자의 머리를 증강하는 중 또는 후에, 상기 프로그램모듈(230)은 사용자 전용 헬맷제품을 주문하기 위한 주문 인터페이스를 표시하고(600), 상기 주문 인터페이스를 통해 사용자 전용 헬맷제품의 주문을 위한 주문 관련 정보를 입력/선택받는다(605). Referring to FIG. 6, user-specific helmet data is provided to the program module 230 through the process of FIG. 4 and / or augmenting the user's head using the user-specific helmet data through the process of FIG. 5. Or later, the program module 230 displays an order interface for ordering a user-only helmet product (600), and receives / receives order-related information for ordering a user-only helmet product through the order interface (605). ).

만약 상기 사용자 전용 헬맷제품의 주문을 위한 주문 관련 정보가 입력/선택되면, 상기 프로그램모듈(230)은 상기 입력/선택된 주문 관련 정보를 근거로 상기 사용자 전용 헬맷제품의 주문을 위한 결제금액의 결제를 처리하는 절차를 수행한다(610). 만약 상기 결제 처리가 확인되면, 상기 프로그램모듈(230)은 상기 주문 관련 정보를 근거로 상기 사용자 전용 헬맷제품을 주문 요청하기 위한 주문요청정보를 구성하여(615), 상기 운영서버(100)로 전송하면(620), 상기 운영서버(100)는 상기 주문요청정보를 수신한다(625).If order-related information for ordering the user-only helmet product is input / selected, the program module 230 may settle payment of the payment amount for the order for the user-only helmet product based on the input / selected order-related information. A processing procedure is performed (610). If the payment processing is confirmed, the program module 230 configures the order request information for ordering the user-only helmet product based on the order-related information (615), and transmits to the operation server 100 The lower surface 620, the operation server 100 receives the order request information (625).

상기 운영서버(100)는 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품의 제작을 위한 제작요청정보를 구성하고(630), 지정된 디자이너단말(165)이나 제품제공서버(170)로 상기 제작요청정보와 배송지정보를 제공한다(635). The operation server 100 configures production request information for manufacturing a user-only helmet product corresponding to the order request information (630), and the production request information to a designated designer terminal 165 or a product providing server 170. And the delivery information is provided (635).

상기 디자이너단말(165)이나 제품제공서버(170)는 상기 운영서버(100)로부터 상기 제작요청정보와 배송지정보를 수신하고(640), 상기 제작요청정보를 통해 상기 사용자 전용 헬맷제품을 제작하여 상기 배송지정보를 통해 배송하는 절차를 수행한다(645).The designer terminal 165 or the product providing server 170 receives the production request information and delivery address information from the operation server 100 (640), and produces the user-only helmet product through the production request information In operation 645, a procedure of delivering through the delivery address information is performed.

한편 실시 방법에 따라 상기 운영서버(100)는 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하여 상기 매칭된 사용자 전용 헬맷제품을 확인한 경우에 상기 매칭된 사용자 전용 헬맷제품을 제공하도록 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 상기 제품제공서버(170)로 제공할 수 있으며, 이 경우 상기 제품제공서버(170)는 상기 운영서버(100)로부터 상기 제공요청정보와 배송지정보를 수신하고, 상기 제공요청정보에 대응하는 사용자 전용 헬맷제품을 상기 배송지정보를 통해 배송하는 절차를 수행할 수 있다.Meanwhile, according to an implementation method, the operation server 100 checks a helmet product that is one-to-one matched with a user-only helmet product corresponding to the order request information through a database that stores information about the manufactured helmet product, and the matched user. When the dedicated helmet product is confirmed, the request information for requesting to provide the matched user-only helmet product and the delivery address information of the user who will deliver the user-only helmet product may be provided to the product providing server 170. The product providing server 170 may receive the offer request information and the delivery address information from the operation server 100, and perform a procedure of delivering a user-only helmet product corresponding to the offer request information through the delivery address information. have.

도면7은 본 발명의 다른 일 실시 방법에 따른 모바일 웹기반의 증강된 헬맷 서비스를 이용한 사용자 전용 헬맷제품의 주문 제작 과정을 도시한 도면이다.7 is a diagram illustrating an order-customization process of a user-only helmet product using a mobile web-based enhanced helmet service according to another exemplary embodiment of the present invention.

보다 상세하게 본 도면7은 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 이용하여 사용자 무선단말(200)의 근거리에 구비된 헬맷 제작장치(175)를 통해 사용자 전용 헬맷제품을 주문 제작하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면7을 참조 및/또는 변형하여 상기 사용자 전용 헬맷제품의 주문 제작 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면7에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.In more detail, FIG. 7 illustrates the manufacture of a helmet equipped at a short distance of the user wireless terminal 200 using the user-specific helmet data generated by applying a designated helmet design to the user-specific modeling data generated by one-to-one matching to the actual head of the user. A process for customizing a user-only helmet product through the device 175, and a person having ordinary skill in the art to which the present invention pertains, will refer to and / or modify the drawing 7 and the user-only helmet product Various implementation methods (e.g., some steps may be omitted or changed in order) may be inferred for the customization process of the present invention, but the present invention includes all the implementation methods inferred above, The technical features are not limited only to the implementation method shown in FIG.

도면7을 참조하면, 상기 도면4의 과정을 통해 프로그램모듈(230)으로 사용자 전용 헬맷 데이터가 제공되거나 및/또는 상기 도면5의 과정을 통해 사용자 전용 헬맷 데이터를 이용하여 사용자의 머리를 증강하는 중 또는 후에, 상기 프로그램모듈(230)은 사용자 전용 헬맷제품을 주문하기 위한 주문 인터페이스를 표시하고(700), 상기 주문 인터페이스를 통해 사용자 전용 헬맷제품의 주문을 위한 주문 관련 정보를 입력/선택받는다(705). Referring to FIG. 7, the user-specific helmet data is provided to the program module 230 through the process of FIG. 4 and / or the user's head is augmented using the user-specific helmet data through the process of FIG. Alternatively, the program module 230 displays an order interface for ordering a user-only helmet product 700, and receives / selects order related information for ordering a user-only helmet product through the order interface 705. ).

만약 상기 사용자 전용 헬맷제품의 주문을 위한 주문 관련 정보가 입력/선택되면, 상기 프로그램모듈(230)은 상기 입력/선택된 주문 관련 정보를 근거로 상기 사용자 전용 헬맷제품의 주문을 위한 결제금액의 결제를 처리하는 절차를 수행한다(710). 만약 상기 결제 처리가 확인되면, 상기 프로그램모듈(230)은 근거리 무선 통신을 통해 근거리의 헬맷 제작장치(175)로 상기 사용자 전용 헬맷 데이터를 제공하며(715), 상기 헬맷 제작장치(175)는 근거리 무선 통신을 통해 상기 사용자 전용 헬맷 데이터를 수신한다(720). 상기 헬맷 제작장치(175)는 지정된 구성부를 제어하여 상기 사용자 전용 헬맷 데이터를 통해 사용자 전용 헬맷제품을 제작하여 사용자에게 제공한다(725).If order-related information for ordering the user-only helmet product is input / selected, the program module 230 may settle payment of the payment amount for the order for the user-only helmet product based on the input / selected order-related information. A procedure of processing is performed (710). If the payment processing is confirmed, the program module 230 provides the user-specific helmet data to the helmet manufacture device 175 in the near-field through the wireless communication (715), the helmet manufacturing device 175 is near The user-only helmet data is received through wireless communication (720). The helmet manufacturing apparatus 175 controls the designated component to produce a user-specific helmet product through the user-specific helmet data to provide to the user (725).

100 : 운영서버 105 : 디자인 등록부
110 : 페이지 제공부 115 : 정보 수신부
120, 240 : 인식 처리부 125, 245 : 구조 생성부
130, 250 : 수치 결정부 135 : 모델링 생성부
140 : 데이터 확인부 145 : 데이터 제공부
150 : 정보 제공부 155 : 주문 수신부
160 : 주문 처리부 165 : 디자이너단말
170 : 제품제공서버 175 : 제작장치
200 : 사용자 무선단말 230 : 앱
235 : 영상 처리부 255 : 정보 전송부
260 : 정보 관리부 265 : 데이터 처리부
270 : 영역 인식부 275 : 증강 처리부
280 : 제품 주문부 285 : 결제 처리부
100: operation server 105: design register
110: page providing unit 115: information receiving unit
120, 240: recognition processing unit 125, 245: structure generating unit
130, 250: numerical determination unit 135: modeling generation unit
140: data checking unit 145: data providing unit
150: information providing unit 155: order receiving unit
160: order processing unit 165: designer terminal
170: product providing server 175: production equipment
200: user wireless terminal 230: app
235: image processing unit 255: information transmission unit
260: information management unit 265: data processing unit
270 area recognition unit 275 augmentation processing unit
280: product ordering unit 285: payment processing unit

Claims (27)

페이지를 통해 제공되고 브라우져를 통해 구동되는 프로그램모듈과, 통신망 상의 지정된 운영서버를 통해 실행되는 방법에 있어서,
상기 프로그램모듈이 브라우져를 통해 구동된 경우 상기 구동된 프로그램모듈이 D(D≥1)개의 지정된 무선단말 기종 중 어느 한 기종의 사용자 무선단말에 구비된 브라우져를 통해 구동된 모바일 웹 환경인지 확인하는 제1 단계;
상기 모바일 웹 환경을 확인한 경우 상기 프로그램모듈이 상기 모바일 웹 환경에 대응하는 사용자 무선단말의 카메라부에 대한 접근 권한을 획득하는 제2 단계;
상기 프로그램모듈이 사용자 무선단말의 카메라부를 통해 입력되는 영상데이터에 포함된 하나 이상의 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 제3 단계;
상기 프로그램모듈이 상기 인식된 머리 영역에 형성된 사용자 머리의 기하학 구조를 해석한 사용자 머리 기하학 구조 정보를 생성하고 상기 머리 영역에 형성된 사용자 머리의 기하학 구조에 대한 현실세계와 일대일 축적의 사용자 머리 수치 정보를 결정하는 제4 단계;
상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 지정된 운영서버로 전송하면, 상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보를 수신하는 제5 단계;
상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리와 일대일 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하는 제6 단계;
상기 운영서버에서 상기 사용자의 실제 머리에 일대일 매칭시켜 생성된 사용자 전용 모델링 데이터에 지정된 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 확인하는 제7 단계;
상기 운영서버에서 상기 프로그램모듈로 상기 사용자 전용 헬맷 데이터를 제공하면, 상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터를 수신하여 지정된 저장영역에 저장하는 제8 단계;
상기 프로그램모듈이 사용자 머리에 대한 사용자 머리 기하학 구조 정보를 근거로 상기 카메라부를 통해 입력되는 영상데이터에 포함된 화상데이터를 판독하여 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 제9 단계; 및
상기 프로그램모듈이 상기 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식한 경우 상기 영상데이터 상에서 인식된 사용자의 머리 영역에 상기 사용자 전용 헬맷 데이터를 중첩 표시하여 사용자의 머리를 증강하는 제10 단계;를 포함하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
In a program module provided through a page and driven by a browser, and executed by a designated operating server on a communication network,
When the program module is driven through a browser, the driven program module is configured to determine whether the mobile web environment is driven through a browser provided in a user wireless terminal of any one of D (D≥1) designated wireless terminal models. Stage 1;
A second step of acquiring, by the program module, an access right to a camera unit of a user wireless terminal corresponding to the mobile web environment when the mobile web environment is checked;
A third step in which the program module reads one or more image data included in the image data input through the camera unit of the user wireless terminal and recognizes a user's head region to wear a helmet;
The program module generates user head geometry information by analyzing the geometry of the user head formed in the recognized head region, and provides user head numerical information of the real world and one-to-one accumulation of the geometry of the user head formed in the head region. Determining a fourth step;
A fifth step of receiving, by the program module, the user head geometry information and the user head geometry information when the user head geometry information and the user head numerical information are transmitted to a designated operation server;
Generating, by the operation server, 3D modeling data of a user-only helmet product that is matched one-to-one with an actual head of a user by using the user head geometry information and one-to-one accumulation of user head numerical information;
A seventh step of confirming, by the operation server, user-specific helmet data generated by applying a designated helmet design to user-specific modeling data generated by one-to-one matching with the actual head of the user;
An eighth step of receiving, by the program module, the user-only helmet data from the operation server and storing the user-only helmet data in a designated storage area;
A ninth step in which the program module reads image data included in image data input through the camera unit based on user head geometry information on the user's head and recognizes a user's head region present in the image data in real time; And
A tenth step of augmenting the user's head by superimposing and displaying the user-specific helmet data on the user's head region recognized on the image data in real time when the program module recognizes the user's head region present in the image data; Mobile web based enhanced helmet service providing method comprising.
제 1항에 있어서,
상기 제3 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 단계를 포함하고,
상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
The third step may include the step of the program module to read the image data input in the automatic focus photographing state of the camera unit to recognize the user head area to wear a helmet,
In the fourth step, the program module determines at least two feature points that can be specified for distance calculation on the user head geometry, and at least two specific points on the image data and the focal length automatically determined in the autofocus process of the camera unit. Calculating the distance between the determined two or more specific points as numerical information of one-to-one accumulation by substituting one or more information of inter-pixel distance and camera specification information provided in the wireless terminal as input values of a specified calculation formula. Mobile web based enhanced helmet service providing method, characterized in that made.
제 2항에 있어서,
상기 제3 단계는, 상기 프로그램모듈이 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 거리가 지정된 식별거리를 유지하여 촬영하도록 유도하고,
상기 제4 단계는, 상기 프로그램모듈이 상기 촬영 유도된 식별거리를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 2,
In the third step, the program module causes the distance between the camera lens and each part of the user's head to be photographed while maintaining a specified identification distance,
The fourth step includes the step of the program module including the photographing-induced identification distance as an input value of the calculation formula and calculating the distance between the determined two or more feature points as numerical information of the real world and one-to-one accumulation. Mobile web based enhanced helmet service providing method, characterized in that made.
제 1항에 있어서,
상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 현실세계의 길이를 재는 도구를 이용하여 상기 결정된 둘 이상의 특징 점 간의 거리를 잰 수치 정보를 입력하도록 처리하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
In the fourth step, the program module determines two or more feature points that can be specified for distance calculation on the user head geometry, and measures the distance between the determined two or more feature points using a tool for measuring the length of the real world. A method of providing a mobile web based enhanced helmet service, comprising the step of processing to input numerical information.
제 1항에 있어서,
상기 제3 단계는, 상기 프로그램모듈이 상기 사용자 머리 근처에 현실세계의 길이를 재는 도구를 구비한 후 상기 사용자 머리와 길이를 재는 도구를 함께 촬영하도록 유도하고,
상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 화상데이터 상의 길이를 재는 도구의 눈금 간 현실세계의 수치 거리와 화상데이터 상의 픽셀 거리의 관계를 인식하고, 상기 인식된 도구의 눈금 간 수치 거리와 픽셀 거리의 관계를 통해 상기 결정된 둘 이상의 특징 점 간의 픽셀 거리를 판독하여 상기 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
In the third step, the program module is provided with a tool for measuring the length of the real world near the user's head and then guides the user's head and the tool for measuring the length together.
In the fourth step, the program module determines two or more feature points that can be specified for distance calculation on the user head geometry, and the numerical distance in the real world between the scales of the tool for measuring the length on the image data and the pixels on the image data. Recognizing the relationship between the distance, and reading the pixel distance between the determined two or more feature points through the relationship between the numerical distance between the scale of the recognized tool and the pixel distance, and the distance between the two or more feature points to the real world and one-to-one accumulation Mobile web based enhanced helmet service providing method comprising the step of calculating the information.
제 1항에 있어서,
상기 무선단말은, 카메라 시선 방향에 존재하는 피사체와 카메라 렌즈 사이의 거리를 인식하는 거리인식 센서부를 구비하고,
상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 상에서 거리 산출을 위해 특정 가능한 둘 이상의 특징 점을 결정하고, 상기 거리인식 센서부를 통해 센싱된 상기 카메라 렌즈와 상기 사용자 머리의 각 부분 사이의 식별거리를 확인하고, 상기 확인된 식별거리를 지정된 산출식의 입력값으로 대입하여 상기 결정된 둘 이상의 특징 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
The wireless terminal includes a distance recognition sensor unit for recognizing the distance between the subject and the camera lens in the direction of the camera eye,
In the fourth step, the program module determines at least two feature points that can be specified for distance calculation on the user head geometry, and between the camera lens sensed by the distance recognition sensor unit and each part of the user head. Identifying the identification distance, and substituting the identified identification distance as an input value of a specified calculation formula to calculate the distance between the determined two or more feature points as numerical information of the real world and one-to-one accumulation. Mobile web based enhanced helmet service providing method.
제 6항에 있어서,
상기 제3 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 촬영 상태에서 입력된 화상데이터를 판독하여 헬맷을 착용할 사용자 머리 영역을 인식하는 단계를 포함하고,
상기 제4 단계는, 상기 프로그램모듈이 상기 카메라부의 자동초점 과정에서 자동 결정된 초점거리와 상기 화상데이터 상의 둘 이상 특정 점 간 픽셀 거리와 상기 무선단말에 구비된 카메라 스펙 정보 중 하나 이상의 정보를 상기 산출식의 입력값에 포함시켜 상기 결정된 둘 이상의 특정 점 간 거리를 현실세계와 일대일 축적의 수치 정보로 산출하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 6,
The third step may include the step of the program module to read the image data input in the automatic focus photographing state of the camera unit to recognize the user head area to wear a helmet,
In the fourth step, the program module calculates one or more pieces of information of a focal length automatically determined in the autofocus process of the camera unit, pixel distance between two or more specific points on the image data, and camera specification information provided in the wireless terminal. And calculating a distance between the two or more specific points determined as numerical information of the real world and one-to-one accumulation by including the input value in an equation.
제 1항에 있어서,
상기 제4 단계는, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보를 지정된 저장영역에 저장하는 단계를 더 포함하고,
상기 제8 단계는, 상기 프로그램모듈이 상기 저장된 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
The fourth step may further include the program module storing the user head geometry information in a designated storage area.
The eighth step includes the mobile web module comprising real-time recognition of the user's head region present in the image data input through the camera unit by using the stored user head geometry information. Based on how to provide enhanced helmet service.
제 1항에 있어서,
상기 제8 단계는, 상기 운영서버에서 상기 프로그램모듈로 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 머리 기하학 구조 정보를 제공하면, 상기 프로그램모듈이 상기 사용자 머리 기하학 구조 정보를 수신하여 지정된 저장영역에 저장하는 단계를 더 포함하고,
상기 제9 단계는, 상기 프로그램모듈이 상기 운영서버로부터 수신하여 저장한 사용자 머리 기하학 구조 정보를 이용하여 상기 카메라부를 통해 입력되는 영상데이터에 존재하는 사용자의 머리 영역을 실시간 인식하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
In the eighth step, when the operation server provides the user head geometry information corresponding to the user-specific helmet data to the program module, the program module receives the user head geometry information and stores the user head geometry information in a designated storage area. Further includes steps,
The ninth step may include real-time recognition of the user's head region present in the image data input through the camera unit by using the user head geometry information received and stored by the program module from the operation server. Mobile web based enhanced helmet service providing method, characterized in that.
제 1항에 있어서, 상기 사용자 머리 기하학 구조 정보는,
전두골과 좌우 두정골에 대응하는 골격 구조 및 좌우 두정근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보,
전두골과 좌우 측두골에 대응하는 골격 구조 및 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보,
전두골과 좌우 두정골과 좌우 측두골에 대응하는 골격 구조 및 좌우 두정근과 좌우 측두근과 좌우 두피의 두께에 의해 형성된 머리 전면의 가로 방향 머리 거리 정보,
전두골의 전두융기에 대응하는 골격 구조 및 전두근에 의해 형성된 머리 전면의 이마 곡률 정보,
전두골의 좌측 부분과 좌측 두정골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보,
전두골의 좌측 부분과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 축두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보,
전두골의 좌측 부분과 좌측 두정골과 좌측 측두골에 대응하는 골격 구조 및 좌측 전두근과 좌측 두정근과 좌측 측두근에 의해 좌측 이마에서 좌측 측두에 형성된 좌측 관자놀이 방향의 좌측 측두 곡률 정보,
이마의 지정된 부분부터 좌측 측두의 지정된 부분까지 상기 좌측 측두 곡률을 따라 연결한 좌측 측두 거리 정보,
전두골의 우측 부분과 우측 두정골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보,
전두골의 우측 부분과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 축두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보,
전두골의 우측 부분과 우측 두정골과 우측 측두골에 대응하는 골격 구조 및 우측 전두근과 우측 두정근과 우측 측두근에 의해 우측 이마에서 우측 측두에 형성된 우측 관자놀이 방향의 우측 측두 곡률 정보,
이마의 지정된 부분부터 우측 측두의 지정된 부분까지 상기 우측 측두 곡률을 따라 연결한 우측 측두 거리 정보 중 하나 이상의 정보를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the user head geometry information,
Horizontal head distance information of the front of the head formed by the skeletal structure corresponding to the frontal and left and right parietal bones, and the thickness of the left and right parietal muscles and left and right scalp,
Horizontal head distance information of the front of the head formed by the skeletal structure corresponding to the frontal and left and right temporal bones, and the thickness of the left and right temporal and right and left scalp,
Skeletal structure corresponding to the frontal and left and right parietal and left and right temporal bones, and horizontal head distance information of the front of the head formed by the thickness of the left and right parietal muscles and the left and right temporal and right and left scalp,
Skeletal structure corresponding to the frontal ridges of the frontal bone and forehead curvature information formed by the front of the head,
Skeletal structure corresponding to the left part of the frontal bone and the left parietal bone, and left temporal curvature information in the left temporal direction of the left temporal region formed by the left frontal and left parietal muscles,
Skeletal structure corresponding to the left part of the frontal bone and the left temporal bone, and left temporal curvature information in the left temporal direction formed in the left temporal region on the left forehead by the left frontal and left atrophy,
Skeletal structure corresponding to the left part of the frontal bone, the left parietal bone and the left temporal bone, and left temporal curvature information in the left temporal direction formed in the left temporal region on the left forehead by the left frontal muscle, left parietal muscle and left temporal muscle,
Left temporal distance information connected along the left temporal curvature from the designated part of the forehead to the designated part of the left temporal,
Skeletal structure corresponding to the right part of the frontal bone and the right parietal bone, and right temporal curvature information in the right temporal direction formed in the right temporal region on the right forehead by the right frontal and right parietal muscles,
Skeletal structure corresponding to the right part of the frontal bone and the right temporal bone, and right temporal curvature information in the right temporal direction formed in the right temporal region on the right forehead by the right frontal muscle and right axillary muscle,
Skeletal structure corresponding to the right part of the frontal bone, right parietal and right temporal bone, and right temporal curvature information in the right temporal direction formed in the right temporal region on the right forehead by the right frontal muscle, right parietal and right temporal muscle,
A mobile web based enhanced helmet service providing method comprising at least one of information of right temporal distance connected along the right temporal curvature from a designated part of the forehead to a designated part of the right temporal.
제 10항에 있어서,
상기 거리 정보는, 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 거리 정보를 포함하고,
상기 곡률 정보는, 사용자 머리 영역의 사용자 머리 기하학 구조를 판별하기 위해 설정된 좌표계 상의 좌표 곡률 정보를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10,
The distance information includes coordinate distance information on a coordinate system set to determine the user head geometry of the user head region.
The curvature information, the mobile web-based enhanced helmet service providing method characterized in that it comprises the coordinate curvature information on the coordinate system set to determine the user head geometry of the user head region.
제 10항에 있어서, 상기 이마 곡률 정보는,
화상데이터에 포함된 이마의 그라데이션 정보와 전두골의 전두융기에 대한 해부학적 통계 정보를 근거로 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the forehead curvature information,
Method for providing an enhanced helmet service based on mobile web, characterized in that it is calculated based on the gradation information of the forehead included in the image data and anatomical statistical information about the frontal ridge of the frontal bone.
제 10항에 있어서, 상기 좌측 측두 곡률 정보는,
화상데이터에 포함된 좌측 이마의 그라데이션 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분의 곡률까지 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the left temporal curvature information,
The left-side covered by the hair on the left forehead based on the curvature information of the left forehead corresponding to the gradation information of the left forehead included in the image data and statistical information of the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead. Method for providing an enhanced helmet service based on mobile web, characterized in that the curvature of the temporal portion is calculated.
제 10항에 있어서, 상기 우측 측두 곡률 정보는,
화상데이터에 포함된 우측 이마의 그라데이션 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분의 곡률까지 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the right temporal curvature information,
The right side covered by hair on the right forehead based on the curvature information of the right forehead corresponding to the gradation information of the right forehead included in the image data and statistical information of the anatomical coupling relationship between the right part of the frontal bone and the right temporal bone corresponding to the right forehead. Method for providing an enhanced helmet service based on mobile web, characterized in that the curvature of the temporal portion is calculated.
제 10항에 있어서, 상기 이마 곡률 정보는,
무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우,
상기 거리인식 센서부를 통해 센싱된 이마의 센싱 정보와 전두골의 전두융기에 대한 해부학적 통계 정보를 근거로 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the forehead curvature information,
When the wireless terminal is provided with a distance recognition sensor unit for recognizing the distance between the subject and the camera lens,
The mobile web-based enhanced helmet service providing method characterized in that it is calculated based on the sensing information of the forehead sensed by the distance recognition sensor unit and anatomical statistical information about the frontal ridge of the frontal bone.
제 10항에 있어서, 상기 좌측 측두 곡률 정보는,
무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우,
상기 거리인식 센서부를 통해 센싱된 좌측 이마의 센싱 정보에 대응하는 좌측 이마의 곡률 정보와 상기 좌측 이마에 대응하는 전두골의 좌측 부분과 좌측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 좌측 이마에서 머리카락에 가려진 좌측 측두 부분의 곡률까지 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the left temporal curvature information,
When the wireless terminal is provided with a distance recognition sensor unit for recognizing the distance between the subject and the camera lens,
The hair on the left forehead based on the curvature information of the left forehead corresponding to the sensing information of the left forehead sensed by the distance recognition sensor unit and the statistical information of the anatomical coupling relationship between the left part of the frontal bone and the left temporal bone corresponding to the left forehead. Method for providing an enhanced helmet service based on the mobile web, characterized in that the curvature of the left temporal portion obscured.
제 10항에 있어서, 상기 우측 측두 곡률 정보는,
무선단말에 피사체와 카메라 렌즈 간 거리를 인식하는 거리인식 센서부를 구비한 경우,
상기 거리인식 센서부를 통해 센싱된 우측 이마의 센싱 정보에 대응하는 우측 이마의 곡률 정보와 상기 우측 이마에 대응하는 전두골의 우측 부분과 우측 측두골의 해부학적 결합 관계의 통계 정보를 근거로 우측 이마에서 머리카락에 가려진 우측 측두 부분의 곡률까지 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 10, wherein the right temporal curvature information,
When the wireless terminal is provided with a distance recognition sensor unit for recognizing the distance between the subject and the camera lens,
The hair on the right forehead based on the curvature information of the right forehead corresponding to the sensing information of the right forehead sensed by the distance recognition sensor and the statistical information of the anatomical coupling relationship between the right part of the frontal bone corresponding to the right forehead and the right temporal bone. Method for providing an enhanced helmet service based on the mobile web, characterized in that the curvature of the right temporal portion obscured by.
제 1항에 있어서, 상기 머리 수치 정보는,
현실세계와 일대일 축적의 머리 둘레 길이 범위정보를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the head numerical information,
Method for providing an enhanced helmet service based on mobile web, characterized in that it comprises the head and the length range information of the real world and one-to-one accumulation.
제 18항에 있어서, 상기 머리 둘레 길이는,
상기 사용자 머리 기하학 구조 정보에 대응하여 산출된 하나 이상의 수치 정보와 상기 사용자 머리 기하학 구조를 형성하는 전두골과 좌우 두정골과 좌우 측두골 및 후두골 중 둘 이상의 골격 구조를 결합하는 해부학적 결합 관계의 통계 정보를 근거로 지정된 오차 범위 내에서 산출되는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 18, wherein the head circumference is,
Based on one or more numerical information calculated corresponding to the user head geometry information and the statistical information of the anatomical coupling relationship that combines two or more skeletal structures of the frontal, left and right parietal, left and right temporal and laryngeal bone forming the user head geometry Mobile web based enhanced helmet service providing method, characterized in that calculated within the error range specified by.
제 1항에 있어서, 상기 제6 단계는,
상기 운영서버에서 상기 사용자 머리 기하학 구조 정보와 일대일 축적의 사용자 머리 수치 정보를 이용하여 사용자의 실제 머리 영역에 형성된 이마와 측두에 밀착하여 착용 가능하며 사용자의 머리 둘레 길이에 매칭되는 사용자 전용 헬맷제품의 3D 모델링 데이터를 생성하는 단계를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the sixth step is
By using the user's head geometry information and one-to-one accumulated user's head information in the operation server of the user-only helmet product that can be worn in close contact with the forehead and temporal head formed in the user's actual head area and matching the length of the user's head circumference Method for providing an enhanced helmet service based on mobile web, characterized in that it comprises the step of generating 3D modeling data.
제 1항에 있어서, 상기 제7 단계는,
상기 운영서버에서 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈로 제공하면, 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보를 수신하여 출력하는 단계;
상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계; 및
상기 운영서버에서 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인을 적용한 사용자 전용 헬맷 데이터를 생성하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the seventh step is
A program module extracts n (1≤n≤N) helmet design information from a design DB that stores N (N≥2) helmet design information registered and designed by M (M≥1) helmet designers in the operation server. If provided, the program module receiving and outputting the n helmet design information;
Receiving the design selection information from the operation server when the program module transmits design selection information for selecting at least one of the helmet design information to be applied among the n helmet design information; And
And generating user-specific helmet data applying a helmet design corresponding to the design selection information to the user-specific modeling data in the operation server.
제 1항에 있어서, 상기 제7 단계는,
상기 운영서버에서 M(M≥1)명의 헬맷 디자이너가 디자인하여 등록한 N(N≥2)개의 헬맷 디자인 정보를 저장하는 디자인DB로부터 n(1≤n≤N)개의 헬맷 디자인 정보를 추출하여 프로그램모듈로 제공하면, 상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보를 수신하여 출력하는 단계;
상기 프로그램모듈이 상기 n개의 헬맷 디자인 정보 중 적어도 하나의 적용 대상 헬맷 디자인 정보를 선택한 디자인선택정보를 전송하면, 상기 운영서버에서 상기 디자인선택정보를 수신하는 단계;
상기 운영서버에서 상기 디자인선택정보에 대응하는 헬맷 디자인 정보를 등록한 디자이너단말로 상기 사용자 전용 모델링 데이터와 상기 디자인선택정보를 제공하는 단계; 및
상기 운영서버에서 상기 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 상기 디자인선택정보에 대응하는 헬맷 디자인을 적용하여 생성된 사용자 전용 헬맷 데이터를 수신하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the seventh step is
A program module extracts n (1≤n≤N) helmet design information from a design DB that stores N (N≥2) helmet design information registered and designed by M (M≥1) helmet designers in the operation server. If provided, the program module receiving and outputting the n helmet design information;
Receiving the design selection information from the operation server when the program module transmits design selection information for selecting at least one of the helmet design information to be applied among the n helmet design information;
Providing the user-specific modeling data and the design selection information to a designer terminal that registers helmet design information corresponding to the design selection information in the operation server; And
Receiving the user-specific helmet data generated by applying a helmet design corresponding to the design selection information to the user-specific modeling data from the designer terminal in the operation server; Mobile Web-based augmentation, characterized in that it comprises a To provide customized helmet services.
제 1항에 있어서, 상기 제7 단계는,
상기 운영서버에서 M(M≥1)명의 헬맷 디자이너 중 m(1≤m≤M)명의 헬맷 디자이너가 이용하는 m개의 디자이너단말로 상기 사용자 전용 모델링 데이터를 제공하는 단계; 및
상기 운영서버에서 i(1≤i≤m)개의 디자이너단말로부터 상기 사용자 전용 모델링 데이터에 해당 헬맷 디자이너의 헬맷 디자인을 적용하여 생성된 j(j≥i)개의 사용자 전용 헬맷 데이터를 수신하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1, wherein the seventh step is
Providing the user-specific modeling data to m designer terminals used by m (1 ≦ m ≦ M) helmet designers among M (M ≧ 1) helmet designers in the operation server; And
Receiving j (j≥i) user-specific helmet data generated by applying a helmet design of the helmet designer to the user-specific modeling data from i (1≤i≤m) designer terminals in the operation server; Mobile web based enhanced helmet service providing method comprising a.
제 1항에 있어서,
상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계; 및
상기 운영서버에서 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품을 주문 제작하기 위한 사용자 머리 기하학 구조 정보와 사용자 머리 수치 정보와 헬맷 디자인 정보를 포함하는 제작요청정보와 상기 주문 제작된 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버로 제공하거나 디자이너단말로 제공하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
Receiving, by the program module, the order request information configured to request the order of the user-only helmet product corresponding to the user-only helmet data and transmitted to the operation server; And
The production request information including the user's head geometry structure information, the user's head numerical information and the helmet design information for customizing the user-specific helmet product corresponding to the order request information in the operation server and the customized user-specific helmet product Providing the delivery address information of the user to be delivered to the designated product providing server or to the designer terminal; Mobile web based enhanced helmet service providing method characterized in that it further comprises.
제 1항에 있어서,
상기 프로그램모듈이 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 주문을 요청하기 위한 주문요청정보를 구성하여 운영서버로 전송하면, 상기 운영서버에서 상기 주문요청정보를 수신하는 단계;
상기 운영서버에서 기 제작된 헬맷제품에 대한 정보를 저장하는 데이터베이스를 통해 상기 주문요청정보에 대응하는 사용자 전용 헬맷제품과 일대일 매칭되는 헬맷제품을 확인하는 단계; 및
상기 매칭된 사용자 전용 헬맷제품을 확인한 경우, 상기 운영서버에서 상기 매칭된 사용자 전용 헬맷제품의 제공을 요청하는 제공요청정보와 사용자 전용 헬맷제품을 배송할 사용자의 배송지정보를 지정된 제품제공서버로 제공하는 단계;를 더 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
Receiving, by the program module, the order request information configured to request the order of the user-only helmet product corresponding to the user-only helmet data and transmitted to the operation server;
Identifying a helmet product having a one-to-one correspondence with a user-only helmet product corresponding to the order request information through a database storing information on the helmet product manufactured in the operation server; And
When the matched user-only helmet product is confirmed, the operation server provides the request information for requesting the provision of the matched user-only helmet product and the delivery address information of the user who will deliver the user-only helmet product to the designated product providing server. Mobile web based enhanced helmet service providing method characterized in that it further comprises.
제 1항에 있어서,
상기 프로그램모듈이 근거리 무선 통신을 통해 근거리에 구비된 헬맷 제작장치로 상기 사용자 전용 헬맷 데이터를 전달하여 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품의 제작을 요청하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.
The method of claim 1,
The program module further comprises the step of requesting the production of a user-specific helmet product corresponding to the user-specific helmet data by delivering the user-specific helmet data to the helmet manufacturing apparatus provided in the short-range through the short-range wireless communication. Mobile web based enhanced helmet service providing method.
제 26항에 있어서,
상기 헬맷 제작장치에서 상기 사용자 전용 헬맷 데이터에 대응하는 사용자 전용 헬맷제품을 제작하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 모바일 웹 기반의 증강된 헬맷 서비스 제공 방법.

The method of claim 26,
And providing a user-specific helmet product corresponding to the user-specific helmet data in the helmet manufacturing apparatus.

KR1020180052152A 2018-05-04 2018-05-04 Method for Providing Augmented Helmet Service Based on Mobile Web KR20190127487A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180052152A KR20190127487A (en) 2018-05-04 2018-05-04 Method for Providing Augmented Helmet Service Based on Mobile Web

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180052152A KR20190127487A (en) 2018-05-04 2018-05-04 Method for Providing Augmented Helmet Service Based on Mobile Web

Publications (1)

Publication Number Publication Date
KR20190127487A true KR20190127487A (en) 2019-11-13

Family

ID=68535196

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180052152A KR20190127487A (en) 2018-05-04 2018-05-04 Method for Providing Augmented Helmet Service Based on Mobile Web

Country Status (1)

Country Link
KR (1) KR20190127487A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112315098A (en) * 2020-10-26 2021-02-05 西安万像电子科技有限公司 Intelligent helmet and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112315098A (en) * 2020-10-26 2021-02-05 西安万像电子科技有限公司 Intelligent helmet and system
CN112315098B (en) * 2020-10-26 2024-03-22 西安万像电子科技有限公司 Intelligent helmet and system

Similar Documents

Publication Publication Date Title
KR102158233B1 (en) Method for Providing Augmented Make-up Service
KR101844347B1 (en) Method for Providing Augmented Nail Art Service
KR20190024585A (en) Method for Providing Augmented Nail Art Service
KR20190127127A (en) Method for Providing Augmented Nail Art Service Based on Mobile Web
KR20190024862A (en) Method for Providing Clothes Fitting Service by using Augmented Reality
KR20190127481A (en) Method for Providing Augmented Clothing Service Based on Mobile Web
KR101556158B1 (en) The social service system based on real image using smart fitting apparatus
US20200118349A1 (en) Information processing apparatus, information processing method, and program
KR20200075541A (en) Eyeglasses try-on simulation method
KR20190024861A (en) Method for Providing Glasses Fitting Service by using Augmented Reality
KR102340904B1 (en) System and method for virtual fitting based on augument reality
KR101976086B1 (en) Method for Providing Augmented Hat Service
KR20190127487A (en) Method for Providing Augmented Helmet Service Based on Mobile Web
KR102117517B1 (en) Method for Providing Augmented Wig Service
KR102466408B1 (en) Styling device and the driving method thereof
KR20190127465A (en) Method for Providing Augmented Hat Service Based on Mobile Web
KR20200050095A (en) Method for Providing Wearing Service by Using Augment Reality
KR20190127470A (en) Method for Providing Augmented Wrist Watch Service Based on Mobile Web
KR101915278B1 (en) Method for Providing Augmented Clothing Service
KR20190127488A (en) Method for Providing Augmented Make-up Service Based on Mobile Web
KR101937327B1 (en) Method for Providing Augmented Glasses Service
KR20190085809A (en) Method for Providing Augmented Bracelet Service
KR20190127486A (en) Method for Providing Augmented Hair Band Service Based on Mobile Web
KR20190127204A (en) Method for Providing Augmented Wig Service Based on Mobile Web
KR20190127483A (en) Method for Providing Augmented Helmet Service Based on Mobile Web