KR20190053161A - Exact Matching System for Customer and Driver and Method Thereof - Google Patents
Exact Matching System for Customer and Driver and Method Thereof Download PDFInfo
- Publication number
- KR20190053161A KR20190053161A KR1020190054174A KR20190054174A KR20190053161A KR 20190053161 A KR20190053161 A KR 20190053161A KR 1020190054174 A KR1020190054174 A KR 1020190054174A KR 20190054174 A KR20190054174 A KR 20190054174A KR 20190053161 A KR20190053161 A KR 20190053161A
- Authority
- KR
- South Korea
- Prior art keywords
- passenger
- service provider
- recognition module
- information
- signal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012790 confirmation Methods 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 17
- 238000000513 principal component analysis Methods 0.000 description 9
- 239000006185 dispersion Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012880 independent component analysis Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G06Q50/40—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/30—Transportation; Communications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00221—
-
- G06K9/00362—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/023—Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
Abstract
Description
본 특허출원은 특허출원 제10-2014-0151172호의 분할출원이다. 본 발명은 운행자를 호출한 승객이 해당 운행자가 본인이 요청한 운행자인지 확인하여 서비스를 제공받는 방법에 관한 것이다.This patent application is a divisional application of Patent Application No. 10-2014-0151172. The present invention relates to a method of receiving a service by confirming that a passenger who calls a passenger is a passenger requested by the passenger.
사회가 복잡해지고 다양해짐에 따라 사람들의 이동 경로 또한 매우 복잡해졌다. 이로 인해 사람을 다른 곳으로 이동시켜 주는 서비스, 즉 승객 운반 서비스의 수요량 또한 매우 증가하였다.As society becomes more complicated and diverse, people's travel routes have become more complex. As a result, the demand for passenger transport services, which move people from one place to another, has also increased greatly.
기존의 승객 운반 서비스를 살펴보면 다른 곳으로 이동을 원하는 승객이 해당 서비스 업체에 연락을 하면 해당 업체에서는 서비스 제공 가능 운행자를 찾아서 해당 지역으로 보내는 방식으로 주로 이용되고 있다. 하지만 이러한 경우 적절한 운행자를 해당 업체가 수시로 파악하는 것이 어렵기 때문에 불특정 다수에게 보내는 경우가 많고, 이러할 경우 매우 비효율적일 뿐만 아니라, 서비스의 질 또한 매우 낮아질 수 있다. 또한 승객과 운행자가 직접적으로 연결되는 것이 아니기 때문에 연결하는 과정에서 착오가 생길 수가 있고, 이럴 경우 승객의 서비스에 대한 불만족은 매우 커지게 된다.If you look at the existing passenger transport service, if a passenger who wants to move to another location contacts the service provider, the company is mainly used to find the serviceable service provider and send it to the area. However, in such cases, it is difficult for the company to grasp the appropriate operator from time to time, so it is often sent to an unspecified number of people, which is not only very inefficient, but also the service quality may be very low. Also, because the passengers and the passengers are not directly connected, there may be a mistake in the process of connecting them, and in such a case, the dissatisfaction with the passengers' service becomes very large.
본 발명은 위에서 서술한 문제점을 해결하기 위한 것으로 현재 나와 있는 서비스를 보면, 승객과 운행자는 서로를 눈으로 파악한 뒤, 서로의 호출 및 서비스 제공 여부를 구두로 확인하여 연결되게 된다. 이는 매우 불확실할 뿐 아니라 다른 승객으로 오인 연결되는 경우가 생길 수도 있다. 본 발명은 이러한 문제를 해결하고자 하는 데 그 목적이 있다.The present invention is to solve the above-described problems. In the present service, the passengers and the passengers visually check each other, and verifies whether they are calling each other or providing a service. This is not only uncertain, but may also lead to misconnection to other passengers. SUMMARY OF THE INVENTION The present invention has an object to solve such a problem.
본 발명의 일실시예에 따른 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 있어서, (a) 승객의 위치를 파악하는 위치 인식 모듈; 및 (b) 승객이 요청한 장소 근처에 도달 했을 경우 한 명 이상의 고객에게 도착을 확인해주는 응답 확인 장치를 포함하는 승객 확인 시스템이다.A system and method for precise connection between a calling passenger and a passenger according to an embodiment of the present invention includes: (a) a location recognition module for locating a passenger; And (b) an acknowledgment device that confirms arrival to one or more customers when the passenger has reached a location near the requested location.
상기 서비스 제공자가 승객을 확인하는 응답 확인 장치는 디스플레이, 소리, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함할 수 있다.The response confirmation device for confirming the passenger by the service provider may include at least one of a display, a sound, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, . ≪ / RTI >
상기 승객이 상기 서비스 제공자를 인식하는 응답 확인 방식은 디스플레이, 소리, 진동, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함할 수 있다.The response confirmation method in which the passenger recognizes the service provider includes a display, a sound, a vibration, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, motion recognition ≪ / RTI >
승객이 소지한 통신기기와 서비스 제공자의 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함할 수 있다.And the communication module of the passenger and the communication module of the service provider interact with each other to confirm the position of each other.
서비스 제공자 측에서 승객의 얼굴을 포함하는 특징을 인식할 수 있는 화면 인식 모듈을 추가할 수 있다.A screen recognition module capable of recognizing a feature including the face of the passenger on the service provider side can be added.
서비스 제공자는 기존 승객의 특징 정보를 가지고 있는 데이터베이스를 포함할 수 있다.The service provider may include a database having feature information of existing passengers.
화면 인식 모듈 과정에서 승객의 정보를 옷, 가방, 안경, 손님 수 등을 패턴화하여 저장하는 방법을 포함한다.And a method of patterning and storing clothes, bags, glasses, and the number of guests in the passenger information in the screen recognition module process.
상기 화면 인식을 카메라를 통해 즉각적으로 영상화하여 승객과 서비스 제공자가 상호 정보를 공유하고 전송하는 방법을 포함한다.And a method of instantly imaging the screen recognition through a camera to share and transmit mutual information between a passenger and a service provider.
화면 인식 모듈에 있어서 승객이 서비스 제공자의 색깔, 차종, 차번호 등의 특징을 파악하여 정보를 받고, 자신이 호출한 서비스 제공자를 확인하는 방법을 포함한다.The screen recognition module includes a method in which the passenger grasps the characteristics of the service provider, such as the color, the vehicle type, and the car number, and receives the information and confirms the service provider called by the passenger.
서비스 제공자의 시스템에 장착된 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함할 수 있다.And communicating with the communication modules installed in the system of the service provider to confirm the position of each other.
또한 본 발명은 전술한 시스템을 이용하여 호출 승객과 운행자 간의 연결을 위한 방법을 제공한다. The present invention also provides a method for connection between a calling passenger and a passenger using the above-described system.
본 발명의 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 따르면, 승객이 운행자를 호출하면 각각은 동일한 연결정보를 받게 되고, 이를 확인함으로써, 서로가 연결될 수 있게 하고자 한다. 이를 통해 서비스의 만족도 및 품질을 높이고자 한다.According to the system and the method for precise connection between the called passenger and the passenger of the present invention, when the passenger calls the passenger, each receives and confirms the same connection information so that they can be connected to each other. Through this, we intend to improve the service satisfaction and quality.
도 1은 기본적인 발명의 구성과 일실시 예에 대한 그림이다.
도 2는 차원 축소에 대한 그림이다.
도 3은 주성분 분석을 이용하여 한 개의 축으로 사상시켜 선형 변환하는 그림이다.
도 4는 주성분 분석에 대한 수식을 정리한 그림이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of a basic invention and an embodiment. FIG.
FIG. 2 is a diagram for dimension reduction.
FIG. 3 is a diagram illustrating a linear transformation by mapping on one axis using principal component analysis.
4 is a diagram summarizing the equations for principal component analysis.
이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 대해 상세히 설명하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a system and a method for accurate connection between a calling passenger and a passenger according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 하기의 실시 예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 이를 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다. It should be understood that the following embodiments of the present invention are only for embodying the present invention and do not limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
도 1은 기본적인 발명의 구성과 일실시 예에 대한 그림이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of a basic invention and an embodiment. FIG.
본 발명의 구성을 살펴보면 운행자(100)는 승객(200)의 위치를 인식할 수 있는 위치 인식 모듈(110)을 가지고 그 위치 정보에 따라 승객에게 접근하게 된다. 접근하게 되면 서로 간에 약속된 신호를 통해 그 신호를 응답 확인 장치(120)에 표시하여 서로를 확인하게 된다. 예제를 살펴보면 승객과 운행자는 서로 "1234"라는 신호를 받게 되고 운행자가 위치 인식 모듈을 통해 승객에게 접근하면 서로는 응답 확인 장치에 "1234"를 표시하여 서로를 인식하고 확인하게 된다. According to the configuration of the present invention, the
승객의 경우 응답하는 방법은 화면에 표시할 수 있는 통신장치 혹은 모바일 기기등이 가능할 수 있다.A method of responding to a passenger may be a communication device or a mobile device that can be displayed on the screen.
승객과 운행자가 서로를 알아보기 위해서는 서로의 정보 및 정보에 대한 인식하는 방법이 필요하다. 승객의 경우 다음과 같은 정보를 포함할 수 있다.In order for passengers and operators to recognize each other, a method of recognizing each other's information and information is needed. For passengers, the following information may be included.
- 얼굴(머리 스타일, 눈, 코, 입, ...)- Face (hair style, eyes, nose, mouth, ...)
- 신체 지수(키, 몸무게, 혈액형, ...)- Body index (height, weight, blood type, ...)
- 옷과 가방, 안경, 귀걸이 등과 같은 악세사리- Accessories such as clothes, bags, glasses, earrings, etc.
- 운행자 사용 이력 등등- History of operator use etc.
운행자(운행자의 운송 수단이 차량일 경우)의 경우 다음과 같은 정보를 포함할 수 있다.In the case of the operator (when the vehicle is a vehicle), the following information may be included.
- 색깔- Color
- 차종- Car type
- 차번호 등등- car number etc.
다음과 같은 정보를 데이터베이스를 통해 공유하는 것이 가능하고, 서로를 파악할 수 있도록 한다. It is possible to share the following information through the database and to understand each other.
본 명세서에서 제시하는 특징(얼굴, 차종, 외형, 물건)들을 인식하기 위해서는 다차원으로 표현되는 특징들을 파악하는 차원 감소 알고리즘이 필요하며, 예를 들어 주성분 분석(PCA)을 이용하여 나타내는 것이 가능하다.In order to recognize the features (face, car model, outline, object) presented in the present specification, a dimension reduction algorithm for grasping the features expressed in the multidimensional form is required, and it is possible to represent it using, for example, principal component analysis (PCA).
고유 특징을 생성하기 위해서는 후술하는 것과 같이 알고리즘을 사용하여 계산으로 얻어낸 공분산의 상위 고유값(eignevalue)과 관련된 고유 벡터(eigenvector)를 이용하여 변환 행렬을 생성하고 적절한 수식을 이용하여 특징 벡터를 변환할 필요가 있다. To generate the eigenvalues, a transformation matrix is generated by using an eigenvector related to an eignevalue of a covariance computed by using an algorithm as described later, and a feature vector is transformed using an appropriate equation There is a need.
이때 각각의 특징 데이터에 대해서 먼저 차원 감소 알고리즘을 사용하여 열벡터 형태로 변환한다. 다차원의 영상 데이터는 차원 감소 알고리즘을 사용하여 영상의 유사도를 분석할 수 있는데, 차원 감소 알고리즘은 다차원의 영상 데이터가 포함된 정보의 손실을 가능한 한 작게 해서 저차원의 데이터로 축약하는 방식으로서, 주성분분석(Principle Component Analysis, PCA), 독립성분분석(Independent Component Analysis, ICA), 선형판별분석(Linear Discriminant Analysis, LDA), ISOMAP, LLE(Locally Linear Embedding) 등의 기법이 알려져 있다. 그 중에서 주성분분석은 관측 대상이 어떠한 위치에 있는지를 시각적으로 파악할 수 있다는 것이 장점이다. At this time, each feature data is first converted into a column vector form using a dimension reduction algorithm. The dimensionality reduction algorithm is a method of reducing the loss of information including multi-dimensional image data as much as possible and reducing it to low-dimensional data. Techniques such as Principle Component Analysis (PCA), Independent Component Analysis (ICA), Linear Discriminant Analysis (LDA), ISOMAP, and LLE (Locally Linear Embedding) are known. Among them, the principal component analysis is advantageous in that it can visually grasp the position of the observation object.
통상 주성분분석(PCA)은 데이터를 1개의 축으로 사상시켰을 때 분산이 큰 데이터 축(상대적으로 의미가 있는 데이터)이 첫 번째 축이 되고, 두 번째로 분산이 큰 데이터 축(상대적으로 의미가 없는 데이터)을 두 번째 좌표축이 되는 식으로 분산의 크기에 따라 차례대로 새로운 좌표계로 데이터를 선형 변환하며, 각각의 변환된 축에 데이터의 '가장 중요한' 성분을 위치시키는 방식이다. 이 경우에 데이터의 차원 감소(데이터 압축)를 위해서는 분산이 큰 축으로 사상된 데이터를 취하는 것이 좋은데, 분산이 큰 데이터일수록 상대적으로 많은 정보를 가지고 있으므로 정보의 손실이 적기 때문이다. In general, principal component analysis (PCA) is based on the assumption that when data is mapped onto one axis, the data axis with a large dispersion (relatively meaningful data) becomes the first axis and the second dispersion with the large data axis Data is linearly transformed into a new coordinate system according to the magnitude of dispersion in the form of a second coordinate axis, and the 'most important' component of data is positioned on each transformed axis. In this case, it is preferable to take data that is spread on a large dispersion axis in order to reduce the size of the data (data compression). The larger the dispersion data, the more information is lost.
예를 들어 본래의 특징이 n개 존재하는 경우에, 이들 특징의 특징점 벡터를 2차원으로 표현하면, 본래의 특징 데이터는 다음 수학식 1과 같은 2차원 데이터 세트로 표시할 수 있다. For example, when n original features exist, if the feature point vectors of these features are expressed in two dimensions, the original feature data can be represented by a two-dimensional data set as shown in the following equation (1).
수학식 1
s = {(x1, y1), (x2, y2),...(xi, yi)..., (xn, yn)} s = {(x 1, y 1), (x 2, y 2), ... (x i, y i) ..., (x n, y n)}
이들 원래의 특징 데이터를 PCA를 이용하여 1개의 축으로 사상하여, 분산이 큰 축의 데이터 값을 취하는 방법으로, 각각의 특징을 N2ㅧ1의 열벡터로 변환할 수 있다. 이와 같이 변환된 특징 데이터의 집합에 대해서는 수학식 2와 같이 표시할 수 있다. These features can be converted into N 2 ㅧ 1 column vectors by mapping the original feature data to one axis using the PCA and taking the data value of the large dispersion axis. The set of transformed feature data can be expressed by Equation (2).
수학식 2
S = {Γ1, Γ2,....Γi,... Γn}S = {Γ 1 , Γ 2 , .... Γ i , ... Γ n }
열벡터와 같이 변환된 특징 데이터(학습 데이터)로부터 평균 영상 등을 바로 연산할 수 있지만, 이 경우에는 빛과 배경에 의하여 에러가 발생할 수 있으므로, 바람직하게는 학습 데이터를 정규화(normalize)하는 것이 바람직하다. 영상 데이터를 정규화하기 위해서는 미리 선정된 평균과 분산을 기준으로 작성할 수 있으며, 각도 필터링이나 콘트라스트(contrast) 등을 이용할 수 있다. 일례로, 학습 데이터는 다음 수학식 3을 이용하여 정규화될 수 있다. The average image and the like can be directly computed from the transformed feature data (learning data) such as a column vector. However, in this case, an error may occur due to light and background, so it is preferable to normalize the learning data Do. In order to normalize the image data, it is possible to create the image data based on a predetermined average and variance, and to use angle filtering and contrast. For example, the training data may be normalized using the following equation (3).
수학식 3
예를 들어 수학식 3에선 "userStd" = 80, 'userMean' = 100으로 산정할 수 있지만, 이 값은 필요에 따라 달라질 수 있다. For example, in
계속해서, 수학식 2로 표시되는 제 1 얼굴 영상 벡터 집합으로부터 학습 데이터의 평균으로서 평균 벡터를 다음의 수학식 4를 이용하여 구할 수 있다. Subsequently, an average vector as an average of the learning data from the first set of face image vectors represented by the equation (2) can be obtained by using the following equation (4).
수학식 4Equation 4
이어서, 다음의 수학식 5를 이용하여 각각의 특징 벡터와 평균 특징 벡터를 뺀 차 벡터(Φ i )를 계산한다. Next, a difference vector? I is calculated by subtracting each feature vector and an average feature vector using the following equation (5).
수학식 5
이어서 각각의 특징 벡터에서 평균 특징 벡터를 뺀 차벡터(Ψ i )로부터 다음 수학식 6을 이용하면, N2×1로 표시된 차벡터(Φ i )로부터 각각의 특징에 대한 공분산 행렬(C, N2 ×N2)을 연산한다. Then by using the following equation (6) from the difference vector (Ψ i) subtracting the average feature vector for each of the feature vector, a covariance matrix for each of the feature from the difference vector (Φ i) indicated by the N 2 × 1 (C, N 2 x N 2 ).
수학식 6Equation 6
이렇게 얻어진 공분한 행렬의 값은 각각의 특징의 변화를 나타내는 값이 되고, 평균 얼굴 영상에 대한 분산의 정도로부터 고유값(eigenvalue)을 얻을 수 있으며, 다음 수학식 7을 통하여 고유벡터(eignevector, V)를 구할 수 있다. The eigenvalues are obtained from the degree of variance with respect to the average facial image, and the eigenvectors V (eigenvector, V ) Can be obtained.
수학식 7Equation 7
이와 같은 방법으로 평균 벡터(Ψ)와 공분산 행렬(C)로부터 고유벡터(V)를 얻을 수 있으며, 이러한 고유벡터는 N2×1의 열벡터로 표현되어 있으므로, 이것을 다시 N×N으로 reshape하면 특징을 획득할 수 있다. In this way, an eigenvector V can be obtained from the mean vector PSI and the covariance matrix C. Since this eigenvector is represented by an N 2 × 1 column vector, if it is reshaped to N × N again Feature can be obtained.
아울러, 각각의 제 1 얼굴 영상 데이터 세트 s에 대한 차원 감축, 즉 주성분 선택은 다음의 수학식 8을 통해서 이루어질 수 있다. In addition, the dimension reduction, that is, the principal component selection, for each first face image data set s can be obtained by the following equation (8).
수학식 8Equation 8
WT · X W T · X
여기서 W는 위 수학식 6에서 얻어진 공분산 행렬(C)로부터 얻어진 가장 큰 고유값과 관련된 고유 벡터를 이용하여 만든 변환 행렬인데, 고유값이 크면 특징을 고유벡터가 더 많이 표현할 수 있으므로 이 수학식을 이용하여 특징 벡터를 변환할 수 있다. Here, W is a transformation matrix created by using an eigenvector related to the largest eigenvalue obtained from the covariance matrix C obtained in Equation (6). If the eigenvalue is large, the eigenvector can express more features. Can be used to transform the feature vector.
100 : 운행자 110 : 위치 인식 모듈
120 : 응답 확인 장치 200 : 승객100: Operator 110: Position recognition module
120: response confirmation device 200: passenger
Claims (9)
(a) 승객의 위치를 파악하는 위치 인식 모듈;
(b) 상기 위치 인식 모듈을 통해 상기 승객이 요청한 위치 근처에 서비스 제공자가 도달했음을 인지하는 경우 한 명 이상의 고객에게 도착을 확인해 주는 응답 확인 장치로서, 상기 승객과 상기 운행자 간에 약속된 신호를 표시하는 응답 확인 장치; 및
(c) 서비스 제공자 측에서 승객의 얼굴을 포함하는 특징과, 승객 측에서 상기 서비스 제공자의 운송 수단을 인식할 수 있는 화면 인식 모듈을 포함하고,
상기 화면 인식 모듈은 상기 승객의 얼굴을 포함하는 특징을 인식하기 위하여 다차원으로 표현되는 특징을 파악하는 차원 감소 알고리즘을 사용하고,
상기 화면 인식 모듈은 상기 승객을 인식하기 위하여 상기 승객의 얼굴, 신체 지수, 악세서리 및 운행자의 사용 이력 정보를 이용하고, 상기 운송 수단을 인식하기 위하여 상기 운송 수단의 색깔, 차종 및 차번호를 이용하는 시스템.
A system for precise connection between a calling passenger and a passenger,
(a) a position recognition module for determining a position of a passenger;
(b) a response confirmation device for confirming arrival to one or more customers when the service provider recognizes that the service provider has arrived near the position requested by the passenger through the location recognition module, wherein the signal confirmation device displays a signal promised between the passenger and the passenger Response confirmation device; And
(c) a feature including a face of the passenger on the service provider side and a screen recognition module capable of recognizing the means of transport of the service provider on the passenger side,
Wherein the screen recognition module uses a dimension reduction algorithm for recognizing a feature expressed in a multidimensional form in order to recognize a feature including the face of the passenger,
The screen recognition module uses the use history information of the passenger's face, body index, accessories, and operator to recognize the passenger, and uses the color, the vehicle type, and the car number of the transportation means to recognize the transportation means .
상기 서비스 제공자가 승객을 확인하는 응답 확인 장치는 디스플레이, 소리, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함하는 시스템.
The method according to claim 1,
The response confirmation device for confirming the passenger by the service provider may include at least one of a display, a sound, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, ≪ / RTI >
상기 승객이 상기 서비스 제공자를 인식하는 응답 확인 방식은 디스플레이, 소리, 진동, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함하는 시스템.
The method according to claim 1,
The response confirmation method in which the passenger recognizes the service provider includes a display, a sound, a vibration, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, motion recognition ≪ / RTI >
승객이 소지한 통신기기와 서비스 제공자의 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함하는 시스템.
The method according to claim 1,
And communicating between the communication device of the passenger and the communication module of the service provider.
서비스 제공자의 시스템에 장착된 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함하는 시스템.
5. The method of claim 4,
And communicating with the communication module mounted on the system of the service provider to confirm the position of each other.
서비스 제공자는 기존 승객의 특징 정보를 가지고 있는 데이터베이스를 포함하는 시스템.
The method according to claim 1,
Wherein the service provider comprises a database having characteristic information of an existing passenger.
상기 화면 인식을 카메라를 통해 즉각적으로 영상화하여 승객과 서비스 제공자가 상호 정보를 공유하고 전송하는 방법을 포함하는 시스템.
The method according to claim 1,
And instantly imaging the screen recognition through the camera to thereby share and transmit mutual information between the passenger and the service provider.
화면 인식 모듈에 있어서 승객이 서비스 제공자의 색깔, 차종, 차번호 등의 특징을 파악하여 정보를 받고, 자신이 호출한 서비스 제공자를 확인하는 방법을 포함하는 시스템.
The method according to claim 1,
A system, comprising: a screen recognition module, in which a passenger grasps characteristics of a service provider's color, vehicle type, car number, etc. to receive information and confirms a service provider called by the passenger.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190054174A KR102117413B1 (en) | 2019-05-09 | 2019-05-09 | Exact Matching System for Customer and Driver and Method Thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190054174A KR102117413B1 (en) | 2019-05-09 | 2019-05-09 | Exact Matching System for Customer and Driver and Method Thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140151172A Division KR20160052040A (en) | 2014-11-03 | 2014-11-03 | Exact Matching System for Customer and Driver and Method Thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190053161A true KR20190053161A (en) | 2019-05-17 |
KR102117413B1 KR102117413B1 (en) | 2020-06-01 |
Family
ID=66678162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190054174A KR102117413B1 (en) | 2019-05-09 | 2019-05-09 | Exact Matching System for Customer and Driver and Method Thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102117413B1 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010058728A (en) * | 1999-12-30 | 2001-07-06 | 서평원 | System for calling car using Global Positioning System |
JP2004038687A (en) * | 2002-07-04 | 2004-02-05 | Csk Corp | Device and method for providing taxi information and program for making computer execute the method |
KR100494525B1 (en) * | 2000-08-10 | 2005-06-10 | 기준성 | System For Processing Transportation Information Using Communication Network And Method Thereof |
KR20090000225A (en) * | 2007-02-05 | 2009-01-07 | 엘지엔시스(주) | Method and system for call service |
KR20100129531A (en) * | 2009-06-01 | 2010-12-09 | 정태길 | Taxi operation system and method |
KR20120040478A (en) * | 2010-10-19 | 2012-04-27 | 텔코웨어 주식회사 | Call service method of taxy and system realizing it |
KR20120090480A (en) | 2011-02-08 | 2012-08-17 | 주식회사 케이티 | Method and apparatus for providing vehicle reservation service using location information |
KR20140100006A (en) * | 2013-02-04 | 2014-08-14 | 티더블유모바일 주식회사 | Call-taxi information producing system for foreigner tourist and method of the same |
-
2019
- 2019-05-09 KR KR1020190054174A patent/KR102117413B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010058728A (en) * | 1999-12-30 | 2001-07-06 | 서평원 | System for calling car using Global Positioning System |
KR100494525B1 (en) * | 2000-08-10 | 2005-06-10 | 기준성 | System For Processing Transportation Information Using Communication Network And Method Thereof |
JP2004038687A (en) * | 2002-07-04 | 2004-02-05 | Csk Corp | Device and method for providing taxi information and program for making computer execute the method |
KR20090000225A (en) * | 2007-02-05 | 2009-01-07 | 엘지엔시스(주) | Method and system for call service |
KR20100129531A (en) * | 2009-06-01 | 2010-12-09 | 정태길 | Taxi operation system and method |
KR20120040478A (en) * | 2010-10-19 | 2012-04-27 | 텔코웨어 주식회사 | Call service method of taxy and system realizing it |
KR20120090480A (en) | 2011-02-08 | 2012-08-17 | 주식회사 케이티 | Method and apparatus for providing vehicle reservation service using location information |
KR20140100006A (en) * | 2013-02-04 | 2014-08-14 | 티더블유모바일 주식회사 | Call-taxi information producing system for foreigner tourist and method of the same |
Also Published As
Publication number | Publication date |
---|---|
KR102117413B1 (en) | 2020-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200324784A1 (en) | Method and apparatus for intelligent adjustment of driving environment, method and apparatus for driver registration, vehicle, and device | |
US6430307B1 (en) | Feature extraction system and face image recognition system | |
EP2017770B1 (en) | Face meta-data generation and face similarity calculation | |
JP2021504214A5 (en) | ||
Mian et al. | Automatic 3d face detection, normalization and recognition | |
US20070196001A1 (en) | Face identification device | |
CN108748218A (en) | New retail intelligent shopping guide robot and shopping guide method based on machine vision Yu AR technologies | |
CN108509890B (en) | Method and device for extracting information | |
KR20120127790A (en) | Eye tracking system and method the same | |
EP1840796A2 (en) | Restoring and collating system and method for 3-dimensional face data | |
CN108446650A (en) | The method and apparatus of face for identification | |
US20200151472A1 (en) | External depiction of photographs of a vehicle interior in vr goggles | |
JP5846552B2 (en) | Sign language recognition method and apparatus | |
US10339381B2 (en) | Control apparatus, control system, and control method | |
US11790683B2 (en) | Gesture based authentication for autonomous vehicles | |
KR102117413B1 (en) | Exact Matching System for Customer and Driver and Method Thereof | |
KR20160052040A (en) | Exact Matching System for Customer and Driver and Method Thereof | |
KR20180083608A (en) | Single image-based 3D modeling apparatus for 3D printing and method thereof | |
CN108197563A (en) | For obtaining the method and device of information | |
WO2021051510A1 (en) | Method and apparatus for generating face image, computer device, and storage medium | |
Ono et al. | Gaze estimation from low resolution images | |
JP7375079B2 (en) | Target detection method | |
KR100862526B1 (en) | Method and system constructing moving image database and face recognition method and system using the same | |
JP5182879B2 (en) | Information terminal equipment | |
CN108446896A (en) | Method and apparatus for generating information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |