KR20190053161A - Exact Matching System for Customer and Driver and Method Thereof - Google Patents

Exact Matching System for Customer and Driver and Method Thereof Download PDF

Info

Publication number
KR20190053161A
KR20190053161A KR1020190054174A KR20190054174A KR20190053161A KR 20190053161 A KR20190053161 A KR 20190053161A KR 1020190054174 A KR1020190054174 A KR 1020190054174A KR 20190054174 A KR20190054174 A KR 20190054174A KR 20190053161 A KR20190053161 A KR 20190053161A
Authority
KR
South Korea
Prior art keywords
passenger
service provider
recognition module
information
signal
Prior art date
Application number
KR1020190054174A
Other languages
Korean (ko)
Other versions
KR102117413B1 (en
Inventor
이우기
정승현
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020190054174A priority Critical patent/KR102117413B1/en
Publication of KR20190053161A publication Critical patent/KR20190053161A/en
Application granted granted Critical
Publication of KR102117413B1 publication Critical patent/KR102117413B1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00221
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds

Abstract

The present invention relates to a method of receiving a service by confirming that a passenger who called a carrier confirms that the carrier is the carrier requested by the passenger (himself/herself). More particularly, the present invention relates to a system for precise connection between a called passenger and a carrier and a method thereof. In the system for precise connection, a passenger confirmation system comprises: a position recognition module for determining a position of a passenger; and an answer confirmation device that confirms arrival to one or more customers when the passenger is near the requested location.

Description

호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법{Exact Matching System for Customer and Driver and Method Thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and a method for precise connection between a called passenger and a passenger,

본 특허출원은 특허출원 제10-2014-0151172호의 분할출원이다. 본 발명은 운행자를 호출한 승객이 해당 운행자가 본인이 요청한 운행자인지 확인하여 서비스를 제공받는 방법에 관한 것이다.This patent application is a divisional application of Patent Application No. 10-2014-0151172. The present invention relates to a method of receiving a service by confirming that a passenger who calls a passenger is a passenger requested by the passenger.

사회가 복잡해지고 다양해짐에 따라 사람들의 이동 경로 또한 매우 복잡해졌다. 이로 인해 사람을 다른 곳으로 이동시켜 주는 서비스, 즉 승객 운반 서비스의 수요량 또한 매우 증가하였다.As society becomes more complicated and diverse, people's travel routes have become more complex. As a result, the demand for passenger transport services, which move people from one place to another, has also increased greatly.

기존의 승객 운반 서비스를 살펴보면 다른 곳으로 이동을 원하는 승객이 해당 서비스 업체에 연락을 하면 해당 업체에서는 서비스 제공 가능 운행자를 찾아서 해당 지역으로 보내는 방식으로 주로 이용되고 있다. 하지만 이러한 경우 적절한 운행자를 해당 업체가 수시로 파악하는 것이 어렵기 때문에 불특정 다수에게 보내는 경우가 많고, 이러할 경우 매우 비효율적일 뿐만 아니라, 서비스의 질 또한 매우 낮아질 수 있다. 또한 승객과 운행자가 직접적으로 연결되는 것이 아니기 때문에 연결하는 과정에서 착오가 생길 수가 있고, 이럴 경우 승객의 서비스에 대한 불만족은 매우 커지게 된다.If you look at the existing passenger transport service, if a passenger who wants to move to another location contacts the service provider, the company is mainly used to find the serviceable service provider and send it to the area. However, in such cases, it is difficult for the company to grasp the appropriate operator from time to time, so it is often sent to an unspecified number of people, which is not only very inefficient, but also the service quality may be very low. Also, because the passengers and the passengers are not directly connected, there may be a mistake in the process of connecting them, and in such a case, the dissatisfaction with the passengers' service becomes very large.

대한민국 공개특허공보 제10-2012-0090480호Korean Patent Publication No. 10-2012-0090480

본 발명은 위에서 서술한 문제점을 해결하기 위한 것으로 현재 나와 있는 서비스를 보면, 승객과 운행자는 서로를 눈으로 파악한 뒤, 서로의 호출 및 서비스 제공 여부를 구두로 확인하여 연결되게 된다. 이는 매우 불확실할 뿐 아니라 다른 승객으로 오인 연결되는 경우가 생길 수도 있다. 본 발명은 이러한 문제를 해결하고자 하는 데 그 목적이 있다.The present invention is to solve the above-described problems. In the present service, the passengers and the passengers visually check each other, and verifies whether they are calling each other or providing a service. This is not only uncertain, but may also lead to misconnection to other passengers. SUMMARY OF THE INVENTION The present invention has an object to solve such a problem.

본 발명의 일실시예에 따른 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 있어서, (a) 승객의 위치를 파악하는 위치 인식 모듈; 및 (b) 승객이 요청한 장소 근처에 도달 했을 경우 한 명 이상의 고객에게 도착을 확인해주는 응답 확인 장치를 포함하는 승객 확인 시스템이다.A system and method for precise connection between a calling passenger and a passenger according to an embodiment of the present invention includes: (a) a location recognition module for locating a passenger; And (b) an acknowledgment device that confirms arrival to one or more customers when the passenger has reached a location near the requested location.

상기 서비스 제공자가 승객을 확인하는 응답 확인 장치는 디스플레이, 소리, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함할 수 있다.The response confirmation device for confirming the passenger by the service provider may include at least one of a display, a sound, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, . ≪ / RTI >

상기 승객이 상기 서비스 제공자를 인식하는 응답 확인 방식은 디스플레이, 소리, 진동, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함할 수 있다.The response confirmation method in which the passenger recognizes the service provider includes a display, a sound, a vibration, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, motion recognition ≪ / RTI >

승객이 소지한 통신기기와 서비스 제공자의 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함할 수 있다.And the communication module of the passenger and the communication module of the service provider interact with each other to confirm the position of each other.

서비스 제공자 측에서 승객의 얼굴을 포함하는 특징을 인식할 수 있는 화면 인식 모듈을 추가할 수 있다.A screen recognition module capable of recognizing a feature including the face of the passenger on the service provider side can be added.

서비스 제공자는 기존 승객의 특징 정보를 가지고 있는 데이터베이스를 포함할 수 있다.The service provider may include a database having feature information of existing passengers.

화면 인식 모듈 과정에서 승객의 정보를 옷, 가방, 안경, 손님 수 등을 패턴화하여 저장하는 방법을 포함한다.And a method of patterning and storing clothes, bags, glasses, and the number of guests in the passenger information in the screen recognition module process.

상기 화면 인식을 카메라를 통해 즉각적으로 영상화하여 승객과 서비스 제공자가 상호 정보를 공유하고 전송하는 방법을 포함한다.And a method of instantly imaging the screen recognition through a camera to share and transmit mutual information between a passenger and a service provider.

화면 인식 모듈에 있어서 승객이 서비스 제공자의 색깔, 차종, 차번호 등의 특징을 파악하여 정보를 받고, 자신이 호출한 서비스 제공자를 확인하는 방법을 포함한다.The screen recognition module includes a method in which the passenger grasps the characteristics of the service provider, such as the color, the vehicle type, and the car number, and receives the information and confirms the service provider called by the passenger.

서비스 제공자의 시스템에 장착된 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함할 수 있다.And communicating with the communication modules installed in the system of the service provider to confirm the position of each other.

또한 본 발명은 전술한 시스템을 이용하여 호출 승객과 운행자 간의 연결을 위한 방법을 제공한다. The present invention also provides a method for connection between a calling passenger and a passenger using the above-described system.

본 발명의 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 따르면, 승객이 운행자를 호출하면 각각은 동일한 연결정보를 받게 되고, 이를 확인함으로써, 서로가 연결될 수 있게 하고자 한다. 이를 통해 서비스의 만족도 및 품질을 높이고자 한다.According to the system and the method for precise connection between the called passenger and the passenger of the present invention, when the passenger calls the passenger, each receives and confirms the same connection information so that they can be connected to each other. Through this, we intend to improve the service satisfaction and quality.

도 1은 기본적인 발명의 구성과 일실시 예에 대한 그림이다.
도 2는 차원 축소에 대한 그림이다.
도 3은 주성분 분석을 이용하여 한 개의 축으로 사상시켜 선형 변환하는 그림이다.
도 4는 주성분 분석에 대한 수식을 정리한 그림이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of a basic invention and an embodiment. FIG.
FIG. 2 is a diagram for dimension reduction.
FIG. 3 is a diagram illustrating a linear transformation by mapping on one axis using principal component analysis.
4 is a diagram summarizing the equations for principal component analysis.

이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 호출한 승객과 운행자간의 정확한 연결을 위한 시스템 및 그 방법에 대해 상세히 설명하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a system and a method for accurate connection between a calling passenger and a passenger according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 하기의 실시 예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 이를 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술 분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다. It should be understood that the following embodiments of the present invention are only for embodying the present invention and do not limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

도 1은 기본적인 발명의 구성과 일실시 예에 대한 그림이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of a basic invention and an embodiment. FIG.

본 발명의 구성을 살펴보면 운행자(100)는 승객(200)의 위치를 인식할 수 있는 위치 인식 모듈(110)을 가지고 그 위치 정보에 따라 승객에게 접근하게 된다. 접근하게 되면 서로 간에 약속된 신호를 통해 그 신호를 응답 확인 장치(120)에 표시하여 서로를 확인하게 된다. 예제를 살펴보면 승객과 운행자는 서로 "1234"라는 신호를 받게 되고 운행자가 위치 인식 모듈을 통해 승객에게 접근하면 서로는 응답 확인 장치에 "1234"를 표시하여 서로를 인식하고 확인하게 된다. According to the configuration of the present invention, the operator 100 has a position recognition module 110 capable of recognizing the position of the passenger 200, and accesses the passenger according to the position information. When they approach each other, the signals are confirmed on the acknowledgment confirmation device 120 through the promised signals to confirm each other. In the example, the passenger and the passenger receive a signal of "1234", and when the passenger approaches the passenger through the location recognition module, the passengers and the passenger display "1234" on the response confirmation device.

승객의 경우 응답하는 방법은 화면에 표시할 수 있는 통신장치 혹은 모바일 기기등이 가능할 수 있다.A method of responding to a passenger may be a communication device or a mobile device that can be displayed on the screen.

승객과 운행자가 서로를 알아보기 위해서는 서로의 정보 및 정보에 대한 인식하는 방법이 필요하다. 승객의 경우 다음과 같은 정보를 포함할 수 있다.In order for passengers and operators to recognize each other, a method of recognizing each other's information and information is needed. For passengers, the following information may be included.

- 얼굴(머리 스타일, 눈, 코, 입, ...)- Face (hair style, eyes, nose, mouth, ...)

- 신체 지수(키, 몸무게, 혈액형, ...)- Body index (height, weight, blood type, ...)

- 옷과 가방, 안경, 귀걸이 등과 같은 악세사리- Accessories such as clothes, bags, glasses, earrings, etc.

- 운행자 사용 이력 등등- History of operator use etc.

운행자(운행자의 운송 수단이 차량일 경우)의 경우 다음과 같은 정보를 포함할 수 있다.In the case of the operator (when the vehicle is a vehicle), the following information may be included.

- 색깔- Color

- 차종- Car type

- 차번호 등등- car number etc.

다음과 같은 정보를 데이터베이스를 통해 공유하는 것이 가능하고, 서로를 파악할 수 있도록 한다. It is possible to share the following information through the database and to understand each other.

본 명세서에서 제시하는 특징(얼굴, 차종, 외형, 물건)들을 인식하기 위해서는 다차원으로 표현되는 특징들을 파악하는 차원 감소 알고리즘이 필요하며, 예를 들어 주성분 분석(PCA)을 이용하여 나타내는 것이 가능하다.In order to recognize the features (face, car model, outline, object) presented in the present specification, a dimension reduction algorithm for grasping the features expressed in the multidimensional form is required, and it is possible to represent it using, for example, principal component analysis (PCA).

고유 특징을 생성하기 위해서는 후술하는 것과 같이 알고리즘을 사용하여 계산으로 얻어낸 공분산의 상위 고유값(eignevalue)과 관련된 고유 벡터(eigenvector)를 이용하여 변환 행렬을 생성하고 적절한 수식을 이용하여 특징 벡터를 변환할 필요가 있다. To generate the eigenvalues, a transformation matrix is generated by using an eigenvector related to an eignevalue of a covariance computed by using an algorithm as described later, and a feature vector is transformed using an appropriate equation There is a need.

이때 각각의 특징 데이터에 대해서 먼저 차원 감소 알고리즘을 사용하여 열벡터 형태로 변환한다. 다차원의 영상 데이터는 차원 감소 알고리즘을 사용하여 영상의 유사도를 분석할 수 있는데, 차원 감소 알고리즘은 다차원의 영상 데이터가 포함된 정보의 손실을 가능한 한 작게 해서 저차원의 데이터로 축약하는 방식으로서, 주성분분석(Principle Component Analysis, PCA), 독립성분분석(Independent Component Analysis, ICA), 선형판별분석(Linear Discriminant Analysis, LDA), ISOMAP, LLE(Locally Linear Embedding) 등의 기법이 알려져 있다. 그 중에서 주성분분석은 관측 대상이 어떠한 위치에 있는지를 시각적으로 파악할 수 있다는 것이 장점이다. At this time, each feature data is first converted into a column vector form using a dimension reduction algorithm. The dimensionality reduction algorithm is a method of reducing the loss of information including multi-dimensional image data as much as possible and reducing it to low-dimensional data. Techniques such as Principle Component Analysis (PCA), Independent Component Analysis (ICA), Linear Discriminant Analysis (LDA), ISOMAP, and LLE (Locally Linear Embedding) are known. Among them, the principal component analysis is advantageous in that it can visually grasp the position of the observation object.

통상 주성분분석(PCA)은 데이터를 1개의 축으로 사상시켰을 때 분산이 큰 데이터 축(상대적으로 의미가 있는 데이터)이 첫 번째 축이 되고, 두 번째로 분산이 큰 데이터 축(상대적으로 의미가 없는 데이터)을 두 번째 좌표축이 되는 식으로 분산의 크기에 따라 차례대로 새로운 좌표계로 데이터를 선형 변환하며, 각각의 변환된 축에 데이터의 '가장 중요한' 성분을 위치시키는 방식이다. 이 경우에 데이터의 차원 감소(데이터 압축)를 위해서는 분산이 큰 축으로 사상된 데이터를 취하는 것이 좋은데, 분산이 큰 데이터일수록 상대적으로 많은 정보를 가지고 있으므로 정보의 손실이 적기 때문이다. In general, principal component analysis (PCA) is based on the assumption that when data is mapped onto one axis, the data axis with a large dispersion (relatively meaningful data) becomes the first axis and the second dispersion with the large data axis Data is linearly transformed into a new coordinate system according to the magnitude of dispersion in the form of a second coordinate axis, and the 'most important' component of data is positioned on each transformed axis. In this case, it is preferable to take data that is spread on a large dispersion axis in order to reduce the size of the data (data compression). The larger the dispersion data, the more information is lost.

예를 들어 본래의 특징이 n개 존재하는 경우에, 이들 특징의 특징점 벡터를 2차원으로 표현하면, 본래의 특징 데이터는 다음 수학식 1과 같은 2차원 데이터 세트로 표시할 수 있다. For example, when n original features exist, if the feature point vectors of these features are expressed in two dimensions, the original feature data can be represented by a two-dimensional data set as shown in the following equation (1).

수학식 1Equation 1

s = {(x1, y1), (x2, y2),...(xi, yi)..., (xn, yn)} s = {(x 1, y 1), (x 2, y 2), ... (x i, y i) ..., (x n, y n)}

이들 원래의 특징 데이터를 PCA를 이용하여 1개의 축으로 사상하여, 분산이 큰 축의 데이터 값을 취하는 방법으로, 각각의 특징을 N2ㅧ1의 열벡터로 변환할 수 있다. 이와 같이 변환된 특징 데이터의 집합에 대해서는 수학식 2와 같이 표시할 수 있다. These features can be converted into N 2 ㅧ 1 column vectors by mapping the original feature data to one axis using the PCA and taking the data value of the large dispersion axis. The set of transformed feature data can be expressed by Equation (2).

수학식 2Equation 2

S = {Γ1, Γ2,....Γi,... Γn}S = {Γ 1 , Γ 2 , .... Γ i , ... Γ n }

열벡터와 같이 변환된 특징 데이터(학습 데이터)로부터 평균 영상 등을 바로 연산할 수 있지만, 이 경우에는 빛과 배경에 의하여 에러가 발생할 수 있으므로, 바람직하게는 학습 데이터를 정규화(normalize)하는 것이 바람직하다. 영상 데이터를 정규화하기 위해서는 미리 선정된 평균과 분산을 기준으로 작성할 수 있으며, 각도 필터링이나 콘트라스트(contrast) 등을 이용할 수 있다. 일례로, 학습 데이터는 다음 수학식 3을 이용하여 정규화될 수 있다. The average image and the like can be directly computed from the transformed feature data (learning data) such as a column vector. However, in this case, an error may occur due to light and background, so it is preferable to normalize the learning data Do. In order to normalize the image data, it is possible to create the image data based on a predetermined average and variance, and to use angle filtering and contrast. For example, the training data may be normalized using the following equation (3).

수학식 3Equation 3

Figure pat00001
Figure pat00001

예를 들어 수학식 3에선 "userStd" = 80, 'userMean' = 100으로 산정할 수 있지만, 이 값은 필요에 따라 달라질 수 있다. For example, in Equation 3, "userStd" = 80 and "userMean" = 100, but this value can be changed as needed.

계속해서, 수학식 2로 표시되는 제 1 얼굴 영상 벡터 집합으로부터 학습 데이터의 평균으로서 평균 벡터를 다음의 수학식 4를 이용하여 구할 수 있다. Subsequently, an average vector as an average of the learning data from the first set of face image vectors represented by the equation (2) can be obtained by using the following equation (4).

수학식 4Equation 4

Figure pat00002
Figure pat00002

이어서, 다음의 수학식 5를 이용하여 각각의 특징 벡터와 평균 특징 벡터를 뺀 차 벡터(Φ i )를 계산한다. Next, a difference vector? I is calculated by subtracting each feature vector and an average feature vector using the following equation (5).

수학식 5Equation 5

Figure pat00003
Figure pat00003

이어서 각각의 특징 벡터에서 평균 특징 벡터를 뺀 차벡터(Ψ i )로부터 다음 수학식 6을 이용하면, N2×1로 표시된 차벡터(Φ i )로부터 각각의 특징에 대한 공분산 행렬(C, N2 ×N2)을 연산한다. Then by using the following equation (6) from the difference vector (Ψ i) subtracting the average feature vector for each of the feature vector, a covariance matrix for each of the feature from the difference vector (Φ i) indicated by the N 2 × 1 (C, N 2 x N 2 ).

수학식 6Equation 6

Figure pat00004
Figure pat00004

이렇게 얻어진 공분한 행렬의 값은 각각의 특징의 변화를 나타내는 값이 되고, 평균 얼굴 영상에 대한 분산의 정도로부터 고유값(eigenvalue)을 얻을 수 있으며, 다음 수학식 7을 통하여 고유벡터(eignevector, V)를 구할 수 있다. The eigenvalues are obtained from the degree of variance with respect to the average facial image, and the eigenvectors V (eigenvector, V ) Can be obtained.

수학식 7Equation 7

Figure pat00005
Figure pat00005

이와 같은 방법으로 평균 벡터(Ψ)와 공분산 행렬(C)로부터 고유벡터(V)를 얻을 수 있으며, 이러한 고유벡터는 N2×1의 열벡터로 표현되어 있으므로, 이것을 다시 N×N으로 reshape하면 특징을 획득할 수 있다. In this way, an eigenvector V can be obtained from the mean vector PSI and the covariance matrix C. Since this eigenvector is represented by an N 2 × 1 column vector, if it is reshaped to N × N again Feature can be obtained.

아울러, 각각의 제 1 얼굴 영상 데이터 세트 s에 대한 차원 감축, 즉 주성분 선택은 다음의 수학식 8을 통해서 이루어질 수 있다. In addition, the dimension reduction, that is, the principal component selection, for each first face image data set s can be obtained by the following equation (8).

수학식 8Equation 8

WT · X W T · X

여기서 W는 위 수학식 6에서 얻어진 공분산 행렬(C)로부터 얻어진 가장 큰 고유값과 관련된 고유 벡터를 이용하여 만든 변환 행렬인데, 고유값이 크면 특징을 고유벡터가 더 많이 표현할 수 있으므로 이 수학식을 이용하여 특징 벡터를 변환할 수 있다. Here, W is a transformation matrix created by using an eigenvector related to the largest eigenvalue obtained from the covariance matrix C obtained in Equation (6). If the eigenvalue is large, the eigenvector can express more features. Can be used to transform the feature vector.

100 : 운행자 110 : 위치 인식 모듈
120 : 응답 확인 장치 200 : 승객
100: Operator 110: Position recognition module
120: response confirmation device 200: passenger

Claims (9)

호출한 승객과 운행자간의 정확한 연결을 위한 시스템에 있어서,
(a) 승객의 위치를 파악하는 위치 인식 모듈;
(b) 상기 위치 인식 모듈을 통해 상기 승객이 요청한 위치 근처에 서비스 제공자가 도달했음을 인지하는 경우 한 명 이상의 고객에게 도착을 확인해 주는 응답 확인 장치로서, 상기 승객과 상기 운행자 간에 약속된 신호를 표시하는 응답 확인 장치; 및
(c) 서비스 제공자 측에서 승객의 얼굴을 포함하는 특징과, 승객 측에서 상기 서비스 제공자의 운송 수단을 인식할 수 있는 화면 인식 모듈을 포함하고,
상기 화면 인식 모듈은 상기 승객의 얼굴을 포함하는 특징을 인식하기 위하여 다차원으로 표현되는 특징을 파악하는 차원 감소 알고리즘을 사용하고,
상기 화면 인식 모듈은 상기 승객을 인식하기 위하여 상기 승객의 얼굴, 신체 지수, 악세서리 및 운행자의 사용 이력 정보를 이용하고, 상기 운송 수단을 인식하기 위하여 상기 운송 수단의 색깔, 차종 및 차번호를 이용하는 시스템.
A system for precise connection between a calling passenger and a passenger,
(a) a position recognition module for determining a position of a passenger;
(b) a response confirmation device for confirming arrival to one or more customers when the service provider recognizes that the service provider has arrived near the position requested by the passenger through the location recognition module, wherein the signal confirmation device displays a signal promised between the passenger and the passenger Response confirmation device; And
(c) a feature including a face of the passenger on the service provider side and a screen recognition module capable of recognizing the means of transport of the service provider on the passenger side,
Wherein the screen recognition module uses a dimension reduction algorithm for recognizing a feature expressed in a multidimensional form in order to recognize a feature including the face of the passenger,
The screen recognition module uses the use history information of the passenger's face, body index, accessories, and operator to recognize the passenger, and uses the color, the vehicle type, and the car number of the transportation means to recognize the transportation means .
제 1항에 있어서,
상기 서비스 제공자가 승객을 확인하는 응답 확인 장치는 디스플레이, 소리, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함하는 시스템.
The method according to claim 1,
The response confirmation device for confirming the passenger by the service provider may include at least one of a display, a sound, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, ≪ / RTI >
제 1항에 있어서,
상기 승객이 상기 서비스 제공자를 인식하는 응답 확인 방식은 디스플레이, 소리, 진동, 통신신호, 개인 이동단말기의 신호, 얼굴인식을 포함하는 개인 특징점 정보, 복장 및 소지품 등 신원인식 정보, 모션인식 등의 방식 중 하나 이상을 포함하는 시스템.
The method according to claim 1,
The response confirmation method in which the passenger recognizes the service provider includes a display, a sound, a vibration, a communication signal, a signal of a personal mobile terminal, personal minutia information including face recognition, identification information such as clothes and belongings, motion recognition ≪ / RTI >
제 1항에 있어서,
승객이 소지한 통신기기와 서비스 제공자의 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함하는 시스템.
The method according to claim 1,
And communicating between the communication device of the passenger and the communication module of the service provider.
제 4항에 있어서,
서비스 제공자의 시스템에 장착된 통신모듈이 상호작용하여 서로의 위치를 확인하는 과정을 포함하는 시스템.
5. The method of claim 4,
And communicating with the communication module mounted on the system of the service provider to confirm the position of each other.
제 1항에 있어서,
서비스 제공자는 기존 승객의 특징 정보를 가지고 있는 데이터베이스를 포함하는 시스템.
The method according to claim 1,
Wherein the service provider comprises a database having characteristic information of an existing passenger.
제 1항에 있어서,
상기 화면 인식을 카메라를 통해 즉각적으로 영상화하여 승객과 서비스 제공자가 상호 정보를 공유하고 전송하는 방법을 포함하는 시스템.
The method according to claim 1,
And instantly imaging the screen recognition through the camera to thereby share and transmit mutual information between the passenger and the service provider.
제 1항에 있어서,
화면 인식 모듈에 있어서 승객이 서비스 제공자의 색깔, 차종, 차번호 등의 특징을 파악하여 정보를 받고, 자신이 호출한 서비스 제공자를 확인하는 방법을 포함하는 시스템.
The method according to claim 1,
A system, comprising: a screen recognition module, in which a passenger grasps characteristics of a service provider's color, vehicle type, car number, etc. to receive information and confirms a service provider called by the passenger.
제 1항 내지 제 8항 중 어느 하나의 항에 기재된 시스템을 이용하여 호출한 승객과 운행자간의 정확안 연결을 위한 방법. A method for precise connection between a called passenger and a passenger using the system of any one of claims 1 to 8.
KR1020190054174A 2019-05-09 2019-05-09 Exact Matching System for Customer and Driver and Method Thereof KR102117413B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190054174A KR102117413B1 (en) 2019-05-09 2019-05-09 Exact Matching System for Customer and Driver and Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190054174A KR102117413B1 (en) 2019-05-09 2019-05-09 Exact Matching System for Customer and Driver and Method Thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140151172A Division KR20160052040A (en) 2014-11-03 2014-11-03 Exact Matching System for Customer and Driver and Method Thereof

Publications (2)

Publication Number Publication Date
KR20190053161A true KR20190053161A (en) 2019-05-17
KR102117413B1 KR102117413B1 (en) 2020-06-01

Family

ID=66678162

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190054174A KR102117413B1 (en) 2019-05-09 2019-05-09 Exact Matching System for Customer and Driver and Method Thereof

Country Status (1)

Country Link
KR (1) KR102117413B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010058728A (en) * 1999-12-30 2001-07-06 서평원 System for calling car using Global Positioning System
JP2004038687A (en) * 2002-07-04 2004-02-05 Csk Corp Device and method for providing taxi information and program for making computer execute the method
KR100494525B1 (en) * 2000-08-10 2005-06-10 기준성 System For Processing Transportation Information Using Communication Network And Method Thereof
KR20090000225A (en) * 2007-02-05 2009-01-07 엘지엔시스(주) Method and system for call service
KR20100129531A (en) * 2009-06-01 2010-12-09 정태길 Taxi operation system and method
KR20120040478A (en) * 2010-10-19 2012-04-27 텔코웨어 주식회사 Call service method of taxy and system realizing it
KR20120090480A (en) 2011-02-08 2012-08-17 주식회사 케이티 Method and apparatus for providing vehicle reservation service using location information
KR20140100006A (en) * 2013-02-04 2014-08-14 티더블유모바일 주식회사 Call-taxi information producing system for foreigner tourist and method of the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010058728A (en) * 1999-12-30 2001-07-06 서평원 System for calling car using Global Positioning System
KR100494525B1 (en) * 2000-08-10 2005-06-10 기준성 System For Processing Transportation Information Using Communication Network And Method Thereof
JP2004038687A (en) * 2002-07-04 2004-02-05 Csk Corp Device and method for providing taxi information and program for making computer execute the method
KR20090000225A (en) * 2007-02-05 2009-01-07 엘지엔시스(주) Method and system for call service
KR20100129531A (en) * 2009-06-01 2010-12-09 정태길 Taxi operation system and method
KR20120040478A (en) * 2010-10-19 2012-04-27 텔코웨어 주식회사 Call service method of taxy and system realizing it
KR20120090480A (en) 2011-02-08 2012-08-17 주식회사 케이티 Method and apparatus for providing vehicle reservation service using location information
KR20140100006A (en) * 2013-02-04 2014-08-14 티더블유모바일 주식회사 Call-taxi information producing system for foreigner tourist and method of the same

Also Published As

Publication number Publication date
KR102117413B1 (en) 2020-06-01

Similar Documents

Publication Publication Date Title
US20200324784A1 (en) Method and apparatus for intelligent adjustment of driving environment, method and apparatus for driver registration, vehicle, and device
US6430307B1 (en) Feature extraction system and face image recognition system
EP2017770B1 (en) Face meta-data generation and face similarity calculation
JP2021504214A5 (en)
Mian et al. Automatic 3d face detection, normalization and recognition
US20070196001A1 (en) Face identification device
CN108748218A (en) New retail intelligent shopping guide robot and shopping guide method based on machine vision Yu AR technologies
CN108509890B (en) Method and device for extracting information
KR20120127790A (en) Eye tracking system and method the same
EP1840796A2 (en) Restoring and collating system and method for 3-dimensional face data
CN108446650A (en) The method and apparatus of face for identification
US20200151472A1 (en) External depiction of photographs of a vehicle interior in vr goggles
JP5846552B2 (en) Sign language recognition method and apparatus
US10339381B2 (en) Control apparatus, control system, and control method
US11790683B2 (en) Gesture based authentication for autonomous vehicles
KR102117413B1 (en) Exact Matching System for Customer and Driver and Method Thereof
KR20160052040A (en) Exact Matching System for Customer and Driver and Method Thereof
KR20180083608A (en) Single image-based 3D modeling apparatus for 3D printing and method thereof
CN108197563A (en) For obtaining the method and device of information
WO2021051510A1 (en) Method and apparatus for generating face image, computer device, and storage medium
Ono et al. Gaze estimation from low resolution images
JP7375079B2 (en) Target detection method
KR100862526B1 (en) Method and system constructing moving image database and face recognition method and system using the same
JP5182879B2 (en) Information terminal equipment
CN108446896A (en) Method and apparatus for generating information

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant