KR101953839B1 - Method for estimating updated multiple ranking using pairwise comparison data to additional queries - Google Patents

Method for estimating updated multiple ranking using pairwise comparison data to additional queries Download PDF

Info

Publication number
KR101953839B1
KR101953839B1 KR1020160182739A KR20160182739A KR101953839B1 KR 101953839 B1 KR101953839 B1 KR 101953839B1 KR 1020160182739 A KR1020160182739 A KR 1020160182739A KR 20160182739 A KR20160182739 A KR 20160182739A KR 101953839 B1 KR101953839 B1 KR 101953839B1
Authority
KR
South Korea
Prior art keywords
data
item
probability
ranking
comparison
Prior art date
Application number
KR1020160182739A
Other languages
Korean (ko)
Other versions
KR20180078428A (en
Inventor
심규석
김영훈
김우열
Original Assignee
서울대학교산학협력단
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단, 한양대학교 에리카산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020160182739A priority Critical patent/KR101953839B1/en
Publication of KR20180078428A publication Critical patent/KR20180078428A/en
Application granted granted Critical
Publication of KR101953839B1 publication Critical patent/KR101953839B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations

Abstract

본 발명의 일 실시예에 따르면, 쌍별 비교 데이터를 이용한 다중랭킹 추정 방법으로서, 쌍별 비교 데이터에 관한 정보를 제1 입력데이터로서 입력하는 단계; 상기 입력데이터에 기초하여 다중랭킹 데이터를 산출하는 단계; 산출된 상기 다중랭킹 데이터에 기초하여 추가 질의를 선택하는 단계; 상기 추가 질의에 대한 쌍별 비교 데이터에 관한 제2 입력데이터를 수신하는 단계; 및 상기 제1 및 제2 입력데이터에 기초하여 상기 다중랭킹 데이터를 업데이트하는 단계;를 포함하고, 상기 제1 및 제2 입력데이터 중 적어도 하나는, 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합을 포함하고, 상기 복수개의 쌍별 비교 데이터의 각각의 쌍별 비교 데이터는, 복수개의 판단기준 중 하나의 판단기준에 따라 두 개의 아이템 간의 선호도를 판단한 데이터인 것을 특징으로 하는 다중랭캥 추정 방법을 제공할 수 있다. According to an embodiment of the present invention, there is provided a method of estimating multiple rankings using pairwise comparison data, comprising: inputting information on pairwise comparison data as first input data; Calculating multiple ranking data based on the input data; Selecting an additional query based on the calculated multiple ranking data; Receiving second input data relating to pairwise comparison data for the further query; And updating the multi-ranking data based on the first and second input data, wherein at least one of the first and second input data includes a set of a plurality of respondents, a set of a plurality of items, And a plurality of pairs of comparison data for a plurality of items, wherein each pair of comparison data of the plurality of pairs of comparison data includes data for determining a degree of preference between two items according to one of the plurality of determination criteria The multi-rank estimating method according to the present invention.

Figure 112016129251269-pat00072
Figure 112016129251269-pat00072

Description

추가 질의에 대한 쌍별 비교 데이터를 이용한 업데이트된 다중랭킹 추정 방법 {Method for estimating updated multiple ranking using pairwise comparison data to additional queries} [0001] The present invention relates to an updated multiple ranking estimation method using pairwise comparison data for an additional query,

본 발명은 랭킹 추정 방법 및 장치에 관한 것으로, 보다 상세하게는 추가 질의에 대한 쌍별(pairwise) 비교 결과까지 고려하여 업데이트된 다중랭킹을 추정하는 방법에 관한 것이다. The present invention relates to a ranking estimation method and apparatus, and more particularly, to a method for estimating updated multiple rankings by considering pairwise comparison results for an additional query.

랭킹 학습이란, 주어진 아이템 집합과 학습 데이터를 이용하여 랭킹 모델을 학습하고 학습된 결과를 이용하여 아이템의 랭킹(선호도 순위)을 알아내는 방법이다. 최근에 이 방법을 이용하여 주어진 문서와 가장 유사한 문서를 찾는 등 정보검색 및 추천 시스템에 널리 사용되고 있다. Ranking learning is a method of learning a ranking model by using a given set of items and learning data and finding the rankings (preference rank) of items by using the learned results. Recently, this method has been widely used in information retrieval and recommendation systems such as finding the document most similar to a given document.

랭킹 학습에 사용할 수 있는 학습 데이터에는 다양한 종류가 있으며 그 중에서도 쌍별 비교(2개의 아이템끼리 랭킹을 비교)의 결과를 활용하는 랭킹 학습 방법이 있다. 예를 들어 아이템이 4개(A,B,C,D) 주어져 있고, 도1에서와 같이 5개의 쌍별 비교의 결과가 주어져 있다고 가정한다. "B<A"는 B가 A보다 랭킹이 높다는 의미이다. 이 때 모든 아이템에 대한 랭킹의 경우의 수는 4!=24가지 이다. 이들 24가지 경우의 수에 대해 쌍별 비교의 결과를 얼마나 잘 반영하는지를 평가 척도로 사용하여 어느 랭킹이 더 정확한지를 판단할 수 있다. 도1의 경우에는 B<A<C<D와 A<B<C<D의 두 가지가 5개의 쌍별 비교 결과를 가장 잘 반영하고 있으므로 이 두 가지 경우의 수를 실제 랭킹으로 사용할 수 있다.There are various types of learning data that can be used for ranking learning, among which there is a ranking learning method that utilizes the results of pairwise comparisons (comparing ranking among two items). For example, suppose that there are 4 items (A, B, C, D), and the results of five pairs of comparisons are given as in FIG. "B <A" means that B is higher than A. In this case, the number of rankings for all items is 4! = 24. It is possible to determine which ranking is more accurate by using how well the result of the pair comparison is reflected in the number of these 24 cases as the evaluation scale. In the case of FIG. 1, since the two results of B <A <C <D and A <B <C <D best reflect the results of five pairs of comparison, the number of these two cases can be used as the actual ranking.

상기 예시한 랭킹 학습의 경우 전체 아이템간 랭킹은 단 한가지 판단기준에 따라 랭킹이 정해졌다고 가정한다. 하지만 다중 랭킹 문제(Multiple Ranking Problem)는 전체 아이템간 랭킹이 복수개의 판단기준("차원"이라고도 함)에 따라 다르게 존재할 수 있다고 추정하며 각 판단기준에 따른 랭킹들을 모두 구하는 것을 목표로 한다. In the above-described ranking learning, it is assumed that the ranking among all the items is determined according to only one criterion. However, the multiple ranking problem assumes that the ranking among all the items may exist differently according to a plurality of judgment criteria (also referred to as " dimension ") and aims at obtaining all the rankings according to each judgment criterion.

예를 들어 도2에서와 같이 호텔의 숙박료 및 중심가까지의 거리가 주어져 있다고 가정한다. 이 예에서 판단기준(차원)은 숙박료 및 거리이다. 숙박료는 저렴할수록 랭킹이 높고 거리는 가까울수록 랭킹이 높다고 하면, 숙박료에 대한 랭킹은 A<B<D<C이고, 거리에 대한 랭킹은 C<B<A<D임을 알 수 있다. For example, as shown in FIG. 2, it is assumed that the hotel's room rate and the distance to the center are given. In this example, the criterion (dimension) is the price and the distance. If the higher the ranking is, the higher the ranking is, the higher the ranking is, the higher the ranking is. If the ranking is higher, the rankings for the accommodation fees are A <B <D <C and the ranking for the distances is C <B <A <D.

위의 예시는 '숙박료'와 '거리'라는 판단기준을 이미 알고 있는 경우이지만, 실제 다중 랭킹 문제에서는 각 쌍별 비교가 어떤 판단기준에 따라 행해졌는지 알 수 없는 상태에서 주어진 쌍별 비교 결과들을 이용해서 모든 잠재적 판단기준에 따른 랭킹을 파악해야 하는 경우가 많다. 실제 쌍별 비교는 대부분 사람이 실시하며, 사람들은 각기 개인의 성향에 따라 특정 판단기준에 의해 아이템간의 랭킹을 매긴다는 점에서 이 문제는 기존의 단일랭킹 학습 문제보다 더 실용성이 높다고 할 수 있다. In the above example, it is assumed that the judgment criterion such as 'accommodation fee' and 'distance' is already known. However, in the actual multi-ranking problem, it is impossible to know which criterion of each pair is made, In many cases, it is necessary to determine the ranking according to the potential judgment criteria. The actual pairwise comparisons are conducted by most people, and people are more likely to be more practical than the existing single-rank learning problem because they rank items according to specific criteria according to individual tendencies.

예를 들어 도2의 리스트가 있을 때, 네 명의 응답자(u1 내지 u4)로부터 도3과 같은 쌍별 비교의 결과 데이터를 얻었다고 가정한다. 이 때 각 응답자가 어떤 판단기준으로 쌍별 비교를 하였는지는 알 수 없고 다만 도3과 같이 쌍별 비교 결과만이 주어졌다고 가정한다. 도3의 쌍별 비교 결과 데이터를 보면, 응답자(u1)가 대답한 결과와 응답자(u2)가 대답한 결과가 매우 다름을 알 수 있다. 이것은 응답자(u1)가 숙박료를 기준으로 쌍별 비교를 하였고 응답자(u2)는 거리를 기준으로 쌍별 비교를 했기 때문이라고 추정할 수 있다. 이와 같이 쌍별 비교 결과 데이터가 주어졌을 때 서로 모순되는 쌍별 비교의 개수가 대단히 많을 수도 있기 때문에 기존의 단일랭킹 학습을 통해서는 정확한 랭킹을 얻기 힘들다. 기존의 쌍별 비교의 결과를 이용한 아이템간 랭킹을 추론하는 알고리즘은 한가지 차원의 값만을 가지고 있는 경우에 유용하지만, 추천 시스템에 적용될 경우, 실제 사용자들은 다양한 판단기준에 따라서 랭킹을 판단하기 때문에 정확한 결과를 얻지 못하는 한계가 있다. For example, when the list of FIG. 2 exists, it is assumed that the result data of the pair comparison as shown in FIG. 3 is obtained from the four respondents (u 1 to u 4 ). In this case, it is assumed that each respondent does not know how to make a pairwise comparison based on a certain criterion, but only a pairwise comparison result is given as shown in FIG. As shown in FIG. 3, the result of the comparison between the respondent (u 1 ) and the respondent (u 2 ) is very different. It can be inferred that respondents (u 1 ) comparisons were based on the rate of accommodation, while respondents (u 2 ) comparisons were based on distance. Since the number of pairwise comparisons that are inconsistent when data of pairwise comparison results are given in this way may be very large, it is difficult to obtain an accurate ranking through the existing single ranking learning. The algorithm that infer the inter-item ranking using the results of the existing pairwise comparison is useful when only one dimension value is used. However, when applied to the recommendation system, the actual users judge the ranking according to various judgment criteria, There is a limit that can not be obtained.

한편, 쌍별 비교 결과에 기초하여 다양한 판단기준에 따른 랭킹을 추정하는 알고리즘을 실행할 때, 현재까지 수집한 모든 쌍별 비교의 데이터는 쌍별 비교결과를 산출하는데 충분한 정보를 제공하지 않을 수도 있다. 예컨대 어느 특정 비교대상(아이템)들 간의 비교 데이터가 부족하거나 없는 경우 쌍별 비교결과의 정확도가 높지 않을 것이다. On the other hand, when executing an algorithm for estimating a ranking according to various judgment criteria based on the result of pairwise comparison, the data of all pairs collected so far may not provide sufficient information for calculating the pairwise comparison result. For example, when the comparison data between certain comparison objects (items) is insufficient or missing, the accuracy of the comparison results of the pair will not be high.

따라서 초기 입력 데이터가 충분치 않은 경우 쌍별 비교 데이터를 추가로 더 수집해야 할 수도 있는데, 종래기술에서는 어느 응답자에게 어떤 질의에 대한 비교 결과를 수집해야 쌍별 비교결과의 정확도를 가장 높일 수 있는지에 대한 적절한 방법을 제시하지 못하였다. Therefore, if the initial input data is insufficient, it may be necessary to further collect pairwise comparison data. In the prior art, it is necessary to collect a comparison result of a certain query to a respondent so as to appropriately determine whether the accuracy of the pair- .

또한 초기 입력 데이터로부터 산출된 기존 쌍별 비교결과에 이 새로운 쌍별 비교 데이터를 추가할 경우 쌍별 비교결과를 산출하는 알고리즘에 기존의 초기 입력 데이터와 추가 입력 데이터를 다시 함께 입력하여 알고리즘을 처음부터 다시 실행해야 하므로, 추가 비교 데이터를 획득할 때마다 다중랭킹 데이터의 결과 산출 시간을 소모한다는 문제가 있다. Also, when the new pairwise comparison data is added to the existing pairwise comparison result calculated from the initial input data, the algorithm for calculating the pairwise comparison result must be executed again from the beginning by inputting the existing initial input data and the additional input data again Therefore, there is a problem that each time the additional comparison data is acquired, the result calculation time of the multiple ranking data is consumed.

대한민국 등록특허 제10-1605654호 (2016년 4월 4일 공고)Korean Patent No. 10-1605654 (issued April 4, 2016) 미국특허 제7,617,164호 (2009년 11월 10일 공개)U.S. Patent No. 7,617,164 (published on November 10, 2009)

본 발명의 일 실시예에 따르면, 주어진 쌍별 비교 결과에 복수개의 판단기준이 존재하는 경우 이 복수개의 판단기준에 따른 아이템의 랭킹을 추정할 수 있는 다중랭킹 추정 방법을 제공한다. According to an embodiment of the present invention, there is provided a multiple ranking estimation method capable of estimating a ranking of items according to a plurality of judgment criteria when a plurality of judgment criteria exist in a given pairwise comparison result.

본 발명의 일 실시예에 따르면, 최적의 질의를 최적의 응답자에게 제시하고 이로부터 추가 입력 데이터를 획득하고 다중랭킹 알고리즘에 반영함으로써 쌍별 비교결과의 정확도를 높일 수 있는 다중랭킹 추정 방법을 제공한다. According to an embodiment of the present invention, there is provided a multiple ranking estimation method that can present an optimal query to an optimal respondent, obtain additional input data from the optimal query, and reflect the input data to the multiple ranking algorithm to increase the accuracy of the pair comparison result.

본 발명의 일 실시예에 따른 다중랭킹 추정 방법은 크라우드소싱(crowdsourcing) 시스템에 적용될 수 있다. 기존의 크라우드소싱 시스템은 의뢰자(requester)의 자의대로 응답자를 선택하거나 질문을 선택할 수 없지만 본 발명의 일 실시예의 다중랭킹 추정 방법은 현재까지 수집된 데이터 및/또는 산출된 다중랭킹 데이터에 기초하여 추가 질의 및 질의 대상자를 선택하여 추가 입력데이터를 수집하기 때문에 다중랭킹 추정의 정확성을 높일 수 있는 다중랭킹 추정 방법을 제공한다.The method of estimating multiple rankings according to an embodiment of the present invention can be applied to a crowdsourcing system. Existing crowd sourcing systems can not select respondents or select questions according to requester's preference, but the multi-rank estimation method of an embodiment of the present invention is based on the data collected so far and / or the calculated multiple ranking data The present invention provides a multiple ranking estimation method capable of enhancing the accuracy of multi-rank estimation because it collects additional input data by selecting a target of a query and a query.

본 발명의 일 실시예에 따르면, 쌍별 비교 데이터를 이용한 다중랭킹 추정 방법으로서, 쌍별 비교 데이터에 관한 정보를 제1 입력데이터로서 입력하는 단계; 상기 입력데이터에 기초하여 다중랭킹 데이터를 산출하는 단계; 산출된 상기 다중랭킹 데이터에 기초하여 추가 질의를 선택하는 단계; 상기 추가 질의에 대한 쌍별 비교 데이터에 관한 제2 입력데이터를 수신하는 단계; 및 상기 제1 및 제2 입력데이터에 기초하여 상기 다중랭킹 데이터를 업데이트하는 단계;를 포함하고, 상기 제1 및 제2 입력데이터 중 적어도 하나는, 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합을 포함하고, 상기 복수개의 쌍별 비교 데이터의 각각의 쌍별 비교 데이터는, 복수개의 판단기준 중 하나의 판단기준에 따라 두 개의 아이템 간의 선호도를 판단한 데이터인 것을 특징으로 하는 다중랭캥 추정 방법을 제공할 수 있다. According to an embodiment of the present invention, there is provided a method of estimating multiple rankings using pairwise comparison data, comprising: inputting information on pairwise comparison data as first input data; Calculating multiple ranking data based on the input data; Selecting an additional query based on the calculated multiple ranking data; Receiving second input data relating to pairwise comparison data for the further query; And updating the multi-ranking data based on the first and second input data, wherein at least one of the first and second input data includes a set of a plurality of respondents, a set of a plurality of items, And a plurality of pairs of comparison data for a plurality of items, wherein each pair of comparison data of the plurality of pairs of comparison data includes data for determining a degree of preference between two items according to one of the plurality of determination criteria The multi-rank estimating method according to the present invention.

또한 본 발명의 일 실시예에 따르면, 상기 다중랭킹 추정 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다. According to another aspect of the present invention, there is provided a computer-readable recording medium having recorded thereon a program for causing the computer to execute the multiple rank estimation method.

본 발명의 일 실시예에 따르면, 주어진 쌍별 비교 결과에 복수개의 판단기준이 존재하는 경우 이 복수개의 판단기준에 따른 아이템의 랭킹을 추정할 수 있고, 더 나아가 복수개의 판단기준의 각각의 특성을 분석하여 제공할 수 있는 이점이 있다. According to an embodiment of the present invention, when there are a plurality of judgment criteria in a given pairwise comparison result, it is possible to estimate the ranking of items according to a plurality of judgment criteria, and furthermore, It is advantageous to provide it.

본 발명의 일 실시예에 따르면, 최적의 질의를 최적의 응답자에게 제시하고 이로부터 추가 입력 데이터를 획득하고 다중랭킹 알고리즘에 반영함으로써 정확도가 높은 쌍별 비교결과의 신속히 제공할 수 있는 이점이 있다. According to an embodiment of the present invention, there is an advantage that the optimal query can be presented to the optimum respondent, the additional input data can be obtained therefrom, and the resultant data can be reflected to the multi-ranking algorithm.

도1 내지 도3은 종래의 랭킹 학습 방법을 설명하기 위한 도면,
도4는 본 발명의 일 실시예에 따른 쌍별 비교 데이터를 이용한 다중랭킹 추정 방법을 설명하기 위한 흐름도,
도5는 다중랭킹 학습 알고리즘의 예시적 방법을 나타내는 흐름도,
도6a는 일 실시예에 따른 판단기준 선호도 확률분포를 설명하기 위한 도면,
도6b는 일 실시예에 따른 아이템 점수를 설명하기 위한 도면,
도6c는 일 실시예에 따른 응답정확성 확률분포를 설명하기 위한 도면,
도7은 다중랭킹 데이터를 업데이트하는 방법을 간략히 나타내는 의사코드,
도8은 일 실시예에 따른 다중랭킹 추정 방법의 실험 결과를 설명하기 위한 도면,
도9는 일 실시예에 따른 다중랭킹 추정 방법을 구현하는 예시적인 장치 구성을 설명하기 위한 블록도이다.
1 to 3 are diagrams for explaining a conventional ranking learning method,
FIG. 4 is a flow chart for explaining a multiple rank estimation method using pair comparison data according to an embodiment of the present invention; FIG.
5 is a flow chart illustrating an exemplary method of a multiple ranking learning algorithm,
FIG. 6A is a diagram for explaining a probability distribution of determination criterion according to an exemplary embodiment; FIG.
FIG. 6B is a view for explaining an item score according to an embodiment,
6C is a diagram for describing a response accuracy probability distribution according to an embodiment,
7 shows a pseudo code that briefly shows how to update multiple ranking data,
8 is a diagram for explaining experimental results of a multiple rank estimation method according to an embodiment,
FIG. 9 is a block diagram illustrating an exemplary apparatus configuration for implementing a multiple rank estimation method according to an embodiment.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features, and advantages of the present invention will become more readily apparent from the following description of preferred embodiments with reference to the accompanying drawings. However, the present invention is not limited to the embodiments described herein but may be embodied in other forms. Rather, the embodiments disclosed herein are provided so that the disclosure can be thorough and complete, and will fully convey the scope of the invention to those skilled in the art.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Where the terms first, second, etc. are used herein to describe components, these components should not be limited by such terms. These terms have only been used to distinguish one component from another. The embodiments described and exemplified herein also include their complementary embodiments.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms "comprise" and / or "comprising" used in the specification do not exclude the presence or addition of one or more other elements.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서, 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는, 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 혼돈을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the drawings. In describing the specific embodiments below, various specific details have been set forth in order to explain the invention in greater detail and to assist in understanding it. However, it will be appreciated by those skilled in the art that the present invention may be understood by those skilled in the art without departing from such specific details. In some cases, it should be mentioned in advance that it is common knowledge in describing an invention that parts not significantly related to the invention are not described in order to avoid confusion in explaining the present invention.

본 발명은 응답자들이 두 개의 아이템간의 쌍별 비교에 대해 응답을 내놓는 과정을 확률 모델로 모델링한다. 일 실시예에서, 이 확률 모델의 모델링에 사용하는 다중랭킹 데이터가, 각 판단기준에 대해서 사람들이 올바른 대답을 내놓을 확률, 각 사람들이 선호하는 판단기준의 비중, 및 실제 아이템들의 판단기준별 랭킹 점수값 등을 포함할 수 있다. 일 실시예에서, 이러한 다중랭킹 데이터 값에 따라서 실제 쌍별 비교의 결과들이 얻어질 확률을 나타내는 우도 함수(likelihood function)를 구할 수 있다. 이 우도 함수값을 최대화 하는 다중랭킹 데이터를 기대값 최대화 알고리즘(EM Algorithm)을 이용하여 계산하고, 다중랭킹 데이터 중 하나인 아이템의 판단기준별 랭킹 점수를 바탕으로 각 판단기준별 아이템간의 랭킹을 산출한다. The present invention models the process by which respondents respond to a pairwise comparison between two items into a probability model. In one embodiment, the multiple ranking data used for modeling this probability model is used to determine the probability that a person will give a correct answer for each criterion, the weight of each person's preferred criterion, and the rank- Values, and the like. In one embodiment, a likelihood function may be obtained that indicates the probability that the results of the actual pairwise comparisons will be obtained according to this multiple ranking data value. The multi-ranking data for maximizing the likelihood function value is calculated by using an expected value maximization algorithm (EM algorithm), and the ranking among the items for each determination criterion is calculated based on the ranking score for each item of the multiple ranking data do.

도4는 본 발명의 일 실시예에 따른 쌍별 비교 데이터를 이용한 다중랭킹 추정 방법을 설명하기 위한 흐름도이다. FIG. 4 is a flowchart illustrating a method for estimating multiple rankings using pair-by-pair comparison data according to an embodiment of the present invention.

일 실시예에서 쌍별 비교 데이터를 이용한 다중랭킹 추정 방법은 다중랭킹 학습 알고리즘(100)에서 수행될 수 있다. 일 실시예에서 다중랭킹 학습 알고리즘(100)은 다중랭킹 데이터 산출부(110), 질의 선정부(120), 및 업데이트부(130)를 포함할 수 있으며, 이들 각 구성요소(110,120,130)는 소프트웨어나 하드웨어 또는 이들의 조합에 의해 구현될 수 있다. In one embodiment, a method of estimating multiple rankings using pairwise comparison data may be performed in a multiple ranking learning algorithm 100. In one embodiment, the multi-rank learning algorithm 100 may include a multiple ranking data calculation unit 110, a query selection unit 120, and an update unit 130, Hardware, or a combination thereof.

일 실시예에 따른 다중랭킹 추정 방법은 쌍별 비교 데이터에 관한 정보를 입력데이터로서 다중랭킹 데이터 산출부(110)에 입력하는 단계, 및 다중랭킹 데이터 산출부(110)가 이 입력데이터에 기초하여 다중랭킹 데이터를 생성하는 단계를 포함한다. The method for estimating multiple rankings according to an embodiment includes the steps of inputting information on pair comparison data as input data to a multiple ranking data calculation unit 110 and a step of calculating multiple ranking data by multiply ranking data calculation unit 110 based on the input data And generating ranking data.

이 때 다중랭킹 학습 알고리즘에 입력되는 입력데이터는, 예를 들어 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합을 포함할 수 있다. 복수개의 쌍별 비교 데이터의 각각의 쌍별 비교 데이터는, 복수개의 판단기준 중 임의의 하나의 판단기준에 따라 두 개의 아이템 간의 선호도를 판단한 데이터이다. In this case, the input data input to the multi-ranking learning algorithm may include, for example, a set of a plurality of responders, a set of a plurality of items, and a set of a plurality of pairs of comparison data for a plurality of items. Each pair-by-pair comparison data of a plurality of pairs of comparison data is data that determines a preference between two items according to an arbitrary one of a plurality of determination criteria.

다중랭킹 데이터 산출부(110)에 의해 생성되는 다중랭킹 데이터는, 예를 들어, 응답자가 임의의 판단기준을 선호할 확률의 확률분포("판단기준 선호도 확률분포"), 판단기준마다 각 아이템이 얻은 랭킹 점수("아이템 점수"), 및 판단기준마다 응답자가 정확히 응답하였을 확률의 확률분포("응답정확성 확률분포")를 포함할 수 있다. 특히 이 때 생성된 다중랭킹 데이터 중 아이템 점수에 의해 판단기준별 아이템간의 랭킹 결과가 도출될 수 있다. The multi-ranking data generated by the multi-ranking data calculation unit 110 includes, for example, a probability distribution ("judgment criterion probability probability distribution") of probability that the respondent prefers an arbitrary judgment criterion, ("Item score"), and a probability distribution ("response accuracy probability distribution") of the probability that the responder correctly answered for each criterion. Particularly, ranking results among the items according to judgment criteria can be derived from item scores among the multiple ranking data generated at this time.

도시한 실시예에서, 질의 선정부(120)는 생성된 다중랭킹 데이터에 기초하여 추가로 질의할 질문들을 선정한다. 질의 선정부(120)는 기존의 입력데이터 및/또는 생성된 다중랭킹 데이터에 기초하여, 어떤 질의를 어느 응답자에게 질문하여 이로부터 추가 입력 데이터를 획득하는 것이 가장 효과적인지를 판단한다. In the illustrated embodiment, the query selection unit 120 selects further questions to be queried based on the generated multiple ranking data. Based on the existing input data and / or the generated multiple ranking data, the query selection unit 120 determines which query is the most effective to inquire to which respondent the query is to acquire additional input data from.

질의 선정부(120)에 의해 선택된 소정 개수의 질의들은 소정 인원의 선정된 응답자에게 주어지고, 이들로부터 쌍별 비교결과에 관한 새로운 추가 입력 데이터를 수신받는다. 그 후 업데이트부(130)는 이 추가 입력 데이터 및 기존의 입력 데이터에 기초하여 다중랭킹 데이터를 업데이트할 수 있다. A predetermined number of queries selected by the query selection unit 120 are given to a predetermined number of respondents, and receive new additional input data related to the pair comparison result. The updating unit 130 may then update the multiple ranking data based on the additional input data and the existing input data.

이하에서 도5 및 도6을 참조하여 다중랭킹 데이터 산출부(110)에서 실행되는 다중랭킹 학습 알고리즘에 따른 예시적 학습 방법의 일 실시예를 상술하기로 한다. Hereinafter, one embodiment of an exemplary learning method according to a multiple rank learning algorithm executed in the multiple ranking data calculation unit 110 will be described in detail with reference to FIG. 5 and FIG.

도5는 다중랭킹 학습 알고리즘의 예시적 방법을 나타내는 흐름도이다. 5 is a flow diagram illustrating an exemplary method of a multiple ranking learning algorithm.

도면을 참조하면, 다중랭킹 학습 알고리즘에 의해 다중랭킹 데이터를 생성하는 방법은, 입력데이터 및 사전(prior) 다중랭킹 데이터에 기초하여, 임의의 두 개의 아이템에 대한 쌍별 비교결과의 확률을 계산하는 단계(S110), 상기 확률에 기초하여 우도 함수를 산출하는 단계(S120), 및 우도 함수를 최대화하는 사후(posterior) 다중랭킹 데이터를 산출하는 단계(S130)를 포함할 수 있다. Referring to the drawings, a method for generating multiple ranking data by a multiple ranking learning algorithm includes calculating a probability of a pairwise comparison result for any two items based on input data and prior multiple ranking data Calculating a likelihood function based on the probability (S120), and calculating (S130) posterior multiple ranking data for maximizing the likelihood function.

단계(S110)에서 입력데이터 및 사전 다중랭킹 데이터를 이용하여 쌍별 비교결과의 확률을 계산한다. 이 때 사용되는 사전 다중랭킹 데이터는, 사전(prior) 판단기준 선호도 확률분포, 사전 아이템 점수, 및 사전 응답정확성 확률분포이다. 이러한 사전 다중랭킹 데이터는 임의로 설정된 추정값이어도 되고 실제 입력데이터에 기초하여 산출된 값이 아니어도 무방하다. 단계(S110)에서 사용되는 다중랭킹 데이터는 추정 확률분포 및 추정 아이템 점수이며, 그 후 후술하는 단계(S120, S130)를 통해 실제의 입력데이터를 가장 잘 만족하는 사후(posterior) 다중랭킹 데이터(즉, 사후 판단기준 선호도 확률분포, 사후 아이템 점수, 및 사후 응답정확성 확률분포)를 얻게 된다. In step S110, the probability of the pair comparison result is calculated using the input data and the dictionary multi-ranking data. The dictionary multi-ranking data used at this time is a prior decision criterion preference probability distribution, a dictionary item score, and a pre-response accuracy probability distribution. The pre-multilingual data may be an arbitrarily set estimation value or a value calculated based on actual input data. The multiple ranking data used in step S110 is the estimated probability distribution and the estimated item score and then the posterior multiple ranking data (i.e., , Posterior criterion preference probability distribution, post item score, and post-response accuracy probability distribution).

즉 바람직한 일 실시예에서 본 발명은 사전 확률(prior probability)과 관측값(즉, 입력 데이터)을 이용하여 사후 확률(posterior probability) 정보를 도출하는 베이즈 정리(Bayes' Theorem)를 이용한 것으로, 다중랭킹 데이터의 사전 확률분포(판단기준 선호도 확률분포 및 응답정확성 확률분포)와 사전 아이템 점수 및 관측값(입력데이터)을 통해 다중랭킹 데이터의 사후(실제) 확률분포 및 사후 아이템 점수를 얻게 된다. That is, in a preferred embodiment, the present invention uses Bayes' Theorem to derive posterior probability information using a prior probability and an observation value (i.e., input data) The posterior (actual) probability distribution and the post item score of the multiple ranking data are obtained through the prior probability distribution (judgment criterion probability distribution and response correctness probability distribution) of the ranking data, the dictionary item score and the observation value (input data).

입력 데이터Input data

단계(S110)에서, 입력데이터 및 사전 다중랭킹 데이터를 이용하여 쌍별 비교결과의 확률을 산출한다. 여기서 '입력데이터'는 사후 다중랭킹 데이터를 생성하는데 필요한 데이터로서, 미리 수집되거나 결정된 기지(旣知)의 값이며, 아래와 같이 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합을 포함할 수 있다. In step S110, the probability of the pair comparison result is calculated using the input data and the dictionary multiple ranking data. Herein, 'input data' is data necessary for generating post-ranking multi-ranking data, and is a known value that has been collected or determined in advance, and is a set of a plurality of respondents, a set of a plurality of items, And may include a plurality of pairs of comparison data.

Figure 112016129251269-pat00001
: 쌍별 비교를 수행한 응답자들의 집합이다. L명(단, L은 2이상의 정수)의 복수의 응답자가 쌍별 비교를 하였다고 가정하며, 각각의 응답자를 "u"로 표현하기로 한다.
Figure 112016129251269-pat00001
: A set of respondents who performed pairwise comparisons. It is assumed that a plurality of responders of L (where L is an integer of 2 or more) compares pairs, and each responder is represented by " u &quot;.

Figure 112016129251269-pat00002
: 쌍별 비교의 대상이 되는 아이템들의 집합이다. M개(단, M은 2이상의 정수)의 복수개의 아이템이 있다고 가정하며, 각 아이템을 "oi", "oj" 등으로 표현하기로 한다. 쌍별 비교에서 아이템(oi)이 아이템(oj)보다 우선순위가 높다는 쌍별 비교결과를 "oi<oj"로 표현하기로 한다.
Figure 112016129251269-pat00002
: A set of items that are subject to pairwise comparison. It is assumed that there are a plurality of M items (where M is an integer of 2 or more), and each item is represented by "o i ", "o j ", and the like. The result of the pairwise comparison that the item (o i ) has a higher priority than the item (o j ) in the pairwise comparison is expressed as "o i <o j ".

Cu : 각 응답자 u가 내놓은 모든 쌍별 비교의 집합이다. C u : It is a set of all pairwise comparisons that each respondent u presents.

다중랭킹Multiple ranking 데이터 data

다중랭킹 데이터는 다중랭킹 알고리즘에 입력되는 사전(prior) 데이터이거나 다중랭킹 알고리즘의 계산결과 생성되는 사후(posterior) 데이터로서, 다음과 같이 판단기준 선호도 확률분포, 아이템 점수, 및 응답정확성 확률분포를 포함할 수 있다. The multi-ranking data includes prior data input to a multi-ranking algorithm or posterior data generated as a result of calculation of a multi-rank algorithm, including a decision criterion preference probability distribution, an item score, and a response accuracy probability distribution as follows can do.

판단기준 선호도 확률분포(θu,m): 응답자(u)가 m번째 판단기준을 선택할 확률의 확률분포를 의미한다. Judgment criteria preference probability distribution (θ u, m ): Probability distribution of probability that respondent (u) selects m-th judgment criterion.

아이템 점수(πi(m)): 각 아이템의 점수로서, i번째 아이템의 m번째 판단기준에 따른 점수를 의미한다. Item score (π i (m)): The score of each item, which means the score according to the mth judgment criterion of item i.

응답정확성 확률분포(ηm): 판단기준마다 응답자가 정확히 응답하였을 확률의 확률분포를 의미한다. Response Accuracy Probability Distribution (η m ): Probability distribution of the probability that the responder correctly responded to each criterion.

이와 관련하여 도6a 내지 도6c는 이해를 돕기 위해 판단기준 선호도 확률분포, 아이템 점수, 및 응답정확성 확률분포의 각각의 예시적인 값들을 나타낸다. In this regard, FIGS. 6A-6C illustrate exemplary values for each of the decision criterion preference probability distribution, item score, and response accuracy probability distribution for ease of understanding.

도6a는 일 실시예에 따른 판단기준 선호도 확률분포(θu,m)로서, 응답자(u)가 L명이고 판단기준이 d개 존재할 때 각 응답자가 어느 특정 판단기준을 선택할지를 확률로서 나타낸다. 표를 참조하면, 응답자(u1)가 판단기준(m1)을 선호하여 쌍별 비교시 이 판단기준(m1)을 선택할 확률이 0.15이고, 판단기준(m2)를 선호하여 선택할 확률은 0.10이며, 이와 같이 응답자(u1)가 각 판단기준(m1 내지 md)을 선호할 확률이 표시되고, 응답자(u1)에 대해 모든 판단기준에 대한 선호도 확률을 더하면 1이 된다. 마찬가지로, 응답자(u2) 내지 응답자(uL)의 각각에 대해서도 각 판단기준을 선호할 확률이 표시되며 각 응답자마다 모든 판단기준의 선호도 확률을 더하면 각각 1이 됨을 알 수 있다. 6A is a probability distribution of preference probability (θ u, m ) according to an exemplary embodiment , and shows, as a probability, a specific criterion to be selected by each respondent when the number of respondents (u) is L and the number of judgment criteria is d. Referring to the table, the responder (u 1) is determined based on a (m 1) preferred by ssangbyeol comparison, this probability of selecting the criteria (m 1) 0.15 a, the probability of selecting in favor of the criteria (m 2) is 0.10 and, the thus responder (u 1) is likely to prefer each criterion (m 1 to m d) being displayed, the responder is a first adding the affinity probabilities for all criteria for a (u 1). Similarly, for each of the respondents (u 2 ) to (u L ), the likelihood of each judgment criterion is displayed, and it can be seen that the likelihood of each judgment criterion is 1 for each responder.

판단기준 선호도 확률분포는 쌍별 비교의 결과를 내놓는 각 응답자(u)가 d개의 다른 판단기준들 중에서 한 가지 판단기준을 선호할 확률이므로 이 확률분포를 d차원의 벡터, 즉

Figure 112016129251269-pat00003
로 표현할 수 있으며, 이하에서는 임의의 응답자(u)의 m번째 판단기준에 대한 판단기준 선호도 확률분포를 θu,m로 나타내기로 한다. The decision criterion preference probability distribution is a probability that each respondent (u) who presents the result of the pair comparison preferring one criterion among d different criterion criteria,
Figure 112016129251269-pat00003
Hereinafter, the probability distribution of the criterion for the mth judgment criterion of an arbitrary responder (u) is denoted by θ u, m .

단계(S110)에서 다중랭킹 알고리즘에 입력되는 사전(prior) 판단기준 선호도 확률분포(θu,m)는 미리 설정되거나 추정된 값을 가질 수 있다. 일 실시예에서 이러한 사전 판단기준 선호도 확률분포가 임의의 확률분포를 따른다고 가정할 수 있으며, 이하에 설명하는 실시예에서는 일 예로서 디리클레 분포(Dirichlet distribution)를 따른다고 가정한다. 즉 벡터

Figure 112016129251269-pat00004
가 디리클레 분포
Figure 112016129251269-pat00005
를 따른다고 가정하며, 여기서
Figure 112016129251269-pat00006
는 외부에서 미리 주어지는 인자이다.The prior decision preference probability distribution? U, m input to the multiple ranking algorithm in step S110 may have a predetermined or estimated value. In one embodiment, it can be assumed that such a pre-decision criterion probability probability distribution follows an arbitrary probability distribution, and in the embodiment described below, it follows that it follows a Dirichlet distribution as an example. That is,
Figure 112016129251269-pat00004
Dirichlet distribution
Figure 112016129251269-pat00005
, Where &lt; RTI ID = 0.0 &gt;
Figure 112016129251269-pat00006
Is an externally given argument.

도6b는 일 실시예에 따른 아이템 점수(πi(m))로서, 아이템(o)이 M개이고 판단기준이 d개 존재할 때 각 아이템의 점수를 나타낸다. 표를 참조하면, 각 아이템(o)은 d가지 다른 판단기준에 따라 점수를 가지고 있으며, 예컨대 0에서 10까지의 임의의 실수로 표시될 수 있다. 이 때 이 점수가 낮을수록 우선순위가 더 높다고 가정한다. Figure 6b is an item score (π i (m)) in accordance with one embodiment, the item (o) when M is numbered, it is determined based on d dog is present represents the score of each item. Referring to the table, each item (o) has a score according to d different criteria and can be expressed, for example, as an arbitrary real number from 0 to 10. It is assumed that the lower the score, the higher the priority.

그러나 쌍별 비교는 두 개의 아이템간의 상대적 선호도를 나타내므로, 아이템 점수가 반드시 특정 범위(예컨대, 0~10 사이)의 값을 가질 필요는 없고, 대안적 실시에에서, 예컨대 1~5의 값 사이에서 아이템 점수를 매길 수도 있다. 또한 대안적 실시예에서, 점수가 높을수록 해당 아이템을 더 선호한다고 가정할 수도 있다.However, since the pairwise comparison indicates the relative preference between the two items, it is not necessary that the item score necessarily have a value in a certain range (e.g., between 0 and 10), and in an alternative embodiment, You can also score item points. Also, in an alternative embodiment, it may be assumed that the higher the score, the more preferred the item.

이하에서는 임의의 아이템(oi)의 m번째 판단기준에서의 점수값을 πi(m)로 표기하도록 한다. 수학적으로, 해당 아이템의 모든 판단기준에서의 점수를 d차원 벡터로

Figure 112016129251269-pat00007
와 같이 표기할 수 있다. 또한 모든 아이템의 m번째 판단기준의 점수 값을 모은 벡터를
Figure 112016129251269-pat00008
로 표기하기로 한다. Hereinafter, the score value of an arbitrary item (o i ) in the mth judgment criterion is denoted by pi i (m). Mathematically, the score on all criteria of the item is converted to a d-dimensional vector
Figure 112016129251269-pat00007
As shown in Fig. Also, the vector that collects the score of the m-th judgment criterion of all items
Figure 112016129251269-pat00008
.

도6c는 일 실시예에 따른 응답정확성 확률분포(ηm)로서, 판단기준이 d개 존재할 때 각 판단기준에 대해 응답자 자신이 원래 의도했던 대로 올바로 쌍별 비교를 수행할 확률을 나타낸다. 이하에서는 응답자가 m번째 판단기준에서 올바르게 대답할 확률, 즉 응답정확성 확률을 ηm로 표기하도록 한다.6C is a response accuracy probability distribution? M according to an exemplary embodiment, and indicates the probability that the responder himself / herself will perform the correct pairwise comparison for each judgment criterion when there are d judgment criteria. Hereinafter, the probability that the respondent correctly answers the m-th judgment criterion, that is, the probability of response accuracy, is denoted by η m .

단계(S110)에서 다중랭킹 알고리즘에 입력되는 사전 응답정확성 확률분포(ηm)는 미리 설정되거나 추정된 값을 가질 수 있다. 일 실시예에서 이러한 사전 응답정확성 확률분포가 임의의 확률분포를 따른다고 가정할 수 있으며, 이하의 실시예에서는 일 예로서 베타 분포(beta distribution)을 따른다고 가정한다. 여기서

Figure 112016129251269-pat00009
는 상술한 α와 마찬가지로 외부에서 미리 주어지는 인자이다. The pre-response correctness probability distribution? M input to the multi-ranking algorithm in step S110 may have a predetermined or estimated value. In one embodiment, it can be assumed that such a prior-response accuracy probability distribution follows an arbitrary probability distribution, and in the following embodiments it is assumed that it follows a beta distribution as an example. here
Figure 112016129251269-pat00009
Is a factor given in advance from the outside as in the above-mentioned?.

쌍별 비교결과의 확률 산출Calculate the probability of the result of pairwise comparison

다시 도5를 참조하면, 상술한 입력데이터 및 사전 다중랭킹 데이터를 이용하여 단계(S110)에서 쌍별 비교결과의 확률(

Figure 112016129251269-pat00010
)을 산출한다. 여기서 확률(
Figure 112016129251269-pat00011
)은 임의의 응답자(u)가 임의의 제1 아이템(oi)을 임의의 제2 아이템(oj)보다 선호하는 비교결과를 내놓을 확률을 의미한다. Referring again to FIG. 5, using the above-described input data and dictionary multilingual data, the probability of the pair comparison result (step S110)
Figure 112016129251269-pat00010
). Here, the probability (
Figure 112016129251269-pat00011
) Means the probability that any responder u will give a comparison result that prefers any first item o i to any second item o j .

각 쌍별 비교가 생성되는 과정은 서로 독립적이라고 생각한다. 응답자(u)에게 복수개의 쌍별 비교 질문을 한다고 가정할 때, t번째 질문으로 두 아이템 oi와 oj간의 쌍별 비교를 물어보는 경우 확률(

Figure 112016129251269-pat00012
)은 다음과 같이 수학식1로서 표현될 수 있다. We think that the process of creating each pairwise comparison is independent of each other. Assuming that the respondent (u) has a plurality of pairwise comparison questions, the t-th question asks the pairwise comparison between the two items o i and o j .
Figure 112016129251269-pat00012
) Can be expressed as Equation (1) as follows.

Figure 112016129251269-pat00013
Figure 112016129251269-pat00013

여기서,

Figure 112016129251269-pat00014
는 응답자(u)가 m번째 판단기준을 이용하여 두 아이템을 비교할 것인지를 나타내는 확률이다. 이는
Figure 112016129251269-pat00015
에 따른 다항분포 Multinomial
Figure 112016129251269-pat00016
를 이용하여 임의의 판단기준을 선택함으로써 정해진다. 여기서 su,t는 전체 d개의 판단기준 중 어느 판단기준을 선택했는지 나타내는 변수로서, 1에서 d 사이의 임의의 정수값이다. 예컨대
Figure 112016129251269-pat00017
이면, 첫번째 판단기준(m1)을 이용해서 두 아이템간의 쌍별 비교를 하였을 확률이다. m번째 판단기준이 선택될 확률, 즉
Figure 112016129251269-pat00018
는 다항분포의 정의에 의해 판단기준 선호도 확률분포(θu,m)가 된다. here,
Figure 112016129251269-pat00014
Is a probability that the respondent (u) will compare two items using the mth judgment criterion. this is
Figure 112016129251269-pat00015
Multinomial distribution according to
Figure 112016129251269-pat00016
By selecting an arbitrary criterion. Here, s u, t is a variable indicating which one of all d judgment criteria is selected, and is an arbitrary integer value between 1 and d. for example
Figure 112016129251269-pat00017
, It is the probability that a pairwise comparison between two items is made using the first judgment criterion (m 1 ). The probability that the mth determination criterion is selected, that is,
Figure 112016129251269-pat00018
Is a decision criterion preference probability distribution (? U, m ) by the definition of a polynomial distribution.

상기 수학식1에서

Figure 112016129251269-pat00019
는, 응답자(u)가 비교하는 과정에서 실수가 있지 않았는지를 고려할 때, 다음과 같이 표현된다. In Equation (1)
Figure 112016129251269-pat00019
Is expressed as follows when considering whether the respondent (u) did not make a mistake in the comparison process.

Figure 112016129251269-pat00020
Figure 112016129251269-pat00020

위 수학식2에서 pu,t는 응답자(u)가 쌍별 비교 과정에서 실수가 있었는지를 나타내는 변수로서, ηm에 따른 이항분포 Binomialm)에 따라서 1 또는 0의 값을 가진다고 가정한다. pu,t = 1이면, 응답자가 올바른 쌍별 비교 결과를 내놓은 것을 의미하고, pu,t = 0이라면 응답자가 실수로 반대의 결과를 내놓았음을 의미한다. In the above equation 2 p u, t is assumed to respondents (u) is a variable that refers to that mistakes were in the comparison process ssangbyeol, according to the binomial distribution Binomialm) of the η m said to have a value of 1 or 0, . If p u, t = 1, it means that the respondent gave the correct pairwise comparison result, and p u, t = 0, it means that the respondent mistakenly gave the opposite result.

그러므로

Figure 112016129251269-pat00021
는 m번째 판단기준이 선택된 후 이 판단기준에 따라 응답자(u)가 올바르게 응답하였을 확률로서 응답정확성 확률분포(ηm)가 되고,
Figure 112016129251269-pat00022
는 m번째 판단기준이 선택된 후 이 판단기준에 따라 응답자(u)가 실수로 반대로 응답하였을 확률이고, (1-ηm)로 표현할 수 있다. 즉 다음과 같이 표현 가능하다. therefore
Figure 112016129251269-pat00021
The response probability probability distribution? M is a probability that the respondent u has correctly responded according to the determination criterion after the mth determination criterion is selected,
Figure 112016129251269-pat00022
Is the probability that the responder (u) reacted inversely to the real number after the mth judgment criterion was selected, and can be expressed as (1 -? M ). That is, it can be expressed as follows.

Figure 112016129251269-pat00023
Figure 112016129251269-pat00023

Figure 112016129251269-pat00024
Figure 112016129251269-pat00024

그리고 상기 수학식2에서

Figure 112016129251269-pat00025
는 응답자가 올바로 응답하였을 때의 제1 아이템(oi)을 제2 아이템(oj)보다 선호하는 비교결과의 확률이고, In Equation (2)
Figure 112016129251269-pat00025
And the probability of the result of the comparison that the respondents preferred the first item (i o) of the second item (o j) at the time when the response correctly,

Figure 112016129251269-pat00026
는 응답자가 실수로 잘못 응답하였을 때의 제2 아이템(oj)을 제1 아이템(oi)보다 선호하는 비교결과의 확률이다.
Figure 112016129251269-pat00026
Is the probability of a comparison result in which the second item o j when the respondent mistakenly responds incorrectly is preferred to the first item o i .

상기 제1 아이템(oi)을 제2 아이템(oj)보다 선호하는 비교결과의 확률 및 상기 제2 아이템(oj)을 제1 아이템(oi)보다 선호하는 비교결과의 확률을 임의의 수학적 모델로 표현할 수 있다. 이하의 실시예에서는, 이 비교결과의 확률이 각각 브래들리-테리 모델(Bradley-Terry model)을 따른다고 가정한다. The probability of the comparison result favoring the first item o i over the second item o j and the probability of the comparison result favoring the second item o j over the first item o i can be arbitrarily set It can be expressed as a mathematical model. In the following embodiments, it is assumed that the probabilities of these comparison results follow the Bradley-Terry model, respectively.

브래들리-테리 모델은 응답자의 두 아이템간의 선호도를 설명하기 위하여 제안된 모델로서, 이 모델에서는 각 아이템(oi)마다 어떤 점수 πi가 존재하고, 이 점수가 낮을수록 응답자들이 해당 아이템을 더 선호할 확률이 높아진다고 전제한다. 이 모델에 따르면 두 개의 아이템(oi, oj)이 주어졌을 때 응답자가 oi를 oj보다 더 선호할 확률, 즉 oi<oj 라는 쌍별 비교 결과를 내놓을 확률은 아래와 같다. The Bradley-Terry model is a model proposed to explain the preference between two items of respondents. In this model, there is a score π i for each item (o i ), and the lower the score, It is assumed that the probability of doing so increases. According to this model, given the two items (o i , o j ), the probability that a respondent will prefer o i to o j , ie, o i <o j ,

Figure 112016129251269-pat00027
Figure 112016129251269-pat00027

이에 따라, 응답자가 올바로 응답하였을 때의 제1 아이템(oi)을 제2 아이템(oj)보다 선호하는 비교결과의 확률, 즉

Figure 112016129251269-pat00028
은 아래와 같다.Accordingly, the probability of the comparison result that the first item o i when the responder correctly responded is preferable to the second item o j , that is,
Figure 112016129251269-pat00028
Is as follows.

Figure 112016129251269-pat00029
Figure 112016129251269-pat00029

그리고 응답자가 실수로 잘못 응답하였을 때의 제2 아이템(oj)을 제1 아이템(oi)보다 선호하는 비교결과의 확률, 즉

Figure 112016129251269-pat00030
은 아래와 같다. And the second item o j when the respondent erroneously responded incorrectly to the probability of the comparison result favoring the first item o i ,
Figure 112016129251269-pat00030
Is as follows.

Figure 112016129251269-pat00031
Figure 112016129251269-pat00031

상기 수학식2 내지 수학식4, 수학식6, 및 수학식7을 수학식1에 대입하고 위와 같은 과정을 응답자(u)에게 질문하는 모든 아이템 쌍들에 대하여 수행한다고 하면, 결과적으로 단계(S110)에서 응답자(u)에 대한 쌍별 비교결과의 확률(Pru)은 다음과 같이 표현될 수 있다. Assuming that Equation (2) through Equation (4), Equation (6) and Equation (7) are substituted into Equation (1) and all the pairs of items asking the responder (u) The probability (Pr u ) of the result of pairwise comparison on responder (u) can be expressed as follows.

Figure 112016129251269-pat00032
Figure 112016129251269-pat00032

우도함수Likelihood function 산출 Calculation

도5를 참조하면, 상술한 바와 같이 단계(S110)에서 쌍별 비교결과의 확률을 산출한 후 단계(S120)에서 이 확률에 기초하여 우도(likelihood) 함수를 산출한다. Referring to FIG. 5, after calculating the probability of the pair comparison result in step S110 as described above, a likelihood function is calculated on the basis of the probability in step S120.

일 실시예에서, 다중랭킹 데이터로서 판단기준 선호도 확률분포(θu,m), 아이템 점수(πi(m)), 및 응답정확성 확률분포(ηm)가 주어졌을 때 우도 함수(

Figure 112016129251269-pat00033
)는 아래 수학식9와 같이 계산된다. In one embodiment, given multi-ranking data, given a decision criterion preference probability distribution (? U, m ), an item score (? I (m)) and a response accuracy probability distribution (? M )
Figure 112016129251269-pat00033
) Is calculated as shown in Equation (9) below.

Figure 112016129251269-pat00034
Figure 112016129251269-pat00034

우도 함수를 최대화하는 Maximize the likelihood function 다중랭킹Multiple ranking 데이터 산출 Data output

단계(S120)에서 상기 수학식9와 같이 우도 함수가 산출되면, 단계(S130)에서 이 우도 함수를 최대화하는 사후(posterior) 다중랭킹 데이터를 산출한다. 즉 우도 함수(

Figure 112016129251269-pat00035
) 값이 최대가 되도록 하는 판단기준 선호도 확률분포(θu,m), 아이템 점수(πi(m)), 및 응답정확성 확률분포(ηm)를 계산한다. If the likelihood function is calculated as in Equation (9) in step S120, posterior multiple ranking data for maximizing the likelihood function is calculated in step S130. That is,
Figure 112016129251269-pat00035
(? U, m ), the item score (? I (m)), and the response accuracy probability distribution (? M ).

이 과정은 기대값 최대화(EM: Expectation Maximization) 알고리즘으로 알려진 공지의 방법을 사용할 수 있다. EM 알고리즘은 예컨대 A. P. 뎀스터(Dempster), N. M. 레어드(Laird), 및 D. B. 루빈(Rubin)의 논문 "Maximum likelihood from incomplete data via the EM algorithm" (Journal of Royal Statist. Soc., 39:1-38, 1977) 등에 개시되어 있으며, 반복적으로 E-스텝과 M-스텝을 수행하면서 우도 값이 더 이상 증가하지 않고 수렴할 때의 확률분포 값을 해(solution)로 구하는 방법이다. EM 알고리즘은 항상 최적의 값을 찾는 것을 보장하지 못하기 때문에 EM 알고리즘을 여러번 실행하여 가장 큰 우도 값을 얻어냈을 때의 확률분포를 가장 좋은 해로 삼는 것이 바람직하다. This process can use a known method known as an Expectation Maximization (EM) algorithm. The EM algorithm is described in, for example, AP Dempster, NM Laird, and DB Rubin, "Maximum likelihood from incomplete data via EM algorithm" (Journal of Royal Statist. Soc., 39: 1-38, 1977), and it is a method to obtain a probability distribution value as a solution when the likelihood value does not increase any more while performing E-step and M-step repeatedly. Since the EM algorithm does not always guarantee that it finds the optimal value, it is desirable to run the EM algorithm multiple times to make the probability distribution with the greatest likelihood value the best.

한편 EM 알고리즘을 본 발명의 실시예에 적용할 때, 확률(Pru)의 계산식(즉, 수학식8)에 두 개의 아이템(oi, oj)간의 점수차(πj(m)-πi(m))가 지수함수의 인자로 사용되었기 때문에, EM 알고리즘에서는 아이템별 점수(πi(m))를 직접 알 수 없고 이 점수값의 차이(πj(m)-πi(m))만 알 수 있다. EM 알고리즘에 의해 사후 판단기준 선호도 확률분포(θu,m), 사후 응답정확성 확률분포(ηm), 및 아이템간의 점수차(πj(m)-πi(m))가 도출되며, 그 후 예컨대 최소자승법(LSM: Least Square Method)에 의해 각 아이템의 점수(πi(m))를 산출할 수 있다. Meanwhile, when applying the EM algorithm to an embodiment of the present invention, the probability (Pr u) calculation, two items (that is, Equation 8) (i o, j o) aberrations (π j (m) between the i -π (m)) it is used because it is a factor of the exponential function, the EM algorithm does not know the item scores (π i (m)) difference between the direct score value (π j (m) -π i (m)) Only. The posterior criterion preference probability distribution (θ u, m ), the post-response accuracy probability distribution (η m ), and the score difference between items π j (m) - π i (m) are derived by the EM algorithm, For example, the score (? I (m)) of each item can be calculated by the Least Square Method (LSM).

이상과 같이 단계(S110) 내지 단계(S130)를 수행하여 사후 다중랭킹 데이터를 얻을 수 있다. 사후 다중랭킹 데이터중 하나로서 아이템 점수(πi(m))를 얻을 수 있고, 이 아이템 점수에 따른 각 아이템의 판단기준별 랭킹을 사용자에 제공하거나 상위 랭킹 아이템들을 사용자에게 추천하는 등의 용도로 활용할 수 있다. 또한 사후 다중랭킹 데이터의 하나로서 판단기준 선호도 확률분포(θu,m)도 얻어지며, 이 데이터로부터 복수개의 판단기준에 대한 각 사용자의 선호도를 추정하고 이를 활용할 수 있다. As described above, steps S110 to S130 may be performed to obtain post-multiple ranking data. It is possible to obtain the item score (? I (m)) as one of the post-ranking multiple ranking data, to provide the ranking to each user according to the judgment criterion of each item according to the item score, Can be utilized. Also, a determination criterion preference probability distribution ([theta] u, m ) is obtained as one of post-multiple ranking data, and the preference of each user for a plurality of judgment criteria can be estimated from this data and utilized.

또한 위와 같이 다중랭킹 데이터를 산출할 때 잠재 변수로서 su,t와 pu,t도 얻어짐을 알 수 있다. 즉 각각의 쌍별 비교(oi,oj)에 대한 비교 결과마다 전체 판단기준 중 어느 판단기준을 선택했는지 나타내는 램덤 변수(su,t)와 응답자(u)가 쌍별 비교 과정에서 실수가 있었는지를 나타내는 랜덤 변수(pu,t)가 각각 산출되어 각 쌍별 비교 결과에 매칭되어 저장될 수 있다. In addition , it can be seen that s u, t and p u, t are also obtained as potential variables when calculating multiple ranking data as above. That is, the random variable (s u, t ) and the respondent (u) indicating which one of the judgment criteria were selected as the comparison result for each pair comparison (o i , o j ) (P u, t ) may be respectively calculated and stored in a manner that matches the comparison result of each pair.

추가 질의 선정 - 액티브 러닝Additional query selection - Active running

도4를 참조하여 설명하였듯이 질의 선정부(120)는 생성된 다중랭킹 데이터에 기초하여 추가로 질의할 질문들을 선정한다. 질의 선정부(120)는 어떤 질의를 어느 응답자에게 질문하여 이로부터 추가 입력 데이터를 획득하는 것이 가장 효과적인지를 판단하며, 이를 위해, 일 실시예에서 불확실성 샘플링(uncertainty sampling) 방법을 사용할 수 있다. As described with reference to FIG. 4, the query selection unit 120 selects questions to be further inquired based on the generated multiple ranking data. The query selection unit 120 may use a method of uncertainty sampling in one embodiment to determine which query is the most effective to query the respondent and obtain additional input data therefrom.

불확실성 샘플링 방법은 여러 질의들 중에서 기존의 응답 데이터를 기반으로 학습한 시스템이 답변을 예측하기에 가장 불확실성이 높은 질의를 선택하여 이 질의를 추가 질문으로 응답자에게 제시하는 방법이다. 일 실시예에서 질의의 답변에 대한 불확실성은 확률이론에 기초하여 엔트로피를 이용하여 계량화할 수 있다. The uncertainty sampling method is a method in which a learning system based on existing response data among various queries selects a query with the highest uncertainty in predicting an answer and presents the query to the respondent as an additional question. In one embodiment, the uncertainty in answering a query can be quantified using entropy based on probability theory.

일 실시예에서 엔트로피 계산을 위해 다음과 같은 변수를 정의하기로 한다. In one embodiment, the following variables are defined for entropy calculation.

Xu,i,j: 응답자(u)가 아이템(oi)과 아이템(oj) 중 어느쪽으로 답변했는지에 대한 랜덤변수X u, i, j : a random variable of whether respondent u answered item (o i ) or item (o j )

Yu: 응답자(u)의 m번째 판단기준에 대한 선호 순위에 대한 랜덤 변수로서, 1에서 M(판단기준의 개수)까지의 값 중 하나를 갖는다. 예를 들어 Yu=1이라면 이 응답자가 M개의 판단기준들 중 첫번째 판단기준을 선택했음을 의미한다. Y u : random variable for the preference rank for the mth judgment criterion of respondent (u), and has one of the values from 1 to M (the number of judgment criteria). For example, if Y u = 1, this means that the respondent has selected the first of the M decision criteria.

θu,m: 상술한 판단기준 선호로 확률분포, 즉 응답자(u)가 m번째 판단기준을 선택할 확률의 확률분포를 의미하며, "Pr(Yu=m)"으로 표현할 수도 있다. ? u, m : a probability distribution with the above-mentioned criterion of preference, that is, a probability distribution of the probability that the responder (u) selects the mth judgment criterion, and may be expressed as " Pr ( Yu = m) &quot;.

일 실시예에서, 답변에 대한 불확실성을 엔트로피로 표현할 수 있으며, 질문의 엔트로피가 높을수록 불확실성이 높은 질문이므로 엔트로피가 높은 질문을 추가 질문으로 선택하는 것이 바람직하다. In one embodiment, the uncertainty for the answer can be expressed as entropy, and since the higher the entropy of the question is, the higher the uncertainty is, the higher the entropy, the better the question is to choose.

아이템(oi,oj) 쌍이 응답자(u)에 주어졌을 때, Xu,i,j는, 응답자(u)가 아이템(oi)을 더 선호하거나 아이템(oj)을 더 선호한다고 응답할 때의 베르누이 분포(Bernoulli distribution)를 나타내는 사전 랜덤 변수(prior random variable)라고 하고, Yu를 응답자(u)에 의해 선택된 m번째 잠재적 판단기준의 인덱스를 나타내는 범주형 랜덤 변수(categorical random variable)라고 할 경우, Xu,i,j와 Yu의 결합 분포(joint distribution)의 엔트로피는 다음과 같이 계산될 수 있다. Item (o i, o j) when the pair is given to respondents (u), X u, i, j, in response to said responder (u) The item (o i) the preferred or preferred the item (o j) And Y u is a categorical random variable indicating the index of the mth potential decision criterion selected by the responder (u), and is called a prior random variable representing the Bernoulli distribution at time t , , The entropy of the joint distribution of X u, i, j and Y u can be calculated as:

Figure 112016129251269-pat00036
Figure 112016129251269-pat00036

위 수학식10에서 우변 수식의 첫번째 항에서 H[Xu,i,j|Yu=m]는, 응답자(u)가 m번째 판단기준을 선택한 후 이 판단기준에 기초하여 두 아이템(oi, oj)을 비교하여 답을 할 때의 조건부 엔트로피이다. In the above equation (10) in the first term of the right side of the formula H [X u, i, j | Y u = m] is, the responder (u) is based on the criterion to select the m-th criteria two items (o i , o j ) is the conditional entropy of the answer.

조건부 엔트로피 H[Xu,i,j|Yu=m]를 계산하기 위해, Xi,j의 분포를 정의할 필요가 있다.

Figure 112016129251269-pat00037
를 응답자(u)가 m번째 판단기준에 따라 (oi<oj)라고 판단할 확률이라고 하면, 지금까지 수집된 쌍별 비교 결과들에 기초한
Figure 112016129251269-pat00038
의 베르누이 분산의 불편 추정량(unbiased estimation)은 다음과 같이 정의될 수 있다. To compute the conditional entropy H [X u, i, j | Y u = m], it is necessary to define the distribution of X i, j .
Figure 112016129251269-pat00037
A responder (u) according to the m-th criteria Speaking (o i <o j) determining said probability, based on the comparison result ssangbyeol collected so far
Figure 112016129251269-pat00038
Can be defined as follows: &lt; EMI ID = 1.0 &gt;

Figure 112016129251269-pat00039
Figure 112016129251269-pat00039

위 식에서

Figure 112016129251269-pat00040
는 m번째 판단기준에 기초하여 응답자들이 (oi<oj)라고 쌍별 비교를 한 횟수를 나타내는 "사전 믿음"(prior belief)이다. 사전 믿음은 베르누이 분포의 불확실성을 측정할 수 있다. 베르누이 분포의 불확실성을 계산하기 위해, 베타 분포
Figure 112016129251269-pat00041
및 균등 분포 Beta(1,1) 사이의 쿨백-라이블러(KL) 분산(Kullback-Leibler divergence)이 사용될 수 있으며, 이 KL 분산은 또한 미분 엔트로피(differential entropy)라고 칭하기도 한다. 예를 들어, Beta(1,1), Beta(8,2), Beta(40,10), 및 Beta(80,20) 분포의 미분 엔트로피는 각각 0, -0.79, -1.48, 및 -1.81 이다. 엔트로피가 더 작을수록 불확실성이 작음을 의미한다. In the above equation
Figure 112016129251269-pat00040
Is subject to the respondents (o i <o j) is called "pre-faith" (prior belief) that indicates the number of times the comparison ssangbyeol based on the m-th criteria. Pre-belief can measure the uncertainty of Bernoulli's distribution. To calculate the uncertainty of the Bernoulli distribution, the beta distribution
Figure 112016129251269-pat00041
And a Kullback-Leibler divergence between equidistant Beta (1,1) may be used, which is also referred to as differential entropy. For example, the differential entropy of the Beta (1,1), Beta (8,2), Beta (40,10), and Beta (80,20) distributions is 0, -0.79, -1.48, and -1.81, respectively . The smaller the entropy, the smaller the uncertainty.

각 응답자가 동일한 질의에 반복해서 응답하지 않기 때문에, 응답자(u)에 대해, 이 응답자(u)가 응답한 쌍별 비교 결과의 횟수를 수학식 11의 사전 믿음(prior belief)으로 설정하기에는 문제가 있다. 따라서, 일 실시예에서, 잠재적 판단기준에 따라 유사한 선호도를 갖는 다른 응답자가 답한 쌍별 비교를 이용하는 것이 바람직할 수 있다. 즉, 만일 응답자(u)의 선호도 벡터(

Figure 112016129251269-pat00042
)와 유사한 선호도 (
Figure 112016129251269-pat00043
)를 갖는 다른 응답자(v)가 (oi<oj)라고 답한 경우, 이것은 수학식 10에서의 미분 엔트로피 H[Xu,i,j|Yu=m]를 증가시킨다. 따라서 아이템(oi, oj)에 대해, 사전 믿음(
Figure 112016129251269-pat00044
)은 다음과 같이 계산될 수 있다. Since each responder does not repeatedly respond to the same query, there is a problem with respect to responder (u) that the number of the results of pairwise comparison that responder (u) responded to is set as the prior belief of Equation (11) . Thus, in one embodiment, it may be desirable to use pairwise comparisons that other respondents with similar preferences answer based on potential criteria. That is, if the preference vector of the responder (u)
Figure 112016129251269-pat00042
) And similar preference (
Figure 112016129251269-pat00043
If) answered by another responder (v) (o i <o j) having, this differential entropy H in Equation 10 | increases the [X u, i, j Y u = m]. Thus, for item (o i , o j )
Figure 112016129251269-pat00044
) Can be calculated as follows.

Figure 112016129251269-pat00045
Figure 112016129251269-pat00045

위 식에서

Figure 112016129251269-pat00046
는 모든 사용자에 대해 m번째 판단기준에 따라 아이템(oi)을 아이템(oj) 보다 선호한다고 대답한 횟수를 의미하며,
Figure 112016129251269-pat00047
는 사용자(v)가 m번째 판단기준에 따라 아이템(oi)을 아이템(oj) 보다 선호한다고 대답한 횟수의 기대값이다. In the above equation
Figure 112016129251269-pat00046
Means the number of times the item (o i ) is answered to be preferred to the item (o j ) according to the mth judgment criterion for all users,
Figure 112016129251269-pat00047
Is an expected value of the number of times that the user v has answered that the item (o i ) is preferred to the item (o j ) according to the mth judgment criterion.

위 식에 따르면,

Figure 112016129251269-pat00048
는, 응답자가 임의의 판단기준을 선택할 확률의 확률분포(θu,m)와 응답자가 그 판단기준에 따라 아이템(oi)을 아이템(oj) 보다 선호한다고 대답한 횟수의 기대값의 곱을 모든 응답자에 대해 더함으로써 계산할 수 있다. According to the above equation,
Figure 112016129251269-pat00048
, The probability distribution of the probability of respondents to select any criterion (θ u, m) and respondents item according to the criteria (o i) an item (o j) than the product of the expected value of the number of times indicated you prefer It can be calculated by adding for all respondents.

수학식5를 참조하여 설명한 브래들리-테리 모델을 사용하면, 일 실시예에서

Figure 112016129251269-pat00049
는 다음과 같이 계산될 수 있다. Using the Bradley-Terry model described with reference to equation (5), in one embodiment
Figure 112016129251269-pat00049
Can be calculated as follows.

Figure 112016129251269-pat00050
Figure 112016129251269-pat00050

위 식에서, I(condition)은 1 또는 0의 값을 갖는 함수로서, 주어진 조건("condition")을 만족하면 1이고 만족하지 않으면 0의 값을 가진다. 예를 들어 두 개의 아이템(oi, oj)에 대한 쌍별 비교 결과가 있는 경우, 제1 아이템(oi)을 제2 아이템(oj) 보다 선호한다는 대답이 있다면

Figure 112016129251269-pat00051
는 1이고
Figure 112016129251269-pat00052
는 0이며, 제2 아이템(oj)을 제1 아이템(oi) 보다 선호한다는 대답이 있었다면 그 반대의 값을 각각 가진다. In this equation, I (condition) is a function with a value of 1 or 0 and has a value of 1 if it satisfies a given condition ("condition") or a value of 0 otherwise. For example, if there is a result of pairwise comparison of two items (o i , o j ) and there is an answer that the first item o i prefers the second item o j
Figure 112016129251269-pat00051
Is 1
Figure 112016129251269-pat00052
Has a value of 0, and has the opposite value if there is an answer that the second item o j is preferred to the first item o i .

대답의 기반이 된 판단기준이 m번째 판단기준이라는 조건이 주어졌을 때 조건부 엔트로피

Figure 112016129251269-pat00053
는 따라서 다음과 같이 계산할 수 있다.Given the condition that the criterion on which the answer is based is the mth criterion, the conditional entropy
Figure 112016129251269-pat00053
Can be calculated as follows.

Figure 112016129251269-pat00054
Figure 112016129251269-pat00054

수학식 13을 이용하여 수학식 12를 계산하고, 수학식 12의 값을 수학식 14에 적용하면 조건부 엔트로피

Figure 112016129251269-pat00055
를 구할 수 있고, 이 값을 수학식 10에 대입하여 엔트로피 H(Xu,i,j,Yu)를 구할 수 있다. By using Equation (13) to calculate Equation (12) and applying Equation (12) to Equation (14), conditional entropy
Figure 112016129251269-pat00055
And the entropy H (X u, i, j , Y u ) can be obtained by substituting this value into the equation (10).

이 때 상기 엔트로피를 모든 사람과 모든 아이템 쌍의 조합에 대해 전부 계산한다. 즉 모든 응답자와 모든 판단기준에 대해, 응답자가 어느 아이템을 선호하는지에 대한 랜덤 변수(Xu,i,j) 및 응답자의 판단기준에 대한 선호 순위에 대한 랜덤 변수(Yu)의 결합 분포(joint distribution)의 엔트로피를 각각 계산하는 단계를 수행하고, 그 후 엔트로피 값이 가장 높은 소정 개수의 질의를 추가 질의로서 선택할 수 있다. At this time, the entropy is calculated for all combinations of all persons and all item pairs. (X u, i, j ) for which respondents prefer items and a combined distribution of random variables (Y u ) for preference ranks for respondents' criteria (for all respondents and all judgment criteria) joint distribution), and then a predetermined number of queries with the highest entropy value can be selected as an additional query.

추가 질의를 선택할 때, 예를 들어 총 100개의 질문을 할 때 100개의 질문을 한 응답자에게 질문할 수도 있고 10명의 응답자에게 10개씩 질문할 수도 있을 것이다. 본 발명의 일 실시예에서는 아래의 세 단계를 수행하여 질문과 응답자를 선택한다. When choosing an additional query, for example, a total of 100 questions, you could ask 100 respondents for a question or 10 questions for 10 respondents. In one embodiment of the present invention, the following three steps are performed to select questions and respondents.

처음 단계로서, 각 응답자에 대해, 요청할 질의의 후보를 엔트로피 값이 큰 순서대로 소정 개수씩 선택한다. 예를 들어, 각 응답자에 대해 요청할 질문의 후보를

Figure 112016129251269-pat00056
가 큰 순서대로 소정 개수 선택한다. 즉 각 사람마다, 엔트로피가 큰 차례대로 소정 개수의 질문을 선택하며, 이 때 소정 개수는 미리 설정된 값일 수 있다. 이 단계에서, 각 사람마다 이 소정 개수씩의 질문을 부여받지만 질문 내용을 각기 다를 것이다. As a first step, candidates for a query to be requested are selected for each responder in descending order of the entropy value. For example, a candidate for a question to ask for each respondent
Figure 112016129251269-pat00056
Are selected in ascending order. That is, for each person, a predetermined number of questions are selected in descending order of entropy, and the predetermined number may be a preset value. At this stage, each person will be given a certain number of questions, but the contents of the questions will be different.

그 다음으로, 각 응답자마다 상기 소정 개수의 질의에 대한 엔트로피 값을 더하여 엔트로피 합산값을 산출한다. 즉 각 응답자에 대해 이들이 각각 부여받은 소정 개수의 질문에 대한 엔트로피 값을 모두 더하여 각 응답자마다 엔트로피 합산값을 하나씩 산출한다. Next, entropy values for the predetermined number of queries are added to each responder to calculate an entropy sum value. That is, all the entropy values of the predetermined number of questions given to the respective respondents are all added, and one entropy sum value is calculated for each responder.

그 후 상기 엔트로피 합산값이 큰 순서대로 소정 인원수의 응답자를 선택한다. 즉 위의 두번째 단계에서 각 응답자마다 엔트로피 합산값이 도출되었으므로, 이 엔트로피 합산값이 큰 순서대로 소정 인원수의 응답자를 선택한다. 이 때 소정 인원수는 미리 설정된 값일 수 있다. And then selects a predetermined number of respondents in descending order of the entropy sum value. In other words, since the entropy sum value is derived for each responder in the second step, a predetermined number of respondents are selected in descending order of the entropy sum value. At this time, the predetermined number of people may be a predetermined value.

추가 입력 데이터를 반영한 With additional input data 다중랭킹Multiple ranking 데이터의  Of data 업데이트update

상술한 바와 같이 소정 인원수의 응답자에게 각각 소정 개수의 질문을 하여 수집한 쌍별 비교 데이터를 "추가 입력 데이터"라고 칭하기로 한다. As described above, the pair comparison data collected by a predetermined number of questions to a predetermined number of respondents is called " additional input data ".

추가 입력 데이터를 수집하면, 기존에 수집했던 입력 데이터("기존 입력 데이터")와 추가 입력 데이터를 함께 고려하여 다중랭킹 데이터, 즉 업데이트된 판단기준 선호도 확률분포(θu,m), 아이템 점수(πi(m)), 및 응답정확성 확률분포(ηm)를 업데이트한다. When the additional input data is collected, the multi-ranking data, that is, the updated decision criterion preference probability distribution (? U, m ), the item score (? It updates the π i (m)), and response accuracy probability distribution (η m).

일 실시예에서, 다중랭킹 데이터의 업데이트를 위한 방법으로 점증적 깁스 샘플링(Incremental Gibbs sampling) 알고리즘을 사용할 수 있다. In one embodiment, an Incremental Gibbs sampling algorithm may be used as a method for updating multiple ranking data.

이 알고리즘에 의하면, 응답자(u)가 응답한 k개의 쌍별 비교 결과가 추가 입력 데이터로서 수집되면, (oi<oj)t ∈ Cu에 대해(즉, 응답자(u)에 대해 지금까지 수집된 모든 쌍별 비교 집합(Cu) 내의 각각의 쌍별 비교에 대해) 랜덤 변수인 su,t와 pu,t를 다시 샘플링하고, 그 후 추가 입력 데이터의 각각의 새로운 쌍별 비교에 대해서도 랜덤 변수 su,t와 pu,t의 샘플들을 생성한다. According to this algorithm, when k pairs of comparison results of responders (u) are collected as additional input data, (o i <o j ) t ∈ C u (ie, For each pairwise comparison in a pairwise comparison set (C u )), the random variables s u, t and p u, t are sampled again, and then for each new pairwise comparison of the additional input data the random variable s u, t and p u, t .

이제 nu,m ,ㆍ를 m번째 판단기준에 따라 응답자(u)가 응답한 쌍별 비교의 개수라 하고, nㆍ, m,ℓ를 모든 응답자들에 의해 m번째 판단기준에 기초하여 올바르게(즉, ℓ = 1) 또는 틀리게 (즉, ℓ = 0) 응답한 쌍별 비교의 개수라고 정의한다. 그러면 (oi<oj)t ∈ Cu에 대해 사용된 랜덤 변수 su,t의 인덱스는 다음과 같이 샘플링될 수 있다. Let n u, m , 를 be the number of pairwise comparisons of responders (u) answered according to the mth judgment criterion, and let n , m, , l = 1) or wrongly (i.e., l = 0). Then the index of the random variable s u, t used for (o i <o j ) t ∈ C u can be sampled as follows.

Figure 112016129251269-pat00057
Figure 112016129251269-pat00057

위 식에서 s( u,t )는 전체 su,t 중에서 임의의 특정 응답자(u)의 특정 t번째 판단기준을 제외한 랜덤 변수의 세트, 즉

Figure 112016129251269-pat00058
의 세트를 나타내며,
Figure 112016129251269-pat00059
는 m번째 판단기준에 따라 제1 아이템(oi)을 제2 아이템(oj) 보다 선호할 확률로서 브래들리-테리 확률을 나타낸다고 가정한다. 또한 n-( Su,t )는 전체 쌍별 비교의 개수들(예컨대 nu,m ,ㆍ 또는 nㆍ, m,ℓ) 중 t번째 쌍별 비교를 제외한 개수를 의미한다. In the above equation, s ( u, t ) is a set of random variables excluding the specific t-th judgment criterion of any particular responder (u) among all s u, t
Figure 112016129251269-pat00058
&Lt; / RTI &gt;
Figure 112016129251269-pat00059
Bradley is a probability of a first preferred to item (i o) of the second item (o j) in accordance with the m-th criteria - is assumed to represent Terry probability. Also, n - ( Su, t ) means the number of comparisons among all pairs (for example, nu , m , ㆍ or n ㆍ, m, ℓ ) excluding the t-th pair comparison.

한편 위와 유사하게, (oi<oj)t ∈ Cu의 쌍별 비교가 올바르게 응답되었는지를 나타내는 랜덤 변수 pu,t는 아래와 같이 샘플링될 수 있다. Similarly, a random variable p u, t, which indicates whether the pairwise comparisons of (o i <o j ) t ∈ C u have been correctly answered , can be sampled as follows.

Figure 112016129251269-pat00060
Figure 112016129251269-pat00060

도7은 이러한 점증적 깁스 샘플링 알고리즘에 대한 의사코드(pseudo-code)를 나타낸다. 추가 입력 데이터의 새로운 쌍별 비교들에 대해 의사코드에 따른 깁스 샘플링을 수행한 후, 최소자승법을 이용하고 또한 아래와 같이 제1 아이템을 선호할 확률을 사전 믿음으로부터 획득한 기대값과 동일하게 설정함으로써 아이템 점수

Figure 112016129251269-pat00061
를 계산할 수 있다. Figure 7 shows the pseudo-code for this incremental Gibbs sampling algorithm. By performing the Gibbs sampling according to the pseudo code for new pairwise comparisons of additional input data and setting the probability that the first item is preferred to be equal to the expected value obtained from the prior belief by using the least square method, score
Figure 112016129251269-pat00061
Can be calculated.

Figure 112016129251269-pat00062
Figure 112016129251269-pat00062

위 식에서 cm,(i,j)는 m번째 판단기준에 기초해서 제1 아이템을 선호한다고 판단한(즉, (oioj)인) 횟수를 나타내는 사전 믿음(prior belief)이다. 또한 Mm,(i,j)는 아래 수식에서 정의하는 바와 같이 두 아이템 간의 점수 차이를 나타낸다. In the above equation, c m, (i, j) is a prior belief indicating the number of times that it is determined to prefer the first item (i.e., (o i o j )) based on the mth determination criterion. Also, M m, (i, j) represents the score difference between two items as defined in the following equation.

Figure 112016129251269-pat00063
Figure 112016129251269-pat00063

수학식 17에서 좌변에 Mm,(i,j)만 남도록 수식을 변환하면 아래와 같은 수학식이 얻어지며, 이 수학식에 최소자승법을 적용하면 아이템 점수

Figure 112016129251269-pat00064
를 얻을 수 있다. If the equation is transformed such that only M m, (i, j) is left on the left side of the equation (17 ), the following equation is obtained. If the least squares method is applied to this equation,
Figure 112016129251269-pat00064
Can be obtained.

Figure 112016129251269-pat00065
Figure 112016129251269-pat00065

이상과 같이 본 발명에 따른 다중랭킹 데이터 업데이트 방법에 의하면, 추가 입력 데이터와 기존 입력 데이터를 함께 고려하여 각 쌍별 비교마다 새로운 랜덤 변수 su,t 및 pu,t를 구하고, 이에 기초하여 새로운 아이템 점수

Figure 112016129251269-pat00066
도 구할 수 있다. 또한 이 때 랜덤 변수 su,t는 판단기준 선호로 확률분포(θu,m)와 관련된 변수이고 랜던 변수 pu,t는 응답정확성 확률분포(ηm)에 관련된 변수이므로, 결과적으로 업데이트된 판단기준 선호도 확률분포(θu,m), 아이템 점수(πi(m)), 및 응답정확성 확률분포(ηm)를 얻을 수 있다. As described above, according to the multi-ranking data updating method of the present invention, new random variables s u, t and p u, t are calculated for each pairwise comparison by considering additional input data and existing input data, score
Figure 112016129251269-pat00066
Can be obtained. In this case, the random variable s u, t is a variable related to the probability distribution (θ u, m ) in preference to the determination criterion and the random variable p u, t is a variable related to the response accuracy probability distribution (η m ) (Θ u, m ), item score (π i (m)), and response accuracy probability distribution (η m ).

실험 결과Experiment result

도8은 일 실시예에 따른 다중랭킹 추정 방법의 실험 결과를 설명하기 위한 도면이다. FIG. 8 is a diagram for explaining experimental results of a multiple rank estimation method according to an embodiment.

일 실시예에 따른 실험에서 합성 데이터와 실생활 데이터 두 가지에 대해서 실험을 수행하였다. 합성 데이터는 상술한 본 발명의 확률 모델을 그대로 수행하여 응답정확성 확률분포(ηm) 및 판단기준 선호도 확률분포(θu,m)를 생성하였다. 각 아이템의 판단기준별 점수(πi(m))는 0과 10 사이의 실수 중 임의로 선택하였고, 쌍별 비교의 결과 역시 생성 모델을 이용하여 생성하였다. In an experiment according to an embodiment, experiments were conducted on both synthetic data and real life data. The composite data is generated by generating a response probability distribution (? M ) and a decision criterion probability distribution (? U, m ) by performing the probability model of the present invention as it is. The score (π i (m)) for each item was selected randomly between 0 and 10, and the result of pairwise comparison was also generated using the generation model.

실생활 데이터는 각 사람들이 영화에 매긴 평점을 모아놓은 MovieLens-100k 데이터를 이용하였다. 각 사람이 평점을 매긴 모든 영화의 쌍을 생성하여, 만약 해당 사람이 매긴 두 영화의 평점이 다르다면 그 평점을 반영하여 더 높은 점수를 가진 영화가 그렇지 않은 영화에 비해 우선순위에 앞선다는 쌍별 비교의 결과를 내보낸다. The real-life data used MovieLens-100k data, which is a collection of ratings of each person's movies. A pair of all movies rated by each person is created so that if the ratings of the two movies are different, then the movie with the higher score will be prioritized The result of

실험 결과를 평가할 척도로는 켄달의 등위상관계수(Kendall's tau)를 사용하였다. 이 값은 -1~1의 값을 가지며, 1에 가까울수록 실제 랭킹 순위를 잘 반영하고 -1에 가까울수록 실제 랭킹순위를 반대로 반영하게 된다. Kendall's tau was used as a measure to evaluate the experimental results. This value has a value of -1 to 1, and the closer to 1, reflects the actual ranking ranking well, and the closer to -1, the more the actual ranking ranking is reflected.

도8을 참조하면 X축은 쌍별 비교의 횟수이고, Y축은 Kendall's tau 값이다. 도8의 3개의 그래프 중 "CrowdRank-ACT"는 본 발명에 따라 점증적 깁스 샘플링에 의해 다중랭킹 데이터를 업데이트하는 경우의 결과값이고 "CrowdRank-RND"는 종래 방식에 따라 랜덤하게 응답자와 질문을 선택해서 추가 입력 데이터를 수집하는 경우의 결과이다. 또한 "CrowdBT-ACT"는 단일 랭킹 알고리즘에 대해 액티브 러닝 방식을 적용한 경우의 결과이다. Referring to FIG. 8, the X axis is the number of pairs of comparisons, and the Y axis is the Kendall's tau value. CrowdRank-ACT " among the three graphs in FIG. 8 is a result value when updating multiple ranking data by incremental Gibbs sampling according to the present invention, and " CrowdRank-RND " And collecting additional input data. Also, "CrowdBT-ACT" is a result of applying the active running method to the single ranking algorithm.

도면의 그래프를 보면, 처음의 대략 5000개 쌍별 비교 질문을 했을 때까지는 세 가지 방식이 비슷한 성능을 나타내고 있지만 질문의 개수가 점점 증가할수록 본 발명에 따른 방식의 정확도가 점점 높아지고, 20000개 질문을 했을 때 0.87까지 향상되었음을 알 수 있다. As can be seen from the graphs of the drawings, the three methods show similar performance until about the first 5000 comparison questions. However, as the number of questions increases, the accuracy of the method according to the present invention increases gradually, It can be seen that it is improved to 0.87.

도9는 일 실시예에 따른 다중랭킹 추정 방법을 구현하는 예시적인 장치 구성을 설명하기 위한 블록도이다. FIG. 9 is a block diagram illustrating an exemplary apparatus configuration for implementing a multiple rank estimation method according to an embodiment.

도9를 참조하면 일 실시예에 따른 다중랭킹 추정 방법을 구현하는 장치는 서버(30), 입력데이터 DB(50), 및 다중랭킹 데이터 DB(60)를 포함할 수 있고, 네트워크(20)를 통해 다수의 사용자 단말기(10)와 통신하도록 연결될 수 있다. 9, an apparatus for implementing a multiple rank estimation method according to an embodiment may include a server 30, an input data DB 50, and a multiple ranking data DB 60, To communicate with a plurality of user terminals 10 via a network.

사용자 단말기(10)는 예를 들어 스마트폰, 태블릿 PC, 노트북 컴퓨터 등의 휴대용 모바일 단말기 또는 데스크탑 컴퓨터와 같은 비-휴대용 단말기일 수 있다. The user terminal 10 may be, for example, a portable mobile terminal such as a smart phone, a tablet PC, a notebook computer, or a non-portable terminal such as a desktop computer.

네트워크(20)는 휴대용 단말기(10)와 서버(30) 사이에 데이터 송수신 경로를 제공하는 임의의 형태의 유선 및/또는 무선 네트워크로서, LAN, WAN, 인터넷망, 및/또는 이동통신망 중 하나를 포함할 수 있다. The network 20 is any type of wired and / or wireless network that provides a data transmission / reception path between the portable terminal 10 and the server 30 and may be a LAN, a WAN, an Internet network, and / .

서버(30)는 다중랭킹 추정 방법에 의해 추출된 다중랭킹 데이터를 사용자 단말기(10)에 제공하는 서비스 서버로서 임의의 컴퓨팅 장치일 수 있고, 일 실시예에서, 상술한 다중랭킹 추정 방법을 수행할 수 있는 다중랭킹 학습 알고리즘(100)은 예를 들어 도4를 참조하여 설명한 다중랭킹 데이터 산출부(110), 질의 선정부(120), 및 업데이트부(130)를 포함할 수 있으며, 이들 구성요소들(110,120,130)은 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 서버(30)는 프로세서, 메모리, 저장부, 통신부 등으로 구성될 수 있고, 다중랭킹 학습 알고리즘(100)이 저장부에 저장되어 있다가 프로세서의 제어 하에 메모리에 로딩되어 실행될 수 있다. The server 30 may be any computing device as a service server that provides the multi-ranking data extracted by the multi-rank estimation method to the user terminal 10, and in one embodiment, performs the multi-ranking estimation method The multi-rank learning algorithm 100, which may be a multi-rank learning algorithm, may include, for example, the multiple ranking data calculation unit 110, the query selection unit 120, and the update unit 130 described with reference to FIG. 4, 120, and 130 may be implemented in software and / or hardware. The server 30 may include a processor, a memory, a storage unit, a communication unit, and the like. The multi-rank learning algorithm 100 may be stored in a storage unit and loaded into a memory under the control of the processor.

도시된 실시예에서 서버(30)는 입력데이터 DB(50)와 다중랭킹 데이터 DB(60)와 통신가능하게 연결된다. 대안적인 실시예에서 서버(30)가 입력데이터 DB(50)와 다중랭킹 데이터 DB(60) 중 적어도 하나를 포함할 수도 있다. 입력데이터 DB(50)는 다중랭킹 데이터 DB의 생성을 위해 필요한 입력데이터(예컨대, 상술한 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합 등)를 저장할 수 있고, 다중랭킹 데이터 DB(60)는 학습 알고리즘(40)에 입력되기 전의 사전 다중랭킹 데이터 및/또는 학습 알고리즘(100)을 수행한 후 생성된 사후 다중랭킹 데이터를 저장할 수 있다. 또한 도면에 도시하지 않았지만 예컨대 질의 내용이 저장된 질의 데이터베이스(DB)를 더 포함할 수 있고, 질의 선정부(120)가 질의 DB로부터 추가 질문할 질의들을 선택할 수 있다. 그 외에도 응답자 데이터베이스, 통계 데이터베이스 등 다양한 정보를 저장하는 데이터베이스가 추가로 존재할 수 있고, 이러한 데이터베이스가 도시한 입력데이터 DB(50) 또는 다중랭킹 데이터 DB(60) 내에 포함되어 있을 수도 있다. In the illustrated embodiment, the server 30 is communicatively coupled with the input data DB 50 and the multiple ranking data DB 60. In an alternate embodiment, the server 30 may include at least one of an input data DB 50 and a multi-ranking data DB 60. The input data DB 50 includes input data (for example, a set of a plurality of responders, a set of a plurality of items, and a set of a plurality of pairs of comparison data for a plurality of items) necessary for generating the multiple ranking data DB, And the multi-ranking data DB 60 may store pre-multi-ranking data before being input to the learning algorithm 40 and / or post-multi-ranking data generated after the learning algorithm 100 is performed. The query selecting unit 120 may further include a query database (DB) not shown in the figure, for example, in which query contents are stored, and the query selecting unit 120 may select queries to be further inquired from the query DB. In addition, a database for storing various information such as a responder database and a statistical database may be additionally provided, and these databases may be included in the input data DB 50 or the multiple ranking data DB 60 shown in the figure.

상기와 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되지 않는다. 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 상술한 기재로부터 다양한 수정 및 변형이 가능함을 이해할 것이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다. As described above, although the present invention has been described with reference to the limited embodiments and drawings, the present invention is not limited to the above embodiments. It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention as defined by the appended claims. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

10: 사용자 단말기
20: 네트워크
30: 서버
50: 입력데이터 DB
60: 다중랭킹 데이터 DB
100: 다중랭킹 학습 알고리즘
10: User terminal
20: Network
30: Server
50: input data DB
60: Multiple Ranking Data DB
100: Multiple Ranking Learning Algorithm

Claims (11)

컴퓨팅 장치를 사용하여 쌍별 비교 데이터에 기초한 다중랭킹을 추정하는 방법으로서,
상기 컴퓨팅 장치가 쌍별 비교 데이터에 관한 정보를 제1 입력데이터로서 입력받는 단계;
상기 컴퓨팅 장치가 상기 입력데이터에 기초하여 다중랭킹 데이터를 산출하는 단계;
상기 컴퓨팅 장치가 산출된 상기 다중랭킹 데이터에 기초하여 추가 질의를 선택하는 단계;
상기 컴퓨팅 장치가 상기 추가 질의에 대한 쌍별 비교 데이터에 관한 제2 입력데이터를 수신하는 단계; 및
상기 컴퓨팅 장치가 상기 제1 및 제2 입력데이터에 기초하여 상기 다중랭킹 데이터를 업데이트하는 단계;를 포함하고,
상기 제1 및 제2 입력데이터 중 적어도 하나는, 복수의 응답자의 집합, 복수개의 아이템의 집합, 및 복수개의 아이템에 대한 복수개의 쌍별 비교 데이터의 집합을 포함하고,
상기 복수개의 쌍별 비교 데이터의 각각의 쌍별 비교 데이터는, 복수개의 판단기준 중 하나의 판단기준에 따라 두 개의 아이템 간의 선호도를 판단한 데이터이고,
상기 다중랭킹 데이터를 업데이트하는 단계는,
상기 컴퓨팅 장치가, 점증적 깁스 샘플링 알고리즘에 기초하여, 전체 판단기준 중 어느 판단기준을 선택했는지 나타내는 랜덤 변수(su,t) 및 응답자(u)가 쌍별 비교 과정에서 실수가 있었는지를 나타내는 랜덤 변수(pu,t)를 샘플링하는 단계; 및
상기 컴퓨팅 장치가, 임의의 판단기준에 따라 상기 복수개의 아이템 중 제1 아이템을 제2 아이템 보다 선호하는 비교결과의 확률과 사전 믿음으로부터 획득한 기대값을 동일하게 설정함으로써 아이템 점수
Figure 112018048825808-pat00080
를 산출하는 단계;를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
A method of estimating multiple rankings based on pairwise comparison data using a computing device,
The computing device receiving information on the pair comparison data as first input data;
The computing device calculating multiple ranking data based on the input data;
The computing device selecting an additional query based on the calculated multiple ranking data;
The computing device receiving second input data relating to pairwise comparison data for the additional query; And
The computing device updating the multi-ranking data based on the first and second input data,
Wherein at least one of the first and second input data includes a set of a plurality of responders, a set of a plurality of items, and a set of a plurality of pairs of comparison data for a plurality of items,
Wherein each pair of comparison data of the plurality of pairs of comparison data is data for determining a degree of preference between two items according to one of the plurality of determination criteria,
Wherein updating the multi-ranking data comprises:
(S u, t ) indicating which decision criterion has been selected among all decision criteria and a random variable (s u, t ) indicating whether the respondent (u) has a mistake in the pair comparison process, based on the incremental Gibbs sampling algorithm Sampling a variable (p u, t ); And
Wherein the computing device is configured to set a probability of a comparison result in which a first item among the plurality of items is preferred to a second item and an expected value obtained from a pre-trust to be equal,
Figure 112018048825808-pat00080
Calculating a plurality of ranking estimates for each of the plurality of rankings.
제 1 항에 있어서, 상기 다중랭킹 데이터는,
응답자가 임의의 판단기준을 선택할 확률의 확률분포인 판단기준 선호도 확률분포(θu,m);
판단기준마다 각 아이템에 부여된 점수인 아이템 점수(πi(m)); 및
판단기준마다 응답자가 정확히 응답하였을 확률의 확률분포인 응답정확성 확률분포(ηm);를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
2. The method of claim 1, wherein the multi-
A decision criterion preference probability distribution (? U, m ) which is a probability distribution of probability that a respondent selects an arbitrary criterion;
Item score (π i (m)), which is the score assigned to each item per judgment criterion; And
And a response accuracy probability distribution (? M ), which is a probability distribution of the probability that the responder correctly answered every judgment criterion.
제 2 항에 있어서, 상기 다중랭킹 데이터를 산출하는 단계는,
상기 입력데이터, 제1 다중랭킹 데이터에 기초하여, 임의의 두 개의 아이템에 대한 쌍별 비교결과의 확률(Pr)을 계산하는 단계(S110);
상기 계산된 확률(Pr)에 기초하여 우도 함수를 산출하는 단계(S120); 및
상기 우도 함수를 최대화하는 제2 다중랭킹 데이터를 산출하는 단계(S130);를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
3. The method of claim 2, wherein the calculating multi-
Calculating (S110) a probability Pr of pairwise comparison results for any two items based on the input data, the first multiple ranking data;
Calculating a likelihood function based on the calculated probability Pr (S120); And
And calculating second multi-ranking data for maximizing the likelihood function (S130).
제 3 항에 있어서,
상기 제1 다중랭킹 데이터는, 사전(prior) 판단기준 선호도 확률분포, 사전 아이템 점수, 및 사전 응답정확성 확률분포를 포함하고,
상기 제2 다중랭킹 데이터는, 사후(posterior) 판단기준 선호도 확률분포, 사후 아이템 점수, 및 사후 응답정확성 확률분포를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
The method of claim 3,
Wherein the first multiple ranking data includes a prior decision likelihood probability distribution, a dictionary item score, and a prior response correctness probability distribution,
Wherein the second multi-ranking data includes a posterior criterion preference probability distribution, a post item score, and a post-response accuracy probability distribution.
제 4 항에 있어서,
상기 쌍별 비교결과의 확률(Pr)은, 제1 아이템을 제2 아이템보다 선호하는 비교결과의 확률이고,
상기 쌍별 비교결과의 확률(Pr)은, 각 판단기준에 대해,
응답자가 정확히 응답하였을 때의 제1 아이템을 제2 아이템보다 선호하는 비교결과의 확률; 및
응답자가 틀리게 응답하였을 때의 제2 아이템을 제1 아이템보다 선호하는 비교결과의 확률;을 합한 확률에 비례하는 것을 특징으로 하는 다중랭킹 추정 방법.
5. The method of claim 4,
The probability Pr of the result of the pair comparison is a probability of a comparison result in which the first item is preferred to the second item,
The probability (Pr) of the result of the pair comparison is, for each determination criterion,
A probability of a comparison result in which the first item is more favored than the second item when the respondent correctly answered; And
And a probability of a comparison result in which the second item is more favorable than the first item when the respondent responds incorrectly.
제 3 항에 있어서, 상기 우도 함수를 최대화하는 제2 다중랭킹 데이터를 산출하는 단계는,
기대값 최대화 알고리즘에 의해, 사후 판단기준 선호도 확률분포, 사후 응답정확성 확률분포, 및 제1 아이템과 제2 아이템 각각의 사후 아이템 점수간의 점수 차이를 산출하는 단계; 및
최소자승법에 의해, 각 아이템의 사후 점수를 산출하는 단계;를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
4. The method according to claim 3, wherein the step of calculating second multiple ranking data for maximizing the likelihood function comprises:
Calculating a score difference between a posterior criterion preference probability distribution, a postresponse correctness probability distribution, and a post item score of each of the first item and the second item, by an expected value maximization algorithm; And
And calculating a post-score of each item by a least squares method.
제 1 항에 있어서,
산출된 상기 다중랭킹 데이터에 기초하여 추가 질의를 선택하는 단계는,
모든 응답자와 모든 판단기준에 대해, 응답자가 어느 아이템을 선호하는지에 대한 랜덤 변수(Xu,i,j) 및 응답자의 판단기준에 대한 선호 순위에 대한 랜덤 변수(Yu)의 결합 분포(joint distribution)의 엔트로피를 각각 계산하는 단계; 및
엔트로피 값이 가장 높은 소정 개수의 질의를 추가 질의로서 선택하는 단계;를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
The method according to claim 1,
Wherein the step of selecting an additional query based on the calculated multiple ranking data comprises:
For all respondents and all decision criteria, a random variable (X u, i, j ) for which item the responder prefers and a random variable (Y u ) for the preference rank for the responder's criteria calculating the entropy of each distribution; And
And selecting a predetermined number of queries having the highest entropy value as an additional query.
제 7 항에 있어서,
상기 소정 개수의 질의를 추가 질의로서 선택하는 단계는,
각 응답자에 대해, 요청할 질의의 후보를 상기 엔트로피 값이 큰 순서대로 소정 개수씩 선택하는 단계;
각 응답자마다 상기 소정 개수의 질의에 대한 엔트로피 값을 더하여 엔트로피 합산값을 산출하는 단계; 및
상기 엔트로피 합산값이 큰 순서대로 소정 인원수의 응답자를 선택하는 단계;를 포함하는 것을 특징으로 하는 다중랭킹 추정 방법.
8. The method of claim 7,
Wherein the step of selecting the predetermined number of queries as an additional query comprises:
Selecting candidates for a query to be requested for each responder in a descending order of the entropy values;
Adding an entropy value of the predetermined number of queries to each responder to calculate an entropy sum value; And
And selecting a predetermined number of respondents in descending order of the sum of entropy values.
삭제delete 제 1 항에 있어서,
상기 아이템 점수
Figure 112018114992379-pat00068
를 산출하는 단계는 최소자승법 알고리즘을 이용하여 아이템 점수를 산출하는 것을 특징으로 하는 다중랭킹 추정 방법.
The method according to claim 1,
The item score
Figure 112018114992379-pat00068
Calculating an item score using the least squares algorithm. &Lt; RTI ID = 0.0 &gt; [10] &lt; / RTI &gt;
제1항 내지 제8항 및 제10항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method according to any one of claims 1 to 8 and 10.
KR1020160182739A 2016-12-29 2016-12-29 Method for estimating updated multiple ranking using pairwise comparison data to additional queries KR101953839B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160182739A KR101953839B1 (en) 2016-12-29 2016-12-29 Method for estimating updated multiple ranking using pairwise comparison data to additional queries

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160182739A KR101953839B1 (en) 2016-12-29 2016-12-29 Method for estimating updated multiple ranking using pairwise comparison data to additional queries

Publications (2)

Publication Number Publication Date
KR20180078428A KR20180078428A (en) 2018-07-10
KR101953839B1 true KR101953839B1 (en) 2019-03-06

Family

ID=62916070

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160182739A KR101953839B1 (en) 2016-12-29 2016-12-29 Method for estimating updated multiple ranking using pairwise comparison data to additional queries

Country Status (1)

Country Link
KR (1) KR101953839B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076264A (en) * 2009-09-29 2011-04-14 Ntt Communications Kk Retrieval control device, retrieval control method, and program
KR101605654B1 (en) * 2014-12-01 2016-04-04 서울대학교산학협력단 Method and apparatus for estimating multiple ranking using pairwise comparisons

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102053971B (en) * 2009-10-30 2013-08-28 日电(中国)有限公司 Recommending method and equipment for sequencing-oriented collaborative filtering
US20120117051A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation Multi-modal approach to search query input
KR101450453B1 (en) * 2013-05-10 2014-10-13 서울대학교산학협력단 Method and apparatus for recommending contents

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076264A (en) * 2009-09-29 2011-04-14 Ntt Communications Kk Retrieval control device, retrieval control method, and program
KR101605654B1 (en) * 2014-12-01 2016-04-04 서울대학교산학협력단 Method and apparatus for estimating multiple ranking using pairwise comparisons

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Changsung Kang 외 6명. Learning to Re-rank Web Search Results with Multiple Pairwise Features. 2011년.

Also Published As

Publication number Publication date
KR20180078428A (en) 2018-07-10

Similar Documents

Publication Publication Date Title
CN108509463B (en) Question response method and device
CN110852755B (en) User identity identification method and device for transaction scene
KR101605654B1 (en) Method and apparatus for estimating multiple ranking using pairwise comparisons
US11030265B2 (en) Cross-platform data matching method and apparatus, computer device and storage medium
KR20050043917A (en) Statistical personalized recommendation system
Rokach et al. Initial profile generation in recommender systems using pairwise comparison
CN110263245B (en) Method and device for pushing object to user based on reinforcement learning model
EP3188111A1 (en) A method for extracting latent context patterns from sensors
CN114358657B (en) Post recommendation method and device based on model fusion
CN110955831A (en) Article recommendation method and device, computer equipment and storage medium
Blédaité et al. Pairwise preferences elicitation and exploitation for conversational collaborative filtering
US20160086086A1 (en) Multi-media content-recommender system that learns how to elicit user preferences
CN111125328B (en) Text processing method and related equipment
CN110222838B (en) Document sorting method and device, electronic equipment and storage medium
JP5465689B2 (en) High-precision similarity search system
CN113392321A (en) Information recommendation method and device, electronic equipment and storage medium
CN110795640B (en) Self-adaptive group recommendation method for compensating group member difference
KR101953839B1 (en) Method for estimating updated multiple ranking using pairwise comparison data to additional queries
Cao et al. Recovering cross-device connections via mining IP footprints with ensemble learning
US11783215B2 (en) Information processing apparatus and recommendation control method
CN112330387B (en) Virtual broker applied to house watching software
Mohammed et al. Contextualised student modelling for enculturated systems
Kajimura et al. Quality control for crowdsourced POI collection
CN113506638A (en) Online consultation theme and machine learning based network training method and system
CN113807749B (en) Object scoring method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant