KR102161294B1 - Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence - Google Patents
Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence Download PDFInfo
- Publication number
- KR102161294B1 KR102161294B1 KR1020180152767A KR20180152767A KR102161294B1 KR 102161294 B1 KR102161294 B1 KR 102161294B1 KR 1020180152767 A KR1020180152767 A KR 1020180152767A KR 20180152767 A KR20180152767 A KR 20180152767A KR 102161294 B1 KR102161294 B1 KR 102161294B1
- Authority
- KR
- South Korea
- Prior art keywords
- promotion
- information
- network
- data
- performance
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0244—Optimization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0246—Traffic
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
본 발명은 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치 및 방법에 관한 것이다. 본 발명의 일실시예에 따르면, 인공지능의 학습에 의해 온라인 쇼핑몰의 프로모션이 정교해지고 정밀해짐으로써 프로모션의 효과가 상승하는 효과가 발생된다. The present invention relates to an apparatus and method for predicting and recommending promotion performance in an online shopping mall using artificial intelligence. According to an embodiment of the present invention, the promotion of the online shopping mall is elaborated and precise by learning of artificial intelligence, thereby increasing the effect of the promotion.
Description
본 발명은 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for predicting and recommending promotion performance in an online shopping mall using artificial intelligence.
온라인 쇼핑몰에서의 프로모션은 제품 할인, 경품 이벤트, 할인 쿠폰 지급, 마일리지 지급 등의 형태로 진행된다. 이러한 프로모션은 온라인 쇼핑몰의 입장에서 항상 순익의 감소를 야기하기 때문에 프로모션의 종류, 프로모션 기간, 프로모션의 정도 등이 해당 페르소나에 맞게 정밀하게 설계되어야 한다. 하지만 기존에는 프로모션의 설계가 모두 온라인 쇼핑몰의 운영자나 프로모션 대행사 등에 의해 경험적으로 결정되는 실정이었다.Promotions in online shopping malls are conducted in the form of product discounts, giveaway events, discount coupons, and mileage payments. Since such promotion always causes a decrease in net profit from the viewpoint of online shopping malls, the type of promotion, promotion period, and degree of promotion must be precisely designed according to the persona. However, in the past, all promotion designs were empirically determined by the operators of online shopping malls or promotion agencies.
대한민국의 온라인 쇼핑은 오픈마켓/소셜커머스/종합쇼핑몰/대형마트쇼핑몰/카드포인트몰 등 다양한 형태의 회사들이 존재하고 있고, 대부분의 판매자들은 위의 온라인 쇼핑몰에 복수로 입점하여 판매를 하고 있어서, 통일된 데이터를 바탕으로 한 판매 성과를 분석하기 어려운 문제가 발생하고 있다. For online shopping in Korea, there are various types of companies such as open market/social commerce/general shopping mall/large mart shopping mall/card point mall, and most of the sellers sell multiple stores in the above online shopping malls. There is a problem that it is difficult to analyze sales performance based on the obtained data.
프로모션의 구성요소는 프로모션의 일시 및 조건들과 관련된 내용으로 프로모션 결과치와 인과관계를 이루고 있으나, 구성요건의 하나인 일시를 예를 들어도 계절, 월, 요일, 시간, 기간, 공휴일 등의 다양한 사항들이 포함되어 있어서 결과치를 바탕으로 구성요소가 기여한 기여도 등을 사람이 계산하는 것은 매우 어려운 실정이다. The components of the promotion are related to the date and time and conditions of the promotion and have a causal relationship with the promotion result. Since it is included, it is very difficult for a person to calculate the contribution of the component based on the result.
특히, 소비자에게 혜택으로 작용할 프로모션 감가율의 경우, 감가율이 커질수록 구매 혜택이 커지는 결과를 가져오므로 매출 수량이 늘어나서 매출이 증가할 것이다. 하지만, 제품의 원가를 고려했을 때 매출수량 증가분과 감가율의 적정 지점에서 균형있게 적용하는 것이 중요하고, 이때 기대한 매출 이익을 달성할 수 있게 될 것 인지에 대해 사람이 계산하는 것은 매우 어려운 실정이다. In particular, in the case of the promotion depreciation rate, which will serve as a benefit to consumers, the larger the depreciation rate, the greater the purchase benefit, so the quantity of sales will increase and sales will increase. However, when considering the cost of the product, it is important to apply a balance between the increase in sales quantity and the depreciation rate at an appropriate point, and it is very difficult for a person to calculate whether the expected sales profit will be achieved. .
따라서, 본 발명의 목적은 기존에 경험적으로 설계되던 온라인 쇼핑몰의 프로모션의 낮은 정밀도를 해결하기 위하여, 인공지능을 이용하여 프로모션의 성과를 예측하고 프로모션의 특성을 추천하는, 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치 및 방법을 제공하는 데에 있다. Accordingly, an object of the present invention is to predict the performance of promotions using artificial intelligence and recommend the characteristics of promotions in an online shopping mall using artificial intelligence in order to solve the low precision of promotion of an online shopping mall that was previously designed empirically. It is to provide a device and method for predicting and recommending promotion performance of the company.
이하 본 발명의 목적을 달성하기 위한 구체적 수단에 대하여 설명한다.Hereinafter, specific means for achieving the object of the present invention will be described.
본 발명의 목적은, 제품 속성 데이터, 프로모션 속성 데이터, 기타 성과 데이터 및 프로모션 를 기초로 기학습된 인공신경망의 프로그램 코드를 저장하는 메모리 모듈; 및 상기 인공신경망의 프로그램 코드를 처리하여 특정 프로모션의 성과를 예측하는 처리 모듈; 을 포함하고, 상기 프로그램 코드는, 제품 속성 데이터(100), 프로모션 속성 데이터(200), 성과 데이터(300)를 입력 받는 입력 단계; 상기 제품 속성 데이터, 상기 프로모션 속성 데이터 및 상기 성과 데이터를 기초로 상기 특정 프로모션에 대한 성과를 예측하여 프로모션 성과 예측 데이터를 생성하는 성과 예측 단계; 및 예측된 상기 프로모션 성과 예측 데이터를 출력하는 출력 단계;를 포함하여 컴퓨터 상에서 수행되도록 구성되는, 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치를 제공하여 달성될 수 있다.An object of the present invention is a memory module for storing a program code of an artificial neural network previously learned based on product attribute data, promotion attribute data, other performance data and promotion; And a processing module for predicting the performance of a specific promotion by processing the program code of the artificial neural network. Including, the program code, the product attribute data (100), promotion attribute data (200), an input step of receiving the performance data (300); A performance prediction step of generating promotion performance prediction data by predicting a performance for the specific promotion based on the product attribute data, the promotion attribute data, and the performance data; And an output step of outputting the predicted promotion performance prediction data. It may be achieved by providing a promotion performance prediction and recommendation device in an online shopping mall using artificial intelligence, which is configured to be performed on a computer.
또한, 프로모션 속성 데이터 및 성과 데이터를 기초로 기학습된 프로모션 성과 예측 인공신경망 모듈 및 프로모션 추천 모듈의 프로그램 코드를 저장하는 메모리 모듈; 및 상기 프로모션 성과 예측 인공신경망 모듈 및 상기 프로모션 추천 모듈의 프로그램 코드를 처리하여 특정 프로모션의 성과를 예측하고 프로모션 속성을 추천하는 처리 모듈;을 포함하고, 상기 프로모션 추천 모듈의 상기 프로그램 코드는, 상기 프로모션 성과 예측 인공신경망 모듈에서 특정 프로모션 속성에 대해 예측된 프로모션 성과에 대한 정보인 프로모션 성과 예측 데이터를 수신하는 프로모션 성과 예측 단계; 에피소드 t에 대한 상태 정보(st)를 수신하는 상태 정보 수신 단계; 상기 상태 정보 및 상기 프로모션 성과 예측 데이터를 기초로 가치망에서 보상 가능성 정보를 생성한 뒤, 상기 보상 가능성 정보를 기초로 정책망에서 복수개의 액션(action)인 추천 프로모션 속성 확률을 출력하는 속성 확률 출력 단계; 상기 복수개의 추천 프로모션 속성 확률을 기초로 최적 프로모션 탐색을 통해 에피소드 t에 대한 추천 프로모션 속성 데이터(at)를 선정하여 출력하는 추천 프로모션 속성 데이터 출력 단계; 상기 추천 프로모션 속성 데이터에 따른 프로모션이 적용된 뒤, 에피소드 t+1에 대한 상태 정보(st+1) 및 at에 대한 보상 정보(rt+1)를 수신하는 상태 및 보상 정보 수신 단계; 및 수신된 상기 상태 정보(st+1) 및 상기 보상 정보(rt+1)를 기초로 상기 정책망과 상기 가치망을 업데이트하는 정책망 및 가치망 업데이트 단계; 를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 상태 정보는 성과 데이터(판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price) 또는 매출이익) 및 환경 데이터(날짜 정보, 요일 정보, 날씨 정보, 프로모션 진행 중인 제품 정보, 쇼핑몰 정보 또는 쇼핑몰의 다른 제품 정보)를 의미하며, 상기 추천 프로모션 속성 데이터는 프로모션 카테고리, 프로모션 기간, 프로모션 쇼핑몰, 노출구좌 또는 프로모션 이미지 색상을 의미하고, 상기 보상 정보는 특정 기간 동안의 상기 성과 데이터의 상승 또는 하강을 의미하는 것을 특징으로 하는, 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치를 제공하여 달성될 수 있다. In addition, a memory module that stores a program code of a promotion performance prediction artificial neural network module and a promotion recommendation module previously learned based on promotion attribute data and performance data; And a processing module that processes the promotion performance prediction artificial neural network module and the program code of the promotion recommendation module to predict the performance of a specific promotion and recommends promotion attributes; wherein the program code of the promotion recommendation module comprises: the promotion A promotion performance prediction step of receiving promotion performance prediction data, which is information on promotion performance predicted for a specific promotion attribute, by the performance prediction artificial neural network module; A state information receiving step of receiving state information (s t ) for episode t; Attribute probability output for generating reward possibility information in the value network based on the status information and the promotion performance prediction data, and then outputting the recommended promotion attribute probability that is a plurality of actions in the policy network based on the reward possibility information step; A recommended promotion attribute data output step of selecting and outputting recommended promotion attribute data (a t ) for episode t through optimal promotion search based on the plurality of recommended promotion attribute probabilities; A status and reward information receiving step of receiving status information (s t+1 ) for episode t+1 and reward information (r t+1 ) for a t after the promotion according to the recommended promotion attribute data is applied; And updating the policy network and the value network based on the received state information (s t+1 ) and the compensation information (r t+1 ). It is configured to be performed on a computer including, and the status information includes performance data (Quantity, Sales Amount, Page View), Conversion Rate, Average Sales Price, or Sales profit) and environmental data (date information, day of the week, weather information, product information in progress, shopping mall information or other product information of the shopping mall), and the recommended promotion attribute data includes promotion category, promotion period, promotion shopping mall, Providing a promotion performance prediction and recommendation device in an online shopping mall using artificial intelligence, characterized in that it means the color of the exposure account or the promotion image, and the compensation information means the rise or fall of the performance data for a specific period. Can be achieved.
또한, 상기 추천 프로모션 속성 데이터 출력 단계의 상기 최적 프로모션 탐색은 몬테카를로 트리 탐색이 이용되고, 상기 몬테카를로 트리 탐색에서 트리의 각 노드는 상태(state)를, 각 연결(edge)은 특정 상태에 대한 특정 액션에 따라 예상되는 가치(value)를 나타내며, 현재 상태를 뿌리 노드로 두고 새로운 액션을 취해 새로운 상태로 전이될 때 마다 잎(leaf) 노드가 확장되는 구조로 구성되고, 상기 추천 프로모션 속성 데이터 출력 단계는, 상기 현재 상태로부터 상기 잎 노드가 나올 때까지 선택 가능한 액션 중 가장 가치가 높은 액션을 선택하며 진행하는 선택 단계; 시뮬레이션이 상기 잎 노드까지 진행되면 지도학습으로 학습된 상기 정책망의 확률에 따라 액션하여 새로운 잎 노드를 추가하는 확장 단계; 상기 새로운 잎 노드로부터 상기 가치망을 사용해 판단한 보상 가능성 정보와 상기 잎 노드로부터 상기 정책망을 사용해 프로모션 에피소드가 끝날 때까지 진행해 얻은 보상을 계산하여 상기 새로운 잎 노드의 가치를 평가하는 평가 단계; 및 상기 새로운 잎 노드의 상기 가치를 반영하여 시뮬레이션 중 방문한 노드들의 가치를 재평가하고 방문 빈도를 업데이트하는 업데이트 단계;를 더 포함하고, 상기 방문 빈도를 기초로 상기 추천 프로모션 속성 데이터(at)를 선정하는 것을 특징으로 할 수 있다. In addition, in the search for the optimal promotion in the step of outputting the recommended promotion attribute data, a Monte Carlo tree search is used, and in the Monte Carlo tree search, each node of the tree represents a state, and each edge represents a specific action for a specific state. It represents the expected value according to the current state as a root node, and it is composed of a structure in which a leaf node is expanded each time a new action is taken to transition to a new state, and the recommended promotion attribute data output step is A selection step of selecting an action with the highest value among selectable actions from the current state until the leaf node appears; An expansion step of adding a new leaf node by performing an action according to the probability of the policy network learned by supervised learning when the simulation proceeds to the leaf node; An evaluation step of evaluating the value of the new leaf node by calculating the reward possibility information determined from the new leaf node using the value network and the reward obtained by proceeding from the leaf node to the end of the promotion episode using the policy network; And an update step of reevaluating the values of the nodes visited during the simulation by reflecting the value of the new leaf node and updating the visit frequency; further comprising, selecting the recommended promotion attribute data (a t ) based on the visit frequency It can be characterized by that.
또한, 상기 정책망은, 랜덤 벡터를 포함하여 상기 프로모션 속성 데이터 및 상기 성과 데이터를 기초로 지도학습이 되도록 구성되는 것을 특징으로 할 수 있다. In addition, the policy network may be configured to perform supervised learning based on the promotion attribute data and the performance data including a random vector.
본 발명의 다른 목적은, 프로모션 추천 모듈이 프로모션 성과 예측 인공신경망 모듈에서 특정 프로모션 속성에 대해 예측된 프로모션 성과에 대한 정보인 프로모션 성과 예측 데이터를 수신하는 프로모션 성과 예측 단계; 상기 프로모션 추천 모듈이 에피소드 t에 대한 상태 정보(st)를 수신하는 상태 정보 수신 단계; 상기 프로모션 추천 모듈이 상기 상태 정보 및 상기 프로모션 성과 예측 데이터를 기초로 가치망에서 보상 가능성 정보를 생성한 뒤, 상기 보상 가능성 정보를 기초로 정책망에서 복수개의 액션(action)인 추천 프로모션 속성 확률을 출력하는 속성 확률 출력 단계; 상기 프로모션 추천 모듈이 상기 복수개의 추천 프로모션 속성 확률을 기초로 최적 프로모션 탐색을 통해 에피소드 t에 대한 추천 프로모션 속성 데이터(at)를 선정하여 출력하는 추천 프로모션 속성 데이터 출력 단계; 상기 추천 프로모션 속성 데이터에 따른 프로모션이 적용된 뒤, 상기 프로모션 추천 모듈이 에피소드 t+1에 대한 상태 정보(st+1) 및 at에 대한 보상 정보(rt+1)를 수신하는 상태 및 보상 정보 수신 단계; 및 상기 프로모션 추천 모듈이 수신된 상기 상태 정보(st+1) 및 상기 보상 정보(rt+1)를 기초로 상기 정책망과 상기 가치망을 업데이트하는 정책망 및 가치망 업데이트 단계; 를 포함하여 컴퓨터 상에서 수행되도록 구성되고, 상기 상태 정보는 성과 데이터(판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price) 또는 매출이익) 및 환경 데이터(날짜 정보, 요일 정보, 날씨 정보, 프로모션 진행 중인 제품 정보, 쇼핑몰 정보 또는 쇼핑몰의 다른 제품 정보)를 의미하며, 상기 추천 프로모션 속성 데이터는 프로모션 카테고리, 프로모션 기간, 프로모션 쇼핑몰, 노출구좌 또는 프로모션 이미지 색상을 의미하고, 상기 보상 정보는 특정 기간 동안의 상기 성과 데이터의 상승 또는 하강을 의미하는 것을 특징으로 하는, 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 방법을 제공하여 달성될 수 있다. Another object of the present invention is a promotion performance prediction step of receiving, by a promotion recommendation module, promotion performance prediction data, which is information on promotion performance predicted for a specific promotion attribute, from a promotion performance prediction artificial neural network module; A state information receiving step of the promotion recommendation module receiving state information (s t ) for episode t; After the promotion recommendation module generates reward possibility information in the value network based on the status information and the promotion performance prediction data, the recommendation promotion attribute probability that is a plurality of actions in the policy network is calculated based on the reward possibility information. An attribute probability output step of outputting; A recommended promotion attribute data output step of selecting and outputting, by the promotion recommendation module, recommended promotion attribute data (a t ) for episode t through optimal promotion search based on the plurality of recommended promotion attribute probabilities; After the promotion according to the recommended promotion attribute data is applied, the promotion recommendation module receives status information for episode t+1 (s t+1 ) and reward information for a t (r t+1 ) and rewards Receiving information; And updating the policy network and the value network based on the status information (s t+1 ) and the reward information (r t+1 ) received by the promotion recommendation module. It is configured to be performed on a computer including, and the status information includes performance data (Quantity, Sales Amount, Page View), Conversion Rate, Average Sales Price, or Sales profit) and environmental data (date information, day of the week, weather information, product information in progress, shopping mall information or other product information of the shopping mall), and the recommended promotion attribute data includes promotion category, promotion period, promotion shopping mall, By providing a method of predicting and recommending promotion performance in an online shopping mall using artificial intelligence, characterized in that it means the color of an exposure account or promotion image, and the compensation information means an increase or decrease in the performance data for a specific period. Can be achieved.
상기한 바와 같이, 본 발명에 의하면 이하와 같은 효과가 있다.As described above, the present invention has the following effects.
첫째, 본 발명의 일실시예에 따르면, 인공지능의 학습에 의해 온라인 쇼핑몰의 프로모션이 정교해지고 정밀해짐으로써 프로모션의 효과가 상승하는 효과가 발생된다.First, according to an embodiment of the present invention, the promotion of the online shopping mall is elaborated and precise by learning of artificial intelligence, thereby increasing the effect of the promotion.
둘째, 본 발명의 일실시예에 따르면, 가치망(111)에 따라 추천 프로모션 속성의 확률을 출력하는 정책망의 업데이트가 매 에피소드마다 진행될 수 있는 효과가 발생된다. 기존의 강화학습에서는 강화학습 모델의 업데이트가 모든 에피소드가 종료된 이후에 진행되는 문제가 있어서, 프로모션 추천 모델에 적용하는데는 어려움이 있었다. Second, according to an embodiment of the present invention, an effect of updating a policy network that outputs a probability of a recommended promotion attribute according to the
셋째, 본 발명의 일실시예에 따르면, 프로모션의 추천은 단기 및 장기 목표들이 존재하므로 MDP의 가정이 성립하지 않아서 기존의 DQN 적용에 어려움이 있음에도 불구하고, 정책망 및 가치망의 의존적 관계에 의해 프로모션 추천에도 강화학습을 진행할 수 있게 되는 효과가 발생된다. Third, according to an embodiment of the present invention, promotion recommendation has short-term and long-term goals, and thus, despite the difficulty in applying the existing DQN because the assumption of MDP is not established, the policy network and the value network depend on the relationship. Promotional recommendations also have the effect of enabling reinforcement learning.
넷째, 본 발명의 일실시예에 따르면, 정책망 및 가치망이 프로모션 성과 예측 인공신경망 장치와 연결되어 프로모션 성과 예측 데이터를 기초로 학습되기 때문에 학습 속도가 향상되는 효과가 발생된다. Fourth, according to an embodiment of the present invention, since the policy network and the value network are connected to the promotion performance prediction artificial neural network device and learn based on the promotion performance prediction data, the learning speed is improved.
본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일실시예에 따른 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치(1)를 도시한 것,
도 2는 본 발명의 일실시예에 따른 프로모션 성과 예측 인공신경망 장치의 학습 과정을 도시한 모식도,
도 3은 본 발명의 일실시예에 따른 프로모션 성과 예측 인공신경망 장치의 추론 과정을 도시한 모식도,
도 4는 본 발명의 일실시예에 따른 프로모션 추천 장치(11)를 도시한 모식도,
도 5는 본 발명의 일실시예에 따른 프로모션 추천 장치(11)의 동작예를 도시한 흐름도,
도 6은 본 발명의 일실시예에 따른 프로모션 이미지 수정 장치(13)를 도시한 모식도,
도 7은 본 발명의 일실시예에 따른 ConvNet 인코더의 예를 도시한 모식도,
도 8은 본 발명의 일실시예에 따른 프로모션 추천 방법을 도시한 흐름도이다. The following drawings attached to the present specification illustrate preferred embodiments of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in such drawings. And should not be interpreted.
1 shows a promotion performance prediction and
2 is a schematic diagram showing a learning process of the artificial neural network device for predicting promotion performance according to an embodiment of the present invention;
3 is a schematic diagram showing an inference process of the artificial neural network device for predicting promotion performance according to an embodiment of the present invention;
4 is a schematic diagram showing a
5 is a flowchart showing an operation example of the
6 is a schematic diagram showing a promotion
7 is a schematic diagram showing an example of a ConvNet encoder according to an embodiment of the present invention,
8 is a flowchart illustrating a promotion recommendation method according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 쉽게 실시할 수 있는 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예에 대한 동작원리를 상세하게 설명함에 있어서 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments in which the present invention can be easily implemented by those of ordinary skill in the art will be described in detail with reference to the accompanying drawings. However, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.
또한, 도면 전체에 걸쳐 유사한 기능 및 작용을 하는 부분에 대해서는 동일한 도면 부호를 사용한다. 명세서 전체에서, 특정 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고, 간접적으로 연결되어 있는 경우도 포함한다. 또한, 특정 구성요소를 포함한다는 것은 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, the same reference numerals are used for parts having similar functions and functions throughout the drawings. Throughout the specification, when a specific part is said to be connected to another part, this includes not only the case that it is directly connected, but also the case that it is indirectly connected with another element interposed therebetween. In addition, the inclusion of a specific component does not exclude other components unless specifically stated to the contrary, but means that other components may be further included.
인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치 및 방법A device and method for predicting and recommending promotion performance in online shopping malls using artificial intelligence
도 1은 본 발명의 일실시예에 따른 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치(1)를 도시한 것이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치는 제품 속성 데이터, 프로모션 속성 데이터, 성과 데이터 및 프로모션을 기초로 기학습된 프로모션 성과 예측 인공신경망 장치(10) 및 프로모션 추천 장치(11)를 포함할 수 있다. 1 is a diagram showing a promotion performance prediction and
프로모션 성과 예측 인공신경망 장치(10) 관련, 도 2는 본 발명의 일실시예에 따른 프로모션 성과 예측 인공신경망 장치의 학습 과정을 도시한 모식도, 도 3은 본 발명의 일실시예에 따른 프로모션 성과 예측 인공신경망 장치의 추론 과정을 도시한 모식도이다. 도 2, 3에 도시된 바와 같이, 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 방법은 제품 속성 데이터(100), 프로모션 속성 데이터(200), 성과 데이터(300)를 수신하여 프로모션 성과 예측 인공신경망 장치(10)를 학습시키고, 기학습된 프로모션 성과 예측 인공신경망 장치(10)에 제품 속성 데이터(100) 및 프로모션 속성 데이터(200)를 입력하여 예측되는 프로모션 성과 예측 데이터(400)을 출력할 수 있다. 특히, 프로모션 성과 예측 인공신경망 장치(10)의 학습시에는 프로모션 성과 데이터와 출력 데이터와의 에러(error)를 기초로 hidden layer의 weight를 업데이트하는 방법으로 진행될 수 있다. 도 2에서 제품 속성 데이터(100) 및 프로모션 속성 데이터(200)를 구성하는 각 속성은 x1, x2, x3와 같은 input layer의 각 노드에 입력되고, w1과 같은 weight을 기반으로 h1, h2, h3와 같은 hidden layer를 지나 softmax 등의 cost function 기반으로 예측된 프로모션 성과 예측 데이터(400)가 y1인 output layer로 출력되게 된다. 예측된 성과 데이터와 실제 성과 데이터(300)와의 에러(error, -Sigma(yi log pi))를 기반으로 프로모션 성과 예측 인공신경망 장치(10)의 weight가 back propagation으로 업데이트 될 수 있다. Related to the promotion performance prediction artificial
또는, 각각의 제품에 대해 별도의 프로모션 성과 예측 인공신경망 장치(10)를 구성하고, 프로모션 속성 데이터(200), 성과 데이터(300)를 수신하여 프로모션 성과 예측 인공신경망 장치(10)를 학습시키고, 기학습된 프로모션 성과 예측 인공신경망 장치에 프로모션 속성 데이터(200)를 입력하여 예측되는 프로모션 성과 예측 데이터(400)을 출력할 수 있다. 이 때 이용될 수 있는 인공신경망 이외에도 다층 퍼셉트론(Multi-layer perceptron), 나이브 베이지안 분류(Naive-Bayesian Classification), 랜덤 포레스트 분류(Random Forest Classification) 등의 기계학습이 이용될 수 있다.Alternatively, a separate promotion outcome prediction artificial
제품 속성 데이터(100)는 제품 카테고리, 제품 판매가격, 제품원가 등을 포함할 수 있다. The
프로모션 속성 데이터(200)는 프로모션 카테고리(할인 프로모션, 사은품 프로모션 등), 프로모션 기간, 프로모션 쇼핑몰, 노출구좌, 프로모션 이미지 등을 포함할 수 있다. 본 발명의 일실시예에 따른 프로모션 속성 데이터 중 프로모션 이미지 데이터는 기학습된 CNN(Convolutional Neural Network)을 통해 특정 분위기 카테고리, 특정 색감 카테고리로 분류된 결과값을 의미할 수 있다. The promotion attribute data 200 may include a promotion category (discount promotion, gift promotion, etc.), a promotion period, a promotion shopping mall, an exposure account, a promotion image, and the like. Among the promotion attribute data according to an embodiment of the present invention, the promotion image data may mean a result value classified into a specific atmosphere category and a specific color sense category through a previously learned Convolutional Neural Network (CNN).
성과 데이터(300)는 판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price), 매출이익 등을 포함할 수 있다. 본 발명의 일실시예에 따르면, 성과 데이터(300)의 다중공선성(Multicollinearity)에 따른 문제를 방지하기 위하여 성과 데이터(300)를 구성하는 각각의 데이터에 대해 PCA를 적용하여 diagnol matrix의 형태로 공선성을 상쇄해줄 수 있다. The
프로모션 속성 추천과 관련하여, 상기 프로모션 성과 예측 인공신경망 장치를 이용하여 가장 높은 프로모션 성과 예측 데이터(400)가 출력되도록 하는 추천 프로모션 속성 데이터를 출력하는 프로모션 추천 장치(11)가 구성될 수 있다. In relation to the promotion attribute recommendation, the
본 발명의 일실시예에 따른 프로모션 추천 장치(11)의 프로모션 추천은 강화학습을 이용하여 수행될 수 있다. 도 4는 본 발명의 일실시예에 따른 프로모션 추천 장치(11)를 도시한 모식도이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 프로모션 추천 장치(11)는 특정 상태에서의 가치를 출력하는 가치 함수를 학습하는 인공신경망인 가치망(111) 및 추천 프로모션 속성의 확률을 출력하는 정책 함수를 학습하는 정책망(110)을 포함할 수 있고, 본 발명의 일실시예에 따른 정책망(110) 및 가치망(111)은 프로모션 성과 예측 인공신경망 장치(10)에 연결되도록 구성될 수 있다. 또한, 정책망(110)과 가치망(111)은 최적 프로모션 탐색 모듈(12)과 연결되어 추천 프로모션 속성 데이터(500)를 출력할 수 있다. Promotion recommendation by the
강화학습의 관점에서, 본 발명의 일실시예에 따른 프로모션 추천 장치(11)의 Objective는 프로모션의 성과를 향상시키는 것이고, 상태(State)는 현재 성과 데이터(판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price), 매출이익 등) 및 환경 데이터(날짜, 요일, 날씨, 현재 프로모션 진행 중인 제품, 쇼핑몰, 쇼핑몰의 다른 제품 정보)를 의미할 수 있고, 액션(Action)은 프로모션 속성 데이터(프로모션 카테고리(할인 프로모션, 사은품 프로모션 등), 프로모션 기간, 프로모션 쇼핑몰, 노출구좌, 프로모션 이미지 색상 등)을 의미할 수 있으며, 보상(Reward)은 특정 기간 동안의 성과 데이터의 상승 또는 하강을 의미할 수 있다. In terms of reinforcement learning, the objective of the
정책망(110)은 프로모션 추천 장치(11)의 각 상태에서 추천 프로모션의 특정 속성들의 확률을 결정하는 인공신경망이고, 정책 함수를 학습하여 추천 프로모션 속성 확률을 출력하게 된다. 정책망의 Cost function은 정책함수와 가치망의 Cost Function을 곱하여 크로스 엔트로피(Cross Entropy)를 계산한 뒤 Policy gradient를 취한 함수일 수 있고, 예를 들면, 아래 수학식 1과 같이 구성될 수 있다. 정책망은 크로스 엔트로피와 가치망의 cost function인 시간차 에러의 곱을 기초로 back propagation 될 수 있다. The
수학식 1에서, π는 정책 함수, θ는 정책망 파라미터, πθ(ai│si)는 현재 에피소드에서 특정 액션(특정 속성의 프로모션)을 할 가능성, V는 가치 함수, w는 가치망 파라미터, si는 현재 에피소드인 i의 상태 정보, Si+1은 다음 에피소드인 i+1의 상태 정보, ri+1은 다음 에피소드에서 획득하는 것으로 예상되는 보상, Vw(si)는 현재 에피소드에서의 보상 가능성, Vw(si+1)는 다음 에피소드에서의 보상 가능성, γ는 감가율을 의미할 수 있다. 이때, ri+1은 프로모션 성과 예측 인공신경망 장치(10)에서 수신하도록 구성될 수 있다. 결국, 본 발명의 일실시예에 따른 정책망(110)은 Policy gradient를 통해 초기에는 사용자의 프로모션 히스토리를 모사하는 프로모션 속성을 출력하게 된다. In
본 발명의 일실시예에 따른 정책망(110)은 강화학습이 진행되기 이전에 기존의 프로모션 속성 데이터와 이에 따른 성과 데이터를 기초로 지도학습(Supervised Learning)되어 정책망의 weight가 업데이트 됨으로써 정책의 기초를 학습할 수 있다. 즉, 정책망의 weight는 기존의 프로모션 속성 데이터 및 성과 데이터를 토대로 지도학습되어 설정될 수 있다. 이에 따르면, 기존의 프로모션의 기록에 의해 정책망이 매우 빠르게 학습될 수 있는 효과가 발생된다. The
또한, 본 발명의 일실시예에 따르면 정책망(110)의 지도학습 시에 랜덤 벡터를 포함하여 기존의 프로모션 속성 데이터와 이에 따른 성과 데이터를 기초로 지도학습이 되도록 구성될 수 있다. 랜덤 벡터는 예를 들면 가우시안 확률 분포(Gaussian distribution)를 이용할 수 있다. 이에 따르면, 정책망이 랜덤한 확률로 도전적인 프로모션 정책을 출력할 수 있게 되는 효과가 발생된다. 정책망(110)의 지도학습 시에 기존의 프로모션 속성 데이터와 이에 따른 성과 데이터를 기초로 지도학습이 되도록 구성하면 프로모션의 추천이 기존의 정책 내에서 최적화되는 결과가 나타나게 된다. 하지만, 본 발명의 일실시예에 따라 정책망의 지도학습 시에 랜덤 벡터를 포함하게 되면 강화학습이 진행될수록 정책망이 기존의 정책보다 더 효과적인 프로모션을 학습할 수 있게 되는 효과가 발생된다. In addition, according to an embodiment of the present invention, during supervised learning of the
가치망(111)은 프로모션 추천 장치(11)가 가질 수 있는 각 상태(State)에서 보상(Reward)을 달성할 가능성을 도출하는 인공신경망이고, 가치 함수를 학습하게 된다. 가치망(111)은 에이전트(agent)인 프로모션 추천 장치(11)가 어떤 방향으로 업데이트 될 지에 대한 방향성을 제시해주게 된다. 이를 위해, 가치망(111)의 입력 변수는 프로모션 추천 장치(11)의 상태에 대한 정보인 상태 정보로 설정되고, 가치망(111)의 출력 변수는 프로모션 추천 장치(11)가 보상을 달성할 가능성인 보상 가능성 정보로 설정될 수 있다. 본 발명의 일실시예에 따른 보상 가능성 정보는 아래 수학식과 같은 Q-function으로 계산될 수 있다. The
위 수학식 2에서 Qπ는 특정 정책 π에서 상태 s, 액션 a인 경우 미래에 예상되는 전체 보상 가능성 정보를 의미하고, R은 특정 기간의 보상, gamma는 감가율을 의미할 수 있다. St는 시간 t의 상태, At는 시간 t의 액션, E는 기대값을 의미할 수 있다. 본 발명의 일실시예에 따른 보상 가능성 정보(Q value)는 정책망(110)의 업데이트 방향 및 크기를 규정하게 된다. In
이때, 가치망의 Cost function은 가치 함수에 대한 MSE(Mean Square error) 함수일 수 있고, 예를 들면 아래 수학식 3과 같이 구성될 수 있다. 가치망(111)은 가치망의 cost function인 시간차 에러를 기초로 back propagation 될 수 있다. In this case, the cost function of the value network may be a mean square error (MSE) function for the value function, and may be configured as in Equation 3 below. The
수학식 2에서, V는 가치 함수, w는 가치망 파라미터, si는 현재 에피소드인 i의 상태 정보, Si+1은 다음 에피소드인 i+1의 상태 정보, ri+1은 다음 에피소드에서 획득하는 것으로 예상되는 보상, Vw(si)는 현재 에피소드에서의 보상 가능성, Vw(si+1)는 다음 에피소드에서의 보상 가능성, γ는 감가율을 의미할 수 있다. 이때, ri+1은 프로모션 성과 예측 인공신경망 장치(10)에서 수신하도록 구성될 수 있다. In
이에 따라, 가치망은 프로모션 추천 장치의 상태가 변경될 때 수학식 1의 Cost Function을 Gradient descent 시키는 방향으로 업데이트 할 수 있다. Accordingly, the value network may update the cost function of
본 발명의 일실시예에 따르면 가치망을 정책망과 별도로 학습시키면서, 가치망의 Q value가 랜덤에서 시작하지 않고 Supervised되게 되므로 빠른 학습이 가능해지는 효과가 발생된다. 이에 따르면 매우 복잡도가 높은 프로모션 속성의 조합을 선택하는 액션(action)에 있어서 탐구(exploration) 부담을 크게 줄일 수 있게 되는 효과가 발생된다. According to an embodiment of the present invention, while learning the value network separately from the policy network, the Q value of the value network is supervised instead of starting at random, so that rapid learning is possible. According to this, the effect of being able to greatly reduce the burden of exploration in an action of selecting a combination of promotion attributes with high complexity occurs.
본 발명의 일실시예에 따른 프로모션 추천 장치(11)에 따르면, 지도학습을 마친 정책망(110)이 현재 에피소드 i의 프로모션 속성을 추천하게 되면 가치망(111)이 추천된 프로모션 속성을 진행할 경우의 보상을 예측하도록 학습된다. 학습을 마친 프로모션 추천 장치(11)의 정책망(110)과 가치망(111)은 최적 프로모션 탐색 모듈(112)을 활용한 시뮬레이션과 조합되어 최종적으로 프로모션 속성을 선정하는데 활용된다. According to the
또한, 본 발명의 일실시예에 따른 가치망(111)에 따르면 추천 프로모션 속성의 확률을 출력하는 정책망의 업데이트가 매 에피소드마다 진행될 수 있는 효과가 발생된다. 기존의 강화학습에서는 강화학습 모델의 업데이트가 모든 에피소드가 종료된 이후에 진행되는 문제가 있어서, 프로모션 추천 모델에 적용하는데는 어려움이 있었다. In addition, according to the
최적 프로모션 탐색 모듈(112)은 정책망과 가치망에서 계산되는 복수의 에이전트(agent)를 기초로 다양한 상태 및 다양한 액션에 대한 복수회의 시뮬레이션을 진행하여 최적의 프로모션 속성을 탐색하는 구성이다. 본 발명의 일실시예에 따른 최적 프로모션 탐색 모듈은, 예를 들어, 몬테카를로 트리 탐색을 활용할 수 있고, 트리의 각 노드는 상태(state)를, 각 연결(edge)은 해당 상태에 대한 특정 액션에 따라 예상되는 가치(value)를 나타내며, 현재 상태를 뿌리 노드로 두고 새로운 액션을 취해 새로운 상태로 전이될 때 마다 잎(leaf) 노드가 확장되는 구조이다. 본 발명의 일실시예에 따른 최적 프로모션 탐색 모듈에서 최적 프로모션 탐색은 몬테카를로 트리 탐색이 활용되는 경우, Selection, Expansion, Evaluation, Backup의 4 단계로 처리될 수 있다. The optimal promotion search module 112 is a component that searches for an optimal promotion attribute by performing a plurality of simulations for various states and various actions based on a plurality of agents calculated in the policy network and the value network. The optimal promotion search module according to an embodiment of the present invention may utilize, for example, a Monte Carlo tree search, each node of the tree is a state, and each edge is a specific action for the state. It represents the expected value accordingly, and it is a structure in which the leaf node expands whenever a new action is taken and transition to a new state with the current state as the root node. In the optimal promotion search module according to an embodiment of the present invention, when a Monte Carlo tree search is used, the optimal promotion search may be processed in four stages of selection, expansion, evaluation, and backup.
최적 프로모션 탐색 모듈(112)의 Selection 단계는, 현재 상태로부터 잎 노드가 나올 때까지 선택 가능한 액션 중 가장 가치가 높은 액션을 선택하며 진행하는 단계이다. 이 때 연결(edge)에 저장해 둔 가치함수의 값과 탐구-이용 균형을 맞추기 위한 방문빈도 값을 이용한다. Selection 단계에서 액션 선택을 위한 수학식은 아래와 같다. The Selection step of the optimal promotion search module 112 is a step in which the action with the highest value among selectable actions is selected and proceeded from the current state until the leaf node appears. At this time, the value of the value function stored in the edge and the visit frequency value to balance inquiry-use are used. The equation for action selection in the selection step is as follows.
위 수학식 4에서 at는 시간t에서의 액션(프로모션 수행)이고, Q(st,a)는 트리에 저장된 가치함수의 값이며, u(st,a)는 해당 상태-액션 쌍의 방문횟수에 반비례하는 값으로 탐구(exploration)와 이용의 균형을 맞추기 위해 사용된 것이다. In Equation 4 above, a t is an action (promotion performed) at time t, Q(s t ,a) is the value of the value function stored in the tree, and u(s t ,a) is the corresponding state-action pair. This value is inversely proportional to the number of visits, and is used to balance exploration and use.
최적 프로모션 탐색 모듈(112)의 Expansion 단계는, 시뮬레이션이 잎 노드까지 진행되면 지도학습으로 학습된 정책망의 확률에 따라 액션하여 새로운 노드를 잎 노드로 추가하는 단계이다. The expansion step of the optimal promotion search module 112 is a step of adding a new node as a leaf node by performing an action according to the probability of the policy network learned by supervised learning when the simulation proceeds to the leaf node.
최적 프로모션 탐색 모듈(112)의 Evaluation 단계는, 새로 추가된 잎 노드로부터 가치망을 사용해 판단한 가치(보상 가능성)와 잎 노드로부터 정책망을 사용해 프로모션 에피소드가 끝날 때까지 진행해 얻은 보상을 통해 잎 노드의 가치를 평가하는 단계이다. 아래 수학식은 새로운 잎 노드의 가치를 평가하는 예시이다. In the evaluation step of the optimal promotion search module 112, the leaf node's value (reward possibility) determined using the value network from the newly added leaf node and the reward obtained by proceeding from the leaf node to the end of the promotion episode using the policy network This is the step of evaluating the value. The following equation is an example of evaluating the value of a new leaf node.
위 수학식 5에서 V(sL)은 잎 노드의 가치, λ는 mixing 파라미터, vθ(sL)은 가치망을 통해 얻은 가치, zL은 시뮬레이션을 계속하여 얻은 보상을 의미할 수 있다. In Equation 5 above, V(s L ) is the value of the leaf node, λ is the mixing parameter, v θ (s L ) is the value obtained through the value network, and z L is the reward obtained by continuing the simulation.
최적 프로모션 탐색 모듈(112)의 Backup 단계는, 새로 추가된 잎 노드의 가치를 반영하여 시뮬레이션 중 방문한 노드들의 가치를 재평가하고 방문 빈도를 업데이트하는 단계이다. 아래 수학식은 노드 가치 재평가 및 방문 빈도 업데이트의 예시이다. The backup step of the optimal promotion search module 112 is a step of re-evaluating the values of the nodes visited during the simulation by reflecting the values of the newly added leaf nodes and updating the visit frequency. The following equation is an example of node value re-evaluation and visit frequency update.
위 수학식 6에서 sL i는 i번째 시뮬레이션에서의 잎 노드를, 1(s,a,i)는 i번째 시뮬레이션에서 연결 (s,a)를 방문했는지를 나타내고, 트리 탐색이 완료되면 알고리즘은 뿌리 노드로부터 가장 많이 방문된 연결(s,a)을 선택하도록 구성될 수 있다. 본 발명의 일실시예에 따른 최적 프로모션 탐색 모듈(112)에 따르면 정책망에 의해 선별되는 복수의 프로모션 속성에 대해 가치망을 기초로 복수회 시뮬레이션을 선행하여 최적의 프로모션 속성을 선택할 수 있게되는 효과가 발생된다. In Equation 6 above, s L i represents the leaf node in the i-th simulation, 1(s,a,i) represents whether the connection (s,a) was visited in the i-th simulation, and when the tree search is completed, the algorithm It can be configured to select the most visited connection (s,a) from the root node. According to the optimal promotion search module 112 according to an embodiment of the present invention, it is possible to select an optimal promotion attribute by performing a simulation multiple times based on the value network for a plurality of promotion attributes selected by the policy network. Occurs.
본 발명의 일실시예에 따르면, 복수의 에이전트(Agent)가 구성되도록 프로모션 추천 장치(11)가 구성될 수 있다. 복수의 에이전트가 구성되면 특정 상태, 특정 프로모션 속성 각각에 대해 프로모션 추천 장치가 추천하는 프로모션이 상호 경쟁하여, 일정한 예산 내에서 가장 최적의 제품 및 그에 대한 프로모션을 추천할 수 있게 되는 효과가 발생된다.According to an embodiment of the present invention, the
도 5는 본 발명의 일실시예에 따른 프로모션 추천 장치(11)의 동작예를 도시한 흐름도이다. 도 5에 도시된 바와 같이, 복수의 인터넷 쇼핑몰에서 상태 데이터를 트래킹하는 인터넷 쇼핑몰 데이터 허브 장치(12)에 의해 상태 s(t)가 입력되면 가치망(111)에 의해 정책망(110)의 복수개의 에이전트(agent)들에 의해 다양한 프로모션 속성들이 최적 프로모션 탐색 모듈(112)에 입력되고, 최적 프로모션 탐색 모듈(112)에 의해 출력되는 액션(action)인 추천 프로모션 속성 확률 a(t)에 의해 프로모션이 진행되는 것으로 에피소드 t가 종료되고 에피소드 t+1이 시작된다. 에피소드 t+1에서는 다시 a(t)에 의한 상태 변화인 s(t+1)이 인터넷 쇼핑몰 데이터 허브 장치(12)에 의해 입력되고, a(t)에 따른 보상인 r(t+1)이 곧바로 입력되어 가치망(111) 및 정책망(110)을 업데이트하게 된다. 5 is a flowchart showing an example of the operation of the
또한, 본 발명의 일실시예에 따르면, 추천 프로모션 속성 데이터(500)에 포함되는 데이터 중 프로모션 이미지 색상 정보의 경우, 본 발명의 일실시예에 따르면 실제 프로모션 이미지를 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치(1)가 수신하여 프로모션 이미지 색상 정보을 기초로 프로모션 이미지의 색감을 수정하여 수정된 프로모션 이미지를 출력할 수 있다. 도 6은 본 발명의 일실시예에 따른 프로모션 이미지 수정 장치(13)를 도시한 모식도이다. 도 6에 도시된 바와 같이, 프로모션 이미지 수정 장치(13)는 제너레이터와 ConvNet 인코더를 포함하도록 구성될 수 있다. In addition, according to an embodiment of the present invention, in the case of promotion image color information among data included in the recommended promotion attribute data 500, according to an embodiment of the present invention, the actual promotion image is used in an online shopping mall using artificial intelligence. The promotion performance prediction and
제너레이터는 VAE, GAN 등의 인코더 및 디코더로 구성된 이미지 제너레이터로 구성될 수 있고, 실제 프로모션 이미지(210)를 수신하여 색상이 변경된 생성된 프로모션 이미지(212)를 출력할 수 있다. 생성된 프로모션 이미지(212)는 다시 ConvNet 인코더에 수신되고, ConvNet 인코더는 인코딩된 프로모션 이미지(211)를 출력하여 추천 프로모션 속성 데이터(500)의 프로모션 이미지 색상 정보와 Cross entropy 계산되어 에러를 출력할 수 있다. 이러한 에러는 제너레이터에 다시 피드(feed)되어 생성된 프로모션 이미지(212)가 더 프로모션 이미지 색상 정보에 맞게 생성(generate)되도록 업데이트 될 수 있다. The generator may be composed of an image generator composed of encoders and decoders such as VAE and GAN, and may receive the actual promotional image 210 and output the generated
도 7은 본 발명의 일실시예에 따른 ConvNet 인코더의 예를 도시한 모식도이다. 도 7에 도시된 바와 같이, ConvNet 인코더는 [INPUT-CONV-RELU-POOL-FC]으로 구축할 수 있다. 입력 데이터인 생성된 프로모션 이미지(212)의 경우, INPUT 입력 이미지가 가로 32, 세로 32, 그리고 RGB 채널을 가지는 경우 입력의 크기는 [32x32x3]이다. CONV 레이어(Conv. Filter, 101)는 입력 이미지의 일부 영역과 연결되어 있으며, 이 연결된 영역과 자신의 가중치의 내적 연산(dot product)을 계산하게 된다. 결과 볼륨은 [32x32x12]와 같은 크기를 갖게 된다. RELU 레이어는 max(0,x)와 같이 각 요소에 적용되는 액티베이션 함수(activation function)이다. RELU 레이어는 볼륨의 크기를 변화시키지 않는다([32x32x12]). 그 결과 Activation map 1 (102)을 생성한다. POOL 레이어(pooling, 103)는 "가로,세로" 차원에 대해 다운샘플링(downsampling)을 수행해 [16x16x12]와 같이 줄어든 볼륨(Activation map 2, 104)을 출력한다. FC (fully-connected) 레이어(105)는 클래스 점수들을 계산해 [1x1x10]의 크기를 갖는 볼륨(output layer, 106)을 출력한다. "10"은 10개 카테고리에 대한 클래스 점수(본 발명의 일실시예에 따른 프로모션 이미지 색상 정보)에 해당한다. FC 레이어는 이전 볼륨의 모든 요소와 연결되어 있다.7 is a schematic diagram showing an example of a ConvNet encoder according to an embodiment of the present invention. As shown in Fig. 7, the ConvNet encoder can be constructed with [INPUT-CONV-RELU-POOL-FC]. In the case of the generated
이와 같이, ConvNet은 픽셀 값으로 이뤄진 원본 이미지를 각 레이어를 거치며 클래스 점수(본 발명의 일실시예에 따른 프로모션 이미지 색상 정보)로 변환(transform)시킨다. 어떤 레이어는 모수 (parameter)를 갖지만 어떤 레이어는 모수를 갖지 않는다. 특히 CONV/FC 레이어들은 단순히 입력 볼륨만이 아니라 가중치(weight)와 바이어스(bias)도 포함하는 액티베이션(activation) 함수이다. 반면 RELU/POOL 레이어들은 고정된 함수이다. CONV/FC 레이어의 모수 (parameter)들은 각 이미지에 대한 클래스 점수가 해당 이미지의 레이블과 같아지도록 그라디언트 디센트(gradient descent)로 학습된다.In this way, ConvNet transforms the original image consisting of pixel values into class scores (promotional image color information according to an embodiment of the present invention) through each layer. Some layers have parameters, while others do not. In particular, CONV/FC layers are activation functions that include not only the input volume but also weight and bias. On the other hand, RELU/POOL layers are fixed functions. The parameters of the CONV/FC layer are learned with gradient descent so that the class score for each image is the same as the label of the image.
CONV 레이어의 모수(parameter)들은 일련의 학습가능한 필터들로 이뤄져 있다. 각 필터는 가로/세로 차원으로는 작지만 깊이 (depth) 차원으로는 전체 깊이를 아우른다. 포워드 패스(forward pass) 때에는 각 필터를 입력 볼륨의 가로/세로 차원으로 슬라이딩시키며(정확히는 convolve시키며) 2차원의 액티베이션 맵 (activation map)을 생성한다. 필터를 입력 위로 슬라이딩 시킬 때, 필터와 입력 볼륨 사이에서 내적 연산(dot product)이 이뤄진다. 이러한 과정으로 ConvNet은 입력 데이터의 특정 위치의 특정 패턴에 대해 반응하는(activate) 필터를 학습하게 된다. 이런 액티베이션 맵(activation map)을 깊이(depth) 차원으로 쌓은 것이 곧 출력 볼륨이 된다. 그러므로 출력 볼륨의 각 요소들은 입력의 작은 영역만을 취급하고, 같은 액티베이션 맵 내의 뉴런들은 같은 필터를 적용한 결과이므로 같은 모수들을 공유한다.The parameters of the CONV layer consist of a series of learnable filters. Each filter is small in the horizontal/vertical dimension but covers the entire depth in the depth dimension. In the forward pass, each filter is slid (convolved precisely) to the horizontal/vertical dimensions of the input volume, and a two-dimensional activation map is created. When sliding the filter over the input, a dot product is performed between the filter and the input volume. Through this process, ConvNet learns a filter that activates for a specific pattern at a specific location of the input data. The stacking of these activation maps in the depth dimension becomes the output volume. Therefore, each element of the output volume only handles a small area of the input, and neurons in the same activation map share the same parameters as the result of applying the same filter.
도 8은 본 발명의 일실시예에 따른 프로모션 추천 방법을 도시한 흐름도이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 프로모션 추천 방법은, 프로모션 성과 예측 단계(S10), 상태 정보 수신 단계(S11), 추천 프로모션 속성 데이터 출력 단계(S12), 상태 및 보상 정보 수신 단계(S13), 정책망 및 가치망 업데이트 단계(S14)를 포함할 수 있다. 8 is a flowchart illustrating a promotion recommendation method according to an embodiment of the present invention. As shown in FIG. 8, the promotion recommendation method according to an embodiment of the present invention includes a promotion performance prediction step (S10), a status information reception step (S11), a recommendation promotion attribute data output step (S12), a status and a reward. It may include an information reception step (S13), a policy network and a value network update step (S14).
프로모션 성과 예측 단계(S10)는 프로모션 성과 예측 인공신경망 장치가 기존의 프로모션 속성 데이터, 성과 데이터를 수신하여 특정 프로모션 속성에 대한 프로모션 성과를 예측한 뒤 프로모션 추천 장치(11)에 송신하는 단계이다. 예측된 프로모션 성과 데이터는 정책망과 가치망의 초기값으로 이용될 수 있다. In the promotion performance prediction step (S10), the promotion performance prediction artificial neural network device receives the existing promotion attribute data and performance data, predicts the promotion performance for a specific promotion attribute, and transmits it to the
상태 정보 수신 단계(S11)는 프로모션 추천 장치(11)가 인터넷 쇼핑몰 데이터 허브 장치에서 에피소드 t에 대한 상태 정보(st)를 수신하는 단계이다. The status information reception step S11 is a step in which the
추천 프로모션 속성 데이터 출력 단계(S12)는 프로모션 추천 장치(11)가 최적 프로모션 탐색 모듈(112)을 통해 에피소드 t에 대한 추천 프로모션 속성 확률을 포함하는 추천 프로모션 속성 데이터(at)를 출력하는 단계이다. The recommended promotion attribute data output step (S12) is a step in which the
상태 및 보상 정보 수신 단계(S13)는 추천 프로모션 속성 데이터에 따라 인터넷 쇼핑몰에 프로모션이 적용된 뒤, 프로모션 추천 장치(11)가 인터넷 쇼핑몰 데이터 허브 장치에서 에피소드 t+1에 대한 상태 정보(st+1) 및 at에 대한 보상 정보(rt+1)를 수신하는 단계이다. After the promotion is applied to the internet shopping mall according to the recommended promotion attribute data, the status and reward information reception step (S13) is performed by the
정책망 및 가치망 업데이트 단계(S14)는 수신된 상태 정보(st+1) 및 at에 대한 보상 정보(rt+1)를 기초로 정책망과 가치망을 업데이트하는 단계이다. The policy network and value network update step (S14) is a step of updating the policy network and the value network based on the received state information (s t+1 ) and compensation information for a t (r t+1 ).
강화학습의 관점에서, 본 발명의 일실시예에 따른 프로모션 추천 방법의 Objective는 프로모션의 성과를 향상시키는 것이고, 상태(State)는 현재 성과 데이터(판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price), 매출이익 등) 및 환경 데이터(날짜, 요일, 날씨, 현재 프로모션 진행 중인 제품, 쇼핑몰, 쇼핑몰의 다른 제품 정보)를 의미할 수 있고, 액션(Action)은 프로모션 속성 데이터(프로모션 카테고리(할인 프로모션, 사은품 프로모션 등), 프로모션 기간, 프로모션 쇼핑몰, 노출구좌, 프로모션 이미지 색상 등)을 의미할 수 있으며, 보상(Reward)은 특정 기간 동안의 성과 데이터의 상승 또는 하강을 의미할 수 있다. In terms of reinforcement learning, the objective of the promotion recommendation method according to an embodiment of the present invention is to improve the performance of the promotion, and the state is the current performance data (Quantity, Sales Amount, Inflow (Page View), Conversion Rate, Average Sales Price, Sales Profit, etc.) and environmental data (date, day of the week, weather, products currently being promoted, shopping malls, other product information of shopping malls) Action can mean promotion attribute data (promotion category (discount promotion, free gift promotion, etc.), promotion period, promotional shopping mall, exposure account, promotion image color, etc.), and reward is a specific It can mean a rise or fall in performance data over a period.
이상에서 설명한 바와 같이, 본 발명이 속하는 기술 분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 상술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함하는 것으로 해석되어야 한다.As described above, those skilled in the art to which the present invention pertains will appreciate that the present invention can be implemented in other specific forms without changing the technical spirit or essential features thereof. Therefore, the above-described embodiments are illustrative in all respects and should be understood as non-limiting. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and equivalent concepts should be interpreted as being included in the scope of the present invention.
본 명세서 내에 기술된 특징들 및 장점들은 모두를 포함하지 않으며, 특히 많은 추가적인 특징들 및 장점들이 도면들, 명세서, 및 청구항들을 고려하여 당업자에게 명백해질 것이다. 더욱이, 본 명세서에 사용된 언어는 주로 읽기 쉽도록 그리고 교시의 목적으로 선택되었고, 본 발명의 주제를 묘사하거나 제한하기 위해 선택되지 않을 수도 있다는 것을 주의해야 한다.The features and advantages described herein are not all inclusive, and in particular many additional features and advantages will become apparent to those skilled in the art in view of the drawings, specification, and claims. Moreover, it should be noted that the language used herein has been selected primarily for readability and for teaching purposes, and may not be chosen to describe or limit the subject matter of the invention.
본 발명의 실시예들의 상기한 설명은 예시의 목적으로 제시되었다. 이는 개시된 정확한 형태로 본 발명을 제한하거나, 빠뜨리는 것 없이 만들려고 의도한 것이 아니다. 당업자는 상기한 개시에 비추어 많은 수정 및 변형이 가능하다는 것을 이해할 수 있다.The above description of embodiments of the present invention has been presented for purposes of illustration. It is not intended to be exhaustive or to limit the invention to the precise form disclosed. Those skilled in the art will understand that many modifications and variations are possible in light of the above disclosure.
그러므로 본 발명의 범위는 상세한 설명에 의해 한정되지 않고, 이를 기반으로 하는 출원의 임의의 청구항들에 의해 한정된다. 따라서, 본 발명의 실시예들의 개시는 예시적인 것이며, 이하의 청구항에 기재된 본 발명의 범위를 제한하는 것은 아니다.Therefore, the scope of the invention is not limited by the detailed description, but by any claims in the application on which it is based. Accordingly, the disclosure of the embodiments of the present invention is illustrative and does not limit the scope of the present invention described in the following claims.
1: 인공지능을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치
10: 프로모션 성과 예측 인공신경망 장치
11: 프로모션 추천 장치
12: 인터넷 쇼핑몰 데이터 허브 장치
13: 프로모션 이미지 수정 장치
100: 제품 속성 데이터
110: 정책망
111: 가치망
112: 최적 프로모션 탐색 모듈
200: 프로모션 속성 데이터
300: 성과 데이터
400: 프로모션 성과 예측 데이터
500: 추천 프로모션 속성 데이터1: Device for predicting and recommending promotion performance in online shopping malls using artificial intelligence
10: Promotional performance prediction artificial neural network device
11: Promotional recommendation device
12: Internet shopping mall data hub device
13: Promotional image editing device
100: product attribute data
110: policy network
111: value chain
112: Optimal Promotion Search Module
200: promotion attribute data
300: performance data
400: Promotional performance prediction data
500: Recommended promotion attribute data
Claims (1)
상기 프로모션 성과 예측 인공신경망 모듈 및 상기 프로모션 추천 모듈의 프로그램 코드를 처리하여 특정 프로모션의 성과를 예측하고 프로모션 속성을 추천하는 처리 모듈;
을 포함하고,
상기 프로모션 추천 모듈의 상기 프로그램 코드는,
상기 프로모션 성과 예측 인공신경망 모듈에서 특정 프로모션 속성에 대해 예측된 프로모션 성과에 대한 정보인 프로모션 성과 예측 데이터를 수신하는 프로모션 성과 예측 단계;
에피소드 t에 대한 제1상태 정보(st)를 수신하는 상태 정보 수신 단계;
상기 제1상태 정보 및 상기 프로모션 성과 예측 데이터를 기초로 가치망에서 보상 가능성 정보를 생성한 뒤, 상기 보상 가능성 정보를 기초로 정책망에서 복수개의 액션(action)인 추천 프로모션 속성 확률을 출력하는 속성 확률 출력 단계;
상기 복수개의 추천 프로모션 속성 확률을 기초로 최적 프로모션 탐색을 통해 상기 에피소드 t에 대한 추천 프로모션 속성 데이터(at)를 선정하여 출력하는 추천 프로모션 속성 데이터 출력 단계;
상기 추천 프로모션 속성 데이터에 따른 프로모션이 적용된 뒤, 에피소드 t+1에 대한 제2상태 정보(st+1) 및 상기 추천 프로모션 속성 데이터(at)에 대한 보상 정보(rt+1)를 수신하는 상태 및 보상 정보 수신 단계; 및
수신된 상기 제2상태 정보(st+1) 및 상기 보상 정보(rt+1)를 기초로 상기 정책망과 상기 가치망을 업데이트하는 정책망 및 가치망 업데이트 단계;
를 포함하여 컴퓨터 상에서 수행되도록 구성되고,
상기 제1상태 정보 및 제2상태 정보는 성과 데이터(판매수량(Quantity), 매출액(Sales Amount), 유입량(Page View), 전환율(Conversion Rate), 평균판매단가(Average Sales Price) 또는 매출이익) 및 환경 데이터(날짜 정보, 요일 정보, 날씨 정보, 프로모션 진행 중인 제품 정보, 쇼핑몰 정보 또는 쇼핑몰의 다른 제품 정보)를 의미하며,
상기 추천 프로모션 속성 데이터는 프로모션 카테고리, 프로모션 기간, 프로모션 쇼핑몰, 노출구좌 또는 프로모션 이미지 색상을 의미하고,
상기 보상 정보는 특정 기간 동안의 상기 성과 데이터의 상승 또는 하강을 의미하며,
상기 정책망은 각 상태에서 상기 추천 프로모션 속성 확률을 출력하는 인공신경망이고, 상기 정책망의 Cost function은 아래 수학식 1과 같이 구성되며,
상기 가치망은 각 상태에서 보상(Reward)을 달성할 가능성인 상기 보상 가능성 정보를 생성하는 인공신경망이고, 상기 가치망의 Cost function은 아래 수학식 2와 같이 구성되는 것을 특징으로 하는,
정책망 및 가치망을 이용한 온라인 쇼핑몰에서의 프로모션 성과 예측 및 추천 장치:
[수학식 1]
[수학식 2]
상기 수학식 1에서, π는 정책 함수, θ는 정책망 파라미터, πθ(ai│si)는 현재 에피소드에서 특정 액션(특정 속성의 프로모션)을 할 가능성, V는 가치 함수, w는 가치망 파라미터, si는 현재 에피소드인 i의 상태 정보, Si+1은 다음 에피소드인 i+1의 상태 정보, ri+1은 다음 에피소드에서 획득하는 것으로 예상되는 보상, Vw(si)는 현재 에피소드에서의 보상 가능성, Vw(si+1)는 다음 에피소드에서의 보상 가능성, γ는 감가율을 의미,
상기 수학식 2에서, V는 가치 함수, w는 가치망 파라미터, si는 현재 에피소드인 i의 상태 정보, Si+1은 다음 에피소드인 i+1의 상태 정보, ri+1은 다음 에피소드에서 획득하는 것으로 예상되는 보상, Vw(si)는 현재 에피소드에서의 보상 가능성, Vw(si+1)는 다음 에피소드에서의 보상 가능성, γ는 감가율을 의미.
A memory module for storing a program code of a promotion performance prediction artificial neural network module and a promotion recommendation module previously learned based on promotion attribute data and performance data for at least one online shopping mall; And
A processing module for predicting a performance of a specific promotion and recommending a promotion attribute by processing the promotion performance prediction artificial neural network module and the program code of the promotion recommendation module;
Including,
The program code of the promotion recommendation module,
A promotion performance prediction step of receiving promotion performance prediction data, which is information on promotion performance predicted for a specific promotion attribute, by the promotion performance prediction artificial neural network module;
A state information receiving step of receiving first state information (s t ) for episode t;
Attribute for generating reward possibility information in a value network based on the first state information and the promotion performance prediction data, and then outputting a recommendation promotion attribute probability that is a plurality of actions in a policy network based on the reward possibility information Probability output step;
A recommended promotion attribute data output step of selecting and outputting recommended promotion attribute data (a t ) for the episode t through optimal promotion search based on the plurality of recommended promotion attribute probabilities;
After the promotion according to the recommended promotion attribute data is applied, second state information (s t+1 ) for episode t+1 and reward information (r t+1 ) for the recommended promotion attribute data (a t) are received. Receiving status and compensation information; And
A policy network and value network updating step of updating the policy network and the value network based on the received second state information (s t+1 ) and the compensation information (r t+1 );
It is configured to be performed on a computer including,
The first state information and the second state information are performance data (Quantity, Sales Amount, Page View), Conversion Rate, Average Sales Price or Sales Profit) And environmental data (date information, day of the week information, weather information, product information in progress, shopping mall information or other product information in the shopping mall),
The recommended promotion attribute data refers to a promotion category, promotion period, promotion shopping mall, exposure account or promotion image color,
The compensation information means an increase or decrease in the performance data for a specific period,
The policy network is an artificial neural network that outputs the recommended promotion attribute probability in each state, and the cost function of the policy network is configured as in Equation 1 below,
The value network is an artificial neural network that generates the reward possibility information, which is a possibility of achieving a reward in each state, and the cost function of the value network is configured as in Equation 2 below,
Device for predicting and recommending promotion performance in online shopping malls using policy and value networks:
[Equation 1]
[Equation 2]
In Equation 1, π is a policy function, θ is a policy network parameter, π θ (a i │s i ) is the probability of performing a specific action (promotion of a specific attribute) in the current episode, V is a value function, and w is a value Network parameter, s i is the state information of the current episode i, S i+1 is the state information of the next episode i+1, r i+1 is the reward expected to be acquired in the next episode, V w (s i ) Is the probability of compensation in the current episode, V w (s i+1 ) is the probability of compensation in the next episode, γ is the depreciation rate,
In Equation 2, V is a value function, w is a value network parameter, s i is the state information of the current episode i, S i+1 is the state information of the next episode i+1 , and r i+1 is the next episode. Reward expected to be obtained at, V w (s i ) is the probability of compensation in the current episode, V w (s i+1 ) is the probability of compensation in the next episode, and γ is the depreciation rate.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152767A KR102161294B1 (en) | 2018-11-30 | 2018-11-30 | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180152767A KR102161294B1 (en) | 2018-11-30 | 2018-11-30 | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180049454A Division KR101926403B1 (en) | 2018-04-27 | 2018-04-27 | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190134966A KR20190134966A (en) | 2019-12-05 |
KR102161294B1 true KR102161294B1 (en) | 2020-10-05 |
Family
ID=69002403
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180152767A KR102161294B1 (en) | 2018-11-30 | 2018-11-30 | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102161294B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310915B (en) * | 2020-01-21 | 2023-09-01 | 浙江工业大学 | Data anomaly detection defense method oriented to reinforcement learning |
CN111561732B (en) * | 2020-05-18 | 2021-02-09 | 瑞纳智能设备股份有限公司 | Heat exchange station heat supply adjusting method and system based on artificial intelligence |
KR102568297B1 (en) * | 2021-11-09 | 2023-08-21 | 씨제이대한통운(주) | A method for calculating the estimated time of arrival of a ship and an device for the same |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100792700B1 (en) | 2006-03-17 | 2008-01-08 | 엔에이치엔(주) | Method for targeting web advertisement clickers based on click pattern by using a collaborative filtering system with neural networks and system thereof |
CN112633914A (en) * | 2014-07-01 | 2021-04-09 | 谷歌有限责任公司 | System and method for suggesting creative types for online content items to advertisers |
-
2018
- 2018-11-30 KR KR1020180152767A patent/KR102161294B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190134966A (en) | 2019-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101926403B1 (en) | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence | |
KR101926404B1 (en) | Promotional image improvement apparatus and method in online shopping mall using artificial intelligence | |
KR102072820B1 (en) | Promotional image improvement apparatus and method in online shopping mall using artificial intelligence | |
Chinnamgari | R Machine Learning Projects: Implement supervised, unsupervised, and reinforcement learning techniques using R 3.5 | |
Salehinejad et al. | Customer shopping pattern prediction: A recurrent neural network approach | |
KR102161294B1 (en) | Promotion Performance Prediction and Recommendation Apparatus in Online Shopping Mall Using Artificial Intelligence | |
KR102203253B1 (en) | Rating augmentation and item recommendation method and system based on generative adversarial networks | |
CN110796261B (en) | Feature extraction method and device based on reinforcement learning and computer equipment | |
KR102409718B1 (en) | Method and system for managing personal review shop on commerce platform connected with social network service | |
KR102546871B1 (en) | Method, device and system for recommending order information through pattern analysis of order history regarding distribustion of food materials and subsidiary materials for business to business based on artificial intelligence model | |
Wang et al. | M-GAN-XGBOOST model for sales prediction and precision marketing strategy making of each product in online stores | |
CN105830099A (en) | Determining paths through a workflow | |
Habib | Hands-on Q-learning with python: Practical Q-learning with openai gym, Keras, and tensorflow | |
CN110689110A (en) | Method and device for processing interaction event | |
Zheng et al. | Multiheaded deep learning chatbot for increasing production and marketing | |
KR20210144330A (en) | Method and apparatus for recommending item based on collaborative filtering neural network | |
Ramasubbareddy et al. | Sales analysis on back friday using machine learning techniques | |
Vargas-Pérez et al. | Deep reinforcement learning in agent-based simulations for optimal media planning | |
KR20210047147A (en) | Artificial intelligence based hotel recommendation device and method | |
US20220108334A1 (en) | Inferring unobserved event probabilities | |
KR102552856B1 (en) | Method, device and system for automating creation of content template and extracting keyword for platform service that provide content related to commerce | |
KR102485355B1 (en) | Method, device and system for providing online and offline sales event mediation platform service based on artificial intelligence | |
CN116204723A (en) | Social recommendation method based on dynamic hypergraph representation learning | |
CN110717537A (en) | Method and device for training user classification model and executing user classification prediction | |
Zutshi et al. | Simulation and forecasting of digital pricing models for an e-procurement platform using an agent-based simulation model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |