KR102299140B1 - Method and device for baduk game service based on deep-learning - Google Patents

Method and device for baduk game service based on deep-learning Download PDF

Info

Publication number
KR102299140B1
KR102299140B1 KR1020190085337A KR20190085337A KR102299140B1 KR 102299140 B1 KR102299140 B1 KR 102299140B1 KR 1020190085337 A KR1020190085337 A KR 1020190085337A KR 20190085337 A KR20190085337 A KR 20190085337A KR 102299140 B1 KR102299140 B1 KR 102299140B1
Authority
KR
South Korea
Prior art keywords
ethos
model
situation
information
learning
Prior art date
Application number
KR1020190085337A
Other languages
Korean (ko)
Other versions
KR20210008757A (en
Inventor
이준엽
박근한
박철웅
김충현
Original Assignee
엔에이치엔 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔 주식회사 filed Critical 엔에이치엔 주식회사
Priority to KR1020190085337A priority Critical patent/KR102299140B1/en
Priority to JP2020121161A priority patent/JP7065912B2/en
Publication of KR20210008757A publication Critical patent/KR20210008757A/en
Application granted granted Critical
Publication of KR102299140B1 publication Critical patent/KR102299140B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F3/00Board games; Raffle games
    • A63F3/02Chess; Similar board games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 복수의 기보 및 바둑판 상태에 기반한 적어도 둘 이상의 착수 후보수를 수신하는 통신부; 형세 판단 모델 및 기풍 판단부을 저장하는 저장부; 및 상기 형세 판단 모델을 독출하여 상기 형세 판단 모델의 학습을 수행하고 상기 학습된 형세 판단 모델을 이용하여 상기 착수 후보수가 적용된 바둑판의 형세를 판단하며, 상기 기풍 판단부가 상기 판단된 형세를 기반으로 상기 착수 후보수에 대한 기풍을 판단한 정보인 기풍판단 정보를 생성하는 프로세서;를 포함하고, 상기 형세 판단 모델은, 입력된 바둑판 상태에서 입력 특징을 추출하는 입력 특징 추출부; 및 상기 추출된 입력 특징을 기초하여 상기 입력된 바둑판 상태의 교차점에 대한 형세값을 생성하는 형세 판단 신경망;을 포함하고, 상기 기풍 판단부은, 상기 형세값을 기반으로 보유 집 정보를 생성하고, 상기 보유 집 정보는, 플레이어 집 수와 오포넌트 집 수를 산출한 정보인 형세판단 모델 서버이다. A Go game service method and apparatus based on deep learning according to an embodiment of the present invention, a communication unit for receiving at least two or more candidates based on a plurality of notations and Go board state; a storage unit for storing the situation determination model and the ethos determination unit; and reading the situation determination model to perform learning of the situation determination model, and using the learned situation determination model to determine the condition of the checkerboard to which the number of candidates to start is applied, and the ethos determination unit based on the determined situation Includes; a processor for generating wind judgment information that is information for determining the wind for the number of candidates to set out; and a situation determination neural network for generating a situation value for the intersection of the inputted checkerboard state based on the extracted input features, wherein the ethos determining unit generates holding house information based on the situation value, and the The holding house information is the situation judgment model server, which is information obtained by calculating the number of players and the number of component collections.

Description

딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치{METHOD AND DEVICE FOR BADUK GAME SERVICE BASED ON DEEP-LEARNING}Go game service method and device based on deep learning

본 발명은 딥러닝에 기반하여 바둑 게임 서비스를 제공하는 방법 및 그 장치에 관한 것이다. 보다 상세하게는, 딥러닝 신경망을 기반으로 바둑 형세를 판단하여 바둑 게임 플레이 시의 특정 기질이나 방식을 나타내는 기풍을 활용하는 바둑 게임 서비스 제공 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for providing a Go game service based on deep learning. More specifically, it relates to a method for providing a Go game service and an apparatus therefor that utilize the ethos indicating a specific temperament or method during Go game play by determining Go situation based on a deep learning neural network.

스마트폰, 태블릿 PC, PDA(Personal Digital Assistant), 노트북 등과 같은 사용자 단말의 이용이 대중화되고 정보 처리 기술이 발달함에 따라 사용자 단말을 이용하여 보드 게임의 일종인 바둑을 할 수 있게 되었고 나아가 사람이 아닌 프로그램된 인공지능 컴퓨터와 바둑 대국을 할 수 있게 되었다. As the use of user terminals such as smartphones, tablet PCs, personal digital assistants (PDA), and notebook computers has become popular and information processing technology has developed, it has become possible to play Go, a type of board game, using user terminals. It became possible to play Go games with a programmed artificial intelligence computer.

바둑은 다른 보드게임인 체스나 장기와 비교하였을 때 경우의 수가 많아서 인공지능 컴퓨터가 사람 수준으로 대국을 하는데 한계가 있었고 인공지능 컴퓨터의 기력을 높이기 위한 연구가 활발하게 진행되고 있는 추세이다. 최근 개발자들은 인공지능 컴퓨터에 몬테 카를로 트리 서치(Monte Carlo Tree Search; MCTS) 알고리즘과 딥러닝 기술을 적용하여 인공지능 컴퓨터의 기력을 프로기사들의 수준 이상으로 올렸다.Compared to other board games such as chess and chess, there are many cases of Go, so there is a limit to how artificial intelligence computers can play matches at human level, and research to increase the energy of artificial intelligence computers is being actively conducted. Recently, developers applied the Monte Carlo Tree Search (MCTS) algorithm and deep learning technology to artificial intelligence computers, raising the energy of artificial intelligence computers to the level of professional engineers.

그러나 일반적으로 기존의 바둑 AI 프로그램은, 단지 이기는 방법만을 학습하였기 때문에 플레이어(player)와 오포넌트(opponent) 간의 점수 차이를 고려한 착수에 어려움이 있다. 즉, 기존의 바둑 AI 프로그램은 바둑 게임 플레이 시 후반부로 갈수록 점차 점수 차이가 좁혀지게 되고, 매우 적은 점수 차이로 승리하는 경향(방어적인 성향)이 두드러지는 문제가 있다. However, in general, existing Go AI programs have difficulty in starting considering the difference in scores between players and opponents because they only learn how to win. That is, the existing Go AI program has a problem in that the score difference gradually narrows toward the second half of Go game play, and the tendency to win with a very small score difference (defensive tendency) is prominent.

또한, 기존의 바둑 AI 프로그램은 실제 바둑 게임 플레이 시 구현되는 플레이어의 특정 기질이나 방식인 기풍을 구현하는데 어려움이 있다. 여기서 기풍이란 바둑이나 장기와 같은 게임 진행 시에 나타나는 독특한 플레이 방식이나 기질을 의미한다. 즉, 기존의 바둑 AI 프로그램은 이기도록 학습되어 일관적인 플레이 방식만으로 구현됨으로써 다양한 기풍으로 바둑 게임을 플레이하는데 한계가 있다. In addition, the existing Go AI program has difficulty in implementing the ethos, which is a specific temperament or method of a player that is implemented when playing the actual Go game. Here, ethos refers to a unique play style or temperament that appears in the course of a game such as Go or shogi. That is, the existing Go AI program is learned to win and implemented only with a consistent play method, so there is a limit to playing Go games with various ethos.

더하여, 인공지능 컴퓨터와의 효과적인 바둑 대국을 위해서는 플레이어의 니즈(needs) 또는 능력치에 따라서 정밀하게 게임 난이도를 조절할 필요성이 있으나, 이를 구현하기 위한 기술이 미흡하여 새로운 기술 도입이 필요한 실정이다. In addition, in order to effectively play Go with an artificial intelligence computer, it is necessary to precisely adjust the game difficulty according to the player's needs or abilities, but the technology for implementing this is insufficient, so the introduction of new technology is required.

특허문헌 1: 공개특허공보 제10-2015-0129265호Patent Document 1: Unexamined Patent Publication No. 10-2015-0129265

본 발명은 전술한 문제점을 해결하기 위하여 안출된 딥러닝에 기반하여 바둑 게임 서비스를 제공하는 방법 및 그 장치에 관한 것이다. 보다 상세하게는, 딥러닝 신경망을 기반으로 바둑 형세를 판단하여 바둑 게임 플레이 시의 특정 기질이나 방식을 나타내는 기풍을 활용하는 바둑 게임 서비스 제공 방법 및 그 장치를 제안하고자 한다. The present invention relates to a method and apparatus for providing a Go game service based on deep learning devised to solve the above problems. More specifically, it is intended to propose a method and device for providing a Go game service that utilizes the ethos indicating a specific temperament or method during Go game play by judging Go situation based on a deep learning neural network.

자세히, 본 발명은 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅의 예측을 기반으로 바둑의 형세를 판단하여 기풍을 판단하고 이를 기초로 학습을 수행하여 바둑 게임 플레이 시에 기풍을 적용한 대국을 진행하는 딥러닝 기반의 바둑 게임 서비스 제공 방법 및 장치를 그 목적으로 한다. In detail, the present invention determines the ethos by judging the situation of Go based on the predictions of houses, stones, stones, banquets, and big according to the rules of Go, and performs learning based on the ethos to apply the ethos when playing the Go game. The purpose is to provide a method and apparatus for providing a Go game service based on deep learning in progress.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems as described above, and other technical problems may exist.

본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 복수의 기보 및 바둑판 상태에 기반한 적어도 둘 이상의 착수 후보수를 수신하는 통신부; 형세 판단 모델 및 기풍 판단부을 저장하는 저장부; 및 상기 형세 판단 모델을 독출하여 상기 형세 판단 모델의 학습을 수행하고 상기 학습된 형세 판단 모델을 이용하여 상기 착수 후보수가 적용된 바둑판의 형세를 판단하며, 상기 기풍 판단부가 상기 판단된 형세를 기반으로 상기 착수 후보수에 대한 기풍을 판단한 정보인 기풍판단 정보를 생성하는 프로세서;를 포함하고, 상기 형세 판단 모델은, 입력된 바둑판 상태에서 입력 특징을 추출하는 입력 특징 추출부; 및 상기 추출된 입력 특징을 기초하여 상기 입력된 바둑판 상태의 교차점에 대한 형세값을 생성하는 형세 판단 신경망;을 포함하고, 상기 기풍 판단부는, 상기 형세값을 기반으로 보유 집 정보를 생성하고, 상기 보유 집 정보는, 플레이어 집 수와 오포넌트 집 수를 산출한 정보이다. A Go game service method and apparatus based on deep learning according to an embodiment of the present invention, a communication unit for receiving at least two or more candidates based on a plurality of notations and Go board state; a storage unit for storing the situation determination model and the ethos determination unit; and reading the situation determination model to perform learning of the situation determination model, and using the learned situation determination model to determine the condition of the checkerboard to which the number of candidates to start is applied, and the ethos determination unit based on the determined situation Includes; a processor for generating wind judgment information that is information for determining the wind for the number of candidates to set out; and a situation determination neural network for generating a situation value for the intersection of the inputted checkerboard state based on the extracted input feature; the ethos determining unit generates, based on the situation value, holding house information, and The possession information is information obtained by calculating the number of players and the number of component collections.

이때, 상기 기풍 판단부는, 상기 형세값과 소정의 임계값 및 돌의 유무를 이용하여 플레이어와 오포넌트의 집 영역을 판단하여 상기 보유 집 정보를 생성한다. At this time, the ethos determining unit generates the possession house information by determining the house area of the player and the Oponent by using the situation value, a predetermined threshold value, and the presence or absence of a stone.

또한, 상기 기풍 판단부은, 착수 모델이 학습하고자 하는 기풍을 결정하는 목표기풍 정보를 설정한다. In addition, the ethos determining unit sets target ethos information for determining the ethos to be learned by the start model.

또한, 상기 기풍 판단부은, 상기 착수 후보수와 상기 목표기풍 정보를 기반으로 상기 기풍판단 정보를 생성하고, 상기 보유 집 정보를 기반으로 플레이어 점수값과 오포넌트 점수값을 산출하며, 상기 산출된 플레이어 점수값과 오포넌트 점수값을 기반으로 점수 차이값을 생성한다. In addition, the ethos determination unit generates the ethos determination information based on the number of candidates to start and the target ethos information, and calculates a player score value and an element score value based on the holding house information, and the calculated player A score difference value is generated based on the score value and the component score value.

또한, 상기 기풍 판단부는, 상기 착수 후보수에 대한 기풍 판단 프로세스의 일 파라미터인 기풍판단 임계치를 설정하고, 상기 점수 차이값과 상기 기풍판단 임계치를 비교하여 상기 착수 후보수 각각에 대한 상기 기풍판단 정보를 생성한다. In addition, the spirit determination unit sets a gi wind determination threshold, which is a parameter of the gi wind determination process for the number of start candidates, and compares the score difference value with the gi wind determination threshold value, and the gi wind determination information for each of the number of start candidates. create

또한, 상기 기풍 판단부는, 상기 기풍판단 정보를 기반으로 착수 모델의 자가 학습을 보조하는 기풍 학습 데이터를 생성한다. In addition, the ethos determining unit generates ethos learning data that assists self-learning of the set off model based on the ethos determination information.

또한, 상기 통신부는, 상기 착수 모델로부터 기풍 학습 성능정보를 획득하고, In addition, the communication unit, obtains the gi wind learning performance information from the start model,

상기 기풍 판단부는, 상기 착수 모델로부터 획득되는 기풍 학습 성능정보를 기반으로 상기 기풍판단 임계치를 조정한다. The spirit determination unit adjusts the spirit determination threshold based on the wind learning performance information obtained from the set off model.

한편, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 기풍 학습 데이터를 수신하는 통신부; 착수 모델을 저장하는 저장부; 및 상기 착수 모델을 독출하고 상기 착수 모델의 학습을 수행하고, 상기 학습된 착수 모델을 이용하여 바둑판 상태에 기반한 둘 이상의 착수 후보수를 생성하는 프로세서;를 포함하고, 상기 착수 모델은, 몬테 카를로 트리 서치(Monte Carlo Tree Search; MCTS)를 기반으로 상기 착수 후보수를 제공하는 탐색부;와, 상기 탐색부를 가이드하는 착수 신경망;과, 셀프 플레이를 수행하여 상기 착수 신경망이 자가 학습되도록 하는 셀프 플레이부; 및 상기 기풍 학습 데이터에 기반한 상기 자가 학습을 보조하는 기풍학습 보조부를 포함하고, 상기 셀프 플레이부는, 상기 기풍 학습 데이터를 기초로 학습된 상위버전 착수 모델과, 하위버전 착수 모델 간의 바둑 게임을 수행한다. On the other hand, the Go game service method and the apparatus based on deep learning according to an embodiment of the present invention, the communication unit for receiving the ethos learning data; A storage unit for storing the launch model; and a processor that reads the set off model and performs learning of the set off model, and generates two or more start candidates based on the checkerboard state using the learned start model. A search unit that provides the number of start candidates based on a search (Monte Carlo Tree Search; MCTS); and a start neural network that guides the search unit; and a self-play unit that self-learns the start neural network by performing self-play ; And it includes a ethos learning auxiliary unit for assisting the self-learning based on the ethos learning data, wherein the self-play unit performs a Go game between the higher version start model and the lower version start model learned based on the ethos learning data. .

이때, 상기 기풍학습 보조부는, 상기 자가 학습의 결과를 기반으로 기풍판단 정보를 진단한 정보인 기풍 학습 성능정보를 생성한다. At this time, the gi wind learning auxiliary unit, based on the result of the self-learning generates gi wind learning performance information that is information for diagnosing the gi wind determination information.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 통신부, 형세 판단 모델 및 기풍 판단부가 저장된 저장부, 상기 형세 판단 모델 및 상기 기풍 판단부를 구동하는 프로세서를 포함하는 형세판단 모델 서버에 의해 바둑판 상태의 형세를 판단하여 기풍을 판단하고 기풍 학습 데이터를 생성하는 딥러닝 기반의 바둑 게임 서비스 방법에 있어서, 상기 프로세서가 목표기풍 정보를 설정하는 단계; 상기 기풍 판단부가 기풍판단 임계치를 설정하는 단계; 상기 통신부가 바둑판 상태에 기반한 둘 이상의 착수 후보수를 획득하는 단계; 상기 프로세서가 상기 형세 판단 모델을 이용하여 상기 착수 후보수가 적용된 바둑판 상태의 형세를 판단하는 단계; 상기 프로세서가 상기 기풍 판단부를 이용하여 상기 판단된 형세를 기반으로 상기 착수 후보수 각각에 대한 점수 차이값을 산출하는 단계; 상기 프로세서가 상기 기풍 판단부를 이용하여 상기 산출된 점수 차이값과 상기 기풍판단 임계치를 기반으로 상기 착수 후보수 각각에 대한 기풍판단 정보를 생성하는 단계; 및 상기 통신부가 상기 생성된 기풍판단 정보와 상기 목표기풍 정보를 기반으로 상기 착수 후보수 각각에 대한 상기 기풍 학습 데이터를 생성하여 송신하는 단계를 포함하고, 상기 기풍판단 정보는, 상기 착수 후보수의 착수에 의하여 구현되는 기풍의 카테고리를 판단한 정보이다. In addition, the Go game service method and apparatus based on deep learning according to an embodiment of the present invention includes a communication unit, a storage unit in which a situation determination model and a style determination unit are stored, a processor for driving the situation determination model and the style determination unit In the deep learning-based Go game service method for determining the ethos and generating ethos learning data by determining the situation of the Go board state by a situation judgment model server comprising the steps of: setting, by the processor, target ethos information; setting, by the air wind determination unit, a wind wind determination threshold; acquiring the number of two or more start candidates based on the state of the checkerboard by the communication unit; determining, by the processor, the situation of the checkerboard state to which the number of candidates to start is applied by using the situation determination model; calculating, by the processor, a score difference value for each of the number of start candidates based on the determined situation using the ethos determination unit; generating, by the processor, the geography determination information for each of the number of candidates to set out on the basis of the calculated score difference value and the gi wind determination threshold using the gi wind determination unit; and generating and transmitting, by the communication unit, the wind learning data for each of the number of start candidates based on the generated spirit determination information and the target air wind information, wherein the spirit determination information is the number of start candidates. It is information that judges the category of ethos that is implemented by initiation.

이때, 착수 모델 서버로부터 기풍 학습 성능정보를 수신하는 단계를 더 포함하고, 상기 기풍 학습 성능정보는, 상기 착수 모델 서버가 상기 기풍 학습 데이터를 기반으로 상기 기풍판단 정보를 진단한 정보이다. At this time, further comprising the step of receiving the gi wind learning performance information from the starting model server, the gi wind learning performance information, the starting model server is the information for diagnosing the gi wind determination information based on the gi wind learning data.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 상기 기풍 학습 성능정보를 기반으로 상기 기풍판단 임계치를 조정하는 단계를 더 포함한다. In addition, the Go game service method and apparatus based on deep learning according to an embodiment of the present invention, further comprising the step of adjusting the spirit judgment threshold based on the spirit learning performance information.

또한, 상기 점수 차이값을 산출하는 단계는, 상기 착수 후보수 각각에 대한 형세 판단을 기반으로 형세값을 도출하여 플레이어 집 수와 오포넌트 집 수를 산출한 정보인 보유 집 정보를 생성하는 단계와, 상기 보유 집 정보를 기반으로 플레이어 점수값과 오포넌트 점수값을 산출하여 상기 점수 차이값을 생성하는 단계를 포함한다. In addition, the calculating of the score difference value includes the steps of deriving a situation value based on the situation determination for each of the number of candidates to start, and generating holding house information, which is information obtained by calculating the number of player houses and the number of oponent collections; , calculating a player score value and an element score value based on the holding house information to generate the score difference value.

또한, 상기 기풍의 카테고리는, 공격적 기풍, 안정적 기풍 및 방어적 기풍을 포함하고, 상기 공격적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치보다 큰 경우이고, 상기 안정적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치와 동일한 경우이고, 상기 방어적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치보다 작은 경우이다. In addition, the category of the ethos includes an aggressive ethos, a stable ethos, and a defensive ethos, wherein the aggressive ethos is a case in which the score difference value is greater than the ethos judgment threshold, and the stable ethos is the score difference value is the ethos. It is the same as the judgment threshold, and the defensive ethos is a case in which the score difference value is smaller than the ethos judgment threshold.

본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 정확히 구분하여 바둑의 형세를 예측함으로써 바둑의 형세 및 특정 착수점에 대한 기풍을 정확하게 판단할 수 있는 효과가 있다. A Go game service method and device based on deep learning according to an embodiment of the present invention accurately classify a house, a stone, a stone, a ball, and a big according to the Go rules and predict the condition of Go by predicting the situation and specific It has the effect of accurately judging the ethos of the starting point.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 바둑 게임 플레이 시에 다양한 기풍을 기반으로 대국의 진행을 도모함으로써 다각화된 플레이 방식에 기초하여 바둑 대국을 수행할 수 있고 정밀하게 대국 난이도를 조절할 수 있으며, 이를 통해 바둑 게임의 퀄리티 및 흥미를 증진시킬 수 있는 효과가 있다. In addition, the Go game service method and the device based on deep learning according to an embodiment of the present invention, the Go game based on a diversified play method by promoting the progress of the game based on various ethos during the Go game play. It can be performed and the difficulty of the game can be precisely adjusted, which has the effect of improving the quality and interest of the Go game.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 플레이어와 오포넌트 간의 점수 차이에 기초하여 기풍을 판단하고 이에 기반한 대국을 수행함으로써 단지 이기는 것뿐만 아니라 점수의 차이까지 고려한 바둑 게임 플레이를 수행할 수 있는 효과가 있다. In addition, the Go game service method and the apparatus based on deep learning according to an embodiment of the present invention, by judging the ethos based on the score difference between the player and the component, and performing a game based thereon, not only wins, but also scores It has the effect of being able to perform Go game play considering even the difference of .

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 목표로 하는 특정 기풍에 최적화된 학습이 수행되도록 동작함으로써 기풍을 구현하기 위한 학습을 효율적, 체계적으로 구현할 수 있는 효과가 있다. In addition, the Go game service method and the apparatus based on deep learning according to an embodiment of the present invention, by operating so that learning is performed optimized for a specific ethos to be targeted, efficiently and systematically implement learning to implement ethos can have an effect.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 시스템에 대한 예시도이다.
도 2는 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스에서 인공지능 컴퓨터의 착수를 위한 착수 모델 서버의 착수 모델 구조를 설명하기 위한 도면이다.
도 3은 착수 모델의 정책에 따른 착수점에 대한 이동 확률 분포를 설명하기 위한 도면이다.
도 4는 착수 모델의 착수점에 대한 가치값과 방문 횟수를 설명하기 위한 도면이다.
도 5는 착수 모델이 탐색부의 파이프 라인에 따라 착수하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스의 형세 판단 기능을 제공하는 화면을 보여 주는 예시도이다.
도 7은 본 발명의 형세판단 모델 서버의 형세 판단 모델 구조를 설명하기 위한 도면이다.
도 8은 본 발명의 형세 판단 모델의 복수의 블록으로 이루어진 신경망 구조 중 하나의 블록을 설명하기 위한 도면이다.
도 9는 본 발명의 형세 판단 모델을 학습하기 위해 사용되는 정답 레이블을 생성하기 위한 제1 및 제2 전처리 단계를 설명하기 위한 도면이다.
도 10은 본 발명의 형세 판단 모델을 학습하기 위해 사용되는 정답 레이블을 생성하기 위한 제1 및 제2 전처리 단계를 설명하기 위한 도면이다.
도 11은 본 발명의 형세 판단 모델을 학습하기 위해 사용되는 정답 레이블을 생성하기 위한 제3 전처리 단계를 설명하기 위한 도면이다.
도 12는 본 발명의 형세 판단 모델의 형세 판단 결과를 설명하기 위한 도면이다.
도 13은 본 발명의 형세 판단 모델의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이다.
도 14는 본 발명의 형세 판단 모델의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이다.
도 15는 본 발명의 형세 판단 모델의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이다.
도 16은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 시스템에 신호 흐름에 대한 예시도이다.
도 17은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법 중 형세 판단 방법이다.
도 18은 도 17의 형세 판단 방법 중 정답 레이블을 생성하기 위한 트레이닝 데이터의 전처리 방법이다.
도 19는 본 발명의 형세판단 모델 서버의 기풍 판단부 구조를 설명하기 위한 도면이다.
도 20은 본 발명의 실시예에 따른 딥러닝 신경망을 기반으로 바둑 형세를 판단하여 바둑 게임 플레이 시의 특정 기질이나 방식을 나타내는 기풍을 활용하는 방법을 설명하기 위한 흐름도이다.
도 21은 본 발명의 실시예에 따른 바둑 형세를 판단하여 바둑 게임 플레이 시의 기풍을 활용하는 방법을 설명하기 위한 개념도이다.
도 22는 본 발명의 실시예에 따른 착수 후보수 정보 각각에 대한 기풍판단 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 23는 본 발명의 다른 실시예에 따른 바둑 형세를 판단하여 바둑 게임 플레이 시의 기풍을 활용하는 방법을 설명하기 위한 개념도이다.
1 is an exemplary diagram of a deep learning-based Go game service system according to an embodiment of the present invention.
Figure 2 is a diagram for explaining the initiation model structure of the initiation model server for the initiation of an artificial intelligence computer in the deep learning-based Go game service according to an embodiment of the present invention.
Figure 3 is a view for explaining the movement probability distribution for the starting point according to the policy of the starting model.
4 is a view for explaining the value value and the number of visits to the starting point of the starting model.
5 is a view for explaining a process in which the launch model is launched according to the pipeline of the search unit.
6 is an exemplary diagram showing a screen providing a situation determination function of a deep learning-based Go game service according to an embodiment of the present invention.
7 is a diagram for explaining the structure of the situation determination model of the situation determination model server of the present invention.
8 is a diagram for explaining one block of the neural network structure composed of a plurality of blocks of the situation determination model of the present invention.
9 is a view for explaining the first and second pre-processing steps for generating a correct answer label used to learn the situation judgment model of the present invention.
10 is a view for explaining the first and second pre-processing steps for generating a correct answer label used to learn the situation judgment model of the present invention.
11 is a view for explaining a third pre-processing step for generating a correct answer label used for learning the situation judgment model of the present invention.
12 is a view for explaining a situation determination result of the situation determination model of the present invention.
13 is a view comparing the situation determination result of the situation determination model of the present invention with the situation determination result by the deep learning model according to the prior art.
14 is a view comparing the situation determination result of the situation determination model of the present invention with the situation determination result by the deep learning model according to the prior art.
15 is a view comparing the situation determination result of the situation determination model of the present invention with the situation determination result by the deep learning model according to the prior art.
16 is an exemplary diagram of a signal flow in a deep learning-based Go game service system according to an embodiment of the present invention.
17 is a method for determining a situation in a deep learning-based Go game service method according to an embodiment of the present invention.
18 is a pre-processing method of training data for generating a correct answer label in the method of determining the situation of FIG. 17 .
19 is a view for explaining the structure of the ethos determining unit of the situation judgment model server of the present invention.
20 is a flowchart for explaining a method for determining a Go situation based on a deep learning neural network according to an embodiment of the present invention and using the ethos indicating a specific temperament or method during the Go game play.
21 is a conceptual diagram for explaining a method of determining a Go situation and utilizing the ethos when playing a Go game according to an embodiment of the present invention.
22 is a view for explaining a method of generating wind judgment information for each of the number of candidates to start information according to an embodiment of the present invention.
23 is a conceptual diagram for explaining a method of determining a Go situation and utilizing the ethos when playing a Go game according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can apply various transformations and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them, will become apparent with reference to the embodiments described below in detail in conjunction with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first, second, etc. are used for the purpose of distinguishing one component from another, not in a limiting sense. Also, the singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, terms such as include or have means that the features or components described in the specification are present, and do not preclude the possibility that one or more other features or components will be added. In addition, in the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, the present invention is not necessarily limited to the illustrated bar.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when described with reference to the drawings, the same or corresponding components are given the same reference numerals, and the overlapping description thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 시스템에 대한 예시도이다.1 is an exemplary diagram of a deep learning-based Go game service system according to an embodiment of the present invention.

도 1을 참조하면, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 시스템은, 단말기(100), 바둑서버(200), 착수 모델 서버(300), 형세판단 모델 서버형세판단 모델 서버(400) 및 네트워크(500)를 포함할 수 있다.Referring to Figure 1, the deep learning-based Go game service system according to the embodiment, the terminal 100, the Go server 200, the start model server 300, the layout judgment model server The layout judgment model server 400 and It may include a network 500 .

도 1의 각 구성요소는, 네트워크(500)를 통해 연결될 수 있다. 단말기(100), 바둑서버(200), 착수 모델 서버(300) 및 형세판단 모델 서버형세판단 모델 서버(400) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다. Each component of FIG. 1 may be connected through a network 500 . The terminal 100, the Go server 200, the start model server 300 and the situation judgment model server type judgment model server 400 refers to a connection structure in which information can be exchanged between each node, such as the network of An example includes a 3rd Generation Partnership Project (3GPP) network, a Long Term Evolution (LTE) network, a World Interoperability for Microwave Access (WIMAX) network, the Internet, a Local Area Network (LAN), and a Wireless Local Area Network (Wireless LAN). , WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth (Bluetooth) network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc. are included, but are not limited thereto.

- 단말기 - terminal

먼저, 단말기(100)는, 바둑 게임 서비스를 제공받고자 하는 유저의 단말기이다. 또한, 단말기(100)는 다양한 작업을 수행하는 애플리케이션들을 실행하기 위한 유저가 사용하는 하나 이상의 컴퓨터 또는 다른 전자 장치이다. 예컨대, 컴퓨터, 랩탑 컴퓨터, 스마트 폰, 모바일 전화기, PDA, 태블릿 PC, 혹은 바둑서버(200)와 통신하도록 동작 가능한 임의의 다른 디바이스를 포함한다. 다만 이에 한정되는 것은 아니고 단말기(100)는 다양한 머신들 상에서 실행되고, 다수의 메모리 내에 저장된 명령어들을 해석하여 실행하는 프로세싱 로직을 포함하고, 외부 입력/출력 디바이스 상에 그래픽 사용자 인터페이스(GUI)를 위한 그래픽 정보를 디스플레이하는 프로세스들과 같이 다양한 기타 요소들을 포함할 수 있다. 아울러 단말기(100)는 입력 장치(예를 들면 마우스, 키보드, 터치 감지 표면 등) 및 출력 장치(예를 들면 디스플레이장치, 모니터, 스크린 등)에 접속될 수 있다. 단말기(100)에 의해 실행되는 애플리케이션들은 게임 어플리케이션, 웹 브라우저, 웹 브라우저에서 동작하는 웹 애플리케이션, 워드 프로세서들, 미디어 플레이어들, 스프레드시트들, 이미지 프로세서들, 보안 소프트웨어 또는 그 밖의 것을 포함할 수 있다.First, the terminal 100 is a terminal of a user who wants to be provided with a Go game service. In addition, the terminal 100 is one or more computers or other electronic devices used by a user to execute applications that perform various tasks. For example, it includes a computer, a laptop computer, a smart phone, a mobile phone, a PDA, a tablet PC, or any other device operable to communicate with the Go server 200 . However, not limited thereto, the terminal 100 is executed on various machines, includes processing logic that interprets and executes commands stored in a plurality of memories, and provides a graphical user interface (GUI) on an external input/output device. It may include various other elements, such as processes for displaying graphical information. In addition, the terminal 100 may be connected to an input device (eg, a mouse, a keyboard, a touch-sensitive surface, etc.) and an output device (eg, a display device, a monitor, a screen, etc.). Applications executed by the terminal 100 may include a game application, a web browser, a web application running on a web browser, word processors, media players, spreadsheets, image processors, security software or the like. .

또한, 단말기(100)는 명령들을 저장하는 적어도 하나의 메모리(101), 적어도 하나의 프로세서(102) 및 통신부(103)를 포함할 수 있다. In addition, the terminal 100 may include at least one memory 101 for storing instructions, at least one processor 102 , and a communication unit 103 .

단말기(100)의 메모리(101)는 단말기(100)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application), 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 명령들은 프로세서(102)로 하여금 동작들을 수행하게 하기 위해 프로세서(102)에 의해 실행 가능하고, 동작들은 바둑 게임 실행 요청신호를 전송, 게임 데이터 송수신, 착수 정보 송수신, 형세 판단 요청신호를 전송, 형세 판단 결과 수신 및 각종 정보를 수신하는 동작들을 포함할 수 있다. 또한, 메모리(101)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있고, 메모리(130)는 인터넷(internet)상에서 상기 메모리(101)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다. The memory 101 of the terminal 100 may store a plurality of application programs or applications driven in the terminal 100 , data for operation of the terminal 100 , and commands. The instructions are executable by the processor 102 to cause the processor 102 to perform the operations, and the operations send a Go game execution request signal, game data transmission and reception, start information transmission and reception, transmission of a situation determination request signal, the situation It may include operations of receiving the determination result and receiving various types of information. In addition, in terms of hardware, the memory 101 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and the memory 130 performs the storage function of the memory 101 on the Internet. It may be a web storage that performs.

단말기(100)의 프로세서(102)는 전반적인 동작을 제어하여 바둑 게임 서비스를 제공받기 위한 데이터 처리를 수행할 수 있다. 단말기(100)에서 바둑 게임 어플리케이션이 실행되면, 단말기(100)에서 바둑 게임 환경이 구성된다. 그리고 바둑 게임 어플리케이션은 네트워크(500)를 통해 바둑 서버(200)와 바둑 게임 데이터를 교환하여 단말기(100) 상에서 바둑 게임 서비스가 실행되도록 한다. 이러한 프로세서(102)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 임의의 형태의 프로세서일 수 있다.The processor 102 of the terminal 100 may perform data processing for receiving a Go game service by controlling the overall operation. When the Go game application is executed in the terminal 100 , the Go game environment is configured in the terminal 100 . And the Go game application exchanges Go game data with the Go server 200 through the network 500 so that the Go game service is executed on the terminal 100 . These processors 102 are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers), micro It may be a controller (micro-controllers), microprocessors (microprocessors), any type of processor for performing other functions.

단말기(100)의 통신부(103)는, 하기 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등), WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access)에 따라 구축된 네트워크망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신할 수 있다.The communication unit 103 of the terminal 100 includes the following communication methods (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink (HSUPA)) Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.), WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA ( Digital Living Network Alliance), WiBro (Wireless Broadband), and WiMAX (World Interoperability for Microwave Access) can transmit and receive a wireless signal to and from at least one of a base station, an external terminal, and a server on a network built in accordance with.

- 바둑서버 - Go server

바둑서버(200)가 제공하는 바둑 게임 서비스는 바둑서버(200)가 제공하는 가상의 컴퓨터 유저와 실제 유저가 함께 게임에 참여하는 형태로 구성될 수 있다. 이는 유저측 단말기(100) 상에서 구현되는 바둑 게임 환경에서 하나의 실제 유저와 하나의 컴퓨터 유저가 함께 게임을 플레이 한다. 다른 측면에서, 바둑서버(200)가 제공하는 바둑 게임 서비스는 복수의 유저측 디바이스가 참여하여 바둑 게임이 플레이되는 형태로 구성될 수도 있다.The Go game service provided by the Go server 200 may be configured in a form in which a virtual computer user and a real user provided by the Go server 200 participate in the game together. This means that one real user and one computer user play the game together in the Go game environment implemented on the user-side terminal 100 . In another aspect, the Go game service provided by the Go server 200 may be configured in such a way that a plurality of user-side devices participate and the Go game is played.

바둑서버(200)는 명령들을 저장하는 적어도 하나의 메모리(201), 적어도 하나의 프로세서(202) 및 통신부(203)를 포함할 수 있다. Go server 200 may include at least one memory 201 for storing instructions, at least one processor 202 and a communication unit 203 .

바둑서버(200)의 메모리(201)는 바둑서버(200)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application), 바둑서버(200)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 명령들은 프로세서(202)로 하여금 동작들을 수행하게 하기 위해 프로세서(202)에 의해 실행 가능하고, 동작들은 게임 실행 요청 신호 수신, 게임 데이터 송수신, 착수 정보 송수신, 형세 판단 요청 신호 송수신, 형세 판단 결과 송수신 및 각종 전송 동작을 포함할 수 있다. 또한, 메모리(201)는 바둑서버(200)에서 대국을 하였던 복수의 기보 또는 기존에 공개된 복수의 기보를 저장할 수 있다. 복수의 기보 각각은 대국 시작의 첫 착수 정보인 제1 착수부터 대국이 종료되는 최종 착수까지의 정보를 모두 포함할 수 있다. 즉, 복수의 기보는 착수에 관한 히스토리 정보를 포함할 수 있다. 바둑서버(200)는 형세판단 모델 서버(400)의 트레이닝을 위하여 저장된 복수의 기보를 형세판단 모델 서버(400)에 제공할 수 있게 한다. 또한, 메모리(201)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있고, 메모리(201)는 인터넷(internet)상에서 상기 메모리(201)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다.The memory 201 of the Go server 200 may store a plurality of application programs or applications running in the Go server 200, data for the operation of the Go server 200, and commands. . The instructions are executable by the processor 202 to cause the processor 202 to perform the operations, and the operations are game execution request signal reception, game data transmission/reception, start information transmission/reception, situation determination request signal transmission/reception, situation determination result transmission/reception and various transmission operations. In addition, the memory 201 may store a plurality of notations that were played in the Go server 200 or a plurality of previously published notations. Each of the plurality of notations may include all of the information from the first start that is the first start information of the start of the game to the final start that the game ends. That is, a plurality of notations may include history information about the start. The Go server 200 allows to provide a plurality of stored notations for the training of the situation judgment model server 400 to the position judgment model server 400 . In addition, in terms of hardware, the memory 201 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and the memory 201 performs the storage function of the memory 201 on the Internet. It may be a web storage that performs.

바둑서버(200)의 프로세서(202)는 전반적인 동작을 제어하여 바둑 게임 서비스를 제공하기 위한 데이터 처리를 수행할 수 있다. 이러한 프로세서(202)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 임의의 형태의 프로세서일 수 있다.The processor 202 of the Go server 200 may perform data processing for providing a Go game service by controlling the overall operation. These processors 202 are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), controllers (controllers), micro It may be a controller (micro-controllers), microprocessors (microprocessors), any type of processor for performing other functions.

바둑서버(200)는 통신부(203)를 통해 네트워크(500)를 경유하여 단말기(100), 착수 모델 서버(300) 및 형세판단 모델 서버(400)와 통신을 수행할 수 있다.The Go server 200 may communicate with the terminal 100 , the start model server 300 and the situation judgment model server 400 via the network 500 through the communication unit 203 .

- 착수 모델 서버 - Launch model server

착수 모델 서버(300)는, 별도의 클라우드 서버나 컴퓨팅 장치를 포함할 수 있다. 또한, 착수 모델 서버(300)는 단말기(100)의 프로세서 또는 바둑서버(200)의 데이터 처리부에 설치된 신경망 시스템일 수 있지만, 이하에서 착수 모델 서버(300)는, 단말기(100) 또는 바둑 서버(200)와 별도의 장치로 설명한다.Initiation model server 300 may include a separate cloud server or computing device. In addition, the initiation model server 300 may be a neural network system installed in the data processing unit of the processor or Go server 200 of the terminal 100, but in the following, the initiation model server 300 is the terminal 100 or the Go server ( 200) and a separate device.

착수 모델 서버(300)는 명령들을 저장하는 적어도 하나의 메모리(301), 적어도 하나의 프로세서(302) 및 통신부(303)를 포함할 수 있다. Initiation model server 300 may include at least one memory 301 for storing instructions, at least one processor 302 and a communication unit 303 .

착수 모델 서버(300)는 바둑 규칙에 따라 스스로 학습하여 딥러닝 모델인 착수 모델을 구축하고 단말기(100)의 유저와 대국을 할 수 있는 인공지능 컴퓨터로써 자신의 턴에서 대국에서 이길 수 있도록 바둑돌의 착수를 수행할 수 있다. 착수 모델 서버(300)가 착수 모델로 트레이닝하는 자세한 설명은 도 2 내지 도 5의 착수 모델에 관한 설명을 따른다.The start model server 300 is an artificial intelligence computer that can learn by itself according to the rules of Go to build a set-up model, which is a deep learning model, and play a game with the user of the terminal 100. initiation can be carried out. The detailed description of the set-up model server 300 training with the set-off model follows the description of the set-up model of FIGS. 2 to 5 .

착수 모델 서버(300)의 메모리(301)는 착수 모델 서버(300)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application), 착수 모델 서버(300)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 명령들은 프로세서(302)로 하여금 동작들을 수행하게 하기 위해 프로세서(302)에 의해 실행 가능하고, 동작들은 착수 모델 학습(트레이닝) 동작, 착수 정보 송수신 및 각종 전송 동작을 포함할 수 있다. 또한, 메모리(301)는 딥러닝 모델인 착수 모델을 저장 할 수 있다. 또한, 메모리(301)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있고, 메모리(301)는 인터넷(internet)상에서 상기 메모리(301)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다.Memory 301 of the initiation model server 300 is a plurality of application programs (application program) or applications (application) driven in the initiation model server 300, data for the operation of the initiation model server 300, commands can be saved The instructions are executable by the processor 302 to cause the processor 302 to perform operations, and the operations may include an initiation model learning (training) operation, an initiation information transmission and reception, and various transmission operations. In addition, the memory 301 may store an initiation model that is a deep learning model. In addition, in terms of hardware, the memory 301 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and the memory 301 performs the storage function of the memory 301 on the Internet. It may be a web storage that performs.

착수 모델 서버(300)의 프로세서(302)는 메모리(302)에 저장된 착수 모델을 독출하여, 구축된 신경망 시스템에 따라서 하기 기술하는 착수 모델 학습 및 바둑알 착수를 수행하게 된다. 실시예로, 착수 모델 서버(300)의 프로세서(302)는 특정 바둑판 상태(S)에서 최고의 수라고 판단되는 특정 착수점 적어도 둘 이상 예측하여 도출할 수 있다. 또한, 프로세서(302)는 도출된 적어도 둘 이상의 특정 착수점을 형세판단 모델 서버(400)로 송신할 수 있다. 또한, 착수 모델 서버(300)의 프로세서(302)는 착수 모델을 소정의 특정 기풍으로 학습시키는 셀프 플레이(self-play) 학습을 수행할 수 있다. 또한, 프로세서(302)는 셀프 플레이 학습을 통하여 기풍이 제대로 학습 및 판단되었는지 성능을 진단할 수 있다. The processor 302 of the set-off model server 300 reads the set-off model stored in the memory 302, and performs the set-up model learning and Go start to be described below according to the built-up neural network system. In an embodiment, the processor 302 of the set-off model server 300 may be derived by predicting at least two or more specific set points that are determined to be the best number in a specific checkerboard state (S). In addition, the processor 302 may transmit the derived at least two or more specific starting points to the situation judgment model server 400 . In addition, the processor 302 of the set off model server 300 may perform self-play (self-play) learning to learn the set off model in a specific specific ethos. In addition, the processor 302 may diagnose the performance of whether the spirit is properly learned and determined through self-play learning.

한편, 실시예에 따라서 프로세서(302)는, 전체 유닛들을 제어하는 메인 프로세서와, 착수 모델에 따라 신경망 구동시 필요한 대용량의 연산을 처리하는 복수의 그래픽 프로세서(Graphics Processing Unit, GPU)를 포함하도록 구성될 수 있다. On the other hand, according to the embodiment, the processor 302 is configured to include a main processor for controlling all units, and a plurality of graphics processors (Graphics Processing Unit, GPU) for processing a large-capacity operation required when driving a neural network according to the starting model. can be

착수 모델 서버(300)는 통신부(303)를 통해 네트워크(500)를 경유하여 바둑 서버(200)와 통신을 수행할 수 있다.The start model server 300 may communicate with the Go server 200 via the network 500 through the communication unit 303 .

- 형세판단 모델 서버 - Situation judgment model server

형세판단 모델 서버(400)는, 별도의 클라우드 서버나 컴퓨팅 장치를 포함할 수 있다. 또한, 형세판단 모델 서버(400)는 단말기(100)의 프로세서 또는 바둑서버(200)의 데이터 처리부에 설치된 신경망 시스템일 수 있지만, 이하에서 형세판단 모델 서버(400)는, 단말기(100) 또는 바둑 서버(200)와 별도의 장치로 설명한다.The situation judgment model server 400 may include a separate cloud server or computing device. In addition, the situation judgment model server 400 may be a neural network system installed in the data processing unit of the processor or the Go server 200 of the terminal 100, but in the following, the situation judgment model server 400 is the terminal 100 or Go It will be described as a separate device from the server 200 .

형세판단 모델 서버(400)는 명령들을 저장하는 적어도 하나의 메모리(401), 적어도 하나의 프로세서(402) 및 통신부(403)를 포함할 수 있다. The situation judgment model server 400 may include at least one memory 401 for storing instructions, at least one processor 402 and a communication unit 403 .

형세판단 모델 서버(400)는 통신부(403)를 통하여 바둑서버(200)로부터 트레이닝 데이터 셋을 수신할 수 있다. 트레이닝 데이터 셋은 복수의 기보와 해당 복수의 기보에 대한 형세 판단 정보일 수 있다. 형세판단 모델 서버(400)는 수신한 트레이닝 데이터 셋을 이용하여 바둑알이 놓인 바둑판의 상태에 대한 형세를 판단할 수 있도록 지도학습하여 딥러닝 모델인 형세 판단 모델을 구축하고 단말기(100) 유저의 형세 판단 요청에 따라 형세 판단을 수행할 수 있다. 형세판단 모델 서버(400)가 형세 판단 모델로 트레이닝하는 자세한 설명은 도 6 내지 도 18의 형세 판단 모델에 관한 설명을 따른다.The posture judgment model server 400 may receive the training data set from the Go server 200 through the communication unit 403 . The training data set may be a plurality of notations and situation determination information for the plurality of notations. The situation judgment model server 400 uses the received training data set to supervise learning so as to determine the situation for the state of the Go board on which the Go balls are placed, to build a deep learning model, the situation judgment model, and the terminal 100 user's situation A situational judgment may be performed according to a judgment request. The detailed description of the situation judgment model server 400 training with the situation judgment model follows the description of the situation judgment model of FIGS. 6 to 18 .

형세판단 모델 서버(400)의 메모리(401)는 형세판단 모델 서버(400)에서 구동되는 다수의 응용 프로그램(application program) 또는 애플리케이션(application), 형세판단 모델 서버(400)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 명령들은 프로세서(402)로 하여금 동작들을 수행하게 하기 위해 프로세서(402)에 의해 실행 가능하고, 동작들은 형세 판단 모델 학습(트레이닝) 동작, 형세 판단 수행, 형세 판단 결과 송신, 복수의 기보 정보 수신 및 각종 전송 동작을 포함할 수 있다. 또한, 도 19를 참조하면 실시예에서 메모리(401)는, 딥러닝 모델인 형세 판단 모델(400a)과 딥러닝 신경망을 기반으로 바둑 형세를 판단하고 학습하여 바둑 게임 플레이 시 기풍을 적용하는 일련의 동작을 구현하기 위한 기풍 판단부(400b)를 저장할 수 있다. 또한, 메모리(401)는 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있고, 메모리(401)는 인터넷(internet)상에서 상기 메모리(301)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다.The memory 401 of the situation judgment model server 400 is a plurality of application programs or applications driven in the situation judgment model server 400, data for the operation of the situation judgment model server 400 , commands can be stored. The instructions are executable by the processor 402 to cause the processor 402 to perform the operations, and the operations include a situation determination model learning (training) operation, performing a situation determination, transmitting a situation determination result, receiving a plurality of notation information, and It may include various transmission operations. In addition, referring to FIG. 19, in the embodiment, the memory 401 determines and learns the Go situation based on the deep learning model, the situation determination model 400a and the deep learning neural network, and applies the ethos when playing the Go game. It is possible to store the ethos determining unit 400b for implementing the operation. In addition, in terms of hardware, the memory 401 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and the memory 401 performs the storage function of the memory 301 on the Internet. It may be a web storage that performs.

형세판단 모델 서버(400)의 프로세서(402)는 메모리(402)에 저장된 형세 판단 모델(400a)을 독출하여, 구축된 신경망 시스템에 따라서 하기 기술하는 형세 판단 모델(400a) 학습 및 대국 중 바둑판의 형세 판단을 수행하게 된다. 그리고 형세판단 모델 서버(400)의 프로세서(402)는 수행된 형세 판단을 기초로 바둑의 형세 및 특정 착수점에 대한 기풍을 판단할 수 있다. The processor 402 of the situation judgment model server 400 reads the situation judgment model 400a stored in the memory 402, and according to the constructed neural network system, the situation judgment model 400a to be described below is learned and played on the Go board. will make a judgment call. And the processor 402 of the situation judgment model server 400 may determine the ethos of the Go game and a specific starting point based on the performed situation determination.

자세히, 실시예로 형세판단 모델 서버(400)의 프로세서(402)는 다양한 기풍 중에 학습하고자 하는 목표 기풍을 설정할 수 있다. 또한, 프로세서(402)는 형세 판단을 통하여 바둑판 상태(S)의 형세 및/또는 특정 착수점에 대한 기풍을 판단하기 위한 소정의 임계치를 설정할 수 있다. 또한, 형세판단 모델 서버(400)의 프로세서(402)는 착수 모델 서버(300)로부터 도출된 특정 착수점이 반영된 특정 바둑판 상태(S)에 대한 형세 판단을 수행하여, 해당 특정 착수점 및/또는 해당 특정 바둑판 상태(S)에 대한 기풍을 판단할 수 있다. 또한, 프로세서(402)는 기풍을 판단한 정보를 착수 모델 서버(300)로 송신하여 바둑 게임 플레이 시 기풍을 적용하기 위한 착수 모델의 셀프 플레이 학습이 효과적으로 수행되게 할 수 있다. 또한, 형세판단 모델 서버(400)의 프로세서(402)는 기풍의 판단이 제대로 이루어졌는지 성능을 확인하고, 이를 기반으로 기풍을 판단하기 위한 소정의 임계치를 조정할 수 있다. In detail, in an embodiment, the processor 402 of the situation judgment model server 400 may set a target custom to be learned among various customs. In addition, the processor 402 may set a predetermined threshold for determining the shape of the checkerboard state (S) and / or the ethos for a specific starting point through the determination of the situation. In addition, the processor 402 of the setting model server 400 determines the situation for a specific checkerboard state (S) in which the specific starting point derived from the starting model server 300 is reflected, and the specific starting point and/or the corresponding specific starting point It is possible to determine the ethos for a specific checkerboard state (S). In addition, the processor 402 may transmit the information on the determination of the ethos to the start model server 300 so that self-play learning of the set-off model for applying the ethos when playing the Go game is effectively performed. In addition, the processor 402 of the situation judgment model server 400 may check the performance of whether the determination of the wind is properly made, and adjust a predetermined threshold value for determining the wind on the basis of this.

한편, 실시예에 따라서 프로세서(402)는, 전체 유닛들을 제어하는 메인 프로세서와, 형세 판단 모델(400a)에 따라 신경망 구동시 필요한 대용량의 연산을 처리하는 복수의 그래픽 프로세서(Graphics Processing Unit, GPU)를 포함하도록 구성될 수 있다. Meanwhile, according to the embodiment, the processor 402 includes a main processor that controls all units, and a plurality of graphics processing units (GPUs) that process large-capacity calculations necessary for driving a neural network according to the situation determination model 400a. It may be configured to include

또한, 형세판단 모델 서버(400)는 통신부(403)를 통해 네트워크(500)를 경유하여 바둑 서버(200)와 통신을 수행할 수 있다.In addition, the situation judgment model server 400 may communicate with the Go server 200 via the network 500 through the communication unit 403 .

- 착수 모델 - Launch model

도 2는 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스에서 인공지능 컴퓨터의 착수를 위한 착수 모델 서버(300)의 착수 모델 구조를 설명하기 위한 도면이고, 도 3은 착수 모델의 정책에 따른 착수점에 대한 이동 확률 분포를 설명하기 위한 도면이고, 도 4는 착수 모델의 착수점에 대한 가치값과 방문 횟수를 설명하기 위한 도면이고, 도 5는 착수 모델이 탐색부의 파이프 라인에 따라 착수하는 과정을 설명하기 위한 도면이다.2 is a view for explaining the initiation model structure of the initiation model server 300 for the initiation of an artificial intelligence computer in the deep learning-based Go game service according to an embodiment of the present invention, and FIG. 3 is a policy of the initiation model. It is a diagram for explaining the distribution of the movement probability for the starting point according to the figure, Figure 4 is a diagram for explaining the value value and the number of visits for the starting point of the starting model, Figure 5 is a starting model set out according to the pipeline of the search unit It is a drawing for explaining the process.

도 2를 참조하면, 본 발명의 실시예에 따른 착수 모델은 착수 모델 서버(300)의 딥러닝 모델로서 탐색부(310), 셀프 플레이부(320), 착수 신경망(330) 및 기풍학습 보조부(340)를 포함할 수 있다. Referring to Figure 2, the start model according to the embodiment of the present invention as a deep learning model of the set off model server 300, the search unit 310, the self-play unit 320, the start neural network 330 and the gi-pung learning auxiliary unit ( 340) may be included.

착수 모델은 탐색부(310), 셀프 플레이부(320), 착수 신경망(330) 및 기풍학습 보조부(340)를 이용하여 대국에서 이길 수 있도록 착수 하는 모델로 학습될 수 있고, 바둑 대국을 진행할 시에 특정 기질이나 방식을 나타내는 기풍을 활용할 수 있다. 보다 구체적으로, 탐색부(310)는 착수 신경망(330)의 가이드에 따라 몬테 카를로 트리 서치(Monte Carlo Tree Search; MCTS) 동작을 수행 할 수 있다. MCTS는 모종의 의사 결정을 위한 체험적 탐색 알고리즘이다. 즉, 탐색부(310)는 착수 신경망(330)이 제공하는 이동 확률값(p) 및/또는 가치값(v)에 기초하여 MCTS를 수행할 수 있다. 일 예로, 착수 신경망(330)에 의해 가이드된 탐색부(310)는 MCTS를 수행하여 착수점들에 대한 확률분포값인 탐색 확률값(

Figure 112019072373657-pat00001
)을 출력 할 수 있다. 셀프 플레이부(320)는 탐색 확률값(
Figure 112019072373657-pat00002
)에 따라 스스로 바둑 대국을 할 수 있다. 셀프 플레이부(320)는 게임의 승패가 결정되는 시점까지 스스로 바둑 대국을 진행하고, 자가 대국이 종료되면 바둑판 상태(S), 탐색 확률값(
Figure 112019072373657-pat00003
), 자가 플레이 가치값(z)을 착수 신경망(330)에 제공할 수 있다. 바둑판 상태(S)는 착수점들에 바둑돌이 놓여진 상태이다. 자가 플레이 가치값(z)은 바둑판 상태(S)에서 자가 대국을 하였을 때 승률 값이다. 착수 신경망(330)은 이동 확률값(p)과 가치값(v)을 출력할 수 있다. 이동 확률값(p)은 바둑판 상태(S)에 따라 착수점들에 대해 어느 착수점에 착수하는 것이 게임을 이길 수 있는 좋은 수인지 수치로 나타낸 확률분포값이다. 가치값(v)은 해당 착수점에 착수시 승률을 나타낸다. 예를 들어, 이동 확률값(p)이 높은 착수점이 좋은 수일 수 있다. 착수 신경망(330)은 이동 확률값(p)이 탐색 확률값(
Figure 112019072373657-pat00004
)과 동일해지도록 트레이닝되고, 가치값(v)이 자가 플레이 가치값(z)과 동일해지도록 트레이닝될 수 있다. 이후 트레이닝된 착수 신경망(330)은 탐색부(310)를 가이드하고, 탐색부(310)는 이전 탐색 확률값(
Figure 112019072373657-pat00005
)보다 더 좋은 수를 찾도록 MCTS를 진행하여 새로운 탐색 확률값(
Figure 112019072373657-pat00006
)을 출력하게 한다. 셀프 플레이부(320)는 새로운 탐색 확률값(
Figure 112019072373657-pat00007
)에 기초하여 바둑판 상태(S)에 따른 새로운 자가 플레이 가치값(z)을 출력하고 바둑판 상태(S), 새로운 탐색 확률값(
Figure 112019072373657-pat00008
), 새로운 자가 플레이 가치값(z)을 착수 신경망(330)에 제공할 수 있다. 착수 신경망(330)은 이동 확률값(p)과 가치값(v)이 새로운 탐색 확률값(
Figure 112019072373657-pat00009
)과 새로운 자가 플레이 가치값(z)으로 출력되도록 다시 트레이닝될 수 있다. 즉, 착수 모델은 이러한 과정을 반복하여 착수 신경망(330)이 대국에서 이기기 위한 더 좋은 착수점을 찾도록 트레이닝 될 수 있다. 일 예로, 착수 모델은 착수 손실(l)을 이용할 수 있다. 착수 손실(l)은 수학식 1과 같다.The set-off model can be learned as a model set out to win the game by using the search unit 310, the self-play unit 320, the start neural network 330 and the ethos learning assistant 340, and when proceeding with the Go game You can use the ethos that represents a particular temperament or way of doing things. More specifically, the search unit 310 may perform a Monte Carlo Tree Search (MCTS) operation according to the guide of the onset neural network 330 . MCTS is an experiential search algorithm for decision making. That is, the search unit 310 may perform MCTS based on the movement probability value (p) and/or the value value (v) provided by the onset neural network 330 . As an example, the search unit 310 guided by the onset neural network 330 performs MCTS to find a search probability value (
Figure 112019072373657-pat00001
) can be printed. The self-play unit 320 is a search probability value (
Figure 112019072373657-pat00002
), you can play Go by yourself. The self-player 320 performs a Go game by itself until the winning or losing of the game is determined, and when the self-playing game ends, the Go board state (S), the search probability value (
Figure 112019072373657-pat00003
), the self-play value value z may be provided to the onset neural network 330 . The checkerboard state (S) is a state in which Go stones are placed at the starting points. The self-play value value (z) is a win rate value when a self-playing game is played in the checkerboard state (S). The onset neural network 330 may output a movement probability value (p) and a value value (v). The moving probability value (p) is a probability distribution value expressed numerically whether it is a good number to win the game by starting which starting point for the starting points according to the checkerboard state (S). The value (v) represents the win rate when starting the corresponding starting point. For example, the starting point with a high movement probability value p may be a good number. The onset neural network 330 is a movement probability value (p) is a search probability value (
Figure 112019072373657-pat00004
) and can be trained so that the value v is equal to the self-play value z. Afterwards, the trained onset neural network 330 guides the search unit 310, and the search unit 310 sets the previous search probability value (
Figure 112019072373657-pat00005
) to find a better number than the new search probability value (
Figure 112019072373657-pat00006
) to output. The self-play unit 320 sets a new search probability value (
Figure 112019072373657-pat00007
), output a new self-play value value (z) according to the checkerboard state (S) based on the checkerboard state (S), and a new search probability value (
Figure 112019072373657-pat00008
), a new self-play value value z may be provided to the initiating neural network 330 . The starting neural network 330 is a movement probability value (p) and a value value (v) a new search probability value (
Figure 112019072373657-pat00009
) and a new self-play value (z) can be retrained to be output. That is, the start model can be trained to repeat this process to find a better start point for the start neural network 330 to win the game. As an example, the settling model may use the settling loss (l). The onset loss (l) is the same as Equation 1.

(수학식 1)(Equation 1)

Figure 112019072373657-pat00010
Figure 112019072373657-pat00010

Figure 112019072373657-pat00011
는 신경망의 파라미터이고, c는 매우 작은 상수이다.
Figure 112019072373657-pat00011
is a parameter of the neural network, and c is a very small constant.

수학식 1의 착수 손실(l)에서 z와 v가 같아 지도록 하는 것은 평균 제곱 손실(mean square loss) 텀에 해당되고,

Figure 112019072373657-pat00012
와 p가 같아 지도록 하는 것은 크로스 엔트로피 손실(cross entropy loss) 텀에 해당되고,
Figure 112019072373657-pat00013
에 c를 곱하는 것은 정규화 텀으로 오버핏을 방지하기 위한 것이다.Making z and v equal in the set-off loss (l) of Equation 1 corresponds to a mean square loss term,
Figure 112019072373657-pat00012
To make p and p equal is a cross entropy loss term,
Figure 112019072373657-pat00013
Multiplying by c is to prevent overfitting with the regularization term.

예를 들어, 도 3을 참조하면 트레이닝된 착수 모델은 착수점들에 이동 확률값(p)을 도 3과 같이 확률분포값으로 나타낼 수 있다. 도 4를 참조하면 트레이닝 된 착수 모델의 가치값(v)은 도 4의 하나의 참수점에서 위에 표시된 값으로 나타낼 수 있다. 착수 신경망(330)은 신경망 구조로 구성될 수 있다. 일 예로, 착수 신경망(330)은 한 개의 컨볼루션(convolution) 블록과 19개의 레지듀얼(residual) 블록으로 구성될 수 있다. 컨볼루션 블록은 3X3 컨볼루션 레이어가 여러개 중첩된 형태일 있다. 하나의 레지듀얼 블록은 3X3 컨볼루션 레이어가 여러개 중첩되고 스킵 커넥션을 포함한 형태일 수 있다. 스킵 커넥션은 소정의 레이어의 입력이 해당 레이어의 출력값과 합하여서 출력되어 다른 레이어에 입력되는 구조이다. 또한, 착수 신경망(330)의 입력은 흑 플레이어의 최근 8 수에 대한 돌의 위치 정보과 백 플레이어의 최근 8 수에 대한 돌의 위치 정보와 현재 플레이어가 흑인지 백인지에 대한 차례 정보를 포함한 19*19*17의 RGB 이미지가 입력될 수 있다.For example, referring to FIG. 3 , the trained set off model may represent a movement probability value p at the set points as a probability distribution value as shown in FIG. 3 . Referring to FIG. 4 , the value (v) of the trained set-off model may be represented by the value indicated above at one decapitation point of FIG. 4 . The onset neural network 330 may be configured in a neural network structure. For example, the onset neural network 330 may include one convolution block and 19 residual blocks. The convolution block may have a form in which several 3X3 convolution layers are superimposed. One residual block may have a form in which several 3X3 convolution layers are overlapped and a skip connection is included. The skip connection is a structure in which an input of a predetermined layer is output by summing it with an output value of a corresponding layer and input to another layer. In addition, the input of the onset neural network 330 includes the location information of the stone for the last 8 numbers of the black player, the location information of the stones for the last 8 numbers of the white player, and turn information on whether the current player is black or white 19* An RGB image of 19*17 can be input.

도 5를 참조하면, 학습된 착수 모델은 자신의 차례에서 착수 신경망(330)과 탐색부(310)를 이용하여 착수 할 수 있다. 착수 모델은 선택 과정(a)을 통하여 현재 제1 바둑판 상태(S)(S1)에서 MCTS를 통해 탐색하지 않은 가지인 제2 바둑판 상태(S)(S1-2)에서 활동 함수(Q)와 신뢰값(U)이 높은 착수점을 선택한다. 활동 함수(Q)는 해당 가지를 지날 때마다 산출된 가치값(v)들의 평균값이다. 신뢰값(U)은 해당 가지를 지나는 방문 횟수(N)에 비례한다. 착수 모델은 확장과 평가 과정(b)을 통하여 선택된 착수점에서의 제3 바둑판 상태(S)(S1-2-1)로 확장하고 이동 확률값(p)을 산출 할 수 있다. 착수 모델은 백업 과정(c)을 통하여 확장된 제3 바둑판 상태(S)(S1-2-1)의 가치값을 산출하고 지나온 가지들의 활동 함수(Q), 방문 횟수(N), 이동 확률값(p)을 저장할 수 있다. 착수 모델은 선택(a), 확장 및 평가(b), 백업(c) 과정을 반복하고 각 착수점에 대한 방문 횟수(N)를 이용하여 확률 분포를 만들어서 탐색 확률값(

Figure 112019072373657-pat00014
)을 출력할 수 있다. 착수 모델은 착수점들 중 가장 높은 탐색 확률값(
Figure 112019072373657-pat00015
)을 선택할 수 있고, 선택된 탐색 확률값(
Figure 112019072373657-pat00016
)을 가지는 착수점을 해당 바둑판 상태(S)에서의 최고의 수로 판단할 수 있다. 이때, 착수 모델은 탐색 확률값(
Figure 112019072373657-pat00017
)을 기반으로 최고의 수라고 판단된 착수점을 착수 후보수로 설정할 수 있다. 즉, 본 발명의 실시예에서 착수 후보수란 특정 바둑판 상태(S)에 대하여 착수 모델에 의해 예측된 최고의 착수점일 수 있다. 이때, 착수 모델은 탐색 확률값(
Figure 112019072373657-pat00018
)을 기반으로 최고의 수라고 판단된 착수 후보수를 적어도 둘 이상 도출할 수 있고, 이에 기초하여 적어도 둘 이상의 착수 후보수 정보를 생성할 수 있다. 자세히, 착수 모델은 결정된 착수 후보수에 기반하여 해당 착수 후보수와 관련된 정보(예컨대, 바둑판 상에서의 위치 정보 등)를 포함하는 착수 후보수 정보를 적어도 둘 이상 생성할 수 있다. 여기서 착수 모델이 적어도 둘 이상의 착수 후보수 정보를 생성하는 것은, 복수의 착수 후보수를 기반으로 기풍을 판단한 결과를 통하여 특정 기풍에 최적화된 착수 후보수를 합리적으로 도출하기 위함이다. Referring to FIG. 5 , the learned start-up model can start using the start-up neural network 330 and the search unit 310 in its own turn. The starting model is the activity function (Q) and confidence in the second checkerboard state (S)(S1-2), which is a branch that is not currently searched through MCTS in the first checkerboard state (S)(S1) through the selection process (a) Select the starting point with a high value (U). The activity function (Q) is the average value of the value values (v) calculated every time the branch passes. The confidence value (U) is proportional to the number of visits (N) passing through the branch. The settling model can be extended to the third checkerboard state (S) (S1-2-1) at the selected set point through the expansion and evaluation process (b), and the movement probability value (p) can be calculated. The start model calculates the value of the third checkerboard state (S) (S1-2-1) extended through the backup process (c), and the activity function (Q) of the branches that have passed, the number of visits (N), the movement probability value ( p) can be saved. The initiation model repeats the process of selection (a), expansion and evaluation (b), and backup (c), and creates a probability distribution using the number of visits (N) for each initiation point to create a search probability value (
Figure 112019072373657-pat00014
) can be printed. The launch model has the highest search probability value (
Figure 112019072373657-pat00015
) can be selected, and the selected search probability value (
Figure 112019072373657-pat00016
) can be determined as the highest number in the checkerboard state (S). At this time, the starting model is a search probability value (
Figure 112019072373657-pat00017
), the starting point determined to be the best number can be set as the number of starting candidates. That is, in an embodiment of the present invention, the number of candidates for starting may be the highest starting point predicted by the starting model for a specific checkerboard state (S). At this time, the starting model is a search probability value (
Figure 112019072373657-pat00018
) may be derived at least two or more of the number of candidates to start, determined to be the best number, based on this, it is possible to generate information on the number of candidates for starting at least two or more. In detail, the initiation model may generate at least two or more of the number of start-up candidates information including information (eg, location information on the checkerboard, etc.) related to the corresponding number of start-up candidates based on the determined number of start-up candidates. Here, the reason that the start model generates at least two or more start-up candidates information is to rationally derive the number of start-up candidates optimized for a specific style through the result of determining the ethos based on the plurality of start-up candidates.

이때, 착수 모델 서버(300)는 생성된 착수 후보수 정보를 형세판단 모델 서버(400)로 송신할 수 있고, 형세판단 모델 서버(400)로부터 기풍 학습 데이터를 수신할 수 있다. 여기서, 기풍 학습 데이터는 착수 모델을 임의의 특정 기풍으로 학습시키기 위하여, 형세판단 모델 서버(400)의 기풍 판단부(400b)가 형세 판단을 기반으로 특정 기풍 학습에 적합하다고 판단한 적어도 하나의 착수 후보수에 대한 정보일 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. At this time, the starting model server 300 may transmit the generated starting candidate number information to the situation judgment model server 400 , and may receive the ethos learning data from the situation judgment model server 400 . Here, the ethos learning data is at least one start candidate that the ethos determination unit 400b of the situation judgment model server 400 judges to be suitable for learning a specific ethos based on the situation determination in order to learn the setting model in a certain specific ethos. It may be information about a number. A detailed description thereof will be provided later.

또한, 착수 모델은 형세판단 모델 서버(400)로부터 획득되는 기풍 학습 데이터를 기반으로 셀프 플레이(self-play) 학습을 수행할 수 있다. 자세히, 착수 모델은 셀프 플레이부를 통하여 기풍 학습 데이터를 기초로 학습된 상위버전 착수 모델과, 학습 이전의 하위버전 착수 모델 간의 바둑 게임 플레이를 수행할 수 있다. 즉, 착수 모델은 기풍 학습 데이터에 기반한 자가 학습을 수행할 수 있고, 이를 통해 기풍 학습 데이터의 성능을 진단할 수 있다. 여기서, 기풍 학습 데이터의 성능을 진단함이란 해당 기풍 학습 데이터가 특정 기풍을 학습하는데 있어서 적합한 데이터인지를 판단하는 것일 수 있다. In addition, the start model may perform self-play learning based on the ethos learning data obtained from the situation judgment model server 400 . In detail, the start model can perform Go game play between the higher version start model learned based on the ethos learning data through the self-play unit, and the lower version start model before learning. That is, the start model can perform self-learning based on the ethos learning data, and through this, the performance of the ethos learning data can be diagnosed. Here, diagnosing the performance of the ethos learning data may be determining whether the ethos learning data is suitable data for learning a specific ethos.

계속해서, 착수 모델은 셀프 플레이 학습에 기반한 기풍 학습 데이터의 성능 진단을 통하여 기풍 학습 성능정보를 생성할 수 있다. 즉, 기풍 학습 성능정보는 획득된 기풍 학습 데이터에 기반한 착수 모델의 자가학습을 통해, 해당 기풍 학습 데이터가 특정 기풍을 학습하기에 적합한 데이터인지 즉, 특정 착수 후보수 및/또는 바둑판 상태(S)에 대한 기풍이 제대로 판단되었는지를 진단한 정보일 수 있다. 그리고 이때, 착수 모델 서버(300)는 생성된 기풍 학습 성능정보를 형세판단 모델 서버(400)로 송신할 수 있다. 즉, 착수 모델은 특정 기풍을 학습하기 위한 학습 데이터의 적합성을 확인하고 이에 대한 피드백을 제공함으로써, 특정 착수 후보수 및/또는 바둑판 상태(S)에 대한 기풍 판단의 정확성을 향상시킬 수 있다. Continuing, the start model may generate ethos learning performance information through performance diagnosis of ethos learning data based on self-play learning. That is, the gi wind learning performance information is through self-learning of the initiation model based on the acquired gi wind learning data, whether the corresponding gi wind learning data is data suitable for learning a specific ethos, that is, a specific number of candidates for starting and / or checkerboard state (S) It may be information diagnosing whether the ethos for And at this time, the start model server 300 may transmit the generated ethos learning performance information to the situation judgment model server 400 . That is, the start model can improve the accuracy of determining the ethos for a specific number of candidates and/or checkerboard state (S) by confirming the suitability of the learning data for learning a specific ethos and providing feedback thereto.

한편, 착수 모델은 본 발명의 실시예에 따라서 바둑 게임 플레이 시 특정 기질이나 방식을 나타내는 기풍을 활용하는 바둑 게임 서비스를 제공하기 위하여, 기풍학습 보조부(340)를 포함할 수 있다. 자세히, 기풍학습 보조부(340)는 형세판단 모델 서버(400)로부터 기풍 학습 데이터를 입력 데이터로 수신할 수 있다. 또한, 기풍학습 보조부(340)는 입력 데이터로 수신된 기풍 학습 데이터에 기반하여 착수 모델 서버(300)가 셀프 플레이 학습을 수행하도록 셀프 플레이부(320)를 제어할 수 있다. 더하여, 기풍학습 보조부(340)는 착수 모델의 셀프 플레이부를 통한 셀프 플레이 학습의 결과를 토대로 기풍 학습 성능정보를 생성할 수 있다. 즉, 기풍학습 보조부(340)는 기풍 학습 데이터에 기반한 착수 모델의 자가학습 결과를 통하여, 해당 기풍 학습 데이터가 소정의 목표 기풍을 학습하기에 적합한 데이터인지 즉, 특정 착수 후보수 및/또는 바둑판 상태(S)에 대한 기풍을 형세판단 모델 서버(400)에서 제대로 판단하였는지를 진단한 기풍 학습 성능정보를 생성할 수 있다. 예를 들어, 기풍학습 보조부(340)는 기풍 학습 데이터가 포함하는 특정 착수 후보수에 대한 플레이어와 오포넌트 간의 점수 차이값과, 셀프 플레이를 통해 도출된 특정 착수 후보수에 대한 플레이어와 오포넌트 간의 점수 차이값을 비교하여 기풍 학습 성능정보를 생성할 수 있다. 그리고 기풍학습 보조부(340)는, 생성된 기풍 학습 성능정보를 형세판단 모델 서버(400)로 송신하여 이에 기반한 형세판단 모델 서버(400)의 기풍의 판단을 위한 임계치 조정 동작이 수행되게 할 수 있다. On the other hand, the initiation model may include the ethos learning auxiliary unit 340 in order to provide a Go game service that utilizes the ethos representing a specific temperament or method when playing the monarch game according to an embodiment of the present invention. In detail, the ethos learning auxiliary unit 340 may receive ethos learning data from the situation determination model server 400 as input data. In addition, the ethos learning auxiliary unit 340 may control the self-play unit 320 so that the start model server 300 performs self-play learning based on the ethos learning data received as input data. In addition, the ethos learning auxiliary unit 340 may generate ethos learning performance information based on the result of self-play learning through the self-play unit of the initiation model. That is, the spirit learning auxiliary unit 340 through the self-learning result of the start model based on the spirit learning data, whether the corresponding spirit learning data is data suitable for learning a predetermined target spirit, that is, a specific number of candidates for starting and / or a checkerboard state. It is possible to generate ethos learning performance information diagnosing whether the ethos for (S) is properly determined by the situation judgment model server 400 . For example, the ethos learning auxiliary unit 340 may include a difference value between a score between a player and an oponent for a specific number of start candidates included in the ethos learning data, and between a player and an oponant for a specific number of start candidates derived through self-play. By comparing the score difference value, it is possible to generate ethos learning performance information. And the ethos learning auxiliary unit 340 transmits the generated ethos learning performance information to the situation judgment model server 400, and the threshold adjustment operation for determining the ethos of the situation judgment model server 400 based thereon can be performed. .

보다 자세한 설명은 이하에서 기술되는 딥러닝을 기반으로 기풍을 판단하여 활용하는 방법의 상세한 설명에서 후술하기로 한다. 또한, 본 실시예에서는 기풍학습 보조부(340)가 착수 모델 서버(300)에 포함되어 동작하는 것으로 설명하나, 다른 실시예에서는 기풍학습 보조부(340)가 바둑서버(200) 또는 형세판단 모델 서버(400)에 포함되거나 별도의 장치로 구현되는 등 다양한 실시예 또한 가능하다. A more detailed description will be given later in the detailed description of a method for determining and utilizing the ethos based on deep learning to be described below. In addition, in this embodiment, the ethos learning auxiliary unit 340 is described as being included in the start model server 300 to operate, but in another embodiment, the ethos learning auxiliary unit 340 is the Go server 200 or the situation judgment model server ( 400) or implemented as a separate device, various embodiments are also possible.

- 형세 판단 모델 - Situation judgment model

도 6은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스의 형세 판단 기능을 제공하는 화면을 보여 주는 예시도이고, 도 7은 본 발명의 형세판단 모델 서버(400)의 형세 판단 모델(400a) 구조를 설명하기 위한 도면이고, 도 8은 본 발명의 형세 판단 모델(400a)의 복수의 블록으로 이루어진 신경망 구조 중 하나의 블록을 설명하기 위한 도면이다.6 is an exemplary diagram showing a screen providing a situation determination function of a deep learning-based Go game service according to an embodiment of the present invention, and FIG. 7 is a situation determination model of the situation judgment model server 400 of the present invention ( 400a) is a diagram for explaining the structure, and FIG. 8 is a diagram for explaining one block of the neural network structure composed of a plurality of blocks of the situation determination model 400a of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스는 현재 바둑판 상태(S)의 형세 판단을 할 수 있다. 일 예로, 도 6과 같이 유저가 단말기(100)의 화면에서 바둑 대국 중 형세 판단 메뉴(A)를 클릭하여 형세 판단을 요청하면 딥러닝 기반의 바둑 게임 서비스가 팝업 창에 형세 판단 결과를 제공할 수 있다. 형세 판단은 바둑 대국 중에 상대방과 나의 집을 계산하여 누가 몇점으로 이기고 있는지 판단하는 것이다. 예를 들어, 유저는 형세가 나에게 유리하다는 판단이 서면 더 이상 무리하지 말고 현재의 유리한 상황을 그대로 유지한 채 대국을 종료하는 방향으로 전략을 세울 것이고, 만약 불리하다는 판단이면 게임 국면을 새롭게 전환할 수 있도록 여러가지 전략을 모색할 수 있다. 형세 판단의 기준은 바둑돌이 바둑판에 배치된 상태에 따른 집, 사석, 돌, 공배, 빅이 된다. 돌은 바둑판에 놓여진 돌이고 한국 규칙에서는 점수가 아니다. 집은 한 가지 색의 바둑돌로 둘러쌓인 빈 점으로 구성된 영역으로 한국 규칙에서는 점수이다. 공배와 빅은 바둑이 끝났을 때 흑집도 백집도 아닌 영역으로 한국 규칙에서는 점수가 아니다. 판위사석은 바둑판 위에 놓여진 돌 중에서 어떻게 두어도 잡힐 수밖에 없어 죽게 된 돌로 한국 규칙에서는 상대방의 집을 메우는데 사용하므로 점수이다. 빅은 바둑이 끝났을 때, 흑집도 백집도 아닌 영역을 말한다.  따라서, 형세 판단은 바둑돌이 놓인 바둑판 상태(S)에서 집, 사석, 돌, 공배, 빅을 정확히 구분 또는 예측해야 정확한 판단이 될 수 있다. 이 때, 집, 사석, 돌, 공배, 빅을 정확히 구분하는 것은 집, 사석, 돌, 공배, 빅이 완전히 이루어진 상태를 구분하는 것이고, 집, 사석, 돌, 공배, 빅을 정확히 예측하는 것은 집, 사석, 돌, 공배, 빅이 될 가능성이 높은 상태를 예측하는 것일 수 있다. Referring to FIG. 6 , the deep learning-based Go game service according to an embodiment of the present invention may determine the situation of the current Go board state (S). For example, as shown in FIG. 6 , when a user requests a situation determination by clicking the situation determination menu (A) during a Go game on the screen of the terminal 100, the deep learning-based Go game service provides the situation determination result in a pop-up window. can The situation judgment is to determine who wins by how many points by calculating the opponent and my house during the Go game. For example, if the user decides that the situation is favorable to me, do not overdo it any more and devise a strategy to end the game while maintaining the current advantageous situation. If it is judged unfavorable, the game phase will be changed Several strategies can be devised to do this. The standard for judging the situation is a house, a stone, a stone, a ball, and a big according to the state of the Go stones placed on the board. A stone is a stone placed on a checkerboard and is not a score in Korean rules. A house is an area made up of empty dots surrounded by one-colored Go stones, which is a score in Korean rules. Gongbae and Big are areas that are neither black nor white when Go is over, and are not points in Korean rules. Among the stones placed on the checkerboard, it is a stone that has no choice but to be caught and died. It is a score because it is used to fill the opponent's house under Korean rules. Big refers to an area that is neither black nor white when Go is over. Therefore, in order to judge the situation, it is necessary to accurately distinguish or predict a house, a stone, a stone, a ball, and a big in the state (S) on which the go stones are placed, in order to be an accurate judgment. At this time, to accurately distinguish a house, a stone, a stone, a public stone, and a big is to distinguish the state in which a house, a stone, a stone, a public stone, and a big are completely completed, and to accurately predict a house, a stone, a stone, a public meeting, and a big is a house , stone, stone, public meeting, or predicting a state with a high probability of becoming a big.

도 7을 참조하면, 본 발명의 실시예에 따른 형세 판단 모델(400a)은 형세판단 모델 서버(400)의 딥러닝 모델로써 형세 판단 신경망(410), 입력 특징 추출부(420) 및 정답 레이블 생성부(430)를 포함할 수 있다. 또한, 본 발명의 실시예에 따른 형세 판단 모델(400a)은 딥러닝 신경망을 기반으로 바둑 형세를 판단하고 학습하여 바둑 게임 플레이 시 기풍을 적용하는 프로세스를 동작하기 위하여 기풍 판단부(400b)와 연동될 수 있다. 이에 대한 자세한 설명은 후술하기로 한다. Referring to FIG. 7 , a situation judgment model 400a according to an embodiment of the present invention is a deep learning model of the situation judgment model server 400 , a situation judgment neural network 410 , an input feature extractor 420 , and a correct answer label generation It may include a part 430 . In addition, the situation determination model 400a according to an embodiment of the present invention is linked with the spirit determination unit 400b to operate the process of determining and learning the Go situation based on the deep learning neural network and applying the spirit when playing the Go game. can be A detailed description thereof will be provided later.

형세 판단 모델(400a)은 형세 판단 신경망(410)을 이용하여 현재 바둑판 상태(S)의 형세를 판단할 수 있도록 지도 학습(supervised learning)할 수 있다. 보다 구체적으로, 형세 판단 모델(400a) 바둑판 상태(S)에 관한 트레이닝 데이터 셋을 생성하고 생성된 트레이닝 데이터 셋을 이용하여 형세 판단 신경망(410)이 현재 바둑판 상태(S)에 따른 형세를 판단할 수 있도록 학습시킬 수 있다. 형세판단 모델 서버(400)는 바둑서버(200)로부터 복수의 기보를 수신할 수 있다. 복수의 기보의 각 기보는 착수 순서에 따른 각각의 바둑판 상태(S)를 포함할 수 있다. The situation determination model 400a may perform supervised learning so as to determine the situation of the current checkerboard state S using the situation determination neural network 410 . More specifically, the situation determination model 400a generates a training data set related to the checkerboard state (S), and using the generated training data set, the situation determination neural network 410 determines the situation according to the current checkerboard state (S). can be taught to do so. The situation judgment model server 400 may receive a plurality of notations from the Go server 200 . Each notation of a plurality of notations may include a respective checkerboard state (S) according to the starting order.

입력 특징 추출부(420)는 복수의 기보의 바둑판 상태(S)에서 입력 특징(IF)을 추출하여 형세 판단 신경망(410)에 트레이닝을 위한 입력 데이터로 제공할 수 있다. 바둑판 상태(S)의 입력 특징(IF)은 흑 플레이어의 최근 8 수에 대한 돌의 위치 정보과 백 플레이어의 최근 8 수에 대한 돌의 위치 정보와 현재 플레이어가 흑인지 백인지에 대한 차례 정보를 포함한 19*19*18의 RGB 이미지일 수 있다. 일 예로, 입력 특징 추출부(420)는 신경망 구조로 되어 있을 수 있으며 일종의 인코더를 포함할 수 있다.The input feature extraction unit 420 may extract the input feature (IF) from the checkerboard state (S) of a plurality of notations and provide it to the situation determination neural network 410 as input data for training. The input feature (IF) of the checkerboard state (S) includes the position information of the stone for the last 8 moves of the black player, the position information of the stone for the last 8 moves of the white player, and turn information on whether the current player is black or white. It can be an RGB image of 19*19*18. For example, the input feature extractor 420 may have a neural network structure and may include a kind of encoder.

정답 레이블 생성부(430)는 현재 바둑판 상태(S)로 전처리 과정을 거쳐 정답 레이블(ground truth)을 생성하고 정답 레이블을 형세 판단 신경망(410)에 트레이닝을 위한 타겟 데이터(

Figure 112019072373657-pat00019
)로 제공할 수 있다. 정답 레이블 생성부(430)의 정답 레이블 생성은 후술하는 도 9 내지 도 11의 설명을 따른다. 일 예로, 정답 레이블 생성부(430)는 신경망 구조의 롤아웃 또는 인코더를 포함할 수 있다.The correct answer label generator 430 generates a correct answer label (ground truth) through a preprocessing process in the current checkerboard state (S), and applies the correct answer label to the neural network 410 for training target data (
Figure 112019072373657-pat00019
) can be provided. The correct answer label generation unit 430 generates the correct answer label according to the description of FIGS. 9 to 11 , which will be described later. As an example, the correct answer label generator 430 may include a rollout of a neural network structure or an encoder.

형세 판단 모델(400a)은 입력 특징(IF)을 입력 데이터로 하고 정답 레이블을 타겟 데이터(

Figure 112019072373657-pat00020
)로 한 트레이닝 데이터 셋을 이용하여 형세 판단 신경망(410)에서 생성된 출력 데이터(o)가 타겟 데이터(
Figure 112019072373657-pat00021
)와 동일해지도록 형세 판단 신경망(420)을 충분히 학습할 수 있다. 일 예로, 형세 판단 모델(400a)은 형세 판단 손실(
Figure 112019072373657-pat00022
)을 이용할 수 있다. 형세 판단 손실(
Figure 112019072373657-pat00023
)은 평균 제곱 에러(mean square error)를 이용할 수 있다. 예를 들어, 형세 판단 손실(
Figure 112019072373657-pat00024
)은 수학식 2와 같다.The situation judgment model 400a uses the input feature (IF) as input data and the correct answer label as the target data (
Figure 112019072373657-pat00020
), the output data (o) generated by the situation determination neural network 410 using the training data set as the target data (
Figure 112019072373657-pat00021
), it is possible to sufficiently learn the situation determination neural network 420 to be the same. As an example, the situation judgment model 400a is a situation judgment loss (
Figure 112019072373657-pat00022
) can be used. loss of judgment (
Figure 112019072373657-pat00023
) can use the mean square error. For example, loss of judgment (
Figure 112019072373657-pat00024
) is the same as Equation 2.

(수학식 2)(Equation 2)

Figure 112019072373657-pat00025
Figure 112019072373657-pat00025

B는 바둑판의 전체 교차점 수이다. 바둑판은 가로 19줄 및 세로 19줄이 서로 교차하여 361개의 교차점이 배치된다. 이에 제한되는 것은 아니고 바둑판이 가로 9줄 및 세로 9줄일 경우 81개의 교차점이 배치될 수 있다.

Figure 112019072373657-pat00026
는 현재 바둑판 상태(S)에서 정답 레이블에 따른 소정의 교차점(i)에 대한 형세값이다. 형세값에 대한 설명은 후술하는 도 11의 설명에 따른다.
Figure 112019072373657-pat00027
는 현재 바둑판 상태(S)에서 소정의 교차점(i)을 형세 판단 신경망(410)에 입력하였을 때에 출력되는 출력 데이터이다. 형세 판단 모델(400a)은 형세 판단 손실(
Figure 112019072373657-pat00028
)이 최소화되도록 경사 하강법(gradient-descent)과 역전파(backpropagation)을 이용하여 형세 판단 신경망(410) 내의 가중치와 바이어스 값들을 조절하여 형세 판단 신경망(410)를 학습시킬 수 있다.B is the total number of intersections of the checkerboard. In the checkerboard, 19 horizontal and 19 vertical lines intersect each other, and 361 intersections are arranged. It is not limited thereto, and when the checkerboard has 9 horizontal and 9 vertical lines, 81 intersections may be arranged.
Figure 112019072373657-pat00026
is a configuration value for a predetermined intersection point (i) according to the correct answer label in the current checkerboard state (S). The description of the configuration value follows the description of FIG. 11, which will be described later.
Figure 112019072373657-pat00027
is output data output when a predetermined intersection (i) is input to the situation determination neural network 410 in the current checkerboard state (S). The situation judgment model 400a is the situation judgment loss (
Figure 112019072373657-pat00028
) can be minimized by adjusting the weights and bias values in the situation determination neural network 410 using gradient-descent and backpropagation to train the situation determination neural network 410 .

형세 판단 신경망(410)은 신경망 구조로 구성될 수 있다. 일 예로, 형세 판단 신경망(420)은 19개의 레지듀얼(residual) 블록으로 구성될 수 있다. 도 8을 참조하면, 하나의 레지듀얼 블록은 256개의 3X3 컨볼루션 레이어, 일괄 정규화(batch normalization) 레이어, Relu 활성화 함수 레이어, 256개의 3X3 컨볼루션 레이어, 일괄 정규화(batch normalization) 레이어, 스킵 커넥션, Relu 활성화 함수 레이어 순으로 배치될 수 있다. 일괄 정규화(batch normalization) 레이어는 학습하는 도중에 이전 레이어의 파라미터 변화로 인해 현재 레이어의 입력의 분포가 바뀌는 현상인 공변량 변화(covariate shift)를 방지하기 위한 것이다. 스킵 커넥션은 블록 층이 두꺼워지더라도 신경망의 성능이 감소하는 것을 방지하고 블록 층을 더욱 두껍게 하여 전체 신경망 성능을 높일 수 있게 한다. 스킵 커넥션은 레지듀얼 블록의 최초 입력 데이터가 두 번째 일괄 정규화(batch normalization) 레이어의 출력과 합하여 두번째 Relu 활성화 함수 레이어에 입력되는 형태일 수 있다.The situation determination neural network 410 may be configured in a neural network structure. As an example, the situation determination neural network 420 may be composed of 19 residual blocks. Referring to FIG. 8 , one residual block includes 256 3X3 convolutional layers, batch normalization layers, Relu activation function layers, 256 3X3 convolutional layers, batch normalization layers, skip connections, Relu activation function layers may be arranged in order. The batch normalization layer is to prevent covariate shift, which is a phenomenon in which the distribution of the input of the current layer is changed due to the parameter change of the previous layer during learning. Skip connection prevents the performance of the neural network from decreasing even if the block layer becomes thicker, and makes the block layer thicker to increase the overall neural network performance. The skip connection may be in a form in which the first input data of the residual block is combined with the output of the second batch normalization layer and input to the second Relu activation function layer.

도 9 및 도 10은 본 발명의 형세 판단 모델(400a)을 학습하기 위해 사용되는 정답 레이블을 생성하기 위한 제1 및 제2 전처리 단계를 설명하기 위한 도면이고, 도 11은 본 발명의 형세 판단 모델(400a)을 학습하기 위해 사용되는 정답 레이블을 생성하기 위한 제3 전처리 단계를 설명하기 위한 도면이다.9 and 10 are diagrams for explaining the first and second pre-processing steps for generating a correct answer label used to learn the situation judgment model 400a of the present invention, and FIG. 11 is the situation judgment model of the present invention It is a diagram for explaining the third pre-processing step for generating the correct answer label used to learn (400a).

정답 레이블 생성부(430)는 형세 판단 신경망(410)이 정확한 형세 판단을 할 수 있도록 학습하는데 이용되는 정답 레이블을 생성할 수 있다.The correct answer label generating unit 430 may generate a correct answer label used for learning so that the situation determination neural network 410 can accurately determine the situation.

보다 구체적으로, 정답 레이블 생성부(430)는 입력 데이터에 기초가 되는 바둑판 상태(S)를 입력으로 받고, 현재 바둑판 상태(S)에서 끝내기를 하는 제1 전처리를 수행하여 제1 전처리 상태(P1)를 생성할 수 있다. 제1 전처리인 끝내기는 집 계산을 하기 전에 집의 경계가 명확해지도록 소정의 착수를 하여 게임을 마무리하는 과정이다. 일 예로, 도 9를 참조하면 정답 레이블 생성부(430)는 도 9의 (a)의 현재 바둑판 상태(S)에서 끝내기를 하여 도 9의 (b)의 제1 전처리 상태(P1)를 생성할 수 있다. More specifically, the correct answer label generating unit 430 receives as an input the checkerboard state (S) that is the basis of the input data, and performs a first preprocessing of ending the current checkerboard state (S) to the first preprocessing state (P1) ) can be created. The first pre-processing, ending, is a process of finishing the game by making a predetermined start so that the boundary of the house becomes clear before calculating the house. For example, referring to FIG. 9 , the correct answer label generating unit 430 generates the first pre-processing state P1 of FIG. 9(b) by ending the current checkerboard state (S) of FIG. can

정답 레이블 생성부(430)는 제1 전처리 상태(P1)에서 집 경계 내에 배치되며 집 구분에 불필요한 돌을 제거하는 제2 전처리를 수행하여 제2 전처리 상태(P2)를 생성할 수 있다. 예를 들어, 집 경계 내에 배치되며 집 구분에 불필요한 돌은 사석일 수 있다. 사석은 집안에 상대방 돌이 배치되어 어떻게 두어도 잡힐수 밖에 없어 죽게 된 돌임을 앞서 설명하였다. 또한, 집 경계 내에 배치되며 집 구분에 불필요한 돌은 집안에 배치된 자신의 돌일 수 있다. 일 예로, 도 9를 참조하면 정답 레이블 생성부(430)는 도 9의 (b)의 제1 전처리 상태(P1)에서 집 구분에 불필요한 돌을 제거하여 도 9의 (c)의 제2 전처리 상태(P2)를 생성할 수 있다.The correct answer label generating unit 430 may generate the second pre-processing state P2 by performing a second pre-processing of removing stones that are disposed within the house boundary in the first pre-processing state P1 and are unnecessary for house classification. For example, a stone that is placed within the boundary of a house and is not necessary to classify the house may be a quarry stone. It was explained earlier that the stone was a stone that died because the other stone was placed in the house, and no matter how it was placed, it could only be caught. In addition, a stone that is placed within the boundary of the house and is unnecessary to classify the house may be one's own stone placed in the house. For example, referring to FIG. 9 , the correct answer label generating unit 430 removes stones unnecessary for house classification in the first pre-processing state P1 of FIG. (P2) can be created.

다른 예로, 도 10을 참조하면, 정답 레이블 생성부(430)는 도 10의 (a)의 현재 바둑판 상태(S)에서 제1 전처리인 끝내기를 위하여 도 10의 (b)와 같이 빨간색 x에 착수할 수 있다. 정답 레이블 생성부(430)는 도 10의 (b)에서 파란색 x로 표시된 사석을 제거하기 위하여 녹색 x에 착수하여 사석을 제거하고 사석 제거를 위해 사용된 녹색 x에 착수한 돌도 제거하여 제2 전처리를 수행할 수 있다.As another example, referring to FIG. 10 , the correct answer label generating unit 430 starts the red x as shown in FIG. can do. The correct answer label generating unit 430 removes the green x to remove the rubble indicated by the blue x in FIG. Pre-processing can be performed.

정답 레이블 생성부(430)는 제2 전처리 상태(P2)에서 각 교차점을 -1 부터 +1까지 표시된 형세값(g, 단 g는 정수)으로 변경하는 제3 전처리를 수행할 수 있다. 즉, 제3 전처리는 정답 레이블 생성부(430)가 이미지 특징인 제2 전처리 상태(P2)를 수치 특징인 제3 전처리 상태(P3)로 변경하는 것이다. 일 예로, 제2 전처리 상태(P2)에서 교차점에 내 돌이 배치되면 0, 내 집 영역이면 +1, 상대 돌이 배치되면 0, 상대 집 영역이면 -1로 대응할 수 있다. 이 경우, 형세 판단 신경망(410)은 형세 판단시 집, 돌, 사석을 구분할 수 있도록 학습될 수 있다. 다른 예로, 제2 전처리 상태(P2)에서 교차점에 내 돌이 배치되면 0, 내 집 영역이면 +1, 상대 돌이 배치되면 0, 상대 집 영역이면 -1, 빅 또는 공배이면 0으로 대응할 수 있다. 다른 예의 경우 형세 판단 신경망(410)은 형세 판단시 빅 또는 공배를 구분할 수 있도록 학습될 수 있다. 예를 들어, 도 11을 참조하면, 정답 레이블 생성부(430)는 도 11의 (a)의 제2 전처리 상태(P2)를 도 11의 (b)의 제3 전처리 상태(P3)로 특징을 변경할 수 있다. The correct answer label generator 430 may perform a third preprocessing of changing each intersection to a shape value (g, where g is an integer) indicated from -1 to +1 in the second preprocessing state P2 . That is, in the third pre-processing, the correct answer label generating unit 430 changes the second pre-processing state P2, which is an image feature, to a third pre-processing state P3, which is a numerical feature. For example, in the second pre-processing state P2 , if my stone is disposed at the intersection, it may correspond to 0, if it is my house area, +1, if the opponent stone is disposed, it may correspond to 0, and if it is the opponent's house area, it may correspond to -1. In this case, the situation determination neural network 410 may be trained to distinguish a house, a stone, and a stone when determining the situation. As another example, in the second pre-processing state P2, if my stone is placed at the intersection, it may correspond to 0, if it is my home area, +1, if the opponent stone is placed, 0, if it is the opponent's area, -1, and if it is a big or common match, 0 may correspond. In another example, the situation determination neural network 410 may be trained to distinguish a big or a common match when determining a situation. For example, referring to FIG. 11 , the correct answer label generating unit 430 characterizes the second pre-processing state P2 of FIG. 11 (a) as the third pre-processing state P3 of FIG. 11 (b). can be changed

제3 전처리 상태(P3)는 바둑판 상태(S)에서의 형세 판단의 정답 레이블이 되고 형세 판단 신경망(410)의 학습 시 타겟 데이터(

Figure 112019072373657-pat00029
)로 이용될 수 있다. The third preprocessing state (P3) becomes the correct label of the situation determination in the checkerboard state (S), and the target data (
Figure 112019072373657-pat00029
) can be used as

도 12는 본 발명의 형세 판단 모델(400a)의 형세 판단 결과를 설명하기 위한 도면이다.12 is a view for explaining a situation determination result of the condition determination model 400a of the present invention.

학습된 형세 판단 모델(400a)은 바둑판 상태(S)가 입력되면 바둑판의 모든 교차점에 대한 형세값을 제공할 수 있다. 즉, 바둑판 교차점의 361개 지점에 대해 형세값인 -1 내지 +1의 정수 값을 제공할 수 있다. The learned layout determination model 400a may provide a configuration value for all intersections of the checkerboard when the checkerboard state S is input. That is, it is possible to provide an integer value of -1 to +1, which is a configuration value, for 361 points of the checkerboard intersection.

도 12를 참조하면, 형세판단 모델 서버(400)는 형세 판단 모델(400a)이 제공한 형세값, 소정의 임계값, 돌의 유무를 이용하여 형세를 판단할 수 있다. 일 예로, 형세판단 모델 서버(400)는 돌이 없는 곳이며, 형세 값이 제1 임계값을 넘으면 내 집이 될 가능성이 높은 곳으로 판단하고, +1에 가까운 값이면 내 집 영역으로 판단할 수 있다. 형세판단 모델 서버(400)는 내 집일 가능성이 높을수록 점점 커지는 내 돌과 같은 색의 네모 형태로 표시할 수 있다. 형세판단 모델 서버(400)는 돌이 없는 곳이며, 형세 값이 제2 임계값 이하이면 상대 집이 될 가능성이 높은 곳으로 판단하고, -1에 가까운 값이면 내집 영역으로 판단할 수 있다. 형세판단 모델 서버(400)는 상대 집일 가능성이 높을수록 점점 커지는 상대 돌과 같은 색의 네모 형태로 표시할 수 있다. 형세판단 모델 서버(400)는 돌이 없는 곳이며, 형세 값이 제3 임계값 범위 이내 또는 0에 가까운 값이면 공배 또는 빅으로 판단할 수 있다. 형세판단 모델 서버(400)는 공배 또는 빅으로 판단하면 X로 표시할 수 있다. 형세판단 모델 서버(400)는 돌이 있는 곳이며, 형세 값이 제3 임계값 범위 이내 또는 0에 가까운 값이면 내 돌 또는 상대 돌로 판단할 수 있다. 형세판단 모델 서버(400)는 공배 또는 빅으로 판단하면 아무런 표시를 안할 수 있다. 형세판단 모델 서버(400)는 돌이 있는 곳이며, 형세 값이 제1 임계값을 넘으면 상대 돌의 사석이 될 가능성이 높은 곳으로 판단하고, +1에 가까운 값이면 상대 돌의 사석으로 판단할 수 있다. 형세판단 모델 서버(400)는 상대 돌의 사석일 가능성이 높을수록 점점 커지는 내 돌과 같은 색의 네모 형태로 표시할 수 있다. 형세판단 모델 서버(400)는 돌이 있는 곳이며, 형세 값이 제2 임계값 이하이면 내 돌의 사석이 될 가능성이 높은 곳으로 판단하고, -1에 가까운 값이면 상대 돌의 사석으로 판단할 수 있다. 형세판단 모델 서버(400)는 상대 돌의 사석일 가능성이 높을수록 점점 커지는 상대 돌과 같은 색의 네모 형태로 표시할 수 있다. Referring to FIG. 12 , the situation determination model server 400 may determine the situation using the situation value provided by the situation determination model 400a, a predetermined threshold value, and the presence or absence of stones. As an example, the situation judgment model server 400 is a place where there are no stones, and if the situation value exceeds the first threshold value, it is determined as a place with a high probability of becoming my home, and if the value is close to +1, it can be determined as my home area. have. The situation judgment model server 400 may display a square shape of the same color as my stone, which increases as the probability that it is my house increases. The situation judgment model server 400 is a place where there are no stones, and if the situation value is less than the second threshold value, it is determined as a place with a high probability of becoming a counterpart's house, and if the value is close to -1, it can be determined as the home area. The situation judgment model server 400 may display a square shape of the same color as the counterpart stone, which increases as the probability of the counterpart's house increases. The situation judgment model server 400 is a place where there are no stones, and if the situation value is within the third threshold range or a value close to 0, it can be determined as a common or big. The situation judgment model server 400 may display an X when judging that it is common or big. The shape judgment model server 400 is where the stone is, and if the shape value is within the range of the third threshold value or close to 0, it may determine the stone as my stone or the opponent's stone. The situation judgment model server 400 may not display anything when it is judged to be a common ball or a big. The situation judgment model server 400 is a place where there is a stone, and if the situation value exceeds the first threshold value, it is determined as a place with a high probability of becoming a stone of the opponent stone, and if the value is close to +1, it can be determined as a stone of the opponent stone. have. The situation judgment model server 400 may display a square shape of the same color as the inner stone, which increases as the probability that the other stone is a non-stone. The situation judgment model server 400 is a place where there is a stone, and if the position value is less than the second threshold, it is determined as a place with a high probability of becoming my stone, and if the value is close to -1, it can be determined as a stone of the other stone. have. The situation judgment model server 400 may display a square shape of the same color as that of the opponent stone, which increases as the probability that the opponent stone is a quarry stone increases.

또한, 형세판단 모델 서버(400)는 각 교차점에서 판단한 형세 판단 기준을 이용하여 현재 바둑판 상태(S)에서의 계가 결과를 표시할 수 있다. In addition, the situation determination model server 400 may display the result of the calculation in the current checkerboard state (S) by using the situation determination criterion determined at each intersection.

따라서, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 그 장치는 딥러닝 신경망을 이용하여 바둑 형세를 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 장치는 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 정확히 구분하여 바둑의 형세를 정확히 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 장치는 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 예측하여 바둑의 형세를 정확히 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 장치는 바둑 대국 중 신속하게 형세를 판단할 수 있다.Therefore, the deep learning-based Go game service device according to the embodiment may determine the Go situation using a deep learning neural network. In addition, the deep learning-based Go game service apparatus according to the embodiment can accurately determine the situation of Go by accurately classifying a house, a stone, a stone, a ball, and a big according to the Go rules. In addition, the deep learning-based Go game service device according to the embodiment may accurately determine the situation of Go by predicting a house, a stone, a stone, a ball, and a big according to the Go rules. In addition, the deep learning-based Go game service device according to the embodiment can quickly determine the situation in the Go game.

한편, 형세판단 모델 서버(400)는 딥러닝에 기반해 바둑 대국 시에 특정 기풍을 적용하기 위한 일련의 동작을 수행하기 위하여, 형세 판단 모델(400a)을 통해 형세 판단 모델(400a)로부터 제1 내지 3 전처리 과정을 통해 도출된 형세값을 기반으로 보유 집 정보를 생성할 수 있다. 여기서, 보유 집 정보는 형세 판단을 통하여 예측된 플레이어 및 오포넌트 각각의 보유 집 수를 기반으로 생성된 정보일 수 있다. 즉, 형세판단 모델 서버(400)는 형세 판단 모델(400a)을 통하여, 형세 판단 모델(400a)로부터 예측된 바둑판 상태(S)의 모든 교차점에 대한 형세값(실시예에서, -1 ~ +1 사이의 값)을 기반으로 플레이어와 오포넌트 각각이 보유할 것으로 예상되는 집 수를 산출해 보유 집 정보를 생성할 수 있다. 예를 들어, 보유 집 정보는 플레이어가 80집, 오포넌트가 77집을 보유할 것임을 예측한 정보를 포함하는 형태로 구현될 수 있다. 이러한 보유 집 정보는, 이하에서 후술되는 기풍의 판단 과정에서 소정의 기풍판단 임계치와 비교되는 파라미터인 점수 차이값을 생성하기 위한 기반 데이터로 이용될 수 있다. On the other hand, the situation judgment model server 400 is based on deep learning, in order to perform a series of operations for applying a specific ethos during the Go game, the first from the situation judgment model 400a through the situation judgment model 400a To 3 pre-processing, it is possible to generate the holding house information based on the value derived through the pre-processing. Here, the holding house information may be information generated based on the number of holdings of each of the player and the Oponent predicted through the situation determination. That is, the situation judgment model server 400 uses the configuration judgment model 400a, and the configuration values for all intersections of the checkerboard state S predicted from the situation judgment model 400a (in the embodiment, -1 to +1). value between), the number of houses expected to be owned by each player and component can be calculated to generate house information. For example, the holding house information may be implemented in a form including information that predicts that the player will own the 80th house and the Opponent will own the 77th house. Such holding house information may be used as base data for generating a score difference value, which is a parameter to be compared with a predetermined air wind determination threshold in the wind determination process to be described later.

실시예로, 형세판단 모델 서버(400)는 형세 판단 모델(400a)을 통해 형세 판단을 수행하여 형세값을 도출하고, 도출된 형세값을 기반으로 플레이어의 보유 집 수와 오포넌트의 보유 집 수를 산출하여 보유 집 정보를 생성할 수 있다. 그리고 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통해 생성된 보유 집 수 정보를 기반으로 플레이어 점수값 및 오포넌트 점수값을 획득할 수 있다. 또한, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 획득된 플레이어 점수값과 오포넌트 점수값을 기반으로 양 점수값 간의 점수 차이값을 산출할 수 있다. 이후, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통해 산출된 점수 차이값을 소정의 기풍판단 임계치와 비교하여 기풍판단 정보를 생성할 수 있다. 이에 대한 자세한 설명은 이하에서 후술하기로 한다. In an embodiment, the situation judgment model server 400 derives a situation value by performing a situation determination through the situation determination model 400a, and the number of households owned by the player and the number of households owned by the Oponent based on the derived situation value can be calculated to generate holding house information. In addition, the situation judgment model server 400 may acquire a player score value and an oponent score value based on the holding collection information generated through the ethos judgment unit 400b. Also, the situation judgment model server 400 may calculate a score difference value between the two score values based on the obtained player score value and the component score value through the ethos judgment unit 400b. Thereafter, the situation judgment model server 400 may generate ethos determination information by comparing the score difference value calculated through the ethos determination unit 400b with a predetermined geography judgment threshold. A detailed description thereof will be provided below.

도 13은 본 발명의 형세 판단 모델(400a)의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이고, 도 14는 본 발명의 형세 판단 모델(400a)의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이고, 도 15는 본 발명의 형세 판단 모델(400a)의 형세 판단 결과와 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 결과를 비교한 모습이다.13 is a view comparing the situation determination result of the situation determination model 400a of the present invention with the situation determination result by the deep learning model according to the prior art, and FIG. 14 is the situation determination model 400a of the present invention The result and the situation judgment result by the deep learning model according to the prior art are compared, and FIG. 15 is the situation judgment result of the situation judgment model 400a of the present invention and the situation judgment result by the deep learning model according to the prior art compared view.

도 13을 참조하면, 본 발명의 형세 판단 모델(400a)은 도 13의 (a)의 B영역과 같이 교차점 마다 집, 돌, 사석을 구분하여 형세를 판단한다. 그러나 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 모델(400a)은 도 13의 (b)에서 도 13의 (a)와 대응 되는 영역의 교차점에 대하여 집, 돌, 사석을 구분하지 못한다.Referring to FIG. 13 , the condition determination model 400a of the present invention determines the condition by classifying houses, stones, and rocks at each intersection as in area B of FIG. 13 (a). However, the situation judgment model 400a by the deep learning model according to the prior art cannot distinguish a house, a stone, and a stone at the intersection of the area corresponding to FIG. 13(b) to FIG. 13(a).

마찬가지로 도 14를 참조하면, 본 발명의 형세 판단 모델(400a)은 도 14의 (a)의 C영역과 같이 교차점 마다 집, 돌, 사석을 구분하여 형세를 판단한다. 그러나 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 모델(400a)은 도 14의 (b)에서 도 13의 (a)와 대응 되는 영역의 교차점에 대하여 집, 돌, 사석을 구분하지 못한다.Similarly, referring to FIG. 14 , the condition determination model 400a of the present invention determines the condition by classifying houses, stones, and rocks at each intersection as in area C of FIG. 14(a). However, the situation judgment model 400a by the deep learning model according to the prior art does not distinguish between houses, stones, and rocks at the intersection of the regions corresponding to those of FIG. 14(b) to FIG. 13(a).

도 15을 참조하면, 본 발명의 형세 판단 모델(400a)은 도 15의 (a)의 D영역과 같이 백집을 제대로 인식한다. 그러나 종래 기술에 따른 딥러닝 모델에 의한 형세 판단 모델(400a)은 도 15의 (b)에서 도 15의 (a)와 대응 되는 영역에서 백집을 구분하지 못한다.Referring to FIG. 15 , the situation determination model 400a of the present invention properly recognizes the bag as in the region D of FIG. 15 (a). However, the situation judgment model 400a by the deep learning model according to the prior art does not distinguish the bag in the area corresponding to that of FIG. 15(b) in FIG. 15(a).

도 16은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 시스템에 신호 흐름에 대한 예시도이다.16 is an exemplary diagram of a signal flow in a deep learning-based Go game service system according to an embodiment of the present invention.

도 16을 참조하면, 착수 모델 서버(300)는 인공지능 컴퓨터로써 자신의 턴에서 대국에서 이길 수 있도록 바둑돌의 착수를 수행할 수 있도록 바둑 규칙에 따라 스스로 학습하여 딥러닝 모델인 착수 모델을 트레이닝 할 수 있다(s11). 바둑서버(22)는 복수의 기보를 형세판단 모델 서버(400)에게 송신할 수 있다. 형세판단 모델 서버(400)는 트레이닝 데이터 셋을 생성할 수 있다. 먼저, 형세판단 모델 서버(400)는 복수의 기보의 바둑판 상태(S)에서 입력 특징을 추출할 수 있다(S13). 형세판단 모델 서버(400)는 입력 특징을 추출한 바둑판 상태(S)를 이용하여 정답 레이블을 생성할 수 있다(S14). 형세판단 모델 서버(400)은 입력 특징을 입력 데이터로 하고 정답 레이블을 타겟 데이터로 한 트레이닝 데이터 셋을 이용하여 형세 판단 모델(400a)을 트레이닝 할 수 있다(S15). 단말기(100)는 바둑서버(200)에 인공지능 컴퓨터를 상대로 또는 다른 유저 단말기를 상대로 바둑 게임을 요청할 수 있다(S16). 바둑서버(200)는 단말기(100)가 인공지능 컴퓨터를 상대로 바둑 게임을 요청하면 착수 모델 서버(300)에 착수를 요청할 수 있다(S17). 바둑서버(200)는 바둑 게임을 진행하며 단말기(100)와 착수 모델 서버(300)가 자신의 턴에 착수를 수행할 수 있다(S18 내지 S20). 대국 중 단말기(100)는 바둑서버(200)에 형세 판단을 요청할 수 있다(S21). 바둑서버(200)는 형세판단 모델 서버(400)에게 현재 바둑판 상태(S)에 대한 형세 판단을 요청할 수 있다(S22). 형세판단 모델 서버(400)는 현재 바둑판 상태(S)의 입력 특징을 추출하고, 딥러닝 모델인 형세 판단 모델(400a)이 입력 특징을 이용하여 형세값을 생성하고, 바둑판 상태(S)와 형세값을 이용하여 형세 판단을 수행할 수 있다(S23). 형세판단 모델 서버(400)는 형세 판단 결과를 바둑서버(200)에 제공할 수 있다(S24). 바둑서버(200)는 단말기(100)에 형세 판단 결과를 제공할 수 있다(S25).Referring to FIG. 16, the start model server 300 is an artificial intelligence computer that learns by itself according to the rules of Go so as to be able to perform the initiation of Go so that it can win the game in its own turn to train the initiation model, which is a deep learning model. can (s11). Go server 22 may transmit a plurality of notations to the situation judgment model server 400 . The situation judgment model server 400 may generate a training data set. First, the situation judgment model server 400 may extract input features from the checkerboard state (S) of a plurality of notations (S13). The layout judgment model server 400 may generate a correct answer label using the checkerboard state (S) from which the input features are extracted (S14). The situation judgment model server 400 may train the situation judgment model 400a using the training data set using the input characteristics as input data and the correct answer label as the target data (S15). The terminal 100 may request the Go game from the Go server 200 against the artificial intelligence computer or against another user terminal (S16). Go server 200 may request the start model server 300 when the terminal 100 requests a Go game against the artificial intelligence computer (S17). The Go server 200 may perform a Go game, and the terminal 100 and the start model server 300 may start in their turn (S18 to S20). During the game, the terminal 100 may request the Go server 200 to determine the situation (S21). The Go server 200 may request the condition determination model server 400 to determine the condition of the current Go board state (S) (S22). The situation judgment model server 400 extracts the input features of the current checkerboard state (S), and the situation judgment model 400a, which is a deep learning model, generates a situation value using the input features, and the checkerboard state (S) and the situation A situation may be determined using the value (S23). The situation determination model server 400 may provide the situation determination result to the Go server 200 (S24). The Go server 200 may provide the result of determining the situation to the terminal 100 (S25).

도 17은 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법 중 형세 판단 방법이고, 도 18은 도 17의 형세 판단 방법 중 정답 레이블을 생성하기 위한 트레이닝 데이터의 전처리 방법이다.17 is a method for determining a situation among the deep learning-based Go game service methods according to an embodiment of the present invention, and FIG. 18 is a method for pre-processing training data for generating a correct answer label among the method for determining the situation of FIG. 17 .

도 17을 참조하면, 본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세판단 모델 서버(400)가 바둑서버로부터 복수의 기보를 수신하는 단계(S100)를 포함할 수 있다. Referring to FIG. 17 , the deep learning-based Go game service method according to an embodiment of the present invention may include the step (S100) of the situation judgment model server 400 receiving a plurality of notations from the Go server.

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세판단 모델 서버(400)의 형세 판단 모델(400a) 중 입력 특징 추출부가 복수의 기보의 바둑판 상태(S)에서 입력 특징을 추출하는 단계(S200)를 포함할 수 있다. 입력 특징을 추출하는 방법은 도 7의 설명을 따른다.In the deep learning-based Go game service method according to an embodiment of the present invention, the input feature extraction unit among the situation determination model 400a of the situation judgment model server 400 extracts the input features from the checkerboard state (S) of a plurality of notations It may include a step (S200). A method of extracting input features follows the description of FIG. 7 .

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세 판단 모델(400a) 중 정답 레이블 생성부가 입력 특징을 추출한 바둑판 상태(S)에 기초하여 정답 레이블을 생성하는 단계(S300)를 포함할 수 있다. 일 예로, 도 18을 참조하면, 정답 레이블 생성 단계(S300)는 정답 레이블 생성부가 현재 바둑판 상태(S)에서 끝내기 하는 제1 전처리하는 단계(S301)를 포함할 수 있다. 제1 전처리하는 단계(S301)는 도 9 내지 도 10의 설명을 따른다. 정답 레이블 생성 단계(S300)는 정답 레이블 생성부가 제1 전처리된 바둑판 상태(S)에서 불필요한 돌을 제거하는 제2 전처리하는 단계(S302)를 포함할 수 있다. 제2 전처리하는 단계(S302)는 도 9 내지 도 10의 설명을 따른다. 정답 레이블 생성 단계(S300)는 정답 레이블 생성부가 제2 전처리된 바둑판 상태(S)의 각 교차점을 형세값으로 변경하는 제3 전처리하는 단계(S303)를 포함할 수 있다. 제3 전처리하는 단계(S303)는 도 11의 설명을 따른다. 정답 레이블 생성 단계(S300)는 제3 전처리 상태를 정답 레이블로 하여 형세 판단 신경망에 타겟 데이터로 제공하는 단계(S303)를 포함할 수 있다. 타겟 데이터를 제공하는 단계(S301)는 도 7 및 도 11의 설명을 따른다.The deep learning-based Go game service method according to an embodiment of the present invention includes a step (S300) of generating a correct answer label based on the checkerboard state (S) in which the correct answer label generator extracts the input features of the situation determination model (400a) can do. As an example, referring to FIG. 18 , the correct answer label generating step S300 may include the first pre-processing step S301 in which the correct answer label generating unit ends the current checkerboard state (S). The first pre-processing step ( S301 ) follows the description of FIGS. 9 to 10 . The correct answer label generation step (S300) may include a second pre-processing step (S302) in which the correct answer label generator removes unnecessary stones from the first pre-processed checkerboard state (S). The second pre-processing step ( S302 ) follows the description of FIGS. 9 to 10 . The correct answer label generation step ( S300 ) may include a third pre-processing step ( S303 ) in which the correct answer label generator changes each intersection of the second pre-processed checkerboard state (S) into a shape value. The third preprocessing step ( S303 ) follows the description of FIG. 11 . The correct answer label generation step (S300) may include a step (S303) of providing the third preprocessing state as the correct answer label as target data to the situation determination neural network. The step of providing the target data ( S301 ) follows the description of FIGS. 7 and 11 .

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 트레이닝 데이터 셋을 이용하여 형세 판단 모델(400a)의 형세 판단 신경망을 트레이닝하는 단계(S400)을 포함할 수 있다. 형세 판단 신경망을 트레이닝(학습)하는 방법은 도 7의 설명을 따른다.The deep learning-based Go game service method according to an embodiment of the present invention may include training the situation determination neural network of the situation determination model 400a using a training data set (S400). A method of training (learning) a situation determination neural network follows the description of FIG. 7 .

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세 판단 신경망의 트레이닝이 완료되어 형세 판단 모델(400a)을 구축하는 단계(S500)를 포함한다. 일 예로, 형세 판단 신경망의 트레이닝의 완료는 도 7의 형세 판단 손실이 소정의 값 이하가 된 경우일 수 있다.The deep learning-based Go game service method according to an embodiment of the present invention includes a step (S500) of completing the training of the situation determination neural network to build the situation determination model 400a (S500). As an example, the training of the situation determination neural network may be completed when the situation determination loss of FIG. 7 is less than or equal to a predetermined value.

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 단말기의 형세 판단 요청에 의해 현재 바둑판 상태(S)가 형세 판단 모델(400a)에 입력되는 단계(S600)를 포함할 수 있다. The deep learning-based Go game service method according to an embodiment of the present invention may include a step (S600) of inputting the current Go board state (S) to the situation determination model (400a) in response to a request for determination of the condition of the terminal.

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세 판단 모델(400a)이 입력된 현재 바둑판 상태(S)의 형세 판단을 수행하는 단계(S700)를 포함할 수 있다. 형세 판단을 수행하는 단계(S700)는 도 12에서 설명한 형세 판단 모델(400a)이 현재 바둑판 상태(S)의 형세값을 생성하는 설명을 따를 수 있다.The deep learning-based Go game service method according to an embodiment of the present invention may include a step (S700) of determining the situation of the current Go board state (S) to which the situation determination model 400a is input. The step (S700) of determining the situation may follow the description in which the situation determination model 400a described with reference to FIG. 12 generates the setting value of the current checkerboard state (S).

본 발명의 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 형세판단 모델 서버(400)가 형세 판단 결과를 출력하는 단계(S800)를 포함할 수 있다. 형세 판단 결과를 출력하는 단계(S800)는 도 12에서 설명한 형세판단 모델 서버(400)가 형세값, 바둑판의 상태, 소정의 임계값을 이용하여 형세 판단 결과를 제공하는 설명을 따를 수 있다. The deep learning-based Go game service method according to an embodiment of the present invention may include the step (S800) of the situation judgment model server 400 outputting the situation determination result. The step of outputting the situation determination result ( S800 ) may follow the description in which the situation determination model server 400 provides the situation determination result using the situation value, the state of the checkerboard, and a predetermined threshold value described in FIG. 12 .

따라서, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 딥러닝 신경망을 이용하여 바둑 형세를 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 정확히 구분하여 바둑의 형세를 정확히 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 예측하여 바둑의 형세를 정확히 판단할 수 있다. 또한, 실시예에 따른 딥러닝 기반의 바둑 게임 서비스 방법은 바둑 대국 중 신속하게 형세를 판단할 수 있다.Therefore, the deep learning-based Go game service method according to the embodiment may determine the Go situation using a deep learning neural network. In addition, the deep learning-based Go game service method according to the embodiment can accurately determine the situation of Go by accurately classifying a house, a private stone, a stone, a ball, and a big according to the Go rules. In addition, the deep learning-based Go game service method according to the embodiment can accurately determine the situation of Go by predicting a house, a stone, a stone, a ball, and a big according to the Go rules. In addition, the deep learning-based Go game service method according to the embodiment can quickly determine the situation in the Go game.

- 기풍 판단부 - Wind judgment unit

본 발명의 실시예에 따른 기풍 판단부(400b)는, 형세판단 모델 서버(400)가 포함하는 일 구성요소로서, 형세 판단 모델(400a)과 연동하여 형세 판단 모델(400a)을 통해 획득되는 바둑판 상태(S)의 형세값을 기반으로 특정 착수점에 기반한 기풍 판단을 수행할 수 있다. 또한, 기풍 판단부(400b)는 착수 모델로 하여금 판단된 기풍에 기반한 기풍 학습을 수행하게 하여 바둑 게임 플레이 시 특정 기질이나 방식을 나타내는 기풍을 활용하게 할 수 있다. 여기서 기풍 판단은 착수 모델에 의해 예측된 최선의 수인 착수 후보수가 어떠한 기풍을 구현하는지 즉, 어떠한 기풍 카테고리에 포함되는지를 판단하는 것이다. 실시예에서 기풍은, 소정의 기준을 기반으로 1) 기풍 종류 카테고리 또는 2) 1~n 기풍 단계(n=1, 2, 3, …) 카테고리를 따라서 기분류될 수 있다. 예를 들어, 기풍은 기풍 종류 카테고리에 따라 공격적 기풍, 안정적 기풍 및/또는 방어적 기풍 등으로 기분류될 수 있다. 다른 예에서, 기풍은 1~n 기풍 단계 카테고리에 따라 제 1 기풍 단계, 제 2 기풍 단계, …, 제 n 기풍 단계로 기분류되어 있을 수 있다. 자세히, 형세 판단 모델(400a)은 착수 모델 서버(300)로부터 획득되는 착수 후보수 정보에 대한 형세 판단을 수행할 수 있고, 이후 기풍 판단부(400b)는 형세 판단을 통해 도출된 데이터를 기반으로 해당 착수 후보수 정보가 위와 같이 기분류되어 있는 복수의 기풍 카테고리 중에서 어떠한 기풍 카테고리에 포함되는지를 판단하는 기풍 판단을 수행할 수 있다. The ethos determining unit 400b according to the embodiment of the present invention is a component included in the situation judgment model server 400, and is a checkerboard obtained through the configuration judgment model 400a in conjunction with the situation judgment model 400a. It is possible to perform ethos determination based on a specific starting point based on the shape value of the state (S). In addition, the ethos determining unit 400b may allow the start model to perform ethos learning based on the determined ethos to utilize the ethos representing a specific temperament or method when playing the Go game. Here, the ethos determination is to determine which ethos implements, that is, which ethos category, the number of candidates to start, which is the best number predicted by the set-off model. In an embodiment, the airflow may be classified according to 1) the airflow type category or 2) 1 to n airflow step (n=1, 2, 3, ...) categories based on a predetermined criterion. For example, the ethos may be classified into an aggressive ethos, a stable ethos, and/or a defensive ethos, etc. according to the ethos type category. In another example, the breeze is a first wind step, a second wind step, . . . . In detail, the situation determination model 400a may perform a situation determination on the number of candidates for starting information obtained from the starting model server 300, and then the ethos determining unit 400b is based on the data derived through the situation determination. It is possible to perform ethos determination to determine which ethos category is included among the plurality of ethic categories in which the information on the number of candidates for start-up is classified as above.

자세히, 기풍 판단부(400b)은 기풍 판단을 수행하기 위하여 먼저 어떤 기풍으로 학습을 수행할지에 대하여 기설정된 정보인 목표기풍 정보를 설정할 수 있다. 여기서, 목표기풍 정보는 다양한 카테고리로 분류되어 있는 복수의 기풍 중에서 어떠한 기풍을 목표로 학습할지 기설정된 정보로서, 1) 기풍 종류 카테고리(예컨대, 공격적 기풍, 안정적 기풍, 방어적 기풍 등) 중 어느 하나를 선택하여 목표 기풍을 설정한 정보, 또는 2) 1~n 기풍 단계 카테고리 중 어느 하나를 선택하여 목표 기풍을 설정한 정보일 수 있다. In detail, the air wind determination unit 400b may set target air wind information, which is preset information on which air style to learn first in order to perform the air wind determination. Here, the target ethos information is predetermined information on which ethos among a plurality of ethos classified into various categories to be learned as a target, 1) any one of the ethos type categories (eg, aggressive ethos, stable ethos, defensive ethos, etc.) It may be information in which a target airflow is set by selecting , or 2) information in which a target airflow is set by selecting any one of the categories 1 to n winds.

또한, 기풍 판단부(400b)은 형세 판단 모델(400a)의 형세 판단을 통해 도출된 보유 집 수에 따른 플레이어 점수값과 오포넌트 점수값 간의 점수 차이값을 기반으로 착수 모델 서버(300)로부터 획득된 착수 후보수에 대한 기풍 판단을 수행하기 위한 소정의 기풍판단 임계치를 설정할 수 있다. 즉, 기풍 판단부(400b)은 기설정된 기풍판단 임계치와 착수 후보수 정보에 대한 형세 판단을 통하여 도출된 점수 차이값을 비교하여 기풍 판단을 수행할 수 있다. In addition, the ethos determination unit 400b acquires from the start model server 300 based on the difference value between the player score value and the oponent score value according to the number of holdings derived through the situation determination of the situation determination model 400a It is possible to set a predetermined gi wind judgment threshold for performing gi wind judgment on the number of candidates to set off. That is, the ethos determining unit 400b may perform ethic determination by comparing a preset ethic determination threshold and a score difference value derived through the determination of the situation with respect to the information on the number of candidates to set out.

보다 상세히, 먼저 형세 판단 모델(400a)은 착수 모델 서버(300)로부터 적어도 하나 이상의 착수 후보수 정보를 입력 데이터로 획득할 수 있다. 그리고 형세 판단 모델(400a)은, 획득된 착수 후보수 정보 각각에 대하여 형세 판단을 수행해 보유 집 정보를 생성할 수 있다. 이후, 기풍 판단부(400b)는 형세 판단 모델(400a)로부터 생성된 보유 집 정보를 기반으로 플레이어 점수값과 오포넌트 점수값을 산출할 수 있다. 또한, 기풍 판단부(400b)은 산출된 플레이어 및 오포넌트 점수값에 기초하여 플레이어 점수값과 오포넌트 점수값의 차이값을 나타내는 점수 차이값을 산출할 수 있다. 그리고 기풍 판단부(400b)은, 산출된 점수 차이값을 기설정된 기풍판단 임계치와 비교하여, 적어도 하나 이상의 착수 후보수 정보 각각에 대한 기풍판단 정보를 생성할 수 있다. 여기서, 기풍판단 정보는 바둑 게임 플레이 시 각 착수 후보수의 착수에 의하여 구현되는 기풍의 카테고리를 판단한 정보일 수 있다. 이에 대한 자세한 설명은 이하에서 후술하기로 한다. In more detail, first, the situation determination model 400a may acquire at least one or more pieces of information on the number of candidates for starting as input data from the starting model server 300 . In addition, the situation determination model 400a may generate holding house information by performing a situation determination on each of the obtained information on the number of candidates to start. Thereafter, the ethos determining unit 400b may calculate a player score value and an element score value based on the house information generated from the situation judgment model 400a. Also, the ethos determining unit 400b may calculate a score difference value indicating a difference between the player score value and the oponent score value based on the calculated player and component score values. In addition, the spirit determination unit 400b may compare the calculated score difference value with a preset determination threshold to generate the wind determination information for each of at least one or more pieces of information on the number of candidates to set out. Here, the ethos determination information may be information for determining the category of ethos implemented by the start of each number of start candidates during the Go game play. A detailed description thereof will be provided below.

또한, 기풍 판단부(400b)은 생성된 기풍판단 정보를 기초로 기풍 학습 데이터를 생성할 수 있다. 자세히, 기풍 판단부(400b)은 수신된 착수 후보수 정보 각각에 대하여 도출된 기풍판단 정보 중에서 기설정된 목표기풍 정보와 대응하는 기풍판단 정보를 판단할 수 있다. 그리고 기풍 판단부(400b)은 목표기풍 정보와 대응한다고 판단된 해당 기풍판단 정보를 도출한 착수 후보수 정보를 기반으로 학습을 구현시키는 기풍 학습 데이터를 생성할 수 있다. 또한, 기풍 판단부(400b)은 생성된 기풍 학습 데이터를 착수 모델 서버(300)로 제공할 수 있다. In addition, the air wind determination unit 400b may generate the air wind learning data based on the generated air wind determination information. In detail, the wind determination unit 400b may determine the wind determination information corresponding to the preset target air wind information from among the spirit determination information derived for each of the received start-up candidates information. In addition, the ethos determination unit 400b may generate ethos learning data for implementing learning based on the information on the number of candidates for starting the ethos determined to correspond to the target ethos information. In addition, the ethos determining unit 400b may provide the generated ethos learning data to the start model server 300 .

더하여, 기풍 판단부(400b)은 기풍 학습 데이터를 기반으로 학습을 수행한 착수 모델 서버(300)로부터 기풍 학습 성능정보를 입력 데이터로 획득할 수 있으며, 획득된 기풍 학습 성능정보를 기초로 기풍판단 임계치를 조정할 수 있다. 보다 자세한 설명은 이하에서 후술하기로 한다. In addition, the ethos determining unit 400b may acquire ethos learning performance information as input data from the start model server 300 that has performed learning based on the ethos learning data, and determines the ethos based on the obtained ethos learning performance information. You can adjust the threshold. A more detailed description will be given below.

한편, 도 19는 본 발명의 형세판단 모델 서버(400)의 기풍 판단부(400b) 구조를 설명하기 위한 도면이다. 도 19를 참조하면 위와 같은 기풍 판단을 위한 일련의 동작을 수행하기 위하여 형세판단 모델 서버(400)는, 위에서 기술한 형세 판단 모델(400a)과 기풍 판단부(400b)를 포함할 수 있고, 형세 판단 모델(400a)과 기풍 판단부(400b)를 상호 연동하여 동작하게 할 수 있다. 실시예에서, 기풍 판단부(400b)는 기풍판단 임계치를 설정하고, 플레이어 점수값과 오포넌트 점수값을 도출하여 점수 차이값을 산출하며, 산출된 점수 차이값을 기반으로 기풍판단 정보를 생성할 수 있다. 또한, 실시예에서 기풍 판단부(400b)는 생성된 기풍판단 정보를 기초로 기풍 학습 데이터를 생성할 수 있으며, 착수 모델 서버(300)로부터 획득되는 기풍 학습 성능정보를 기반으로 기풍판단 임계치를 조정할 수 있다. On the other hand, FIG. 19 is a view for explaining the structure of the ethos determination unit 400b of the situation determination model server 400 of the present invention. Referring to FIG. 19 , in order to perform a series of operations for determining the ethos as described above, the situation determination model server 400 may include the above-described situation determination model 400a and the ethos determination unit 400b, and the situation The determination model 400a and the air wind determination unit 400b may be operated by interworking with each other. In an embodiment, the ethos determination unit 400b sets the ethos judgment threshold, derives the player score value and the component score value to calculate a score difference value, and generates ethos judgment information based on the calculated score difference value. can In addition, in the embodiment, the wind determination unit 400b may generate the air wind learning data based on the generated air wind determination information, and adjust the air wind determination threshold based on the air wind learning performance information obtained from the set off model server 300 . can

즉, 형세판단 모델 서버(400)의 기풍 판단부(400b)는 본 발명의 실시예에 따라서 형세 판단 모델(400a)과 연동하여 바둑판 상태(S)의 형세 판단을 기반으로 기풍을 판단하고, 이를 기반으로 학습을 수행하여 바둑 게임 플레이 시에 적용하는 프로세스를 구현하기 위한 일 구성요소일 수 있다. 이에 대한 자세한 설명은 이하의 딥러닝을 기반으로 기풍을 판단하여 적용하는 방법의 상세한 설명에서 후술하기로 한다. 또한, 본 실시예에서는 기풍 판단부(400b)가 형세판단 모델 서버(400)에 포함된다고 설명하나 다른 실시예에서는 기풍 판단부(400b)가 바둑서버(200) 및/또는 착수 모델 서버(300)에 포함되거나 별도의 장치로 구현되는 등 다양한 실시예가 가능할 것이다. That is, the ethos determination unit 400b of the situation judgment model server 400 determines the ethos based on the judgment of the situation of the checkerboard state (S) in conjunction with the situation judgment model 400a according to an embodiment of the present invention, and It may be a component for implementing a process that is applied when playing a Go game by performing learning based on it. A detailed description of this will be described later in the detailed description of a method for determining and applying a ethos based on deep learning. In addition, in this embodiment, it is described that the ethos determining unit 400b is included in the situation judgment model server 400, but in another embodiment, the ethos determining unit 400b is the Go server 200 and / or the settling model server 300. Various embodiments such as included in the , or implemented as a separate device will be possible.

- 딥러닝을 기반으로 기풍을 판단하여 활용하는 방법 - How to determine and utilize the ethos based on deep learning

이하, 도면을 참조하여 딥러닝 신경망을 기반으로 바둑 형세를 판단해 기풍을 판단하고, 이를 기반으로 바둑 게임 플레이 시의 특정 기질이나 방식을 나타내는 기풍을 활용하는 바둑 게임 서비스 제공방법에 대해 상세히 설명하고자 한다. Hereinafter, with reference to the drawings, a method of providing a Go game service that determines a Go situation based on a deep learning neural network to determine an ethos, and based on this, a ethos indicating a specific temperament or method when playing a Go game, will be described in detail. do.

도 20은 본 발명의 실시예에 따른 딥러닝 신경망을 기반으로 바둑 형세를 판단하여 바둑 게임 플레이 시의 특정 기질이나 방식을 나타내는 기풍을 활용하는 방법을 설명하기 위한 흐름도이고, 도 21은 본 발명의 실시예에 따른 바둑 형세를 판단하여 바둑 게임 플레이 시의 기풍을 활용하는 방법을 설명하기 위한 개념도이다. 20 is a flowchart for explaining a method of determining a Go situation based on a deep learning neural network according to an embodiment of the present invention and using the ethos indicating a specific temperament or method during a Go game play, FIG. 21 is a diagram of the present invention It is a conceptual diagram for explaining a method of determining a Go situation according to an embodiment and utilizing the ethos when playing a Go game.

도 20 및 21을 참조하면, 형세판단 모델 서버(400)는 먼저 목표기풍 정보를 설정하는 단계(S101)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 프로세서(402)를 통하여 어떤 기풍으로 학습을 수행할지에 대하여 기설정된 정보인 목표기풍 정보를 설정할 수 있다. 이때, 목표기풍 정보는 기풍 종류 카테고리 또는 1~n 기풍 단계 카테고리를 기준으로 기분류되어 있는 복수의 기풍 카테고리 중 어느 하나를 선택한 정보일 수 있다. 예를 들어, 목표기풍 정보는 공격적 기풍, 안정적 기풍 및/또는 방어적 기풍 중 어느 하나일 수도 있고, 제 1 기풍 단계, 제 2 기풍 단계, …, 제 n 기풍 단계 중 어느 하나일 수도 있다. 이때, 기풍 종류 카테고리는, 실시예에 따라서 보다 세분화된 카테고리를 더 포함하거나 단순화되어 카테고리를 덜 포함하는 등 다양한 방식으로 구현될 수도 있으며, 1~n 기풍 단계 카테고리는, 실시예에 따라서 제 1 기풍 단계에 가까울수록 방어적 기풍으로 판단되고 제 n 기풍 단계에 가까울수록 공격적 기풍으로 판단되도록 기설정되거나, 그 역으로 기설정되는 등 다양한 방식으로 구현될 수 있다. 20 and 21 , the situation judgment model server 400 may include a step (S101) of first setting target ethos information. In detail, the situation judgment model server 400 may set target ethos information, which is preset information, with respect to which ethos to perform learning through the processor 402 . In this case, the target air wind information may be information that selects any one of a plurality of air wind categories that are mood-streamed based on the air wind type category or the 1 to n air wind stage categories. For example, the target ethos information may be any one of an aggressive ethos, a stable ethos, and/or a defensive ethos, a first ethos step, a second ethos, ... , it may be any one of the nth wind phase. At this time, depending on the embodiment, the wind type category may be implemented in various ways, such as including more subdivided categories or simplified to include fewer categories. The closer to the stage, the more defensive ethos is determined, and the closer to the nth ethos stage, the more it is preset to be judged as an aggressive ethos, or vice versa.

또한, 형세판단 모델 서버(400)는 기풍판단 임계치를 설정하는 단계(S103)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여 기풍 판단을 수행하기 위한 소정의 기풍판단 임계치를 설정할 수 있다. 예를 들어, 형세판단 모델 서버(400)는 기풍판단 임계치를 소정의 수치로 기설정할 수 있다. In addition, the situation judgment model server 400 may include a step (S103) of setting the wind judgment threshold. In detail, the situation determination model server 400 may set a predetermined air wind determination threshold for performing determination of the air style through the air wind determination unit 400b. For example, the situation judgment model server 400 may preset the ethos judgment threshold to a predetermined value.

계속해서, 형세판단 모델 서버(400)는 착수 후보수 정보를 획득하는 단계(S105)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 착수 모델 서버(300)로부터 적어도 둘 이상 도출된 착수 후보수 정보를 수신할 수 있다. 그리고 형세판단 모델 서버(400)는, 수신된 착수 후보수 정보를 형세 판단 모델(400a) 및/또는 기풍 판단부(400b)의 입력 데이터로 이용할 수 있다. Continuing, the situation judgment model server 400 may include a step (S105) of obtaining the number of candidates to start information. In detail, the situation judgment model server 400 may receive the information on the number of candidates for starting at least two or more derived from the starting model server 300 . In addition, the situation determination model server 400 may use the received starting candidate number information as input data of the situation determination model 400a and/or the ethos determination unit 400b.

또한, 형세판단 모델 서버(400)는 획득된 착수 후보수 정보 각각에 대한 형세 판단을 수행하여 점수값을 도출하는 단계(S107)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 형세 판단 모델(400a)을 통하여, 착수 모델 서버(300)로부터 획득된 착수 후보수가 적용된 바둑판의 모든 교차점에 대해 흑, 백의 각 영역에 대한 형세 판단을 수행하여 형세값을 도출할 수 있다. 이때, 형세 판단의 기준은 집, 사석, 돌 공배, 빅 등이 될 수 있다. 그리고 형세판단 모델 서버(400)는 도출된 형세값에 기반하여 보유 집 정보를 생성할 수 있다. 자세히, 형세판단 모델 서버(400)는 형세 판단 모델(400a)을 통하여, 플레이어 및 오포넌트가 각각 보유할 것으로 예상되는 집 수를 산출하여 플레이어 집 수와 오포넌트 집 수를 판단한 정보인 보유 집 정보를 생성할 수 있다. In addition, the situation judgment model server 400 may include a step (S107) of deriving a score value by performing a situation judgment on each of the obtained information on the number of candidates to set out. In detail, the situation judgment model server 400, through the situation judgment model (400a), for all intersections of the checkerboard to which the number of starting candidates obtained from the starting model server 300 is applied. It is possible to derive the format value. In this case, the standard for judging the situation may be a house, private stone, stone court, or big. And the situation judgment model server 400 may generate holding house information based on the derived configuration value. In detail, the situation judgment model server 400 calculates the number of houses expected to be owned by the player and the oponent, respectively, through the situation judgment model 400a , and determines the number of players and the oponent house, which is information about holding house information. can create

그리고 보유 집 정보를 생성한 형세판단 모델 서버(400)는, 생성된 보유 집 정보를 기반으로 플레이어 점수값 및 오포넌트 점수값을 도출할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 보유 집 정보의 플레이어 집 수를 기반으로 플레이어 점수값을 도출하고, 오포넌트 집 수를 기반으로 오포넌트 점수값을 도출할 수 있다. 이때, 형세판단 모델 서버(400)는 점수값을 산출하기 위한 프로세스를 기설정할 수 있다. 예컨대, 형세판단 모델 서버(400)는 1집 당 +1로 점수값 산출 프로세스를 결정할 수 있다. 또한, 형세판단 모델 서버(400)는 착수 후보수 정보에 기반하여 점수값을 산출하므로 플레이어 점수값이 오포넌트 점수값보다 항상 높을 수 있다. 이때, 플레이어 점수값이 오포넌트 점수값보다 낮을 경우 형세판단 모델 서버(400)는, 해당 착수 후보수를 제외한 후 기풍 판단을 수행할 수도 있다. In addition, the situation judgment model server 400 that has generated the possession house information may derive the player score value and the component score value based on the generated house information. In detail, the situation judgment model server 400 derives a player score value based on the number of player sets in the holding house information, and derives an oponent score value based on the number of oponent collections through the ethos determination unit 400b. can At this time, the situation judgment model server 400 may preset a process for calculating a score value. For example, the situation judgment model server 400 may determine the score calculation process as +1 per house. In addition, since the situation judgment model server 400 calculates a score value based on the information on the number of candidates to set out, the player score value may always be higher than the component score value. At this time, when the player score value is lower than the Opponent score value, the situation judgment model server 400 may perform the ethos determination after excluding the number of candidates for starting.

도 22는 본 발명의 실시예에 따른 착수 후보수 정보 각각에 대한 기풍판단 정보를 생성하는 방법을 설명하기 위한 도면이다. 이때, 도 22는 효과적인 설명을 위하여 플레이어가 흑 바둑돌을 이용하고, 오포넌트가 백 바둑돌을 이용하는 것으로 한정되어 표시될 수 있다. 그러나 실시예에 따라서 플레이어가 백 바둑돌을 이용하고 오포넌트가 흑 바둑돌을 이용할 수도 있음은 자명할 것이다. 예를 들어, 도 22를 참조하면 형세판단 모델 서버(400)는 착수 모델 서버(300)로부터 획득된 제 1 착수 후보수 정보, 제 2 착수 후보수 정보 및 제 3 착수 후보수 정보를 기반으로 각각의 점수값을 산출할 수 있다. 자세히, 형세판단 모델 서버(400)는 먼저 점수값을 산출하기 위한 프로세스를 기설정하여 1집 당 +1로 점수값 산출 프로세스를 결정할 수 있다. 그리고 형세판단 모델 서버(400)는, 점수값 산출 프로세스를 적용하여 각각의 착수 후보수 정보에 매칭된 보유 집 정보를 기반으로 플레이어 점수값 및 오포넌트 점수값을 도출할 수 있다. 자세히, 형세판단 모델 서버(400)는 제 1 착수 후보수 정보에 매칭된 보유 집 정보에 기초하여, 제 1 착수 후보수가 바둑판에 적용된 경우 플레이어 집 수가 79집이면 플레이어 점수값을 +79로 도출할 수 있고, 오포넌트 집 수가 77집이면 오포넌트 점수값을 +77로 도출할 수 있다. 마찬가지로, 형세판단 모델 서버(400)는 제 2 착수 후보수가 바둑판에 적용된 경우 플레이어 집 수가 80집이면 플레이어 점수값을 +80로 도출할 수 있고, 오포넌트 집 수가 77집이면 오포넌트 점수값을 +77로 도출할 수 있다. 또한, 형세판단 모델 서버(400)는 제 3 착수 후보수가 바둑판에 적용된 경우 플레이어 집 수가 91집이면 플레이어 점수값을 +91로 도출할 수 있고, 오포넌트 집 수가 68집이면 오포넌트 점수값을 +68로 도출할 수 있다. 22 is a view for explaining a method of generating wind judgment information for each of the number of candidates to start information according to an embodiment of the present invention. In this case, for effective explanation, FIG. 22 may be displayed by limiting that the player uses black Go stones and the Oponent uses white Go stones. However, it will be apparent that the player may use the white Go stones and the Oponent may use the black Go stones, depending on the embodiment. For example, referring to FIG. 22 , the situation judgment model server 400 is based on the first number of candidates for starting information, the second number of candidates for starting information and the third number of candidates for starting information obtained from the starting model server 300, respectively. score can be calculated. In detail, the situation judgment model server 400 may first preset a process for calculating a score value and determine the score value calculation process as +1 per house. In addition, the situation judgment model server 400 may derive the player score value and the component score value based on the holding house information matched with the information on the number of candidates to start by applying the score calculation process. In detail, the situation judgment model server 400 is based on the holding house information matched to the first start candidate number information, when the first start candidate number is applied to the checkerboard, if the number of player houses is 79, the player score value is +79. and if the number of oponent houses is 77, the oponent score value can be derived as +77. Similarly, the situation judgment model server 400 may derive the player score value as +80 if the number of player houses is 80 when the second number of candidates for starting is applied to the checkerboard, and if the number of oponent houses is 77, the value of the oponent points is + 77 can be derived. In addition, the situation judgment model server 400 can derive the player score value as +91 if the number of player houses is 91 when the number of third start candidates is applied to the checkerboard, and if the number of oponent houses is 68, the value of the oponent points is + 68 can be derived.

다음으로, 형세판단 모델 서버(400)는 착수 후보수 정보 각각에 대하여 도출된 플레이어 점수값 및 오포넌트 점수값을 기반으로 점수 차이값을 산출하는 단계(S109)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 착수 모델 서버(300)로부터 획득된 각 착수 후보수 정보에 대한 점수 차이값을 산출할 수 있다. 실시예로, 형세판단 모델 서버(400)는 각 착수 후보수 정보에 대하여 플레이어 점수값과 오포넌트 점수값의 차이값을 산출하고, 그 결과값을 해당 착수 후보수에 대한 점수 차이값으로 결정할 수 있다. 이때, 형세판단 모델 서버(400)는 점수 차이값이 음수로 산출될 경우 해당 착수 후보수를 제외한 후 기풍 판단을 수행할 수 있다. Next, the situation judgment model server 400 may include a step ( S109 ) of calculating a score difference value based on the player score value and the component score value derived for each of the number of start candidates information. In detail, the situation determination model server 400 may calculate a score difference value for the information on the number of candidates for each set out obtained from the set off model server 300 through the ethos determining unit 400b. In an embodiment, the situation judgment model server 400 calculates a difference value between the player score value and the component score value for each starting candidate number information, and determines the result value as the score difference value for the corresponding starting candidate number. have. In this case, the situation judgment model server 400 may perform a ethos determination after excluding the number of candidates for starting when the score difference value is calculated as a negative number.

예를 들어, 도 22를 참조하면 형세판단 모델 서버(400)는 제 1 착수 후보수 정보에 매칭된 플레이어 점수값이 +79이고, 오포넌트 점수값이 +77인 경우, 제 1 착수 후보수에 대한 점수 차이값을 +2로 산출할 수 있다. 또한, 형세판단 모델 서버(400)는 제 2 착수 후보수 정보에 매칭된 플레이어 점수값이 +80이고, 오포넌트 점수값이 +77인 경우, 제 2 착수 후보수에 대한 점수 차이값을 +3으로 산출할 수 있다. 동일하게, 형세판단 모델 서버(400)는 제 3 착수 후보수 정보에 매칭된 플레이어 점수값이 +91이고, 오포넌트 점수값이 +68인 경우, 제 3 착수 후보수에 대한 점수 차이값을 +23으로 산출할 수 있다. For example, referring to FIG. 22 , the situation judgment model server 400 corresponds to the first number of candidates for starting when the player score value matched to the information on the number of first start candidates is +79, and the oponent score value is +77. The score difference value can be calculated as +2. In addition, the situation judgment model server 400, when the player score value matched to the second number of candidates for starting information is +80, and the component score value is +77, the score difference value for the second number of candidates for starting is +3 can be calculated as Similarly, when the situation judgment model server 400 matches the third number of start candidates information and the player score value is +91, and the component score value is +68, the score difference value for the third start candidate number is + 23 can be calculated.

또한, 착수 후보수 각각에 대하여 점수 차이값을 산출한 형세판단 모델 서버(400)는 산출된 점수 차이값을 기반으로 착수 후보수 정보 각각에 대한 기풍판단 정보를 생성하는 단계(S111)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 바둑 게임 플레이 시 각 착수 후보수의 착수에 의하여 구현되는 기풍의 카테고리를 판단한 정보인 기풍판단 정보를 생성할 수 있다. 보다 상세히, 형세판단 모델 서버(400)는 각 착수 후보수에 대하여, 산출된 점수 차이값과 소정의 기풍판단 임계치를 기반으로 기풍판단 정보를 생성할 수 있다. 예를 들어, 형세판단 모델 서버(400)는, 점수 차이값과 기풍판단 임계치를 비교하여 점수 차이값이 기풍판단 임계치를 초과하는 경우(점수 차이가 큰 경우) 공격적 기풍 카테고리에 포함된다고 판단할 수 있다. 또한, 형세판단 모델 서버(400)는 점수 차이값과 기풍판단 임계치를 비교하여 점수 차이값이 기풍판단 임계치와 대응하는 경우(점수 차이가 작은 경우) 안정적 기풍 카테고리에 포함된다고 판단할 수 있다. 마찬가지로, 형세판단 모델 서버(400)는 점수 차이값과 기풍판단 임계치를 비교하여 점수 차이값이 기풍판단 임계치 미만인 경우(점수 차이가 거의 없을 경우) 방어적 기풍 카테고리에 포함된다고 판단할 수 있다. In addition, the situation judgment model server 400 that calculates the difference in score for each of the number of candidates for starting out includes a step (S111) of generating ethos judgment information for each of the number of candidates for starting on the basis of the calculated difference in score. can In detail, the situation judgment model server 400, through the ethos determination unit 400b, may generate ethos judgment information, which is information for determining the category of ethos implemented by the start of each starting candidate number during the Go game play. In more detail, the situation judgment model server 400 may generate geography judgment information based on the calculated score difference value and a predetermined geography judgment threshold for each number of candidates to set out. For example, the situation judgment model server 400 compares the score difference value with the ethos judgment threshold, and when the score difference exceeds the ethos judgment threshold (when the score difference is large), it can be determined to be included in the aggressive ethos category. have. In addition, the situation judgment model server 400 compares the score difference value with the ethos judgment threshold, and when the score difference value corresponds to the ethos judgment threshold (when the score difference is small), it can be determined to be included in the stable ethos category. Similarly, the situation judgment model server 400 compares the score difference value with the ethos judgment threshold, and when the score difference value is less than the ethos judgment threshold (when there is little difference in scores), it can be determined to be included in the defensive ethos category.

예컨대, 도 22를 참조하면 형세판단 모델 서버(400)는 기풍판단 임계치를 '3'으로 기설정한 경우, 제 1 착수 후보수 정보에 매칭된 점수 차이값이 +2이면 제 1 착수 후보수를 방어적 기풍 카테고리로 판단할 수 있다. 또한, 제 2 착수 후보수 정보에 매칭된 점수 차이값이 +3이면 제 2 착수 후보수를 안정적 기풍 카테고리로 판단할 수 있다. 동일하게, 제 3 착수 후보수 정보에 매칭된 점수 차이값이 +23이면 제 3 착수 후보수를 공격적 기풍 카테고리로 판단할 수 있다. 즉, 형세판단 모델 서버(400)는 착수 모델 서버(300)로부터 획득된 착수 후보수 정보 각각에 대하여 점수 차이값에 기반한 기풍판단 정보를 생성할 수 있다. For example, referring to FIG. 22 , when the situation judgment model server 400 presets the ethos judgment threshold to '3', if the score difference value matched with the first number of candidates for starting information is +2, the first number of candidates for starting It can be judged as a defensive ethos category. In addition, if the score difference value matched to the second number of candidates for starting information is +3, it is possible to determine the number of candidates for starting out as a stable ethos category. Similarly, if the score difference value matched to the third number of candidates for starting information is +23, it is possible to determine the third number of candidates for starting out as an aggressive ethos category. That is, the situation judgment model server 400 may generate ethos judgment information based on the score difference value for each of the starting candidates information obtained from the starting model server 300 .

다음으로, 각 착수 후보수 정보에 대하여 기풍판단 정보를 생성한 형세판단 모델 서버(400)는 생성된 기풍판단 정보와 목표기풍 정보를 기반으로 기풍 학습 데이터를 생성하는 단계(S113)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 각 착수 후보수 정보에 대하여 도출된 기풍판단 정보 중 목표기풍 정보와 대응하는 기풍판단 정보를 판단할 수 있다. 그리고 형세판단 모델 서버(400)는, 기풍판단 정보가 목표기풍 정보와 대응한다고 판단된 착수 후보수 정보 선택하여 해당 착수 후보수 정보를 학습 데이터로 결정하는 기풍 학습 데이터를 생성할 수 있다. 이때, 기풍 학습 데이터는 선택된 착수 후보수를 기반으로 생성되는 정보들(예컨대, 착수 후보수 정보, 형세값, 플레이어 점수값, 오포넌트 점수값, 점수 차이값, 기풍판단 정보 등)을 포함하는 데이터일 수 있다. Next, the situation judgment model server 400 that generates the ethos judgment information for each starting candidate number information may include a step (S113) of generating ethos learning data based on the generated ethos judgment information and the target ethos information. have. In detail, the situation judgment model server 400 may determine, through the ethos determination unit 400b, the ethos determination information corresponding to the target ethos information among the ethos determination information derived for the information on the number of candidates for each departure. And the situation determination model server 400 may generate ethos learning data for determining the number of candidates for starting information as the learning data by selecting information on the number of start candidates determined that the ethos determination information corresponds to the target ethos information. At this time, the ethos learning data is data including information generated based on the selected number of candidates for starting (eg, information on the number of candidates for starting, configuration value, player score value, oponent score value, score difference value, ethos judgment information, etc.) can be

예를 들어, 도 22를 참조하면 형세판단 모델 서버(400)는 기설정된 목표기풍 정보가 '공격적 기풍 카테고리'이고, 제 1 착수 후보수 정보에 매칭된 기풍판단 정보가 '방어적 기풍 카테고리', 제 2 착수 후보수 정보에 매칭된 기풍판단 정보가 '안정적 기풍 카테고리', 제 3 착수 후보수 정보에 매칭된 기풍판단 정보가 '공격적 기풍 카테고리'인 경우, 목표기풍 정보인 공격적 기풍 카테고리에 대응되는 기풍판단 정보를 가지는 제 3 착수 후보수 정보를 학습 데이터로 결정하는 기풍 학습 데이터를 생성할 수 있다. 이때, 형세판단 모델 서버(400)는 생성되는 기풍 학습 데이터에 제 3 착수 후보수를 기반으로 생성된 정보들(예컨대, 제 3 착수 후보수에 대한 착수 후보수 정보, 형세값, 플레이어 점수값, 오포넌트 점수값, 점수 차이값, 기풍판단 정보 등)을 포함하여 기풍 학습 데이터를 생성할 수 있다. For example, referring to FIG. 22 , the situation judgment model server 400 indicates that the preset target ethos information is an 'aggressive ethos category', and the ethos judgment information matched to the first set off candidate number information is a 'defensive ethos category', When the ethos determination information matched to the second number of candidates for starting information is a 'stable ethos category', and the ethos determining information matched to the third number of candidates for starting information is an 'aggressive ethos category', the target ethos corresponding to the aggressive ethos category It is possible to generate ethos learning data for determining the third number of candidates to start information having ethos determination information as the learning data. At this time, the situation judgment model server 400 generates information generated based on the third number of candidates for starting in the generated ethos learning data (eg, information on the number of candidates for starting out for the third number of candidates for starting, the situation value, the player score value, It is possible to generate ethos learning data including an oponent score value, a score difference value, ethos judgment information, etc.).

또한, 형세판단 모델 서버(400)는 생성된 기풍 학습 데이터를 송신하는 단계(S115)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 적어도 둘 이상의 착수 후보수 정보를 기반으로 기풍 판단을 수행하여 도출된 기풍 학습 데이터를 착수 모델 서버(300)로 송신할 수 있다. In addition, the situation judgment model server 400 may include a step (S115) of transmitting the generated ethos learning data. In detail, the situation judgment model server 400 may transmit the ethos learning data derived by performing ethos determination based on the information on the number of at least two or more candidates to set out to the setting model server 300 .

이후, 형세판단 모델 서버(400)는 기풍 학습 데이터를 수신한 착수 모델 서버(300)로부터 기풍 학습 성능정보를 획득하는 단계(S117)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는, 착수 모델 서버(300)로부터 기풍 학습 데이터를 기반으로 셀프 플레이 학습을 수행하여 해당 기풍 학습 데이터가 목표기풍을 학습하기에 적합한 데이터인지 판단한 정보인 기풍 학습 성능정보를 수신할 수 있다. Thereafter, the situation judgment model server 400 may include a step (S117) of obtaining the ethos learning performance information from the starting model server 300 that has received the ethos learning data. In detail, the situation judgment model server 400 performs self-play learning based on the ethos learning data from the start model server 300 to determine whether the ethos learning data is suitable data for learning the target ethos, ethos learning performance. information can be received.

그리고 형세판단 모델 서버(400)는, 획득된 기풍 학습 성능정보를 기반으로 기풍판단 임계치를 조정하는 단계(S119)를 포함할 수 있다. 자세히, 형세판단 모델 서버(400)는 기풍 판단부(400b)를 통하여, 기풍 학습 성능정보에 기초한 기풍판단 임계치의 조정을 수행할 수 있고, 이를 통해 기풍 판단의 정확성을 향상시킬 수 있다. And the situation judgment model server 400 may include a step (S119) of adjusting the ethos judgment threshold based on the acquired ethos learning performance information. In detail, the situation judgment model server 400 may adjust the ethos determination threshold based on the ethos learning performance information through the ethos determination unit 400b, thereby improving the accuracy of the ethos determination.

예를 들어, 먼저 형세판단 모델 서버(400)는 목표기풍 정보를 '안정적 기풍 카테고리'로 기설정하고 기풍판단 임계치를 '3'으로 기설정하며, 특정 착수 후보수에 대한 점수 차이값이 해당 기풍판단 임계치인 3과 대응될 때 안정적 기풍 카테고리라고 판단하도록 기설정되어 있을 수 있다. 이후, 형세판단 모델 서버(400)는 해당 기풍판단 임계치와 착수 후보수의 점수 차이값에 기반하여 기풍판단 정보를 생성할 수 있고, 생성된 기풍판단 정보를 기초로 기풍 학습 데이터를 생성할 수 있으며, 생성된 기풍 학습 데이터를 착수 모델 서버(300)로 송신할 수 있다. For example, first, the situation judgment model server 400 presets the target ethos information as 'stable ethos category' and presets the ethos judgment threshold as '3', and the score difference value for the number of candidates for a specific start is the corresponding ethos. When it corresponds to the judgment threshold of 3, it may be preset to determine that it is a stable ethos category. Thereafter, the situation judgment model server 400 may generate ethos judgment information based on the difference between the score difference between the corresponding ethos judgment threshold and the number of candidates to set out, and based on the generated ethos judgment information, it is possible to generate ethos learning data. , it is possible to transmit the generated ethos learning data to the start model server 300 .

계속해서, 형세판단 모델 서버(400)로부터 기풍 학습 데이터를 수신한 착수 모델 서버(300)의 기풍학습 보조부(340)는, 수신된 기풍 학습 데이터가 포함하는 착수 후보수에 대한 점수 차이값과, 해당 착수 후보수를 적용한 셀프 플레이 학습을 기반으로 도출된 해당 착수 후보수에 대한 점수 차이값을 비교하여 기풍 학습 성능정보를 생성할 수 있다. 예컨대, 착수 모델 서버(300)는 기풍 학습 데이터 상의 착수 후보수에 대한 점수 차이값이 +3이나, 실제 셀프 플레이 학습을 기반으로 도출된 해당 착수 후보수에 대한 최대 점수 차이값이 +2.5라고 판단된 경우, 예측된 점수 차이값에 소정의 오차가 있음을 판단한 오차 정보를 포함하는 기풍 학습 성능정보를 생성할 수 있다. 이때, 오차 정보는 오차의 유무 및/또는 오차의 정도 정보 등을 포함할 수 있다. 그리고 착수 모델 서버(300)는, 오차 정보를 포함하는 기풍 학습 성능정보를 형세판단 모델 서버(400)로 송신할 수 있다. Subsequently, the ethos learning auxiliary unit 340 of the starting model server 300 that has received the ethos learning data from the situation judgment model server 400 is, The ethos learning performance information may be generated by comparing the score difference value for the number of candidates for starting based on self-play learning to which the number of candidates for starting is applied. For example, the start model server 300 determines that the score difference value for the number of start candidates on the ethos learning data is +3, but the maximum score difference value for the number of start candidates derived based on the actual self-play learning is +2.5. In this case, it is possible to generate ethos learning performance information including error information for determining that there is a predetermined error in the predicted score difference value. In this case, the error information may include information on the presence or absence of an error and/or information on the degree of the error. And the start model server 300 may transmit the ethos learning performance information including the error information to the situation judgment model server 400 .

계속해서, 착수 모델 서버(300)로부터 위와 같은 기풍 학습 성능정보를 수신한 형세판단 모델 서버(400)는, 수신된 기풍 학습 성능정보를 기반으로 목표기풍을 판단하기 위해 기설정된 기풍판단 임계치를 조정할 수 있다. 즉, 예시에서 형세판단 모델 서버(400)는 목표기풍으로 설정된 안정적 기풍 카테고리를 판별하기 위하여 '3'으로 기설정되어 있던 기풍판단 임계치를 기풍 학습 성능정보에 기반하여 '3.5'로 증가 조정할 수 있다. 이는, 기풍판단 임계치가 3으로 기설정되고 점수 차이값이 3과 대응되는 경우에 안정적 기풍이라고 판단되는 상황에서, 셀프 플레이 학습의 결과에 기반한 최대 점수 차이값이 2.5라고 판단된 경우, 기설정된 기풍판단 임계치가 더욱 높아져야 셀프 플레이 학습에 기반한 점수 차이값이 증가되어 3에 가까워질 가능성이 높아질 수 있음에 기인하는 동작일 수 있다. 본 예시에서는 위와 같이 설명하였으나 이외에 다양한 실시예들이 가능함은 자명할 것이다. Subsequently, the situation judgment model server 400 that has received the above ethos learning performance information from the start model server 300 adjusts the preset ethos judgment threshold to determine the target ethos based on the received ethos learning performance information. can That is, in the example, the situation judgment model server 400 increases and adjusts the ethos judgment threshold, which was previously set to '3', to '3.5' based on the ethos learning performance information in order to determine the stable geography category set as the target ethos. . This is, in a situation where the ethos judgment threshold is preset to 3 and the score difference value corresponds to 3, in a situation where it is determined to be a stable ethos, when it is determined that the maximum score difference value based on the result of self-play learning is 2.5, the preset ethos This may be due to the increase in the probability that the score difference value based on self-play learning increases and approaches 3 when the judgment threshold becomes higher. Although this example has been described as above, it will be apparent that various other embodiments are possible.

이와 같이, 형세판단 모델 서버(400)는 착수 모델 서버(300)로부터 획득된 복수의 착수 후보수 정보를 기반으로 기풍 판단을 수행하여 기풍 학습 데이터를 생성하고, 이러한 기풍 학습 데이터를 기반으로 자가 학습을 수행한 착수 모델 서버(300)로부터 기풍 학습 성능정보를 획득하여 기풍판단 임계치를 조정하는 기풍 판단을 수행함으로써, 획득된 착수 후보수에 대한 기풍 판단 동작의 정확성을 향상시킬 수 있고, 이를 통해 딥러닝을 기반으로 기풍을 판단하고 활용하는 바둑 게임 서비스의 퀄리티를 증대시킬 수 있다. In this way, the situation determination model server 400 generates ethos learning data by performing ethos determination based on a plurality of embarkation candidates information obtained from the setting off model server 300, and self-learning based on this ethos learning data. By obtaining the gi wind learning performance information from the set-off model server 300 that has performed and performing the gi wind determination to adjust the gi wind judgment threshold, it is possible to improve the accuracy of the gi wind determination operation for the obtained number of start-up candidates, and through this It is possible to increase the quality of the Go game service that judges and utilizes ethos based on running.

한편, 이하에서는 본 발명의 다른 실시예에 따른 딥러닝 기반의 기풍 판단 및 활용 방법에 대해 설명하고자 한다. 후술되는 설명에 있어서 이상에서 기술된 내용과 중복되는 기재는 생략될 수 있다. Meanwhile, in the following, a deep learning-based ethos determination and utilization method according to another embodiment of the present invention will be described. In the description to be described later, descriptions overlapping those described above may be omitted.

도 23는 본 발명의 다른 실시예에 따른 바둑 형세를 판단하여 바둑 게임 플레이 시의 기풍을 활용하는 방법을 설명하기 위한 개념도이다. 도 23을 참조하면, 먼저 다른 실시예에 따른 착수 모델 서버(300)는, 프로세서(302)를 통하여 학습하고자 하는 기풍을 결정하는 목표기풍 정보를 설정할 수 있다. 여기서, 목표기풍 정보는 실시예와 마찬가지로 기풍 종류 카테고리 또는 1~n 기풍 단계 카테고리를 기준으로 기분류되어 있는 복수의 기풍 카테고리 중 어느 하나를 선택한 정보일 수 있다. 23 is a conceptual diagram for explaining a method of determining a Go situation and utilizing the ethos when playing a Go game according to another embodiment of the present invention. Referring to FIG. 23 , first, the start model server 300 according to another embodiment may set target ethos information for determining the ethos to be learned through the processor 302 . Here, the target air wind information may be information that selects any one of a plurality of air wind categories that are mood-streamed based on the air wind type category or the 1 to n air wind stage categories, as in the embodiment.

이때, 다른 실시예에 따른 착수 모델 서버(300)는 복수의 착수 모델을 포함하여 각각의 착수 모델별 목표기풍 정보를 설정할 수 있다. 자세히, 착수 모델 서버(300)는 기풍이 분류된 카테고리의 개수에 비례하여 각 기풍 카테고리와 1:1로 매칭되는 적어도 하나 이상의 착수 모델을 포함할 수 있다. 즉, 착수 모델 서버(300)는 각 기풍 카테고리에 각 착수 모델을 1:1로 매칭시킬 수 있고, 각 착수 모델의 목표기풍 정보를 각 착수 모델에 매칭된 기풍 카테고리로 설정할 수 있다. 그리하여 착수 모델 서버(300)는, 각 착수 모델별로 특정 목표기풍에 대한 학습을 수행하게 할 수 있다. In this case, the set off model server 300 according to another embodiment may set target ethos information for each set off model, including a plurality of set off models. In detail, the set-off model server 300 may include at least one set-up model that matches 1:1 with each gi wind category in proportion to the number of categories into which the gi wind is classified. That is, the set-off model server 300 may match each set-off model 1:1 to each set-up model, and may set the target ethos information of each set-off model as a gi wind category matched to each set off model. Thus, the initiation model server 300 may perform learning for a specific target ethos for each initiation model.

예컨대, 착수 모델 서버(300)는 기풍 카테고리의 개수가 n개일 경우 n개의 착수 모델을 포함할 수 있다. 그리고 착수 모델 서버(300)는, 각각의 기풍 카테고리와 착수 모델을 1:1로 매칭하여, 제 1 기풍 카테고리는 제 1 착수 모델의 목표기풍 정보로 설정되고, 제 2 기풍 카테고리는 제 2 착수 모델의 목표 기풍 정보로 설정되며, 같은 방식으로 제 n 기풍 카테고리는 제 n 착수 모델의 목표기풍 정보로 설정되게 할 수 있다. 다른 예로, 착수 모델 서버(300)는 공격적 기풍 카테고리, 안정적 기풍 카테고리, 방어적 기풍 카테고리가 존재할 경우, 각 기풍에 1:1로 매칭되는 적어도 3개의 착수 모델을 포함할 수 있다. 즉, 착수 모델 서버(300)는 공격적 기풍 카테고리에 매칭되는 제 1 착수 모델, 안정적 기풍 카테고리에 매칭되는 제 2 착수 모델, 방어적 기풍 카테고리에 매칭되는 제 3 착수 모델을 포함할 수 있다. 그리고 착수 모델 서버(300)는, 제 1 착수 모델의 목표기풍 정보를 공격적 기풍 카테고리, 제 2 착수 모델의 목표기풍 정보를 안정적 기풍 카테고리, 제 3 착수 모델의 목표기풍 정보를 방어적 기풍 카테고리로 설정할 수 있다. For example, the set-off model server 300 may include n set-up models when the number of gi wind categories is n. And the start model server 300, by matching each gi wind category and set off model 1:1, the first gi wind category is set as the target gi wind information of the first set off model, the second gi wind category is the second set off model It is set as the target airflow information of , and in the same way, the nth airflow category may be set as the target airflow information of the nth start model. As another example, the initiation model server 300 may include at least three launch models that match 1:1 to each ethos when there is an aggressive ethos category, a stable ethos category, and a defensive ethos category. That is, the onset model server 300 may include a first set off model matching the aggressive ethos category, a second set off model matching the stable ethos category, and a third set off model matching the defensive ethos category. And the onset model server 300 sets the target ethos information of the first onset model as an aggressive ethos category, the target ethos information of the second onset model as a stable ethos category, and set the target ethos information of the third onset model as a defensive ethos category. can

또한, 다른 실시예에 따른 형세판단 모델 서버(400)는, 위와 같은 착수 모델 서버(300)로부터 복수의 착수 모델 각각에 대한 목표기풍 정보를 획득할 수 있다. 더하여, 형세판단 모델 서버(400)는 각 착수 모델로부터 적어도 둘 이상씩 도출되는 착수 후보수 정보를 획득할 수 있다. 그리고 형세판단 모델 서버(400)는, 획득된 각 착수 모델별 착수 후보수 정보를 기반으로 기풍 판단을 수행하여 기풍판단 정보를 생성할 수 있다. 또한, 형세판단 모델 서버(400)는 생성된 기풍판단 정보와 각 착수 모델별 목표기풍 정보에 기반하여 각 착수 모델에 대한 기풍 학습 데이터를 생성할 수 있다. 그리고 형세판단 모델 서버(400)는 생성된 기풍 학습 데이터를 매칭된 각 착수 모델로 일괄 제공할 수 있다. In addition, the situation judgment model server 400 according to another embodiment may acquire target ethos information for each of a plurality of set-off models from the set-up model server 300 as described above. In addition, the situation judgment model server 400 may obtain information on the number of candidates for starting at least two or more derived from each starting model. And the situation judgment model server 400 may generate ethos determination information by performing ethos determination based on the obtained information on the number of candidates for each embarkation model. In addition, the situation determination model server 400 may generate ethos learning data for each set off model based on the generated ethos determination information and target ethos information for each set off model. And the situation judgment model server 400 may collectively provide the generated ethos learning data to each matching set-up model.

예를 들어, 제 1 착수 모델이 공격적 기풍 카테고리를 목표기풍으로 하고, 제 2 착수 모델이 안정적 기풍 카테고리를 목표기풍으로 하며, 제 3 착수 모델이 방어적 기풍 카테고리를 목표기풍으로 하는 경우, 형세판단 모델 서버(400)는 먼저 각 착수 모델로부터 적어도 둘 이상씩 획득되는 착수 후보수 정보를 기반으로 각각의 착수 후보수에 대한 기풍 판단을 수행할 수 있다. 그리고 형세판단 모델 서버(400)는, 기풍 판단을 통하여 제 1 착수 모델에는 공격적 기풍의 학습에 최적화된 착수 후보수에 기반한 기풍 학습 데이터를 송신하고, 제 2 착수 모델에는 안정적 기풍의 학습에 최적화된 착수 후보수에 기반한 기풍 학습 데이터를 송신하며, 제 3 착수 모델에는 방어적 기풍의 학습에 최적화된 착수 후보수에 기반한 기풍 학습 데이터를 송신하여 일괄 제공할 수 있다. 즉, 형세판단 모델 서버(400)는 복수의 기풍에 대하여 일괄적으로 기풍 판단을 수행하고 학습하게 하여, 보다 효율적으로 기풍을 적용한 바둑 게임 서비스를 구현할 수 있다. For example, when the first launch model sets the aggressive ethos category as the target ethos, the second launch model sets the stable ethos category as the target ethos, and the third launch model sets the defensive ethos category as the target ethos, situation judgment The model server 400 may first perform a ethos determination for each number of candidates for starting based on the information on the number of candidates for starting at least two or more obtained from each starting model. And the situation judgment model server 400 transmits the ethos learning data based on the number of candidates to set off optimized for the learning of the aggressive ethos to the first start model through ethos determination, and the second start model is optimized for the learning of the stable ethos. It transmits the ethos learning data based on the number of start candidates, and the third start model can transmit and provide collectively the ethos learning data based on the number of start candidates optimized for learning of the defensive ethos. That is, the situation judgment model server 400 can implement a Go game service to which the ethos is applied more efficiently by collectively performing and learning the ethos for a plurality of ethos.

또한, 다른 실시예에서 위와 같은 착수 모델 서버(300)와 형세판단 모델 서버(400)를 포함 및/또는 연동하는 바둑 게임 서비스 장치는, 착수 모델 서버(300)의 프로세서(302) 및/또는 형세판단 모델 서버(400)의 프로세서(402)를 통하여, 바둑 대국의 진행 상황(예컨대, 경과 시간의 정도 등) 또는 플레이어 선택에 따라서 각기 다른 기풍을 적용하여 바둑 게임 플레이를 수행할 수 있다. 자세히, 바둑 게임 서비스 장치는 기설정된 자동 기풍제어를 위한 설정정보(예컨대, 경과 시간에 따라서 특정 기풍으로 동작하도록 기설정된 정보 등) 또는 플레이어의 선택 입력에 따라서 바둑 대국의 진행 상황 또는 플레이어 선택에 따른 기풍 변환을 수행할 수 있다. 이때, 바둑 게임 서비스 장치는 바둑 게임 플레이에 적용할 기풍을 변환하기 위하여 바둑 대국의 진행 상황에 따라 이용되는 착수 모델을 변경할 수 있다. In addition, in another embodiment, the Go game service device including and/or interworking with the start model server 300 and the situation judgment model server 400 as above in another embodiment, the processor 302 and/or the situation of the start model server 300 Through the processor 402 of the judgment model server 400, it is possible to perform Go game play by applying different ethos according to the progress of the Go game (eg, the degree of elapsed time, etc.) or player selection. In detail, the Go game service device according to the progress of the Go game or the player selection according to the preset setting information for automatic wind control (eg, information preset to operate with a specific wind according to the elapsed time, etc.) or the player's selection input It is possible to perform a wind transformation. At this time, the Go game service device may change the starting model used according to the progress of the Go game in order to transform the ethos to be applied to the Go game play.

예를 들어, 바둑 게임 서비스 장치는 공격적 기풍을 학습한 제 1 착수 모델, 인정적 기풍을 학습한 제 2 착수 모델, 방어적 기풍을 학습한 제 3 착수 모델이 존재하는 경우, 기설정된 자동 기풍제어 설정정보 또는 플레이어의 선택에 따라서 바둑 대국의 초반에는 제 2 착수 모델을 이용하여 안정적 기풍으로 바둑 게임을 플레이하고, 바둑 대국의 중반에는 제 3 착수 모델을 이용하여 방어적 기풍으로 바둑 게임을 플레이하며, 바둑 대국의 후반에는 제 1 착수 모델을 이용하여 공격적 기풍으로 바둑 게임을 플레이할 수 있다. 즉, 바둑 게임 서비스 장치는 바둑 대국의 진행 상황 또는 플레이어 선택에 따라 각기 다른 기풍을 이용함으로써, 딥러닝 신경망을 기반으로 바둑 게임 플레이 시 기풍을 활용하는 바둑 게임 서비스의 사용성을 보다 향상시킬 수 있다. For example, the Go game service device includes a first set-up model that learned an aggressive ethos, a second set-off model that learned a positive ethos, and a third set-off model that learned a defensive ethos, preset automatic ethos control According to the setting information or the player's selection, in the early stage of the Go game, the game is played with a stable ethos using the second start model, and in the middle of the Go game, the game is played with a defensive ethos using the third start model. , in the second half of the Go game, you can play the Go game with an aggressive ethos using the first set-up model. That is, the Go game service device uses different ethos according to the progress of the Go game or player selection, thereby further improving the usability of the Go game service that utilizes the ethos when playing a Go game based on a deep learning neural network.

이상, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 바둑 규칙에 따른 집, 사석, 돌, 공배, 빅을 정확히 구분하여 바둑의 형세를 예측함으로써 바둑의 형세 및 특정 착수점에 대한 기풍을 정확하게 판단할 수 있는 효과가 있다. As described above, the Go game service method and device based on deep learning according to an embodiment of the present invention accurately classify a house, a stone, a stone, a ball, and a big according to the Go rules and predict the situation of Go by predicting the situation of the Go game. And there is an effect that can accurately determine the wind for a specific starting point.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 바둑 게임 플레이 시에 다양한 기풍을 기반으로 대국의 진행을 도모함으로써 다각화된 플레이 방식에 기초하여 바둑 대국을 수행할 수 있고 정밀하게 대국 난이도를 조절할 수 있으며, 이를 통해 바둑 게임의 퀄리티 및 흥미를 증진시킬 수 있는 효과가 있다. In addition, the Go game service method and the device based on deep learning according to an embodiment of the present invention, the Go game based on a diversified play method by promoting the progress of the game based on various ethos during the Go game play. It can be performed and the difficulty of the game can be precisely adjusted, which has the effect of improving the quality and interest of the Go game.

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 플레이어와 오포넌트 간의 점수 차이에 기초하여 기풍을 판단하고 이에 기반한 대국을 수행함으로써 단지 이기는 것뿐만 아니라 점수의 차이까지 고려한 바둑 게임 플레이를 수행할 수 있는 효과가 있다. In addition, the Go game service method and the apparatus based on deep learning according to an embodiment of the present invention, by judging the ethos based on the score difference between the player and the component, and performing a game based thereon, not only wins, but also scores It has the effect of being able to perform Go game play considering even the difference of .

또한, 본 발명의 실시예에 따른 딥러닝을 기반으로 하는 바둑 게임 서비스 방법 및 그 장치는, 목표로 하는 특정 기풍에 최적화된 학습이 수행되도록 동작함으로써 기풍을 구현하기 위한 학습을 효율적, 체계적으로 구현할 수 있는 효과가 있다. In addition, the Go game service method and the apparatus based on deep learning according to an embodiment of the present invention, by operating so that learning is performed optimized for a specific ethos to be targeted, efficiently and systematically implement learning to implement ethos can have an effect.

또한, 이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.In addition, the embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are only examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as “essential” or “importantly”, it may not be a necessary component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to a preferred embodiment of the present invention, those skilled in the art or those having ordinary knowledge in the art will appreciate the spirit of the present invention described in the claims to be described later. And it will be understood that various modifications and variations of the present invention can be made without departing from the technical scope. Accordingly, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.

100 단말기
200 바둑서버
300 착수 모델 서버
310 탐색부
320 셀프 플레이부
330 착수 신경망
340 기풍학습 보조부
400 형세판단 모델 서버
400a 형세 판단 모델
410 형세 판단 신경망
420 입력 특징 추출부
430 정답 레이블 생성부
400b 기풍 판단부
100 terminals
200 Go server
300 launch model server
310 search unit
320 self-play
330 Initiation Neural Network
340 ethos learning assistant
400 Situation Judgment Model Server
400a situation judgment model
410 Context Judgment Neural Network
420 input feature extraction unit
430 Correct answer label generator
400b ethos judgment unit

Claims (14)

복수의 기보 및 바둑판 상태에 기반한 적어도 둘 이상의 착수 후보수를 수신하는 통신부;
형세 판단 모델 및 기풍 판단부을 저장하는 저장부; 및
상기 형세 판단 모델을 독출하여 상기 형세 판단 모델의 학습을 수행하고 상기 학습된 형세 판단 모델을 이용하여 상기 착수 후보수가 적용된 바둑판의 형세를 판단하며, 상기 기풍 판단부가 상기 판단된 형세를 기반으로 상기 착수 후보수에 대한 기풍을 판단한 정보인 기풍판단 정보를 생성하는 프로세서;를 포함하고,
상기 형세 판단 모델은,
입력된 바둑판 상태에서 입력 특징을 추출하는 입력 특징 추출부; 및
상기 추출된 입력 특징을 기초하여 상기 입력된 바둑판 상태의 교차점에 대한 형세값을 생성하는 형세 판단 신경망;을 포함하고,
상기 기풍 판단부는, 상기 형세값과 소정의 임계값 및 돌의 유무를 이용하여 플레이어와 오포넌트의 집 영역을 판단하여 플레이어 집 수와 오포넌트 집 수를 산출한 정보를 포함하는 보유 집 정보를 생성하고, 착수 모델이 학습하고자 하는 기풍을 결정하는 목표기풍 정보를 설정하며, 상기 착수 후보수와 상기 목표기풍 정보를 기반으로 상기 기풍판단 정보를 생성하고, 상기 보유 집 정보를 기반으로 플레이어 점수값과 오포넌트 점수값을 산출하며, 상기 산출된 플레이어 점수값과 오포넌트 점수값을 기반으로 점수 차이값을 생성하고, 상기 착수 후보수에 대한 기풍 판단 프로세스의 일 파라미터인 기풍판단 임계치를 설정하고, 상기 점수 차이값과 상기 기풍판단 임계치를 비교하여 상기 착수 후보수 각각에 대한 상기 기풍판단 정보를 생성하는
형세판단 모델 서버.
A communication unit for receiving at least two or more candidates for start based on a plurality of notations and checkerboard states;
a storage unit for storing the situation determination model and the ethos determination unit; and
Reading the situation determination model to perform learning of the situation determination model, and using the learned situation determination model to determine the situation of the checkerboard to which the number of candidates for starting is applied, and the ethos determining unit to set out based on the determined situation Including a;
The situation judgment model is,
an input feature extraction unit for extracting input features from the inputted checkerboard state; and
Containing a situation judgment neural network that generates a situation value for the intersection of the input checkerboard state based on the extracted input feature;
The ethos determining unit is configured to determine the house area of the player and the Oponent by using the situation value, a predetermined threshold value, and the presence or absence of stones to generate holding house information including information obtained by calculating the number of players and the Oponents. and setting target ethos information for determining the ethos that the starting model wants to learn, generating the ethos determination information based on the number of candidates and the target ethos information, and based on the holding house information, a player score value and calculating an oponent score value, generating a score difference value based on the calculated player score value and an oponent score value, setting a ethos judgment threshold that is a parameter of the ethos determination process for the number of candidates to be launched, and the Comparing the score difference value and the gi wind judgment threshold to generate the gi wind judgment information for each of the number of candidates for launch
Layout judgment model server.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 기풍 판단부는,
상기 기풍판단 정보를 기반으로 착수 모델의 자가 학습을 보조하는 기풍 학습 데이터를 생성하는
형세판단 모델 서버.
The method of claim 1,
The wind determination unit,
Creating ethos learning data that assists self-learning of the initiation model based on the ethos determination information
Layout judgment model server.
제 6 항에 있어서,
상기 통신부는,
상기 착수 모델로부터 기풍 학습 성능정보를 획득하고,
상기 기풍 판단부는,
상기 착수 모델로부터 획득되는 기풍 학습 성능정보를 기반으로 상기 기풍판단 임계치를 조정하는
형세판단 모델 서버.
7. The method of claim 6,
The communication unit,
Obtaining gi wind learning performance information from the initiation model,
The wind determination unit,
Adjusting the gi wind judgment threshold based on gi wind learning performance information obtained from the initiation model
Layout judgment model server.
유저 단말기의 바둑 게임 요청에 따라 바둑판 상태에 따른 착수점을 송신하는 통신부;
상기 바둑판 상태에 따른 착수점을 결정하는 서로 다른 기풍 카테고리의 착수 모델을 저장하는 저장부; 및
상기 착수 모델을 독출하고, 상기 독출된 착수 모델을 이용하여 상기 바둑 게임의 바둑판 상태에 기반한 착수점을 결정하여, 상기 유저 단말기에 바둑 게임 서비스를 제공하는 프로세서;를 포함하고,
상기 복수의 착수 모델은, 기풍 카테고리 별로 공격적 기풍의 제 1 착수 모델과, 안정적 기풍의 제 2 착수 모델과, 방어적 기풍의 제 3 착수 모델을 포함하고,
상기 제 1 착수 모델은, 바둑판 상태의 착수 후보수 중 플레이어 점수값과 오포넌트 점수값의 점수 차이값과 기 설정된 기풍판단 임계치을 비교하여 상기 공격적 기풍으로 분류된 착수 후보수의 기풍 학습 데이터로 학습된 착수 모델이고,
상기 제 2 착수 모델은, 바둑판 상태의 착수 후보수 중 플레이어 점수값과 오포넌트 점수값의 점수 차이값과 기 설정된 기풍판단 임계치을 비교하여 상기 안정적 기풍으로 분류된 착수 후보수의 기풍 학습 데이터로 학습된 착수 모델이고,
상기 제 3 착수 모델은, 바둑판 상태의 착수 후보수 중 플레이어 점수값과 오포넌트 점수값의 점수 차이값과 기 설정된 기풍판단 임계치을 비교하여 상기 방어적 기풍으로 분류된 착수 후보수의 기풍 학습 데이터로 학습된 착수 모델이며,
상기 프로세서는, 상기 바둑 게임 요청시, 상기 복수의 착수 모델 중 상기 바둑 게임을 진행할 착수 모델을 결정하고, 상기 결정된 착수 모델을 통해 착수점을 결정하는
착수 모델 서버.
Communication unit for transmitting the starting point according to the state of the Go board according to the Go game request of the user terminal;
a storage unit for storing the set-off models of different gi wind categories to determine the set-off point according to the checkerboard state; and
A processor that reads the set off model, determines a start point based on the Go board state of the Go game using the read set off model, and provides a Go game service to the user terminal; includes,
The plurality of launch models include a first launch model of an aggressive ethos for each ethos category, a second launch model of a stable ethos, and a third launch model of a defensive ethos,
The first start model compares the score difference value of the player score value and the component score value among the number of start candidates in the checkerboard state with a preset ethos judgment threshold, and the number of start-up candidates classified as the aggressive ethos is learned with the ethos learning data. It is a starting model,
The second start model compares the score difference value of the player score value and the component score value among the number of start candidates in the checkerboard state and a preset ethos judgment threshold, and is learned with the ethos learning data of the number of start candidates classified as the stable ethos. It is a starting model,
The third start model compares the score difference value of the player score value and the component score value among the number of start candidates in the checkerboard state with a preset ethos judgment threshold and learns with the ethos learning data of the number of start candidates classified as the defensive ethos. It is an established launch model,
The processor, when requesting the Go game, determines a starting model to proceed with the Go game among the plurality of starting models, and determining a starting point through the determined starting model
Launch model server.
제 8 항에 있어서,
상기 착수 모델은, 몬테 카를로 트리 서치(Monte Carlo Tree Search; MCTS)를 기반으로 상기 착수 후보수를 제공하는 탐색부;와, 상기 탐색부를 가이드하는 착수 신경망;과, 셀프 플레이를 수행하여 상기 착수 신경망이 자가 학습되도록 하는 셀프 플레이부; 및 상기 기풍 학습 데이터에 기반한 상기 자가 학습을 보조하는 기풍학습 보조부를 포함하고,
상기 기풍학습 보조부는,
상기 자가 학습의 결과를 기반으로 기풍판단 정보를 진단한 정보인 기풍 학습 성능정보를 생성하는
착수 모델 서버.
9. The method of claim 8,
The set-out model is a search unit that provides the number of start candidates based on Monte Carlo Tree Search (MCTS); and a set-out neural network guiding the search unit; and the start-up neural network by performing self-play a self-play unit that allows self-learning; and an ethos learning auxiliary unit that assists the self-learning based on the ethos learning data,
The gi wind learning auxiliary unit,
Based on the result of the self-learning to generate ethos learning performance information, which is information diagnosing ethos judgment information,
Launch model server.
통신부, 형세 판단 모델 및 기풍 판단부가 저장된 저장부, 상기 형세 판단 모델 및 상기 기풍 판단부를 구동하는 프로세서를 포함하는 형세판단 모델 서버에 의해 바둑판 상태의 형세를 판단하여 기풍을 판단하고 기풍 학습 데이터를 생성하는 딥러닝 기반의 바둑 게임 서비스 방법에 있어서,
상기 프로세서가 목표기풍 정보를 설정하는 단계;
상기 기풍 판단부가 기풍판단 임계치를 설정하는 단계;
상기 통신부가 바둑판 상태에 기반한 둘 이상의 착수 후보수를 획득하는 단계;
상기 프로세서가 상기 형세 판단 모델을 이용하여 상기 착수 후보수가 적용된 바둑판 상태의 형세를 판단하는 단계;
상기 프로세서가 상기 기풍 판단부를 이용하여 상기 판단된 형세를 기반으로 상기 착수 후보수 각각에 대한 점수 차이값을 산출하는 단계;
상기 프로세서가 상기 기풍 판단부를 이용하여 상기 산출된 점수 차이값과 상기 기풍판단 임계치를 기반으로 상기 착수 후보수 각각에 대한 기풍판단 정보를 생성하는 단계; 및
상기 통신부가 상기 생성된 기풍판단 정보와 상기 목표기풍 정보를 기반으로 상기 착수 후보수 각각에 대한 상기 기풍 학습 데이터를 생성하여 송신하는 단계를 포함하고,
상기 기풍판단 정보는,
상기 착수 후보수의 착수에 의하여 구현되는 기풍의 카테고리를 판단한 정보인
딥러닝을 기반으로 하는 바둑 게임 서비스 방법.
The communication unit, the situation determination model and the ethos determination unit stored in the storage unit, the situation judgment model and the ethos judgment model server comprising a processor driving the ethos determination unit by determining the state of the checkerboard state to determine the ethos and generate ethos learning data In a deep learning-based Go game service method,
setting, by the processor, target airflow information;
setting, by the air wind determination unit, a wind wind determination threshold;
acquiring the number of two or more start candidates based on the state of the checkerboard by the communication unit;
determining, by the processor, the situation of the checkerboard state to which the number of candidates to start is applied by using the situation determination model;
calculating, by the processor, a score difference value for each of the number of start candidates based on the determined situation using the ethos determination unit;
generating, by the processor, the geography determination information for each of the number of candidates to set out on the basis of the calculated score difference value and the gi wind determination threshold using the gi wind determination unit; and
Comprising the step of the communication unit generating and transmitting the spirit learning data for each of the number of start candidates based on the generated wind determination information and the target air wind information,
The wind judgment information is,
Information that determines the category of the spirit implemented by the start of the number of start candidates
A Go game service method based on deep learning.
제 10 항에 있어서,
착수 모델 서버로부터 기풍 학습 성능정보를 수신하는 단계를 더 포함하고,
상기 기풍 학습 성능정보는,
상기 착수 모델 서버가 상기 기풍 학습 데이터를 기반으로 상기 기풍판단 정보를 진단한 정보인
딥러닝을 기반으로 하는 바둑 게임 서비스 방법.
11. The method of claim 10,
Further comprising the step of receiving the learning performance information from the start model server,
The gi wind learning performance information,
It is the information that the start model server diagnoses the ethos determination information based on the ethos learning data.
A Go game service method based on deep learning.
제 11 항에 있어서,
상기 기풍 학습 성능정보를 기반으로 상기 기풍판단 임계치를 조정하는 단계를 더 포함하는
딥러닝을 기반으로 하는 바둑 게임 서비스 방법.
12. The method of claim 11,
Further comprising the step of adjusting the gi wind judgment threshold based on the gi wind learning performance information
A Go game service method based on deep learning.
제 10 항에 있어서,
상기 점수 차이값을 산출하는 단계는,
상기 착수 후보수 각각에 대한 형세 판단을 기반으로 형세값을 도출하여 플레이어 집 수와 오포넌트 집 수를 산출한 정보인 보유 집 정보를 생성하는 단계와,
상기 보유 집 정보를 기반으로 플레이어 점수값과 오포넌트 점수값을 산출하여 상기 점수 차이값을 생성하는 단계를 포함하는
딥러닝을 기반으로 하는 바둑 게임 서비스 방법.
11. The method of claim 10,
Calculating the score difference value comprises:
generating holding house information, which is information obtained by calculating the number of player houses and the number of component houses by deriving a situation value based on the situation determination for each of the number of starting candidates;
generating the score difference value by calculating a player score value and an element score value based on the holding house information
A Go game service method based on deep learning.
제 10 항에 있어서,
상기 기풍의 카테고리는,
공격적 기풍, 안정적 기풍 및 방어적 기풍을 포함하고,
상기 공격적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치보다 큰 경우이고, 상기 안정적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치와 동일한 경우이고, 상기 방어적 기풍은 상기 점수 차이값이 상기 기풍판단 임계치보다 작은 경우인
딥러닝을 기반으로 하는 바둑 게임 서비스 방법.
11. The method of claim 10,
The category of the ethos is,
including offensive ethos, stable ethos and defensive ethos;
The aggressive ethos is a case in which the score difference value is greater than the ethos judgment threshold, the stable ethos is a case in which the score difference value is the same as the ethos judgment threshold, and the defensive ethos is the case where the score difference value is the ethos judgment threshold. in the case of smaller
A Go game service method based on deep learning.
KR1020190085337A 2019-07-15 2019-07-15 Method and device for baduk game service based on deep-learning KR102299140B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190085337A KR102299140B1 (en) 2019-07-15 2019-07-15 Method and device for baduk game service based on deep-learning
JP2020121161A JP7065912B2 (en) 2019-07-15 2020-07-15 Go game service system and service method based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190085337A KR102299140B1 (en) 2019-07-15 2019-07-15 Method and device for baduk game service based on deep-learning

Publications (2)

Publication Number Publication Date
KR20210008757A KR20210008757A (en) 2021-01-25
KR102299140B1 true KR102299140B1 (en) 2021-09-07

Family

ID=74238079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190085337A KR102299140B1 (en) 2019-07-15 2019-07-15 Method and device for baduk game service based on deep-learning

Country Status (2)

Country Link
JP (1) JP7065912B2 (en)
KR (1) KR102299140B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022176808A (en) 2021-05-17 2022-11-30 三菱重工業株式会社 Learning device, learning method and learning program
KR102572342B1 (en) * 2021-04-14 2023-08-29 엔에이치엔클라우드 주식회사 Method and device for deep-learning based simulation count management of go game service
KR102483510B1 (en) * 2021-09-27 2022-12-30 이승순 Board game service robot system by using AI
JP7186321B1 (en) 2022-04-11 2022-12-08 株式会社Cygames Situation evaluation device, situation evaluation method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3438202B2 (en) * 2001-08-03 2003-08-18 コナミ株式会社 Game program for Go game
JP2004290227A (en) * 2003-03-25 2004-10-21 Kozo Kubo Flag utilization system for game of go or the like in the internet or the like
JP3830949B2 (en) * 2004-07-08 2006-10-11 株式会社コナミデジタルエンタテインメント Game progress control device, game progress control method, and game progress control program
JP2009254406A (en) * 2008-04-11 2009-11-05 Nintendo Co Ltd Game apparatus and game program
KR20090120054A (en) * 2008-05-19 2009-11-24 (주)에이아이바둑 Method for displaying play in artificial intelligence program paduk
JP4806459B2 (en) * 2009-07-09 2011-11-02 株式会社コナミデジタルエンタテインメント Game machine and computer program used therefor
KR20120092841A (en) * 2011-02-14 2012-08-22 주식회사 엔씨소프트 Method and system of recommending stone placement for baduk service
KR20130089931A (en) * 2012-01-13 2013-08-13 박성군 System and method for providing paduk situation stands using application
KR20150129265A (en) 2014-05-09 2015-11-19 숭실대학교산학협력단 Method and server for providing artificial intelligence for baduk service

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"AlphaGo의 인공지능 알고리즘 분석", 추형석 외 2명, SPRi 소프트웨어정책연구소, SPRi Issue Report 제2016-002호 ver.1.0(2016.03.03.)*
"세기의 대결, 알파고의 역습", 인터넷 cyberoro 뉴스 기사(2016.03.08.)*

Also Published As

Publication number Publication date
KR20210008757A (en) 2021-01-25
JP7065912B2 (en) 2022-05-12
JP2021013750A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
KR102299140B1 (en) Method and device for baduk game service based on deep-learning
KR102316930B1 (en) Deep-learning based baduk game service method and apparatus thereof
CN109893857B (en) Operation information prediction method, model training method and related device
US20180365557A1 (en) Information processing method and information processing apparatus
CN113561986B (en) Automatic driving automobile decision making method and device
KR102299138B1 (en) Deep-learning based baduk game service method and apparatus thereof
CN112783781B (en) Game testing method, game testing device, electronic equipment and storage medium
KR102299135B1 (en) Method and device that providing deep-running-based baduk game service
CN111701246B (en) Decision configuration method and device for game AI
US11738271B2 (en) Method and apparatus for predicting game difficulty by using deep-learning based game play server
KR102299141B1 (en) Method and device for providing deep-running-based baduk game service
KR102292046B1 (en) Deep-learning based baduk game service method and apparatus thereof
US20220150148A1 (en) Latency mitigation system and method
KR102595656B1 (en) Deep-learning based jang-gi game service method and apparatus thereof
CN115708951A (en) Intelligent decision-making method, system, storage medium and equipment for mahjong
KR20230090862A (en) Apparatus for managing level of game content based on artificial intelligence model and method thereof
KR102628188B1 (en) Method and device for providing service that deep learning-based imperfect information game
KR102595660B1 (en) Method and device for providing service that deep learning-based imperfect information game
KR20220141979A (en) Method and device for deep-learning based simulation count management of go game service
Rajabi et al. A dynamic balanced level generator for video games based on deep convolutional generative adversarial networks
KR20220140123A (en) Method and device for deep-learning based computation time management of go game service
KR102591226B1 (en) Method and device for preventing long-ladder of deep learning-based go game service
CN110334244A (en) A kind of method, apparatus and electronic equipment of data processing
KR20240043913A (en) Method and system for providing playing-yut ai based on playing-yut-specific data type
KR20240030680A (en) Method and system for training and playing of playing-yut ai based on deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant