KR101935585B1 - 게임 커맨드 인식 방법 및 장치 - Google Patents

게임 커맨드 인식 방법 및 장치 Download PDF

Info

Publication number
KR101935585B1
KR101935585B1 KR1020180117352A KR20180117352A KR101935585B1 KR 101935585 B1 KR101935585 B1 KR 101935585B1 KR 1020180117352 A KR1020180117352 A KR 1020180117352A KR 20180117352 A KR20180117352 A KR 20180117352A KR 101935585 B1 KR101935585 B1 KR 101935585B1
Authority
KR
South Korea
Prior art keywords
game
data
command
game command
action
Prior art date
Application number
KR1020180117352A
Other languages
English (en)
Inventor
황영태
신재웅
남제현
Original Assignee
넷마블 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넷마블 주식회사 filed Critical 넷마블 주식회사
Priority to KR1020180117352A priority Critical patent/KR101935585B1/ko
Application granted granted Critical
Publication of KR101935585B1 publication Critical patent/KR101935585B1/ko
Priority to US16/590,586 priority patent/US20200101383A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1081Input via voice recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

게임 커맨드 인식 방법 및 장치가 개시된다. 게임 커맨드 인식 장치는 텍스트 데이터 또는 음성 데이터의 사용자 입력을 수신하고, 수신한 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출한다. 게임 커맨드 인식 장치는 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 액션 시퀀스 데이터를 생성하고, 생성된 게임 액션 시퀀스 데이터를 실행한다.

Description

게임 커맨드 인식 방법 및 장치{GAME COMMAND RECOGNITION METHOD AND GAME COMMAND RECOGNITION APPARATUS}
아래 실시예들은 게임 커맨드 인식 기술에 관한 것이다.
게임을 플레이하는 사용자는 특정한 방식의 게임 커맨드 입력을 통해 게임 플레이를 진행한다. 예를 들어, 사용자는 마우스나 키보드 조작을 통해 대상을 선택하고, 게임 커맨드를 지시하거나 또는 터치 입력을 통해 게임 커맨드를 지시할 수 있다. 최근에는 게임의 조작이 복잡해지는 추세에 있는데, 이 경우 사용자는 게임 커맨드를 지시할 때마다 각 대상과 동작 방법을 정의하여 지시해야 하는 불편이 있다. 이에 따라, 사용자의 게임 커맨드 입력을 보다 편리하게 하고, 게임 개발의 입장에서 설계 비용이 낮은 게임 커맨드 시스템에 대한 연구가 필요한 실정이다.
일 실시예에 따른 게임 커맨드 인식 방법은, 텍스트 데이터 또는 음성 데이터의 사용자 입력을 수신하는 단계; 상기 수신한 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하는 단계; 상기 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 액션 시퀀스 데이터를 생성하는 단계; 및 상기 생성된 게임 액션 시퀀스 데이터를 실행하는 단계를 포함한다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 상기 사용자 입력으로부터 게임 액션을 정의하기 위해 필요한 엔티티(entity) 및 동작과 관련된 단어를 추출할 수 있다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 상기 사용자 입력으로부터 상기 게임 액션을 정의하기 위해 필요한 반복 횟수와 관련된 단어를 더 추출할 수 있다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 상기 사용자 입력이 텍스트 데이터인 경우, 상기 텍스트 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출할 수 있다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 상기 사용자 입력이 음성 데이터인 경우, 상기 음성 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출할 수 있다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 텍스트 컨볼루셔널 뉴럴 네트워크(text-convolutional neural network) 모델을 이용하여 상기 사용자 입력으로부터 상기 게임 커맨드 엘리먼트를 추출할 수 있다.
상기 게임 커맨드 엘리먼트를 추출하는 단계는, 상기 수신한 사용자 입력에 복수 개의 게임 커맨드들이 포함된 경우, 상기 사용자 입력을 별개의 독립된 게임 커맨드들로 구분하고, 상기 독립된 게임 커맨드들 각각으로부터 상기 게임 커맨드 엘리먼트를 추출할 수 있다.
상기 게임 액션 시퀀스 데이터를 생성하는 단계는, 상기 추출한 게임 커맨드 엘리먼트에 기초하여 상기 게임 액션 데이터로부터 사용자가 의도한 게임 커맨드와 관련된 게임 액션들을 시간의 흐름에 따라 결정하는 단계를 포함할 수 있다.
상기 게임 액션 시퀀스 데이터를 생성하는 단계는, 뉴럴 네트워크 기반의 게임 액션 시퀀스 데이터 생성 모델을 이용하여 상기 게임 액션 시퀀스 데이터를 생성할 수 있다.
상기 게임 액션 시퀀스 데이터는, 상기 텍스트 데이터 또는 상기 음성 데이터에 포함된 게임 커맨드에 대응하고, 시간의 흐름에 따른 게임 액션들의 집합을 나타낼 수 있다.
상기 게임 액션 데이터는, 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함할 수 있다.
상기 게임 액션 시퀀스 데이터를 실행하는 단계는, 상기 게임 액션 시퀀스 데이터에 따라 자동으로 일련의 게임 액션들을 순차적으로 실행하고, 실행되는 게임 액션들을 화면을 통해 디스플레이할 수 있다.
일 실시예에 따른 게임 커맨드 인식 장치는, 사용자가 입력한 텍스트 데이터를 수신하는 텍스트 데이터 수신부; 상기 텍스트 데이터가 수신된 경우, 상기 텍스트 데이터에 기초하여 게임 액션 시퀀스를 실행하는 프로세서; 및 상기 실행되는 게임 액션 시퀀스에 대응하는 화면을 출력하는 디스플레이를 포함하고, 상기 프로세서는, 상기 텍스트 데이터로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성할 수 있다.
일 실시예에 따른 게임 커맨드 인식 장치는, 게임 커맨드 입력을 위한 음성 데이터를 수신하는 음성 데이터 수신부를 더 포함할 수 있다.
상기 프로세서는, 상기 음성 데이터를 수신하는 경우, 상기 음성 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 하나 이상의 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성할 수 있다.
다른 실시예에 따른 게임 커맨드 인식 장치는, 사용자 입력을 수신하는 사용자 입력 수신부; 뉴럴 네트워크 기반의 게임 커맨드 엘리먼트 추출 모델 및 게임 액션 데이터를 저장하는 데이터베이스; 및 상기 게임 커맨드 엘리먼트 추출 모델을 이용하여 상기 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 게임 커맨드 엘리먼트 및 상기 게임 액션 데이터를 이용하여 상기 게임 커맨드에 대응되는 게임 액션 시퀀스 데이터를 수행하는 프로세서를 포함할 수 있다.
또 다른 실시예에 따른 게임 커맨드 인식 장치는, 게임 커맨드 입력을 위한 텍스트 데이터가 수신된 경우, 상기 텍스트 데이터에 기초하여 게임 액션 시퀀스를 실행하는 프로세서; 및 상기 실행되는 게임 액션 시퀀스에 대응하는 화면을 출력하는 디스플레이를 포함하고, 상기 프로세서는, 상기 텍스트 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 하나 이상의 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성할 수 있다.
일 실시예에 따르면, 게임 플레이를 위한 유저 인터페이스의 각 단계마다 별도의 게임 커맨드를 설계하는 것이 필요하지 않아 게임 커맨드 인식 시스템의 설계 비용이 감소된다.
일 실시예에 따르면, 텍스트 입력 또는 음성 입력을 통해 게임 플레이의 손쉬운 제어가 가능해져 사용자의 게임 접근성과 편의성이 확대된다.
일 실시예에 따르면, 게임 커맨드를 이해하고 실행하는 인공지능 비서를 통해 사용자의 감성을 만족시키고, 개인화된 게임 커맨드의 구현이 가능해 진다.
도 1은 일 실시예에 따른 게임 시스템의 전체적인 구성을 도시한 도면이다.
도 2는 일 실시예에 따른 게임 커맨드 인식 장치의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 게임 커맨드 인식 과정을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 텍스트 입력의 게임 커맨드를 인식하는 일례를 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 음성 입력의 게임 커맨드를 인식하는 일례를 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 게임 커맨드 엘리먼트를 추출하는 과정을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 게임 커맨드 엘리먼트를 추출하는 일례를 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 게임 액션 시퀀스 데이터를 생성하는 일례를 설명하기 위한 도면이다.
도 9a, 도 9b 및 도 10은 일 실시예에 따른 게임 액션 데이터를 설명하기 위한 도면들이다.
도 11은 일 실시예에 따른 게임 커맨드 인식 방법의 동작을 도시한 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 게임 시스템의 전체적인 구성을 도시한 도면이다.
도 1을 참조하면, 게임 시스템(100)은 서버(110)를 통해 복수의 사용자 단말(130)들에 게임 서비스를 제공한다. 게임 시스템(100)은 서버(110), 네트워크(120), 복수의 사용자 단말(130)들을 포함하고, 서버(110)와 복수의 사용자 단말(130)들은 네트워크(120)(예를 들어, 인터넷)를 통해 서로 통신할 수 있다.
서버(110)는 게임 프로그램의 실행을 위해 접속을 요청한 사용자 단말(130)에 대한 인증 절차를 수행하고, 인증이 완료된 사용자 단말(130)에 게임 서비스를 제공할 수 있다.
게임을 플레이하고자 하는 사용자는 사용자 단말(130)에 설치된 게임 어플리케이션(또는 게임 프로그램)을 실행하고, 서버(110)에 접속을 요청한다. 사용자 단말(130)은 온라인 접속을 통해 사용자의 게임 접속을 가능하게 하는 컴퓨팅 장치로서, 예를 들어 셀룰러 폰, 스마트 폰, 퍼스널 컴퓨터, 랩탑, 노트북, 넷북, 태블릿 또는 휴대 정보 단말기(personal digital assistant; PDA)일 수 있다.
사용자가 게임을 플레이할 때, 게임 조작을 위한 유저 인터페이스(user interface; UI)가 복잡하면, 사용자는 게임 조작에 불편을 느껴 게임 플레이에 대한 사용자의 접근성이 저하될 수 있다. 또한, 게임 내 컨텐츠가 증가함에 따라 유저 인터페이스가 복잡해져 사용자가 원하는 게임 커맨드를 쉽게 찾을 수 없는 문제가 발생할 수 있다. 한편, 게임의 유저 인터페이스를 개발하는 측면에서, 게임 커맨드를 인식하는 시스템을 설계하기 위해서는, 수동으로 모든 게임 커맨드의 의도를 고려하여 유저 인터페이스를 제작해야 하기 때문에 설계 비용이 높아지고, 시간이 오래 걸린다.
본 발명의 게임 커맨드 인식 장치는 위와 같은 문제점들을 해결할 수 있다. 게임 커맨드 인식 장치는 사용자가 사용자 단말(130)을 통해 게임을 플레이 할 때, 사용자가 입력한 게임 커맨드를 인식하여 처리하는 장치로서, 사용자 단말(130)에 포함되어 동작될 수 있다. 일 실시예에 따르면, 게임 커맨드 인식 장치는 사용자가 텍스트나 음성 입력을 통해 게임 커맨드를 입력하면, 입력된 게임 커맨드를 인식하여 해당 게임 커맨드에 대응하는 게임 조작을 실행할 수 있다. 이에 따라, 사용자는 게임 조작을 통해 직접 게임 커맨드를 실행하지 않고도 편리하게 게임을 플레이할 수 있고, 게임 개발의 측면에서 유저 인터페이스의 각 단계마다 별도의 게임 커맨드를 설계할 필요가 없어 게임 커맨드 인식 시스템의 설계 비용이 감소될 수 있다. 또한, 본 발명에 따르면 개인화된 게임 커맨드의 구현이 가능해진다.
이하에서는, 위 게임 커맨드 인식 장치의 구성과 동작에 대해 보다 자세히 설명한다. 한편, 본 발명은 도 1에 도시된 것과 같은 네트워크 기반의 게임 시스템(100) 뿐만 아니라, 퍼스널 컴퓨터 기반의 게임 프로그램이나 비디오 콘솔 기반의 게임 프로그램에도 적용될 수 있다.
도 2는 일 실시예에 따른 게임 커맨드 인식 장치의 구성을 도시한 도면이다.
게임 커맨드 인식 장치(200)는 게임 사용자 인터페이스의 뎁스(depth)를 모델링하여 텍스트나 음성 형태의 게임 커맨드에 대응하는 게임 액션 시퀀스 데이터를 생성할 수 있다. 도 2를 참조하면, 게임 커맨드 인식 장치(200)는 프로세서(210), 메모리(220), 사용자 입력 수신부(240) 및 통신 인터페이스(230)를 포함한다. 실시예에 따라, 게임 커맨드 인식 장치(200)는 디스플레이(260) 및 데이터베이스(250) 중 하나 이상을 더 포함할 수도 있다. 게임 커맨드 인식 장치(200)는 도 1의 사용자 단말에 포함되어 동작할 수 있다.
사용자 입력 수신부(240)는 사용자에 의해 입력되는 사용자 입력을 수신한다. 일 실시예에서, 사용자 입력 수신부(240)는 텍스트 데이터 수신부와 음성 데이터 수신부를 포함할 수 있다. 텍스트 데이터 수신부는 게임 커맨드 입력을 위한 텍스트 데이터를 수신하고, 음성 데이터 수신부는 게임 커맨드 입력을 위한 음성 데이터를 수신한다. 예를 들어, 텍스트 데이터 수신부는 키보드 입력 또는 터치 입력을 통한 텍스트 데이터를 수신할 수 있고, 음성 데이터 수신부는 마이크로폰을 통해 음성 데이터를 수신할 수 있다.
프로세서(210)는 게임 커맨드 인식 장치(200) 내에서 실행하기 위한 기능 및 인스트럭션들을 실행하고, 게임 커맨드 인식 장치(200)의 전체적인 동작을 제어한다. 프로세서(210)는 이하에서 설명할 하나 이상의 동작을 수행할 수 있다.
사용자 입력 수신부(240)를 통해 게임 커맨드로서 텍스트 데이터가 수신된 경우, 프로세서(210)는 텍스트 데이터에 기초하여 게임 액션 시퀀스를 실행한다. 프로세서(210)는 텍스트 데이터로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하고, 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 액션 시퀀스 데이터를 생성한다. 사용자 입력 수신부(240)를 통해 게임 커맨드로서 음성 데이터가 수신된 경우, 프로세서(210)는 위와 유사하게 음성 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 추출한 하나 이상의 게임 커맨드 엘리먼트 및 게임 액션 데이터를 게임 액션 시퀀스 데이터를 생성한다. 게임 커맨드 엘리먼트는 사용자가 입력한 게임 커맨드의 구성 요소들 중에서 실제 사용자가 의도한 게임 커맨드와 관련된 구성 요소를 나타낸다.
일 실시예에서, 프로세서(210)는 뉴럴 네트워크 기반의 게임 커맨드 엘리먼트 추출 모델을 이용하여 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출할 수 있다. 예를 들어, 프로세서(210)는 온톨로지 기반 자연어 처리(Ontology-driven NLP, natural language processing)와 딥 러닝(deep learning)을 이용하여, 게임 커맨드의 의도를 나타내는 게임 커맨드 엘리먼트를 추출할 수 있다.
프로세서(210)는 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 커맨드에 대응하는 게임 액션 시퀀스 데이터를 자동으로 생성하고, 생성된 게임 액션 시퀀스 데이터를 자동으로 수행할 수 있다. 게임 액션 시퀀스 데이터를 생성하기 위해 뉴럴 네트워크 기반의 게임 액션 시퀀스 데이터 생성 모델이 이용될 수 있다.
게임 액션 데이터는 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함한다. 게임 액션 데이터는 예를 들어, 사용자 인터페이스의 뎁스를 고려하여 각각의 게임 화면에서 수행될 수 있는 게임 액션들의 연결 관계를 나타낼 수 있다. 게임 액션 시퀀스 데이터는 텍스트 데이터 또는 음성 데이터에 포함된 게임 커맨드에 대응하고, 시간의 흐름에 따른 게임 액션들의 집합을 나타낸다.
일 실시예에서, 사용자가 지시한 게임 커맨드가 복수이 게임 커맨드들이 포함된 다중 명령 또는 실행 조건이 포함된 조건부 명령인 경우, 프로세서(210)는 사용자 입력에서 이러한 다중 명령, 조건부 명령을 구별할 수 있다. 만약, 사용자가 지시한 게임 커맨드가 다중 명령인 경우, 프로세서(210)는 문장의 종속성 관계를 고려하여 다중 명령을 독립된 별개의 게임 커맨드로 분해하고, 분해한 각각의 게임 커맨드에 기초하여 게임 커맨드 엘리먼트를 추출할 수 있다. 이 경우, 최종의 게임 액션 시퀀스 데이터는 분해된 각 게임 커맨드에 대응하는 게임 액션 시퀀스 데이터가 결합된 형태를 가진다. 만약, 사용자가 지시한 게임 커맨드가 조건부 명령인 경우, 프로세서(210)는 조건부 명령을 조건절과 명령절로 분해한 후 명령절로부터 추출한 게임 커맨드 엘리먼트에 기초하여 게임 액션 시퀀스 데이터를 생성하고, 조건절에 포함된 조건의 내용을 고려하여 게임 액션 시퀀스 데이터를 실행하거나 게임 액션 시퀀스 데이터의 실행 여부를 결정할 수 있다.
데이터베이스(250)는 게임 커맨드 인식 장치(200)가 사용자가 지시한 게임 커맨드를 인식하는데 필요한 데이터를 저장할 수 있다. 예를 들어, 데이터 베이스는 게임 커맨드 엘리먼트 추출 모델, 게임 액션 시퀀스 데이터 및 게임 액션 데이터를 저장할 수 있다. 데이터베이스(250) 저장된 데이터는 서버에 의해 주기적 또는 필요 시에 업데이트될 수 있다.
메모리(220)는 프로세서(210)에 연결되고, 프로세서(210)에 의해 실행가능한 인스트럭션들, 프로세서(210)가 연산할 데이터 또는 프로세서(210)에 의해 처리된 데이터를 저장할 수 있다. 메모리(220)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.
통신 인터페이스(230)는 외부 장치(예를 들어, 서버)와 통신하기 위한 인터페이스를 제공한다. 통신 인터페이스(230)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.
디스플레이(260)는 프로세서(210)에 의해 실행되는 게임 액션 시퀀스에 대응하는 화면을 출력할 수 있다. 디스플레이(260)는 수행되는 게임 액션 시퀀스 데이터에 따라, 사용자에게 제공되는 게임 화면에 자동으로 수행되는 게임 액션들을 표시할 수 있다. 일 예에서, 디스플레이(260)는 터치 스크린 디스플레이일 수 있다.
도 3은 일 실시예에 따른 게임 커맨드 인식 과정을 설명하기 위한 도면이다.
도 3을 참고하면, 먼저 사용자는 실행하고 싶은 게임 커맨드를 입력한다. 사용자가 게임 플레이 중에 게임 커맨드를 실행하기 위해 텍스트 또는 음성으로 게임 커맨드를 입력(310)한다. 예를 들어, 사용자는 키보드 또는 터치 입력 등을 통하여 텍스트 데이터의 형태로 게임 커맨드를 입력하거나 또는 마이크로폰을 통해 음성 데이터의 형태로 게임 커맨드를 입력할 수 있다.
사용자로부터 텍스트 데이터 또는 음성 데이터의 형태로 게임 커맨드가 입력되면, 게임 커맨드 인식 장치는 입력된 게임 커맨드에서 하나 이상의 게임 커맨드 엘리먼트를 추출(320)한다. 게임 커맨드 인식 장치는 텍스트 데이터 형태의 게임 커맨드에서 사용자가 게임 커맨드로서 실행하고자 하는 게임 액션, 게임 액션에 필요한 엔티티 및 반복 횟수 등의 게임 커맨드 엘리먼트를 추출할 수 있다. 예를 들어, 텍스트 데이터 형태의 게임 커맨드가 입력된 경우, 게임 커맨드 인식 장치는 텍스트를 의미를 가지는 단어들로 분해하고, 각 단어들이 게임 액션, 엔티티 및 반복 횟수 중 어느 것에 해당하는지를 식별할 수 있다.
게임 커맨드 인식 장치는 식별 결과에 기초하여, 각 단어들을 태그(tag)할 수 있다. 일 실시예에서, 게임 커맨드 인식 장치는 입력된 데이터에서 유의미한 단어를 추출하도록 학습된 텍스트 컨볼루셔널 뉴럴 네트워크(textCNN) 등의 게임 커맨드 엘리먼트 추출 모델을 이용하여 게임 커맨드로부터 게임 커맨드 엘리먼트를 추출할 수 있다.
데이터베이스에는 사전에 정의된 게임 액션 데이터(330)가 저장될 수 있다. 게임 액션 데이터(330)는, 예를 들어 사용자에게 제공되는 게임 플레이 화면을 정점으로, 버튼 클릭 등의 행동을 간선으로 하여 그래프 형태로 표현한 데이터일 수 있다. 한편, 게임 액션 데이터(330)는 게임 커맨드 엘리먼트 추출 모델을 학습시키는데 이용될 수 있다. 게임 액션 데이터에 의해 표현되는 그래프 정보를 통해 현재 상태에서 실행 가능한 모든 게임 커맨드들이 식별될 수 있다.
게임 커맨드 인식 장치는 추출된 게임 커맨드 엘리먼트와 게임 액션 데이터(330)에 기초하여 게임 액션 시퀀스 데이터를 생성(340)할 수 있다. 일 실시예에서, 게임 커맨드 인식 장치는 게임 액션 시퀀스 데이터를 생성하기 위해 온톨로지 기반의 NLP를 이용할 수 있다. 게임 커맨드 인식 장치는 게임 액션 데이터를 통해 사용자가 게임 커맨드를 입력한 현재 게임 플레이 상황에서 가능한 게임 커맨드의 의도와 단어를 식별할 수 있다. 게임 커맨드 인식 장치는 추출된 게임 커맨드 엘리먼트에 기초하여 게임 액션 데이터로부터 게임 액션들의 흐름을 결정하고, 결정된 게임 액션들의 흐름을 게임 액션 시퀀스 데이터로 변환할 수 있다.
그 후, 게임 커맨드 인식 장치는 생성된 게임 액션 시퀀스 데이터를 실행(350)할 수 있다. 게임 커맨드 인식 장치는 게임 액션 시퀀스 데이터에 따라 게임 액션들을 시간의 흐름에 따라 수행하고, 수행되는 게임 액션들의 모습을 화면에 디스플레이할 수 있다. 사용자는 텍스트나 음성으로 지시한 게임 커맨드에 맞게 수행되는 게임 액션들을 지켜보게 된다. 사용자는 제공되는 사용자 화면을 통해 자신이 지시한 게임 커맨드의 의도에 따라 게임 액션들이 수행되는지 확인할 수 있다. 이와 같이, 사용자는 게임 플레이 중에 각 단계마다 게임 조작을 할 필요 없이, 텍스트 입력이나 음성 입력을 통해 게임 커맨드를 편하게 지시할 수 있다.
도 4는 일 실시예에 따른 텍스트 입력의 게임 커맨드를 인식하는 일례를 설명하기 위한 도면이다.
도 4를 참조하면, 사용자가 게임 플레이 중에 게임 커맨드를 입력하기 위해 게임 커맨드 입력 창에 키보드 등을 통해 “VIP 활성화 1시간짜리 써줘”라고 입력(410)하였다고 가정한다. 입력된 텍스트 입력 “VIP 활성화 1시간짜리 써줘”는 게임 화면에 디스플레이(420)이 될 수 있다. 이 때, 사용자는 자신이 입력한 텍스트 형태의 게임 커맨드를 확인할 수 있고, 게임 플레이상으로는 사용자가 입력한 텍스트의 게임 커맨드를 지시한 것으로 결정된다.
게임 커맨드 인식 장치는 사용자가 입력한 “VIP 활성화 1시간짜리 써줘”의 텍스트에서 사용자가 의도한 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출한다. 예를 들어, 게임 커맨드 인식 장치는 “VIP”“활성화”, “시간”, “써줘”와 같은 단어들을 게임 커맨드 엘리먼트로서 추출할 수 있다. 게임 커맨드 엘리먼트의 추출을 위해 미리 학습된 뉴럴 네트워크 기반의 게임 커맨드 엘리먼트 추출 모델이 이용될 수 있다.
게임 커맨드 인식 장치는 추출한 게임 커맨드 엘리먼트들, 사용자의 현재 게임 상태 및 미리 저장된 게임 액션 데이터에 기초하여 사용자가 지시한 게임 커맨드를 실행하기 위한 게임 액션들의 시퀀스를 추정할 수 있다. 게임 커맨드 인식 장치는 추정된 게임 액션들의 시퀀스에 따라, 아이템 인벤토리 창으로 가서 “VIP 활성화”와 관련된 아이템을 사용하여 VIP 활성화 시간을 1시간 추가시키는 게임 액션들을 수행할 수 있고, 이는 게임 화면을 통해 디스플레이(430)될 수 있다. 이와 같은 과정은 사용자의 직접적인 게임 조작 없이 게임 커맨드 인식 장치에 의해 자동으로 수행된다.
도 5는 일 실시예에 따른 음성 입력의 게임 커맨드를 인식하는 일례를 설명하기 위한 도면이다.
도 5의 실시예에서는, 사용자가 아이템 인벤토리에서 특정한 아이템을 선택하고, 선택한 아이템을 특정한 캐릭터에 장착시키는 것을 원한다고 가정한다. 사용자가 장착하고자 하는 아이템을 선택하는 경우, 선택된 아이템에 정보가 게임 화면에 디스플레이(510)될 수 있다. 그 후, 사용자는 “이 아이템을 AA한테 장착해줘”라고 음성 입력을 통해 게임 커맨드를 지시(520)할 수 있다. 음성 입력을 활성화시키기 위해, 사용자는 별도의 게임 커맨드 입력 기능을 실행시킬 수 있다.
게임 커맨드 인식 장치는 사용자로부터 게임 커맨드와 관련된 음성 입력을 수신하면, 수신한 음성 입력에서 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출한다. 예를 들어, 게임 커맨드 인식 장치는 “이 아이템”, “”“장착”과 같은 단어들을 게임 커맨드 엘리먼트로서 추출할 수 있다. 게임 커맨드 엘리먼트의 추출을 위해 미리 학습된 뉴럴 네트워크 기반의 게임 커맨드 엘리먼트 추출 모델이 이용될 수 있다.
일 실시예에서, 게임 커맨드 인식 장치는 음성 입력을 통해 수신한 음성 데이터를 문자 데이터로 변환하고, 해당 문자 데이터로부터 게임 커맨드 엘리먼트를 추출할 수 있다. 한편, 변환된 문자 데이터는 게임 화면을 통해 디스플레이될 수 있다. 이 경우, 사용자는 자신이 지시한 음성 입력의 게임 커맨드가 제대로 인식되었는지 여부를 확인할 수 있다.
게임 커맨드 인식 장치는 추출한 게임 커맨드 엘리먼트들과 게임 액션 데이터에 기초하여 사용자가 음성 입력을 통해 지시한 게임 커맨드를 실행하기 위한 게임 액션들의 시퀀스를 추정하고, 추정한 게임 액션들의 시퀀스를 수행할 수 있다. 이에 따라, 사용자가 선택한 아이템이 AA의 캐릭터에 장착되는 일련의 과정이 자동으로 수행되고, 최종 결과 화면이 게임 화면을 통해 디스플레이(530)될 수 있다.
위 실시예에서, 사용자는 선택된 아이템을 장착시키기 위해 캐릭터 설정 화면으로 이동하고, 위 아이템을 선택하여 캐릭터에 장착시키는데 필요한 일련의 게임 조작을 수행할 필요 없이, 음성 입력을 통해 간단히 게임 조작을 수행할 수 있으므로, 사용자에게 게임 조작에 대한 편의성을 제공하고, 게임 접근성을 향상시킬 수 있다.
도 6은 일 실시예에 따른 게임 커맨드 엘리먼트를 추출하는 과정을 설명하기 위한 도면이다.
도 6을 참조하면, 사용자 입력으로부터 게임 커맨드 엘리먼트를 추출하기 위해 뉴럴 네트워크 기반의 게임 커맨드 추출 모델(610)이 이용될 수 있다. 예를 들어, 게임 커맨드 추출 모델(610)로서 텍스트 CNN의 뉴럴 네트워크가 이용될 수 있다. 게임 커맨드 추출 모델(610)은 학습 과정에서, 입력 데이터로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 출력하도록 학습된 모델이다. 게임 커맨드 추출 모델(610)은, 예를 들어 사용자 입력으로부터 게임 동작, 엔티티, 게임 동작의 반복 횟수 등을 출력할 수 있다. 게임 동작은 게임 커맨드에서 실행하고자 하는 핵심 단어를 나타내고, 엔티티는 게임 액션에 필요한 고유 명사를 나타낸다. 게임 커맨드 추출 모델(610)을 이용함으로써 사용자 입력에 포함된 게임 커맨드 엘리먼트를 효과적으로 추출할 수 있다.
도 7은 일 실시예에 따른 게임 커맨드 엘리먼트를 추출하는 일례를 설명하기 위한 도면이다.
도 7을 참조하면, 사용자 입력의 일례로서, “레벨 15 로크 사냥해”의 텍스트 데이터가 입력되었다고 가정한다. 이와 같이, 사용자가 게임 커맨드를 지시하기 위해 텍스트 데이터를 입력하면, “레벨 15 로크 사냥해”로부터 게임 커맨드에서 중요한 의미를 가지는 단어들이 게임 커맨드 엘리먼트들로서 추출될 수 있다. 예를 들어, 위 텍스트 데이터에서 “15(710)”“로크(720)” 및 “사냥해(730)”가 게임 커맨드 엘리먼트들로서 추출될 수 있다. 여기서, “”및 “로크(720)”는 엔티티로서 추출되고, “사냥해(730)”는 게임 동작으로서 추출될 수 있다. 추출된 단어들은 종류에 따라 태그될 수 있다.
게임 커맨드를 지시하기 위한 사용자 입력의 다른 예로서, “건축 속도 스킬 3레벨 올려줘”의 텍스트 데이터가 입력되었다고 가정한다. 이 경우, “건축 속도 스킬 3레벨 올려줘”의 텍스트 데이터에서 “건축(740)”“속도(750)”“”및 “올려줘(770)”의 단어가 게임 커맨드 엘리먼트들로서 추출될 수 있다. 여기서, “건축(740)”및 “속도(750)”는 엔티티로서 추출되고, “올려줘(770)”는 게임 동작으로서 추출될 수 있다. “3(760)”은 반복 횟수를 나타내는 것으로 추출될 수 있다. 추출된 단어들은 종류에 따라 태그될 수 있다.
위와 같은 게임 커맨드 엘리먼트의 추출을 위해 도 6에서 설명된 게임 커맨드 엘리먼트 추출 모델이 이용될 수 있다.
도 8은 일 실시예에 따른 게임 액션 시퀀스 데이터를 생성하는 일례를 설명하기 위한 도면이다.
도 8을 참조하면, 사용자가 현재 게임 플레이하고 있는 화면이 게임의 메인 화면을 나타내고, 게임 커맨드를 지시하기 위해 “레벨 15 로크 사냥해”를 텍스트 입력이나 음성 입력을 통해 지시하였다고 가정한다. 게임 커맨드 인식 장치는 “레벨 15 로크 사냥해”에서 게임 커맨드 엘리먼트들(710, 720, 730)을 추출하고, 뉴럴 네트워크 기반의 게임 액션 시퀀스 데이터 생성 모델(830)을 이용하여 게임 액션 시퀀스 데이터(820)를 생성할 수 있다. 게임 액션 시퀀스 데이터 생성 모델(830)에는 게임 커맨드 엘리먼트들(710, 720, 730)과 사전에 정의된 게임 액션 데이터(810)가 입력되고, 게임 액션 시퀀스 데이터 생성 모델(830)은 입력된 데이터에 기초하여 일련의 게임 액션들의 시퀀스인 게임 액션 시퀀스 데이터(820)를 출력할 수 있다. 게임 액션 시퀀스 데이터 생성 모델(830)은 사용자의 게임 커맨드에 대해 추출한 게임 커맨드 엘리먼트를 게임 커맨드를 실행하기 위한 게임 액션 시퀀스 데이터로 변환할 수 있다.
게임 액션 시퀀스 데이터(820)에 포함된 게임 액션들 간의 연관 관계 및 선후 관계는 게임 액션 데이터(810)에 기초하여 결정된다. 게임 액션 시퀀스 데이터(820)가 실행되면, 현재 메인 화면에서 “월드 → 검색 → 레벨 설정 → 확인 → 월드 → 사냥”의 순서로 각 게임 액션들이 순차적으로 자동으로 실행된다.
게임 액션 시퀀스 데이터 생성 모델(830)의 학습 과정에서는, 온톨로지 기반의 자연어 처리(Ontology-driven Natural Language Processing) 기법이 이용될 수 있다. 미리 구성된 게임 액션 데이터에서 가능한 게임 커맨드 엘리먼트들과 단어가 학습되고, 실제 게임 커맨드에 기초하여 추가적인 학습이 수행될 수 있다.
도 9a, 도 9b 및 도 10은 일 실시예에 따른 게임 액션 데이터를 설명하기 위한 도면들이다.
게임 액션 데이터는 게임 내의 여러 상태들과 각 상태들에서 가능한 게임 액션들에 대한 정보를 포함한다. 도 9a, 도 9b 및 도 10에 도시된 바와 같이, 일 실시예에 따른 게임 액션 데이터는 게임의 화면을 정점으로 하고 버튼 클릭 등의 행동을 간선으로 하는 그래프 형태로 표현될 수 있다. 정점은 현재 상태를 나타내고, 간선은 현재 상태에서 가능한 게임 액션(행동)을 나타낼 수 있다. 간선은 현재 상태에서 게임 액션이 수행된 후 전환되는 상태나 화면으로 연결된다. 각각의 정점과 간선은 현재 상태의 특성이나 게임 액션의 특성에 대한 정보를 포함한다. 사용자가 현재 보고 있는 게임 화면도 정점의 형태로 게임 액션 데이터에 포함되어 있고, 게임 액션 데이터에서 사용자의 현재 상태가 시작점이 된다.
게임 액션 데이터는 게임 개발 단계에서 생성되고, 그래프 형식이나 그 외 다양한 형식으로 데이터베이스에 저장될 수 있다. 경우에 따라, 게임 프로그램이 업데이트되는 경우, 게임 액션 데이터도 함께 업데이트될 수 있다. 게임 액션 데이터는 게임 액션 시퀀스 데이터 생성 모델을 학습시키는데 이용되고, 게임 액션 데이터를 통해 각 단계에서 가능한 전체 게임 커맨드의 식별이 가능하다.
도 9a를 참조하면, 메인 화면에서 사용자가 “레벨 15 로크 사냥해”의 커맨드를 텍스트 형태로 지시하였다고 가정한다. 게임 커맨드 인식 장치는 사전에 정의된 게임 액션 데이터(910)에서 메인 화면을 시작점 또는 기준점으로 하여 게임 커맨드 엘리먼트들(15, 로크, 사냥해)과 매칭되는 것을 찾아 게임 커맨드에 대응되는 게임 액션 시퀀스 데이터(920)를 생성할 수 있다. 게임 액션 시퀀스 데이터(920)에 따르면 레벨 설정(1로 표시함)에서 “15”가 설정되고, 사냥을 위한 게임 화면(2로 표시함)에서 사냥감으로서 “로크”가 선택되는 일련의 게임 액션 시퀀스가 정의된다.
도 9b는, 다른 예로서 메인 화면에서 사용자가 “이 아이템을 영웅한테 장착해”의 커맨드를 텍스트 형태로 지시하였다고 가정한다. 게임 커맨드 인식 장치는 게임 액션 데이터(930)에서 메인 화면을 시작점 또는 기준점으로 하여 게임 커맨드 엘리먼트들(아이템, 영웅, 장착해)과 매칭되는 것을 찾아 게임 커맨드에 대응되는 게임 액션 시퀀스 데이터(940)를 생성할 수 있다. 게임 액션 시퀀스 데이터(940)에 따르면, 게임 액션 데이터(930)의 현재 정점(1로 표시함)에서 “이 아이템”에 대한 정보를 획득하고, 영웅 화면(2로 표시함)에서 영웅의 캐릭터가 선택되며, 장비 오브젝트 확인(3으로 표시함)에서 해당 아이템이 선택된 후 영웅에 장착될 수 있다.
도 10은 일 실시예에 따른 사용자에게 제공되는 게임 화면과 게임 액션 데이터 및 게임 액션 데이터에 대응하는 게임 코드의 예를 도시한다. 게임 액션 데이터는 그래프 형태로 표현될 수 있고, 이는 도시된 것과 같은 게임 코드로 구성될 수 있다.
도 11은 일 실시예에 따른 게임 커맨드 인식 방법의 동작을 도시한 흐름도이다. 게임 커맨드 인식 방법은 본 명세서에서 설명한 커맨드 인식 장치에 의해 수행될 수 있다.
도 11을 참조하면, 단계(1110)에서 게임 커맨드 인식 장치는 사용자가 게임 플레이 중에 게임 커맨드를 지시하기 위한 것으로서 사용자 입력을 수신한다. 이 때, 사용자 입력은 텍스트 데이터 또는 음성 데이터일 수 있다.
단계(1120)에서, 게임 커맨드 인식 장치는 수신한 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출한다. 게임 커맨드 인식 장치는 사용자 입력으로부터 게임 액션을 정의하기 위해 필요한 엔티티, 동작 및 반복 횟수 중 하나 이상과 관련된 단어를 추출할 수 있다. 사용자 입력이 텍스트 데이터인 경우, 게임 커맨드 인식 장치는 텍스트 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출하고, 사용자 입력이 음성 데이터인 경우, 게임 커맨드 인식 장치는 음성 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출한다.
일 실시예에서, 게임 커맨드 인식 장치는 온톨로지 기반의 자연어 처리 기법과 딥 러닝을 이용하여 사용자 입력으로부터 게임 커맨드 엘리먼트를 추출할 수 있다. 예를 들어, 게임 커맨드 인식 장치는 텍스트 컨볼루셔널 뉴럴 네트워크(text-convolutional neural network) 모델을 이용하여 사용자 입력으로부터 게임 커맨드 엘리먼트를 추출할 수 있다.
일 실시예에서, 수신한 사용자 입력에 복수 개의 게임 커맨드들이 포함된 경우, 게임 커맨드 인식 장치는 사용자 입력을 별개의 독립된 게임 커맨드들로 구분하고, 독립된 게임 커맨드들 각각으로부터 게임 커맨드 엘리먼트를 추출할 수 있다.
단계(1130)에서, 게임 커맨드 인식 장치는 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 액션 시퀀스 데이터를 생성한다. 여기서, 게임 액션 시퀀스 데이터는 텍스트 데이터 또는 음성 데이터에 포함된 게임 커맨드에 대응하고, 시간의 흐름에 따른 게임 액션들의 집합을 나타낸다. 게임 액션 데이터는 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함한다. 예를 들어, 게임 액션 데이터는 게임 플레이 상에서 사용자의 현재 상태를 기준 시점(time)으로, 이후에 진행될 수 있는 제1 게임 액션과 해당 제1 게임 액션이 진행된 이후에 진행될 수 있는 제2 게임 액션에 관한 정보를 포함한다.
게임 커맨드 인식 장치는 추출한 게임 커맨드 엘리먼트에 기초하여 게임 액션 데이터로부터 사용자가 의도한 게임 커맨드와 관련된 게임 액션들을 시간의 흐름에 따라 결정할 수 있다.
단계(1140)에서, 게임 커맨드 인식 장치는 생성된 게임 액션 시퀀스 데이터를 실행한다. 게임 커맨드 인식 장치는 게임 액션 시퀀스 데이터에 따라 자동으로 일련의 게임 액션들을 순차적으로 실행하고, 실행되는 게임 액션들을 화면을 통해 디스플레이할 수 있다.
도 1 내지 도 10을 통해 기술된 사항들은 도 11에 적용될 수 있으며, 중복되는 사항에 대한 설명은 생략한다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (21)

  1. 텍스트 데이터 또는 음성 데이터의 사용자 입력을 수신하는 단계;
    상기 수신한 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하는 단계;
    상기 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 게임 액션 시퀀스 데이터를 생성하는 단계; 및
    상기 생성된 게임 액션 시퀀스 데이터를 실행하는 단계
    를 포함하고,
    상기 게임 액션 데이터는, 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함하고, 각각의 게임 화면에서 수행될 수 있는 게임 액션들의 연결 관계를 나타내며, 사용자에게 제공되는 게임 화면을 정점으로 하고, 사용자의 행동을 간선으로 하여 그래프 형태로 표현한 데이터이고, 게임 프로그램이 업데이트되는 경우에 함께 업데이트되며,
    상기 게임 액션 데이터에 표현되는 그래프 정보를 통해 현재 상태에서 실행 가능한 게임 커맨드들이 식별되는,
    게임 커맨드 인식 방법.
  2. 제1항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    상기 사용자 입력으로부터 게임 액션을 정의하기 위해 필요한 엔티티(entity) 및 동작과 관련된 단어를 추출하는,
    게임 커맨드 인식 방법.
  3. 제2항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    상기 사용자 입력으로부터 상기 게임 액션을 정의하기 위해 필요한 반복 횟수와 관련된 단어를 더 추출하는,
    게임 커맨드 인식 방법.
  4. 제1항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    상기 사용자 입력이 텍스트 데이터인 경우, 상기 텍스트 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출하는,
    게임 커맨드 인식 방법.
  5. 제1항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    상기 사용자 입력이 음성 데이터인 경우, 상기 음성 데이터로부터 게임 플레이에서 수행되는 게임 액션과 관련된 게임 커맨드 엘리먼트를 추출하는,
    게임 커맨드 인식 방법.
  6. 제1항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    텍스트 컨볼루셔널 뉴럴 네트워크(text-convolutional neural network) 모델을 이용하여 상기 사용자 입력으로부터 상기 게임 커맨드 엘리먼트를 추출하는,
    게임 커맨드 인식 방법.
  7. 제1항에 있어서,
    상기 게임 커맨드 엘리먼트를 추출하는 단계는,
    상기 수신한 사용자 입력에 복수 개의 게임 커맨드들이 포함된 경우, 상기 사용자 입력을 별개의 독립된 게임 커맨드들로 구분하고,
    상기 독립된 게임 커맨드들 각각으로부터 상기 게임 커맨드 엘리먼트를 추출하는,
    게임 커맨드 인식 방법.
  8. 제1항에 있어서,
    상기 게임 액션 시퀀스 데이터를 생성하는 단계는,
    상기 추출한 게임 커맨드 엘리먼트에 기초하여 상기 게임 액션 데이터로부터 사용자가 의도한 게임 커맨드와 관련된 게임 액션들을 시간의 흐름에 따라 결정하는 단계
    를 포함하는,
    게임 커맨드 인식 방법.
  9. 제1항에 있어서,
    상기 게임 액션 시퀀스 데이터를 생성하는 단계는,
    뉴럴 네트워크 기반의 게임 액션 시퀀스 데이터 생성 모델을 이용하여 상기 게임 액션 시퀀스 데이터를 생성하는,
    게임 커맨드 인식 방법.
  10. 제1항에 있어서,
    상기 게임 액션 시퀀스 데이터는,
    상기 텍스트 데이터 또는 상기 음성 데이터에 포함된 게임 커맨드에 대응하고, 시간의 흐름에 따른 게임 액션들의 집합을 나타내는,
    게임 커맨드 인식 방법.
  11. 삭제
  12. 제1항에 있어서,
    상기 게임 액션 데이터는,
    게임 플레이 상에서 사용자의 현재 상태를 기준 시점(time)으로, 이후에 진행될 수 있는 제1 게임 액션과 상기 제1 게임 액션이 진행된 이후에 진행될 수 있는 제2 게임 액션에 관한 정보를 포함하는,
    게임 커맨드 인식 방법.
  13. 제1항에 있어서,
    상기 게임 액션 시퀀스 데이터를 실행하는 단계는,
    상기 게임 액션 시퀀스 데이터에 따라 자동으로 일련의 게임 액션들을 순차적으로 실행하고, 실행되는 게임 액션들을 화면을 통해 디스플레이하는,
    게임 커맨드 인식 방법.
  14. 제1항 내지 제10항, 제12항 및 제13항 중 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록매체.
  15. 사용자가 입력한 텍스트 데이터를 수신하는 텍스트 데이터 수신부;
    상기 텍스트 데이터가 수신된 경우, 상기 텍스트 데이터에 기초하여 게임 액션 시퀀스를 실행하는 프로세서; 및
    상기 실행되는 게임 액션 시퀀스에 대응하는 화면을 출력하는 디스플레이
    를 포함하고,
    상기 프로세서는, 상기 텍스트 데이터로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성하고,
    상기 게임 액션 데이터는, 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함하고, 각각의 게임 화면에서 수행될 수 있는 게임 액션들의 연결 관계를 나타내며, 사용자에게 제공되는 게임 화면을 정점으로 하고, 사용자의 행동을 간선으로 하여 그래프 형태로 표현한 데이터이고, 게임 프로그램이 업데이트되는 경우에 함께 업데이트되며,
    상기 게임 액션 데이터에 표현되는 그래프 정보를 통해 현재 상태에서 실행 가능한 게임 커맨드들이 식별되는,
    게임 커맨드 인식 장치.
  16. 제15항에 있어서,
    게임 커맨드 입력을 위한 음성 데이터를 수신하는 음성 데이터 수신부
    를 더 포함하는,
    게임 커맨드 인식 장치.
  17. 제16항에 있어서,
    상기 프로세서는,
    상기 음성 데이터를 수신하는 경우, 상기 음성 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 하나 이상의 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성하는,
    게임 커맨드 인식 장치.
  18. 사용자 입력을 수신하는 사용자 입력 수신부;
    뉴럴 네트워크 기반의 게임 커맨드 엘리먼트 추출 모델 및 게임 액션 데이터를 저장하는 데이터베이스; 및
    상기 게임 커맨드 엘리먼트 추출 모델을 이용하여 상기 사용자 입력으로부터 게임 커맨드와 관련된 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 게임 커맨드 엘리먼트 및 상기 게임 액션 데이터를 이용하여 상기 게임 커맨드에 대응되는 게임 액션 시퀀스 데이터를 수행하는 프로세서
    를 포함하고,
    상기 게임 액션 데이터는, 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함하고, 각각의 게임 화면에서 수행될 수 있는 게임 액션들의 연결 관계를 나타내며, 사용자에게 제공되는 게임 화면을 정점으로 하고, 사용자의 행동을 간선으로 하여 그래프 형태로 표현한 데이터이고, 게임 프로그램이 업데이트되는 경우에 함께 업데이트되며,
    상기 게임 액션 데이터에 표현되는 그래프 정보를 통해 현재 상태에서 실행 가능한 게임 커맨드들이 식별되는,
    게임 커맨드 인식 장치.
  19. 제18항에 있어서,
    상기 수행되는 게임 액션 시퀀스 데이터에 따라, 사용자에게 제공되는 게임 화면에 자동으로 수행되는 게임 액션들을 표시하는 디스플레이
    를 더 포함하는,
    게임 커맨드 인식 장치.
  20. 게임 커맨드 입력을 위한 텍스트 데이터가 수신된 경우, 상기 텍스트 데이터에 기초하여 게임 액션 시퀀스를 실행하는 프로세서; 및
    상기 실행되는 게임 액션 시퀀스에 대응하는 화면을 출력하는 디스플레이
    를 포함하고,
    상기 프로세서는, 상기 텍스트 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 하나 이상의 게임 커맨드 엘리먼트 및 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성하고,
    상기 게임 액션 데이터는, 게임 플레이에서의 각 상태들과 각 상태에서 진행될 수 있는 가능한 하나 이상의 게임 액션에 대한 정보를 포함하고, 각각의 게임 화면에서 수행될 수 있는 게임 액션들의 연결 관계를 나타내며, 사용자에게 제공되는 게임 화면을 정점으로 하고, 사용자의 행동을 간선으로 하여 그래프 형태로 표현한 데이터이고, 게임 프로그램이 업데이트되는 경우에 함께 업데이트되며,
    상기 게임 액션 데이터에 표현되는 그래프 정보를 통해 현재 상태에서 실행 가능한 게임 커맨드들이 식별되는,
    게임 커맨드 인식 장치.
  21. 제20항에 있어서,
    상기 프로세서는,
    게임 커맨드 입력을 위한 음성 데이터가 수신된 경우, 상기 음성 데이터로부터 게임 커맨드 데이터와 관련된 하나 이상의 게임 커맨드 엘리먼트를 추출하고, 상기 추출한 하나 이상의 게임 커맨드 엘리먼트 및 상기 게임 액션 데이터를 이용하여 상기 게임 액션 시퀀스 데이터를 생성하는,
    게임 커맨드 인식 장치.
KR1020180117352A 2018-10-02 2018-10-02 게임 커맨드 인식 방법 및 장치 KR101935585B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180117352A KR101935585B1 (ko) 2018-10-02 2018-10-02 게임 커맨드 인식 방법 및 장치
US16/590,586 US20200101383A1 (en) 2018-10-02 2019-10-02 Method and apparatus for recognizing game command

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180117352A KR101935585B1 (ko) 2018-10-02 2018-10-02 게임 커맨드 인식 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180170892A Division KR20200038161A (ko) 2018-12-27 2018-12-27 게임 커맨드 인식 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101935585B1 true KR101935585B1 (ko) 2019-04-05

Family

ID=66104110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180117352A KR101935585B1 (ko) 2018-10-02 2018-10-02 게임 커맨드 인식 방법 및 장치

Country Status (2)

Country Link
US (1) US20200101383A1 (ko)
KR (1) KR101935585B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210031344A (ko) 2019-09-11 2021-03-19 넷마블 주식회사 시동어 인식 기술을 제공하기 위한 컴퓨터 프로그램

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10449440B2 (en) 2017-06-30 2019-10-22 Electronic Arts Inc. Interactive voice-controlled companion application for a video game
US10621317B1 (en) 2017-09-14 2020-04-14 Electronic Arts Inc. Audio-based device authentication system
US10926173B2 (en) * 2019-06-10 2021-02-23 Electronic Arts Inc. Custom voice control of video game character
CN111813828B (zh) * 2020-06-30 2024-02-27 北京百度网讯科技有限公司 一种实体关系挖掘方法、装置、电子设备及存储介质
US10930066B1 (en) 2020-09-11 2021-02-23 Mythical, Inc. Systems and methods for using natural language processing (NLP) to automatically generate three-dimensional objects in a virtual space
US11077367B1 (en) * 2020-10-09 2021-08-03 Mythical, Inc. Systems and methods for using natural language processing (NLP) to control automated gameplay
US20240004913A1 (en) * 2022-06-29 2024-01-04 International Business Machines Corporation Long text clustering method based on introducing external label information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100534502B1 (ko) * 1996-07-11 2006-11-10 가부시키가이샤 세가 음성인식장치,음성인식방법및이것을이용한게임기
KR20180008199A (ko) * 2016-07-15 2018-01-24 삼성전자주식회사 단어 임베딩 방법, 단어 임베딩 장치, 음성 인식 방법 및 음성 인식 장치
KR20180046208A (ko) * 2016-10-27 2018-05-08 삼성전자주식회사 음성 명령에 기초하여 애플리케이션을 실행하는 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100534502B1 (ko) * 1996-07-11 2006-11-10 가부시키가이샤 세가 음성인식장치,음성인식방법및이것을이용한게임기
KR20180008199A (ko) * 2016-07-15 2018-01-24 삼성전자주식회사 단어 임베딩 방법, 단어 임베딩 장치, 음성 인식 방법 및 음성 인식 장치
KR20180046208A (ko) * 2016-10-27 2018-05-08 삼성전자주식회사 음성 명령에 기초하여 애플리케이션을 실행하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210031344A (ko) 2019-09-11 2021-03-19 넷마블 주식회사 시동어 인식 기술을 제공하기 위한 컴퓨터 프로그램

Also Published As

Publication number Publication date
US20200101383A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
KR101935585B1 (ko) 게임 커맨드 인식 방법 및 장치
US10417347B2 (en) Computer messaging bot creation
US10311146B2 (en) Machine translation method for performing translation between languages
CN109102802B (zh) 用于处理用户话语的系统
KR20200059703A (ko) 음성 인식 방법 및 음성 인식 장치
CN109885713A (zh) 基于语音情绪识别的表情图像推荐方法以及装置
US11238097B2 (en) Method and apparatus for recalling news based on artificial intelligence, device and storage medium
JP2019075088A (ja) 文章生成モデルのアップデート方法及び文章生成装置
EP3647936B1 (en) Electronic apparatus and control method thereof
JP6728319B2 (ja) 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム
WO2017218273A1 (en) Computer proxy messaging bot
US20210217409A1 (en) Electronic device and control method therefor
KR20200135607A (ko) 학습 네트워크 모델 기반의 언어 처리 방법 및 장치
CN112970059A (zh) 用于处理用户话语的电子装置及其控制方法
KR101719107B1 (ko) 번역을 위한 서버 및 번역 방법
EP3608772B1 (en) Method for executing function based on voice and electronic device supporting the same
CN111443964B (zh) 更新用户界面的方法、设备和计算机可读存储介质
KR20210083986A (ko) 반지도 학습 기반 단어 단위 감정 임베딩과 lstm 모델을 이용한 대화 내에서 발화의 감정 분류 방법
US20220059088A1 (en) Electronic device and control method therefor
US11151995B2 (en) Electronic device for mapping an invoke word to a sequence of inputs for generating a personalized command
US20210074265A1 (en) Voice skill creation method, electronic device and medium
KR102074764B1 (ko) 모바일 기기의 입력 인터페이스 내에서 맞춤법 검사를 지원하는 방법 및 시스템
CN115438210A (zh) 文本图像生成方法、装置、终端及计算机可读存储介质
CN106716308A (zh) 用于输入地理位置名称的输入法编辑器
CN110738318B (zh) 网络结构运行时间评估及评估模型生成方法、系统和装置