KR20190030314A - Method and apparatus for user interaction - Google Patents

Method and apparatus for user interaction Download PDF

Info

Publication number
KR20190030314A
KR20190030314A KR1020170117593A KR20170117593A KR20190030314A KR 20190030314 A KR20190030314 A KR 20190030314A KR 1020170117593 A KR1020170117593 A KR 1020170117593A KR 20170117593 A KR20170117593 A KR 20170117593A KR 20190030314 A KR20190030314 A KR 20190030314A
Authority
KR
South Korea
Prior art keywords
user
target object
voice
effect
rti
Prior art date
Application number
KR1020170117593A
Other languages
Korean (ko)
Other versions
KR102479705B1 (en
Inventor
이대성
Original Assignee
주식회사 넥슨코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥슨코리아 filed Critical 주식회사 넥슨코리아
Priority to KR1020170117593A priority Critical patent/KR102479705B1/en
Publication of KR20190030314A publication Critical patent/KR20190030314A/en
Application granted granted Critical
Publication of KR102479705B1 publication Critical patent/KR102479705B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided are a method for interaction between a user and a user terminal and an apparatus thereof. For user interaction, the apparatus outputs a screen of content, receives voice of a user for the content, detects a target object of the content based on the voice of the user, determines an effect on the target object based on the voice of the user and the detected target object, and outputs the effect associated with the target object on the screen.

Description

사용자 인터랙션 방법 및 장치{METHOD AND APPARATUS FOR USER INTERACTION}[0001] METHOD AND APPARATUS FOR USER INTERACTION [0002]

기술 분야는 사용자 단말이 사용자와 인터랙션하는 방법 및 장치에 관한 것으로, 특히, 사용자 음성을 통해 사용자와 인터랙션하는 방법 및 장치에 관한 것이다.The technical field relates to a method and apparatus for a user terminal to interact with a user, and more particularly to a method and apparatus for interacting with a user via user voice.

통신망을 통해 복수의 사용자들이 동시에 참여하는 온라인 게임 서비스가 제공된다. 특히 복수의 사용자들이 가상공간에 구현된 게임 맵 또는 공간에서 여러 가지 임무를 수행하는 게임이 제공될 수 있다. 사용자가 다른 사용자와 커뮤니케이션 하는 방법으로 키보드를 통한 채팅 방법 및 스피커 및 마이크를 이용한 대화 방법이 이용될 수 있다.An online game service in which a plurality of users simultaneously participate through a communication network is provided. In particular, a game in which a plurality of users perform various tasks in a game map or space implemented in a virtual space can be provided. A chatting method using a keyboard and a chatting method using a speaker and a microphone can be used as a way for a user to communicate with other users.

게임 진행에 있어서 사용자가 게임 화면에 나타나는 여러 오브젝트들 중 특정한 오브젝트를 다른 사용자들에게 지칭할 수 있다. 동일한 오브젝트를 지칭하는 명칭이 사용자들 간에 상이한 경우, 제1 사용자가 지칭하는 오브젝트가 어떠한 오브젝트인지 제2 사용자가 정확히 이해하지 못할 수 있다. 또한, 제2 사용자가 스피커가 없는 경우, 제2 사용자는 제1 사용자의 대화를 듣지 못할 수 있다.The user can designate a specific object among the various objects displayed on the game screen to other users in the progress of the game. If the name designating the same object is different among users, the second user may not understand exactly what object the first user refers to. Also, if the second user does not have a speaker, the second user may not hear the conversation of the first user.

한국특허공개번호 제2015-0025242호(공개일 2015년 04월 30일)에는 사용자 인터랙션 장치 및 그 방법이 개시되어 있다. 공개 발명의 사용자 인터랙션 장치는, 외부로부터 상대방측 감지신호를 수신하는 무선통신모듈, 사용자 또는 주변의 상태를 감지하여 사용자측 감지신호를 생성하는 센서부, 무선통신모듈로부터 상대방측 감지신호를 수신하고 센서부로부터 사용자측 감지신호를 수신하며, 상대방측 감지신호에 포함되는 적어도 하나의 상대방측 센싱데이터 및 사용자측 감지신호에 포함되는 적어도 하나의 사용자측 센싱데이터의 비교 결과에 따라 인터랙션 제어신호를 생성하여 출력하는 장치 제어부, 및 장치 제어부로부터 상기 인터랙션 제어신호를 수신하고, 인터랙션 제어신호에 대응되는 인터랙션을 출력하는 인터랙션 출력부를 포함한다.Korean Patent Laid-Open Publication No. 2015-0025242 (published on Apr. 30, 2015) discloses a user interaction apparatus and a method thereof. The user interaction apparatus of the present invention includes a wireless communication module for receiving a counterpart side sensing signal from the outside, a sensor unit for sensing a state of a user or a surrounding and generating a user sensing signal, For generating an interaction control signal according to a comparison result of at least one user side sensing data included in at least one counterpart side sensing data included in the counterpart side sensing signal and a user side sensing signal, And an interaction output unit for receiving the interaction control signal from the device control unit and outputting an interaction corresponding to the interaction control signal.

일 실시예는 사용자와 인터랙션하는 방법 및 장치를 제공할 수 있다.One embodiment may provide a method and apparatus for interacting with a user.

일 실시예는 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 사용자 인터랙션 방법 및 장치를 제공할 수 있다.One embodiment can provide a user interaction method and apparatus for changing a screen of contents based on user voice.

일 측면에 따른, 컨텐츠에 대한 사용자 인터랙션(user interaction) 방법은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for user interaction with content, the method comprising: outputting a screen of the content; receiving a user's voice for the content; Determining an effect that represents an action on the target object based on the user's voice and the detected target object; and determining the effect, .

상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.The detecting the target object may include determining a voice identifier (ID) corresponding to the voice of the user, and determining the target object corresponding to the voice ID.

상기 사용자 인터랙션 방법은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 포함하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.Wherein the user interaction method further includes a step of previously setting the voice ID corresponding to the target object, and the step of previously setting the voice ID corresponding to the target object includes receiving a user voice for the target object Generating the voice ID for the target object based on the user voice, and associating the voice ID with the target object.

상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.The detecting the target object may further include outputting the target object to the screen when the target object is not output to the screen.

상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.The target object may be a display board for outputting the effect as text.

상기 사용자 인터랙션 방법은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 포함하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.The user interaction method further comprises receiving an additional user input of the user and detecting the target object may be performed when the additional user input is received.

상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.The additional user input may be at least one of a touch input, a cursor input, and a preset key input.

상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.The step of determining an effect that represents an action on the target object may include determining an action ID corresponding to the user's voice and determining the effect corresponding to the action ID.

상기 사용자 인터랙션 방법은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 포함하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.Wherein the user interaction method further comprises the step of previously setting the behavior ID corresponding to the effect and the step of presetting the behavior ID corresponding to the effect comprises the steps of receiving a user voice for the effect, Generating the behavior ID for the effect based on the user voice, and associating the behavior ID with the effect.

상기 사용자 인터랙션 방법은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 포함할 수 있다.The user interaction method may further include outputting the target ID and the action ID as text.

다른 일 측면에 따른, 사용자 인터랙션 어플리케이션은, 사용자 단말에 저장되고, 상기 사용자 단말이, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 실행하도록 상기 사용자 단말을 제어한다.According to another aspect, a user interaction application is stored in a user terminal, the user terminal outputting a screen of the content, receiving a user's voice for the content, The method comprising: detecting a target object of the content; determining an effect representing an action for the target object based on the user's voice and the detected target object; And outputting the result to the user terminal.

또 다른 일 측면에 따른, 사용자 인터랙션 방법을 수행하는, 사용자 단말은, 사용자 인터랙션을 제공하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 수행한다.According to another aspect of the present invention, a user terminal for performing a user interaction method includes a memory in which a program for providing a user interaction is recorded, and a processor for executing the program, Detecting a target object of the content based on the user's voice, detecting a target object of the user based on the user's voice and the detected target object, Determining an effect that represents an action, and outputting the effect in association with the target object on the screen.

상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.The detecting the target object may include determining a voice identifier (ID) corresponding to the voice of the user, and determining the target object corresponding to the voice ID.

상기 프로그램은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 수행하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.The program further includes a step of previously setting the voice ID corresponding to the target object, and the step of setting the voice ID corresponding to the target object in advance includes the step of receiving a user voice for the target object Generating the voice ID for the target object based on the user voice, and associating the voice ID with the target object.

상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.The detecting the target object may further include outputting the target object to the screen when the target object is not output to the screen.

상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.The target object may be a display board for outputting the effect as text.

상기 프로그램은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 수행하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.The program further comprises receiving additional user input of the user and detecting the target object may be performed when the further user input is received.

상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.The additional user input may be at least one of a touch input and a preset key input.

상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.The step of determining an effect that represents an action on the target object may include determining an action ID corresponding to the user's voice and determining the effect corresponding to the action ID.

상기 프로그램은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 수행하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.Wherein the program further performs the step of previously setting the behavior ID corresponding to the effect and the step of presetting the behavior ID corresponding to the effect comprises the steps of receiving a user voice for the effect, Generating the behavior ID for the effect based on speech, and associating the behavior ID with the effect.

상기 프로그램은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 수행할 수 있다.The program may further include outputting the target ID and the behavior ID as text.

사용자 음성에 기초하여 사용자와 사용자 단말 간에 인터랙션하는 방법 및 장치가 제공될 수 있다.A method and apparatus for interacting between a user and a user terminal based on user voice may be provided.

사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법 및 장치가 제공될 수 있다.The effect of the target object corresponding to the instruction of the user's voice is output to the screen so that the user without the speaker can confirm the contents of the instruction.

도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.
도 2는 일 실시예에 따른 사용자 단말 구성도이다.
도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.
도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.
도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.
도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.
도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.
도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.
도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.
도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
1 shows a content providing system according to an example.
2 is a block diagram of a user terminal according to an exemplary embodiment of the present invention.
3 is a flow diagram of a user interaction method in accordance with an embodiment.
4 is a flowchart of a method of presetting a voice ID corresponding to a target object according to an example.
5 is a flowchart of a method of detecting a target object of contents according to an example.
FIG. 6 shows a screen of content according to an example.
7 shows a screen of contents according to another example.
8 is a flow diagram of a method for receiving additional user input according to an example.
9 is a flowchart of a method for presetting an action ID corresponding to an effect according to an example.
10 is a flowchart of a method for determining an effect that represents an action for a target object according to an example.
FIG. 11 shows a screen of contents outputting an effect on a target object according to an example.
FIG. 12 shows a screen of a content outputting an effect on a target object according to another example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.

도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.1 shows a content providing system according to an example.

컨텐츠 제공 시스템(100)은 서버(110) 및 복수의 사용자 단말들(120 및 130)을 포함한다. 서버(110)는 복수의 사용자 단말(120 및 130) 각각으로 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 온라인을 통해 제공되는 게임일 수 있다.The content providing system 100 includes a server 110 and a plurality of user terminals 120 and 130. The server 110 may provide the content to each of the plurality of user terminals 120 and 130. For example, the content may be a game provided online.

일 측면에 따르면, 사용자 단말(120)은 서버(110)로부터 컨텐츠를 실행하기 위한 리소스 데이터를 수신하고, 사용자 단말(120)은 리소스 데이터를 통해 컨텐츠를 서버(110)로부터 제공받을 수 있다. 리소스 데이터는 소프트웨어의 형태로 제공될 수 있다. 예를 들어, 소프트웨어는 어플리케이션일 수 있다. 사용자 단말(120)은 리소스 데이터를 이용하여 컨텐츠를 실행하고, 컨텐츠의 진행을 위한 추가의 데이터를 서버(110)로부터 수신할 수 있다. 서버(110)는 사용자 단말(120)과 데이터를 교환하면서 컨텐츠를 제공할 수 있다.According to an aspect, a user terminal 120 receives resource data for executing content from a server 110, and a user terminal 120 can receive content from a server 110 via resource data. The resource data may be provided in the form of software. For example, the software may be an application. The user terminal 120 can execute the content using the resource data and receive additional data for the progress of the content from the server 110. [ The server 110 may exchange content with the user terminal 120 to provide content.

복수의 사용자 단말들(120 및 130)은 동시에 컨텐츠를 이용할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 동일한 팀에 포함되거나, 서로 다른 팀에 포함되어 컨텐츠를 이용할 수 있다.The plurality of user terminals 120 and 130 may simultaneously use the contents. For example, users of the plurality of user terminals 120 and 130 may be included in the same team or may be included in different teams to use the content.

복수의 사용자 단말들(120 및 130)이 동시에 컨텐츠를 이용하는 경우, 복수의 사용자 단말들(120 및 130)은 동일한 화면이 출력될 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 복수의 사용자 단말들(120 및 130)에게 동일한 화면이 출력될 수 있다.When a plurality of user terminals 120 and 130 use the content at the same time, the plurality of user terminals 120 and 130 may output the same screen. For example, if a plurality of user terminals 120 and 130 are included in the same team, the same screen may be output to the plurality of user terminals 120 and 130. [

복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 다른 팀과의 경기에서 승리하기 위해 복수의 사용자 단말들(120 및 130)의 사용자들은 커뮤니케이션(communication)할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 작전을 위해 커뮤니케이션 할 수 있다. 사용자들은 메시지를 교환하거나 음성을 통해 커뮤니케이션할 수 있다. 메시지를 교환하는 방식은 빠르게 발생하는 사건에 대해 신속하게 대응할 수 없다. 음성을 이용하는 방식은 사건에 대해 신속하게 대응할 수 있으나, 음성을 수신하고 출력하는 장치가 추가로 요구된다.When a plurality of user terminals 120 and 130 are included in the same team, the users of the plurality of user terminals 120 and 130 may communicate to win a match with another team. For example, users of a plurality of user terminals 120 and 130 may communicate for operations. Users can exchange messages or communicate via voice. The way messages are exchanged can not respond quickly to incidents that occur quickly. The method using voice can respond quickly to an event, but an apparatus for receiving and outputting voice is further required.

음성을 이용하는 방식은 복수의 사용자 단말들(120 및 130)이 각각 마이크 및 스피커를 포함할 것이 요구된다. 예를 들어, 복수의 사용자 단말들(120 및 130) 중 사용자 단말(130)에 스피커가 없는 경우 음성을 이용하는 방식이 이용될 수 없다. 다른 예로, 사용자 단말(130)에 스피커가 있더라도 공공 장소와 같이 사용자 단말(130)의 스피커를 켤 수 없는 경우에는 음성을 이용하는 방식이 이용될 수 없다.The manner of using the voice requires that a plurality of user terminals 120 and 130 each include a microphone and a speaker. For example, if there is no speaker at the user terminal 130 of the plurality of user terminals 120 and 130, a method using voice can not be used. As another example, in the case where the speaker of the user terminal 130 can not be turned on, such as a public place, even if the user terminal 130 has a speaker, a method of using the voice can not be used.

일 측면에 따르면, 사용자 단말(120) 및 사용자 단말(130)에는 동일한 컨텐츠의 화면이 출력될 수 있으므로, 사용자 단말(120)의 사용자는 사용자 단말(120)에 출력되는 화면을 변경함으로써 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 예를 들어, 사용자 단말(130)의 스피커가 활성화되지 않더라도, 사용자 단말(120)의 사용자가 입력한 사용자 음성에 기초하여 텍스트 또는 그래픽 효과가 사용자 단말(130)의 화면에 출력되는 경우 사용자 단말(120)의 사용자는 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 사용자 단말(120)의 사용자가 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 것은 사용자 및 사용자 단말(120) 간의 사용자 인터랙션일 수 있다.According to an aspect of the present invention, a screen of the same content may be output to the user terminal 120 and the user terminal 130, so that the user of the user terminal 120 may change the screen displayed on the user terminal 120, 130). ≪ / RTI > For example, even if the speaker of the user terminal 130 is not activated, when a text or graphic effect is output on the screen of the user terminal 130 based on the user voice inputted by the user of the user terminal 120, 120 may communicate with a user of the user terminal 130. The user of the user terminal 120 may change the screen of the content based on the user's voice may be a user interaction between the user and the user terminal 120.

아래에서 도 2 내지 도 12를 참조하여 사용자 인터랙션 방법에 대해 상세히 설명된다.The user interaction method will be described in detail below with reference to Figs. 2 to 12. Fig.

도 2는 일 실시예에 따른 사용자 단말 구성도이다.2 is a block diagram of a user terminal according to an exemplary embodiment of the present invention.

사용자 단말(200)은 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 사용자 단말(200)은 도 1을 참조하여 전술된 사용자 단말(120) 또는 사용자 단말(130)에 대응할 수 있다.The user terminal 200 includes a communication unit 210, a processor 220, and a memory 230. For example, the user terminal 200 may correspond to the user terminal 120 or the user terminal 130 described above with reference to FIG.

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit / receive data. Hereinafter, the expression " transmit / receive " A may indicate transmission / reception of " information or data representing A ".

통신부(210)는 사용자 단말(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 서버(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as a circuitry in the user terminal 200. For example, the communication unit 210 may include an internal bus and an external bus. As another example, the communication unit 210 may be an element for connecting the server 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 can receive data from an external device and transmit data to the processor 220 and the memory 230. [

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes the data received by the communication unit 210 and the data stored in the memory 230. &Quot; Processor " may be a data processing device embodied in hardware having circuitry having a physical structure for performing desired operations. For example, the desired actions may include code or instructions included in the program. For example, a data processing apparatus embodied in hardware may be a microprocessor, a central processing unit, a processor core, a multi-core processor, a multiprocessor, , An application-specific integrated circuit (ASIC), and a field programmable gate array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.The processor 220 executes computer readable code (e.g., software) stored in a memory (e.g., memory 230) and instructions triggered by the processor 220.

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 사용자 인터랙션할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220. [ For example, the memory 230 may store a program. The stored program may be a set of syntaxes that are coded for user interaction and executable by the processor 220.

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to an aspect, the memory 230 may include one or more volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 사용자 단말(200)을 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 사용자 단말(200)을 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores a set of instructions (e.g., software) that operate the user terminal 200. The instruction set that operates the user terminal 200 is executed by the processor 220. [

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 11을 참조하여 상세히 설명된다.The communication unit 210, the processor 220, and the memory 230 will be described in detail below with reference to Figs. 3 to 11.

도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.3 is a flow diagram of a user interaction method in accordance with an embodiment.

아래의 단계들(310 내지 350)은 도 2를 참조하여 전술된 사용자 단말(200)에 의해 수행된다.The following steps 310 to 350 are performed by the user terminal 200 described above with reference to FIG.

단계(310)에서, 프로세서(220)는 디스플레이(미도시)를 이용하여 컨텐츠의 화면을 출력한다. 예를 들어, 컨텐츠가 게임인 경우, 출력되는 화면은 게임의 진행 상황일 수 있다. 화면은 이미지(image)일 수 있다. 출력되는 화면에 대한 실시예들이 도 6 및 7을 참조하여 상세히 설명된다.At step 310, the processor 220 outputs a screen of the content using a display (not shown). For example, if the content is a game, the output screen may be the progress of the game. The screen may be an image. Embodiments of the output screen will be described in detail with reference to Figs. 6 and 7. Fig.

단계(320)에서, 통신부(210)는 사용자 인터페이스(미도시)를 통해 사용자의 음성을 수신한다. 예를 들어, 사용자 인터페이스는 마이크일 수 있다. 일 측면에 따르면, 사용자의 음성은 타겟 오브젝트를 지칭하는 부분 및 효과를 지칭하는 부분을 모두 포함할 수 있다. 예를 들어, 사용자 음성이 '타워 공격'인 경우, '타워'는 타겟 오브젝트를 지칭하는 부분이고, '공격'은 효과를 지칭하는 부분일 수 있다.In step 320, the communication unit 210 receives the user's voice through a user interface (not shown). For example, the user interface may be a microphone. According to one aspect, the user's voice may include both a portion designating a target object and a portion designating an effect. For example, if the user voice is a 'tower attack', the 'tower' may refer to a target object and the 'attack' may be a portion that refers to an effect.

단계(330)에서, 프로세서(220)는 사용자의 음성에 기초하여 컨텐츠의 타겟 오브젝트를 검출한다. 타겟 오브젝트는 컨텐츠의 복수의 오브젝트들 중 사용자가 지정하고자 하는 오브젝트일 수 있다. 예를 들어, 컨텐츠의 복수의 오브젝트들은 컨텐츠가 제공하는 아이템 및 그래픽 오브젝트를 포함할 수 있다. 타겟 오브젝트를 검출하는 방법에 대해, 아래에서 도 4 내지 7을 참조하여 상세히 설명된다.At step 330, the processor 220 detects the target object of the content based on the user's voice. The target object may be an object that a user desires to specify among a plurality of objects of the content. For example, the plurality of objects of the content may include an item and a graphic object provided by the content. A method of detecting a target object will be described in detail below with reference to Figs.

단계(340)에서, 프로세서(220)는 사용자의 음성 및 타겟 오브젝트에 기초하여 타겟 오브젝트에 대한 효과(effect) 오브젝트를 결정한다. 예를 들어, 효과 오브젝트는 그래픽 이미지일 수 있다. 이하에서 효과 오브젝트는 약술된다.At step 340, the processor 220 determines an effect object for the target object based on the user ' s voice and the target object. For example, the effect object may be a graphic image. The effect objects are outlined below.

타겟 오브젝트에 대한 행동은 사용자 단말(200)의 사용자와 함께 컨텐츠를 이용하는 다른 사용자에게 사용자 단말(200)의 사용자가 전달하고자 하는 메시지일 수 있다. 예를 들어, 타겟 오브젝트에 대한 '공격'은 타겟 오브젝트에 대한 행동일 수 있다. 다른 예로, 타겟 오브젝트에서의 '유닛 생산'은 타겟 오브젝트에 대한 행동일 수 있다.The action for the target object may be a message that the user of the user terminal 200 wants to deliver to another user who uses the content together with the user of the user terminal 200. [ For example, an 'attack' on a target object may be an action on the target object. As another example, 'unit production' in the target object may be an action on the target object.

효과는 타겟 오브젝트에 대한 행동을 나타낼 수 있다. 출력된 효과를 본 다른 사용자들은 효과에 해당하는 행동을 수행할 수 있다. 효과는 상기의 행동을 소리가 아닌 다른 방식으로 다른 사용자에게 알려주는 것일 수 있다. 예를 들어, 다른 사용자에게 '공격'이라는 행동을 지시하기 위해, 텍스트 또는 그래픽 효과로 '공격'이 화면에 출력될 수 있다.The effect may indicate an action on the target object. Other users who view the output effect can perform actions corresponding to the effect. The effect may be to inform other users of the behavior in a manner other than sound. For example, an 'attack' may be displayed on the screen with a text or graphic effect to direct an 'attack' action to another user.

타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법에 대해, 아래에서 도 9 및 10을 참조하여 상세히 설명된다.A method for determining an effect that represents behavior for a target object is described in detail below with reference to Figures 9 and 10.

단계(350)에서, 프로세서(220)는 디스플레이를 통해 효과를 타겟 오브젝트와 연관하여 화면에 출력한다. 프로세서(220)는 현재의 게임 상황을 출력하는 화면에 효과를 부가하여 출력할 수 있다. 예를 들어, 출력된 효과는 미리 설정된 시간 동안 유지될 수 있다. 다른 예로, 출력된 효과는 다른 효과가 출력될 때까지 유지될 수 있다.At step 350, the processor 220 associates the effect with the target object via the display and outputs it to the screen. The processor 220 can output an effect added to the screen for outputting the current game situation. For example, the output effect may be maintained for a predetermined time. As another example, the output effect may be maintained until another effect is output.

도시되지는 않았으나, 프로세서(220)는 타겟 ID 및 행동 ID를 추가적으로 텍스트로 출력할 수 있다. 예를 들어, 사용자 음성의 내용이 타워를 공격하라는 내용인 경우, '타워 공격'의 텍스트가 출력될 수 있다. 다른 예로, 개인화되지 않은 타겟 오브젝트의 명칭 및 행동 ID가 텍스트로 출력될 수 있다.Although not shown, the processor 220 may further output the target ID and the action ID as text. For example, if the contents of the user voice are to attack the tower, the text of the 'tower attack' may be output. As another example, the name and behavior ID of the non-personalized target object may be output as text.

단계들(310 내지 350)을 통해 사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 복수의 사용자들의 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법이 제공될 수 있다.An effect on the target object corresponding to the instruction of the user's voice is outputted on the screen of the plurality of users through the steps 310 to 350 so that the user without the speaker can check the contents of the instruction as well .

효과를 화면에 출력하는 방법에 대해, 아래에서 도 11 및 도 12를 참조하여 상세히 설명된다. A method of outputting the effect to the screen will be described in detail below with reference to Figs. 11 and 12. Fig.

도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.4 is a flowchart of a method of presetting a voice ID corresponding to a target object according to an example.

도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(410)가 수행될 수 있다. 단계(410)는 타겟 오브젝트에 대응하는 음성 식별자(Identifier: ID)를 미리 설정하는 단계이다. 단계(410)는 아래의 단계들(412, 414 및 416)을 포함한다.The following step 410 may be performed before step 310 described above with reference to Figure 3 is performed. Step 410 is a step of previously setting a voice identifier (ID) corresponding to the target object. Step 410 includes the following steps 412, 414, and 416.

사용자 단말(200)의 사용자는 컨텐츠의 오브젝트를 지칭하는 명칭을 개인화할 수 있다. 예를 들어, 사용자는 사석포(bombard)에 대응하는 오브젝트를 대포(cannon)로 지칭할 수 있다. 사용자가 자신이 사용하고자 하는 명칭으로 오브젝트를 지칭할 수 있다. 일 측면에 따르면, 사용자는 자신의 음성으로 오브젝트의 명칭을 설정할 수 있다.The user of the user terminal 200 may personalize the name designating the object of the content. For example, a user may refer to an object corresponding to a bombard as a cannon. The user can refer to the object by the name that he wants to use. According to one aspect, a user can set the name of an object with his voice.

단계(412)에서, 통신부(210)는 사용자 인터페이스를 통해 사용자의 음성을 수신한다. 사용자는 오브젝트의 명칭을 개인화하기 위해 사용자 단말(200)에서 복수의 오브젝트들 중 타겟 오브젝트를 선택하고, 선택된 타겟 오브젝트를 지칭하는 사용자 음성을 사용자 단말(200)로 전송한다. 예를 들어, 사용자는 사용자 단말(200)에서 복수의 오브젝트들 중 사석포를 선택하고, 사석포를 지칭하는 대포의 사용자 음성을 사용자 단말(200)의 마이크로 전송한다.In step 412, the communication unit 210 receives the user's voice through the user interface. A user selects a target object among a plurality of objects in the user terminal 200 in order to personalize the name of the object and transmits a user voice to the user terminal 200 indicating the selected target object. For example, the user selects a virtual camera among a plurality of objects in the user terminal 200, and micro-transfers the user's voice of the artillery pointing to the virtual camera to the user terminal 200.

단계(414)에서, 프로세서(220)는 사용자 음성에 기초하여 타겟 오브젝트에 대한 음성 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 생성할 수 있다. 프로세서(220)는 DFT(Digitized Fourier Transform) 및 FFT(Fast Fourier Transform)를 이용하여 사용자 음성의 특징점을 생성할 수 있다.At step 414, the processor 220 generates a voice ID for the target object based on the user voice. For example, the processor 220 may generate the feature points of the user voice and generate the generated feature points as the voice ID. The processor 220 may generate feature points of user speech using a DFT (Digitized Fourier Transform) and an FFT (Fast Fourier Transform).

단계(416)에서, 프로세서(220)는 음성 ID를 타겟 오브젝트에 연관할 수 있다. 예를 들어, 대포의 음성 ID를 사석포에 연관시킬 수 있다.At step 416, the processor 220 may associate the voice ID with the target object. For example, the voice ID of a cannon can be associated with a satellite.

도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.5 is a flowchart of a method of detecting a target object of contents according to an example.

도 3을 참조하여 전술된 단계(330)는 아래의 단계들(510, 520 및 530)을 포함할 수 있다.Step 330 described above with reference to FIG. 3 may include the following steps 510, 520, and 530.

단계(510)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 음성 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 결정할 수 있다.At step 510, the processor 220 determines a voice ID corresponding to the voice of the received user. For example, the processor 220 can generate the feature points of the user's voice using DFT and FFT, and determine the generated feature points as the voice ID.

단계(520)에서, 프로세서(220)는 음성 ID에 대응하는 타겟 오브젝트를 결정한다. 예를 들어, 프로세서(220)는 복수의 오브젝트들에 연관된 각각의 음성 ID들 중 생성된 음성 ID와 유사도가 가장 높은 오브젝트를 타겟 오브젝트로 결정할 수 있다.At step 520, the processor 220 determines a target object corresponding to the voice ID. For example, the processor 220 may determine, as a target object, an object having the highest degree of similarity to the voice ID generated among the respective voice IDs associated with the plurality of objects.

단계(530)에서, 프로세서(220)는 타겟 오브젝트가 화면에 출력되지 않은 경우 타겟 오브젝트를 화면에 출력한다. 예를 들어, 타겟 오브젝트가 전광판이고, 전광판이 화면에 출력되지 않은 경우, 전광판을 추가적으로 화면에 출력될 수 있다. 전광판은 효과로서 텍스트 또는 그래픽 이미지를 출력할 수 있다.At step 530, the processor 220 outputs the target object to the screen if the target object is not output to the screen. For example, if the target object is a light bulb and the light bulb is not output to the screen, the light bulb can be additionally displayed on the screen. The electric signboard can output a text or graphic image as an effect.

도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.FIG. 6 shows a screen of content according to an example.

도시된 화면(600)의 컨텐츠는 게임이고, 게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 제1 팀은 복수의 오브젝트들(610, 620 및 630)을 이용하여 게임을 진행하고, 제2 팀은 복수의 오브젝트들(640, 650 및 660)을 이용하여 게임을 진행한다.The content of the screen 600 shown in the figure is a game, and the game can proceed in opposition to two teams. The first team proceeds with the game using the plurality of objects 610, 620, and 630, and the second team proceeds with the game using the plurality of objects 640, 650, and 660.

복수의 사용자들로 제2 팀이 구성되는 경우, 제2 팀의 사용자는 같은 팀의 다른 사용자에게 사용자 음성으로 자신의 의견을 전송할 수 있다. 예를 들어, 사용자는 적 팀의 특정 오브젝트를 공격하자는 의견을 전송할 수 있다. 스피커가 없는 사용자는 사용자 음성을 수신할 수 없으므로, 다른 사용자들과 커뮤니케이션할 수 없다.When a second team is composed of a plurality of users, the users of the second team can transmit their opinions to the other users of the same team with the user's voice. For example, a user can send an opinion to attack a specific object of an enemy team. Users without speakers can not communicate with other users because they can not receive user voice.

도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.7 shows a screen of contents according to another example.

도시된 화면(700)의 컨텐츠는 슈팅 게임이고, 슈팅게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 사용자는 전광판(710)을 통해 다른 사용자들에게 의견을 전송할 수 있다. 실시예에 따라 전광판(710)은 동일 팀에게만 출력되거나, 모든 사용자들에게 출력될 수 있다. 일 측면에 따르면, 전광판(710)은 컨텐츠 내에서 아이템으로 구현될 수 있다. 예를 들어, 아이템은 구매한 사용자에게만 제공될 수 있다.The content of the displayed screen 700 is a shooting game, and the shooting game may proceed against two teams. The user can transmit the opinion to other users through the electric sign board 710. [ According to the embodiment, the electric sign board 710 can be output to only the same team or all users. According to one aspect, the electronic sign 710 can be implemented as an item in the content. For example, an item may be provided only to the purchaser.

사용자가 전광판(710)을 지칭하는 사용자 음성을 사용자 단말(200)로 전달한 경우, 사용자 단말(200)은 타겟 오브젝트로서 전광판(710)을 결정하고, 전광판(710)이 화면(700)에 출력되지 않은 경우, 전광판(710)을 화면(700)에 출력한다.The user terminal 200 determines the electric signboard 710 as the target object and the electric signboard 710 is not output on the screen 700 when the user transfers a user voice to the user terminal 200 indicating the electric signboard 710 And outputs the electric sign board 710 to the screen 700 if it does not exist.

도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.8 is a flow diagram of a method for receiving additional user input according to an example.

일 실시예에 따르면, 도 3을 참조하여 전술된 단계(330)는 아래의 단계(810)의 판단 결과에 기초하여 수행될 수 있다. 단계(810)는 도 3을 참조하여 전술된 단계(310)가 수행된 후 수행될 수 있다.According to one embodiment, step 330 described above with reference to FIG. 3 may be performed based on the determination result of step 810 below. Step 810 may be performed after step 310 described above with reference to FIG. 3 is performed.

단계(810)에서, 프로세서(220)는 추가 사용자 입력이 수신되었는지 여부를 판단한다. 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다. 사용자 단말(200)의 사용자 인터페이스가 터치 패널을 포함하는 경우, 사용자 단말(200)은 터치 패널을 통해 터치 입력을 수신할 수 있다. 커서 입력이 마우스 등을 통해 수신될 수 있다. 미리 설정된 키 입력은 키보드를 통해 수신될 수 있다. 미리 설정된 키는 게임의 진행을 위해 사용되지 않는 키일 수 있다.At step 810, the processor 220 determines whether additional user input has been received. The additional user input may be at least one of a touch input, a cursor input, and a preset key input. When the user interface of the user terminal 200 includes a touch panel, the user terminal 200 may receive the touch input through the touch panel. The cursor input may be received via a mouse or the like. The preset key input can be received via the keyboard. The preset key may be a key that is not used for the progress of the game.

일 측면에 따르면, 도 3을 참조하여 전술된 단계(320)가 추가 사용자 입력이 진행되는 기간에 수행될 수 있다. 예를 들어, 터치 입력이 진행되는 기간에만 타겟 오브젝트의 결정을 위한 사용자 음성이 수신될 수 있다. 다른 예로, 수신된 사용자 음성 중 터치 입력이 진행되는 기간에 수신된 사용자 음성의 일부분이 타겟 오브젝트의 결정을 위해 사용될 수 있다.According to one aspect, step 320, described above with reference to FIG. 3, may be performed during a period of further user input. For example, a user voice for determination of the target object can be received only during a period in which the touch input is in progress. As another example, a portion of the received user voice may be used for determination of the target object during a period of time during which the touch input is in progress.

도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.9 is a flowchart of a method for presetting an action ID corresponding to an effect according to an example.

도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(910)가 수행될 수 있다. 단계(910)는 효과에 대응하는 행동 ID를 미리 설정하는 단계이다. 단계(910)는 아래의 단계들(912, 914 및 916)을 포함한다.The following step 910 may be performed before step 310 described above with reference to Figure 3 is performed. Step 910 is a step of presetting an action ID corresponding to the effect. Step 910 includes the following steps 912, 914, and 916.

사용자 단말(200)의 사용자는 타겟 오브젝트에 대한 행동을 나타내는 효과의 명칭을 개인화할 수 있다. 예를 들어, 사용자는 타겟 오브젝트를 공격하는 행동을 나타내는 효과를 자신의 음성으로 설정할 수 있다.The user of the user terminal 200 may personalize the name of the effect that represents the action on the target object. For example, the user can set an effect indicating the behavior of attacking the target object to his own voice.

단계(912)에서, 통신부(210)는 효과에 대한 사용자 음성을 수신한다. 예를 들어, 그래픽 효과인 '공격'에 대해 공격이라고 발음함으로써 사용자 음성을 사용자 단말(200)로 전송한다.In step 912, the communication unit 210 receives the user voice for the effect. For example, the user's voice is transmitted to the user terminal 200 by pronouncing an attack against the graphical effect 'attack'.

단계(914)에서, 프로세서(220)는 사용자 음성에 기초하여 효과에 대한 행동 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 생성할 수 있다. 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성할 수 있다.At step 914, the processor 220 generates an action ID for the effect based on the user's voice. For example, the processor 220 may generate the feature points of the user voice and generate the generated feature points with the behavior ID. The processor 220 may generate the feature points of the user speech using DFT and FFT.

단계(916)에서, 프로세서(220)는 행동 ID를 효과에 연관할 수 있다.At step 916, the processor 220 may associate the behavior ID with the effect.

도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.10 is a flowchart of a method for determining an effect that represents an action for a target object according to an example.

도 3을 참조하여 전술된 단계(340)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.The above-described step 340 with reference to FIG. 3 may include the following steps 1010 and 1020.

단계(1010)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 행동 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 결정할 수 있다.In step 1010, the processor 220 determines an action ID corresponding to the received voice of the user. For example, the processor 220 may generate feature points of user speech using DFT and FFT, and may determine the generated feature points as behavior IDs.

단계(520)에서, 프로세서(220)는 행동 ID에 대응하는 효과를 결정한다. 예를 들어, 프로세서(220)는 복수의 효과들에 연관된 각각의 행동 ID들 중 생성된 행동 ID와 유사도가 가장 높은 효과를 타겟 효과로 결정할 수 있다.At step 520, the processor 220 determines the effect corresponding to the behavior ID. For example, the processor 220 may determine the target effect to have the highest similarity to the generated behavior ID among the respective action IDs associated with the plurality of effects.

도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.FIG. 11 shows a screen of contents outputting an effect on a target object according to an example.

예를 들어, 컨텐츠의 오브젝트들(610 내지 660) 중 오브젝트(610)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '공격'의 이미지(1110)가 결정된다.For example, the object 610 of the objects 610 to 660 of the content is determined as the target object, and the image 1110 of the 'attack' is determined as the effect on the target object.

프로세서(220)는 오브젝트(610)와 이미지(1110)를 연관하여 화면(1100)에 출력한다. 예를 들어, 프로세서(220)는 오브젝트(610)와 이미지(1110)의 출력 위치에 기초하여 화살표의 방향을 조정할 수 있다.Processor 220 associates image 610 with image 1110 and outputs it to screen 1100. For example, the processor 220 may adjust the direction of the arrow based on the output position of the object 610 and the image 1110.

화면(1100)은 사용자 단말(200)의 사용자 이외의 다른 사용자들의 단말들에도 출력될 수 있다. 예를 들어, 사용자 단말(200)의 사용자와 동일한 팀에 속한 사용자들의 단말들에 의해 화면(1100)이 출력될 수 있다. 다른 사용자들은 오브젝트(610)에 대해 출력된 이미지(1110)를 보고, 오브젝트(610)를 공격할 수 있다.The screen 1100 may also be output to terminals of users other than the user of the user terminal 200. For example, the screen 1100 can be output by the terminals of the users belonging to the same team as the user of the user terminal 200. Other users may view the output image 1110 for the object 610 and attack the object 610.

도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.FIG. 12 shows a screen of a content outputting an effect on a target object according to another example.

예를 들어, 컨텐츠의 오브젝트(710)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '안녕'의 텍스트(1210)가 결정된다. 텍스트(1210)가 전광판(710) 내에 출력되도록 연관될 수 있다.For example, the object 710 of the content is determined as the target object, and the text 1210 of the 'goodbye' is determined as an effect on the target object. Text 1210 may be associated to be output within electronic sign 710. [

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

200: 사용자 단말
210: 통신부
220: 프로세서
230: 메모리
200: user terminal
210:
220: Processor
230: Memory

Claims (22)

컨텐츠에 대한 사용자 인터랙션(user interaction) 방법에 있어서,
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 포함하는,
사용자 인터랙션 방법.
A user interaction method for content, the method comprising:
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
/ RTI >
User interaction method.
제1항에 있어서,
상기 타겟 오브젝트를 검출하는 단계는,
상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
를 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Wherein the step of detecting the target object comprises:
Determining a voice identifier (ID) corresponding to the voice of the user; And
Determining the target object corresponding to the voice ID
/ RTI >
User interaction method.
제2항에 있어서,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
를 더 포함하고,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계
를 포함하는,
사용자 인터랙션 방법.
3. The method of claim 2,
Setting the voice ID corresponding to the target object in advance
Further comprising:
The step of previously setting the voice ID corresponding to the target object comprises:
Receiving a user voice for the target object;
Generating the voice ID for the target object based on the user voice; And
Associating the speech ID with the target object
/ RTI >
User interaction method.
제2항에 있어서,
상기 타겟 오브젝트를 검출하는 단계는,
상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
를 더 포함하는,
사용자 인터랙션 방법.
3. The method of claim 2,
Wherein the step of detecting the target object comprises:
And outputting the target object to the screen when the target object is not output to the screen
≪ / RTI >
User interaction method.
제4항에 있어서,
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판인,
사용자 인터랙션 방법.
5. The method of claim 4,
Wherein the target object is an electric sign board for outputting the effect as text,
User interaction method.
제1항에 있어서,
상기 사용자의 추가 사용자 입력을 수신하는 단계
를 더 포함하고,
상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
사용자 인터랙션 방법.
The method according to claim 1,
Receiving additional user input of the user
Further comprising:
Wherein the step of detecting the target object comprises the steps of:
User interaction method.
제6항에 있어서,
상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나인,
사용자 인터랙션 방법.
The method according to claim 6,
Wherein the additional user input is at least one of a touch input, a cursor input, and a preset key input,
User interaction method.
제1항에 있어서,
상기 타겟 오브젝트에 대한 효과를 결정하는 단계는,
상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
상기 행동 ID에 대응하는 상기 효과를 결정하는 단계
를 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Wherein determining the effect on the target object comprises:
Determining an action ID corresponding to the user's voice; And
Determining the effect corresponding to the action ID
/ RTI >
User interaction method.
제8항에 있어서,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
를 더 포함하고,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
상기 효과에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계; 및
상기 행동 ID를 상기 효과에 연관하는 단계
를 포함하는,
사용자 인터랙션 방법.
9. The method of claim 8,
Setting the behavior ID corresponding to the effect in advance
Further comprising:
Wherein the step of setting the behavior ID corresponding to the effect in advance includes:
Receiving a user voice for the effect;
Generating the action ID for the effect based on the user voice; And
Associating the action ID with the effect
/ RTI >
User interaction method.
제1항에 있어서,
상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계
를 더 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Outputting the target ID and the action ID as text
≪ / RTI >
User interaction method.
제1항 내지 제10항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 10.
사용자 단말에 저장되고, 상기 사용자 단말이,
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 실행하도록 상기 사용자 단말을 제어하는,
사용자 인터랙션 어플리케이션.
The user terminal is stored in a user terminal,
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
To control the user terminal to execute,
User interaction applications.
사용자 인터랙션 방법을 수행하는, 사용자 단말에 있어서,
사용자 인터랙션을 제공하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 수행하는,
사용자 단말.
A user terminal performing a user interaction method,
A memory in which a program for providing user interaction is recorded; And
The processor
Lt; / RTI >
The program includes:
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
Lt; / RTI >
User terminal.
제13항에 있어서,
상기 타겟 오브젝트를 검출하는 단계는,
상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
를 포함하는,
사용자 단말.
14. The method of claim 13,
Wherein the step of detecting the target object comprises:
Determining a voice identifier (ID) corresponding to the voice of the user; And
Determining the target object corresponding to the voice ID
/ RTI >
User terminal.
제14항에 있어서,
상기 프로그램은,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
를 더 수행하고,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계
를 포함하는,
사용자 단말.
15. The method of claim 14,
The program includes:
Setting the voice ID corresponding to the target object in advance
Lt; / RTI >
The step of previously setting the voice ID corresponding to the target object comprises:
Receiving a user voice for the target object;
Generating the voice ID for the target object based on the user voice; And
Associating the speech ID with the target object
/ RTI >
User terminal.
제14항에 있어서,
상기 타겟 오브젝트를 검출하는 단계는,
상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
를 더 포함하는,
사용자 단말.
15. The method of claim 14,
Wherein the step of detecting the target object comprises:
And outputting the target object to the screen when the target object is not output to the screen
≪ / RTI >
User terminal.
제16항에 있어서,
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판인,
사용자 단말.
17. The method of claim 16,
Wherein the target object is an electric sign board for outputting the effect as text,
User terminal.
제13항에 있어서,
상기 프로그램은,
상기 사용자의 추가 사용자 입력을 수신하는 단계
를 더 수행하고,
상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
사용자 단말.
14. The method of claim 13,
The program includes:
Receiving additional user input of the user
Lt; / RTI >
Wherein the step of detecting the target object comprises the steps of:
User terminal.
제18항에 있어서,
상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나인,
사용자 단말.
19. The method of claim 18,
Wherein the additional user input is at least one of a touch input and a preset key input,
User terminal.
제13항에 있어서,
상기 타겟 오브젝트에 대한 효과를 결정하는 단계는,
상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
상기 행동 ID에 대응하는 상기 효과를 결정하는 단계
를 포함하는,
사용자 단말.
14. The method of claim 13,
Wherein determining the effect on the target object comprises:
Determining an action ID corresponding to the user's voice; And
Determining the effect corresponding to the action ID
/ RTI >
User terminal.
제20항에 있어서,
상기 프로그램은,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
를 더 수행하고,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
상기 효과에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계; 및
상기 행동 ID를 상기 효과에 연관하는 단계
를 포함하는,
사용자 단말.
21. The method of claim 20,
The program includes:
Setting the behavior ID corresponding to the effect in advance
Lt; / RTI >
Wherein the step of setting the behavior ID corresponding to the effect in advance includes:
Receiving a user voice for the effect;
Generating the action ID for the effect based on the user voice; And
Associating the action ID with the effect
/ RTI >
User terminal.
제13항에 있어서,
상기 프로그램은,
상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계
를 더 수행하는,
사용자 단말.
14. The method of claim 13,
The program includes:
Outputting the target ID and the action ID as text
Lt; / RTI >
User terminal.
KR1020170117593A 2017-09-14 2017-09-14 Method and apparatus for user interaction KR102479705B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170117593A KR102479705B1 (en) 2017-09-14 2017-09-14 Method and apparatus for user interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170117593A KR102479705B1 (en) 2017-09-14 2017-09-14 Method and apparatus for user interaction

Publications (2)

Publication Number Publication Date
KR20190030314A true KR20190030314A (en) 2019-03-22
KR102479705B1 KR102479705B1 (en) 2022-12-21

Family

ID=65949462

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170117593A KR102479705B1 (en) 2017-09-14 2017-09-14 Method and apparatus for user interaction

Country Status (1)

Country Link
KR (1) KR102479705B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230110885A (en) * 2022-01-17 2023-07-25 (주)스마일게이트엔터테인먼트 Appatus for providing real-time online contents capable of interacting with user

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337432A (en) * 2005-05-31 2006-12-14 Kenwood Corp Speech synthesizer for performing speech guidance using plurality of characters, and its program and information recording medium with the program recorded
JP2008122982A (en) * 2007-12-13 2008-05-29 Namco Bandai Games Inc Voice recognition game device and recording medium
JP2010035908A (en) * 2008-08-07 2010-02-18 Namco Bandai Games Inc Program, information storage medium, and game device
KR20110127597A (en) * 2010-05-19 2011-11-25 가부시키가이샤 반다이 Game apparatus and recording medium for saving computer program
KR20150025242A (en) 2013-08-28 2015-03-10 (주)젠 Plasma apparatus for vapor phase etching and cleaning
KR20150125464A (en) * 2014-04-30 2015-11-09 삼성전자주식회사 Method for displaying message and electronic device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337432A (en) * 2005-05-31 2006-12-14 Kenwood Corp Speech synthesizer for performing speech guidance using plurality of characters, and its program and information recording medium with the program recorded
JP2008122982A (en) * 2007-12-13 2008-05-29 Namco Bandai Games Inc Voice recognition game device and recording medium
JP2010035908A (en) * 2008-08-07 2010-02-18 Namco Bandai Games Inc Program, information storage medium, and game device
KR20110127597A (en) * 2010-05-19 2011-11-25 가부시키가이샤 반다이 Game apparatus and recording medium for saving computer program
KR20150025242A (en) 2013-08-28 2015-03-10 (주)젠 Plasma apparatus for vapor phase etching and cleaning
KR20150125464A (en) * 2014-04-30 2015-11-09 삼성전자주식회사 Method for displaying message and electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230110885A (en) * 2022-01-17 2023-07-25 (주)스마일게이트엔터테인먼트 Appatus for providing real-time online contents capable of interacting with user

Also Published As

Publication number Publication date
KR102479705B1 (en) 2022-12-21

Similar Documents

Publication Publication Date Title
US10341268B2 (en) Method and device for implementing instant messaging
CN107168518B (en) Synchronization method and device for head-mounted display and head-mounted display
CN110072151B (en) Virtual gift display method, electronic device and computer-readable storage medium
US20180161683A1 (en) Session speech-to-text conversion
KR102085383B1 (en) Termial using group chatting service and operating method thereof
KR102504164B1 (en) Apparatus and method for controlling the apparatus by a user
CN107070785B (en) Method and device for realizing reading sharing
US10627896B1 (en) Virtual reality device
US20180166065A1 (en) Session text-to-speech conversion
CN110007936B (en) Data processing method and device
US11303596B2 (en) Method and a device for processing information
US20170195710A1 (en) Method and electronic device for preview play
EP3298756A1 (en) Interfacing with servers having different apis to obtain advertisement data
US20170188214A1 (en) Method and electronic device for sharing multimedia information
KR20190030314A (en) Method and apparatus for user interaction
CN106598245B (en) Multi-user interaction control method and device based on virtual reality
CN108111374A (en) Method, apparatus, equipment and the computer storage media of synchronizer list
KR102268750B1 (en) Method and apparatus for connecting user terminals as a group and providing a service including content associated with the group
US20170169211A1 (en) One kind of website passwords generating method and apparatus
US20170171634A1 (en) Method and electronic device for pushing reservation message
KR20220065531A (en) System for prohibiting use of banned words during live chat
EP3917120A1 (en) Voice chat device, voice chat method, and program
KR20200108272A (en) Method and system for providing chat rooms in three-dimensional form and non-transitory computer-readable recording media
CN109076008A (en) Inhibit the instruction of the communication to arrival in the user interface
KR101861128B1 (en) Appatus and mathod providing text message based on touch input

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application