KR20190030314A - Method and apparatus for user interaction - Google Patents
Method and apparatus for user interaction Download PDFInfo
- Publication number
- KR20190030314A KR20190030314A KR1020170117593A KR20170117593A KR20190030314A KR 20190030314 A KR20190030314 A KR 20190030314A KR 1020170117593 A KR1020170117593 A KR 1020170117593A KR 20170117593 A KR20170117593 A KR 20170117593A KR 20190030314 A KR20190030314 A KR 20190030314A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- target object
- voice
- effect
- rti
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
기술 분야는 사용자 단말이 사용자와 인터랙션하는 방법 및 장치에 관한 것으로, 특히, 사용자 음성을 통해 사용자와 인터랙션하는 방법 및 장치에 관한 것이다.The technical field relates to a method and apparatus for a user terminal to interact with a user, and more particularly to a method and apparatus for interacting with a user via user voice.
통신망을 통해 복수의 사용자들이 동시에 참여하는 온라인 게임 서비스가 제공된다. 특히 복수의 사용자들이 가상공간에 구현된 게임 맵 또는 공간에서 여러 가지 임무를 수행하는 게임이 제공될 수 있다. 사용자가 다른 사용자와 커뮤니케이션 하는 방법으로 키보드를 통한 채팅 방법 및 스피커 및 마이크를 이용한 대화 방법이 이용될 수 있다.An online game service in which a plurality of users simultaneously participate through a communication network is provided. In particular, a game in which a plurality of users perform various tasks in a game map or space implemented in a virtual space can be provided. A chatting method using a keyboard and a chatting method using a speaker and a microphone can be used as a way for a user to communicate with other users.
게임 진행에 있어서 사용자가 게임 화면에 나타나는 여러 오브젝트들 중 특정한 오브젝트를 다른 사용자들에게 지칭할 수 있다. 동일한 오브젝트를 지칭하는 명칭이 사용자들 간에 상이한 경우, 제1 사용자가 지칭하는 오브젝트가 어떠한 오브젝트인지 제2 사용자가 정확히 이해하지 못할 수 있다. 또한, 제2 사용자가 스피커가 없는 경우, 제2 사용자는 제1 사용자의 대화를 듣지 못할 수 있다.The user can designate a specific object among the various objects displayed on the game screen to other users in the progress of the game. If the name designating the same object is different among users, the second user may not understand exactly what object the first user refers to. Also, if the second user does not have a speaker, the second user may not hear the conversation of the first user.
일 실시예는 사용자와 인터랙션하는 방법 및 장치를 제공할 수 있다.One embodiment may provide a method and apparatus for interacting with a user.
일 실시예는 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 사용자 인터랙션 방법 및 장치를 제공할 수 있다.One embodiment can provide a user interaction method and apparatus for changing a screen of contents based on user voice.
일 측면에 따른, 컨텐츠에 대한 사용자 인터랙션(user interaction) 방법은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for user interaction with content, the method comprising: outputting a screen of the content; receiving a user's voice for the content; Determining an effect that represents an action on the target object based on the user's voice and the detected target object; and determining the effect, .
상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.The detecting the target object may include determining a voice identifier (ID) corresponding to the voice of the user, and determining the target object corresponding to the voice ID.
상기 사용자 인터랙션 방법은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 포함하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.Wherein the user interaction method further includes a step of previously setting the voice ID corresponding to the target object, and the step of previously setting the voice ID corresponding to the target object includes receiving a user voice for the target object Generating the voice ID for the target object based on the user voice, and associating the voice ID with the target object.
상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.The detecting the target object may further include outputting the target object to the screen when the target object is not output to the screen.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.The target object may be a display board for outputting the effect as text.
상기 사용자 인터랙션 방법은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 포함하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.The user interaction method further comprises receiving an additional user input of the user and detecting the target object may be performed when the additional user input is received.
상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.The additional user input may be at least one of a touch input, a cursor input, and a preset key input.
상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.The step of determining an effect that represents an action on the target object may include determining an action ID corresponding to the user's voice and determining the effect corresponding to the action ID.
상기 사용자 인터랙션 방법은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 포함하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.Wherein the user interaction method further comprises the step of previously setting the behavior ID corresponding to the effect and the step of presetting the behavior ID corresponding to the effect comprises the steps of receiving a user voice for the effect, Generating the behavior ID for the effect based on the user voice, and associating the behavior ID with the effect.
상기 사용자 인터랙션 방법은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 포함할 수 있다.The user interaction method may further include outputting the target ID and the action ID as text.
다른 일 측면에 따른, 사용자 인터랙션 어플리케이션은, 사용자 단말에 저장되고, 상기 사용자 단말이, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 실행하도록 상기 사용자 단말을 제어한다.According to another aspect, a user interaction application is stored in a user terminal, the user terminal outputting a screen of the content, receiving a user's voice for the content, The method comprising: detecting a target object of the content; determining an effect representing an action for the target object based on the user's voice and the detected target object; And outputting the result to the user terminal.
또 다른 일 측면에 따른, 사용자 인터랙션 방법을 수행하는, 사용자 단말은, 사용자 인터랙션을 제공하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 상기 컨텐츠의 화면을 출력하는 단계, 상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계, 상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계, 상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 행동(action)을 나타내는 효과(effect)를 결정하는 단계, 및 상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계를 수행한다.According to another aspect of the present invention, a user terminal for performing a user interaction method includes a memory in which a program for providing a user interaction is recorded, and a processor for executing the program, Detecting a target object of the content based on the user's voice, detecting a target object of the user based on the user's voice and the detected target object, Determining an effect that represents an action, and outputting the effect in association with the target object on the screen.
상기 타겟 오브젝트를 검출하는 단계는, 상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계, 및 상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계를 포함할 수 있다.The detecting the target object may include determining a voice identifier (ID) corresponding to the voice of the user, and determining the target object corresponding to the voice ID.
상기 프로그램은, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계를 더 수행하고, 상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는, 상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계, 및 상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계를 포함할 수 있다.The program further includes a step of previously setting the voice ID corresponding to the target object, and the step of setting the voice ID corresponding to the target object in advance includes the step of receiving a user voice for the target object Generating the voice ID for the target object based on the user voice, and associating the voice ID with the target object.
상기 타겟 오브젝트를 검출하는 단계는, 상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계를 더 포함할 수 있다.The detecting the target object may further include outputting the target object to the screen when the target object is not output to the screen.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판일 수 있다.The target object may be a display board for outputting the effect as text.
상기 프로그램은, 상기 사용자의 추가 사용자 입력을 수신하는 단계를 더 수행하고, 상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행될 수 있다.The program further comprises receiving additional user input of the user and detecting the target object may be performed when the further user input is received.
상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다.The additional user input may be at least one of a touch input and a preset key input.
상기 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 단계는, 상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계, 및 상기 행동 ID에 대응하는 상기 효과를 결정하는 단계를 포함할 수 있다.The step of determining an effect that represents an action on the target object may include determining an action ID corresponding to the user's voice and determining the effect corresponding to the action ID.
상기 프로그램은, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계를 더 수행하고, 상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는, 상기 효과에 대한 사용자 음성을 수신하는 단계, 상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계, 및 상기 행동 ID를 상기 효과에 연관하는 단계를 포함할 수 있다.Wherein the program further performs the step of previously setting the behavior ID corresponding to the effect and the step of presetting the behavior ID corresponding to the effect comprises the steps of receiving a user voice for the effect, Generating the behavior ID for the effect based on speech, and associating the behavior ID with the effect.
상기 프로그램은, 상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계를 더 수행할 수 있다.The program may further include outputting the target ID and the behavior ID as text.
사용자 음성에 기초하여 사용자와 사용자 단말 간에 인터랙션하는 방법 및 장치가 제공될 수 있다.A method and apparatus for interacting between a user and a user terminal based on user voice may be provided.
사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법 및 장치가 제공될 수 있다.The effect of the target object corresponding to the instruction of the user's voice is output to the screen so that the user without the speaker can confirm the contents of the instruction.
도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.
도 2는 일 실시예에 따른 사용자 단말 구성도이다.
도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.
도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.
도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.
도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.
도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.
도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.
도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.
도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.
도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.
도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.1 shows a content providing system according to an example.
2 is a block diagram of a user terminal according to an exemplary embodiment of the present invention.
3 is a flow diagram of a user interaction method in accordance with an embodiment.
4 is a flowchart of a method of presetting a voice ID corresponding to a target object according to an example.
5 is a flowchart of a method of detecting a target object of contents according to an example.
FIG. 6 shows a screen of content according to an example.
7 shows a screen of contents according to another example.
8 is a flow diagram of a method for receiving additional user input according to an example.
9 is a flowchart of a method for presetting an action ID corresponding to an effect according to an example.
10 is a flowchart of a method for determining an effect that represents an action for a target object according to an example.
FIG. 11 shows a screen of contents outputting an effect on a target object according to an example.
FIG. 12 shows a screen of a content outputting an effect on a target object according to another example.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.
도 1은 일 예에 따른 컨텐츠 제공 시스템을 도시한다.1 shows a content providing system according to an example.
컨텐츠 제공 시스템(100)은 서버(110) 및 복수의 사용자 단말들(120 및 130)을 포함한다. 서버(110)는 복수의 사용자 단말(120 및 130) 각각으로 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠는 온라인을 통해 제공되는 게임일 수 있다.The
일 측면에 따르면, 사용자 단말(120)은 서버(110)로부터 컨텐츠를 실행하기 위한 리소스 데이터를 수신하고, 사용자 단말(120)은 리소스 데이터를 통해 컨텐츠를 서버(110)로부터 제공받을 수 있다. 리소스 데이터는 소프트웨어의 형태로 제공될 수 있다. 예를 들어, 소프트웨어는 어플리케이션일 수 있다. 사용자 단말(120)은 리소스 데이터를 이용하여 컨텐츠를 실행하고, 컨텐츠의 진행을 위한 추가의 데이터를 서버(110)로부터 수신할 수 있다. 서버(110)는 사용자 단말(120)과 데이터를 교환하면서 컨텐츠를 제공할 수 있다.According to an aspect, a
복수의 사용자 단말들(120 및 130)은 동시에 컨텐츠를 이용할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 동일한 팀에 포함되거나, 서로 다른 팀에 포함되어 컨텐츠를 이용할 수 있다.The plurality of
복수의 사용자 단말들(120 및 130)이 동시에 컨텐츠를 이용하는 경우, 복수의 사용자 단말들(120 및 130)은 동일한 화면이 출력될 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 복수의 사용자 단말들(120 및 130)에게 동일한 화면이 출력될 수 있다.When a plurality of
복수의 사용자 단말들(120 및 130)이 동일한 팀에 포함되는 경우 다른 팀과의 경기에서 승리하기 위해 복수의 사용자 단말들(120 및 130)의 사용자들은 커뮤니케이션(communication)할 수 있다. 예를 들어, 복수의 사용자 단말들(120 및 130)의 사용자들은 작전을 위해 커뮤니케이션 할 수 있다. 사용자들은 메시지를 교환하거나 음성을 통해 커뮤니케이션할 수 있다. 메시지를 교환하는 방식은 빠르게 발생하는 사건에 대해 신속하게 대응할 수 없다. 음성을 이용하는 방식은 사건에 대해 신속하게 대응할 수 있으나, 음성을 수신하고 출력하는 장치가 추가로 요구된다.When a plurality of
음성을 이용하는 방식은 복수의 사용자 단말들(120 및 130)이 각각 마이크 및 스피커를 포함할 것이 요구된다. 예를 들어, 복수의 사용자 단말들(120 및 130) 중 사용자 단말(130)에 스피커가 없는 경우 음성을 이용하는 방식이 이용될 수 없다. 다른 예로, 사용자 단말(130)에 스피커가 있더라도 공공 장소와 같이 사용자 단말(130)의 스피커를 켤 수 없는 경우에는 음성을 이용하는 방식이 이용될 수 없다.The manner of using the voice requires that a plurality of
일 측면에 따르면, 사용자 단말(120) 및 사용자 단말(130)에는 동일한 컨텐츠의 화면이 출력될 수 있으므로, 사용자 단말(120)의 사용자는 사용자 단말(120)에 출력되는 화면을 변경함으로써 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 예를 들어, 사용자 단말(130)의 스피커가 활성화되지 않더라도, 사용자 단말(120)의 사용자가 입력한 사용자 음성에 기초하여 텍스트 또는 그래픽 효과가 사용자 단말(130)의 화면에 출력되는 경우 사용자 단말(120)의 사용자는 사용자 단말(130)의 사용자와 커뮤니케이션할 수 있다. 사용자 단말(120)의 사용자가 사용자 음성에 기초하여 컨텐츠의 화면을 변경하는 것은 사용자 및 사용자 단말(120) 간의 사용자 인터랙션일 수 있다.According to an aspect of the present invention, a screen of the same content may be output to the
아래에서 도 2 내지 도 12를 참조하여 사용자 인터랙션 방법에 대해 상세히 설명된다.The user interaction method will be described in detail below with reference to Figs. 2 to 12. Fig.
도 2는 일 실시예에 따른 사용자 단말 구성도이다.2 is a block diagram of a user terminal according to an exemplary embodiment of the present invention.
사용자 단말(200)은 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 사용자 단말(200)은 도 1을 참조하여 전술된 사용자 단말(120) 또는 사용자 단말(130)에 대응할 수 있다.The
통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The
통신부(210)는 사용자 단말(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(external bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 서버(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The
프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The
프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.The
메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 사용자 인터랙션할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The
일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to an aspect, the
메모리(230)는 사용자 단말(200)을 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 사용자 단말(200)을 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The
통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 11을 참조하여 상세히 설명된다.The
도 3은 일 실시예에 따른 사용자 인터랙션 방법의 흐름도이다.3 is a flow diagram of a user interaction method in accordance with an embodiment.
아래의 단계들(310 내지 350)은 도 2를 참조하여 전술된 사용자 단말(200)에 의해 수행된다.The following
단계(310)에서, 프로세서(220)는 디스플레이(미도시)를 이용하여 컨텐츠의 화면을 출력한다. 예를 들어, 컨텐츠가 게임인 경우, 출력되는 화면은 게임의 진행 상황일 수 있다. 화면은 이미지(image)일 수 있다. 출력되는 화면에 대한 실시예들이 도 6 및 7을 참조하여 상세히 설명된다.At
단계(320)에서, 통신부(210)는 사용자 인터페이스(미도시)를 통해 사용자의 음성을 수신한다. 예를 들어, 사용자 인터페이스는 마이크일 수 있다. 일 측면에 따르면, 사용자의 음성은 타겟 오브젝트를 지칭하는 부분 및 효과를 지칭하는 부분을 모두 포함할 수 있다. 예를 들어, 사용자 음성이 '타워 공격'인 경우, '타워'는 타겟 오브젝트를 지칭하는 부분이고, '공격'은 효과를 지칭하는 부분일 수 있다.In
단계(330)에서, 프로세서(220)는 사용자의 음성에 기초하여 컨텐츠의 타겟 오브젝트를 검출한다. 타겟 오브젝트는 컨텐츠의 복수의 오브젝트들 중 사용자가 지정하고자 하는 오브젝트일 수 있다. 예를 들어, 컨텐츠의 복수의 오브젝트들은 컨텐츠가 제공하는 아이템 및 그래픽 오브젝트를 포함할 수 있다. 타겟 오브젝트를 검출하는 방법에 대해, 아래에서 도 4 내지 7을 참조하여 상세히 설명된다.At
단계(340)에서, 프로세서(220)는 사용자의 음성 및 타겟 오브젝트에 기초하여 타겟 오브젝트에 대한 효과(effect) 오브젝트를 결정한다. 예를 들어, 효과 오브젝트는 그래픽 이미지일 수 있다. 이하에서 효과 오브젝트는 약술된다.At
타겟 오브젝트에 대한 행동은 사용자 단말(200)의 사용자와 함께 컨텐츠를 이용하는 다른 사용자에게 사용자 단말(200)의 사용자가 전달하고자 하는 메시지일 수 있다. 예를 들어, 타겟 오브젝트에 대한 '공격'은 타겟 오브젝트에 대한 행동일 수 있다. 다른 예로, 타겟 오브젝트에서의 '유닛 생산'은 타겟 오브젝트에 대한 행동일 수 있다.The action for the target object may be a message that the user of the
효과는 타겟 오브젝트에 대한 행동을 나타낼 수 있다. 출력된 효과를 본 다른 사용자들은 효과에 해당하는 행동을 수행할 수 있다. 효과는 상기의 행동을 소리가 아닌 다른 방식으로 다른 사용자에게 알려주는 것일 수 있다. 예를 들어, 다른 사용자에게 '공격'이라는 행동을 지시하기 위해, 텍스트 또는 그래픽 효과로 '공격'이 화면에 출력될 수 있다.The effect may indicate an action on the target object. Other users who view the output effect can perform actions corresponding to the effect. The effect may be to inform other users of the behavior in a manner other than sound. For example, an 'attack' may be displayed on the screen with a text or graphic effect to direct an 'attack' action to another user.
타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법에 대해, 아래에서 도 9 및 10을 참조하여 상세히 설명된다.A method for determining an effect that represents behavior for a target object is described in detail below with reference to Figures 9 and 10.
단계(350)에서, 프로세서(220)는 디스플레이를 통해 효과를 타겟 오브젝트와 연관하여 화면에 출력한다. 프로세서(220)는 현재의 게임 상황을 출력하는 화면에 효과를 부가하여 출력할 수 있다. 예를 들어, 출력된 효과는 미리 설정된 시간 동안 유지될 수 있다. 다른 예로, 출력된 효과는 다른 효과가 출력될 때까지 유지될 수 있다.At
도시되지는 않았으나, 프로세서(220)는 타겟 ID 및 행동 ID를 추가적으로 텍스트로 출력할 수 있다. 예를 들어, 사용자 음성의 내용이 타워를 공격하라는 내용인 경우, '타워 공격'의 텍스트가 출력될 수 있다. 다른 예로, 개인화되지 않은 타겟 오브젝트의 명칭 및 행동 ID가 텍스트로 출력될 수 있다.Although not shown, the
단계들(310 내지 350)을 통해 사용자 음성의 지시에 대응하는 타겟 오브젝트에 대한 효과가 복수의 사용자들의 화면에 출력됨으로써 스피커가 없는 사용자도 상기의 지시의 내용을 확인할 수 있는 사용자 인터랙션 방법이 제공될 수 있다.An effect on the target object corresponding to the instruction of the user's voice is outputted on the screen of the plurality of users through the
효과를 화면에 출력하는 방법에 대해, 아래에서 도 11 및 도 12를 참조하여 상세히 설명된다. A method of outputting the effect to the screen will be described in detail below with reference to Figs. 11 and 12. Fig.
도 4는 일 예에 따른 타겟 오브젝트에 대응하는 음성 ID를 미리 설정하는 방법의 흐름도이다.4 is a flowchart of a method of presetting a voice ID corresponding to a target object according to an example.
도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(410)가 수행될 수 있다. 단계(410)는 타겟 오브젝트에 대응하는 음성 식별자(Identifier: ID)를 미리 설정하는 단계이다. 단계(410)는 아래의 단계들(412, 414 및 416)을 포함한다.The following
사용자 단말(200)의 사용자는 컨텐츠의 오브젝트를 지칭하는 명칭을 개인화할 수 있다. 예를 들어, 사용자는 사석포(bombard)에 대응하는 오브젝트를 대포(cannon)로 지칭할 수 있다. 사용자가 자신이 사용하고자 하는 명칭으로 오브젝트를 지칭할 수 있다. 일 측면에 따르면, 사용자는 자신의 음성으로 오브젝트의 명칭을 설정할 수 있다.The user of the
단계(412)에서, 통신부(210)는 사용자 인터페이스를 통해 사용자의 음성을 수신한다. 사용자는 오브젝트의 명칭을 개인화하기 위해 사용자 단말(200)에서 복수의 오브젝트들 중 타겟 오브젝트를 선택하고, 선택된 타겟 오브젝트를 지칭하는 사용자 음성을 사용자 단말(200)로 전송한다. 예를 들어, 사용자는 사용자 단말(200)에서 복수의 오브젝트들 중 사석포를 선택하고, 사석포를 지칭하는 대포의 사용자 음성을 사용자 단말(200)의 마이크로 전송한다.In
단계(414)에서, 프로세서(220)는 사용자 음성에 기초하여 타겟 오브젝트에 대한 음성 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 생성할 수 있다. 프로세서(220)는 DFT(Digitized Fourier Transform) 및 FFT(Fast Fourier Transform)를 이용하여 사용자 음성의 특징점을 생성할 수 있다.At
단계(416)에서, 프로세서(220)는 음성 ID를 타겟 오브젝트에 연관할 수 있다. 예를 들어, 대포의 음성 ID를 사석포에 연관시킬 수 있다.At
도 5는 일 예에 따른 컨텐츠의 타겟 오브젝트를 검출하는 방법의 흐름도이다.5 is a flowchart of a method of detecting a target object of contents according to an example.
도 3을 참조하여 전술된 단계(330)는 아래의 단계들(510, 520 및 530)을 포함할 수 있다.Step 330 described above with reference to FIG. 3 may include the following
단계(510)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 음성 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 음성 ID로 결정할 수 있다.At
단계(520)에서, 프로세서(220)는 음성 ID에 대응하는 타겟 오브젝트를 결정한다. 예를 들어, 프로세서(220)는 복수의 오브젝트들에 연관된 각각의 음성 ID들 중 생성된 음성 ID와 유사도가 가장 높은 오브젝트를 타겟 오브젝트로 결정할 수 있다.At
단계(530)에서, 프로세서(220)는 타겟 오브젝트가 화면에 출력되지 않은 경우 타겟 오브젝트를 화면에 출력한다. 예를 들어, 타겟 오브젝트가 전광판이고, 전광판이 화면에 출력되지 않은 경우, 전광판을 추가적으로 화면에 출력될 수 있다. 전광판은 효과로서 텍스트 또는 그래픽 이미지를 출력할 수 있다.At
도 6은 일 예에 따른 컨텐츠의 화면을 도시한다.FIG. 6 shows a screen of content according to an example.
도시된 화면(600)의 컨텐츠는 게임이고, 게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 제1 팀은 복수의 오브젝트들(610, 620 및 630)을 이용하여 게임을 진행하고, 제2 팀은 복수의 오브젝트들(640, 650 및 660)을 이용하여 게임을 진행한다.The content of the
복수의 사용자들로 제2 팀이 구성되는 경우, 제2 팀의 사용자는 같은 팀의 다른 사용자에게 사용자 음성으로 자신의 의견을 전송할 수 있다. 예를 들어, 사용자는 적 팀의 특정 오브젝트를 공격하자는 의견을 전송할 수 있다. 스피커가 없는 사용자는 사용자 음성을 수신할 수 없으므로, 다른 사용자들과 커뮤니케이션할 수 없다.When a second team is composed of a plurality of users, the users of the second team can transmit their opinions to the other users of the same team with the user's voice. For example, a user can send an opinion to attack a specific object of an enemy team. Users without speakers can not communicate with other users because they can not receive user voice.
도 7은 다른 일 예에 따른 컨텐츠의 화면을 도시한다.7 shows a screen of contents according to another example.
도시된 화면(700)의 컨텐츠는 슈팅 게임이고, 슈팅게임은 두 개의 팀들 간의 대항으로 진행될 수 있다. 사용자는 전광판(710)을 통해 다른 사용자들에게 의견을 전송할 수 있다. 실시예에 따라 전광판(710)은 동일 팀에게만 출력되거나, 모든 사용자들에게 출력될 수 있다. 일 측면에 따르면, 전광판(710)은 컨텐츠 내에서 아이템으로 구현될 수 있다. 예를 들어, 아이템은 구매한 사용자에게만 제공될 수 있다.The content of the displayed
사용자가 전광판(710)을 지칭하는 사용자 음성을 사용자 단말(200)로 전달한 경우, 사용자 단말(200)은 타겟 오브젝트로서 전광판(710)을 결정하고, 전광판(710)이 화면(700)에 출력되지 않은 경우, 전광판(710)을 화면(700)에 출력한다.The
도 8은 일 예에 따른 추가 사용자 입력을 수신하는 방법의 흐름도이다.8 is a flow diagram of a method for receiving additional user input according to an example.
일 실시예에 따르면, 도 3을 참조하여 전술된 단계(330)는 아래의 단계(810)의 판단 결과에 기초하여 수행될 수 있다. 단계(810)는 도 3을 참조하여 전술된 단계(310)가 수행된 후 수행될 수 있다.According to one embodiment, step 330 described above with reference to FIG. 3 may be performed based on the determination result of
단계(810)에서, 프로세서(220)는 추가 사용자 입력이 수신되었는지 여부를 판단한다. 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나일 수 있다. 사용자 단말(200)의 사용자 인터페이스가 터치 패널을 포함하는 경우, 사용자 단말(200)은 터치 패널을 통해 터치 입력을 수신할 수 있다. 커서 입력이 마우스 등을 통해 수신될 수 있다. 미리 설정된 키 입력은 키보드를 통해 수신될 수 있다. 미리 설정된 키는 게임의 진행을 위해 사용되지 않는 키일 수 있다.At
일 측면에 따르면, 도 3을 참조하여 전술된 단계(320)가 추가 사용자 입력이 진행되는 기간에 수행될 수 있다. 예를 들어, 터치 입력이 진행되는 기간에만 타겟 오브젝트의 결정을 위한 사용자 음성이 수신될 수 있다. 다른 예로, 수신된 사용자 음성 중 터치 입력이 진행되는 기간에 수신된 사용자 음성의 일부분이 타겟 오브젝트의 결정을 위해 사용될 수 있다.According to one aspect,
도 9는 일 예에 따른 효과에 대응하는 행동 ID를 미리 설정하는 방법의 흐름도이다.9 is a flowchart of a method for presetting an action ID corresponding to an effect according to an example.
도 3을 참조하여 전술된 단계(310)가 수행되기 전에 아래의 단계(910)가 수행될 수 있다. 단계(910)는 효과에 대응하는 행동 ID를 미리 설정하는 단계이다. 단계(910)는 아래의 단계들(912, 914 및 916)을 포함한다.The following
사용자 단말(200)의 사용자는 타겟 오브젝트에 대한 행동을 나타내는 효과의 명칭을 개인화할 수 있다. 예를 들어, 사용자는 타겟 오브젝트를 공격하는 행동을 나타내는 효과를 자신의 음성으로 설정할 수 있다.The user of the
단계(912)에서, 통신부(210)는 효과에 대한 사용자 음성을 수신한다. 예를 들어, 그래픽 효과인 '공격'에 대해 공격이라고 발음함으로써 사용자 음성을 사용자 단말(200)로 전송한다.In
단계(914)에서, 프로세서(220)는 사용자 음성에 기초하여 효과에 대한 행동 ID를 생성한다. 예를 들어, 프로세서(220)는 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 생성할 수 있다. 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성할 수 있다.At
단계(916)에서, 프로세서(220)는 행동 ID를 효과에 연관할 수 있다.At
도 10은 일 예에 따른 타겟 오브젝트에 대한 행동을 나타내는 효과를 결정하는 방법의 흐름도이다.10 is a flowchart of a method for determining an effect that represents an action for a target object according to an example.
도 3을 참조하여 전술된 단계(340)는 아래의 단계들(1010 및 1020)을 포함할 수 있다.The above-described
단계(1010)에서, 프로세서(220)는 수신한 사용자의 음성에 대응하는 행동 ID를 결정한다. 예를 들어, 프로세서(220)는 DFT 및 FFT를 이용하여 사용자 음성의 특징점을 생성하고, 생성된 특징점을 행동 ID로 결정할 수 있다.In
단계(520)에서, 프로세서(220)는 행동 ID에 대응하는 효과를 결정한다. 예를 들어, 프로세서(220)는 복수의 효과들에 연관된 각각의 행동 ID들 중 생성된 행동 ID와 유사도가 가장 높은 효과를 타겟 효과로 결정할 수 있다.At
도 11은 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.FIG. 11 shows a screen of contents outputting an effect on a target object according to an example.
예를 들어, 컨텐츠의 오브젝트들(610 내지 660) 중 오브젝트(610)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '공격'의 이미지(1110)가 결정된다.For example, the
프로세서(220)는 오브젝트(610)와 이미지(1110)를 연관하여 화면(1100)에 출력한다. 예를 들어, 프로세서(220)는 오브젝트(610)와 이미지(1110)의 출력 위치에 기초하여 화살표의 방향을 조정할 수 있다.
화면(1100)은 사용자 단말(200)의 사용자 이외의 다른 사용자들의 단말들에도 출력될 수 있다. 예를 들어, 사용자 단말(200)의 사용자와 동일한 팀에 속한 사용자들의 단말들에 의해 화면(1100)이 출력될 수 있다. 다른 사용자들은 오브젝트(610)에 대해 출력된 이미지(1110)를 보고, 오브젝트(610)를 공격할 수 있다.The
도 12는 다른 일 예에 따른 타겟 오브젝트에 대한 효과가 출력된 컨텐츠의 화면을 도시한다.FIG. 12 shows a screen of a content outputting an effect on a target object according to another example.
예를 들어, 컨텐츠의 오브젝트(710)가 타겟 오브젝트로 결정되고, 타겟 오브젝트에 대한 효과로서 '안녕'의 텍스트(1210)가 결정된다. 텍스트(1210)가 전광판(710) 내에 출력되도록 연관될 수 있다.For example, the
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
200: 사용자 단말
210: 통신부
220: 프로세서
230: 메모리200: user terminal
210:
220: Processor
230: Memory
Claims (22)
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 포함하는,
사용자 인터랙션 방법.
A user interaction method for content, the method comprising:
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
/ RTI >
User interaction method.
상기 타겟 오브젝트를 검출하는 단계는,
상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
를 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Wherein the step of detecting the target object comprises:
Determining a voice identifier (ID) corresponding to the voice of the user; And
Determining the target object corresponding to the voice ID
/ RTI >
User interaction method.
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
를 더 포함하고,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계
를 포함하는,
사용자 인터랙션 방법.
3. The method of claim 2,
Setting the voice ID corresponding to the target object in advance
Further comprising:
The step of previously setting the voice ID corresponding to the target object comprises:
Receiving a user voice for the target object;
Generating the voice ID for the target object based on the user voice; And
Associating the speech ID with the target object
/ RTI >
User interaction method.
상기 타겟 오브젝트를 검출하는 단계는,
상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
를 더 포함하는,
사용자 인터랙션 방법.
3. The method of claim 2,
Wherein the step of detecting the target object comprises:
And outputting the target object to the screen when the target object is not output to the screen
≪ / RTI >
User interaction method.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판인,
사용자 인터랙션 방법.
5. The method of claim 4,
Wherein the target object is an electric sign board for outputting the effect as text,
User interaction method.
상기 사용자의 추가 사용자 입력을 수신하는 단계
를 더 포함하고,
상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
사용자 인터랙션 방법.
The method according to claim 1,
Receiving additional user input of the user
Further comprising:
Wherein the step of detecting the target object comprises the steps of:
User interaction method.
상기 추가 사용자 입력은 터치 입력, 커서 입력 및 미리 설정된 키 입력 중 적어도 하나인,
사용자 인터랙션 방법.
The method according to claim 6,
Wherein the additional user input is at least one of a touch input, a cursor input, and a preset key input,
User interaction method.
상기 타겟 오브젝트에 대한 효과를 결정하는 단계는,
상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
상기 행동 ID에 대응하는 상기 효과를 결정하는 단계
를 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Wherein determining the effect on the target object comprises:
Determining an action ID corresponding to the user's voice; And
Determining the effect corresponding to the action ID
/ RTI >
User interaction method.
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
를 더 포함하고,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
상기 효과에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계; 및
상기 행동 ID를 상기 효과에 연관하는 단계
를 포함하는,
사용자 인터랙션 방법.
9. The method of claim 8,
Setting the behavior ID corresponding to the effect in advance
Further comprising:
Wherein the step of setting the behavior ID corresponding to the effect in advance includes:
Receiving a user voice for the effect;
Generating the action ID for the effect based on the user voice; And
Associating the action ID with the effect
/ RTI >
User interaction method.
상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계
를 더 포함하는,
사용자 인터랙션 방법.
The method according to claim 1,
Outputting the target ID and the action ID as text
≪ / RTI >
User interaction method.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 10.
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 실행하도록 상기 사용자 단말을 제어하는,
사용자 인터랙션 어플리케이션.
The user terminal is stored in a user terminal,
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
To control the user terminal to execute,
User interaction applications.
사용자 인터랙션을 제공하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
상기 컨텐츠의 화면을 출력하는 단계;
상기 컨텐츠에 대한 사용자의 음성을 수신하는 단계;
상기 사용자의 음성에 기초하여 상기 컨텐츠의 타겟 오브젝트를 검출하는 단계;
상기 사용자의 음성 및 상기 검출된 타겟 오브젝트에 기초하여 상기 타겟 오브젝트에 대한 효과(effect)를 결정하는 단계; 및
상기 효과를 상기 타겟 오브젝트와 연관하여 상기 화면에 출력하는 단계
를 수행하는,
사용자 단말.
A user terminal performing a user interaction method,
A memory in which a program for providing user interaction is recorded; And
The processor
Lt; / RTI >
The program includes:
Outputting a screen of the content;
Receiving a user's voice for the content;
Detecting a target object of the content based on the voice of the user;
Determining an effect on the target object based on the user's voice and the detected target object; And
And outputting the effect in association with the target object on the screen
Lt; / RTI >
User terminal.
상기 타겟 오브젝트를 검출하는 단계는,
상기 사용자의 음성에 대응하는 음성 식별자(Identifier: ID)를 결정하는 단계; 및
상기 음성 ID에 대응하는 상기 타겟 오브젝트를 결정하는 단계
를 포함하는,
사용자 단말.
14. The method of claim 13,
Wherein the step of detecting the target object comprises:
Determining a voice identifier (ID) corresponding to the voice of the user; And
Determining the target object corresponding to the voice ID
/ RTI >
User terminal.
상기 프로그램은,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계
를 더 수행하고,
상기 타겟 오브젝트에 대응하는 상기 음성 ID를 미리 설정하는 단계는,
상기 타겟 오브젝트에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 타겟 오브젝트에 대한 상기 음성 ID를 생성하는 단계; 및
상기 음성 ID를 상기 타겟 오브젝트에 연관하는 단계
를 포함하는,
사용자 단말.
15. The method of claim 14,
The program includes:
Setting the voice ID corresponding to the target object in advance
Lt; / RTI >
The step of previously setting the voice ID corresponding to the target object comprises:
Receiving a user voice for the target object;
Generating the voice ID for the target object based on the user voice; And
Associating the speech ID with the target object
/ RTI >
User terminal.
상기 타겟 오브젝트를 검출하는 단계는,
상기 타겟 오브젝트가 상기 화면에 출력되지 않은 경우 상기 타겟 오브젝트를 상기 화면에 출력하는 단계
를 더 포함하는,
사용자 단말.
15. The method of claim 14,
Wherein the step of detecting the target object comprises:
And outputting the target object to the screen when the target object is not output to the screen
≪ / RTI >
User terminal.
상기 타겟 오브젝트는 상기 효과를 텍스트로 출력하는 전광판인,
사용자 단말.
17. The method of claim 16,
Wherein the target object is an electric sign board for outputting the effect as text,
User terminal.
상기 프로그램은,
상기 사용자의 추가 사용자 입력을 수신하는 단계
를 더 수행하고,
상기 타겟 오브젝트를 검출하는 단계는 상기 추가 사용자 입력이 수신된 경우 수행되는,
사용자 단말.
14. The method of claim 13,
The program includes:
Receiving additional user input of the user
Lt; / RTI >
Wherein the step of detecting the target object comprises the steps of:
User terminal.
상기 추가 사용자 입력은 터치 입력 및 미리 설정된 키 입력 중 적어도 하나인,
사용자 단말.
19. The method of claim 18,
Wherein the additional user input is at least one of a touch input and a preset key input,
User terminal.
상기 타겟 오브젝트에 대한 효과를 결정하는 단계는,
상기 사용자의 음성에 대응하는 행동 ID를 결정하는 단계; 및
상기 행동 ID에 대응하는 상기 효과를 결정하는 단계
를 포함하는,
사용자 단말.
14. The method of claim 13,
Wherein determining the effect on the target object comprises:
Determining an action ID corresponding to the user's voice; And
Determining the effect corresponding to the action ID
/ RTI >
User terminal.
상기 프로그램은,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계
를 더 수행하고,
상기 효과에 대응하는 상기 행동 ID를 미리 설정하는 단계는,
상기 효과에 대한 사용자 음성을 수신하는 단계;
상기 사용자 음성에 기초하여 상기 효과에 대한 상기 행동 ID를 생성하는 단계; 및
상기 행동 ID를 상기 효과에 연관하는 단계
를 포함하는,
사용자 단말.
21. The method of claim 20,
The program includes:
Setting the behavior ID corresponding to the effect in advance
Lt; / RTI >
Wherein the step of setting the behavior ID corresponding to the effect in advance includes:
Receiving a user voice for the effect;
Generating the action ID for the effect based on the user voice; And
Associating the action ID with the effect
/ RTI >
User terminal.
상기 프로그램은,
상기 타겟 ID 및 상기 행동 ID를 텍스트로 출력하는 단계
를 더 수행하는,
사용자 단말.
14. The method of claim 13,
The program includes:
Outputting the target ID and the action ID as text
Lt; / RTI >
User terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170117593A KR102479705B1 (en) | 2017-09-14 | 2017-09-14 | Method and apparatus for user interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170117593A KR102479705B1 (en) | 2017-09-14 | 2017-09-14 | Method and apparatus for user interaction |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190030314A true KR20190030314A (en) | 2019-03-22 |
KR102479705B1 KR102479705B1 (en) | 2022-12-21 |
Family
ID=65949462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170117593A KR102479705B1 (en) | 2017-09-14 | 2017-09-14 | Method and apparatus for user interaction |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102479705B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230110885A (en) * | 2022-01-17 | 2023-07-25 | (주)스마일게이트엔터테인먼트 | Appatus for providing real-time online contents capable of interacting with user |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006337432A (en) * | 2005-05-31 | 2006-12-14 | Kenwood Corp | Speech synthesizer for performing speech guidance using plurality of characters, and its program and information recording medium with the program recorded |
JP2008122982A (en) * | 2007-12-13 | 2008-05-29 | Namco Bandai Games Inc | Voice recognition game device and recording medium |
JP2010035908A (en) * | 2008-08-07 | 2010-02-18 | Namco Bandai Games Inc | Program, information storage medium, and game device |
KR20110127597A (en) * | 2010-05-19 | 2011-11-25 | 가부시키가이샤 반다이 | Game apparatus and recording medium for saving computer program |
KR20150025242A (en) | 2013-08-28 | 2015-03-10 | (주)젠 | Plasma apparatus for vapor phase etching and cleaning |
KR20150125464A (en) * | 2014-04-30 | 2015-11-09 | 삼성전자주식회사 | Method for displaying message and electronic device |
-
2017
- 2017-09-14 KR KR1020170117593A patent/KR102479705B1/en not_active Application Discontinuation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006337432A (en) * | 2005-05-31 | 2006-12-14 | Kenwood Corp | Speech synthesizer for performing speech guidance using plurality of characters, and its program and information recording medium with the program recorded |
JP2008122982A (en) * | 2007-12-13 | 2008-05-29 | Namco Bandai Games Inc | Voice recognition game device and recording medium |
JP2010035908A (en) * | 2008-08-07 | 2010-02-18 | Namco Bandai Games Inc | Program, information storage medium, and game device |
KR20110127597A (en) * | 2010-05-19 | 2011-11-25 | 가부시키가이샤 반다이 | Game apparatus and recording medium for saving computer program |
KR20150025242A (en) | 2013-08-28 | 2015-03-10 | (주)젠 | Plasma apparatus for vapor phase etching and cleaning |
KR20150125464A (en) * | 2014-04-30 | 2015-11-09 | 삼성전자주식회사 | Method for displaying message and electronic device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230110885A (en) * | 2022-01-17 | 2023-07-25 | (주)스마일게이트엔터테인먼트 | Appatus for providing real-time online contents capable of interacting with user |
Also Published As
Publication number | Publication date |
---|---|
KR102479705B1 (en) | 2022-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10341268B2 (en) | Method and device for implementing instant messaging | |
CN107168518B (en) | Synchronization method and device for head-mounted display and head-mounted display | |
CN110072151B (en) | Virtual gift display method, electronic device and computer-readable storage medium | |
US20180161683A1 (en) | Session speech-to-text conversion | |
KR102085383B1 (en) | Termial using group chatting service and operating method thereof | |
KR102504164B1 (en) | Apparatus and method for controlling the apparatus by a user | |
CN107070785B (en) | Method and device for realizing reading sharing | |
US10627896B1 (en) | Virtual reality device | |
US20180166065A1 (en) | Session text-to-speech conversion | |
CN110007936B (en) | Data processing method and device | |
US11303596B2 (en) | Method and a device for processing information | |
US20170195710A1 (en) | Method and electronic device for preview play | |
EP3298756A1 (en) | Interfacing with servers having different apis to obtain advertisement data | |
US20170188214A1 (en) | Method and electronic device for sharing multimedia information | |
KR20190030314A (en) | Method and apparatus for user interaction | |
CN106598245B (en) | Multi-user interaction control method and device based on virtual reality | |
CN108111374A (en) | Method, apparatus, equipment and the computer storage media of synchronizer list | |
KR102268750B1 (en) | Method and apparatus for connecting user terminals as a group and providing a service including content associated with the group | |
US20170169211A1 (en) | One kind of website passwords generating method and apparatus | |
US20170171634A1 (en) | Method and electronic device for pushing reservation message | |
KR20220065531A (en) | System for prohibiting use of banned words during live chat | |
EP3917120A1 (en) | Voice chat device, voice chat method, and program | |
KR20200108272A (en) | Method and system for providing chat rooms in three-dimensional form and non-transitory computer-readable recording media | |
CN109076008A (en) | Inhibit the instruction of the communication to arrival in the user interface | |
KR101861128B1 (en) | Appatus and mathod providing text message based on touch input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |