KR20180055638A - Electronic device and method for controlling electronic device using speech recognition - Google Patents

Electronic device and method for controlling electronic device using speech recognition Download PDF

Info

Publication number
KR20180055638A
KR20180055638A KR1020170022396A KR20170022396A KR20180055638A KR 20180055638 A KR20180055638 A KR 20180055638A KR 1020170022396 A KR1020170022396 A KR 1020170022396A KR 20170022396 A KR20170022396 A KR 20170022396A KR 20180055638 A KR20180055638 A KR 20180055638A
Authority
KR
South Korea
Prior art keywords
text
display
electronic device
displaying
content
Prior art date
Application number
KR1020170022396A
Other languages
Korean (ko)
Inventor
김광윤
장원남
김수연
황수연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/809,141 priority Critical patent/US20180136904A1/en
Publication of KR20180055638A publication Critical patent/KR20180055638A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to various embodiments, an electronic device includes a microphone, a display, and a processor. The processor displays content including at least one object and at least one text corresponding to the at least one object obtained on the basis of resources constituting the content on the display, determines a first text corresponding to a speech received using the microphone in the at least one text, and executes a command corresponding to the received speech on a first object corresponding to the first text in the at least one object on the basis of at least one command registered to control the at least one object. Other embodiments are possible. When a user desires to control an object included in content on a screen using speech input, according to various embodiments, the electronic device and the method of controlling the electronic device using speech recognition allow the user to easily grasp an object that can be currently selected and executed and attributes of the object.

Description

전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법{ELECTRONIC DEVICE AND METHOD FOR CONTROLLING ELECTRONIC DEVICE USING SPEECH RECOGNITION}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic device and a control method of an electronic device using speech recognition,

다양한 실시 예는 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법에 관한 것이다.Various embodiments relate to electronic devices and methods of controlling electronic devices using speech recognition.

종래의 전자 장치는 화면 상에 디스플레이된 컨텐트의 제어를 위해, 마우스나 키보드 등의 추가적인 입력 장치나, 터치가 가능한 디스플레이와 같은 하드웨어 장치가 필요하다. 예를 들어, 종래에는 사용자가 마우스 등의 입력 장치를 이용해 전자 장치의 화면상에 디스플레이된 컨텐트에서 원하는 오브젝트를 선택하여 오브젝트에 대한 특정 기능을 실행할 수 있으며, 키보드 등을 통해 원하는 텍스트를 입력할 수 있다.Conventional electronic devices require additional input devices such as a mouse or keyboard, or a hardware device such as a touchable display for controlling the content displayed on the screen. For example, in the related art, a user can select a desired object from the content displayed on the screen of the electronic device using an input device such as a mouse to execute a specific function on the object, have.

최근에는, 기술의 발달에 따라 전자 장치가 음성 인식을 이용하여 화면 상의 컨텐트를 제어할 수 있게 되었다. 음성 인식을 이용한 제어 기술은 전자 장치가 미리 약속된 단어 등의 음성을 인식하여 어플리케이션의 기능을 실행하거나 별도로 작성된 정보를 통해 음성으로 제어가 가능하도록 개발되어 왔다.In recent years, with the development of technology, electronic devices have been able to control content on the screen using speech recognition. Control technology using speech recognition has been developed so that an electronic device recognizes a vocabulary such as a promised word and executes the function of an application or can control by voice through separately created information.

마우스나 키보드 등의 입력 장치가 없거나, 사용자가 거리에서 이동 중과 같은 환경적인 제약 등으로 인해 종래의 입력 방식을 통해 전자 장치의 제어를 위한 입력이 어려운 경우에는, 사용자가 전자 장치의 화면에 디스플레이된 컨텐트를 제어하는 것이 어려울 수 있다.In the case where there is no input device such as a mouse or a keyboard or an input for control of the electronic device through the conventional input method is difficult due to an environmental constraint such as a user moving on a distance or the like, Controlling the content can be difficult.

또한, 종래에는 음성 인식을 통해 전자 장치를 제어하기 위해서는 추가 정보를 작성하여야 하는 불편함이 있었다.In addition, conventionally, additional information has to be written in order to control an electronic device through voice recognition.

또한, 종래의 음성 인식 기술을 통한 전자 장치의 제어는, 화면 상에 도움말 텍스트를 보여주고 해당 텍스트를 사용자가 읽었을 때 전자 장치가 사용자의 음성을 인식하여 특정 기능을 수행하는 등의 제한적인 제어만 가능한 한계가 있었다.In addition, the control of the electronic device through the conventional speech recognition technology can be performed only when the user displays the help text on the screen and the electronic device recognizes the user's voice to perform a specific function There was a limit.

다양한 실시 예에 따르면, 사용자의 음성을 이용하여 디스플레이된 컨텐트에 포함된 적어도 하나의 오브젝트를 선택하고 실행하는 등의 제어가 가능하도록 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법을 제공할 수 있다. 예를 들어, 사용자와 전자 장치와의 거리가 멀거나, 마우스나 키보드 등의 입력 장치를 지원하지 않는 전자 장치 또는 운전 등의 이유로 사용자가 손을 사용하는 것이 자유롭지 않은 상황 등과 같이 종래의 입력 방식을 통해 전자 장치의 제어를 위한 입력이 어려운 경우, 사용자의 음성을 이용하여 오브젝트를 선택하고 실행하는 등의 제어가 가능하도록 할 수 있다.According to various embodiments, it is possible to provide an electronic device and a control method of an electronic device using speech recognition so that control such as selecting and executing at least one object included in the displayed content using the user's voice can be provided . For example, when the distance between a user and an electronic device is too long, or an electronic device that does not support an input device such as a mouse or a keyboard, or a situation where the user is not free to use his / It is possible to make control such as selecting and executing an object using the voice of the user when the input for controlling the electronic device is difficult.

다양한 실시 예에 따르면, 음성 인식을 이용하여 제어를 위해 생성된 컨텐트가 아닌 컨텐트의 적어도 하나의 오브젝트에 대해서도 별도의 수정 없이 음성으로 제어하는 기능을 제공하기 위한 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법을 제공할 수 있다.According to various embodiments, there is provided an electronic device for providing a function of controlling, by voice, at least one object of content, which is not content generated for control using speech recognition, without further modification, and an electronic device using speech recognition A control method can be provided.

다양한 실시 예에 따르면, 컨텐트에 포함된 오브젝트의 단순한 선택 및 실행이 아니라, 해당 오브젝트가 가진 여러 속성 및 제어 가능 동작을 음성으로 실행할 수 있는 기능을 제공하기 위한 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법을 제공할 수 있다.According to various embodiments, there is provided an electronic device for providing a function of executing various attributes and controllable actions of the object by voice, rather than simply selecting and executing an object included in the content, A control method can be provided.

다양한 실시 예들에 따른 전자 장치에 있어서, 마이크; 디스플레이; 및 프로세서를 포함하고, 상기 프로세서는, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하고, 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하고, 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 것을 포함할 수 있다.An electronic device according to various embodiments, comprising: a microphone; display; And a processor, wherein the processor displays on the display content including at least one object and at least one text corresponding to the at least one object obtained based on the resources that make up the content Determining a first text corresponding to a voice received using the microphone among the at least one text, and determining, based on the at least one command registered to control the at least one object, And executing a command corresponding to the received voice for a first object corresponding to the first text.

다양한 실시 예들에 따른 음성 인식을 이용한 전자 장치의 제어 방법에 있어서, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작; 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함할 수 있다.A method of controlling an electronic device using speech recognition in accordance with various embodiments, the method comprising: generating content including at least one object and at least one text corresponding to the at least one object obtained based on the resources constituting the content On the display; Determining a first text corresponding to a voice received using the microphone among the at least one text; And executing a command corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object .

다양한 실시 예들에 따른 음성 인식을 이용한 전자 장치의 제어 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작; 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함할 수 있다.A machine-readable storage medium having recorded thereon a program for executing a method of controlling an electronic device using speech recognition in accordance with various embodiments, the method comprising the steps of: receiving content comprising at least one object; Displaying on the display at least one text corresponding to the at least one object obtained based on the resource; Determining a first text corresponding to a voice received using the microphone among the at least one text; And executing a command corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object .

다양한 실시 예에 따른 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법은, 전자 장치에 표시되는 컨텐트에 포함된 특정 오브젝트가 가진 속성 및 다양한 사용자 제어 명령을 음성 입력을 통해 수행 할 수 있다.An electronic device according to various embodiments and a control method of an electronic device using voice recognition can perform an attribute of a specific object included in content displayed on an electronic device and various user control commands through voice input.

다양한 실시 예에 따른 전자 장치 및 음성 인식을 이용한 전자 장치의 제어 방법은, 사용자가 음성 입력으로 화면 상의 컨텐트에 포함된 오브젝트를 제어하고자 할 때, 사용자가 현재 선택 및 실행 할 수 있는 오브젝트 및 상기 오브젝트의 속성에 대해 쉽게 파악하도록 할 수 있다.An electronic device according to various embodiments and a control method of an electronic device using speech recognition may be configured such that when a user wants to control an object included in content on the screen by voice input, Can be easily grasped.

도 1은 다양한 실시 예에 따른 전자 장치의 구성도이다.
도 2는 다양한 실시 예에 따른 음성 인식을 이용하여 전자 장치를 제어하기 위한 명령을 생성하여 등록하는 동작의 흐름도이다.
도 3은 다양한 실시 예에 따른 전자 장치의 디스플레이상에 표시될 오브젝트를 제어하기 위한 명령을 생성하기 위한 세부 동작 흐름도이다.
도 4은 다양한 실시 예에 따른 전자 장치(예: 전자 장치(101))의 음성 인식에 따른 컨텐트에 포함된 오브젝트를 제어하는 동작의 흐름도이다.
도 5 및 도 6은 다양한 실시 예에 따른 전자 장치의 디스플레이 화면의 예시도이다.
도 7a 내지 도 7c는 다양한 실시 예에 따른 전자 장치의 지정된 중요도에 따라 오브젝트들 각각의 GUI 및/또는 텍스트를 순차적으로 표시한 화면의 예시도이다.
도 8a 내지 도 8c는 다양한 실시 예에 따른 전자 장치의 지정된 중요도에 따라 오브젝트들 각각의 GUI를 순차적으로 디스플레한 화면의 예시도이다.
도 9는 다양한 실시 예에 따른 전자 장치의 음성 인식을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.
도 10은 다양한 실시 예에 따른 전자 장치의 음성 인식을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.
도 11은 다양한 실시 예에 따른 전자 장치의 사용자 입력을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.
1 is a configuration diagram of an electronic device according to various embodiments.
2 is a flow diagram of operations for creating and registering instructions for controlling an electronic device using speech recognition in accordance with various embodiments.
3 is a detailed operation flow diagram for generating an instruction for controlling an object to be displayed on a display of an electronic device according to various embodiments.
4 is a flowchart of operations for controlling objects included in content according to speech recognition of an electronic device (e.g., electronic device 101) according to various embodiments.
Figures 5 and 6 are illustrations of display screens of an electronic device according to various embodiments.
7A to 7C are exemplary diagrams of screens sequentially displaying the GUI and / or text of each of the objects according to the designated importance of the electronic device according to various embodiments.
8A to 8C are exemplary diagrams of screens sequentially displaying the GUI of each of the objects according to the designated importance of the electronic device according to various embodiments.
9 is an illustration of an operation for controlling objects included in content through speech recognition of an electronic device according to various embodiments.
10 is an illustration of an operation for controlling objects included in content through speech recognition of an electronic device according to various embodiments.
11 is an illustration of an operation for controlling objects contained in content via user input of an electronic device according to various embodiments.

이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It is to be understood that the embodiments and terminologies used herein are not intended to limit the invention to the particular embodiments described, but to include various modifications, equivalents, and / or alternatives of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar components. The singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, the expressions "A or B" or "at least one of A and / or B" and the like may include all possible combinations of the items listed together. Expressions such as " first, "" second," " first, "or" second, " But is not limited to those components. When it is mentioned that some (e.g., first) component is "(functionally or communicatively) connected" or "connected" to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).

본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. In this document, the term " configured to (or configured) to "as used herein is intended to encompass all types of hardware, software, Quot ;, "made to do "," made to do ", or "designed to" In some situations, the expression "a device configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be implemented by executing one or more software programs stored in a memory device or a dedicated processor (e.g., an embedded processor) , And a general purpose processor (e.g., a CPU or an application processor) capable of performing the corresponding operations.

본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices in accordance with various embodiments of the present document may be used in various applications such as, for example, smart phones, tablet PCs, mobile phones, videophones, electronic book readers, desktop PCs, laptop PCs, netbook computers, workstations, a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be of the type of accessories (eg, watches, rings, bracelets, braces, necklaces, glasses, contact lenses or head-mounted-devices (HMD) (E.g., a skin-pads or tattoo), or a bio-implantable circuit. In some embodiments, the electronic device may be, for example, a television, a digital video disk (Such as Samsung HomeSync , Apple TV , or Google TV ), a refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set top box, home automation control panel, A game console (e.g., Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic frame.

다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) A navigation system, a global navigation satellite system (GNSS), an event data recorder (EDR), a flight data recorder (FDR), an automobile infotainment device, a marine electronic equipment (For example, marine navigation systems, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs at financial institutions, of at least one of the following types of devices: a light bulb, a fire detector, a fire alarm, a thermostat, a streetlight, a toaster, a fitness device, a hot water tank, a heater, a boiler, . According to some embodiments, the electronic device may be a piece of furniture, a building / structure or part of an automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (e.g., Gas, or radio wave measuring instruments, etc.). In various embodiments, the electronic device is flexible or may be a combination of two or more of the various devices described above. The electronic device according to the embodiment of the present document is not limited to the above-described devices. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).

도 1을 참조하여, 다양한 실시 예에 따른 전자 장치(101)의 구성도이다.1 is a configuration diagram of an electronic device 101 according to various embodiments.

전자 장치(101)는 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. The electronic device 101 may include a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170. In some embodiments, the electronic device 101 may omit at least one of the components or additionally include other components.

프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. Processor 120 may include one or more of a central processing unit, an application processor, or a communications processor (CP). The processor 120 may perform computations or data processing related to, for example, control and / or communication of at least one other component of the electronic device 101.

메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. Memory 130 may include volatile and / or non-volatile memory. Memory 130 may store instructions or data related to at least one other component of electronic device 101, for example. According to one embodiment, the memory 130 may store software and / or programs. The program 140 may include, for example, a kernel, a middleware, an application programming interface (API), and / or an application program (or "application").

입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다. Output interface 150 may be configured to communicate commands or data entered from a user or other external device to another component (s) of the electronic device 101, or to another component (s) of the electronic device 101 ) To the user or other external device.

입출력 인터페이스(150)는 예를 들면, 마이크(151)를 포함할 수 있다.The input / output interface 150 may include a microphone 151, for example.

디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.The display 160 may include a display such as, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display . Display 160 may display various content (e.g., text, images, video, icons, and / or symbols, etc.) to a user, for example. Display 160 may include a touch screen and may receive a touch, gesture, proximity, or hovering input using, for example, an electronic pen or a portion of the user's body.

통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.The communication interface 170 establishes communication between the electronic device 101 and an external device (e.g., the first external electronic device 102, the second external electronic device 104, or the server 106) . For example, communication interface 170 may be connected to network 162 via wireless or wired communication to communicate with an external device (e.g., second external electronic device 104 or server 106).

무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시 예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.The wireless communication may include, for example, LTE, LTE-A (LTE Advance), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro) System for Mobile Communications), and the like. According to one embodiment, the wireless communication may be wireless communication, such as wireless fidelity (WiFi), Bluetooth, Bluetooth low power (BLE), Zigbee, NFC, Magnetic Secure Transmission, Frequency (RF), or body area network (BAN). According to one example, wireless communication may include GNSS. GNSS may be, for example, Global Positioning System (GPS), Global Navigation Satellite System (Glonass), Beidou Navigation Satellite System (Beidou) or Galileo, the European global satellite-based navigation system. Hereinafter, in this document, "GPS" can be used interchangeably with "GNSS ". The wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a recommended standard 232 (RS-232), a power line communication or a plain old telephone service have. Network 162 may include at least one of a telecommunications network, e.g., a computer network (e.g., LAN or WAN), the Internet, or a telephone network.

제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.Each of the first and second external electronic devices 102, 104 may be the same or a different kind of device as the electronic device 101. According to various embodiments, all or a portion of the operations performed in the electronic device 101 may be performed in one or more other electronic devices (e.g., electronic devices 102, 104, or server 106). According to the present invention, when electronic device 101 is to perform a function or service automatically or on demand, electronic device 101 may perform at least some functions associated therewith instead of, or in addition to, (E.g., electronic device 102, 104, or server 106) may request the other device (e.g., electronic device 102, 104, or server 106) Perform additional functions, and forward the results to the electronic device 101. The electronic device 101 may process the received results as is or additionally to provide the requested functionality or services. For example, Cloud computing, distributed computing, or client-server computing technology may be utilized.

다양한 실시 예에 따르면, 전자 장치(예: 전자 장치(101))에 있어서, 마이크(예: 마이크(151)); 디스플레이(예: 디스플레이(160)); 및 프로세서(예: 프로세서(120))를 포함하고, 상기 프로세서는, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하고, 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하고, 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 것을 포함할 수 있다.According to various embodiments, in an electronic device (e.g., electronic device 101), a microphone (e.g., microphone 151); Display (e.g., display 160); And a processor (e.g., processor 120), the processor comprising: at least one processor configured to process at least one object corresponding to the at least one object obtained based on the resource comprising the at least one object; Displaying the text on the display, determining a first one of the at least one texts corresponding to the received voice using the microphone, and based on at least one command registered to control the at least one object, And executing a command corresponding to the received voice for a first one of the at least one object corresponding to the first text.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 리소스를 분석하며, 상기 리소스의 분석 결과를 근거로 상기 컨텐트 내에서 상기 적어도 하나의 오브젝트를 구별하고 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 결정하며, 상기 리소스의 분석 결과를 근거로 상기 적어도 하나의 오브젝트를 제어하기 위한 상기 적어도 하나의 명령어를 등록하는 것을 포함할 수 있다.According to various embodiments, the processor is configured to analyze the resource, to distinguish the at least one object within the content based on an analysis result of the resource, and to determine at least one text corresponding to the at least one object And registering the at least one command for controlling the at least one object based on an analysis result of the resource.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 리소스를 근거로 상기 적어도 하나의 오브젝트 중 텍스트가 아닌 적어도 하나의 비-텍스트 오브젝트를 결정하며, 상기 적어도 하나의 비-텍스트 오브젝트에 상기 적어도 하나의 텍스트를 대응시켜 상기 디스플레이 상에 표시하는 것을 포함할 수 있다.According to various embodiments, the processor determines at least one non-text object that is not text among the at least one object based on the resource, and determines the at least one text to the at least one non- And displaying on the display correspondingly.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트의 속성을 근거로 상기 적어도 하나의 오브젝트 중 그래픽 사용자 인터페이스(graphical user interface)를 적용할 오브젝트를 결정하며, 상기 결정된 오브젝트에 상기 결정된 오브젝트의 속성에 대응하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 것을 더 포함할 수 있다.According to various embodiments, the processor determines an object to which a graphical user interface is to be applied, based on an attribute of the at least one object obtained based on the resource, And displaying the determined object on the display in correspondence with a graphical user interface corresponding to the determined object attribute.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트의 사이즈, 색상, 및 글씨체 중 적어도 하나를 조절하여 상기 디스플레이 상에 표시하는 것을 포함할 수 있다.According to various embodiments, the processor is configured to determine, based on at least one of the size, position, type, and logging information of the at least one object, the size, color, and / or size of the at least one text corresponding to the at least one object. And at least one of a font and a font to display on the display.

다양한 실시 예에 따르면, 상기 프로세서는, 결정된 중요도를 근거로 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 순서를 결정하며, 상기 결정된 순서에 따라 순차적으로 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 것을 포함할 수 있다.According to various embodiments, the processor determines an order to display the at least one text corresponding to the at least one object on the display based on the determined importance, and sequentially On the display. ≪ RTI ID = 0.0 >

다양한 실시 예에 따르면, 상기 프로세서는, 상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 중요도를 결정하는 것을 포함할 수 있다.According to various embodiments, the processor may include determining the importance based on at least one of the size, location, type, and logging information of the at least one object.

다양한 실시 예에 따르면, 카메라(미도시)를 더 포함하며, 상기 프로세서는, 상기 카메라를 통해 획득된 이미지를 근거로, 상기 디스플레이 상에 사용자의 시선이 향하는 영역을 결정하며, 상기 적어도 하나의 오브젝트 중 상기 결정된 영역에 포함된 오브젝트에 대응하는 텍스트를 상기 디스플레이 상에 표시하는 것을 포함할 수 있다.According to various embodiments, the apparatus further includes a camera (not shown), wherein the processor determines an area of the user's gaze on the display based on the image acquired through the camera, And displaying on the display text corresponding to objects included in the determined area.

다양한 실시 예에 따르면, 상기 프로세서는, 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 때, 상기 적어도 하나의 텍스트 중 서로 오버랩되어 표시될 텍스트들이 있는지를 결정하며, 상기 서로 오버랩되어 표시될 텍스트들이 있는 것으로 결정하면, 미리 결정된 중요도를 근거로 상기 서로 오버랩되어 표시될 텍스트들 중 하나의 텍스트만을 표시하도록 하는 것을 포함할 수 있다.According to various embodiments, the processor is configured to determine, when displaying the at least one text on the display, whether there are any texts to be overlapped and displayed among the at least one text, And displaying only one of the texts to be displayed overlapping with each other based on the predetermined importance.

다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트는, 텍스트, 이미지, 동영상, 아이콘, 링크, 입력 영역 중 적어도 하나를 포함할 수 있다.According to various embodiments, the at least one object may include at least one of text, images, moving images, icons, links, and input areas.

다양한 실시 예에 따르면, 상기 컨텐트는, 웹 페이지를 포함할 수 있다.According to various embodiments, the content may comprise a web page.

도 2는 다양한 실시 예에 따른 음성 인식을 이용하여 전자 장치(예: 전자 장치(101))를 제어하기 위한 명령을 생성하여 등록하는 동작의 흐름도이다. 도 3은 다양한 실시 예에 따른 전자 장치(예: 전자 장치(101))의 디스플레이상에 표시될 오브젝트를 제어하기 위한 명령을 생성하기 위한 세부 동작 흐름도이다.Figure 2 is a flow diagram of operations for creating and registering an instruction to control an electronic device (e.g., electronic device 101) using speech recognition in accordance with various embodiments. 3 is a detailed operation flow diagram for generating an instruction to control an object to be displayed on a display of an electronic device (e.g., electronic device 101) according to various embodiments.

도 2를 참조하면, 전자 장치는 컨텐트를 구성하는 리소스를 분석하여 컨텐트에 포함된 적어도 하나의 오브젝트 및 상기 적어도 하나의 오브젝트를 제어할 적어도 하나의 동작을 결정하여, 상기 적어도 하나의 오브젝트를 음성으로 제어하기 위한 명령을 등록 할 수 있다. 상기 컨텐트는 상기 리소스로 구성된 웹 페이지일 수 있으며, 상기 전자 장치 또는 상기 전자 장치와 연결된 다른 외부 장치의 디스플레이에 표시될 수 있다. 상기 리소스는, HTML(Hyper Text Markup Language) 문서 또는 XML(Extensible Markup Language) 문서 등의 표준화 문서일 수 있다.Referring to FIG. 2, an electronic device analyzes resources constituting content to determine at least one object included in the content and at least one operation to control the at least one object, and to voice the at least one object A command for controlling can be registered. The content may be a web page composed of the resource and may be displayed on the display of the electronic device or other external device connected to the electronic device. The resource may be a standardized document such as an HTML (Hyper Text Markup Language) document or an XML (Extensible Markup Language) document.

210 동작에서 전자 장치는 컨텐트에 포함되는 적어도 하나의 오브젝트를 구별할 수 있다. In operation 210, the electronic device may distinguish at least one object included in the content.

일 실시 예에 따르면, 전자 장치는 컨텐트에 포함되는 오브젝트들에 대한 오브젝트 목록을 획득할 수 있다.According to one embodiment, the electronic device may obtain an object list for the objects included in the content.

일 실시 예에 따르면, 전자 장치는 컨텐트를 구성하는 리소스를 분석하여, 상기 리소스의 분석 결과를 근거로 컨텐트에 포함되는 오브젝트들을 구별할 수 있다. 예를 들어, 전자 장치는, 상기 리소스에 포함된 태그(tag)의 종류에 따라, 컨텐트에 포함되는 오브젝트들을 구별할 수 있다. 예를 들어, 상기 오브젝트는, 텍스트, 이미지, 동영상, 아이콘, 링크, 또는 입력 영역 등 다양할 수 있다. According to one embodiment, the electronic device can analyze the resources constituting the content and distinguish objects included in the content based on the analysis result of the resource. For example, the electronic device can distinguish objects included in the content according to the type of tag included in the resource. For example, the object may be a text, an image, a moving picture, an icon, a link, or an input area.

220 동작에서 전자 장치는 상기 적어도 하나의 오브젝트를 제어하기 위한 동작 정보를 획득할 수 있다. In operation 220, the electronic device may obtain operational information for controlling the at least one object.

일 실시 예에 따르면, 전자 장치는 오브젝트 별로 해당 오브젝트를 제어하기 위한 동작 정보에 대한 동작 정보 리스트를 획득할 수 있다. According to one embodiment, the electronic device can obtain the operation information list for the operation information for controlling the object for each object.

일 실시 예에 따르면, 상기 동작 정보는, 해당 오브젝트에 대한 사용자 조작(입력) 및 상기 사용자 조작에 따른 전자 장치의 적어도 하나의 제어 동작을 포함할 수 있다.According to one embodiment, the operation information may include a user operation (input) for the object and at least one control operation of the electronic device according to the user operation.

일 실시 예에 따르면, 전자 장치는 오브젝트 별로 속성을 분석하여 각 오브젝트를 제어하기 위한 동작 정보를 획득할 수 있다. According to one embodiment, the electronic device may analyze the attributes on an object-by-object basis to obtain operation information for controlling each object.

예를 들어, 전자 장치는 리소스에 정의된 각 오브젝트의 속성을 기반으로, 클릭, 마우스 오버, 드래그, 스크롤 등의 사용자 조작 및 텍스트를 음성으로 출력, 텍스트 복사, 특정 명령어 검색 등의 상기 사용자 조작에 따른 전자 장치의 오브젝트의 적어도 하나의 제어 동작을 포함하는 동작 정보를 획득할 수 있다. For example, the electronic device can perform various operations such as user manipulation such as clicking, mouse-over, dragging, scrolling, and the like by voice output, text copy, And at least one control operation of an object of the electronic device according to the present invention.

예를 들어, 전자 장치는, 컨텐트를 구성하는 리소스에 포함된 태그(tag)를 분석하여 오브젝트 별로 제어 가능한 동작 정보를 획득할 수 있다.For example, the electronic device can analyze the tags included in the resources constituting the content to obtain operation information that can be controlled on an object-by-object basis.

예를 들어, 제1 오브젝트의 속성이 마우스 커서를 이동하면 제1 오브젝트의 색상이 변경되는 동작을 수행하는 것으로 상기 제1 오브젝트를 포함하는 컨텐트의 리소스에 정의된 경우, 전자 장치는 상기 컨텐트의 리소스에 정의된 속성을 근거로 마우스 커서의 이동과 상기 마우스 커서의 이동에 따른 제1 오브젝트의 색상 변경 동작을 상기 제1 오브젝트를 제어하기 위한 동작 정보로 획득할 수 있다.For example, when the attribute of the first object performs an operation of changing the color of the first object when the mouse cursor is moved, if the attribute of the first object is defined in the resource of the content including the first object, And the color changing operation of the first object according to the movement of the mouse cursor can be obtained as operation information for controlling the first object.

다른 예로, 제1 오브젝트가 링크(하이퍼링크라고도 함)인 경우, 제1 오브젝트의 속성이 클릭 또는 터치 등의 입력을 통해 현재 화면의 다른 부분으로 이동하거나, 새로운 페이지로 이동하는 것으로 상기 제1 오브젝트를 포함하는 컨텐트의 리소스에 정의 될 수 있다. 전자 장치는 상기 컨텐트의 리소스에 정의된 제1 오브젝트의 속성을 근거로 클릭 또는 터치 등의 입력을 통해 현재 화면의 다른 부분으로 이동하거나, 새로운 페이지로의 이동 동작을 상기 제1 오브젝트를 제어하기 위한 동작 정보로 획득할 수 있다.As another example, when the first object is a link (also referred to as a hyperlink), the attribute of the first object is moved to another part of the current screen through input such as click or touch, Lt; RTI ID = 0.0 > a < / RTI > The electronic device moves to another part of the current screen through input such as click or touch based on the attribute of the first object defined in the resource of the content, And can be obtained as operation information.

또 다른 예로, 상기 제1 오브젝트가 텍스트인 경우, 제1 오브젝트의 속성이 터치를 통한 TTS(text to speech) 기술 적용을 통한 음성 출력, 드래그를 통한 텍스트 선택, 및/또는 드래그 및 클릭을 통한 검색 등으로 상기 제1 오브젝트를 포함하는 컨텐트의 리소스에 정의될 수 있다. 전자 장치는 상기 컨텐트의 리소스에 정의된 제1 오브젝트의 속성을 근거로 터치를 통한 TTS(text to speech) 기술 적용을 통한 음성 출력, 드래그를 통한 텍스트 선택, 및/또는 드래그 및 클릭을 통한 검색 동작을 상기 제1 오브젝트를 제어하기 위한 동작 정보로 획득할 수 있다.As another example, when the first object is text, the attributes of the first object may include audio output through application of TTS (text to speech) technology through touch, text selection through dragging, and / or search through drag and click Or may be defined in the resource of the content including the first object. The electronic device can perform a voice output by applying a text to speech (TTS) technique through touch, a text selection through dragging, and / or a search operation by drag and click based on the attribute of the first object defined in the resource of the content As operation information for controlling the first object.

다른 실시 예에 따르면, 오브젝트의 종류 별로 동작 정보가 미리 지정되어 있을 수 있다. According to another embodiment, the operation information may be previously specified for each object type.

예를 들어, 컨텐트의 리소스에 오브젝트의 종류 별로 동작 정보가 미리 지정되어 있을 수 있다. 보다 상세하게는, 컨텐트의 리소스에 포함된 태그로 상기 오브젝트의 종류 별로 동작 정보가 정의 되어 있을 수 있다.For example, operation information may be specified in advance for each object type in the resource of the content. More specifically, the operation information may be defined for each type of the object in the tag included in the resource of the content.

또 다른 예로, 전자 장치에 오브젝트의 종류 별로 동작 정보가 미리 지정되어 있을 수 있다.As another example, the electronic device may have previously specified operation information for each object type.

230 동작에서 전자 장치는 상기 적어도 하나의 오브젝트 및 상기 적어도 하나의 오브젝트의 동작 정보를 근거로 명령어를 생성 및 등록할 수 있다.In operation 230, the electronic device may generate and register an instruction based on the operation information of the at least one object and the at least one object.

일 실시 예에 따르면, 전자 장치는 상기 적어도 하나의 오브젝트 및 상기 적어도 하나의 오브젝트의 동작 정보를 근거로 적어도 하나의 명령어(텍스트 명령어라고도 함)를 생성 및 등록할 수 있다.According to one embodiment, the electronic device may generate and register at least one command (also referred to as a text command) based on the at least one object and the operation information of the at least one object.

일 실시 예에 따르면, 상기 명령어는 오브젝트를 특정하기 위한 선택 부분과 상기 오브젝트를 제어하기 위한 제어 부분을 포함할 수 있다. 예를 들어, 전자 장치는 오브젝트 별로 대응하는 텍스트를 결정 또는 선택하여, 각 오브젝트를 특정하기 위한 선택 부분인 제1 명령어를 생성 또는 선택할 수 있다. 상기 오브젝트가 텍스트일 경우, 전자 장치는 상기 텍스트에 포함된 단어 또는 문장을 제1 명령어로 선택할 수 있으며, 상기 오브젝트가 텍스트가 아닌 비-텍스트일 경우, 전자 장치는 상기 오브젝트가 포함된 컨텐트의 리소스를 근거로 제1 명령어를 결정할 수 있다. 또한, 전자 장치는 오브젝트 별로 각 동작 정보와 대응하는 제어 부분인 제2 명령어를 생성할 수 있다. According to one embodiment, the instruction may include a selection portion for specifying an object and a control portion for controlling the object. For example, the electronic device may generate or select a first instruction, which is a selection portion for specifying each object, by determining or selecting a corresponding text for each object. If the object is a text, the electronic device can select a word or a sentence included in the text as a first command, and if the object is non-text rather than text, the electronic device transmits the content of the content The first instruction can be determined based on the first instruction. Further, the electronic device can generate a second instruction, which is a control part corresponding to each operation information for each object.

도 3을 참조하여 상기 명령어를 생성하는 동작을 상세히 설명한다. 도 3을 참조하면, 상기 명령어는, 제1 오브젝트가 텍스트인지 여부에 따라서 다르게 결정될 수 있다. 예를 들어, 제1 오브젝트가 텍스트이면, 전자 장치는 상기 텍스트의 전체 또는 일부 단어를 제1 오브젝트의 선택을 위한 제1 명령어로 결정 할 수 있다. 제1 오브젝트가 텍스트가 아닌 이미지 또는 아이콘 등의 비-텍스트이면, 전자 장치는 제1 오브젝트의 선택을 위한 제1 명령어로 숫자나, 알파벳 등의 자동 아이디 형태의 명령어가 부여되도록 할 수 있다.The operation of generating the command will be described in detail with reference to FIG. Referring to FIG. 3, the command may be determined differently depending on whether the first object is text or not. For example, if the first object is text, the electronic device may determine all or some of the words of the text as the first instruction for selection of the first object. If the first object is a non-text such as an image or an icon, the electronic device may be provided with an automatic ID-type command such as a number or an alphabet as a first command for selecting the first object.

310 동작에서 전자 장치는 제1 오브젝트가 텍스트인지를 결정할 수 있다. 예를 들어, 전자 장치는 제1 오브젝트를 포함하는 컨텐트의 리소스를 분석하여, 제1 오브젝트가 텍스트인지를 결정할 수 있다. 310 동작에서 전자 장치가 제1 오브젝트를 텍스트인 것으로 결정하면 320 동작을 실행할 수 있으며, 그렇지 않으면 330 동작을 실행할 수 있다.In operation 310, the electronic device may determine that the first object is text. For example, the electronic device may analyze the resource of the content including the first object to determine whether the first object is text. In 310 operation, if the electronic device determines that the first object is text, then 320 operation may be performed, otherwise 330 operation may be performed.

320 동작에서 전자 장치는 제1 오브젝트인 텍스트의 적어도 일부(단어 또는 문장)를 제1 오브젝트의 선택을 위한 제1 명령어로 결정할 수 있다. In operation 320, the electronic device may determine at least a portion (a word or a sentence) of text as a first object as a first instruction for selection of a first object.

일 실시 예에 따르면, 전자 장치는 제1 명령어를 결정하기 위한 조건을 저장할 수 있으며, 저장된 조건을 이용하여 제1 명령어를 결정할 수 있다.According to one embodiment, the electronic device may store a condition for determining a first instruction and may use the stored condition to determine a first instruction.

예를 들면, 전자 장치는 리소스의 태그를 분석하여 상기 텍스트의 주제 부분(주제 단어 또는 주제 문장)을 확인할 수 있으며, 상기 주제 부분을 상기 제1 명령어로 결정할 수 있다. For example, the electronic device can analyze a tag of a resource to identify a subject portion (a subject word or a subject sentence) of the text, and determine the subject portion as the first command.

다른 예로, 전자 장치는 리소스의 태그를 분석하여 상기 텍스트의 가장 첫 번째 문장을 확인할 수 있으며, 상기 첫 번째 문장을 상기 제1 명령어로 결정할 수 있다.As another example, the electronic device can determine the first sentence of the text by analyzing the tag of the resource, and determine the first sentence as the first instruction.

또 다른 예로, 전자 장치는 리소스를 분석하여 상기 텍스트에서 상대적으로 굵게 표시된 단어 또는 문장, 상대적으로 크게 표시된 단어 또는 문장, 밑줄 그어진 단어 또는 문장, 및/또는 다른 단어 또는 문장과 비교하여 글씨체가 다른 단어 또는 문장 등을 확인하여 강조된 단어 또는 문장을 결정할 수 있으며, 상기 강조된 단어 또는 문장을 제1 명령어로 결정할 수 있다.As another example, the electronic device may analyze resources to compare the text with relatively bold words or phrases, relatively large words or phrases, underlined words or phrases, and / or other words or phrases, Or a sentence or the like to determine an emphasized word or sentence, and the emphasized word or sentence can be determined as a first command.

또 다른 예로, 전자 장치는 상기 텍스트에 포함된 모든 단어 및/또는 모든 문장을 제1 명령어로 결정할 수도 있다.As another example, the electronic device may determine all words and / or all sentences contained in the text as a first instruction.

330 동작에서 전자 장치는 텍스트를 제1 오브젝트에 부여하여 상기 텍스트를 상기 제1 오브젝트의 선택을 위한 제1 명령어로 결정할 수 있다.In operation 330, the electronic device may assign text to a first object and determine the text as a first instruction for selection of the first object.

일 실시 예에 따르면, 상기 텍스트는, 숫자, 알파벳 등 다양할 수 있다.According to one embodiment, the text may be a number, an alphabet, or the like.

일 실시 예에 따르면, 상기 텍스트는 화면에 표시될 때, 툴팁 형태로 표시될 수 있다.According to one embodiment, the text may be displayed as a tool tip when displayed on a screen.

일 실시 예에 따르면, 전자 장치는 리소스에서 제1 오브젝트의 속성을 분석하여 텍스트를 부여할 수 있다. According to one embodiment, the electronic device may analyze the attributes of the first object in the resource to render the text.

예를 들어, 제1 오브젝트의 종류, 제1 오브젝트가 표시되는 위치, 리소스에서 제1 오브젝트의 위치, 및/또는 제1 오브젝트가 표시될 때의 사이즈 등의 속성을 고려하여, 제1 오브젝트의 텍스트를 부여할 수 있다.For example, in consideration of attributes such as the type of the first object, the position at which the first object is displayed, the position of the first object at the resource, and / or the size at the time when the first object is displayed, Can be given.

예를 들어, 상기 제1 오브젝트 이외에도 상기 제1 오브젝트가 포함된 컨텐트에 텍스트가 아닌 비-텍스트 오브젝트가 더 있을 경우, 상기 제 1 오브젝트의 텍스트는 다른 비-텍스트 오브젝트의 텍스트와 구분되는 텍스트일 수 있다. 즉, 컨텐트에 복수의 비-텍스트 오브젝트들이 있을 경우, 전자 장치는 상기 속성을 근거로, 복수 개의 비-텍스트 오브젝트들 각각에 각기 다른 텍스트를 부여할 수 있다. 예를 들어, 컨텐트에 텍스트가 아닌 비-텍스트 오브젝트가 3개가 있다고 할 경우, 전자 장치는 가장 크게 표시될 제1 비-텍스트 오브젝트에는 숫자 1을, 가장 작게 표시될 제2 비-텍스트 오브젝트에는 숫자 3을, 나머지 비-텍스트 오브젝트에는 숫자 2를 부여할 수 있다.For example, if there is a non-text object in addition to the first object in the content including the first object, the text of the first object may be a text that is separated from the text of another non-text object have. That is, if there are a plurality of non-text objects in the content, the electronic device may assign different texts to each of the plurality of non-text objects based on the attribute. For example, if there are three non-text objects in the content, the electronic device will display the number 1 for the first non-text object to be displayed the largest and the number 1 for the second non- 3 for the remaining non-text objects, and the number 2 for the remaining non-text objects.

340 동작에서 전자 장치는 제1 오브젝트를 제어하기 위해 획득한 제1 동작 정보를 근거로, 제1 오브젝트를 제어하기 위한 제2 명령어를 결정할 수 있다.In operation 340, the electronic device may determine a second instruction to control the first object based on the first motion information obtained to control the first object.

일 실시 예에 따르면, 상기 제1 동작 정보는 제1 사용자 조작 및 상기 제1 사용자 조작에 따른 제1 제어 동작을 포함할 수 있다. 예를 들어, 전자 장치는 상기 제1 제어 동작에서 제1 사용자 조작 및 상기 제1 사용자 조작에 따른 제1 제어 동작을 추출할 수 있다. 또한, 전자 장치는 상기 제1 사용자 조작에 대응하는 제2 명령어를 생성할 수 있으며, 상기 명령어가 상기 제1 제어 동작과 대응되도록 할 수 있다. 예를 들어, 상기 제1 사용자 조작이 클릭, 마우스 오버, 드래그, 스크롤, TTS, 또는 검색 등 일 때, 제2 명령어는 클릭, 마우스 오버, 드래그, 스크롤, TTS, 또는 검색 등 일 수 있다.According to an embodiment, the first operation information may include a first user operation and a first control operation according to the first user operation. For example, the electronic device can extract a first user operation in the first control operation and a first control operation in accordance with the first user operation. Further, the electronic device may generate a second instruction corresponding to the first user operation, and the instruction may correspond to the first control operation. For example, when the first user operation is a click, a mouse over, a drag, a scroll, a TTS, or a search, the second instruction may be click, mouse over, drag, scroll, TTS, or search.

일 실시 예에 따르면, 전자 장치는 제2 명령어를 복수개 생성할 수도 있다. 예를 들어, 상기 제1 사용자 조작에 대해 사용자가 발화할 수 있는 가능한 다양한 제2 명령어들을 생성하여, 사용자가 제2 명령어들 중 어느 하나의 명령어만 발화하여도 상기 제1 동작을 실행하도록 할 수 있다.According to one embodiment, the electronic device may generate a plurality of second instructions. For example, it is possible to generate a variety of possible second instructions that the user may utter for the first user operation so that the user may execute the first action even if only one of the second instructions is uttered have.

일 실시 예에 따르면 제2 명령어는 제어 동작에 포함된 사용자 조작 별로 미리 지정된 것일 수 있으며, 또는 제2 명령어는 축적된 사용자 음성 명령들 또는 복수의 사람들의 음성 명령 통계 정보 등을 근거로 제어 동작마다 전자 장치가 자동으로 생성하는 것일 수 있다.According to one embodiment, the second command may be predefined for each user operation included in the control operation, or the second command may be stored for each control operation based on stored user voice commands or voice command statistical information of a plurality of people, It may be one that the electronic device generates automatically.

350 동작에서 전자 장치는 제1 명령어 및 제2 명령어를 근거로 제1 오브젝트를 제어하기 위한 명령어를 생성할 수 있다. 예를 들어, 전자 장치는 제1 명령어 및 제2 명령어를 포함하는 명령어를 생성할 수 있다.In operation 350, the electronic device may generate instructions for controlling the first object based on the first instruction and the second instruction. For example, the electronic device may generate an instruction that includes a first instruction and a second instruction.

도 4은 다양한 실시 예에 따른 전자 장치(예: 전자 장치(101))의 음성 인식에 따른 컨텐트에 포함된 오브젝트를 제어하는 동작의 흐름도이다. 4 is a flowchart of operations for controlling objects included in content according to speech recognition of an electronic device (e.g., electronic device 101) according to various embodiments.

도 4을 참조하면, 전자 장치는 컨텐트를 디스플레이 상에 표시할 때, 컨텐트에 포함된 텍스트 오브젝트가 아닌 비-텍스트 오브젝트에 텍스트를 대응시켜 표시할 수 있다. 또한, 전자 장치는 사용자의 음성을 인식하여 오브젝트에 대한 제어 동작을 실행할 수 있다.Referring to FIG. 4, when an electronic device displays content on a display, it can display text corresponding to a non-text object that is not a text object contained in the content. Further, the electronic device recognizes the voice of the user and can perform a control operation on the object.

일 실시 예에 따르면, 사용자가 "12"라는 숫자로 명령어가 부여된 사진을 클릭하고자 하는 경우, "12 클릭" 또는 "클릭 12"등으로 음성을 발화 할 수 있다. 이러한 음성을 수신한 전자 장치는 등록된 명령어들 중 상기 발화된 음성과 대응되는 명령어가 존재하는지를 결정할 수 있다. 예를 들어, 전자 장치는 상기 발화된 음성과 등록된 명령어들과의 비교를 통해, 상기 발화된 음성과 대응하는 명령어를 결정할 수 있다. 예를 들어, 전자 장치는"12"를 명령어에서 오브젝트를 특정하기 위한 선택 부분의 제1 명령어로 인식하고, "클릭"을 상기 인식한 오브젝트 12의 제어 부분의 제2 명령어로 인식할 수 있다. 이에 따라, 전자 장치는 상기 결정된 명령어에 대응하는 제어 동작, 즉 상기 오브젝트 12를 클릭하는 동작을 실행할 수 있다.According to one embodiment, when the user wants to click on a picture to which a command is assigned with the number "12 ", the user can utter the voice with" 12 clicks " The electronic device receiving the voice may determine whether there is a command corresponding to the uttered voice among the registered commands. For example, the electronic device may determine a command corresponding to the uttered voice, by comparing the uttered voice with registered commands. For example, the electronic device may recognize "12" as the first instruction of the selection portion for specifying the object in the instruction and "click " as the second instruction of the control portion of the recognized object 12. [ Accordingly, the electronic device can execute a control operation corresponding to the determined command, that is, an operation of clicking the object 12. [

410 동작에서 전자 장치는 컨텐트와 상기 컨텐트에 포함된 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 표시 할 수 있다. In operation 410, the electronic device may display the content and at least one text corresponding to at least one object contained in the content.

일 실시 예에 따르면, 상기 컨텐트는 웹 페이지일 수 있으며, 상기 적어도 하나의 오브젝트는, 이미지, 텍스트, 동영상, 아이콘 등 다양할 수 있다.According to one embodiment, the content may be a web page, and the at least one object may be an image, text, video, icon, and the like.

일 실시 예에 따르면, 전자 장치는 적어도 하나의 오브젝트를 포함하는 컨텐트를 수신하고, 전자 장치는 상술한 도 2 및 도 3을 참조하여 설명한 명령을 생성하는 동작하는 실행할 수 있다. 또한, 전자 장치는 상기 수신된 컨텐트를 디스플레이에 표시하며, 상기 컨텐트에 포함된 비-텍스트 오브젝트들 각각에 부여된 텍스트를 상기 비-텍스트 오브젝트들 각각에 대응되도록 표시할 수 있다. 상기 비-텍스트 오브젝트들 각각에 부여된 텍스트는, 명령을 생성하는 동작의 실행 중 도 3의 330 동작에 따라 표시될 컨텐트에 포함된 오브젝트들 중 텍스트가 아닌 비-텍스트 오브젝트들 각각에 부여된 텍스트일 수 있다. 상기 컨텐트와 상기 비-텍스트 오브젝트들 각각에 부여된 텍스트는 동시에 디스플레이에 표시될 수 있으며, 또는, 상기 컨텐트가 디스플레이에 표시된 이 후, 사용자 조작 등에 따라 추가로 상기 비-텍스트 오브젝트들 각각에 부여된 텍스트가 표시될 수 있다.According to one embodiment, the electronic device receives content comprising at least one object, and the electronic device is operable to generate the commands described with reference to Figs. 2 and 3 above. In addition, the electronic device may display the received content on a display, and display the text assigned to each of the non-text objects included in the content to correspond to each of the non-text objects. The text assigned to each of the non-text objects is selected from among text included in the content to be displayed according to operation 330 of FIG. 3 during execution of an operation of generating a command, Lt; / RTI > The content and the text assigned to each of the non-text objects may be displayed on the display at the same time, or after the content is displayed on the display, Text may be displayed.

다른 실시 예에 따르면, 전자 장치는 적어도 하나의 오브젝트를 포함하는 컨텐트를 수신하고, 상기 컨텐트에 포함된 비-텍스트 오브젝트들 각각에 부여된 텍스트를 수신하고, 상기 컨텐트에 포함된 오브젝트들 각각에 대응하는 등록된 적어도 하나의 명령어를 수신할 수 있다. 또한, 전자 장치는 수신된 컨텐트를 디스플레이에 표시하며, 상기 컨텐트에 포함된 비-텍스트 오브젝트들 각각에 부여된 텍스트를 상기 비-텍스트 오브젝트들 각각에 대응되도록 표시할 수 있다. 상기 컨텐트와 상기 비-텍스트 오브젝트들 각각에 부여된 텍스트는 동시에 디스플레이에 표시될 수 있으며, 또는, 상기 컨텐트가 디스플레이에 표시된 이 후, 사용자 조작 등에 따라 추가로 상기 비-텍스트 오브젝트들 각각에 부여된 텍스트가 표시될 수 있다.According to another embodiment, an electronic device receives content comprising at least one object, receives text assigned to each of the non-text objects contained in the content, and responds to each of the objects contained in the content Lt; RTI ID = 0.0 > 1 < / RTI > In addition, the electronic device may display the received content on a display, and display the text assigned to each of the non-text objects included in the content to correspond to each of the non-text objects. The content and the text assigned to each of the non-text objects may be displayed on the display at the same time, or after the content is displayed on the display, Text may be displayed.

420 동작에서 전자 장치는 음성 신호를 수신할 수 있다. 예를 들어, 전자 장치는 마이크를 이용하여 사용자의 음성을 수신할 수 있다. In operation 420, the electronic device may receive a voice signal. For example, an electronic device can receive a user's voice using a microphone.

430 동작에서 전자 장치는 수신된 음성 신호의 음성을 인식할 수 있다. 예를 들어, 전자 장치는 음성 인식 기술을 이용하여 수신된 음성 신호의 음성을 인식할 수 있다. 전자 장치는, 수신된 음성 신호를 텍스트로 변환 할 수 있으며, 변환된 텍스트를 인식할 수 있다. In operation 430, the electronic device can recognize the voice of the received voice signal. For example, the electronic device can recognize the voice of the received voice signal using voice recognition technology. The electronic device can convert the received voice signal into text and recognize the converted text.

440 동작에서 전자 장치는 인식된 음성에 대응하는 등록된 명령어를 선택할 수 있다. In operation 440, the electronic device may select a registered command corresponding to the recognized voice.

예를 들어, 전자 장치는 상기 인식된 음성과 등록된 명령어들과의 비교를 통해, 상기 인식된 음성과 대응하는 명령어를 결정할 수 있다. 예를 들어, 전자 장치는 상기 인식된 음성을 근거로 컨텐트 내의 오브젝트를 특정하기 위한 선택 부분의 제1 명령어와 상기 제1 오브젝트를 제어하기 위한 제어 부분의 제2 명령어를 포함하는 명령어를 결정할 수 있다.For example, the electronic device may determine a command corresponding to the recognized voice, by comparing the recognized voice with registered commands. For example, the electronic device may determine an instruction comprising a first instruction of a selection portion for specifying an object in the content based on the recognized speech and a second instruction of a control portion for controlling the first object .

또 다른 예로, 전자 장치는 자연어 처리 기술을 이용하여 상기 인식된 음성이 의도하는 명령과 대응하는 명령어를 결정할 수도 있다. 예를 들어, 상기 인식된 음성이 "제1 오브젝트를 터치해줘"인 경우, 전자 장치는 자연어 처리 기술을 적용하여 상기 인식된 음성이 의도하는 바를 판단할 수 있으며, 등록된 명령어인 "제1 오브젝트 클릭"으로 인식하도록 하여 "제1 오브젝트 클릭"의 명령어를 결정할 수 있다.As another example, the electronic device may use natural language processing techniques to determine an instruction corresponding to a command intended by the recognized speech. For example, when the recognized voice is "touch the first object ", the electronic device can determine the intention of the recognized voice by applying a natural language processing technique, and the registered command" Quot; click "to determine the command of" first object click ".

450 동작에서 전자 장치는 상기 명령어에 대응하는 동작을 실행할 수 있다. 예를 들어, 전자 장치는 상기 명령어에 포함된 제2 명령어를 실행할 수 있다.In 450 operation, the electronic device may execute an operation corresponding to the instruction. For example, the electronic device may execute a second instruction contained in the instruction.

다양한 실시 예에 따르면, 전자 장치는, 410 동작의 컨텐트와 상기 컨텐트에 포함된 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 표시하는 동작 시, 추가로 그래픽 사용자 인터페이스(GUI; graphical user interface)를 표시할 수 있다. 예를 들어, 전자 장치는 컨텐트의 리소스를 근거하여 컨텐트에 포함된 각 오브젝트 별로 속성을 확인할 수 있으며, 상기 확인된 속성을 근거로 컨텐트에 포함된 각 오브젝트 중 GUI를 적용할 오브젝트를 결정할 수 있다. 또 다른 예로, 전자 장치는 각 오브젝트 별 대응하는 명령어를 근거로, 컨텐트에 포함된 각 오브젝트 중 GUI를 적용할 오브젝트를 결정할 수 있다. 이후 전자 장치는, 상기 결정된 오브젝트에 상기 결정된 오브젝트의 속성 또는 명령어에 대응하는 GUI를 대응시켜 디스플레이상에 표시할 수 있다. 이에 따라 표시된 GUI가 가이드 역할을 하도록 하여 사용자가 특정 오브젝트를 제어하기 위한 음성을 명확하게 발화할 수 있도록 도울 수 있다.According to various embodiments, the electronic device further comprises a graphical user interface (GUI) in operation to display at least one text corresponding to at least one object contained in the content of the 410 operation and the content Can be displayed. For example, the electronic device can identify an attribute for each object included in the content based on the resource of the content, and can determine an object to which the GUI is applied among each object included in the content based on the identified attribute. As another example, the electronic device can determine an object to which the GUI is applied among each object included in the content based on a corresponding instruction for each object. Thereafter, the electronic device can display the attribute of the determined object or the GUI corresponding to the command on the determined object on the display. Thereby allowing the displayed GUI to act as a guide so that the user can speak clearly to control a particular object.

일 실시 예에 따르면, 상기 GUI는 아이콘, 이미지, 툴팁 등 다양할 수 있다.According to one embodiment, the GUI may be various icons, images, tooltips, and the like.

일 실시 예에 따르면, 상기 속성은, 오브젝트의 종류, 및/또는 오브젝트의 동작 정보 등 다양할 수 있다. 예를 들어, 제1 오브젝트에 대한 동작 정보가 클릭 등과 같은 기본 동작이 아닌 텍스트 입력, 또는 마우스의 제1 버튼 및 제2 버튼 중 제2 버튼의 클릭 등인 경우, 사용자가 음성으로 발화하기 쉽도록 미리 지정된 GUI를 제1 오브젝트에 대응시켜 디스플레이상에 표시할 수 있다.According to one embodiment, the attribute may be various, such as the type of the object and / or the operation information of the object. For example, when the operation information on the first object is text input other than the basic operation such as clicking, or the first button of the mouse and the second button of the second button, etc., The designated GUI can be displayed on the display in association with the first object.

도 5는 다양한 실시 예에 따른 전자 장치(예: 전자 장치(101))의 디스플레이 화면의 예시도이다.5 is an exemplary view of a display screen of an electronic device (e.g., electronic device 101) according to various embodiments.

도 5를 참조하면, 전자 장치는 디스플레이에 웹 페이지와 이미지 오브젝트들 각각(501, 502, 503, 504, 505, 506, 507, 508)에 대응하는 텍스트인 숫자 1 내지 8이 부여된 툴 팁들(tooltips) (551, 552, 553, 554, 555, 556, 557, 558)을 표시 할 수 있다. 또한, 전자 장치는 텍스트 입력 속성을 가진 오브젝트(501)에 초록색 가이드 GUI(511)를 표시 할 수 있다. 또한, 전자 장치는 마우스 오버를 통한 확장 속성을 가진 오브젝트들(521, 522, 523, 524) 각각에는 노랜색의 가이드 GUI(561, 562, 563, 564)를 표시 할 수 있다. 5, the electronic device displays tool tips (e.g., texts) assigned numbers 1 through 8 corresponding to the web page and image objects 501, 502, 503, 504, 505, 506, 507, (551, 552, 553, 554, 555, 556, 557, 558). In addition, the electronic device can display the green guide GUI 511 on the object 501 having the text input attribute. Also, the electronic device can display the guide GUIs 561, 562, 563, and 564 of yellow color on each of the objects 521, 522, 523, and 524 having the extended attribute through the mouseover.

상술한 도 5의 실시 예에 따르면, 전자 장치는 이미지 오브젝트들에 오버랩되도록 대응하는 텍스트를 표시할 수 있다. 이러한 동작의 수행에 있어, 동일한 사이즈의 텍스트를 모든 오브젝트들 위에 오버랩되도록 표시할 경우, 사용자는 전자 장치에 표시된 오브젝트들에 대해 부자연스러운 느낌을 가질 수 있다. 또한, 예를 들어, 전자 장치의 화면의 레이아웃 상, 상대적으로 큰 이미지 오브젝트는 컨텐트에서 중요한 부분을 차지한다고 할 수 있으며, 이러한 특성을 반영하여 텍스트를 표시할 경우, 사용자가 쉽게 텍스트를 인지하여 음성 명령 발화를 할 수 있다. According to the embodiment of FIG. 5 described above, the electronic device may display the corresponding text to overlap the image objects. In performing such an operation, if a text of the same size is displayed to be overlapped on all the objects, the user may have an unnatural feeling about the objects displayed on the electronic device. In addition, for example, on the layout of the screen of the electronic device, a relatively large image object may occupy an important part in the content. When the text is displayed reflecting such a characteristic, Command can be uttered.

이에 따라, 다양한 실시 예에 따르면, 전자 장치는, 전자 장치의 화면에 표시된 컨텐트에 포함된 각각의 이미지 오브젝트의 사이즈에 따라, 표시될 텍스트의 사이즈가 각각 다르게 적용되도록 할 수 있다. Thus, according to various embodiments, the electronic device may be configured such that the size of the text to be displayed is differently applied, depending on the size of each image object included in the content displayed on the screen of the electronic device.

일 실시 예에 따르면, 전자 장치는 이미지 오브젝트 각각의 사이즈에 대응하도록 텍스트 사이즈를 각각 변경하여 표시할 수 있다. 전자 장치는 컨텐트를 구성하는 리소스에서 이미지 오브젝트 각각의 사이즈와 관련된 부분을 확인하여, 오브젝트 각각의 사이즈에 대응하도록 텍스트 사이즈를 각각 설정할 수 있다. 도 6을 참조하면, 전자 장치는 이미지 오브젝트들(601, 602, 603, 604, 605, 606, 607, 608) 중 사이즈가 가장 큰 이미지 오브젝트(603)의 툴 팁(653)이 다른 오브젝트들(601, 602, 604, 605, 606, 607, 608)의 툴 팁들(651, 652, 654, 655, 656, 657, 658)에 비해, 큰 사이즈로 표시 되도록 할 수 있다. 또한, 전자 장치는 디스플레이 사이즈가 가장 작은 이미지 오브젝트들(601, 602)의 툴 팁들(651, 652)은 다른 오브젝트들(603, 604, 605, 606, 607, 608)의 툴 팁들(653, 654, 655, 656, 657, 658)에 비해 작은 사이즈로 표시 되도록 할 수 있다.According to one embodiment, the electronic device may change and display the text size to correspond to the size of each of the image objects. The electronic device can identify a portion related to the size of each of the image objects in the resources constituting the content, and set the text size to correspond to the size of each of the objects. 6, a tool tip 653 of an image object 603 having the largest size among image objects 601, 602, 603, 604, 605, 606, 607, The tool tips 651, 652, 654, 655, 656, 657, and 658 of the first to sixth embodiments 601, 602, 604, 605, 606, 607, The electronic devices also include tool tips 651 and 652 of the image objects 601 and 602 having the smallest display size and tool tips 653 and 654 of the other objects 603, 604, 605, 606, 607, , 655, 656, 657, 658).

한편, 상술한 이미지 오브젝트의 텍스트 사이즈 변경 실시 예를 GUI에도 동일하게 적용하여, GUI를 적용하는 오브젝트 각각의 사이즈에 대응하도록 GUI 사이즈를 변경하여 표시하도록 할 수 있다.On the other hand, by applying the above-described embodiment of changing the text size of the image object to the GUI in the same manner, the GUI size can be changed and displayed so as to correspond to the size of each object to which the GUI is applied.

일반적으로 웹 페이지 등의 컨텐트와 함께, 한 번에 오브젝트들 각각에 대응하는 GUI 및 이미지 오브젝트들 각각에 대응하는 텍스트를 모두 표시하게 되면, 화면이 지저분하게 보이거나 사용자가 거부감을 느낄 수도 있다. 이러한 문제점을 해결하기 위해, 다양한 실시 예에 따르면 전자 장치는 지정된 중요도에 따라 오브젝트들을 분류하고 이를 기반으로 GUI 및 텍스트를 표시하는 순서를 결정할 수 있다. In general, if all the text corresponding to each of the GUI and image objects corresponding to the objects at one time is displayed together with the content such as a web page, the screen may appear dirty or the user may feel rejection. In order to solve this problem, according to various embodiments, the electronic device can classify objects according to the designated importance and determine the order of displaying the GUI and the text based thereon.

일 실시 예에 따르면, 전자 장치는, 컨텐트에 포함된 오브젝트를 입력 창, 사이즈가 큰 오브젝트, 작은 오브젝트, 특정 제품을 광고하는 광고 오브젝트 등과 같은 상대적인 중요도에 따라, 오브젝트들을 분류하고 이를 기반으로 GUI 및/또는 텍스트를 표시하는 순서 레이어를 결정할 수 있다. 예를 들어, 음성 발화를 하기 위해 시작 트리거(trigger)에 대한 사용자 입력이 있으면, 지정된 순서 레이어에 따라 순차적으로 GUI 및/또는 텍스트를 표시할 수 있다.According to one embodiment, an electronic device classifies objects according to relative importance such as an input window, an object having a large size, a small object, an advertisement object advertising a specific product, and the like, / / You can determine the order layer that displays the text. For example, if there is a user input for a start trigger to perform a speech utterance, the GUI and / or text may be sequentially displayed according to a specified order layer.

다른 실시 예에 따르면, 전자 장치는, 오브젝트의 종류, 오브젝트의 사이즈, 및/또는 오브젝트의 위치 등을 근거로, 오브젝트의 중요도를 결정할 수 있으며, 상기 오브젝트의 중요도에 따라 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 순서를 결정할 수 있다. 예를 들어, 전자 장치는 오브젝트의 사이즈가 클수록 중요도가 높은 것으로 결정할 수 있으며, 중요도가 높은 순서대로, 즉 사이즈가 큰 순서대로 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 수 있으며, 중요도가 동일한 오브젝트들의 경우에는 해당 순서에 동시에 각각 대응하는 GUI 및/또는 텍스트를 표시할 수 있다. 또는 전자 장치는 오브젝트의 위치가 화면의 중앙일수록 중요도가 높은 것으로 결정할 수 있으며, 중요도가 높은 순서대로, 즉 중앙에 가까운 순서대로 지정된 영역에 포함된 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 수 있다.According to another embodiment, the electronic device can determine the importance of the object based on the type of the object, the size of the object, and / or the position of the object, and the GUI corresponding to each object according to the importance of the object And / or the order in which the text is to be displayed. For example, the electronic device can determine that the larger the size of the object is, the higher the degree of importance, and display the GUI and / or text corresponding to each object in order of importance, i.e., in descending order of size, In the case of the same objects, GUI and / or text corresponding respectively to the corresponding order can be displayed. Alternatively, the electronic device can determine that the position of the object is more important in the center of the screen, and can display the GUI and / or text corresponding to each of the objects included in the designated area in order of importance, .

또 다른 실시 예에 따르면, 전자 장치는 컨텐트에 포함된 오브젝트들 각각의 로깅 정보(예를 들어, 선택된 횟수)를 근거로, 오브젝트의 중요도를 결정할 수 있으며, 상기 오브젝트의 중요도에 따라 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 순서를 결정할 수 있다. 전자 장치는 컨텐트에서 특정 오브젝트가 선택된 횟수 정보를 로깅하여 메타데이터로 활용할 수 있다. 예를 들어, 전자 장치는 오브젝트의 선택된 횟수가 많을수록 중요도가 높은 것으로 결정할 수 있으며, 중요도가 높은 순서대로, 즉 선택된 횟수가 많은 순서대로 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 수 있다.According to another embodiment, the electronic device can determine the importance of an object based on logging information (e.g., a selected number of times) of each of the objects included in the content, and responds to each of the objects according to the importance of the object And the order in which the GUI and / or text is to be displayed. The electronic device can use the number of times information of a specific object selected in the content is logged and used as metadata. For example, the electronic device can determine that the greater the number of selected objects is, the higher the degree of importance, and the GUI and / or text corresponding to each object can be displayed in order of importance, i.e., in a descending order of the number of times.

또 다른 실시 예에 따르면, 전자 장치는 컨텐트에 대한 사용자의 시선을 근거로, 오브젝트의 중요도를 결정할 수 있으며, 상기 오브젝트의 중요도에 따라 오브젝트 각각에 대응하는 GUI 및/또는 텍스트를 표시할 순서를 결정할 수 있다. 예를 들어, 전자 장치는 카메라를 이용하여 사용자의 이미지를 획득할 수 있으며, 얼굴 인식 기술을 이용하여 획득된 사용자의 이미지에서 사용자의 시선이 향하는 전자 장치의 화면의 적어도 일부 영역을 결정할 수 있으며, 상기 결정된 일부 영역을 중요도가 높은 영역으로 결정할 수 있고, 이외의 영역을 중요도가 낮은 영역으로 결정할 수 있다. 예를 들어, 전자 장치는 상기 결정된 중요도가 높은 영역에 포함된 오브젝트들 각각에 대응하는 GUI 및/또는 텍스트를 먼저 표시한 후, 이후 나머지 영역에 포함된 오브젝트들 각각에 대응하는 GUI를 표시할 수 있다.According to yet another embodiment, the electronic device can determine the importance of an object based on the user's gaze on the content, determine an order to display the GUI and / or text corresponding to each of the objects according to the importance of the object . For example, an electronic device can acquire an image of a user using a camera, and can determine at least a part of an area of a screen of an electronic device, The determined part of the area can be determined as a high importance area, and the other areas can be determined as a low importance area. For example, the electronic device may first display the GUI and / or text corresponding to each of the objects included in the determined high importance area, and then display the GUI corresponding to each of the objects included in the remaining area have.

도 7a 내지 도 7c는 다양한 실시 예에 따른 전자 장치의 지정된 중요도에 따라 오브젝트들 각각의 GUI 및/또는 텍스트를 순차적으로 표시한 화면의 예시도이다.7A to 7C are exemplary diagrams of screens sequentially displaying the GUI and / or text of each of the objects according to the designated importance of the electronic device according to various embodiments.

도 7a 및 도 7c를 참조하면, 전자 장치는, 상술한 중요도 결정 조건들 중 적어도 하나를 근거로, 오브젝트들 중 링크를 위한 이미지 오브젝트들(703, 704, 705, 706, 707, 708)을 제1 중요 오브젝트로 지정하고, 검색어 입력창에 포함된 입력을 위한 이미지 오브젝트(701) 및 검색 실행을 위한 이미지 오브젝트(702)를 제2 중요 오브젝트로 지정하고, 기타 메뉴 오브젝트들(721, 722, 723, 724)를 제3 중요 오브젝트로 지정할 수 있다.Referring to Figures 7A and 7C, the electronic device is configured to receive image objects 703, 704, 705, 706, 707, 708 for a link among the objects based on at least one of the above- 1 important object, designates an image object 701 for input included in the search word input window and an image object 702 for search execution as a second important object, and other menu objects 721, 722, 723 , 724) can be designated as the third important object.

전자 장치가 웹 페이지의 실행, 또는 음성 인식 기능의 실행 시, 상기 지정된 중요도를 근거로, 먼저 도 7a와 같은 화면을 표시 할 수 있다. 도 7a를 참조하면, 제1 중요 오브젝트로 지정된 링크를 위한 오브젝트들(703, 704, 705, 706, 707, 708) 각각에 대응하는 제1 툴 팁들(753, 754, 755, 756, 757, 758) 각각을 표시 할 수 있다.When the electronic device executes the web page or executes the speech recognition function, the electronic device may first display a screen as shown in FIG. 7A based on the designated importance. Referring to FIG. 7A, the first tool tips 753, 754, 755, 756, 757, 758 (corresponding to each of the objects 703, 704, 705, 706, 707, 708 for the link designated as the first important object) ) Can be displayed.

지정된 시간의 경과, 사용자 조작 등의 지정된 조건에 따라, 이후 전자 장치는 도 7b와 같은 화면을 디스플레이 할 수 있다. 예를 들어, 전자 장치는 제1 툴 팁들(753, 754, 755, 756, 757, 758)이 표시 된 상태에서, 추가로 제2 중요 오브젝트로 지정된 입력을 위한 이미지 오브젝트(701) 및 검색 실행을 위한 이미지 오브젝트(702) 각각에 대응하는 제2 툴 팁들(751, 752) 각각과, 입력을 위한 이미지 오브젝트(601)에 대응하는 제1 GUI(711)를 표시 할 수 있다.The electronic device can display the screen as shown in FIG. 7B in accordance with the specified condition such as elapse of the designated time, user operation, and the like. For example, the electronic device may display an image object 701 for an input designated as a second important object, and a search execution for the input specified by the first tool tips 753, 754, 755, 756, 757, 752 corresponding to each of the image objects 702 for the input image 702 and a first GUI 711 corresponding to the image object 601 for input.

상기 지정된 조건에 따라, 이후 전자 장치는 도 7c와 같은 화면을 디스플레이 할 수 있다. 예를 들어, 전자 장치는 제1 툴 팁들(753, 754, 755, 756, 757, 758), 제2 툴 팁들(771, 752) 및 제1 GUI(711) 이 표시 된 상태에서 추가로 제3 중요 오브젝트로 지정된 기타 메뉴 오브젝트들(721, 722, 723, 724) 각각에 대응하는 제2 GUI들(761, 762, 763, 764) 각각을 표시 할 수 있다.According to the above-specified conditions, the electronic device can display a screen as shown in FIG. 7C. For example, the electronic device may further include a third tool tip 753, 754, 755, 756, 757, 758, second tool tips 771, 752 and a first GUI 711, Each of the second GUIs 761, 762, 763, and 764 corresponding to each of the other menu objects 721, 722, 723, and 724 designated as an important object.

도 8a 내지 도 8c는 다양한 실시 예에 따른 전자 장치의 지정된 중요도에 따라 오브젝트들 각각의 GUI를 순차적으로 디스플레한 화면의 예시도이다.8A to 8C are exemplary diagrams of screens sequentially displaying the GUI of each of the objects according to the designated importance of the electronic device according to various embodiments.

도 8a 내지 도 8c는 다양한 실시 예에 따른 전자 장치의 지정된 중요도에 따라 오브젝트들 각각의 GUI 및/또는 텍스트를 순차적으로 표시 화면의 예시도이다.8A to 8C are exemplary views of a GUI and / or text sequentially displayed on each of the objects according to the designated importance of the electronic device according to various embodiments.

도 8a 및 도 8c를 참조하면, 전자 장치는, 상술한 중요도 결정 조건들 중 적어도 하나를 근거로, 오브젝트들 중 링크를 위한 이미지 오브젝트들(803, 804, 805, 806, 807, 808)을 제1 중요 오브젝트로 지정하고, 검색어 입력창에 포함된 입력을 위한 이미지 오브젝트(801) 및 검색 실행을 위한 이미지 오브젝트(802)를 제2 중요 오브젝트로 지정하고, 기타 메뉴 오브젝트들(821, 822, 823, 824)를 제3 중요 오브젝트로 지정할 수 있다.Referring to FIGS. 8A and 8C, an electronic device may include image objects 803, 804, 805, 806, 807, and 808 for a link among objects based on at least one of the importance determination conditions described above. 1 as an important object and designates the image object 801 for the input included in the search word input window and the image object 802 for the search execution as the second important object and the other menu objects 821, 822, 823 , 824) can be designated as the third important object.

전자 장치가 웹 페이지의 실행, 또는 음성 인식 기능의 실행 시, 상기 지정된 중요도를 근거로, 먼저 도 8a와 같은 화면을 표시 할 수 있다. 도 8a를 참조하면, 제1 중요 오브젝트로 지정된 링크를 위한 오브젝트들(803, 804, 805, 806, 807, 808) 각각에 대응하는 제1 툴 팁들(853, 854, 855, 856, 857, 858) 각각을 표시 할 수 있다.When the electronic device executes the web page or executes the voice recognition function, the electronic device may first display a screen as shown in FIG. 8A based on the designated importance level. 8A, first tool tips 853, 854, 855, 856, 857, 858 (corresponding to each of the objects 803, 804, 805, 806, 807, 808 for the link designated as the first important object) ) Can be displayed.

지정된 시간의 경과, 사용자 조작 등의 지정된 조건에 따라, 이후 전자 장치는 도 8b와 같은 화면을 디스플레이 할 수 있다. 예를 들어, 전자 장치는 제1 툴 팁들(853, 854, 855, 856, 857, 858)의 표시를 종료한 후, 제2 중요 오브젝트로 지정된 입력을 위한 이미지 오브젝트(801) 및 검색 실행을 위한 이미지 오브젝트(802) 각각에 대응하는 제2 툴 팁들(851, 852) 각각과, 입력을 위한 이미지 오브젝트(601)에 대응하는 제1 GUI(811)를 표시 할 수 있다.The electronic device can display the screen as shown in FIG. 8B in accordance with the specified condition such as elapse of the designated time, user operation, and the like. For example, after completing the display of the first tool tips 853, 854, 855, 856, 857, 858, the electronic device may display an image object 801 for the input designated as the second important object, Each of the second tool tips 851 and 852 corresponding to each of the image objects 802 and the first GUI 811 corresponding to the image object 601 for input can be displayed.

상기 지정된 조건에 따라, 이후 전자 장치는 도 8c와 같은 화면을 표시 할 수 있다. 예를 들어, 전자 장치는 제2 툴 팁들(871, 852) 및 제1 GUI(811)의 표시를 종료한 후, 제3 중요 오브젝트로 지정된 기타 메뉴 오브젝트들(821, 822, 823, 824) 각각에 대응하는 제2 GUI들(861, 862, 863, 864) 각각을 표시 할 수 있다.According to the above-specified conditions, the electronic device can display a screen as shown in FIG. 8C. For example, after terminating the display of the second tool tips 871, 852 and the first GUI 811, the electronic device may display the other menu objects 821, 822, 823, 824 designated as the third important object 862, 863, and 864 corresponding to the second GUIs 861, 862, 863, and 864, respectively.

다양한 실시 예에 따르면, 전자 장치는 컨텐트에 대한 사용자의 시선이 향하는 곳에 위치되는 적어도 하나의 오브젝트에 대응하는 GUI 및/또는 텍스트를 표시할 수 있다. 예를 들어, 전자 장치는 카메라를 이용하여 사용자의 이미지를 획득할 수 있으며, 얼굴 인식 기술을 이용하여 획득된 사용자의 이미지에서 사용자의 시선이 향하는 전자 장치의 화면의 적어도 일부 영역을 결정할 수 있다. 전자 장치는 상기 결정된 일부 영역에 포함된 오브젝트들 각각에 대응하는 GUI 및/또는 텍스트를 디스플레이 할 수 있다.According to various embodiments, the electronic device may display a GUI and / or text corresponding to at least one object located at a point of view of the user's view of the content. For example, an electronic device can acquire an image of a user using a camera, and can determine at least some areas of a screen of the electronic device that the user's line of sight is directed to in the image of the user obtained using the face recognition technology. The electronic device may display a GUI and / or text corresponding to each of the objects included in the determined area.

다양한 실시 예에 따르면, 오브젝트들 각각에 GUI 및/또는 텍스트를 표시할 때, 일부 GUI 및/또는 텍스트들이 겹쳐질 것으로 예상되는 경우, 전자 장치는 GUI 및/또는 텍스트들 중 가장 높은 중요도의 오브젝트의 대응하는 GUI 및/또는 텍스트만을 화면에 표시하도록 할 수 있다. 또는, 오브젝트들 각각에 GUI 및/또는 텍스트를 표시할 때, 일부 GUI 및/또는 텍스트들이 겹쳐질 것으로 예상되지만, 상기 겹침으로 인해 가려지는 GUI 및/또는 텍스트가 인식 가능한 것으로 결정되면, 전자 장치는 GUI 및/또는 텍스트들을 겹쳐서 표시하도록 할 수 있다.According to various embodiments, when displaying a GUI and / or text on each of the objects, when some GUI and / or text are expected to be overlapped, the electronic device may display the highest importance object of the GUI and / Only the corresponding GUI and / or text can be displayed on the screen. Alternatively, when displaying a GUI and / or text on each of the objects, it is expected that some GUI and / or text will overlap, but if the GUI and / or text obscured by the overlap is determined to be recognizable, The GUI and / or text may be displayed in a superimposed manner.

도 9는 다양한 실시 예에 따른 전자 장치의 음성 인식을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.9 is an illustration of an operation for controlling objects included in content through speech recognition of an electronic device according to various embodiments.

도 9를 참조하면, 예를 들어, 사용자가 "Departments"의 세부 메뉴를 표시(확장시켜 표시)하고자 하는 경우, 사용자가 "Cursor on departments"라는 음성 명령을 발화 할 수 있다. 이러한 음성 명령을 수신한 전자 장치는 상기 발화된 음성 명령과 등록된 명령어들과의 비교를 통해, 상기 발화된 음성 명령과 대응하는 명령어를 결정할 수 있다. 예를 들어, 전자 장치는"Departments"를 명령어에서 오브젝트를 특정하기 위한 선택 부분의 제1 명령어로 인식하고, "Cursor on"을 상기 인식한 오브젝트 "Departments"를 명령어에서 제어 부분의 제2 명령어로 인식할 수 있다. 이에 따라, 전자 장치는 상기 결정된 명령어에 대응하는 제어 동작, 즉 커서를 "Departments"로 이동시켜서 "Departments"의 세부 메뉴를 표시할 수 있다.Referring to Fig. 9, for example, when a user desires to display (extend) a submenu of "Departments ", the user can utter a voice command" Cursor on departments ". The electronic device receiving the voice command can determine the command corresponding to the uttered voice command by comparing the uttered voice command with the registered commands. For example, the electronic device recognizes "Departments" as a first instruction of a selection part for specifying an object in an instruction, and "Cursor on" Can be recognized. Accordingly, the electronic device can display the submenu of "Departments " by moving the control operation corresponding to the determined command, i.e., the cursor to" Departments ".

도 10은 다양한 실시 예에 따른 전자 장치의 음성 인식을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.10 is an illustration of an operation for controlling objects included in content through speech recognition of an electronic device according to various embodiments.

도 10을 참조하면, 예를 들어, 사용자가 표시된 웹 페이지에서 특정 기사에 대한 TTS 기능을 실행하고자 하는 경우, 사용자가 "노벨상 수상자 연호 읽어줘"라는 음성 명령을 발화할 수 있다. 이러한 음성 명령을 수신한 전자 장치는 상기 발화된 음성 명령과 등록된 명령어들과의 비교를 통해, 상기 발화된 음성 명령과 대응하는 명령어를 결정할 수 있다. 예를 들어, 전자 장치는"노벨상 수상자 연호"를 명령어에서 오브젝트를 특정하기 위한 선택 부분의 제1 명령어로 인식하고, "읽어줘"를 상기 인식한 오브젝트 "노벨상 수상자 연호"를 명령어에서 제어 부분의 제2 명령어로 인식할 수 있다. 이에 따라, 전자 장치는 상기 결정된 명령어에 대응하는 제어 동작, 즉 "노벨상 수상자 연호"를 포함하는 기사 전문에 대한 TTS 기능을 실행할 수 있다. 추가로, 상기 기사가 전문이 표시되지 않은 경우, 전자 장치는 기사의 전문이 표시되도록 할 수도 있다.Referring to FIG. 10, for example, when a user wants to execute a TTS function for a specific article in a displayed web page, the user can utter a voice command "Read Nobel Prize Winner". The electronic device receiving the voice command can determine the command corresponding to the uttered voice command by comparing the uttered voice command with the registered commands. For example, the electronic device recognizes the " Nobel Prize Winner " as the first instruction of the selection part for specifying an object in the command, and reads " Read " It can be recognized as a second instruction word. Thus, the electronic device can execute the TTS function for article articles containing the control action corresponding to the determined command, i.e., "Nobel Laureate Year ". Additionally, if the article does not display a full text, the electronic device may cause the article's full text to be displayed.

도 11은 다양한 실시 예에 따른 전자 장치의 사용자 입력을 통한 컨텐트에 포함된 오브젝트를 제어하는 동작의 예시도이다.11 is an illustration of an operation for controlling objects contained in content via user input of an electronic device according to various embodiments.

도 11을 참조하면,"Department"와 같이 세부 메뉴를 표시(확장시켜 표시)하는 메뉴에는 사용자가 음성 명령을 통해 제어 가능함을 나타내는 가이드 GUI(1101) 및/또는 마우스 오버를 통해 가능함을 나타내는 가이드 GUI(1102)를 표시할 수 있다. 이에 따라, 사용자는 가이드 GUI(1101, 1102)의 형태를 통해 제어 방식을 직관적으로 인식할 수 있다. 예를 들어, 사용자가"Cursor on departments"라는 음성 명령을 발화하거나 또는 사용자 입력에 따라"Department" 메뉴 위에 마우스 커서를 이동시킬 경우, 전자 장치는, "Departments"의 세부 메뉴를 표시할 수 있다.11, a menu for displaying (expanding and displaying) the detailed menu such as "Department" includes a guide GUI 1101 indicating that the user is controllable through voice commands and / or a guide GUI (1102) can be displayed. Accordingly, the user can intuitively recognize the control method through the form of the guide GUIs 1101 and 1102. [ For example, if the user speaks a voice command "Cursor on departments" or moves the mouse cursor over the "Department" menu according to user input, the electronic device may display a submenu of "Departments".

다양한 실시 예에 따르면, 음성 인식을 이용한 전자 장치(예: 전자 장치(101))의 제어 방법에 있어서, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작; 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함할 수 있다.According to various embodiments, there is provided a method of controlling an electronic device (e.g., electronic device 101) using speech recognition, the method comprising the steps of: receiving content including at least one object; Displaying at least one text corresponding to one object on the display; Determining a first text corresponding to a voice received using the microphone among the at least one text; And executing a command corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object .

다양한 실시 예에 따르면, 상기 리소스를 분석하는 동작, 상기 리소스의 분석 결과를 근거로 상기 컨텐트 내에서 상기 적어도 하나의 오브젝트를 구별하고 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 결정하는 동작, 및 상기 리소스의 분석 결과를 근거로 상기 적어도 하나의 오브젝트를 제어하기 위한 상기 적어도 하나의 명령어를 등록하는 동작을 더 포함할 수 있다.According to various embodiments, the operations of analyzing the resource, distinguishing the at least one object within the content based on the analysis result of the resource, and determining at least one text corresponding to the at least one object, And registering the at least one command for controlling the at least one object based on an analysis result of the resource.

다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은, 상기 리소스를 근거로 상기 적어도 하나의 오브젝트 중 텍스트가 아닌 적어도 하나의 비-텍스트 오브젝트를 결정하는 동작, 및 상기 적어도 하나의 비-텍스트 오브젝트에 상기 적어도 하나의 텍스트를 대응시켜 상기 디스플레이 상에 표시하는 동작을 포함할 수 있다.According to various embodiments, the act of displaying on the display at least one text corresponding to the at least one object comprises the steps of: displaying at least one non- And displaying the at least one text on the display by mapping the at least one text to the at least one non-text object.

다양한 실시 예에 따르면, 상기 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트의 속성을 근거로 상기 적어도 하나의 오브젝트 중 그래픽 사용자 인터페이스(graphical user interface)를 적용할 오브젝트를 결정하는 동작, 및 상기 결정된 오브젝트에 상기 결정된 오브젝트의 속성에 대응하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 동작을 더 포함할 수 있다.According to various embodiments, there is provided a method comprising: determining an object to which a graphical user interface is to be applied of the at least one object based on an attribute of the at least one object obtained based on the resource; And associating a graphical user interface corresponding to an attribute of the determined object with the graphic user interface to display on the display.

다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은, 상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트의 사이즈, 색상, 및 글씨체 중 적어도 하나를 조절하여 상기 디스플레이 상에 표시하는 동작을 포함할 수 있다.In accordance with various embodiments, the act of displaying on the display at least one text corresponding to the at least one object may include, based on at least one of the size, position, type, and logging information of the at least one object, Adjusting at least one of a size, a color, and a font of the at least one text corresponding to the at least one object to display on the display.

다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은, 상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 중요도를 결정하는 동작, 결정된 중요도를 근거로 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 순서를 결정하는 동작, 및 상기 결정된 순서에 따라 순차적으로 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작을 포함할 수 있다.In accordance with various embodiments, the act of displaying on the display at least one text corresponding to the at least one object may include, based on at least one of the size, position, type, and logging information of the at least one object, Determining an order of importance, determining an order in which the at least one text corresponding to the at least one object is displayed on the display based on the determined importance, and determining the order in which the at least one And displaying the text on the display.

다양한 실시 예에 따르면, 카메라를 통해 획득된 이미지를 근거로, 상기 디스플레이 상에 사용자의 시선이 향하는 영역을 결정하는 동작을 더 포함하며, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은, 상기 적어도 하나의 오브젝트 중 상기 결정된 영역에 포함된 오브젝트에 대응하는 텍스트를 상기 디스플레이 상에 표시하는 동작을 포함할 수 있다.According to various embodiments, the method further comprises determining an area of the user's gaze on the display, based on the image obtained through the camera, wherein at least one text corresponding to the at least one object is displayed on the display May include displaying on the display text corresponding to an object included in the determined one of the at least one object.

다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은, 상기 적어도 하나의 텍스트 중 서로 오버랩되어 표시될 텍스트들이 있는지를 결정하는 동작, 및 상기 서로 오버랩되어 표시될 텍스트들이 있는 것으로 결정하면, 미리 결정된 중요도를 근거로 상기 서로 오버랩되어 표시될 텍스트들 중 하나의 텍스트만을 표시하도록 하는 동작을 포함할 수 있다.According to various embodiments, the act of displaying on the display at least one text corresponding to the at least one object comprises: determining whether there are any of the at least one text to be displayed overlapping with each other, And determining that there are texts to be overlapped to be displayed, displaying only one of the texts to be overlapped and displayed based on the predetermined importance.

다양한 실시 예에 따르면, 음성 인식을 이용한 전자 장치(예: 전자 장치(101))의 제어 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작; 상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및 상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함할 수 있다.According to various embodiments, there is provided a machine-readable storage medium having recorded thereon a program for executing a method of controlling an electronic device (e.g., electronic device 101) using speech recognition, the method comprising: Displaying on the display at least one text corresponding to the at least one object obtained based on the content comprising the content and the resource comprising the content; Determining a first text corresponding to a voice received using the microphone among the at least one text; And executing a command corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object .

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예:메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.As used herein, the term "module " includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. A "module" may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. "Module" may be implemented either mechanically or electronically, for example, by application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs) And may include programmable logic devices. At least some of the devices (e.g., modules or functions thereof) or methods (e.g., operations) according to various embodiments may be stored in a computer readable storage medium (e.g., memory 130) . ≪ / RTI > When the instruction is executed by a processor (e.g., processor 120), the processor may perform a function corresponding to the instruction. The computer-readable recording medium may be a hard disk, a floppy disk, a magnetic medium such as a magnetic tape, an optical recording medium such as a CD-ROM, a DVD, a magnetic-optical medium such as a floppy disk, The instructions may include code that is generated by the compiler or code that may be executed by the interpreter. Modules or program modules according to various embodiments may include at least one or more of the components described above Operations that are performed by modules, program modules, or other components, in accordance with various embodiments, may be performed in a sequential, parallel, iterative, or heuristic manner, or at least in part Some operations may be executed in a different order, omitted, or other operations may be added.

Claims (20)

전자 장치에 있어서,
마이크;
디스플레이; 및
프로세서를 포함하고, 상기 프로세서는,
적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하고,
상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하고,
상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 것을 포함하는 전자 장치.
In an electronic device,
MIC;
display; And
The processor comprising:
Displaying on the display at least one text corresponding to the at least one object obtained based on the resources constituting the content, the content including at least one object,
Determining a first text corresponding to a voice received using the microphone among the at least one text,
Executing instructions corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object Electronic device.
제 1항에 있어서, 상기 프로세서는,
상기 리소스를 분석하며,
상기 리소스의 분석 결과를 근거로 상기 컨텐트 내에서 상기 적어도 하나의 오브젝트를 구별하고 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 결정하며,
상기 리소스의 분석 결과를 근거로 상기 적어도 하나의 오브젝트를 제어하기 위한 상기 적어도 하나의 명령어를 등록하는 것을 포함하는 전자 장치.
2. The apparatus of claim 1,
Analyzes the resource,
Identify the at least one object within the content based on an analysis result of the resource and determine at least one text corresponding to the at least one object,
And registering the at least one instruction for controlling the at least one object based on an analysis result of the resource.
제 1항에 있어서, 상기 프로세서는,
상기 리소스를 근거로 상기 적어도 하나의 오브젝트 중 텍스트가 아닌 적어도 하나의 비-텍스트 오브젝트를 결정하며,
상기 적어도 하나의 비-텍스트 오브젝트에 상기 적어도 하나의 텍스트를 대응시켜 상기 디스플레이 상에 표시하는 것을 포함하는 전자 장치.
2. The apparatus of claim 1,
Determining at least one non-text object that is not text among the at least one object based on the resource,
And displaying the at least one text on the display by mapping the at least one text to the at least one non-text object.
제 1항에 있어서, 상기 프로세서는,
상기 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트의 속성을 근거로 상기 적어도 하나의 오브젝트 중 그래픽 사용자 인터페이스(graphical user interface)를 적용할 오브젝트를 결정하며,
상기 결정된 오브젝트에 상기 결정된 오브젝트의 속성에 대응하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 것을 더 포함하는 전자 장치.
2. The apparatus of claim 1,
Determining an object to which a graphical user interface is to be applied among the at least one object based on the attribute of the at least one object obtained based on the resource,
And displaying the determined object on the display in correspondence with a graphical user interface corresponding to the attribute of the determined object.
제 1항에 있어서, 상기 프로세서는,
상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트의 사이즈, 색상, 및 글씨체 중 적어도 하나를 조절하여 상기 디스플레이 상에 표시하는 것을 포함하는 전자 장치.
2. The apparatus of claim 1,
Adjusting at least one of the size, color, and font of the at least one text corresponding to the at least one object based on at least one of size, position, type, and logging information of the at least one object, Lt; RTI ID = 0.0 > 1, < / RTI >
제 1항에 있어서, 상기 프로세서는,
결정된 중요도를 근거로 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 순서를 결정하며,
상기 결정된 순서에 따라 순차적으로 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 것을 포함하는 전자 장치.
2. The apparatus of claim 1,
Determine an order to display the at least one text corresponding to the at least one object on the display based on the determined importance,
And sequentially displaying the at least one text on the display in accordance with the determined order.
제 6항에 있어서, 상기 프로세서는,
상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 중요도를 결정하는 것을 포함하는 전자 장치.
7. The apparatus of claim 6,
And determining the importance based on at least one of size, location, type, and logging information of the at least one object.
제 1항에 있어서,
카메라를 더 포함하며,
상기 프로세서는,
상기 카메라를 통해 획득된 이미지를 근거로, 상기 디스플레이 상에 사용자의 시선이 향하는 영역을 결정하며,
상기 적어도 하나의 오브젝트 중 상기 결정된 영역에 포함된 오브젝트에 대응하는 텍스트를 상기 디스플레이 상에 표시하는 것을 포함하는 전자 장치.
The method according to claim 1,
Further comprising a camera,
The processor comprising:
Determining an area of the user's gaze on the display based on the image obtained through the camera,
And displaying on the display text corresponding to an object included in the determined one of the at least one object.
제 1항에 있어서, 상기 프로세서는,
상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 때, 상기 적어도 하나의 텍스트 중 서로 오버랩되어 표시될 텍스트들이 있는지를 결정하며,
상기 서로 오버랩되어 표시될 텍스트들이 있는 것으로 결정하면, 미리 결정된 중요도를 근거로 상기 서로 오버랩되어 표시될 텍스트들 중 하나의 텍스트만을 표시하도록 하는 것을 포함하는 전자 장치.
2. The apparatus of claim 1,
When displaying the at least one text on the display, determining whether there is any text to be displayed overlapping among the at least one text,
And displaying only one of the texts to be displayed overlapping with each other based on a predetermined importance, if it is determined that there is text to be displayed overlapping with each other.
제 1항에 있어서, 상기 적어도 하나의 오브젝트는,
텍스트, 이미지, 동영상, 아이콘, 링크, 입력 영역 중 적어도 하나를 포함하는 전자 장치.
The method of claim 1, wherein the at least one object comprises:
A text, an image, a moving picture, an icon, a link, and an input area.
제 1항에 있어서, 상기 컨텐트는,
웹 페이지를 포함하는 전자 장치.
The method of claim 1,
An electronic device comprising a web page.
음성 인식을 이용한 전자 장치의 제어 방법에 있어서,
적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작;
상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및
상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
A method of controlling an electronic device using speech recognition,
Displaying on the display content comprising at least one object and at least one text corresponding to the at least one object obtained based on the resources comprising the content;
Determining a first text corresponding to a voice received using the microphone among the at least one text; And
Executing instructions corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object A method for controlling an electronic device using speech recognition.
제 12항에 있어서,
상기 리소스를 분석하는 동작,
상기 리소스의 분석 결과를 근거로 상기 컨텐트 내에서 상기 적어도 하나의 오브젝트를 구별하고 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 결정하는 동작, 및
상기 리소스의 분석 결과를 근거로 상기 적어도 하나의 오브젝트를 제어하기 위한 상기 적어도 하나의 명령어를 등록하는 동작을 더 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12,
Analyzing the resource,
Identifying the at least one object within the content based on an analysis result of the resource and determining at least one text corresponding to the at least one object, and
And registering the at least one command for controlling the at least one object based on an analysis result of the resource.
제 12항에 있어서, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은,
상기 리소스를 근거로 상기 적어도 하나의 오브젝트 중 텍스트가 아닌 적어도 하나의 비-텍스트 오브젝트를 결정하는 동작, 및
상기 적어도 하나의 비-텍스트 오브젝트에 상기 적어도 하나의 텍스트를 대응시켜 상기 디스플레이 상에 표시하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12, wherein displaying at least one text corresponding to the at least one object on the display comprises:
Determining at least one non-text object that is not text among the at least one object based on the resource; and
And displaying the at least one text on the display in correspondence with the at least one text to the at least one non-text object.
제 12항에 있어서,
상기 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트의 속성을 근거로 상기 적어도 하나의 오브젝트 중 그래픽 사용자 인터페이스(graphical user interface)를 적용할 오브젝트를 결정하는 동작, 및
상기 결정된 오브젝트에 상기 결정된 오브젝트의 속성에 대응하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 그래픽 사용자 인터페이스를 대응시켜 상기 디스플레이 상에 표시하는 동작을 더 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12,
Determining an object to which a graphical user interface is to be applied among the at least one object based on an attribute of the at least one object obtained based on the resource;
And displaying the determined object on the display in correspondence with a graphical user interface corresponding to a determined graphical user interface corresponding to the attribute of the determined object on the display, .
제 12항에 있어서, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은,
상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트의 사이즈, 색상, 및 글씨체 중 적어도 하나를 조절하여 상기 디스플레이 상에 표시하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12, wherein displaying at least one text corresponding to the at least one object on the display comprises:
Adjusting at least one of the size, color, and font of the at least one text corresponding to the at least one object based on at least one of size, position, type, and logging information of the at least one object, The method comprising the steps of;
제 12항에 있어서, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은,
상기 적어도 하나의 오브젝트의 사이즈, 위치, 종류, 및 로깅 정보 중 적어도 하나를 근거로, 상기 중요도를 결정하는 동작,
결정된 중요도를 근거로 상기 적어도 하나의 오브젝트에 대응하는 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시할 순서를 결정하는 동작, 및
상기 결정된 순서에 따라 순차적으로 상기 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12, wherein displaying at least one text corresponding to the at least one object on the display comprises:
Determining the importance based on at least one of size, position, type, and logging information of the at least one object;
Determining an order to display the at least one text corresponding to the at least one object on the display based on the determined importance; and
And sequentially displaying the at least one text on the display in accordance with the determined order.
제 12항에 있어서,
카메라를 통해 획득된 이미지를 근거로, 상기 디스플레이 상에 사용자의 시선이 향하는 영역을 결정하는 동작을 더 포함하며,
상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은,
상기 적어도 하나의 오브젝트 중 상기 결정된 영역에 포함된 오브젝트에 대응하는 텍스트를 상기 디스플레이 상에 표시하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12,
Further comprising determining, based on the image obtained through the camera, an area facing the user's line of sight on the display,
Displaying at least one text corresponding to the at least one object on the display,
And displaying on the display text corresponding to an object included in the determined one of the at least one object.
제 12항에 있어서, 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작은,
상기 적어도 하나의 텍스트 중 서로 오버랩되어 표시될 텍스트들이 있는지를 결정하는 동작, 및
상기 서로 오버랩되어 표시될 텍스트들이 있는 것으로 결정하면, 미리 결정된 중요도를 근거로 상기 서로 오버랩되어 표시될 텍스트들 중 하나의 텍스트만을 표시하도록 하는 동작을 포함하는 음성 인식을 이용한 전자 장치의 제어 방법.
13. The method of claim 12, wherein displaying at least one text corresponding to the at least one object on the display comprises:
Determining if there are any of the at least one text to be displayed overlapping with each other, and
And displaying only one of the texts to be overlapped and displayed based on the predetermined importance, when it is determined that there are texts to be displayed overlapping with each other.
음성 인식을 이용한 전자 장치의 제어 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은,
적어도 하나의 오브젝트를 포함하는 컨텐트와, 상기 컨텐트를 구성하는 리소스를 근거하여 획득된 상기 적어도 하나의 오브젝트에 대응하는 적어도 하나의 텍스트를 상기 디스플레이 상에 표시하는 동작;
상기 적어도 하나의 텍스트 중 상기 마이크를 이용하여 수신된 음성에 대응하는 제1 텍스트를 판단하는 동작; 및
상기 적어도 하나의 오브젝트를 제어하기 위해 등록된 적어도 하나의 명령어에 근거하여 상기 적어도 하나의 오브젝트 중 상기 제1 텍스트에 대응하는 제1 오브젝트에 대하여 상기 수신된 음성에 대응하는 명령을 실행하는 동작을 포함하는 저장 매체.
A machine-readable storage medium storing a program for executing a control method of an electronic device using speech recognition, the method comprising:
Displaying on the display content comprising at least one object and at least one text corresponding to the at least one object obtained based on the resources comprising the content;
Determining a first text corresponding to a voice received using the microphone among the at least one text; And
Executing instructions corresponding to the received voice for a first object corresponding to the first text of the at least one object based on at least one command registered to control the at least one object Lt; / RTI >
KR1020170022396A 2016-11-16 2017-02-20 Electronic device and method for controlling electronic device using speech recognition KR20180055638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/809,141 US20180136904A1 (en) 2016-11-16 2017-11-10 Electronic device and method for controlling electronic device using speech recognition

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662422844P 2016-11-16 2016-11-16
US62/422,844 2016-11-16

Publications (1)

Publication Number Publication Date
KR20180055638A true KR20180055638A (en) 2018-05-25

Family

ID=62299453

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170022396A KR20180055638A (en) 2016-11-16 2017-02-20 Electronic device and method for controlling electronic device using speech recognition

Country Status (1)

Country Link
KR (1) KR20180055638A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200019522A (en) * 2018-08-14 2020-02-24 주식회사 알티캐스트 Gui voice control apparatus using real time command pattern matching and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200019522A (en) * 2018-08-14 2020-02-24 주식회사 알티캐스트 Gui voice control apparatus using real time command pattern matching and method thereof

Similar Documents

Publication Publication Date Title
US11099812B2 (en) Device and method for performing functions
CN107077292B (en) Cut and paste information providing method and device
KR102462856B1 (en) Usability notification providing method for extendable area of display and electronic device supporting the same
US20160170710A1 (en) Method and apparatus for processing voice input
CN108806669B (en) Electronic device for providing voice recognition service and method thereof
US11137978B2 (en) Method for operating speech recognition service and electronic device supporting the same
US20180143802A1 (en) Method for processing various inputs, and electronic device and server for the same
US11157694B2 (en) Content suggestion system
US11321105B2 (en) Interactive informational interface
CN107003727B (en) Electronic device for running multiple applications and method for controlling electronic device
AU2017287686B2 (en) Electronic device and information providing method thereof
US20180068476A1 (en) Information processing device, information processing method, and program
CN108369585B (en) Method for providing translation service and electronic device thereof
KR20160101605A (en) Gesture input processing method and electronic device supporting the same
US11663723B2 (en) Image segmentation system
EP3364308A1 (en) Electronic device and method of providing information thereof
US20220035495A1 (en) Interactive messaging stickers
KR20170100309A (en) Electronic apparatus for providing a voice recognition control and method thereof
US20180136904A1 (en) Electronic device and method for controlling electronic device using speech recognition
CN106445373B (en) Method and electronic device for processing user input
US20190332251A1 (en) Graphical user interface magnetic panel
KR20180055638A (en) Electronic device and method for controlling electronic device using speech recognition
WO2021113490A1 (en) Astrological social media interface
KR20180071886A (en) Electric device and method for categorizing content
US20230409174A1 (en) Home automation device control and designation

Legal Events

Date Code Title Description
A201 Request for examination