KR102546510B1 - Method for providing information mapped between plurality inputs and electronic device supporting the same - Google Patents

Method for providing information mapped between plurality inputs and electronic device supporting the same Download PDF

Info

Publication number
KR102546510B1
KR102546510B1 KR1020180032444A KR20180032444A KR102546510B1 KR 102546510 B1 KR102546510 B1 KR 102546510B1 KR 1020180032444 A KR1020180032444 A KR 1020180032444A KR 20180032444 A KR20180032444 A KR 20180032444A KR 102546510 B1 KR102546510 B1 KR 102546510B1
Authority
KR
South Korea
Prior art keywords
content
data
input
electronic device
processor
Prior art date
Application number
KR1020180032444A
Other languages
Korean (ko)
Other versions
KR20190110690A (en
Inventor
최윤정
송이슬
김나혜
김희운
조민경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180032444A priority Critical patent/KR102546510B1/en
Priority to EP19164398.0A priority patent/EP3547107B1/en
Priority to US16/360,175 priority patent/US10853024B2/en
Publication of KR20190110690A publication Critical patent/KR20190110690A/en
Application granted granted Critical
Publication of KR102546510B1 publication Critical patent/KR102546510B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시 예는, 마이크, 터치스크린 디스플레이, 프로세서, 및 메모리를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 마이크를 통하여 입력되는 음성의 리코딩을 지원하는 제1 인터페이스 및 사용자의 정보 입력을 지원하는 제2 인터페이스를 포함하는 어플리케이션의 실행 화면을 출력하고, 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑하여 저장하고, 지정된 정보에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 사용자 입력을 수신하고, 상기 사용자 입력에 대응하여 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 수집하고, 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환하고, 상기 변환된 텍스트 데이터를 출력하도록 하는 인스트럭션들(instructions)을 저장하는 전자 장치를 개시한다. 이 외에도 명세서를 통하여 파악되는 다양한 실시 예가 가능하다.An embodiment of the present invention includes a microphone, a touch screen display, a processor, and a memory, wherein the memory, when executed, the processor supports a first interface for supporting recording of voice input through the microphone, and Outputting an execution screen of an application including a second interface supporting user input of information, and recording voice data of a first point of view based on the first interface and the first point of view input based on the second interface Mapping and storing content data of the specified information, receiving a user input for searching for at least one voice data mapped to the specified content data based on a search word for the specified information, and responding to the user input to the specified content data. Disclosed is an electronic device storing instructions for collecting at least one piece of mapped voice data, converting the collected at least one piece of voice data into text data, and outputting the converted text data. In addition to this, various embodiments identified through the specification are possible.

Description

복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치{Method for providing information mapped between plurality inputs and electronic device supporting the same}Method for providing information mapped between plurality of inputs and electronic device supporting the same

본 문서에서 개시되는 다양한 실시 예들은, 복수의 입력 간에 매핑된 정보 제공 기술과 관련된다.Various embodiments disclosed in this document relate to a technology for providing information mapped between a plurality of inputs.

근래의 전자 장치는 사용자와의 인터렉션(interaction)을 지향하기 위한 일환으로 다양한 입력 방식을 지원하고 있다. 예를 들어, 전자 장치는 SIP(software input panel) 자판 또는 스타일러스 펜(stylus pen) 등을 이용한 입력 방식을 비롯하여, 사용자 발화에 따른 음성 기반의 입력 방식을 지원할 수 있다. 또는, 전자 장치는 상술된 입력 방식들을 복합적으로 운용하는 멀티모달 인터페이스(multimodal interface) 입력 방식을 지원할 수 있다.Recent electronic devices support various input methods as part of oriented interaction with a user. For example, the electronic device may support an input method using a software input panel (SIP) keyboard or a stylus pen, as well as a voice-based input method according to user speech. Alternatively, the electronic device may support a multimodal interface input method that complexly operates the above-described input methods.

전자 장치는 특정 이벤트에 관계되는 정보의 기록과 관련하여, 사용자로부터 멀티모달 인터페이스 입력을 수신할 수 있다. 예를 들어, 전자 장치는 상기 이벤트와 관계된 음성 입력을 수신하여 리코딩(recording)하고, 동시에 상기 음성과 유관의 정보를 포함하는 콘텐츠 입력(예: 텍스트 입력 등)을 수신하여 저장할 수 있다. 이 때, 전자 장치는 동일한 이벤트에 기인되는 리코딩 데이터와 콘텐츠 데이터를 개별적으로 처리하는 바, 상기 동일한 이벤트에 대한 정보들(예: 리코딩 정보 및 콘텐츠 정보)을 복합적으로 확인하고자 하는 사용자 니즈(needs)를 충족시키지 못하거나, 편의를 제공하지 못할 수 있다.The electronic device may receive a multimodal interface input from a user in relation to recording information related to a specific event. For example, the electronic device may receive and record a voice input related to the event, and simultaneously receive and store content input (eg, text input, etc.) including information related to the voice. At this time, since the electronic device separately processes recording data and content data caused by the same event, user needs to check information (eg, recording information and content information) on the same event in a complex manner may not be met or may not provide convenience.

본 문서에서 개시되는 다양한 실시 예들은, 멀티모달 인터페이스 입력에 따른 데이터들을 지정된 기준에 따라 매핑(mapping)하여 연계적으로 제공할 수 있는, 복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치를 제공할 수 있다.Various embodiments disclosed in this document are a method for providing mapped information between a plurality of inputs, which can map data according to a multimodal interface input according to a specified criterion and provide them in a linkage manner, and an electronic device supporting the same can provide.

일 실시 예에 따른 전자 장치는, 적어도 하나의 마이크, 터치스크린 디스플레이, 상기 적어도 하나의 마이크 및 상기 터치스크린 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서, 및 상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함할 수 있다.An electronic device according to an embodiment includes at least one microphone, a touch screen display, at least one processor electrically connected to the at least one microphone and the touch screen display, and a memory electrically connected to the at least one processor. can include

일 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 터치스크린 디스플레이를 통하여 상기 적어도 하나의 마이크를 통하여 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 실행 화면을 출력하고, 상기 메모리에 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하고, 지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 사용자 입력을 수신하고, 상기 사용자 입력에 대응하여 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 수집하고, 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환하고, 상기 터치스크린 디스플레이를 통하여 상기 변환된 텍스트 데이터를 출력하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.According to an embodiment, the memory, when executed, the at least one processor, a first interface for supporting the recording (recording) of the voice input through the at least one microphone through the touch screen display and the user outputs an execution screen of a designated application including a second interface supporting content input of, and based on voice data of a first time recorded based on the first interface in the memory and the second interface Mapping and storing the input content data of the first view, receiving a user input for searching for at least one voice data mapped to the specified content data based on a search word for the specified content, and Collecting at least one voice data mapped to the designated content data in response to an input, converting the collected at least one voice data into text data, and outputting the converted text data through the touch screen display You can store instructions.

일 실시 예에 따른 전자 장치의 복수의 입력 간에 매핑된(mapped) 정보 제공 방법은, 상기 전자 장치에 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 실행 화면을 출력하는 동작, 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하는 동작, 지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 사용자 입력을 수신하는 동작, 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 수집하는 동작, 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환하는 동작, 및 상기 변환된 텍스트 데이터를 출력하는 동작을 포함할 수 있다.A method of providing information mapped between a plurality of inputs of an electronic device according to an embodiment includes a first interface supporting recording of voice input to the electronic device and a second interface supporting content input by a user. An operation of outputting an execution screen of a designated application including an interface, voice data of a first time recorded based on the first interface and content data of the first time input based on the second interface An operation of mapping and storing, an operation of receiving a user input for searching for at least one voice data mapped to the designated content data based on a search word for the designated content, and an operation of at least one mapped to the designated content data. It may include an operation of collecting voice data, an operation of converting the collected at least one voice data into text data, and an operation of outputting the converted text data.

다양한 실시 예에 따르면, 동일한 이벤트에 관계되는 리코딩 데이터 및 콘텐츠 데이터(예: 텍스트 데이터 등)를 지정된 기준에 따라 매핑(mapping))시킴으로써, 상호 매핑된 데이터들에 관계되는 정보들을 복합적으로 제공할 수 있다.According to various embodiments, by mapping recording data and content data (eg, text data, etc.) related to the same event according to a specified criterion, information related to mutually mapped data can be provided in a complex manner. there is.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition to this, various effects identified directly or indirectly through this document may be provided.

도 1은 일 실시 예에 따른 전자 장치의 운용 일례를 도시한 도면이다.
도 2는 일 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.
도 3a는 일 실시 예에 따른 전자 장치의 제1 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 3b는 일 실시 예에 따른 전자 장치의 제2 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 3c는 일 실시 예에 따른 전자 장치의 제3 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 3d는 일 실시 예에 따른 전자 장치의 리코딩 재생에 대응하는 그래픽 효과 표시 형태를 도시한 도면이다.
도 4는 일 실시 예에 따른 전자 장치의 제4 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 5는 다른 실시 예에 따른 전자 장치의 제4 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 6은 일 실시 예에 따른 전자 장치의 제5 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 7a는 일 실시 예에 따른 전자 장치의 제6 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 7b는 일 실시 예에 따른 전자 장치의 제7 사용자 입력에 대한 응답 형태를 도시한 도면이다.
도 7c는 일 실시 예에 따른 전자 장치의 제7 사용자 입력 처리와 관계되는 특정 정보 등록 형태를 도시한 도면이다.
도 8은 일 실시 예에 따른 전자 장치의 복수의 입력 간에 매핑된 정보 제공 방법을 도시한 도면이다.
도 9는 일 실시 예에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.
도면의 설명과 관련하여, 동일 또는 대응되는 구성요소에 대해서는 동일한 참조 번호가 부여될 수 있다.
1 is a diagram illustrating an example of operation of an electronic device according to an embodiment.
2 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
3A is a diagram illustrating a response form of an electronic device to a first user input according to an embodiment.
3B is a diagram illustrating a response form of an electronic device to a second user input according to an exemplary embodiment.
3C is a diagram illustrating a response form of an electronic device to a third user input according to an embodiment.
3D is a diagram illustrating a graphic effect display form corresponding to recording and playback of an electronic device according to an exemplary embodiment.
4 is a diagram illustrating a response form of an electronic device to a fourth user input according to an exemplary embodiment.
5 is a diagram illustrating a response form to a fourth user input of an electronic device according to another embodiment.
6 is a diagram illustrating a form of a response to a fifth user input of an electronic device according to an exemplary embodiment.
7A is a diagram illustrating a response form of an electronic device to a sixth user input according to an exemplary embodiment.
7B is a diagram illustrating a response form of an electronic device to a seventh user input according to an embodiment.
7C is a diagram illustrating a specific information registration form related to processing of a seventh user input of an electronic device according to an embodiment.
8 is a diagram illustrating a method of providing information mapped between a plurality of inputs of an electronic device according to an embodiment.
9 is a diagram illustrating an electronic device in a network environment according to an embodiment.
In connection with the description of the drawings, the same reference numerals may be assigned to the same or corresponding elements.

이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present invention will be described with reference to the accompanying drawings. However, it should be understood that this is not intended to limit the present invention to the specific embodiments, and includes various modifications, equivalents, and/or alternatives of the embodiments of the present invention. In connection with the description of the drawings, like reference numerals may be used for like elements.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "has", "may have", "includes", or "may include" refer to the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as "A or B", "at least one of A and/and B", or "one or more of A or/and B" may include all possible combinations of the items listed together. . For example, "A or B", "at least one of A and B", or "at least one of A or B" includes (1) at least one A, (2) at least one B, Or (3) may refer to all cases including at least one A and at least one B.

본 문서에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first", "second", "first", or "second" as used herein may modify various elements, in any order and/or importance, and may refer to one element as another. It is used to distinguish from components, but does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first element may be called a second element, and similarly, the second element may also be renamed to the first element.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or connected through another component (eg, a third component). On the other hand, when an element (eg, a first element) is referred to as being “directly connected” or “directly connected” to another element (eg, a second element), the element and the above It may be understood that other components (eg, third components) do not exist between the other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.As used in this document, the expression "configured to" means "suitable for", "having the capacity to", depending on the situation. ", "designed to", "adapted to", "made to", or "capable of" can be used interchangeably. The term "configured (or set) to" may not necessarily mean only "specifically designed to" hardware. Instead, in some contexts, the phrase "device configured to" may mean that the device is "capable of" in conjunction with other devices or components. For example, the phrase "a processor configured (or set) to perform A, B, and C" may include a dedicated processor (eg, an embedded processor) to perform those operations, or one or more software programs stored in a memory device that executes By doing so, it may mean a general-purpose processor (eg, CPU or application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this document. Among the terms used in this document, the terms defined in general dictionaries may be interpreted as having the same or similar meaning to the meaning in the context of the related art, and unless explicitly defined in this document, in an ideal or excessively formal meaning. not interpreted In some cases, even terms defined in this document cannot be interpreted to exclude the embodiments of this document.

본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크톱 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면 웨어러블 장치는 엑세서리 형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체 형(예: 전자 의복), 신체 부착 형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식 형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.An electronic device according to various embodiments of the present document may include, for example, a smartphone, a tablet personal computer (PC), a mobile phone, a video phone, an e-book reader, Desktop PC, laptop PC, netbook computer, workstation, server, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical device, It may include at least one of a camera or a wearable device. According to various embodiments, the wearable device is an accessory type (eg, a watch, a ring, a bracelet, an anklet, a necklace, glasses, a contact lens, or a head-mounted-device (HMD)), a fabric or a clothing integral type ( For example, it may include at least one of an electronic clothing), a body attachment type (eg, a skin pad or tattoo), or a body implant type (eg, an implantable circuit).

어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어(Digital Video Disk player), 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device may be a home appliance. Home appliances include, for example, televisions, DVD players (Digital Video Disk players), audio systems, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, and home automation. Home automation control panel, security control panel, TV box (e.g. Samsung HomeSync™, Apple TV™, or Google TV™), game console (e.g. Xbox™, PlayStation™), electronics It may include at least one of a dictionary, an electronic key, a camcorder, or an electronic picture frame.

다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 내비게이션(navigation) 장치, 위성 항법 시스템(GNSS(Global Navigation Satellite System)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In another embodiment, the electronic device may include various types of medical devices (e.g., various portable medical measuring devices (blood glucose meter, heart rate monitor, blood pressure monitor, body temperature monitor, etc.), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), camera, or ultrasonicator, etc.), navigation device, GNSS (Global Navigation Satellite System), EDR (event data recorder), FDR (flight data recorder), automotive infotainment ) devices, marine electronics (e.g. marine navigation systems, gyrocompasses, etc.), avionics, security devices, automotive head units, industrial or home robots, automatic teller's machines (ATMs) of financial institutions , point of sales (POS) in stores, or internet of things devices (e.g. light bulbs, sensors, electric or gas meters, sprinklers, smoke alarms, thermostats, street lights, toasters) , Exercise equipment, hot water tank, heater, boiler, etc.) may include at least one.

어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.According to some embodiments, the electronic device may be a piece of furniture or a building/structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, radio wave measuring devices, etc.) may include at least one. In various embodiments, the electronic device may be one or a combination of more than one of the various devices described above. An electronic device according to some embodiments may be a flexible electronic device. In addition, the electronic device according to the embodiment of this document is not limited to the above-described devices, and may include new electronic devices according to technological development.

이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.Hereinafter, an electronic device according to various embodiments will be described with reference to the accompanying drawings. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (eg, an artificial intelligence electronic device).

도 1은 일 실시 예에 따른 전자 장치의 운용 일례를 도시한 도면이다.1 is a diagram illustrating an example of operation of an electronic device according to an embodiment.

도 1을 참조하면, 전자 장치(100)는 사용자 제어에 대응하여 지정된 입력 인터페이스 기반의 사용자 필기 입력을 지원하는 어플리케이션(예: 노트 어플리케이션)을 실행하고, 상기 어플리케이션의 실행 화면(133)을 출력할 수 있다. 일 실시 예에서, 상기 입력 인터페이스는 전자 장치(100)의 화면 일 영역으로 출력되는 SIP(software input panel) 자판(30) 또는 전자 장치(100)에 탑재된 스타일러스 펜(40)(stylus pen) 중 적어도 하나를 포함할 수 있다. 이와 관련하여, 상기 어플리케이션의 실행 화면(133)에는 상기 사용자 필기 입력을 지원하는 입력 인터페이스를 지정(또는, 사용자 필기 입력 방식을 설정)하기 위한 적어도 하나의 메뉴 탭(tap)(134 및/또는 136)이 제공될 수 있다. 예를 들어, 제1 메뉴 탭(134)에 사용자 입력(예: 터치)이 인가되는 경우, 전자 장치(100)는 SIP 자판(30)을 출력할 수 있으며, 사용자는 상기 SIP 자판(30)을 이용한 텍스트 입력을 수행할 수 있다. 또는, 제2 메뉴 탭(136)에 사용자 입력(예: 터치)이 인가되는 경우, 전자 장치(100)는 상기 스타일러스 펜(40)의 신호를 검출할 수 있으며, 사용자는 스타일러스 펜(40)을 이용한 핸드라이팅(handwriting) 입력을 수행할 수 있다. 상술에 따르면, 사용자 필기 입력은 상기 SIP 자판(30) 또는 스타일러스 펜(40)을 기반으로 하는 텍스트 입력 또는 마킹 입력(예: 비문법적 별표, 밑줄, 물결 또는 체크 등)을 포괄하는 의미로 이해될 수 있으며, 이하에서 상기 사용자 필기 입력은 콘텐츠 입력으로 명명될 수 있다.Referring to FIG. 1 , the electronic device 100 executes an application (eg, a note application) supporting user handwriting input based on a designated input interface in response to user control, and outputs an execution screen 133 of the application. can In one embodiment, the input interface is either a software input panel (SIP) keyboard 30 output to one area of the screen of the electronic device 100 or a stylus pen 40 mounted on the electronic device 100. may contain at least one. In this regard, the execution screen 133 of the application includes at least one menu tab 134 and/or 136 for specifying an input interface supporting the user handwriting input (or setting a user handwriting input method). ) may be provided. For example, when a user input (eg, a touch) is applied to the first menu tab 134, the electronic device 100 can output the SIP keyboard 30, and the user presses the SIP keyboard 30. You can use text input. Alternatively, when a user input (eg, touch) is applied to the second menu tab 136, the electronic device 100 can detect the signal of the stylus pen 40, and the user moves the stylus pen 40. Handwriting input can be performed. According to the foregoing, user handwriting input can be understood as encompassing text input or marking input based on the SIP keyboard 30 or the stylus pen 40 (eg, non-grammatical asterisk, underline, wave or check). In the following, the user handwriting input may be referred to as a content input.

일 실시 예에서, 상기 어플리케이션의 실행 화면(133)은 전자 장치(100)에 탑재된 리코딩(recording) 기능을 운용하기 위한 제1 인터페이스(10)를 포함할 수 있다. 전자 장치(100)는 상기 제1 인터페이스(10)에 대한 사용자 제어에 대응하여, 상기 전자 장치(100)의 운용 환경에서 발생하는 음성(또는, 전자 장치(100)가 수신하는 음성)을 리코딩하여 저장하거나, 저장된 리코딩 데이터를 출력시킬 수 있다. 또한, 상기 어플리케이션의 실행 화면(133)은 임의의 정보 기입을 위한 제2 인터페이스(20)를 포함할 수 있다. 전자 장치(100)는 상기 정보 기입과 관련한 사용자의 콘텐츠 입력을 수신하여 제2 인터페이스(20)의 적어도 일 영역으로 표시할 수 있다. 일 실시 예에 따르면, 상기 제2 인터페이스(20)는 입력되는 콘텐츠의 양, 크기 또는 위치 등에 따라 상하 또는 좌우 방향의 스크롤 형태로 확장될 수 있다.In one embodiment, the execution screen 133 of the application may include a first interface 10 for operating a recording function installed in the electronic device 100 . The electronic device 100 records the voice generated in the operation environment of the electronic device 100 (or the voice received by the electronic device 100) in response to the user control of the first interface 10, You can save or output the stored recording data. Also, the execution screen 133 of the application may include a second interface 20 for writing arbitrary information. The electronic device 100 may receive a user's content input related to the information entry and display it in at least one area of the second interface 20 . According to an embodiment, the second interface 20 may be expanded in a vertical or horizontal scroll form according to the amount, size, or location of input content.

일 실시 예에서, 전자 장치(100)는 제1 인터페이스(10)에 대한 사용자 제어에 대응하여 수신되는 음성 입력을 리코딩하는 동시에, 사용자의 콘텐츠 입력을 수신하여 제2 인터페이스(20) 상에 표시할 수 있다. 예를 들어, 전자 장치(100)는 동일한 이벤트(예: 강의 등)에 관계되는 음성 입력 및 콘텐츠 입력을 수신하여 리코딩 또는 화면 표시를 수행할 수 있다. 이 동작에서, 전자 장치(100)는 상기 리코딩되는 데이터 및 입력되는 콘텐츠 데이터를 동일 시점(time) 기준으로 매핑하여 저장할 수 있다. 예를 들어, 전자 장치(100)는 동일한 시점에 리코딩된 데이터 및 입력된 콘텐츠 데이터를 상호 매핑하여 데이터베이스로 저장하거나, 인덱스(index) 형태로 저장할 수 있다.In an embodiment, the electronic device 100 records a voice input received in response to a user control on the first interface 10 and simultaneously receives a user's content input and displays it on the second interface 20. can For example, the electronic device 100 may perform recording or screen display by receiving a voice input and a content input related to the same event (eg, a lecture). In this operation, the electronic device 100 may map and store the recorded data and the input content data based on the same time. For example, the electronic device 100 may map data recorded at the same time and content data input to each other and store them in a database or in the form of an index.

일 실시 예에서, 전자 장치(100)는 제1 인터페이스(10) 또는 제2 인터페이스(20)에 인가되는 사용자 입력에 응답하여, 상기 사용자 입력으로부터 요청 또는 선택되는 제1 데이터에 매핑된 제2 데이터를 시각적 또는 청각적으로 제공할 수 있다. 예를 들어, 전자 장치(100)는 제1 인터페이스(10)에 대한 사용자 제어로부터 제1 시점에 리코딩된 데이터가 요청되는 경우, 상기 제1 시점의 리코딩 데이터 요청에 응답하는 동시에, 상기 데이터베이스 또는 인텍스를 참조하여 상기 제1 시점의 리코딩 데이터와 매핑된(또는, 제1 시점에 입력된) 콘텐츠 데이터를 시각적으로 명시할 수 있다. 유사하게, 전자 장치(100)는 제2 인터페이스(20)에 대한 사용자 제어로부터 제2 시점에 입력된 콘텐츠가 선택되는 경우, 상기 제2 시점의 콘텐츠 선택에 응답하는 동시에, 상기 제2 시점의 콘텐츠 데이터와 매핑된(또는, 제2 시점에 리코딩된) 리코딩 데이터를 시각적 또는 청각적으로 제공할 수 있다. 이하에서는, 동일 시점(time)에 생성 또는 입력되는 데이터들(예: 리코딩 데이터 및 콘텐츠 데이터)의 매핑을 기반으로 사용자 입력에 응답하여 정보를 제공하는 다양한 실시 예 및 이를 구현하는 전자 장치(100) 구성요소들의 기능 동작에 대하여 살펴보기로 한다.In an embodiment, the electronic device 100 responds to a user input applied to the first interface 10 or the second interface 20, and second data mapped to first data requested or selected from the user input. can be presented visually or audibly. For example, when data recorded at a first point in time is requested from a user control of the first interface 10, the electronic device 100 responds to the request for recorded data at the first point in time and records the database or index at the same time. The content data mapped to the recording data of the first view (or input at the first view) may be visually specified with reference to . Similarly, when the content input at the second point of view is selected from the user control of the second interface 20, the electronic device 100 responds to the content selection of the second point of view and simultaneously responds to the content of the second point of view. Recorded data mapped to data (or recorded at the second point of view) may be provided visually or audibly. Hereinafter, various embodiments of providing information in response to user input based on mapping of data (eg, recording data and content data) generated or input at the same time, and an electronic device 100 implementing the same Let's take a look at the functional operation of the components.

도 2는 일 실시 예에 따른 전자 장치의 구성을 도시한 도면이다.2 is a diagram illustrating a configuration of an electronic device according to an exemplary embodiment.

도 2를 참조하면, 전자 장치(100)는 통신 회로(110), 입출력 장치(120), 메모리(130), 디스플레이(140) 또는 프로세서(150) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치(100)는 상술한 구성요소들 중 적어도 하나를 생략하거나, 다른 구성요소를 추가적으로 포함할 수 있다. 예를 들어, 전자 장치(100)는 상기 구성요소들로 전력을 공급하는 전원 공급 장치(예: 배터리), 전자 장치(100) 주변 영역에 대한 영상(예: still image 또는 video 등) 촬영을 지원하는 카메라 장치(예: 전방 카메라 및/또는 후방 카메라) 또는 전자 장치(100) 운용 환경에 대한 각종 정보를 센싱하는 센서 장치(예: 근접 센서, 조도 센서, 가속도 센서, 지문 인식 센서 또는 홍채 인식 센서 등) 등을 더 포함할 수 있다. 또는, 전자 장치(100)는 후술되는 도 9를 통하여 언급될 전자 장치(901)의 구성요소들을 더 포함할 수 있다. 이하 설명되는 전자 장치(100) 구성요소들의 기능 동작 중 적어도 일부는 메모리(130)에 저장된 적어도 하나의 명령어를 기반으로 하는 프로세서(150)의 제어 하에 구현되는 것으로 이해될 수 있다.Referring to FIG. 2 , the electronic device 100 may include at least one of a communication circuit 110, an input/output device 120, a memory 130, a display 140, or a processor 150. According to various embodiments, the electronic device 100 may omit at least one of the above-described components or may additionally include other components. For example, the electronic device 100 supports a power supply device (eg, battery) for supplying power to the components, and capturing an image (eg, still image or video) of an area around the electronic device 100. A camera device (eg, a front camera and/or a rear camera) or a sensor device (eg, a proximity sensor, an illuminance sensor, an acceleration sensor, a fingerprint recognition sensor, or an iris recognition sensor) that senses various information about the operating environment of the electronic device 100 etc.) and the like may be further included. Alternatively, the electronic device 100 may further include components of the electronic device 901 to be referred to through FIG. 9 described later. It may be understood that at least some of the functional operations of components of the electronic device 100 described below are implemented under the control of the processor 150 based on at least one command stored in the memory 130 .

상기 통신 회로(110)는 전자 장치(100)와 적어도 하나의 외부 장치(200) 간의 통신을 지원할 수 있다. 예를 들어, 통신 회로(110)는 상기 적어도 하나의 외부 장치(200)와 규정된 프로토콜(protocol)에 따른 네트워크(300)를 구축하고, 유선 통신 또는 무선 통신을 기반으로 네트워크(300)에 접속함으로써, 상기 적어도 하나의 외부 장치(300)로 신호 또는 데이터를 전송하거나, 상기 적어도 하나의 외부 장치(300)로부터 신호 또는 데이터를 수신할 수 있다. 다양한 실시 예에 따르면, 상기 적어도 하나의 외부 장치(300)는 전자 장치(100)와 동종의 장치(예: 모바일 장치 등) 또는 이종의 장치(예: 서버 등)를 포함할 수 있다.The communication circuit 110 may support communication between the electronic device 100 and at least one external device 200 . For example, the communication circuit 110 establishes a network 300 according to a prescribed protocol with the at least one external device 200, and accesses the network 300 based on wired or wireless communication. By doing so, signals or data may be transmitted to the at least one external device 300 or signals or data may be received from the at least one external device 300 . According to various embodiments, the at least one external device 300 may include a device of the same type as the electronic device 100 (eg, a mobile device) or a device of a different type (eg, a server).

상기 입출력 장치(120)는 전술된 음성 입력 또는 콘텐츠 입력을 수신 또는 지원할 수 있다. 예를 들어, 입출력 장치(120)는 전자 장치(100)의 일 영역으로 탑재되거나, 전자 장치(100) 상에서 출력되거나, 또는 전자 장치(100)에 연결되는 적어도 하나의 마이크, SIP 자판(도 1의 30), 키보드, 마우스, 터치 패드 또는 스타일러스 펜(도 1의 40) 등을 포함할 수 있으며, 상기 음성 입력 또는 콘텐츠 입력에 따른 신호 또는 데이터를 수신하거나, 전자 장치(100)로 전달할 수 있다. 또는, 입출력 장치(120)는 전자 장치(100)의 일 영역으로 탑재되는 적어도 하나의 스피커를 포함할 수 있으며, 전자 장치(100)에서 생성되거나, 적어도 하나의 외부 장치(200)로부터 수신하는 음성 신호 또는 데이터를 상기 전자 장치(100)의 외부로 출력할 수 있다. 일 실시 예에서, 입출력 장치(120)의 적어도 일부(예: 적어도 하나의 마이크 등)는 항시 활성화 상태(예: always on)로 제어되거나, 전술된 제1 인터페이스(도 1의 10)에 사용자 입력(예: 터치)이 인가되는 경우 트리거(trigger)되어 활성화될 수 있다. 일 실시 예에서, 입출력 장치(120)는 상기 마이크를 통하여 입력되는 음성 신호 또는 데이터를 리코딩(recording)하는 리코딩 모듈을 포함할 수 있다.The input/output device 120 may receive or support the aforementioned voice input or content input. For example, the input/output device 120 includes at least one microphone, SIP keyboard (FIG. 1 30), a keyboard, a mouse, a touch pad or a stylus pen (40 in FIG. 1 ), etc., and signals or data according to the voice input or content input may be received or transmitted to the electronic device 100. . Alternatively, the input/output device 120 may include at least one speaker mounted in one area of the electronic device 100, and a voice generated by the electronic device 100 or received from at least one external device 200. Signals or data may be output to the outside of the electronic device 100 . In one embodiment, at least a portion (eg, at least one microphone) of the input/output device 120 is controlled to be always active (eg, always on), or a user inputs to the above-described first interface (10 in FIG. 1 ). When (eg, touch) is applied, it may be triggered and activated. In one embodiment, the input/output device 120 may include a recording module for recording voice signals or data input through the microphone.

상기 메모리(130)는 전자 장치(100) 운용과 관계되는 적어도 하나의 신호 또는 데이터를 저장하거나, 전자 장치(100) 구성요소들의 기능 동작과 관계되는 적어도 하나의 명령어를 저장할 수 있다. 예를 들어, 메모리(130)는 상기 입출력 장치(120)를 기반으로 입력되는 음성 데이터, 콘텐츠 데이터 또는 상기 음성에 대한 리코딩 데이터를 저장할 수 있다. 일 실시 예에서, 메모리(130)는 상기 리코딩 데이터 또는 콘텐츠 데이터의 저장과 관련하여, 프로세서(150)의 제어 하에 매핑되는 특정 시점(time)의 리코딩 데이터 및 콘텐츠 데이터를 데이터베이스 또는 인덱스 형태로 저장할 수 있다. 이 동작에서, 프로세서(150)는 상기 매핑된 특정 시점의 리코딩 데이터 및 콘텐츠 데이터에 대한 식별 정보로써, 상기 특정 시점 정보를 데이터베이스 또는 인덱스에 포함시킬 수 있다. 일 실시 예에서, 메모리(130)는 전자 장치(100) 제조 시 프리로드(preloaded) 형태로 탑재되거나, 온라인 마켓(예: 앱 스토어(app store))으로부터 서드 파티(third party) 형태로 다운로드 받는 적어도 하나의 어플리케이션(131)을 저장할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 어플리케이션(131)은 상기 입출력 장치(120)(예: 리코딩 모듈 등)의 기능 동작(예: 입력되는 음성 데이터에 대한 리코딩) 제어 또는 사용자의 정보 기입(예: 콘텐츠 입력) 중 적어도 하나를 지원하는 어플리케이션(예: 노트 어플리케이션)을 포함할 수 있다.The memory 130 may store at least one signal or data related to the operation of the electronic device 100 or store at least one command related to the functional operation of components of the electronic device 100 . For example, the memory 130 may store voice data, contents data, or recording data for the voice input based on the input/output device 120 . In one embodiment, in relation to the storage of the recording data or content data, the memory 130 may store the recording data and content data of a specific time point mapped under the control of the processor 150 in the form of a database or index. there is. In this operation, the processor 150 may include information of the specific viewpoint in a database or index as identification information for the mapped recording data and content data of the specific viewpoint. In one embodiment, the memory 130 is mounted in a preloaded form when the electronic device 100 is manufactured, or is downloaded in the form of a third party from an online market (eg, an app store). At least one application 131 may be stored. According to an embodiment, the at least one application 131 controls the functional operation (eg, recording of input voice data) of the input/output device 120 (eg, a recording module, etc.) or writes user information (eg, a recording module). : content input).

상기 디스플레이(140)는 각종 화면을 출력할 수 있다. 예를 들어, 디스플레이(140)는 사용자 제어 또는 지정된 스케줄링 정보에 대응하여 전자 장치(100)의 운용 화면(예: 홈 화면 또는 어플리케이션(131)의 실행 화면(도 1의 133) 등)을 출력할 수 있다. 또는, 디스플레이(140)는 상기 전자 장치(100)의 운용 화면 상에 사용자 입력(예: 콘텐츠 입력)에 따른 텍스트 또는 마킹(예: 비문법적 별표, 밑줄, 물결 또는 체크 등)을 표시할 수 있다. 다양한 실시 예에서, 디스플레이(140)는 디스플레이 패널, 커버 글라스 및 터치 패널(또는, 터치 센서)을 포함하는 터치스크린 디스플레이로 구현될 수 있다. 상기 디스플레이 패널은 지정된 구동 신호에 기초하여 관련 화면을 출력할 수 있다. 이와 관련하여, 디스플레이(140)는 상기 디스플레이 패널로 구동 신호를 전달하는 디스플레이 구동 회로를 포함할 수 있다. 상기 디스플레이 구동 회로는 디스플레이 패널과 전기적으로 연결되어, 프로세서(150)로부터 수신한 콘텐츠 정보에 대응하는 구동 신호를 지정된 프레임률(frame rate)로 상기 디스플레이 패널에 전달할 수 있다. 상기 커버 글라스는 디스플레이 패널의 상부로 배치되어 상기 디스플레이 패널의 화면 출력에 따른 광을 투과시킬 수 있다. 또한, 상기 커버 글라스의 적어도 일 영역에는 사용자 신체(예: 손가락) 또는 스타일러스 펜(도 1의 40)에 의한 사용자 입력(예: 터치, 드래그, 프레스 또는 호버링 등)이 인가될 수 있다. 상기 터치 패널은 사용자 입력(예: 터치, 드래그, 프레스 또는 호버링 등)에 따른 신호를 검출(예: 정전식 검출, 감압식 검출, 적외선 방식 검출 또는 초음파 방식 검출 등)하여 전기적 신호로 출력하고, 상기 전기적 신호에 대한 정보를 터치 컨트롤러(예: 터치 IC) 또는 프로세서(150)로 전달할 수 있다.The display 140 may output various screens. For example, the display 140 outputs an operation screen of the electronic device 100 (eg, a home screen or an execution screen of the application 131 (133 in FIG. 1)) in response to user control or designated scheduling information. can Alternatively, the display 140 may display text or markings (eg, non-grammatical asterisks, underlines, waves, checks, etc.) according to user input (eg, content input) on the operating screen of the electronic device 100. . In various embodiments, the display 140 may be implemented as a touch screen display including a display panel, a cover glass, and a touch panel (or touch sensor). The display panel may output a related screen based on a designated driving signal. In this regard, the display 140 may include a display driving circuit that transmits a driving signal to the display panel. The display driving circuit may be electrically connected to the display panel and transmit a driving signal corresponding to content information received from the processor 150 to the display panel at a specified frame rate. The cover glass may be disposed above the display panel to transmit light according to a screen output of the display panel. In addition, a user input (eg, touch, drag, press, hover, etc.) by a user's body (eg, a finger) or a stylus pen ( 40 in FIG. 1 ) may be applied to at least one area of the cover glass. The touch panel detects a signal (eg, electrostatic detection, pressure-sensitive detection, infrared detection, ultrasonic detection, etc.) according to a user input (eg, touch, drag, press, hovering, etc.) and outputs an electrical signal. Information on electrical signals may be transferred to a touch controller (eg, touch IC) or processor 150 .

상기 프로세서(150)는 중앙처리장치(central processing unit), 어플리케이션 프로세서(application processor) 또는 커뮤니케이션 프로세서(communication processor) 중 적어도 하나로 구현되어, 상술된 전자 장치(100)의 구성요소(예: 통신 회로(110), 입출력 장치(120), 메모리(130) 또는 디스플레이(140) 등)를 제어할 수 있다. 예를 들어, 프로세서(150)는 적어도 하나의 구성요소와 전기적 또는 기능적으로 연결되어, 구성요소로 기능 동작과 관계되는 적어도 하나의 명령어를 전달하거나, 각종 연산 또는 데이터 처리 등을 수행할 수 있다. 일 실시 예에서, 프로세서(150)는 지정된 어플리케이션(예: 노트 어플리케이션)의 실행을 기반으로 생성 또는 입력되는 복수의 데이터(예: 음성 입력의 리코딩에 따른 리코딩 데이터 및 콘텐츠 입력에 따른 콘텐츠 데이터)를 지정된 기준(예: 생성 또는 입력 시점(time))에 기초하여 매핑시킬 수 있다. 일 실시 예에서, 프로세서(150)는 상기 매핑된 데이터들을 참조하여, 상기 어플리케이션의 실행 화면 또는 설정 화면 상에 인가되는 사용자 입력에 응답할 수 있다. 예를 들어, 프로세서(150)는 특정 데이터를 요청 또는 선택하는 사용자 입력에 대응하여, 상기 요청 또는 선택을 처리하는 동시에, 상기 특정 데이터와 매핑된 데이터를 시각적으로 명시하거나, 청각적으로 제공할 수 있다. 이와 관련한 프로세서(150)의 다양한 기능 동작에 대해서는 이하 참조되는 도면들을 통하여 설명하기로 한다.The processor 150 is implemented as at least one of a central processing unit, an application processor, or a communication processor, and is a component (eg, a communication circuit) of the electronic device 100 described above. 110), input/output device 120, memory 130 or display 140, etc.) can be controlled. For example, the processor 150 may be electrically or functionally connected to at least one component, transmit at least one instruction related to a functional operation to the component, or perform various calculations or data processing. In one embodiment, the processor 150 processes a plurality of data (eg, recording data according to voice input recording and content data according to content input) generated or input based on the execution of a designated application (eg, note application). It can be mapped based on a specified criterion (eg, creation or input time). In one embodiment, the processor 150 may respond to a user input applied on the execution screen or setting screen of the application with reference to the mapped data. For example, in response to a user input requesting or selecting specific data, the processor 150 may visually specify or audibly provide data mapped to the specific data while processing the request or selection. there is. Various functional operations of the processor 150 in this regard will be described through referenced drawings below.

도 3a, 도 3b 및 도 3c는 일 실시 예에 따른 전자 장치의 다양한 사용자 입력에 대한 응답 형태를 도시한 도면이고, 도 3d는 일 실시 예에 따른 전자 장치의 리코딩 재생에 대응하는 그래픽 효과 표시 형태를 도시한 도면이다.3A, 3B, and 3C are diagrams illustrating responses to various user inputs of an electronic device according to an embodiment, and FIG. 3D is a graphic effect display form corresponding to recording and playback of an electronic device according to an embodiment. It is a drawing showing

도 3a, 도 3b, 도 3c 또는 도 3d에서, 전자 장치(100)의 프로세서(도 2의 150)는 지정된 어플리케이션(예: 노트 어플리케이션)의 실행을 통하여 생성 또는 입력된 특정 이벤트의 리코딩 데이터 및 콘텐츠 데이터의 매핑을 수행한 상태에서, 상기 어플리케이션에 대한 사용자 제어에 따라 상기 리코딩 데이터의 재생 지원 및 상기 콘텐츠 데이터를 표시하는 어플리케이션의 실행 화면(135)을 출력할 수 있다. 이하의 다른 도면에서 참조되는 상기 어플리케이션의 실행 화면(135)은 상술한 바와 동일한 유형으로 출력될 수 있으며, 이에 대한 중복적인 기재는 생략될 수 있다.3a, 3b, 3c, or 3d, the processor (150 in FIG. 2) of the electronic device 100 records data and contents of a specific event generated or input through execution of a designated application (eg, note application). In the state in which the data is mapped, the execution screen 135 of the application displaying the playback of the recorded data and the content data can be output according to the user's control of the application. The execution screen 135 of the application referred to in the following drawings may be output in the same type as described above, and redundant description thereof may be omitted.

도 3a를 참조하면, 전자 장치(100)의 프로세서(150)는 소정 시간 범위 동안 리코딩된 리코딩 데이터의 출력(또는, 재생)을 지원하는 제1 인터페이스(10) 및 상기 소정 시간 범위 동안 사용자로부터 입력된 콘텐츠(예: 텍스트 또는 마킹(비문법적 별표, 밑줄, 물결 또는 체크 등))를 표시하는 제2 인터페이스(20)를 포함하는 어플리케이션의 실행 화면(135)을 출력할 수 있다. 일 실시 예에서, 프로세서(150)는 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 특정 콘텐츠를 선택하는 제1 사용자 입력(예: 터치)을 수신할 수 있다. 이 경우, 프로세서(150)는 상기 제1 사용자 입력이 인가된 적어도 하나의 스트로크(stroke)를 식별하고, 식별된 적어도 하나의 스트로크를 포함하는 단위, 구 또는 형태소의 콘텐츠(예: 복수의 스트로크로 구성된 텍스트(천지창조))에 지정된 그래픽 효과(예: 지정된 색상 표시 또는 점멸 표시 등)를 부여할 수 있다. 또는, 프로세서(150)는 상기 제1 사용자 입력이 인가된 콘텐츠(예: 단일의 스트로크(stroke)로 구성된 마킹)에 상기 지정된 그래픽 효과를 부여할 수 있다.Referring to FIG. 3A , the processor 150 of the electronic device 100 provides a first interface 10 that supports output (or playback) of recorded data recorded for a predetermined time range and input from a user during the predetermined time range. An execution screen 135 of an application including the second interface 20 displaying selected content (eg, text or marking (ungrammatical asterisk, underline, wave, check, etc.)) may be output. In one embodiment, the processor 150 may receive a first user input (eg, a touch) for selecting specific content from among at least one piece of content displayed on the second interface 20 . In this case, the processor 150 identifies at least one stroke to which the first user input has been applied, and unit, phrase, or morpheme content (eg, a plurality of strokes) including the identified at least one stroke. Designated graphic effects (e.g. designated color display or blinking display, etc.) can be given to the composed text (Creation of Heaven and Earth). Alternatively, the processor 150 may apply the designated graphic effect to content to which the first user input is applied (eg, marking consisting of a single stroke).

일 실시 예에서, 프로세서(150)는 상기 제1 사용자 입력에 따른 콘텐츠에 상기 지정된 그래픽 효과를 부여하는 동작에서, 메모리(도 2의 130) 상의 데이터베이스 또는 인덱스를 참조하여 상기 그래픽 효과가 부여된 콘텐츠와 매핑된 리코딩 데이터를 식별할 수 있다. 예를 들어, 프로세서(150)는 상기 그래픽 효과가 부여된 콘텐츠의 최초 스트로크 입력 시점과 동일한 시점으로 리코딩된 리코딩 데이터를 식별할 수 있다. 일 실시 예에서, 프로세서(150)는 제1 인터페이스(10)의 일 영역으로 식별된 리코딩 데이터의 재생 지점을 명시할 수 있다. 이와 관련하여, 상기 제1 인터페이스(10)는 상기 소정 시간 동안 리코딩된 리코딩 데이터의 재생 상태를 나타내는 상태 바(bar)를 포함할 수 있으며, 프로세서(150)는 상기 상태 바 상에서 식별된 리코딩 데이터의 재생 지점(예: 00:02:47)에 이동 바(11)를 위치시킬 수 있다. 일 실시 예에 따르면, 제1 인터페이스(10)는 상기 소정 시간 동안 리코딩된 리코딩 데이터의 재생 또는 재생 정지를 제어하기 위한 적어도 하나의 객체를 포함할 수 있다. 프로세서(150)는 상기 식별된 리코딩 데이터의 재생 지점(예: 00:02:47)에 이동 바(11)가 위치된 상태에서 재생 객체에 사용자 입력(예: 터치)이 인가되는 경우, 입출력 장치(도 2의 120)(예: 스피커)를 제어하여 상기 식별된 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.In an embodiment, the processor 150, in an operation of giving the specified graphic effect to the content according to the first user input, refers to a database or index in the memory (130 in FIG. 2 ) to the content to which the graphic effect is applied. It is possible to identify recording data mapped with. For example, the processor 150 may identify recorded data recorded at the same point of time as the first stroke input point of the content to which the graphic effect is applied. In one embodiment, the processor 150 may specify a reproduction point of the identified recorded data as an area of the first interface 10 . In this regard, the first interface 10 may include a status bar indicating a playback status of the recorded data recorded for the predetermined time period, and the processor 150 may display the status bar of the recorded data identified on the status bar. The movement bar 11 may be positioned at a playback point (eg, 00:02:47). According to an embodiment, the first interface 10 may include at least one object for controlling playback or playback stop of the recorded data recorded for the predetermined time period. When a user input (eg, touch) is applied to the playback object in a state where the movement bar 11 is located at the identified playback point (eg, 00:02:47) of the recorded data, the processor 150 generates an input/output device. (120 in FIG. 2) (eg, a speaker) may be controlled to output a voice starting from the identified recorded data.

도 3b를 참조하면, 프로세서(150)는 제1 인터페이스(10)에 포함된 이동 바(11)의 위치를 제어하는 제2 사용자 입력(예: 드래그)을 수신할 수 있다. 이 경우, 프로세서(150)는 메모리(130)의 데이터베이스 또는 인덱스틀 참조하여, 상기 제2 사용자 입력에 따라 이동 바(11)가 위치하는 지점(예: 00:02:47)에 대응하는 리코딩 데이터를 식별할 수 있다. 프로세서(150)는 식별된 리코딩 데이터와 매핑된(또는, 식별된 리코딩 데이터가 리코딩된 시점(time)과 동일 시점으로 입력된) 콘텐츠 데이터를 식별하고, 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 콘텐츠(21)에 상기 지정된 그래픽 효과를 부여할 수 있다. 프로세서(150)는 제1 인터페이스(10)에 포함된 재생 객체에 사용자 입력(예: 터치)이 인가되는 경우, 상기 이동 바(11)가 위치한 재생 지점(예: 00:02:47)에 대응하는 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.Referring to FIG. 3B , the processor 150 may receive a second user input (eg, drag) for controlling the position of the movement bar 11 included in the first interface 10 . In this case, the processor 150 refers to the database or index frame of the memory 130 and records the recorded data corresponding to the point where the movement bar 11 is located (eg, 00:02:47) according to the second user input. can identify. The processor 150 identifies content data mapped to the identified recorded data (or input at the same time as the identified recorded data was recorded), and displays at least one of the identified recorded data displayed on the second interface 20. Among the contents, the designated graphic effect may be applied to the contents 21 corresponding to the identified contents data. When a user input (eg, touch) is applied to the playback object included in the first interface 10, the processor 150 corresponds to the playback point (eg, 00:02:47) where the movement bar 11 is located. It is possible to output audio starting from the recorded data.

도 3c를 참조하면, 제1 인터페이스(10)에 포함되는 상기 상태 바의 주변 영역에는, 특정 재생 지점의 리코딩 데이터와 매핑된 콘텐츠 데이터에 관계되는 섬네일(thumbnail) 객체(13)가 표시될 수 있다. 일 실시 예에서, 적어도 하나의 섬네일 객체(13) 중 어느 하나에 제3 사용자 입력(예: 터치)이 인가되는 경우, 프로세서(150)는 상기 상태 바 상에서 상기 제3 사용자 입력이 인가된 섬네일 객체(13)의 위치에 대응하는 재생 지점(예: 00:57:13)으로 이동 바(11)를 위치시킬 수 있다. 또한, 프로세서(150)는 상기 제3 사용자 입력이 인가된 섬네일 객체(13)에 대응하는(또는, 선택된 섬네일 객체(13)의 위치에 대응하는 재생 지점(예: 00:57:13)의 리코딩 데이터와 매핑된) 콘텐츠 데이터를 식별하고, 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 콘텐츠(22)에 상기 지정된 그래픽 효과를 부여할 수 있다. 프로세서(150)는 제1 인터페이스(10)에 포함된 재생 객체에 사용자 입력(예: 터치)이 인가되는 경우, 상기 이동 바(11)가 위치한 재생 지점(예: 00:57:13)에 대응하는 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.Referring to FIG. 3C , in an area around the status bar included in the first interface 10, a thumbnail object 13 related to content data mapped to recording data of a specific playback point may be displayed. . In one embodiment, when a third user input (eg, touch) is applied to any one of the one or more thumbnail objects 13, the processor 150 displays the thumbnail object to which the third user input has been applied on the status bar. The movement bar 11 may be positioned at a playback point (eg, 00:57:13) corresponding to the position of (13). In addition, the processor 150 records a reproduction point (eg, 00:57:13) corresponding to the thumbnail object 13 to which the third user input is applied (or corresponding to the location of the selected thumbnail object 13). content data (mapped to data) may be identified, and the specified graphic effect may be given to content 22 corresponding to the identified content data among at least one content displayed on the second interface 20 . When a user input (eg, touch) is applied to the playback object included in the first interface 10, the processor 150 corresponds to the playback point (eg, 00:57:13) where the movement bar 11 is located. It is possible to output audio starting from the recorded data.

도 3d를 참조하면, 프로세서(150)는 전술된 제1 사용자 입력(예: 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 특정 콘텐츠를 선택하는 터치)에 따라 제1 인터페이스(10)에 포함된 이동 바(11)가 상기 제1 사용자 입력과 관계되는 콘텐츠 데이터에 매핑된 리코딩 데이터의 재생 지점(예: 00:02:47)으로 이동된 상태에서, 상기 제1 인터페이스(10) 상의 재생 객체(15)에 인가되는 사용자 입력(예: 터치)을 수신할 수 있다. 이 경우, 프로세서(150)는 상기 이동 바(11)가 위치한 재생 지점(예: 00:02:47)에 대응하는 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다. 이 동작에서, 프로세서(150)는 메모리(130) 상의 데이터베이스 또는 인덱스를 참조하여 상기 음성 출력의 경과에 따라 이동 바(11)가 이동하는 지점에 해당하는 리코딩 데이터 및 매핑된 콘텐츠 데이터를 식별할 수 있다. 예를 들어, 프로세서(150)는 상기 음성 출력의 경과에 따라 이동 바(11)가 제1 재생 지점(00:02:47)으로부터 제2 재생 지점(00:02:49)로 이동하는 경우, 상기 제2 재생 지점(00:02:49)에 해당하는 리코딩 데이터와 매핑된 콘텐츠 데이터를 식별할 수 있다. 프로세서(150)는 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 제1 콘텐츠(23a)에 지정된 그래픽 효과를 부여할 수 있다. 상기 제1 콘텐츠(23a)에 그래픽 효과를 부여한 후, 프로세서(150)는 상술과 유사하게 음성 출력 경과에 따른 이동 바(11)의 위치 이동에 따라, 제3 재생 지점(00:02:51)에 대응하는 제2 콘텐츠(23b) 및 제4 재생 지점(00:02:53)에 대응하는 제3 콘텐츠(23c)에 순차적으로 지정된 그래픽 효과를 부여할 수 있다. 다양한 실시 예에 따르면, 상술된 음성 출력의 경과에 따라 상기 콘텐츠들(23a, 23b 및 23c)에 순차적으로 그래픽 효과를 부여하는 구성은, 도 3b 또는 도 3c에서 이동 바(11)가 위치한 재생 지점의 리코딩 데이터를 기점으로 하는 음성 출력 시에도 동일 또는 유사하게 적용될 수 있다.Referring to FIG. 3D , the processor 150 is included in the first interface 10 according to the aforementioned first user input (eg, a touch to select a specific content from among at least one content displayed on the second interface 20). A playback object on the first interface 10 in a state where the moved bar 11 is moved to a playback point (eg, 00:02:47) of recorded data mapped to content data related to the first user input A user input (eg, touch) applied to (15) may be received. In this case, the processor 150 may output audio starting from the recorded data corresponding to the reproduction point (eg, 00:02:47) where the movement bar 11 is located. In this operation, the processor 150 may refer to a database or index on the memory 130 to identify recorded data and mapped content data corresponding to a point at which the movement bar 11 moves according to the lapse of the voice output. there is. For example, when the movement bar 11 moves from the first playback point (00:02:47) to the second playback point (00:02:49) according to the passage of the audio output, the processor 150, Recording data corresponding to the second playback point (00:02:49) and mapped content data may be identified. The processor 150 may give a specified graphic effect to the first content 23a corresponding to the identified content data among at least one piece of content displayed on the second interface 20 . After giving the graphic effect to the first content 23a, the processor 150 moves the position of the moving bar 11 according to the progress of the audio output similarly to the above, at the third playback point (00:02:51). Designated graphic effects may be sequentially applied to the second content 23b corresponding to and the third content 23c corresponding to the fourth playback point (00:02:53). According to various embodiments, the configuration for sequentially applying graphic effects to the contents 23a, 23b, and 23c according to the passage of the above-described audio output is the playback point where the moving bar 11 is located in FIG. 3B or 3C. The same or similar can be applied to audio output starting from the recorded data of .

도 4 및 도 5는 다양한 실시 예에 따른 전자 장치의 제4 사용자 입력에 대한 응답 형태를 도시한 도면이고, 도 6은 일 실시 예에 따른 전자 장치의 제5 사용자 입력에 대한 응답 형태를 도시한 도면이다.4 and 5 are diagrams illustrating a response form of an electronic device to a fourth user input according to various embodiments, and FIG. 6 illustrates a response form of an electronic device to a fifth user input according to an embodiment. it is a drawing

도 4를 참조하면, 전자 장치(100)의 프로세서(도 2의 150)는 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 특정 콘텐츠(예: 천지창조)를 선택하는 제4 사용자 입력(예: 더블 터치)을 수신할 수 있다. 이 경우, 프로세서(150)는 전술된 제1 사용자 입력(예: 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 특정 콘텐츠를 선택하는 터치)에 대한 응답과 유사하게, 제1 인터페이스(10)에 포함된 이동 바(11)를 상기 제4 사용자 입력과 관계되는 콘텐츠 데이터에 매핑된 리코딩 데이터의 재생 지점(예: 00:02:47)으로 위치시킬 수 있다. 또한, 프로세서(150)는 메모리(도 2의 130) 상의 데이터베이스 또는 인덱스를 참조하여, 상기 제4 사용자 입력과 관계되는 콘텐츠 데이터에 매핑된 리코딩 데이터(예: 재생 지점 00:02:47에 해당하는 리코딩 데이터)로부터 지정된 시간(예: 20초) 이전에 리코딩된 리코딩 데이터(예: 재생 지점 00:02:27에 해당하는 리코딩 데이터)를 식별할 수 있다. 프로세서(150)는 식별된 리코딩 데이터를 텍스트 형태로 변환하고, 상기 변환된 텍스트(51)를 포함하는 제3 인터페이스(50)를 출력할 수 있다. 일 실시 예에서, 프로세서(150)는 상기 제3 인터페이스(50)의 일 영역으로 인가되는 사용자 입력(예: 터치)에 대응하여 상기 텍스트(51)로 변환되기 이전의 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.Referring to FIG. 4 , the processor ( 150 of FIG. 2 ) of the electronic device 100 receives a fourth user input (eg, creation of the universe) for selecting specific content (eg, the creation of the world) from among at least one piece of content displayed on the second interface 20 . : double touch) can be received. In this case, the processor 150, similar to a response to the above-described first user input (eg, a touch to select a specific content from among at least one content displayed on the second interface 20), the first interface 10 The movement bar 11 included in may be positioned as a reproduction point (eg, 00:02:47) of recorded data mapped to content data related to the fourth user input. In addition, the processor 150 refers to the database or index on the memory (130 in FIG. 2) and records the recorded data mapped to the content data related to the fourth user input (eg, the playback point corresponding to 00:02:47). Recording data (eg, recorded data corresponding to the playback point 00:02:27) recorded before a designated time (eg, 20 seconds) from the recorded data) may be identified. The processor 150 may convert the identified recorded data into text form and output the third interface 50 including the converted text 51 . In one embodiment, the processor 150 responds to a user input (eg, touch) applied to one area of the third interface 50, and outputs voice based on the recorded data before being converted into the text 51. can output

도 5를 참조하면, 프로세서(150)는 전자 장치(100)에 탑재된 리코딩 기능을 운용하기 위한 제1 인터페이스(100) 및 임의의 정보 기입을 위한 제2 인터페이스(미도시)(예: 도 1의 20)를 포함하는 어플리케이션(예: 노트 어플리케이션)의 실행 화면(133)을 출력할 수 있다. 일 실시 예에서, 프로세서(150)는 상기 실행 화면(133)의 일 영역으로 제공되는 제3 메뉴 탭(137)(예: 더보기 메뉴 탭)을 이용하여 지정된 파일(예: PDF 파일, 이메일 파일 또는 메시지 파일 등)을 임폴트(import)하는 사용자 입력을 수신할 수 있다. 이 경우, 프로세서(150)는 상기 실행 화면(133)에 포함된 제2 인터페이스(미도시)의 상부 레이어로 상기 파일의 실행에 따른 제4 인터페이스(60)를 출력할 수 있다. 일 실시 예에 따르면, 상기 제4 인터페이스는 상기 파일이 포함하는 정보에 따른 적어도 하나의 콘텐츠(예: 텍스트 또는 이미지 등)를 포함할 수 있다.Referring to FIG. 5 , the processor 150 includes a first interface 100 for operating a recording function installed in the electronic device 100 and a second interface (not shown) for writing arbitrary information (eg, FIG. 1 ). An execution screen 133 of an application (eg, a note application) including 20 of) may be output. In one embodiment, the processor 150 uses the third menu tab 137 (eg, a more menu tab) provided as one area of the execution screen 133 to select a designated file (eg, a PDF file, an e-mail file, or may receive user input to import a message file, etc.). In this case, the processor 150 may output the fourth interface 60 according to the execution of the file to an upper layer of the second interface (not shown) included in the execution screen 133 . According to an embodiment, the fourth interface may include at least one piece of content (eg, text or image) according to information included in the file.

일 실시 예에서, 프로세서(150)는 상기 제1 인터페이스(10)에 대한 사용자 제어에 대응하여 마이크를 통해 수신되는 음성 입력을 리코딩하는 동시에, 사용자의 콘텐츠 입력을 수신하여 상기 제4 인터페이스(60) 상에 표시할 수 있다. 일 실시 예에 따르면, 도 5를 통하여 설명되는 실시 예에서, 상기 사용자의 콘텐츠 입력은 비문법적 별표, 밑줄, 물결 또는 체크 등을 포함하는 마킹(marking) 입력으로 이해될 수 있다. 프로세서(150)는 상기 리코딩된 리코딩 데이터 및 입력된 콘텐츠 데이터를 동일 시점(time) 기준으로 매핑하여 데이터베이스 또는 인덱스 형태로 저장할 수 있다.In one embodiment, the processor 150 records a voice input received through a microphone in response to a user control of the first interface 10, and simultaneously receives a user's content input to generate the fourth interface 60. can be displayed on the According to an embodiment, in the embodiment described with reference to FIG. 5 , the user's content input may be understood as a marking input including non-grammatical asterisks, underlines, waves, checks, and the like. The processor 150 may store the recorded recorded data and the input content data in a database or index form by mapping them based on the same point in time.

일 실시 예에서, 프로세서(150)는 상기 제4 인터페이스(60)에 표시된 적어도 하나의 마킹 콘텐츠 중 특정 마킹 콘텐츠(예: 물결 마킹)를 선택하는 제4 사용자 입력(예: 더블 터치)를 수신할 수 있다. 프로세서(150)는 상기 제4 사용자 입력 수신에 응답하여, 상기 데이터베이스 또는 인덱스를 참조로 상기 제4 사용자 입력과 관계되는 마킹 콘텐츠 데이터와 매핑된 리코딩 데이터(예: 00:11:07 시점에 리코딩된 리코딩 데이터)로부터 지정된 시간(예: 20초) 이전에 리코딩된 리코딩 데이터(예: 00:10:47 시점에 리코딩된 리코딩 데이터)를 식별할 수 있다. 프로세서(150)는 식별된 리코딩 데이터를 텍스트 형태로 변환하고, 상기 변환된 텍스트(71)를 포함하는 제5 인터페이스(70)를 출력할 수 있다. 일 실시 예에서, 프로세서(150)는 재생 객체(15)에 인가되는 사용자 입력(예: 터치) 또는 상기 제5 인터페이스(70)의 일 영역으로 인가되는 사용자 입력(예: 터치)에 대응하여 상기 텍스트(71)로 변환되기 이전의 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.In one embodiment, the processor 150 receives a fourth user input (eg, double touch) for selecting specific marking content (eg, wave marking) from among at least one marking content displayed on the fourth interface 60. can In response to receiving the fourth user input, the processor 150 records recorded data mapped with marking content data related to the fourth user input with reference to the database or index (e.g., recorded at 00:11:07). Recording data (eg, recorded data recorded at 00:10:47) recorded before a designated time (eg, 20 seconds) from the recorded data) may be identified. The processor 150 may convert the identified recorded data into text form and output the fifth interface 70 including the converted text 71 . In one embodiment, the processor 150 performs the processing in response to a user input (eg, touch) applied to the playback object 15 or a user input (eg, touch) applied to one area of the fifth interface 70 . It is possible to output audio starting from the recorded data before being converted into text 71 .

도 6을 참조하면, 프로세서(150)는 제1 인터페이스(10)에 포함된 이동 바(11)의 위치를 제어하는 제5 사용자 입력(예: 드래그)을 수신할 수 있다. 일 실시 예에서, 상기 제5 사용자 입력은 이동 바(11)를 현재 위치로부터 이전 시점(time)의 특정 재생 지점(예: 00:57:13)으로 복귀시키는 입력으로 이해될 수 있다. 프로세서(150)는 상기 제5 사용자 입력에 대응하여, 메모리(130)의 데이터베이스 또는 인덱스를 참조로 상기 특정 재생 지점(예: 00:57:13)에 해당하는 리코딩 데이터와 매핑된(또는, 리코딩 데이터가 리코딩된 시점과 동일 시점으로 입력된) 콘텐츠 데이터를 식별할 수 있다. 프로세서(150)는 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 콘텐츠(22)에 지정된 그래픽 효과를 부여할 수 있다.Referring to FIG. 6 , the processor 150 may receive a fifth user input (eg, drag) for controlling the position of the movement bar 11 included in the first interface 10 . In one embodiment, the fifth user input may be understood as an input for returning the movement bar 11 from the current position to a specific playback point (eg, 00:57:13) of a previous time. In response to the fifth user input, the processor 150 maps (or records) the recorded data corresponding to the specific playback point (eg, 00:57:13) with reference to the database or index of the memory 130. It is possible to identify content data (entered at the same time as the time when the data was recorded). The processor 150 may give a specified graphic effect to content 22 corresponding to the identified content data among at least one piece of content displayed on the second interface 20 .

일 실시 예에서, 프로세서(150)는 상기 특정 재생 지점(예: 00:57:13)으로부터의 신규한 리코딩을 제어하는 사용자 입력(예: 제1 인터페이스(10)에 포함된 재생 객체에 대한 지정된 시간 이상의 롱 프레스 등)을 수신할 수 있다. 예를 들어, 프로세서(150)는 상기 특정 재생 지점(예: 00:57:13)을 기점으로, 전자 장치(100)가 수신하는 음성 입력에 대하여 오버라이트(overwrite) 방식의 리코딩을 제어하기 위한 사용자 입력을 수신할 수 있다. 또한, 프로세서(150)는 상기 음성 입력을 신규하게 리코딩하는 동시에, 사용자의 신규한 콘텐츠 입력을 수신하여 제2 인터페이스(20)에 표시할 수 있다. 이 경우, 프로세서(150)는 메모리(130)의 데이터베이스 또는 인덱스를 참조하여, 상기 특정 재생 지점(예: 00:57:13)에 해당하는 제1 시점과 상기 신규한 콘텐츠 입력을 수신하는 제2 시점 사이에 해당하는 제3 시점에 입력된 적어도 하나의 콘텐츠 데이터를 식별할 수 있다. 프로세서(150)는 제2 인터페이스(20)에 표시된 적어도 하나의 콘텐츠 중 상기 제3 시점에 입력된 적어도 하나의 콘텐츠 데이터에 해당하는 콘텐츠(25)에 지정된 그래픽 효과(예: 블러(blur) 등)를 부여할 수 있다. 다시 말해, 프로세서(150)는 상기 제1 시점 이전에 표시된 콘텐츠(24) 및 상기 제2 시점 이후에 표시된 콘텐츠(26)를 제외하고, 상기 제3 시점에 표시된 콘텐츠(25)에 국한적으로 상기 지정된 그래픽 효과를 부여할 수 있다. 또한, 프로세서(150)는 상기 데이터베이스 또는 인덱스 상에서 상기 제3 시점에 입력된 콘텐츠 데이터 및 상기 제3 시점에 리코딩된 리코딩 데이터 간의 매핑을 해제할 수 있다.In one embodiment, the processor 150 receives a user input controlling the new recording from the specific playback point (eg, 00:57:13) (eg, a specified response to a playback object included in the first interface 10). long presses of more than an hour, etc.) can be received. For example, the processor 150 controls overwrite recording of the voice input received by the electronic device 100, starting from the specific playback point (eg, 00:57:13). User input can be received. In addition, the processor 150 may newly record the voice input and simultaneously receive and display the new content input from the user on the second interface 20 . In this case, the processor 150 refers to the database or index of the memory 130, and the first time point corresponding to the specific playback point (eg, 00:57:13) and the second time point receiving the new content input. At least one piece of content data input at a third viewpoint corresponding to between viewpoints may be identified. The processor 150 applies a graphic effect (eg, blur, etc.) assigned to the content 25 corresponding to the at least one content data input at the third point in time among the at least one content displayed on the second interface 20 . can be granted. In other words, the processor 150 is limited to the content 25 displayed at the third point of view, excluding the content 24 displayed before the first point of view and the content 26 displayed after the second point of view. A specified graphic effect can be given. In addition, the processor 150 may cancel the mapping between content data input at the third viewpoint and recorded data recorded at the third viewpoint on the database or index.

도 7a 및 도 7b는 일 실시 예에 따른 전자 장치의 또 다른 다양한 사용자 입력에 대한 응답 형태를 도시한 도면이고, 도 7c는 일 실시 예에 따른 전자 장치의 제7 사용자 입력 처리와 관계되는 특정 정보 등록 형태를 도시한 도면이다.7A and 7B are diagrams illustrating responses to various other user inputs of an electronic device according to an embodiment, and FIG. 7C is specific information related to processing of a seventh user input of an electronic device according to an embodiment. It is a drawing showing a registration form.

도 7a를 참조하면, 전술된 어플리케이션(예: 노트 어플리케이션)의 실행 화면은 상기 어플리케이션의 설정 화면(138)을 포함할 수 있다. 일 실시 예에서, 전자 장치(100) 사용자는 상기 설정 화면(138)을 통하여 기 리코딩된 적어도 하나의 리코딩 데이터 중 일부의 리코딩 데이터(또는, 상기 일부의 리코딩 데이터에 매핑된 콘텐츠 데이터)에 대한 검색을 수행할 수 있다. 이와 관련하여, 상기 설정 화면(138)은 상기 일부의 리코딩 데이터를 검색하기 위한 검색어의 등록을 지원할 수 있다. 일 실시 예에 따르면, 상기 검색어는 검색하고자 하는 상기 일부의 리코딩 데이터와 매핑된 콘텐츠 데이터에 해당하는 콘텐츠(예: 단어, 구 또는 형태소 형태의 텍스트, 또는 비문법적 마킹(별표, 밑줄, 물결 또는 체크 등))로 이해될 수 있다. 사용자는 예컨대, 상기 설정 화면(138)의 일 영역으로 제공되는 제4 메뉴 탭(90)에 입력(예: 터치)을 인가하여 적어도 하나의 검색어를 등록할 수 있다. 프로세서(150)는 사용자로부터 등록되는 적어도 하나의 검색어(80)를 설정 화면(138)의 일 영역에 리스트 형태로 표시하고, 사용자는 상기 적어도 하나의 검색어(80) 중 검색하고자 하는 리코딩 데이터(또는, 리코딩 데이터에 매핑된 콘텐츠 데이터)에 대응하는 검색어(예: 중요)를 선택할 수 있다. 이 경우, 프로세서(150)는 메모리(도 2의 130) 상의 데이터베이스 또는 인덱스를 참조하여, 상기 검색어(예: 중요)를 포함하는 콘텐츠 데이터와 매핑된(또는, 검색어를 포함하는 콘텐츠 데이터가 입력된 시점에 리코딩된) 적어도 하나의 리코딩 데이터를 식별 또는 수집할 수 있다. 프로세서(150)는 상기 식별 또는 수집된 적어도 하나의 리코딩 데이터를 텍스트 데이터로 변환하고, 다른 설정 화면(138a)으로의 전환을 통하여 상기 변환된 적어도 하나의 텍스트 데이터(81)를 리스트 형태로 표시할 수 있다.Referring to FIG. 7A , the execution screen of the aforementioned application (eg, note application) may include a setting screen 138 of the application. In one embodiment, the user of the electronic device 100 searches for some of the recorded data (or content data mapped to the part of the recorded data) of at least one previously recorded recorded data through the setting screen 138 can be performed. In this regard, the setting screen 138 may support registration of a search word for searching the part of the recorded data. According to one embodiment, the search term is content (e.g., text in the form of words, phrases or morphemes, or non-grammatical markings (asterisks, underlines, waves, or checks) corresponding to content data mapped with the part of the recorded data to be searched. etc.)) can be understood. For example, the user may register at least one search word by applying an input (eg, touch) to the fourth menu tab 90 provided as one area of the setting screen 138 . The processor 150 displays at least one search word 80 registered by the user in a list form on one area of the setting screen 138, and the user selects the recorded data (or , Content data mapped to recorded data) may select a search term (eg, important). In this case, the processor 150 refers to a database or index on the memory (130 in FIG. 2 ) and maps content data including the search term (eg, important) (or inputs content data including the search term). At least one recording data (recorded at a time point) may be identified or collected. The processor 150 converts the identified or collected at least one recording data into text data, and displays the converted at least one text data 81 in a list form by switching to another setting screen 138a. can

도 7b를 참조하면, 상기 리스트 형태로 표시되는 적어도 하나의 텍스트 데이터(81) 중 어느 하나에 사용자 입력(예: 터치)이 인가되는 경우, 프로세서(150)는 상기 데이터베이스 또는 인덱스를 참조하여 해당 텍스트 데이터로 변환되기 이전의 리코딩 데이터에 매핑된 콘텐츠 데이터를 식별할 수 있다. 프로세서(150)는 상기 다른 설정 화면(138a)을 어플리케이션의 실행 화면(135)으로 전환하고, 상기 실행 화면(135) 상에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 콘텐츠(25)를 포커싱할 수 있다. 또한, 프로세서(150)는 상기 실행 화면(135)에 포함된 제1 인터페이스(10) 내의 이동 바(11)를 상기 식별된 콘텐츠 데이터와 매핑된 리코딩 데이터의 재생 지점(예: 00:57:13)으로 위치시킬 수 있다. 일 실시 예에서, 상기 제1 인터페이스(10) 내의 재생 객체에 사용자 입력(예: 터치)이 인가되면, 프로세서(150)는 상기 재생 지점(예: 00:57:13)에 해당하는 리코딩 데이터를 기점으로 하는 음성을 출력할 수 있다.Referring to FIG. 7B , when a user input (eg, a touch) is applied to any one of the at least one text data 81 displayed in the form of a list, the processor 150 refers to the database or index to send the corresponding text data. Content data mapped to recorded data before being converted into data may be identified. The processor 150 converts the other setting screen 138a to the execution screen 135 of the application, and among the at least one content displayed on the execution screen 135, the content 25 corresponding to the identified content data can be focused. In addition, the processor 150 moves the movement bar 11 in the first interface 10 included in the execution screen 135 to a reproduction point of the identified content data and mapped recorded data (eg, 00:57:13). ) can be placed. In one embodiment, when a user input (eg, touch) is applied to the playback object in the first interface 10, the processor 150 records the recording data corresponding to the playback point (eg, 00:57:13). It is possible to output the audio as the starting point.

도 7c를 참조하면, 프로세서(150)는 상기 어플리케이션의 설정 화면(138) 일 영역으로 상기 검색어로써 비문법적 마킹(예: 별표, 밑줄, 물결 또는 체크 등)의 등록을 지원하는 제5 메뉴 탭(95)를 제공할 수 있다. 일 실시 예에서, 상기 제5 메뉴 탭(95)에 사용자 입력(예: 터치)이 인가되는 경우, 프로세서(150)는 상기 설정 화면(138)을 또 다른 설정 화면(138a)로 전환할 수 있다. 상기 또 다른 설정 화면(138a)은 예컨대, 스타일러스 펜(도 1의 40)을 기반으로 상기 마킹에 해당하는 콘텐츠 입력을 인가 받을 수 있는 제6 인터페이스(97)를 포함할 수 있다. 일 실시 예에서, 상기 제6 인터페이스(97)에 인가되는 콘텐츠 입력에 따른 검색어는, 상술과 유사하게 어플리케이션의 설정 화면(138) 일 영역에 리스트 형태로 표시될 수 있다.Referring to FIG. 7C , the processor 150 supports registration of non-grammatical markings (eg, asterisks, underlines, waves, checks, etc.) as the search word in one area of the setting screen 138 of the application ( 95) can be provided. In one embodiment, when a user input (eg, a touch) is applied to the fifth menu tab 95, the processor 150 may switch the setting screen 138 to another setting screen 138a. . The another setting screen 138a may include, for example, a sixth interface 97 through which content input corresponding to the marking may be authorized based on a stylus pen ( 40 in FIG. 1 ). In one embodiment, a search word according to the content input applied to the sixth interface 97 may be displayed in a list form in one area of the application setting screen 138, similar to the above.

전술된 다양한 실시 예에 따른 전자 장치는, 적어도 하나의 마이크, 터치스크린 디스플레이, 상기 적어도 하나의 마이크 및 상기 터치스크린 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서, 및 상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리를 포함할 수 있다.An electronic device according to various embodiments described above may include at least one microphone, a touch screen display, at least one processor electrically connected to the at least one microphone and the touch screen display, and electrically connected to the at least one processor. may contain memory.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 터치스크린 디스플레이를 통하여, 상기 적어도 하나의 마이크를 통하여 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 실행 화면을 출력하고, 상기 메모리에 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하고, 지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 사용자 입력을 수신하고, 상기 사용자 입력에 대응하여 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 수집하고, 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환하고, 상기 터치스크린 디스플레이를 통하여, 상기 변환된 텍스트 데이터를 출력하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.According to various embodiments of the present disclosure, the memory may include a first interface for supporting recording of voice input through the at least one processor through the touch screen display and the at least one microphone when executed; and Outputs an execution screen of a designated application including a second interface supporting user input of content, and based on voice data at a first time recorded in the memory based on the first interface and the second interface mapping and storing the input content data of the first view, and receiving a user input for searching for at least one voice data mapped to the specified content data based on a search word for the specified content; In response to a user input, at least one voice data mapped to the designated content data is collected, the collected at least one voice data is converted into text data, and the converted text data is output through the touch screen display. You can store instructions (instructions) to do.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제1 인터페이스의 일 영역으로 리코딩된 음성 데이터의 재생 상태를 나타내는 상태 바(bar) 또는 상기 상태 바 상에서 상기 리코딩된 음성 데이터의 재생 지점을 나타내는 이동 바 중 적어도 하나를 표시하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays a status bar indicating a playback state of voice data recorded in one region of the first interface or the recording on the status bar. An instruction for displaying at least one of moving bars indicating a reproduction point of the reproduced voice data may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 콘텐츠 중 제1 콘텐츠를 선택하는 지정된 제1 사용자 입력에 대응하여 상기 제1 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays at least one content according to the user's content input to one area of the second interface, and among the at least one content An instruction for applying a specified graphic effect to the first content in response to a specified first user input for selecting the first content may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 지정된 제1 사용자 입력에 대응하여, 상기 상태 바 상에서 상기 이동 바를 상기 제1 콘텐츠에 관계되는 제1 콘텐츠 데이터와 매핑된 제1 음성 데이터의 재생 지점에 위치시키도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor, in response to the designated first user input, displays the movement bar on the status bar with first content data related to the first content. An instruction for locating the mapped reproduction point of the first voice data may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제1 음성 데이터의 재생 지점을 기점으로 하는 음성을 출력하고, 상기 제1 음성 데이터 이후 시점으로 리코딩된 적어도 하나의 제2 음성 데이터 각각에 매핑된 제2 콘텐츠 데이터를 식별하고, 상기 제2 콘텐츠 데이터에 관계되는 적어도 하나의 제2 콘텐츠에 상기 음성 출력 경과에 대응하는 순차로 상기 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor outputs a voice starting from a reproduction point of the first voice data, and records at least one recorded voice data after the first voice data. an instruction for identifying second content data mapped to each of the second audio data of and imparting the specified graphic effect to at least one second content related to the second content data in sequence corresponding to the audio output progress; can store more.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 이동 바의 위치를 제어하는 지정된 제2 사용자 입력에 대응하여 상기 이동 바의 위치에 대응하는 제3 음성 데이터에 매핑된 제3 콘텐츠 데이터를 식별하고, 상기 적어도 하나의 콘텐츠 중 상기 제3 콘텐츠 데이터와 관계되는 제3 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays at least one content according to the user's content input in one area of the second interface and determines the location of the movement bar. Identifying third content data mapped to third voice data corresponding to the position of the movement bar in response to a second user input designated for control, and third content related to the third content data among the at least one content. An instruction to give a specified graphic effect to may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 상태 바의 주변 영역으로 상기 리코딩된 음성 데이터와 매핑된 콘텐츠 데이터를 나타내는 적어도 하나의 섬네일(thumbnail)을 표시하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, the memory may, when executed, cause the at least one processor to display at least one thumbnail representing content data mapped to the recorded voice data in an area around the status bar. You can store more instructions to do.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 섬네일 중 제1 섬네일을 선택하는 지정된 제3 사용자 입력에 대응하여 상기 적어도 하나의 콘텐츠 중 상기 제1 섬네일과 관계되는 제4 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays at least one content according to the user's content input in one area of the second interface, and among the at least one thumbnail In response to a designated third user input for selecting a first thumbnail, an instruction for applying a designated graphic effect to fourth content related to the first thumbnail among the at least one content may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 콘텐츠 중 제5 콘텐츠를 선택하는 지정된 제4 사용자 입력에 대응하여 상기 제5 콘텐츠와 관계되는 제4 콘텐츠 데이터에 매핑된 리코딩 데이터로부터 지정된 시간 이전에 리코딩된 제4 음성 데이터를 식별하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays at least one content according to the user's content input to one area of the second interface, and among the at least one content In response to a specified fourth user input for selecting the fifth content, an instruction for identifying fourth audio data recorded before a specified time from recorded data mapped to fourth content data related to the fifth content may be further stored. there is.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제4 음성 데이터를 텍스트 데이터로 변환하고, 상기 어플리케이션의 실행 화면 일 영역으로 상기 변환된 텍스트 데이터를 포함하는 제3 인터페이스를 출력하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor converts the fourth voice data into text data, and includes the converted text data in one area of the execution screen of the application. 3 You can store more instructions to output the interface.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제1 인터페이스의 일 영역으로 리코딩된 음성 데이터의 재생을 제어하는 제1 객체를 표시하고, 상기 제1 객체에 인가되는 지정된 제5 사용자 입력에 대응하여 상기 제4 음성 데이터의 재생 지점을 기점으로 하는 음성을 출력하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays a first object that controls reproduction of voice data recorded in one region of the first interface, and displays the first object in the first object. An instruction for outputting a voice starting from a reproduction point of the fourth voice data in response to a designated fifth user input may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 디스플레이를 통하여 출력되는 SIP(software input panel) 자판 또는 상기 전자 장치의 일 영역으로 탑재되는 스타일러스 펜(stylus pen) 중 적어도 하나를 이용하여 입력되는 텍스트 또는 비문법적 마킹(marking) 중 적어도 하나를 포함하는 상기 사용자의 콘텐츠 입력을 수신하고, 상기 제2 인터페이스의 일 영역으로 상기 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, the memory may include a software input panel (SIP) keyboard output through the display or a stylus pen mounted as one area of the electronic device by the at least one processor during execution. Receives the user's content input including at least one of text or non-grammatical marking input using at least one of the above, and displays at least one content according to the content input in one area of the second interface. You can store more instructions to do this.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 이동 바를 이전 시점의 재생 지점으로 복귀시켜 상기 이전 시점으로부터의 신규한 리코딩을 제어하는 지정된 제6 사용자 입력에 대응하여, 상기 신규하게 리코딩되는 제5 음성 데이터 및 상기 제5 음성 데이터와 동일 시점으로 입력되는 제5 콘텐츠 데이터를 매핑하여 저장하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, the memory corresponds to a designated sixth user input that, when executed, causes the at least one processor to return the movement bar to a playback point of a previous point of view to control a new recording from the previous point of view. Thus, an instruction for mapping and storing the newly recorded fifth voice data and the fifth content data input at the same point in time as the fifth voice data may be further stored.

다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 이전 시점과 상기 제5 콘텐츠 데이터가 입력되는 시점 사이의 시점에 입력된 적어도 하나의 제6 콘텐츠 데이터를 식별하고, 상기 적어도 하나의 콘텐츠 중 상기 제6 콘텐츠 데이터에 해당하는 제6 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장할 수 있다.According to various embodiments of the present disclosure, when the memory is executed, the at least one processor displays at least one content according to the user's content input in one area of the second interface, and displays the previous time and the first content. 5 instructions for identifying at least one sixth content data input at points in time between points at which content data is input, and giving a specified graphic effect to sixth content corresponding to the sixth content data among the at least one content data; can store more.

도 8은 일 실시 예에 따른 전자 장치의 복수의 입력 간에 매핑된 정보 제공 방법을 도시한 도면이다. 도 8을 통하여 설명되는 동작들은 메모리(도 2의 130)에 저장될 수 있는 적어도 하나의 인스트럭션을 기반으로 하는 프로세서(도 2의 150)의 제어 하에 구현될 수 있다.8 is a diagram illustrating a method of providing information mapped between a plurality of inputs of an electronic device according to an embodiment. The operations described with reference to FIG. 8 may be implemented under the control of a processor ( 150 of FIG. 2 ) based on at least one instruction that may be stored in a memory ( 130 of FIG. 2 ).

동작 801에서, 전자 장치(도 2의 100)의 프로세서(150)는 사용자 제어에 대응하여 지정된 어플리케이션(예: 노트 어플리케이션)을 실행하고, 상기 어플리케이션의 제1 실행 화면을 출력할 수 있다. 일 실시 예에서, 상기 제1 실행 화면은 전자 장치(100)에 탑재된 리코딩(recording) 기능을 운용하기 위한 제1 인터페이스 또는 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스 중 적어도 하나를 포함할 수 있다.In operation 801, the processor 150 of the electronic device (100 in FIG. 2) may execute a designated application (eg, note application) in response to user control and output a first execution screen of the application. In one embodiment, the first execution screen may include at least one of a first interface for operating a recording function installed in the electronic device 100 and a second interface for supporting a user's content input. .

동작 803에서, 프로세서(150)는 상기 제1 실행 화면을 통하여 제1 시점에 리코딩되는 음성 데이터 및 상기 제1 시점에 입력되는 콘텐츠 데이터를 매핑하여 저장할 수 있다. 이와 관련하여, 프로세서(150)는 상기 제1 인터페이스에 대한 사용자 제어에 대응하여 전자 장치(100)가 수신하는 음성 입력을 리코딩하고, 동시에 사용자의 콘텐츠 입력을 수신하여 상기 제2 인터페이스에 표시할 수 있다. 이 동작에서, 프로세서(150)는 는 상기 리코딩되는 음성 데이터 및 입력되는 콘텐츠 데이터를 동일 시점(time) 기준으로 매핑하여 데이터베이스 또는 인덱스 형태로 저장할 수 있다.In operation 803, the processor 150 may map and store audio data recorded at a first time point and content data input at the first time point through the first execution screen. In this regard, the processor 150 may record a voice input received by the electronic device 100 in response to user control of the first interface, and simultaneously receive and display a user's content input on the second interface. there is. In this operation, the processor 150 may map the recorded voice data and the input content data based on the same time and store them in a database or index form.

동작 805에서, 프로세서(150)는 리코딩된 적어도 하나의 음성 데이터 중 특정 음성 데이터를 검색하기 위한 사용자 입력을 수신할 수 있다. 이와 관련하여, 프로세서(150)는 사용자 제어에 대응하여 상기 어플리케이션의 제2 실행 화면(예: 어플리케이션의 설정 화면)을 출력(또는, 제1 실행 화면으로부터 제2 실행 화면으로 전환)하고, 상기 제2 실행 화면의 일 영역으로 사용자로부터 등록되는 적어도 하나의 검색어를 표시할 수 있다. 일 실시 예에서, 상기 검색어는 검색하고자 하는 음성 데이터와 매핑된 콘텐츠 데이터에 해당하는 콘텐츠(예: 단어, 구 또는 형태소 형태의 텍스트, 또는 비문법적 마킹(별표, 밑줄, 물결 또는 체크 등))로 이해될 수 있다. 사용자는 상기 표시된 적어도 하나의 검색어 중 검색하고자 하는 음성 데이터에 대응하는 검색어를 선택하는 사용자 입력을 수행할 수 있다.In operation 805, the processor 150 may receive a user input for searching for specific voice data among at least one piece of recorded voice data. In this regard, the processor 150 outputs (or switches from the first execution screen to the second execution screen) a second execution screen (eg, a setting screen of the application) of the application in response to user control, and the 2 At least one search word registered by the user may be displayed as one area of the execution screen. In one embodiment, the search word is content corresponding to content data mapped with voice data to be searched for (eg, text in the form of words, phrases or morphemes, or non-grammatical markings (asterisks, underlines, waves, checks, etc.)). can be understood The user may perform a user input for selecting a search word corresponding to voice data to be searched from among the at least one search word displayed above.

동작 807에서, 프로세서(150)는 상기 사용자 입력에 대응하는 음성 데이터를 수집할 수 있다. 예를 들어, 프로세서(150)는 상기 데이터베이스 또는 인덱스를 참조하여 상기 사용자 입력으로부터 선택된 검색어를 포함하는 콘텐츠 데이터를 식별하고, 식별된 콘텐츠 데이터와 매핑된 적어도 하나의 음성 데이터를 수집할 수 있다.In operation 807, the processor 150 may collect voice data corresponding to the user input. For example, the processor 150 may refer to the database or index to identify content data including a search word selected from the user input, and collect at least one voice data mapped to the identified content data.

동작 809에서, 프로세서(150)는 수집된 적어도 하나의 음성 데이터를 텍스트 형태로 출력할 수 있다. 이와 관련하여, 프로세서(150)는 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환할 수 있다. 일 실시 예에서, 프로세서(150)는 상기 어플리케이션의 제2 실행 화면을 제3 실행 화면(예: 어플리케이션의 다른 설정 화면)으로 전환하고, 상기 제3 실행 화면의 일 영역에 상기 변환된 텍스트 데이터를 리스트 형태로 출력할 수 있다.In operation 809, the processor 150 may output at least one piece of collected voice data in text form. In this regard, the processor 150 may convert the collected at least one voice data into text data. In one embodiment, the processor 150 converts the second execution screen of the application into a third execution screen (eg, another setting screen of the application), and stores the converted text data in one area of the third execution screen. It can be output in list form.

일 실시 예에 따르면, 상기 리스트 형태로 표시되는 적어도 하나의 텍스트 데이터 중 어느 하나가 사용자로부터 선택되는 경우, 프로세서(150)는 상기 데이터베이스 또는 인덱스를 참조하여 해당 텍스트 데이터로 변환되기 이전의 음성 데이터에 매핑된 콘텐츠 데이터를 식별할 수 있다. 프로세서(150)는 상기 제3 실행 화면을 어플리케이션의 제1 실행 화면으로 전환하고, 상기 제1 실행 화면에 표시된 적어도 하나의 콘텐츠 중 상기 식별된 콘텐츠 데이터에 해당하는 콘텐츠를 포커싱할 수 있다According to an embodiment, when any one of the at least one text data displayed in the list form is selected by the user, the processor 150 refers to the database or index and converts the voice data before being converted into corresponding text data. Mapped content data can be identified. The processor 150 may switch the third execution screen to a first execution screen of an application, and focus on content corresponding to the identified content data among at least one content displayed on the first execution screen.

전술된 다양한 실시 예에 따른 전자 장치의 복수의 입력 간에 매핑된(mapped) 정보 제공 방법은, 상기 전자 장치에 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 제1 실행 화면을 출력하는 동작, 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하는 동작, 지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 사용자 입력을 수신하는 동작, 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 수집하는 동작, 상기 수집된 적어도 하나의 음성 데이터를 텍스트 데이터로 변환하는 동작, 및 상기 변환된 텍스트 데이터를 출력하는 동작을 포함할 수 있다.A method for providing information mapped between a plurality of inputs of an electronic device according to various embodiments described above includes a first interface supporting recording of voice input to the electronic device and a user's input of content. Outputting a first execution screen of a designated application including a second interface, voice data of a first time recorded based on the first interface and the first time input based on the second interface An operation of mapping and storing content data of , an operation of receiving a user input for searching for at least one voice data mapped to the specified content data based on a search word for the specified content, and mapping to the specified content data. The method may include an operation of collecting at least one piece of voice data collected, an operation of converting the collected at least one piece of voice data into text data, and an operation of outputting the converted text data.

다양한 실시 예에 따르면, 상기 정보 제공 방법은, 상기 검색어 등록을 지원하는 상기 지정된 어플리케이션의 제2 실행 화면을 출력하는 동작 및 상기 제2 실행 화면의 일 영역으로 상기 검색어 등록과 관계된 메뉴를 제공하는 동작을 더 포함할 수 있다.According to various embodiments of the present disclosure, the information providing method may include an operation of outputting a second execution screen of the designated application supporting registration of the search word, and an operation of providing a menu related to the registration of the search word to one area of the second execution screen. may further include.

다양한 실시 예에 따르면, 상기 검색어 등록과 관계된 메뉴를 제공하는 동작은, 상기 메뉴를 통한 사용자 제어에 따라 등록되는 적어도 하나의 검색어를 상기 제2 실행 화면의 일 영역으로 표시하는 동작을 포함할 수 있다.According to various embodiments, the operation of providing a menu related to the registration of the search word may include an operation of displaying at least one search word registered according to user control through the menu as one area of the second execution screen. .

다양한 실시 예에 따르면, 상기 사용자 입력을 수신하는 동작은, 상기 제2 실행 화면의 일 영역으로 표시되는 적어도 하나의 검색어 중 어느 하나를 선택하는 사용자 입력을 수신하는 동작을 포함할 수 있다.According to various embodiments, the operation of receiving the user input may include an operation of receiving a user input for selecting one of at least one search word displayed in one area of the second execution screen.

다양한 실시 예에 따르면, 상기 변환된 텍스트 데이터를 출력하는 동작은, 출력된 적어도 하나의 텍스트 데이터 중 어느 하나를 선택하는 사용자 입력을 수신하는 동작 및 상기 어느 하나의 텍스트 데이터를 선택하는 사용자 입력에 대응하여 상기 제2 실행 화면을 상기 제1 실행 화면으로 전환하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of outputting the converted text data corresponds to an operation of receiving a user input for selecting any one of the at least one output text data and a user input for selecting the one or more text data. and converting the second execution screen into the first execution screen.

다양한 실시 예에 따르면, 상기 제1 실행 화면으로 전환하는 동작은, 상기 제1 실행 화면에 포함된 상기 제2 인터페이스의 일 영역으로 사용자로부터 입력된 콘텐츠 데이터에 해당하는 적어도 하나의 콘텐츠를 표시하는 동작 및 상기 적어도 하나의 콘텐츠 중 상기 선택된 텍스트 데이터에 대응하는 콘텐츠를 포커싱하는 동작을 포함할 수 있다.According to various embodiments of the present disclosure, the operation of switching to the first execution screen may include displaying at least one piece of content corresponding to content data input from a user in one area of the second interface included in the first execution screen. and focusing the content corresponding to the selected text data among the at least one content.

도 9은 일 실시 예에 따른 네트워크 환경 내의 전자 장치를 도시한 도면이다.9 is a diagram illustrating an electronic device in a network environment according to an embodiment.

도 9을 참조하면, 네트워크 환경(900)에서 전자 장치(901)는 제1 네트워크(998)(예: 근거리 무선 통신)를 통하여 전자 장치(902)와 통신하거나, 또는 제2 네트워크(999)(예: 원거리 무선 통신)를 통하여 전자 장치(904) 또는 서버(908)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(901)는 서버(908)를 통하여 전자 장치(904)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(901)는 프로세서(920), 메모리(930), 입력 장치(950), 음향 출력 장치(955), 표시 장치(960), 오디오 모듈(970), 센서 모듈(976), 인터페이스(977), 햅틱 모듈(979), 카메라 모듈(980), 전력 관리 모듈(988), 배터리(989), 통신 모듈(990), 가입자 식별 모듈(996), 및 안테나 모듈(997)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(901)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(960) 또는 카메라 모듈(980))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(960)(예: 디스플레이)에 임베디드된 센서 모듈(976)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.Referring to FIG. 9 , in a network environment 900, an electronic device 901 communicates with an electronic device 902 through a first network 998 (eg, short-range wireless communication) or through a second network 999 ( For example, it may communicate with the electronic device 904 or the server 908 through long-distance wireless communication. According to an embodiment, the electronic device 901 may communicate with the electronic device 904 through the server 908 . According to an embodiment, the electronic device 901 includes a processor 920, a memory 930, an input device 950, an audio output device 955, a display device 960, an audio module 970, a sensor module ( 976), interface 977, haptic module 979, camera module 980, power management module 988, battery 989, communication module 990, subscriber identification module 996, and antenna module 997 ) may be included. In some embodiments, in the electronic device 901, at least one of these components (eg, the display device 960 or the camera module 980) may be omitted or another component may be added. In some embodiments, some components are included, such as, for example, in the case of sensor module 976 (eg, a fingerprint sensor, an iris sensor, or an ambient light sensor) embedded in display device 960 (eg, display). can be integrated and implemented.

프로세서(920)는, 예를 들면, 소프트웨어(예: 프로그램(940))를 구동하여 프로세서(920)에 연결된 전자 장치(901)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(920)는 다른 구성요소(예: 센서 모듈(976) 또는 통신 모듈(990))로부터 수신된 명령 또는 데이터를 휘발성 메모리(932)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(934)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(920)는 메인 프로세서(921)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(921)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(923)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(923)는 메인 프로세서(921)와 별개로 또는 임베디드되어 운영될 수 있다.The processor 920, for example, drives software (eg, the program 940) to operate at least one other component (eg, hardware or software component) of the electronic device 901 connected to the processor 920. It can control and perform various data processing and calculations. The processor 920 loads and processes commands or data received from other components (e.g., the sensor module 976 or the communication module 990) into the volatile memory 932, and transfers the resulting data to the non-volatile memory 934. can be stored in According to one embodiment, the processor 920 is operated independently of the main processor 921 (eg, a central processing unit or application processor), and additionally or alternatively, uses less power than the main processor 921, Alternatively, an auxiliary processor 923 (eg, a graphic processing unit, an image signal processor, a sensor hub processor, or a communication processor) specialized for a designated function may be included. Here, the auxiliary processor 923 may be operated separately from or embedded with the main processor 921 .

이런 경우, 보조 프로세서(923)는, 예를 들면, 메인 프로세서(921)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(921)를 대신하여, 또는 메인 프로세서(921)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(921)와 함께, 전자 장치(901)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(960), 센서 모듈(976), 또는 통신 모듈(990))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(923)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(980) 또는 통신 모듈(990))의 일부 구성 요소로서 구현될 수 있다. 메모리(930)는, 전자 장치(901)의 적어도 하나의 구성요소(예: 프로세서(920) 또는 센서모듈(976))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(940)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(930)는, 휘발성 메모리(932) 또는 비휘발성 메모리(934)를 포함할 수 있다.In this case, the secondary processor 923 may, for example, take the place of the main processor 921 while the main processor 921 is in an inactive (eg sleep) state, or when the main processor 921 is active (eg sleep). : Application execution) together with the main processor 921, at least one of the components of the electronic device 901 (eg, the display device 960, the sensor module 976, or a communication module ( 990)) may control at least some of the related functions or states. According to one embodiment, the auxiliary processor 923 (eg, an image signal processor or a communication processor) is implemented as a component of other functionally related components (eg, the camera module 980 or the communication module 990). It can be. The memory 930 includes various data used by at least one component (eg, the processor 920 or the sensor module 976) of the electronic device 901, such as software (eg, the program 940). ) and input data or output data for commands related thereto. The memory 930 may include volatile memory 932 or non-volatile memory 934 .

프로그램(940)은 메모리(930)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(942), 미들 웨어(944) 또는 어플리케이션(946)을 포함할 수 있다.The program 940 is software stored in the memory 930 and may include, for example, an operating system 942 , middleware 944 , or an application 946 .

입력 장치(950)는, 전자 장치(901)의 구성요소(예: 프로세서(920))에 사용될 명령 또는 데이터를 전자 장치(901)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.The input device 950 is a device for receiving a command or data to be used in a component (eg, the processor 920) of the electronic device 901 from an outside (eg, user) of the electronic device 901, for example, For example, it may include a microphone, mouse, or keyboard.

음향 출력 장치(955)는 음향 신호를 전자 장치(901)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.The sound output device 955 is a device for outputting sound signals to the outside of the electronic device 901, and includes, for example, a speaker used for general purposes such as multimedia playback or recording playback and a receiver used exclusively for receiving calls. can include According to one embodiment, the receiver may be formed integrally with or separately from the speaker.

표시 장치(960)는 전자 장치(901)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(960)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.The display device 960 is a device for visually providing information to the user of the electronic device 901, and may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 960 may include a touch circuitry or a pressure sensor capable of measuring the intensity of a touch pressure.

오디오 모듈(970)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(970)은, 입력 장치(950)를 통해 소리를 획득하거나, 음향 출력 장치(955), 또는 전자 장치(901)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(902)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 970 may convert a sound and an electrical signal in both directions. According to an embodiment, the audio module 970 acquires sound through the input device 950, the audio output device 955, or an external electronic device connected to the electronic device 901 by wire or wirelessly (eg: Sound may be output through the electronic device 902 (eg, a speaker or a headphone).

센서 모듈(976)은 전자 장치(901)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(976)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.The sensor module 976 may generate an electrical signal or data value corresponding to an internal operating state (eg, power or temperature) of the electronic device 901 or an external environmental state. The sensor module 976 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a bio sensor, a temperature sensor, a humidity sensor, Alternatively, an illuminance sensor may be included.

인터페이스(977)는 외부 전자 장치(예: 전자 장치(902))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(977)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 977 may support a designated protocol capable of connecting with an external electronic device (eg, the electronic device 902) in a wired or wireless manner. According to one embodiment, the interface 977 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(978)는 전자 장치(901)와 외부 전자 장치(예: 전자 장치(902))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 978 is a connector capable of physically connecting the electronic device 901 and an external electronic device (eg, the electronic device 902), such as an HDMI connector, a USB connector, an SD card connector, or an audio connector. (e.g. headphone connector).

햅틱 모듈(979)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(979)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 979 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that a user can perceive through tactile or kinesthetic senses. The haptic module 979 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(980)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(980)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.The camera module 980 may capture still images and moving images. According to one embodiment, the camera module 980 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(988)은 전자 장치(901)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.The power management module 988 is a module for managing power supplied to the electronic device 901 and may be configured as at least a part of a power management integrated circuit (PMIC).

배터리(989)는 전자 장치(901)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 989 is a device for supplying power to at least one component of the electronic device 901, and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(990)은 전자 장치(901)와 외부 전자 장치(예: 전자 장치(902), 전자 장치(904), 또는 서버(908))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(990)은 프로세서(920)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(990)은 무선 통신 모듈(992)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(994)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제1 네트워크(998)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(999)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(990)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.The communication module 990 establishes a wired or wireless communication channel between the electronic device 901 and an external electronic device (eg, the electronic device 902, the electronic device 904, or the server 908), and establishes the established communication channel. It can support communication through. The communication module 990 may include one or more communication processors that support wired communication or wireless communication that are independently operated from the processor 920 (eg, an application processor). According to one embodiment, the communication module 990 is a wireless communication module 992 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 994 (eg, : A LAN (local area network) communication module or a power line communication module) is included, and the first network 998 (eg, Bluetooth, WiFi direct, or IrDA (infrared data association)) is used by using a corresponding communication module. communication network) or a second network 999 (eg, a cellular network, the Internet, or a telecommunications network such as a computer network (eg, LAN or WAN)) to communicate with the external electronic device. The various types of communication modules 990 described above may be implemented as a single chip or may be implemented as separate chips.

일 실시 예에 따르면, 무선 통신 모듈(992)은 가입자 식별 모듈(996)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(901)를 구별 및 인증할 수 있다.According to an embodiment, the wireless communication module 992 may distinguish and authenticate the electronic device 901 within a communication network using user information stored in the subscriber identification module 996.

안테나 모듈(997)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(990)(예: 무선 통신 모듈(992))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.The antenna module 997 may include one or more antennas for transmitting or receiving signals or power to the outside. According to an embodiment, the communication module 990 (eg, the wireless communication module 992) may transmit a signal to an external electronic device or receive a signal from the external electronic device through an antenna suitable for a communication method.

상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.Some of the above components are connected to each other through a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input/output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)) and signal (e.g. commands or data) can be exchanged with each other.

일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(999)에 연결된 서버(908)를 통해서 전자 장치(901)와 외부의 전자 장치(904)간에 송신 또는 수신될 수 있다. 전자 장치(902, 904) 각각은 전자 장치(901)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(901)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(901)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(901)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(901)로 전달할 수 있다. 전자 장치(901)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.According to an embodiment, commands or data may be transmitted or received between the electronic device 901 and the external electronic device 904 through the server 908 connected to the second network 999 . Each of the electronic devices 902 and 904 may be the same as or different from the electronic device 901 . According to an embodiment, all or part of operations executed in the electronic device 901 may be executed in one or a plurality of external electronic devices. According to an embodiment, when the electronic device 901 needs to perform a certain function or service automatically or upon request, the electronic device 901 instead of or in addition to executing the function or service by itself, At least some related functions may be requested from an external electronic device. The external electronic device receiving the request may execute the requested function or additional function and deliver the result to the electronic device 901 . The electronic device 901 may provide the requested function or service by directly or additionally processing the received result. To this end, for example, cloud computing, distributed computing, or client-server computing technology may be used.

본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, at least one of a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, and a home appliance. An electronic device according to an embodiment of this document is not limited to the aforementioned devices.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions may include plural expressions unless the context clearly dictates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B or C" or "at least one of A, B and/or C" refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integral part or a minimum unit or part thereof that performs one or more functions. For example, the module may be composed of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(936) 또는 외장 메모리(938))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(940))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(901))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(920))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of this document include instructions stored in a machine-readable storage media (eg, internal memory 936 or external memory 938) that can be read by a machine (eg, computer). It may be implemented in software (eg, program 940). A device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include an electronic device (eg, the electronic device 901) according to the disclosed embodiments. When the command is executed by a processor (eg, the processor 920), the processor may perform a function corresponding to the command directly or by using other components under the control of the processor. An instruction may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium does not contain a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily in the storage medium.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product may be distributed in the form of a device-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store TM ). In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each component (eg, module or program) according to various embodiments may be composed of a single object or a plurality of entities, and some of the sub-components may be omitted, or other sub-components may be various. It may be further included in the embodiment. Alternatively or additionally, some components (eg, modules or programs) may be integrated into one entity and perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by modules, programs, or other components may be executed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be executed in a different order, may be omitted, or other operations may be added. can

본 문서에 개시된 실시 예는, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.The embodiments disclosed in this document are presented for explanation and understanding of technical contents, and do not limit the scope of the present invention. Therefore, the scope of this document should be construed to include all changes or various other embodiments based on the technical spirit of the present invention.

Claims (20)

전자 장치에 있어서,
적어도 하나의 마이크;
터치스크린 디스플레이;
상기 적어도 하나의 마이크 및 상기 터치스크린 디스플레이와 전기적으로 연결되는 적어도 하나의 프로세서; 및
상기 적어도 하나의 프로세서와 전기적으로 연결되는 메모리;를 포함하고,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 터치스크린 디스플레이를 통하여, 상기 적어도 하나의 마이크를 통하여 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 실행 화면을 출력하고,
상기 메모리에, 상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하고,
지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 제1 음성 데이터를 검색하기 위한 제1 사용자 입력을 수신하고,
상기 제1 사용자 입력에 대응하여 상기 지정된 콘텐츠 데이터에 매핑된 제1 음성 데이터를 선택하고,
상기 제1 음성 데이터를 텍스트 데이터로 변환하고,
상기 터치스크린 디스플레이를 통하여, 상기 변환된 텍스트 데이터를 출력하고,
상태 바(bar) 상에 상기 제1 음성 데이터의 재생 시점에 대응하는 시점을 나타내는 이동 바를 출력하고,
상기 이동 바를 통하여 제2 시점으로부터 오버라이트(overwrite) 방식의 리코딩을 위한 제2 사용자 입력을 수신하고,
상기 제2 사용자 입력에 응답하여, 상기 적어도 하나의 마이크를 이용하여 수신된 신규 음성으로 상기 제2 시점에 대응하는 제2 음성 데이터를 오버라이트 하도록 하는 인스트럭션들(instructions)을 저장하는, 전자 장치.
In electronic devices,
at least one microphone;
touch screen display;
at least one processor electrically connected to the at least one microphone and the touch screen display; and
A memory electrically connected to the at least one processor;
The memory, when executed, the at least one processor,
Through the touch screen display, outputting an execution screen of a designated application including a first interface supporting recording of voice input through the at least one microphone and a second interface supporting content input by a user, ,
mapping and storing, in the memory, voice data of a first time recorded based on the first interface and content data of the first time input based on the second interface;
Receiving a first user input for searching for first voice data mapped to the specified content data based on a search word for the specified content;
Selecting first audio data mapped to the designated content data in response to the first user input;
Converting the first voice data into text data;
Outputting the converted text data through the touch screen display;
outputting a moving bar indicating a time point corresponding to a playback time point of the first voice data on a status bar;
Receiving a second user input for overwrite recording from a second viewpoint through the movement bar;
and storing instructions for overwriting second voice data corresponding to the second time point with a new voice received using the at least one microphone in response to the second user input.
제1항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제1 인터페이스의 일 영역으로 리코딩된 음성 데이터의 재생 상태를 나타내는 상기 상태 바(bar) 및 상기 상태 바 상에서 상기 리코딩된 음성 데이터의 재생 지점을 나타내는 상기 이동 바를 표시하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 1,
The memory, when executed, the at least one processor,
Further storing an instruction for displaying the status bar indicating a playback state of the recorded audio data in one area of the first interface and the movement bar indicating a playback point of the recorded audio data on the status bar. electronic device.
제2항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 콘텐츠 중 제1 콘텐츠를 선택하는 제3 사용자 입력에 대응하여 상기 제1 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 2,
The memory, when executed, the at least one processor,
At least one content according to the user's content input is displayed in one area of the second interface, and a graphic effect assigned to the first content corresponds to a third user input for selecting the first content from among the at least one content. An electronic device further storing instructions for granting.
제3항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제3 사용자 입력에 대응하여, 상기 상태 바 상에서 상기 이동 바를 상기 제1 콘텐츠에 관계되는 제1 콘텐츠 데이터와 매핑된 상기 제1 음성 데이터의 재생 지점에 위치시키도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 3,
The memory, when executed, the at least one processor,
Corresponding to the third user input, further storing an instruction for locating the movement bar on the status bar at a reproduction point of the first audio data mapped with first content data related to the first content. Device.
제4항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제1 음성 데이터의 재생 지점을 기점으로 하는 음성을 출력한 뒤, 상기 제1 음성 데이터에 후속 시점에 리코딩된 상기 제2 음성 데이터에 매핑된 제2 콘텐츠 데이터를 식별하고, 상기 제2 콘텐츠의 텍스트들에 상기 제2 음성 데이터의 음성 출력 경과에 대응하는 순차로 상기 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 4,
The memory, when executed, the at least one processor,
After outputting the audio starting from the reproduction point of the first audio data, identifying second content data mapped to the second audio data recorded at a later point in time to the first audio data, and The electronic device further stores instructions for imparting the designated graphic effect to texts in a sequence corresponding to the audio output progress of the second audio data.
삭제delete 제2항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 상태 바의 주변 영역으로 상기 리코딩된 음성 데이터와 매핑된 콘텐츠 데이터를 나타내는 적어도 하나의 섬네일(thumbnail)을 표시하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 2,
The memory, when executed, the at least one processor,
The electronic device further stores an instruction for displaying at least one thumbnail representing content data mapped with the recorded voice data in a peripheral area of the status bar.
제7항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 섬네일 중 제1 섬네일을 선택하는 제3 사용자 입력에 대응하여 상기 적어도 하나의 콘텐츠 중 상기 제1 섬네일과 관계되는 제4 콘텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 7,
The memory, when executed, the at least one processor,
At least one content according to the user's content input is displayed in one area of the second interface, and the first one of the at least one content is displayed in response to a third user input for selecting a first thumbnail from among the at least one thumbnail. 1 The electronic device further stores an instruction for imparting a specified graphic effect to fourth content related to the thumbnail.
제1항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제2 인터페이스의 일 영역으로 상기 사용자의 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하고, 상기 적어도 하나의 콘텐츠 중 제5 콘텐츠를 선택하는 제4 사용자 입력에 대응하여 상기 제5 콘텐츠와 매핑된 리코딩 데이터로부터 지정된 시간 이전에 리코딩된 제4 음성 데이터를 식별하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 1,
The memory, when executed, the at least one processor,
At least one content according to the user's content input is displayed in one area of the second interface, and recording mapped with the fifth content in response to a fourth user input selecting a fifth content from among the at least one content. The electronic device further stores instructions for identifying fourth audio data recorded before a specified time from the data.
제9항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제4 음성 데이터를 텍스트 데이터로 변환하고, 상기 어플리케이션의 실행 화면 일 영역으로 상기 변환된 텍스트 데이터를 포함하는 제3 인터페이스를 출력하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 9,
The memory, when executed, the at least one processor,
The electronic device further stores an instruction for converting the fourth voice data into text data and outputting a third interface including the converted text data to a region of an execution screen of the application.
제10항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 제1 인터페이스의 일 영역으로 리코딩된 음성 데이터의 재생을 제어하는 제1 객체를 표시하고, 상기 제1 객체에 인가되는 제5 사용자 입력에 대응하여 상기 제4 음성 데이터의 재생 지점을 기점으로 하는 음성을 출력하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 10,
The memory, when executed, the at least one processor,
Displaying a first object that controls playback of recorded audio data in one area of the first interface, and starting from a playback point of the fourth audio data in response to a fifth user input applied to the first object. An electronic device that further stores an instruction for outputting a voice.
제1항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 디스플레이를 통하여 출력되는 SIP(software input panel) 자판 또는 상기 전자 장치의 일 영역으로 탑재되는 스타일러스 펜(stylus pen) 중 적어도 하나를 이용하여 입력되는 텍스트 또는 비문법적 마킹(marking) 중 적어도 하나를 포함하는 상기 사용자의 콘텐츠 입력을 수신하고, 상기 제2 인터페이스의 일 영역으로 상기 콘텐츠 입력에 따른 적어도 하나의 콘텐츠를 표시하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 1,
The memory, when executed, the at least one processor,
Includes at least one of text or non-grammatical marking input using at least one of a software input panel (SIP) keyboard output through the display or a stylus pen mounted on one area of the electronic device The electronic device further stores an instruction for receiving the user's input of content, and displaying at least one content according to the content input in one area of the second interface.
제2항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 신규 음성을 수신하는 동안, 상기 제2 인터페이스를 통하여 신규 컨텐츠 입력을 수신하고, 상기 신규 음성 입력과 상기 신규 컨텐츠 입력을 매핑하여 상기 제2 시점으로 저장하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 2,
The memory, when executed, the at least one processor,
The electronic device further stores an instruction for receiving a new content input through the second interface, mapping the new voice input and the new content input, and storing the new content input as the second viewpoint while receiving the new voice.
제13항에 있어서,
상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
상기 신규 컨텐츠 입력에 대응하는 신규 컨텐츠에 지정된 그래픽 효과를 부여하도록 하는 인스트럭션을 더 저장하는, 전자 장치.
According to claim 13,
The memory, when executed, the at least one processor,
The electronic device further stores an instruction for imparting a specified graphic effect to the new content corresponding to the input of the new content.
전자 장치의 복수의 입력 간에 매핑된(mapped) 정보 제공 방법에 있어서,
상기 전자 장치에 입력되는 음성의 리코딩(recording)을 지원하는 제1 인터페이스 및 사용자의 콘텐츠 입력을 지원하는 제2 인터페이스를 포함하는 지정된 어플리케이션의 제1 실행 화면을 출력하는 동작;
상기 제1 인터페이스를 기반으로 리코딩된 제1 시점(time)의 음성 데이터 및 상기 제2 인터페이스를 기반으로 입력된 상기 제1 시점의 콘텐츠 데이터를 매핑(mapping)하여 저장하는 동작;
지정된 콘텐츠에 대한 검색어를 기반으로 상기 지정된 콘텐츠 데이터에 매핑된 적어도 하나의 음성 데이터를 검색하기 위한 제1 사용자 입력을 수신하는 동작;
상기 지정된 콘텐츠 데이터에 매핑된 제1 음성 데이터를 선택하는 동작;
상기 제1 음성 데이터를 텍스트 데이터로 변환하는 동작;
상기 변환된 텍스트 데이터를 출력하는 동작;
상태 바(bar) 상에 상기 제1 음성 데이터의 재생 시점에 대응하는 시점을 나타내는 이동 바를 출력하는 동작;
상기 이동 바를 통하여 제2 시점으로부터 오버라이트(overwrite) 방식의 리코딩을 위한 제2 사용자 입력을 수신하는 동작; 및
상기 제2 사용자 입력에 응답하여, 상기 적어도 하나의 마이크를 이용하여 수신된 신규 음성으로 상기 제2 시점에 대응하는 제2 음성 데이터를 오버라이트 하는 동작을 포함하는, 정보 제공 방법.
A method for providing information mapped between a plurality of inputs of an electronic device,
outputting a first execution screen of a designated application including a first interface supporting recording of voice input to the electronic device and a second interface supporting content input by a user;
mapping and storing voice data of a first time recorded based on the first interface and content data of the first time input based on the second interface;
receiving a first user input for searching for at least one voice data mapped to the specified content data based on a search word for the specified content;
selecting first audio data mapped to the designated content data;
converting the first voice data into text data;
outputting the converted text data;
outputting, on a status bar, a moving bar indicating a point in time corresponding to a point in time of reproduction of the first voice data;
receiving a second user input for overwrite recording from a second viewpoint through the moving bar; and
and overwriting second voice data corresponding to the second point in time with a new voice received using the at least one microphone in response to the second user input.
제15항에 있어서,
상기 검색어 등록을 지원하는 상기 지정된 어플리케이션의 제2 실행 화면을 출력하는 동작; 및
상기 제2 실행 화면의 일 영역으로 상기 검색어 등록과 관계된 메뉴를 제공하는 동작;을 더 포함하는, 정보 제공 방법.
According to claim 15,
outputting a second execution screen of the designated application supporting the registration of the search word; and
An operation of providing a menu related to the search word registration to one area of the second execution screen; further comprising, the information providing method.
제16항에 있어서,
상기 검색어 등록과 관계된 메뉴를 제공하는 동작은,
상기 메뉴를 통한 사용자 제어에 따라 등록되는 적어도 하나의 검색어를 상기 제2 실행 화면의 일 영역으로 표시하는 동작;을 포함하는, 정보 제공 방법.
According to claim 16,
The operation of providing a menu related to the search term registration,
and displaying at least one search word registered according to user control through the menu as one area of the second execution screen.
제17항에 있어서,
상기 제1 사용자 입력을 수신하는 동작은,
상기 제2 실행 화면의 일 영역으로 표시되는 적어도 하나의 검색어 중 어느 하나를 선택하는 사용자 입력을 수신하는 동작;을 포함하는, 정보 제공 방법.
According to claim 17,
The operation of receiving the first user input,
and receiving a user input for selecting one of at least one search word displayed in one area of the second execution screen.
제18항에 있어서,
상기 변환된 텍스트 데이터를 출력하는 동작은,
출력된 적어도 하나의 텍스트 데이터 중 어느 하나를 선택하는 제3 사용자 입력을 수신하는 동작; 및
상기 어느 하나의 텍스트 데이터를 선택하는 제3 사용자 입력에 대응하여 상기 제2 실행 화면을 상기 제1 실행 화면으로 전환하는 동작;을 포함하는, 정보 제공 방법.
According to claim 18,
The operation of outputting the converted text data,
receiving a third user input selecting one of the at least one output text data; and
and converting the second execution screen to the first execution screen in response to a third user input for selecting the one of text data.
제19항에 있어서,
상기 제1 실행 화면으로 전환하는 동작은,
상기 제1 실행 화면에 포함된 상기 제2 인터페이스의 일 영역으로 사용자로부터 입력된 콘텐츠 데이터에 해당하는 적어도 하나의 콘텐츠를 표시하는 동작; 및
상기 적어도 하나의 콘텐츠 중 상기 선택된 텍스트 데이터에 대응하는 콘텐츠를 포커싱하는 동작;을 포함하는, 정보 제공 방법.
According to claim 19,
The operation of switching to the first execution screen,
displaying at least one piece of content corresponding to content data input from a user in one area of the second interface included in the first execution screen; and
and an operation of focusing the content corresponding to the selected text data among the at least one content.
KR1020180032444A 2018-03-21 2018-03-21 Method for providing information mapped between plurality inputs and electronic device supporting the same KR102546510B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180032444A KR102546510B1 (en) 2018-03-21 2018-03-21 Method for providing information mapped between plurality inputs and electronic device supporting the same
EP19164398.0A EP3547107B1 (en) 2018-03-21 2019-03-21 Method for providing information mapped between a plurality of inputs and electronic device for supporting the same
US16/360,175 US10853024B2 (en) 2018-03-21 2019-03-21 Method for providing information mapped between a plurality of inputs and electronic device for supporting the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180032444A KR102546510B1 (en) 2018-03-21 2018-03-21 Method for providing information mapped between plurality inputs and electronic device supporting the same

Publications (2)

Publication Number Publication Date
KR20190110690A KR20190110690A (en) 2019-10-01
KR102546510B1 true KR102546510B1 (en) 2023-06-23

Family

ID=65904203

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180032444A KR102546510B1 (en) 2018-03-21 2018-03-21 Method for providing information mapped between plurality inputs and electronic device supporting the same

Country Status (3)

Country Link
US (1) US10853024B2 (en)
EP (1) EP3547107B1 (en)
KR (1) KR102546510B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11423073B2 (en) * 2018-11-16 2022-08-23 Microsoft Technology Licensing, Llc System and management of semantic indicators during document presentations
CN111858277B (en) * 2020-07-07 2024-02-27 广州三星通信技术研究有限公司 Screen recording method and screen recording device for electronic terminal
CN112637407A (en) * 2020-12-22 2021-04-09 维沃移动通信有限公司 Voice input method and device and electronic equipment
CN113050812B (en) * 2021-03-30 2023-11-21 联想(北京)有限公司 Control method, electronic pen and electronic equipment
CN114115674B (en) * 2022-01-26 2022-07-22 荣耀终端有限公司 Method for positioning sound recording and document content, electronic equipment and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109759A1 (en) * 2015-12-23 2017-06-29 Booktrack Holdings Limited System and method for the creation and playback of soundtrack-enhanced audiobooks

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101939253B1 (en) * 2012-05-21 2019-01-16 엘지전자 주식회사 Method and electronic device for easy search during voice record
KR101632174B1 (en) 2012-05-22 2016-06-21 주식회사 성우모바일 Method for producing educational material and educational material system
KR102065045B1 (en) * 2013-03-15 2020-01-10 엘지전자 주식회사 Mobile terminal and control method thereof
KR102337157B1 (en) * 2014-11-05 2021-12-08 삼성전자주식회사 Electronic blackboard apparatus and the controlling method thereof
KR20160133781A (en) * 2015-05-13 2016-11-23 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109759A1 (en) * 2015-12-23 2017-06-29 Booktrack Holdings Limited System and method for the creation and playback of soundtrack-enhanced audiobooks

Also Published As

Publication number Publication date
KR20190110690A (en) 2019-10-01
EP3547107A1 (en) 2019-10-02
EP3547107B1 (en) 2023-04-26
US20190294408A1 (en) 2019-09-26
US10853024B2 (en) 2020-12-01

Similar Documents

Publication Publication Date Title
KR102546510B1 (en) Method for providing information mapped between plurality inputs and electronic device supporting the same
KR102442179B1 (en) The electronic device and the method for providing haptic feedback via a wearable device
US10825453B2 (en) Electronic device for providing speech recognition service and method thereof
KR102537543B1 (en) Intelligent electronic device and operating method thereof
US20170131964A1 (en) Method for displaying virtual object in plural electronic devices and electronic device supporting the method
KR102412523B1 (en) Method for operating speech recognition service, electronic device and server supporting the same
KR102423065B1 (en) Electronic device and controlling method thereof
KR20190111557A (en) Method for supporting user input and electronic device supporting the same
KR102525108B1 (en) Method for operating speech recognition service and electronic device supporting the same
KR102356889B1 (en) Method for performing voice recognition and electronic device using the same
KR102504308B1 (en) Method and terminal for controlling brightness of screen and computer-readable recording medium
KR20160031851A (en) Method for providing an information on the electronic device and electronic device thereof
KR20160051411A (en) An electoronic device for controlling an external object and a method thereof
KR102579895B1 (en) Electronic device and a method for measuring heart rate based on an infrared rays sensor using the same
US20200202114A1 (en) Electronic device for tracking user activity and method of operating the same
CN108073281A (en) The method and and its electronic equipment of content are provided
KR102516345B1 (en) Method for determining illegal modification of data and electronic device supporting the same
CN108141474B (en) Electronic device for sharing content with external device and method for sharing content thereof
KR102690524B1 (en) Electronic Device and Method for Outputting Thumbnail Corresponding to User Input
US11710173B2 (en) Electronic device for performing payment and operation method therefor
KR102495008B1 (en) Method for supporting image edit and electronic device supporting the same
KR102568550B1 (en) Electronic device for executing application using handwirting input and method for controlling thereof
KR20220032343A (en) Electronic device and method for processing input of in-air gesture in electronic device
KR20190101813A (en) Method for interworking between host application and assistant application and electronic device supportingthe same
KR20210040656A (en) The electronic apparatus and the method for controlling thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant