KR102466219B1 - Method for providing of information related to content based on user behavior - Google Patents

Method for providing of information related to content based on user behavior Download PDF

Info

Publication number
KR102466219B1
KR102466219B1 KR1020180061824A KR20180061824A KR102466219B1 KR 102466219 B1 KR102466219 B1 KR 102466219B1 KR 1020180061824 A KR1020180061824 A KR 1020180061824A KR 20180061824 A KR20180061824 A KR 20180061824A KR 102466219 B1 KR102466219 B1 KR 102466219B1
Authority
KR
South Korea
Prior art keywords
content
information
displayed
screen
user input
Prior art date
Application number
KR1020180061824A
Other languages
Korean (ko)
Other versions
KR20190136301A (en
Inventor
이희영
김지혜
박호준
한슬기
윤승현
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020180061824A priority Critical patent/KR102466219B1/en
Publication of KR20190136301A publication Critical patent/KR20190136301A/en
Application granted granted Critical
Publication of KR102466219B1 publication Critical patent/KR102466219B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Abstract

컨텐츠 연관 정보를 제공하는 방법이 제공된다. 본 발명의 일 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법은 멀티미디어 컨텐츠에 대한 정보의 일부가 표시되는 제1 영역을 출력하는 단계와 제1 영역에서 제2 영역으로 이동하기 위한 제1 사용자 입력을 감지하되, 제2 영역으로의 이동 방향은 제1 영역에서 표시되는 정보의 다음 순서에 따른 것인 단계와 제1 사용자 입력을 감지하는 것에 응답하여 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 제2 영역 내 어느 한 영역에 형성하는 단계를 포함할 수 있다.A method for providing content-related information is provided. A method for providing content-related information according to an embodiment of the present invention includes outputting a first area in which a part of information on multimedia content is displayed and a first user input for moving from the first area to the second area. Detected, but the direction of movement to the second area is according to the following order of the information displayed in the first area, and information related to the information displayed in the second area in response to detecting the first user input The method may include forming the first learning item in any one area within the second area.

Description

사용자 행위에 기반한 컨텐츠 연관 정보를 제공하는 방법{METHOD FOR PROVIDING OF INFORMATION RELATED TO CONTENT BASED ON USER BEHAVIOR}How to provide content-related information based on user behavior

본 발명은 컨텐츠 연관 정보를 제공하는 방법 및 장치에 관한 것이다. 보다 자세하게는, 사용자 행위 및 컨텐츠 내용에 연관된 정보를 제공할 수 있는 방법에 관한 것이다.The present invention relates to a method and apparatus for providing content related information. More particularly, it relates to a method of providing information related to user behavior and content content.

문서 뷰어나 웹 뷰어 상에서 제공되는 컨텐츠는 정보의 양이 매우 방대하여 사용자 인터페이스 화면에 모두 출력되지 않는다. 따라서, 전체 컨텐츠의 일부만이 표시되는 바, 사용자가 직접 스크롤 입력을 하면서 화면 영역을 이동하면서 컨텐츠 전체에 대한 정보를 습득할 수 있다.The content provided on the document viewer or the web viewer is not all output on the user interface screen because the amount of information is very large. Accordingly, since only a portion of the entire content is displayed, the user can acquire information about the entire content while moving the screen area while directly inputting a scroll.

사용자가 정보를 습득하는 과정 중, 원하는 정보를 찾기 위하여 다수의 스크롤 입력을 수행하면, 현재 표시된 컨텐츠의 개요에 대하여 한눈에 확인하기 어렵다. 또한, 사용자가 현재 화면 영역에 표시된 컨텐츠의 내용을 이해하기 어려운 경우, 별도의 작업창을 실행하여 개별적으로 검색해야 하는 번거로움이 발생한다.If the user performs a plurality of scroll inputs to find desired information during the process of acquiring information, it is difficult to check the outline of the currently displayed content at a glance. In addition, when it is difficult for the user to understand the contents of the content currently displayed in the screen area, it is troublesome to execute a separate task window and search individually.

컨텐츠 정보의 양이 방대한 경우, 기존의 문서 뷰어나 웹 뷰어에서 제공되는 기능 중 내비게이션 바 또는 탐색 바를 많이 활용하고 있으나, 이는 사용자가 직접적으로 조작 또는 입력해야 하는 작업을 별도로 수행하여야 하고, 컨텐츠에 대한 관련 정보를 제공하는 기능까지 구비된 것이 아니다.When the amount of content information is vast, navigation bars or navigation bars are widely used among the functions provided by existing document viewers or web viewers. It is not even equipped with a function to provide related information.

한국공개특허 제2016-0127590호Korean Patent Publication No. 2016-0127590

본 발명이 해결하고자 하는 기술적 과제는, 사용자의 행위 및 컨텐츠 정보에 기반하여 사용자의 컨텐츠 학습을 지원하기 위한 방법 및 장치를 제공하는 것이다.The technical problem to be solved by the present invention is to provide a method and apparatus for supporting a user's content learning based on the user's behavior and content information.

본 발명이 해결하고자 하는 다른 기술적 과제는, 사용자가 컨텐츠에 관한 학습을 수행하는 과정에서 정보를 효율적으로 습득할 수 있도록 하는 방법 및 장치를 제공하는 것이다.Another technical problem to be solved by the present invention is to provide a method and an apparatus for enabling a user to efficiently acquire information in a process of learning about content.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 발명의 일 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법은, 멀티미디어 컨텐츠에 대한 정보의 일부가 표시되는 제1 영역을 출력하는 단계, 상기 제1 영역에서 제2 영역으로 이동하기 위한 제1 사용자 입력을 감지하되, 상기 제2 영역으로의 이동 방향은 상기 제1 영역에서 표시되는 정보의 다음 순서에 따른 것인 단계, 상기 제1 사용자 입력을 감지하는 것에 응답하여 상기 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 상기 제2 영역 내 어느 한 영역에 형성하는 단계를 포함할 수 있다.In order to solve the above technical problem, the method for providing content-related information according to an embodiment of the present invention includes outputting a first area in which a part of information about multimedia content is displayed, and the second area in the first area Sensing a first user input for moving to an area, wherein the moving direction to the second area is according to a next order of information displayed in the first area, in response to detecting the first user input The method may include forming a first learning item including information related to information displayed in the second area in any one area within the second area.

일 실시예에서, 상기 제1 학습 아이템은, 상기 제2 영역에서 표시되는 정보와 연관된 적어도 하나의 정보 링크를 제공하는 것일 수 있다.In an embodiment, the first learning item may provide at least one information link related to information displayed in the second area.

일 실시예에서, 상기 제1 사용자 입력을 감지하는 것에 응답하여 상기 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 상기 제2 영역 내 어느 한 영역에 형성하는 단계는, 상기 제1 학습 아이템과 인접한 영역에 인덱스 바를 형성하되, 상기 인덱스 바에 표시되는 인덱스는 상기 제1 사용자 입력에 응답하여 변경되고, 상기 제2 영역의 목차 정보를 표시하는 것인 단계를 포함할 수 있다.In an embodiment, in response to detecting the first user input, forming a first learning item including information related to information displayed in the second area in any one area in the second area includes: The method may include forming an index bar in an area adjacent to the first learning item, the index displayed on the index bar being changed in response to the first user input, and displaying the table of contents information of the second area.

일 실시예에서, 상기 제1 사용자 입력을 감지하는 것에 응답하여 상기 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 상기 제2 영역 내 어느 한 영역에 형성하는 단계는, 상기 제1 학습 아이템과 인접한 영역에 인덱스 바를 형성하되, 상기 인덱스 바의 영역에서 상기 제1 학습 아이템에 관한 자료를 획득할 수 있는 다운로드 아이템을 상기 인덱스 바와 동시에 형성하는 단계를 포함할 수 있다.In an embodiment, in response to detecting the first user input, forming a first learning item including information related to information displayed in the second area in any one area in the second area includes: The method may include forming an index bar in an area adjacent to the first learning item, and simultaneously forming, in the area of the index bar, a download item capable of obtaining data regarding the first learning item as the index bar.

일 실시예에서, 상기 제2 영역에서 상기 제1 영역으로 이동하기 위한 제2 사용자 입력을 감지하되, 상기 제2 사용자 입력은 상기 제1 사용자 입력과 이동 방향이 반대인 단계, 상기 제2 사용자 입력을 감지하는 것에 응답하여 호버 컨트롤을 형성하는 단계를 더 포함할 수 있다.In an embodiment, detecting a second user input for moving from the second area to the first area, wherein the second user input has a movement direction opposite to that of the first user input, the second user input The method may further include forming a hover control in response to detecting the

일 실시예에서, 상기 제2 사용자 입력의 감지하는 것에 응답하여 호버 컨트롤을 형성하는 단계는, 상기 호버 컨트롤이 형성된 영역과 인접한 영역에 레퍼런스 인디케이터를 형성하는 단계를 포함할 수 있다.In an embodiment, the forming of the hover control in response to the sensing of the second user input may include forming a reference indicator in an area adjacent to the area where the hover control is formed.

일 실시예에서, 상기 제2 영역에서 상기 제1 영역으로 이동하기 위한 제2 사용자 입력을 감지하되, 상기 제2 사용자 입력은 상기 제1 사용자 입력과 이동 방향이 반대인 단계, 상기 제2 사용자 입력을 감지한 결과에 따른 이동한 영역에 표시된 정보를 감지하고, 상기 표시된 정보가 다시 표시된 것임을 감지하는 것에 응답하여, 상기 제2 사용자 입력을 감지하는 것에 응답하여 상기 표시된 정보와 연관된 정보가 포함된 제2 학습 아이템을 형성하되, 상기 제2 학습 아이템은 상기 제1 학습 아이템에서 심화된 정보인 단계를 포함할 수 있다.In an embodiment, detecting a second user input for moving from the second area to the first area, wherein the second user input has a movement direction opposite to that of the first user input, the second user input In response to detecting information displayed in the moved area according to the detection result, and detecting that the displayed information is displayed again, in response to detecting the second user input, a second item including information related to the displayed information The method may include forming two learning items, wherein the second learning item is information deepened in the first learning item.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법은, 멀티미디어 컨텐츠에 대한 텍스트의 일부를 표시하는 단계, 상기 텍스트의 일부 중, 제1 지점에서 제2 지점까지 대한 드래그 입력을 감지한 것에 응답하여 상기 제1지점에서 상기 제2 지점까지의 문장의 길이를 가리키는 하이라이트 인디케이터 바를 표시하는 단계를 포함할 수 있다.A method of providing content-related information according to another embodiment of the present invention for solving the above-described technical problem includes displaying a part of text for multimedia content, among the parts of the text, from a first point to a second point and displaying a highlight indicator bar indicating the length of the sentence from the first point to the second point in response to detecting a drag input for up to .

일 실시예에서, 상기 하이라이트 인디케이터 바는, 상기 멀티미디어 컨텐츠에 대한 텍스트 전체를 기준으로 상기 제1 지점에서 상기 제2 지점까지의 텍스트의 길이 및 위치가 표시되는 것일 수 있다.In an embodiment, the highlight indicator bar may indicate the length and position of the text from the first point to the second point based on the entire text for the multimedia content.

일 실시예에서, 상기 텍스트의 일부 중, 제1 지점에서 제2 지점까지 대한 드래그 입력을 감지한 것에 응답하여 상기 제1지점에서 상기 제2 지점까지의 문장의 길이를 가리키는 하이라이트 인디케이터 바를 표시하는 단계는, 상기 제1 지점에서 상기 제2 지점까지의 길이가 변경됨에 응답하여 상기 하이라이트 인디케이터 바의 길이를 자동으로 변경하는 단계를 포함할 수 있다.In an embodiment, displaying a highlight indicator bar indicating the length of a sentence from the first point to the second point in response to detecting a drag input from the first point to the second point among the part of the text may include automatically changing the length of the highlight indicator bar in response to a change in the length from the first point to the second point.

일 실시예에서, 상기 텍스트의 일부 중, 제1 지점에서 제2 지점까지 대한 드래그 입력을 감지한 것에 응답하여 상기 제1지점에서 상기 제2 지점까지의 문장의 길이를 가리키는 하이라이트 인디케이터 바를 표시하는 단계는, 상기 제1 지점에서 상기 제2 지점까지의 문장을 저장 할 수 있는 문장 아이템을 표시하는 단계를 포함할 수 있다.In an embodiment, displaying a highlight indicator bar indicating the length of a sentence from the first point to the second point in response to detecting a drag input from the first point to the second point among the part of the text may include displaying a sentence item capable of storing sentences from the first point to the second point.

상술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 컨텐츠 연관 정보를 제공하는 컴퓨터 프로그램은, 멀티미디어 컨텐츠에 대한 정보의 일부가 표시되는 제1 영역을 출력하는 단계, 상기 제1 영역에서 제2 영역으로 이동하기 위한 제1 사용자 입력을 감지하되, 상기 제2 영역으로의 이동 방향은 상기 제1 영역에서 표시되는 정보의 다음 순서에 따른 것인 단계, 상기 제1 사용자 입력을 감지하는 것에 응답하여 상기 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 상기 제2 영역 내 어느 한 영역에 형성하는 단계를 실행시키기 위하여 기록 매체에 저장될 수 있다.A computer program for providing content-related information according to an embodiment of the present invention for solving the above-described technical problem comprises the steps of: outputting a first area in which a part of information about multimedia content is displayed; Sensing a first user input for moving to a second region, wherein the moving direction to the second region is according to a next order of information displayed in the first region, in response to detecting the first user input to form a first learning item including information related to information displayed in the second area in any one area within the second area, the recording medium may be stored in the recording medium.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 컴퓨터 프로그램은, 멀티미디어 컨텐츠에 대한 텍스트의 일부를 표시하는 단계, 상기 텍스트의 일부 중, 제1 지점에서 제2 지점까지 대한 드래그 입력을 감지한 것에 응답하여 상기 제1지점에서 상기 제2 지점까지의 문장의 길이를 가리키는 하이라이트 인디케이터 바를 표시하는 단계를 실행시키기 위하여 기록 매체에 저장될 수 있다.A computer program for providing content-related information according to another embodiment of the present invention for solving the above-described technical problem comprises the steps of: displaying a part of text for multimedia content; It may be stored in the recording medium to execute the step of displaying a highlight indicator bar indicating the length of the sentence from the first point to the second point in response to detecting the drag input to the point.

도 1은 본 발명의 일 실시예에 따른 컴퓨팅 장치의 구조를 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다.
도 3은 본 발명의 몇몇 실시예에서 참조되는 학습 아이템이 표시되는 것을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는 제1 학습 아이템이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다.
도 6은 본 발명의 몇몇 실시예에서 참조되는 호버 컨트롤 등이 표시되는 것을 설명하기 위한 도면이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는 호버 컨트롤 등이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는 제2 학습 아이템이 표시되는 것을 설명하기 위한 도면이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는 제2 학습 아이템이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는 인덱스가 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.
도 11은 본 발명의 또 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다.
도 12는 본 발명의 몇몇 실시예에서 참조되는 레퍼런스 인디케이터 형성 과정에 대한 순서도이다.
도 13은 본 발명의 몇몇 실시예에서 참조되는 하이라이트 인디케이터 바가 표시되는 것을 설명하기 위한 도면이다.
도 14는 본 발명의 몇몇 실시예에서 참조되는 하이라이트 인디케이터 바가 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.
1 is a diagram illustrating a structure of a computing device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of providing content-related information according to an embodiment of the present invention.
3 is a diagram for explaining that a referenced learning item is displayed in some embodiments of the present invention.
4 is a diagram for explaining that a first learning item referenced in some embodiments of the present invention is displayed on a mobile screen.
5 is a flowchart illustrating a method of providing content related information according to another embodiment of the present invention.
6 is a diagram for explaining that a hover control, etc. referred to in some embodiments of the present invention is displayed.
7 is a diagram for explaining that a hover control or the like referenced in some embodiments of the present invention is displayed on a mobile screen.
8 is a diagram for explaining that a second learning item referenced in some embodiments of the present invention is displayed.
9 is a diagram for explaining that a second learning item referenced in some embodiments of the present invention is displayed on a mobile screen.
10 is a diagram for explaining that an index referenced in some embodiments of the present invention is displayed on a mobile screen.
11 is a flowchart illustrating a method of providing content related information according to another embodiment of the present invention.
12 is a flowchart of a reference indicator forming process referenced in some embodiments of the present invention.
13 is a diagram for explaining that a highlight indicator bar referred to in some embodiments of the present invention is displayed.
14 is a diagram for explaining that a highlight indicator bar referenced in some embodiments of the present invention is displayed on a mobile screen.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly defined in particular. The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase.

명세서에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

이하, 본 발명의 몇몇 실시예들에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 컴퓨팅 장치의 구조를 도시한 도면이다. 도 1 은 일 실시예에 따른 컴퓨팅 장치일 뿐이며, 본 발명에 따른 컴퓨팅 장치는 도 1에 도시된 구성요소보다 적은 구성요소를 포함하거나, 보다 많은 구성요소를 포함할 수 있다.1 is a diagram illustrating a structure of a computing device according to an embodiment. 1 is only a computing device according to an embodiment, and the computing device according to the present invention may include fewer or more components than those illustrated in FIG. 1 .

컴퓨팅 장치(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 않음)와 연결될 수 있다. 외부장치는 다른 장치(도시되지 않음), 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿PC(도시되지 않음) 및 서버(도시되지 않음) 중 적어도 하나를 포함할 수 있다.The computing device 100 may be connected to an external device (not shown) using the mobile communication module 120 , the sub-communication module 130 , and the connector 165 . The external device may include at least one of another device (not shown), a mobile phone (not shown), a smart phone (not shown), a tablet PC (not shown), and a server (not shown).

도 1을 참조하면, 컴퓨팅 장치(100)는 스크린(190) 및 스크린 컨트롤러(195)를 포함한다. 또한, 컴퓨팅 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함할 수 있다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(150)은 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 1 , a computing device 100 includes a screen 190 and a screen controller 195 . In addition, the computing device 100 includes a control unit 110 , a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , an input/output module ( 160 ), a sensor module 170 , a storage unit 175 , and a power supply unit 180 . The sub communication module 130 includes at least one of a wireless LAN module 131 and a short-range communication module 132, and the multimedia module 140 includes a broadcast communication module 141, an audio reproduction module 142, and a video reproduction module. It may include at least one of (143). The camera module 150 includes at least one of a first camera 151 and a second camera 152 , and the input/output module 160 includes a button 161 , a microphone 162 , a speaker 163 , and vibration. It may include at least one of a motor 164 , a connector 165 , and a keypad 166 .

제어부(110)는 CPU(111), 컴퓨팅 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(112) 및 컴퓨팅 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 컴퓨팅 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 메모리인 램(113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어 등 복수의 프로세서를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(BUS)를 통해 상호 연결될 수 있다.The control unit 110 stores signals or data input from the outside of the CPU 111 , the ROM 112 in which a control program for controlling the computing device 100 is stored, and the computing device 100 , or the computing device 100 . It may include a RAM 113 that is a memory used as a storage area for a work performed in the . The CPU 111 may include a plurality of processors such as single core, dual core, triple core, or quad core. The CPU 111 , the ROM 112 , and the RAM 113 may be interconnected through an internal bus BUS.

제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 스크린(190) 및 스크린 컨트롤러(195)를 제어할 수 있다.The control unit 110 includes a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , an input/output module 160 , a sensor module 170 , and storage. It is possible to control the unit 175 , the power supply unit 180 , the screen 190 , and the screen controller 195 .

이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나(하나 또는 복수)의 안테나(도시되지 않음)를 이용하여 이동 통신을 통해 컴퓨팅 장치(100)가 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 컴퓨팅 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿 PC(도시되지 않음) 또는 다른 장치(도시되지 않음)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS) 전송을 하기 위한 무선 신호를 송/수신할 수 있다.The mobile communication module 120 may allow the computing device 100 to be connected to an external device through mobile communication using at least one (one or a plurality of) antennas (not shown) under the control of the controller 110 . . The mobile communication module 120 includes a mobile phone (not shown), a smart phone (not shown), a tablet PC (not shown) or another device (not shown) having a phone number input to the computing device 100 and It can transmit/receive a wireless signal for transmitting a voice call, video call, text message (SMS) or multimedia message (MMS).

서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.The sub communication module 130 may include at least one of a wireless LAN module 131 and a short-range communication module 132 . For example, it may include only the wireless LAN module 131 , only the short-range communication module 132 , or both the wireless LAN module 131 and the short-range communication module 132 .

무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 AP(access point)(도시되지 않음)가 설치된 장소에서 인터넷에 연결할 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격 IEEE802.11x를 지원할 수 있다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 컴퓨팅 장치(100)와 화상형성장치(도시되지 않음) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(Bluetooth), 적외선 통신(IrDA, infrared data association), 지그비(Zig-bee) 방식 등 이 포함될 수 있다.The wireless LAN module 131 may connect to the Internet at a location in which a wireless access point (AP) (not shown) is installed under the control of the controller 110 . The wireless LAN module 131 may support the IEEE802.11x wireless LAN standard of the American Institute of Electrical and Electronics Engineers (IEEE). The short-range communication module 132 may perform wireless short-range communication between the computing device 100 and the image forming apparatus (not shown) under the control of the controller 110 . The short-distance communication method may include Bluetooth, infrared data association (IrDA), Zig-bee, and the like.

컴퓨팅 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.The computing device 100 may include at least one of a mobile communication module 120 , a wireless LAN module 131 , and a short-range communication module 132 according to performance.

멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 않음)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예를 들어, EPG(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.The multimedia module 140 may include a broadcast communication module 141 , an audio playback module 142 , or a video playback module 143 . The broadcast communication module 141 includes a broadcast signal (eg, a TV broadcast signal, a radio broadcast signal, or a data broadcast signal) transmitted from a broadcast station through a broadcast communication antenna (not shown) under the control of the controller 110 and broadcast Additional information (eg, an electric program guide (EPG) or an electric service guide (ESG)) may be received. The audio reproduction module 142 may reproduce a stored or received digital audio file under the control of the controller 110 . The video playback module 143 may play a stored or received digital video file under the control of the controller 110 . The video reproduction module 143 may reproduce a digital audio file.

멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.The multimedia module 140 may include an audio playback module 142 and a video playback module 143 excluding the broadcast communication module 141 . Also, the audio reproduction module 142 or the video reproduction module 143 of the multimedia module 140 may be included in the controller 100 .

카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제 1 카메라(151) 또는 제 2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(도시되지 않음)을 포함할 수 있다. 제 1 카메라(151)는 상기 컴퓨팅 장치(100) 전면에 배치되고, 제 2 카메라(152)는 상기 컴퓨팅 장치(100)의 후면에 배치될 수 있다. 또는, 제 1 카메라(151)와 제 2 카메라(152)는 인접하게(예를 들어, 간격이 1 cm보다 크고, 8 cm 보다 작게) 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.The camera module 150 may include at least one of a first camera 151 and a second camera 152 for capturing still images or moving images under the control of the controller 110 . Also, the first camera 151 or the second camera 152 may include an auxiliary light source (not shown) that provides an amount of light required for photographing. The first camera 151 may be disposed on the front side of the computing device 100 , and the second camera 152 may be disposed on the back side of the computing device 100 . Alternatively, the first camera 151 and the second camera 152 may be disposed adjacent to each other (eg, with an interval greater than 1 cm and less than 8 cm) to capture a 3D still image or a 3D moving picture.

GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 않음)에서부터 전파를 수신하고, GPS 위성(도시되지 않음)에서부터 디스플레이장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 컴퓨팅 장치(100)의 위치를 산출할 수 있다.The GPS module 155 receives radio waves from a plurality of GPS satellites (not shown) on Earth's orbit, and uses a time of arrival from the GPS satellites (not shown) to the display device 100 . Thus, the location of the computing device 100 may be calculated.

입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.The input/output module 160 may include at least one of a plurality of buttons 161 , a microphone 162 , a speaker 163 , a vibration motor 164 , a connector 165 , and a keypad 166 .

버튼(161)은 상기 컴퓨팅 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 않음), 볼륨버튼(도시되지 않음) 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.The button 161 may be formed on the front, side, or back of the housing of the computing device 100 , and includes a power/lock button (not shown), a volume button (not shown), a menu button, a home button, and a return button. It may include at least one of a button (back button) and a search button (161).

마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성할 수 있다.The microphone 162 may generate an electrical signal by receiving a voice or sound under the control of the controller 110 .

스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호에 대응되는 사운드를 컴퓨팅 장치(100) 외부로 출력할 수 있다. 스피커(163)는 컴퓨팅 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(163)는 상기 컴퓨팅 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.The speaker 163 outputs sounds corresponding to various signals of the mobile communication module 120 , the sub communication module 130 , the multimedia module 140 , or the camera module 150 according to the control of the controller 110 to the computing device 100 . ) can be output externally. The speaker 163 may output a sound corresponding to a function performed by the computing device 100 . One or a plurality of speakers 163 may be formed at an appropriate location or locations in the housing of the computing device 100 .

진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 컴퓨팅 장치(100)는 다른 장치(도시되지 않음)로부터 음성통화가 수신되는 경우, 진동 모터(164)가 동작할 수 있다. 진동 모터(164)는 스크린(190) 상에 접촉하는 사용자의 터치 동작 및 스크린(190) 상에서의 터치 입력의 연속적인 움직임에 응답하여 동작할 수 있다.The vibration motor 164 may convert an electrical signal into mechanical vibration under the control of the controller 110 . For example, the computing device 100 in the vibration mode may operate the vibration motor 164 when a voice call is received from another device (not shown). The vibration motor 164 may operate in response to a user's touch operation making contact on the screen 190 and a continuous movement of a touch input on the screen 190 .

커넥터(165)는 컴퓨팅 장치(100)와 외부장치(도시되지 않음) 또는 전원소스(도시되지 않음)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 컴퓨팅 장치(100)의 저장부(175)에 저장된 데이터를 외부장치(도시되지 않음)로 전송하거나 외부장치(도시되지 않음)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 않음)에서부터 전원이 입력되거나 배터리(도시되지 않음)를 충전할 수 있다.The connector 165 may be used as an interface for connecting the computing device 100 and an external device (not shown) or a power source (not shown). Data stored in the storage unit 175 of the computing device 100 is transmitted to an external device (not shown) or an external device (not shown) through a wired cable connected to the connector 165 under the control of the controller 110 . data can be received from Power may be input from a power source (not shown) through a wired cable connected to the connector 165 or a battery (not shown) may be charged.

키패드(166)는 컴퓨팅 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 컴퓨팅 장치(100)에 형성되는 물리적인 키패드(도시되지 않음) 또는 스크린(190)에 표시되는 가상의 키패드(도시되지 않음)를 포함한다. 컴퓨팅 장치(100)에 형성되는 물리적인 캐피드(도시되지 않음)는 컴퓨팅 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.The keypad 166 may receive a key input from a user for controlling the computing device 100 . The keypad 166 includes a physical keypad (not shown) formed on the computing device 100 or a virtual keypad (not shown) displayed on the screen 190 . A physical cap (not shown) formed in the computing device 100 may be excluded depending on the performance or structure of the computing device 100 .

센서 모듈(170)은 컴퓨팅 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 컴퓨팅 장치(100)에 대한 접근여부를 검출하는 근접센서, 컴퓨팅 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 않음) 또는 컴퓨팅 장치(100)의 동작(예를 들어, 컴퓨팅 장치(100)의 회전, 컴퓨팅 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 않음)를 포함할 수 있다. 센서모듈(170)의 센서는 컴퓨팅 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.The sensor module 170 includes at least one sensor that detects the state of the computing device 100 . For example, the sensor module 170 is a proximity sensor that detects whether the user approaches the computing device 100 , an illuminance sensor (not shown) or a computing device that detects the amount of light around the computing device 100 . It may include a motion sensor (not shown) that detects the operation (eg, rotation of the computing device 100 , acceleration or vibration applied to the computing device 100 ). The sensor of the sensor module 170 may be added or deleted according to the performance of the computing device 100 .

저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 컴퓨팅 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.The storage unit 175 includes a mobile communication module 120 , a sub communication module 130 , a multimedia module 140 , a camera module 150 , a GPS module 155 , and an input/output module according to the control of the controller 110 . A signal or data input/output corresponding to the operation of the 160 , the sensor module 170 and the screen 190 may be stored. The storage 175 may store control programs and applications for controlling the computing device 100 or the controller 110 .

"저장부"라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 컴퓨팅 장치(100)에 장착되는 메모리 카드(도시되지 않음)를 포함할 수 있다. 저장부는 비휘발성메모리, 휘발성메모리, 하드디스크드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.The term “storage unit” may include a storage unit 175 , a ROM 112 in the control unit 110 , a RAM 113 , or a memory card (not shown) mounted in the computing device 100 . The storage unit may include a non-volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

전원공급부(180)는 제어부(110)의 제어에 따라 컴퓨팅 장치(100)의 하우징에 배치되는 적어도 하나의 배터리(도시되지 않음)에 전원을 공급할 수 있다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 않음)로부터 입력되는 전원을 컴퓨팅 장치(100)의 각 부로 공급할 수 있다.The power supply unit 180 may supply power to at least one battery (not shown) disposed in the housing of the computing device 100 under the control of the control unit 110 . Also, the power supply unit 180 may supply power input from an external power source (not shown) to each unit of the computing device 100 through a wired cable connected to the connector 165 .

스크린(190)은 사용자에게 다양한 서비스에 대응되는 사용자 인터페이스를 출력할 수 있다. 스크린(190)은 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다. 스크린(190)은 사용자의 신체(예를 들어, 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치 입력을 수신할 수 있다. 또한, 스크린(190)은 적어도 하나의 터치 입력의 연속적인 움직임을 수신할 수 있다. 스크린(190)은 터치 입력의 연속적인 움직임에 대응되는 아날로그 신호를 스크린 컨트롤러(195)로 전송할 수 있다.The screen 190 may output a user interface corresponding to various services to the user. The screen 190 may transmit an analog signal corresponding to at least one touch input to the user interface to the screen controller 195 . The screen 190 may receive at least one touch input through the user's body (eg, a finger) or a touchable input means (eg, a stylus pen). Also, the screen 190 may receive continuous movement of at least one touch input. The screen 190 may transmit an analog signal corresponding to the continuous movement of the touch input to the screen controller 195 .

본 발명에서 터치 입력이라 함은 스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉을 통한 입력에 한정되지 않고, 비접촉 입력(예를 들어, 스크린(190)과 신체 간의 간격이 1mm 이하)을 포함할 수 있다. 스크린(190)에서 검출가능한 간격은 컴퓨팅 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.In the present invention, the touch input is not limited to input through contact between the screen 190 and the user's body or a touchable input means, and a non-contact input (for example, the distance between the screen 190 and the body is 1 mm or less) ) may be included. The detectable interval on the screen 190 may be changed according to the performance or structure of the computing device 100 .

스크린(190)은, 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(ultrasound wave)방식으로 구현될 수 있다.The screen 190 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an ultrasonic wave method.

스크린 컨트롤러(195)는 스크린(190)으로부터 수신된 아날로그 신호를 디지털 신호(예를 들어, X 좌표 및 Y 좌표)로 변환하여 제어부(110)로 전송할 수 있다. 제어부(110)는 스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 입력에 응답하여 스크린(190)에 표시된 애플리케이션 실행 아이콘(도시되지 않음)을 선택하거나 또는 애플리케이션을 실행할 수 있다. 스크린 컨트롤러(195)는 스크린(190) 또는 제어부(110)에 포함될 수 있다.The screen controller 195 may convert an analog signal received from the screen 190 into a digital signal (eg, X coordinate and Y coordinate) and transmit the converted analog signal to the controller 110 . The controller 110 may control the screen 190 using a digital signal received from the screen controller 195 . For example, the controller 110 may select an application execution icon (not shown) displayed on the screen 190 in response to a touch input or may execute an application. The screen controller 195 may be included in the screen 190 or the controller 110 .

이하, 본 발명의 몇몇 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법의 각 단계는, 컴퓨팅 장치에 의해 수행될 수 있다. 예를 들어, 상기 컴퓨팅 장치는 데스크탑 PC, 노트북 및 스마트 기기 일 수 있다. 다만, 설명의 편의를 위해, 상기 컨텐츠 연관 정보를 제공하는 방법에 포함되는 각 단계의 동작 주체는 그 기재가 생략될 수도 있다.Hereinafter, each step of the method for providing content related information according to some embodiments of the present invention may be performed by a computing device. For example, the computing device may be a desktop PC, a notebook computer, and a smart device. However, for convenience of description, the description of the operating subject of each step included in the method for providing the content-related information may be omitted.

도 2는 본 발명의 일 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.2 is a flowchart illustrating a method of providing content-related information according to an embodiment of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some steps may be added or deleted as needed.

사용자에게 제공되는 화면 영역에 멀티미디어 컨텐츠를 출력한다(S201). 본 명세서에서 서술되는 멀티미디어 컨텐츠는 사용자에게 정보를 제공하기 위하여 화면 영역에서 표시될 수 있는 다양한 문자, 기호 및 그림 등의 다양한 정보 수단을 가리킨다. 멀티미디어 컨텐츠는 방대한 양의 정보를 포함하고 있는 바, 사용자에게 제공되는 화면 영역에는 멀티미디어에서 제공되는 정보의 일부가 표시될 수 있을 것이다. 따라서, 사용자는 키보드나 마우스 조작을 통하여 화면 영역을 이동하여 멀티미디어 컨텐츠의 정보를 습득할 수 있고, 컴퓨팅 장치가 모바일 기기에 해당할 경우, 다양한 제스처를 통하여 화면 영역을 이동할 수 있을 것이다.The multimedia content is output to the screen area provided to the user (S201). The multimedia contents described in this specification refer to various information means such as various characters, symbols, and pictures that can be displayed in a screen area in order to provide information to a user. Since multimedia content includes a vast amount of information, a part of the information provided by multimedia may be displayed on the screen area provided to the user. Accordingly, the user may acquire information on multimedia content by moving the screen area through a keyboard or mouse operation, and when the computing device corresponds to a mobile device, the user may move the screen area through various gestures.

사용자의 입력을 모니터링한 결과로(S203), 사용자의 입력이 제1 사용자 입력인지 판단한다(S205). 본 명세서에서 서술되는 제1 사용자 입력은 멀티미디어 컨텐츠의 일부가 화면 영역에서 표시되는 경우, 사용자가 멀티미디어 컨텐츠 내용이 서술된 순서대로 이동하기 위한 사용자의 조작 행위에 따른 것이다. 예를 들어, 조작 행위는 스크롤 바를 하단 방향으로 내리는 행위, 마우스 휠을 아래로 스크롤하는 행위 및 터치 스크린 화면에 어느 한 방향으로 제스처를 입력하는 행위 등을 가리킬 수 있다. 이러한 조작 행위에 기초하여 사용자가 컨텐츠에서 제공하는 텍스트 등을 집중하여 읽어 내려가는 중인 것으로 해석할 수 있다.As a result of monitoring the user's input (S203), it is determined whether the user's input is the first user's input (S205). The first user input described in this specification is in accordance with a user's manipulation action to move the multimedia content in the order described by the user when a part of the multimedia content is displayed in the screen area. For example, the manipulation action may refer to an action of lowering a scroll bar, an action of scrolling a mouse wheel down, an action of inputting a gesture in one direction on the touch screen screen, and the like. Based on this manipulation behavior, it can be interpreted that the user is reading the text or the like provided by the content concentratingly.

감지한 사용자 입력이 제1 사용자 입력인 경우, 제1 사용자 입력을 감지한 것에 응답하여 제1 학습 아이템을 화면 영역 중 어느 한 위치에 표시한다(S207). 이 경우, 제1 학습 아이템은 제1 사용자 입력에 의하여 이동 된 화면 영역에서 표시되는 텍스트 내용 학습을 지원할 수 있는 표시 객체를 가리킨다. 예를 들어, 기 저장된 용어 설명에 대한 텍스트, 외부 링크 등 화면 영역에서 표시될 수 있는 관련된 모든 정보 공유 수단을 의미할 수 있다.When the sensed user input is the first user input, the first learning item is displayed in any one position of the screen area in response to detecting the first user input ( S207 ). In this case, the first learning item refers to a display object capable of supporting learning of text content displayed in the screen area moved by the first user input. For example, it may refer to all related information sharing means that can be displayed in the screen area, such as text for a pre-stored term description and an external link.

일 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법은, 멀티미디어 컨텐츠에 대한 정보의 일부가 표시되는 제1 영역을 출력하는 단계와 제1 영역에서 제2 영역으로 이동하기 위한 제1 사용자 입력을 감지하되, 제2 영역으로의 이동 방향은 제1 영역에서 표시되는 정보의 다음 순서에 따른 것인 단계와 제1 사용자 입력을 감지하는 것에 응답하여 제2 영역에서 표시되는 정보와 연관된 정보가 포함된 제1 학습 아이템을 제2 영역 내 어느 한 영역에 형성하는 단계를 포함할 수 있다. 제1 영역에서 제2 영역으로 이동하는 사용자 행위에 비추어 사용자가 텍스트를 통하여 학습 중인 것을 추론할 수 있을 것이다. 제1 학습 아이템이 제1 사용자 입력에 따라 자동적으로 제공되므로, 사용자가 보고 있는 컨텐츠에 대한 이해도를 자연스럽게 높일 수 있다.A method of providing content-related information according to an embodiment includes outputting a first area in which a part of information about multimedia content is displayed, and detecting a first user input for moving from the first area to the second area, , the direction of movement to the second area is according to the following order of information displayed in the first area, and a first including information associated with information displayed in the second area in response to detecting the first user input. The method may include forming the learning item in any one area within the second area. In light of a user action moving from the first area to the second area, it may be inferred that the user is learning through the text. Since the first learning item is automatically provided according to the first user input, it is possible to naturally increase the degree of understanding of the content that the user is viewing.

제1 사용자 입력이 일정 시간 이후에 반복되는 것을 감지하면, 상술한 단계들이 반복되는 것을 도 2를 통하여 알 수 있을 것이다.If it is sensed that the first user input is repeated after a predetermined time, it can be seen from FIG. 2 that the above-described steps are repeated.

한편, 도 2에서는 컨텐츠 연관 정보를 제공하는 방법에 관한 프로세스에 대하여 설명하였다. 이하, 도 3 내지 도 4를 참조하여, 도 2에를 참조하여 서술한 프로세스에 의하여 구현되는 사용자 인터페이스가 표시되는 것을 설명한다.Meanwhile, in FIG. 2 , a process related to a method of providing content related information has been described. Hereinafter, the display of a user interface implemented by the process described with reference to FIG. 2 will be described with reference to FIGS. 3 to 4 .

도 3 상단에 도시된 바와 같이, 컨텐츠가 제공되는 영역(1000)에 장문의 텍스트 중 일부를 표시하고, 텍스트 내용에 부합하는 인덱스(1001)를 인덱스 바(1010)에 표시한다. 여기서, 인덱스 바(1010)는 북마크 기능, 다운로드 기능 등의 다양한 기능을 제공할 수 있는 아이템일 수 있다. 인덱스 바(1010)에 표시되는 인덱스(1001)는 장문의 텍스트를 구분할 수 있는 목차 번호, 주제 명칭 등의 문자, 기호, 도형 등의 다양한 구분 수단일 수 있다. 컨텐츠가 제공되는 영역(1000)이 사용자의 이동 입력에 따라 텍스트의 주제가 변경되는 경우 자동으로 인덱스(1001)의 표시를 변경할 수 있다.As shown in the upper part of FIG. 3 , a part of the long text is displayed in the area 1000 where the content is provided, and an index 1001 corresponding to the text content is displayed on the index bar 1010 . Here, the index bar 1010 may be an item capable of providing various functions such as a bookmark function and a download function. The index 1001 displayed on the index bar 1010 may be various sorting means such as a table of contents number, a subject name, and the like, a symbol, a figure, etc. that can distinguish a long text. When the subject of the text is changed according to a movement input of the user in the area 1000 in which the content is provided, the display of the index 1001 may be automatically changed.

일 실시예에서, 제1 학습 아이템(1012)는 이동 후에 표시되는 정보와 연관된 적어도 하나의 정보 링크를 제공할 수 있다. 도 3 하단에 도시된 바와 같이, 제1 학습 아이템(1012)가 표시되는 영역 내에 복수의 링크를 제공하여 사용자가 정보와 연관된 사이트를 바로 입장할 수 있도록 한다.In one embodiment, the first learning item 1012 may provide at least one information link associated with information displayed after movement. As shown in the lower part of FIG. 3 , a plurality of links are provided in an area where the first learning item 1012 is displayed so that a user can directly enter a site related to information.

다른 실시예에서, 인덱스 바(1010)의 영역에는 다운로드 아이템(1011)이 형성될 수 있다. 다운로드 아이템(1011)을 통하여 제1 학습 아이템(1012)에서 제공되는 자료를 획득할 수 있다.In another embodiment, the download item 1011 may be formed in the area of the index bar 1010 . Data provided from the first learning item 1012 may be acquired through the download item 1011 .

도 3 상단에 도시된 영역(1000)의 상태에서, 사용자가 다음 텍스트 내용으로 이동하려는 행위인 제1 사용자 입력(11)을 감지하면, 도 3 하단에 도시된 바와 같이, 제1 사용자 입력(11)을 감지한 것에 응답하여, 현재 영역에 표시된 텍스트 정보와 관련된 제1 학습 아이템(1012)를 표시하고, 변경된 텍스트 정보와 매칭된 인덱스(1002)를 표시한다. 제1 사용자 입력(11)은 사용자가 영역(1000)에 표시된 텍스트 내용을 집중해서 읽고 있는 것을 의미할 수 있다. 이러한 의미를 해석한 결과, 사용자의 학습을 지원하기 위한 제1 학습 아이템(1012)를 제공한다. 제1 학습 아이템(1012)은 변경된 텍스트 정보를 습득하는 과정에서 부수적으로 필요한 정보를 습득할 수 있는 것을 가리킬 수 있다. 예를 들어, 표시되는 텍스트에 대하여 유사도 분석을 수행한 결과, 관련 용어에 대한 정의를 축약하여 나타내는 것일 수 있고, 텍스트와 연관된 정보를 습득할 수 있는 하이퍼링크일 수 있다. 따라서, 사용자가 현재 텍스트에 대한 정보를 학습하는 과정에 따른 학습의 이해도를 향상 시킬 수 있다.In the state of the area 1000 shown in the upper part of FIG. 3 , when the first user input 11 which is an action of the user to move to the next text content is sensed, as shown in the lower part of FIG. 3 , the first user input 11 ), a first learning item 1012 related to the text information displayed in the current area is displayed, and an index 1002 matched with the changed text information is displayed. The first user input 11 may mean that the user is concentrating on reading the text displayed in the area 1000 . As a result of interpreting this meaning, the first learning item 1012 for supporting the user's learning is provided. The first learning item 1012 may indicate that necessary information can be acquired incidentally in the process of acquiring the changed text information. For example, as a result of performing similarity analysis on the displayed text, it may be an abbreviated representation of a definition of a related term, or a hyperlink through which information related to the text can be acquired. Therefore, it is possible to improve the comprehension of learning according to the process in which the user learns information about the current text.

여기서, 사용자 행위를 더욱 정밀하게 분석하기 위하여 스크롤의 속도 및 가속도를 참조하여 제1 학습 아이템(1012)의 표시 여부를 결정할 수 있다. 예를 들어, 스크롤의 속도가 기 지정된 속도보다 빠른 경우에는 제1 학습 아이템(1012)를 표시하지 않을 수 있다. 이 경우에는, 사용자는 텍스트가 표시된 영역을 건너뛰기 위한 행위로 파악할 있고, 제1 학습 아이템(1012)이 불필요하게 컨텐츠가 제공되는 영역(1000)을 가리지 않는 것이 바람직하기 때문이다. 다른 예를 들어, 스크롤의 속도가 기 지정된 속도보다 느린 경우에는 제1 학습 아이템(1012)를 표시한다. 이 경우에는, 사용자가 텍스트가 표시된 영역에서 학습을 하기 위한 행위로 파악할 수 있고, 표시된 텍스트에 연관된 정보를 제공하여 학습을 지원할 필요가 있다.Here, in order to more precisely analyze the user's behavior, whether to display the first learning item 1012 may be determined with reference to the scroll speed and acceleration. For example, when the scroll speed is faster than a predetermined speed, the first learning item 1012 may not be displayed. This is because, in this case, it is preferable that the user recognizes that the text is displayed as an action for skipping the area, and that the first learning item 1012 does not unnecessarily cover the area 1000 in which the content is provided. For another example, if the scroll speed is slower than a predetermined speed, the first learning item 1012 is displayed. In this case, it is necessary for the user to identify as an action for learning in the area where the text is displayed, and to support learning by providing information related to the displayed text.

일 실시예에서, 제1 사용자 입력(11)을 감지한 것에 응답하여 제1 학습 아이템(1012)를 형성하는 단계는, 제1 학습 아이템(1012)에 인접한 영역에 인덱스 바(1010)를 형성하되, 인덱스 바(1010)에 표시되는 인덱스(1002)는 제1 사용자 입력(11)에 응답하여 변경되는 것일 수 있다.In one embodiment, the step of forming the first learning item 1012 in response to detecting the first user input 11 includes forming the index bar 1010 in an area adjacent to the first learning item 1012 ; , the index 1002 displayed on the index bar 1010 may be changed in response to the first user input 11 .

한편, 도 3에서 설명한 학습 아이템을 표시하는 과정은 컨텐츠가 제공되는 화면 영역이 비교적 넓은 데스크탑 PC 등에 적용될 수 있다. 도 4에 관한 설명에서는 화면 영역이 비교적 좁은 모바일 기기 등에서 구현하는 예를 설명한다.Meanwhile, the process of displaying the learning item described in FIG. 3 may be applied to a desktop PC or the like having a relatively wide screen area to which content is provided. In the description of FIG. 4, an example implemented in a mobile device having a relatively narrow screen area will be described.

도 4는 본 발명의 몇몇 실시예에서 참조되는 제1 학습 아이템이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.4 is a diagram for explaining that a first learning item referenced in some embodiments of the present invention is displayed on a mobile screen.

도 4에 도시된 바와 같이, 컨텐츠가 제공되는 모바일 화면 영역(2000)에서 학습 아이템(2012)를 표시하기 위한 트리거인 제1 사용자 입력(21)은 도 3의 경우와 다를 수 있다. 물론, 모바일 화면 영역(2000)에서도 스크롤 바에 입력되는 다양한 제스처를 통하여 제1 사용자 입력(21)이 정의될 수 있으나, 본 실시예에서는 이동 바(2001)에 구현된 이동 컨트롤(2003)에 대한 조작 입력을 통하여 제1 사용자 입력(21)을 정의하는 것이 모바일 기기의 특성을 활용할 수 있는 수단일 것이다.As shown in FIG. 4 , the first user input 21 , which is a trigger for displaying a learning item 2012 in a mobile screen area 2000 in which content is provided, may be different from the case of FIG. 3 . Of course, even in the mobile screen area 2000, the first user input 21 may be defined through various gestures input to the scroll bar. Defining the first user input 21 through the input may be a means for utilizing the characteristics of the mobile device.

도 4를 참조하면, 이동 컨트롤(2003)에서 어느 한 방향으로 이동하는 제스처를 입력을 감지한 것에 응답하여, 제1 학습 아이템(2012)을 표시할 수 있다. 제1 학습 아이템(2012)은 모바일 화면 영역(2000) 중 어느 한 위치에 표시될 수 있다. 예를 들어, 제1 학습 아이템(2012)를 이동 바(2001)에 인접한 영역에 나란히 표시할 수 있다. 이는, 이동 컨트롤(21)에 대한 조작이 감지되는 순간에 감지 객체(예를 들어, 손가락)는 이동 컨트롤(21)의 위치에 있으므로, 제1 학습 아이템(2012)에 대한 선택 입력을 근접한 위치에서 제공할 수 있다.Referring to FIG. 4 , the first learning item 2012 may be displayed in response to detecting an input of a gesture moving in one direction in the movement control 2003 . The first learning item 2012 may be displayed in any one position of the mobile screen area 2000 . For example, the first learning item 2012 may be displayed side by side in an area adjacent to the movement bar 2001 . This is because the sensing object (eg, a finger) is at the position of the movement control 21 at the moment when a manipulation with respect to the movement control 21 is sensed, so that the selection input for the first learning item 2012 is performed at a proximate position. can provide

지금까지 상술한 제1 사용자 입력에 관한 인터랙션은 사용자가 컨텐츠를 내용의 순서대로 이동하는 경우에 관한 것이다. 아래에서는 제1 사용자 입력과 반대되는 사용자 행위인 제2 사용자 입력에 관한 인터랙션에 관하여 설명한다. 여기서, 제2 사용자 입력은 사용자가 컨텐츠 내용의 반대 순서로 이동하는 조작 입력을 가리킨다.The interaction related to the first user input described so far relates to a case in which the user moves the contents in the order of the contents. Hereinafter, an interaction regarding a second user input, which is a user action opposite to the first user input, will be described. Here, the second user input refers to a manipulation input in which the user moves in the reverse order of contents.

도 5는 본 발명의 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.5 is a flowchart illustrating a method of providing content related information according to another embodiment of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some steps may be added or deleted as needed.

사용자의 입력을 모니터링한 결과로(S501), 사용자의 입력이 제2 사용자 입력인지 판단한다(S503). 본 명세서에서 서술되는 제2 사용자 입력은 제1 사용자 입력과는 반대이며, 멀티미디어 컨텐츠의 일부가 화면 영역에서 표시되는 경우, 사용자가 멀티미디어 컨텐츠 내용이 서술된 순서의 반대로 이동하기 위한 사용자의 조작 행위에 따른 것이다. 예를 들어, 조작 행위는 스크롤 바를 상단 방향으로 올리는 행위, 마우스 휠을 위로 스크롤하는 행위 및 터치 스크린 화면에 어느 한 방향으로 제스처를 입력하는 행위 등을 가리킬 수 있다. 이러한 조작 행위에 기초하여 사용자가 이전에 읽었던 텍스트 등을 다시 탐색하거나 다른 텍스트가 표시된 영역으로 이동하기 위한 것으로 해석할 수 있다.As a result of monitoring the user's input (S501), it is determined whether the user's input is the second user's input (S503). The second user input described in this specification is opposite to the first user input, and when a part of the multimedia content is displayed in the screen area, the user's manipulation action to move the multimedia content content in the reverse order of the description will follow For example, the manipulation action may refer to an action of raising a scroll bar in an upward direction, an action of scrolling a mouse wheel upward, and an action of inputting a gesture in one direction on the touch screen screen. Based on such a manipulation action, the user may interpret the previously read text or the like to be re-searched or to move to an area in which another text is displayed.

감지한 사용자 입력이 제2 사용자 입력인 경우, 제2 사용자 입력을 감지한 것에 응답하여 호버 컨트롤 및 레퍼런스 인디케이터 중 적어도 하나를 화면 영역 중 어느 한 위치에 출력한다(S505). 호버 컨트롤은 멀티미디어 컨텐츠의 표시 영역을 빠르게 이동할 수 있는 인터페이스 GUI를 가리킨다. 따라서, 사용자에게 호버 컨트롤을 제공하면, 사용자의 호버 컨트롤 조작 입력에 따라 표시 영역을 빠르게 이동할 수 있게 한다. 표시한 호버 컨트롤에 대한 사용자 조작을 수신하면(S507), 사용자의 조작에 따라 텍스트의 표시 영역을 빠른 속도로 변경할 수 있다(S509). 레퍼런스 인디케이터는 멀티미디어 컨텐츠의 표시 영역이 이동함에 따라 변경되는 텍스트 중에서, 다른 사용자들이 하이라이트 표시를 많이 한 곳을 나타낼 수 있는 인터페이스 GUI를 가리킨다. 예를 들어, 사용자가 스크롤 하는 중에 표시 영역에서 자주 하이라이트 된 표시 영역이 나타나는 경우 이를 사용자에게 알리기 위한 레퍼런스 인디케이터를 화면 영역 중 어느 한 위치에 표시할 수 있다.When the sensed user input is the second user input, in response to detecting the second user input, at least one of the hover control and the reference indicator is output to any one position of the screen area (S505). The hover control refers to an interface GUI that can quickly move the display area of multimedia content. Accordingly, when the hover control is provided to the user, it is possible to quickly move the display area according to the user's hover control manipulation input. When a user operation for the displayed hover control is received (S507), the display area of the text can be changed at a high speed according to the user's operation (S509). The reference indicator refers to an interface GUI that can indicate a place highlighted by other users among texts that are changed as the display area of the multimedia content moves. For example, when a frequently highlighted display area appears in the display area while the user is scrolling, a reference indicator for notifying the user may be displayed in any one position of the screen area.

S503 단계에서 추가적으로, 감지된 사용자 입력이 제2 사용자 입력인 경우에 표시된 멀티미디어 컨텐츠가 제공되는 영역을 확인(S511)한 결과, 표시된 멀티 미디어 컨텐츠가 이전에 출력되었던 멀티미디어 컨텐츠의 영역인 것으로 판단된 경우(S513), 제2 사용자 입력을 감지한 것에 응답하여 제2 학습 아이템을 표시한다(S515). 제2 학습 아이템은 제1 사용자 입력에 따른 제1 학습 아이템에서 제공되는 정보보다 높은 수준의 심화된 정보가 제공되는 표시 객체를 가리킨다. 이는, 사용자가 스크롤 입력을 통하여 멀티미디어 컨텐츠에서 제공되는 텍스트를 순서대로 모두 학습하고 난 후에, 다시 같은 내용을 반복하여 학습하는 경우, 컨텐츠의 이해도를 극대화 할 수 있는 효과가 있다. 또한, S503 단계, S511 내지 S515 단계를 다시 수행한 결과, 제2 학습 아이템에서 제공되는 정보보다 더 높은 수준의 정보가 제공될 수 있다.In step S503, when the detected user input is the second user input, as a result of confirming the area in which the displayed multimedia content is provided (S511), it is determined that the displayed multimedia content is the previously output area of the multimedia content (S513), a second learning item is displayed in response to detecting the second user input (S515). The second learning item refers to a display object provided with a higher level of in-depth information than information provided from the first learning item according to the first user input. This has the effect of maximizing the comprehension of the content when the user learns all the texts provided from the multimedia content in order through a scroll input and then repeats the same content again. In addition, as a result of performing steps S503 and S511 to S515 again, a higher level of information than the information provided by the second learning item may be provided.

한편, 도 5에서는 컨텐츠 연관 정보를 제공하는 방법에 관한 프로세스에 대하여 설명하였다. 이하, 도 6 내지 도 9를 참조하여, 도 5를 참조하여 서술한 프로세스에 의하여 구현되는 사용자 인터페이스가 표시되는 것을 설명한다.Meanwhile, in FIG. 5 , a process related to a method of providing content related information has been described. Hereinafter, the display of a user interface implemented by the process described with reference to FIG. 5 will be described with reference to FIGS. 6 to 9 .

도 6은 본 발명의 몇몇 실시예에서 참조되는 호버 컨트롤 등이 표시되는 것을 설명하기 위한 도면이다.6 is a diagram for explaining that a hover control, etc. referred to in some embodiments of the present invention is displayed.

도 6 상단에 도시된 바와 같이, 컨텐츠가 제공되는 영역(1000)에는 장문의 텍스트 중 일부를 표시하고, 표시된 텍스트에 부합하는 인덱스(1008)가 표시하는 것을 확인할 수 있다.As shown in the upper part of FIG. 6 , it can be confirmed that some of the long text is displayed in the area 1000 where the content is provided, and an index 1008 corresponding to the displayed text is displayed.

도 6 상단에 도시된 영역(1000)의 상태에서, 사용자가 이전 텍스트 내용으로 이동하려는 행위인 제2 사용자 입력(12)를 감지하면, 도 6 하단에 도시된 바와 같이, 제2 사용자 입력(12)을 감지한 것에 응답하여, 현재 영역에 호버 컨트롤(1014) 및 레퍼런스 인디케이터(1013) 중 적어도 하나를 표시한다. 호버 컨트롤(1014) 및 레퍼런스 인디케이터(1013)를 표시하는 위치는 컨텐츠가 제공되는 영역(1000)에서 어느 한 위치일 수 있다.In the state of the area 1000 shown in the upper part of FIG. 6 , if the second user input 12 that is an action for the user to move to the previous text content is detected, as shown in the lower part of FIG. 6 , the second user input 12 ), at least one of the hover control 1014 and the reference indicator 1013 is displayed in the current area. The position at which the hover control 1014 and the reference indicator 1013 are displayed may be any one position in the area 1000 where the content is provided.

예를 들어, 기존에 표시되는 이동 바의 위치 또는 이동 바에 인접한 위치에 호버 컨트롤(1014)를 표시할 수 있고, 레퍼런스 인디케이터(1013)의 위치는 호버 컨트롤(1014)에 좌우 상하 방향으로 인접한 위치에 표시할 수 있다. 이 경우, 호버 컨트롤(1014)를 통하여 사용자가 컨텐츠가 제공되는 영역(1000)을 빠른 속도로 이동하는 순간에도 다른 사용자들이 중요 문장으로 판단하여 하이라이트 한 영역을 통과하는 시점에 즉각적으로 레퍼런스 인디케이터(1013)를 통하여 사용자에게 알릴 수 있다. 따라서, 사용자가 빠른 탐색을 하는 경우에도 중요 내용을 놓치지 않도록 한다.For example, the hover control 1014 may be displayed at the position of the previously displayed moving bar or at a position adjacent to the moving bar, and the position of the reference indicator 1013 may be located adjacent to the hover control 1014 in the horizontal and vertical directions. can be displayed In this case, even when the user moves through the hover control 1014 to the area 1000 where the content is provided at high speed, the reference indicator 1013 immediately passes through the area highlighted by other users as important sentences. ) to notify the user. Therefore, even when the user searches quickly, important content is not missed.

도 7은 본 발명의 몇몇 실시예에서 참조되는 호버 컨트롤 등이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다. 이는 도 6에서 설명한 인터랙션에 관한 개념이 적용될 수 있음에 유의한다.7 is a diagram for explaining that a hover control or the like referenced in some embodiments of the present invention is displayed on a mobile screen. Note that the concept of interaction described in FIG. 6 may be applied.

도 7을 참조하면, 제2 사용자 입력(22)을 감지한 것에 응답하여 호버 컨트롤(2501) 및 레퍼런스 인디케이터(2500)을 표시한다. 모바일 기기의 특성 상, 호버 컨트롤(2501) 및 레퍼런스 인디케이터(2500)가 표시되는 위치는 도 6과 다를 수 있다. 예를 들어, 호버 컨트롤(2501)은 모바일 화면 영역(2000)의 우측에 위치할 수 있고, 레퍼런스 인디케이터(2500)는 인덱스가 표시된 위치에 인접하여 표시될 수 있다. 단, 호버 컨트롤(2501) 및 레퍼런스 인디케이터(2500)의 위치가 반드시 상술한 예에 한정되지 않음에 유의한다.Referring to FIG. 7 , a hover control 2501 and a reference indicator 2500 are displayed in response to detecting the second user input 22 . Due to the characteristics of the mobile device, positions at which the hover control 2501 and the reference indicator 2500 are displayed may be different from those of FIG. 6 . For example, the hover control 2501 may be located on the right side of the mobile screen area 2000 , and the reference indicator 2500 may be displayed adjacent to a position where an index is displayed. However, it should be noted that the positions of the hover control 2501 and the reference indicator 2500 are not necessarily limited to the above-described example.

도 8은 본 발명의 몇몇 실시예에서 참조되는 제2 학습 아이템이 표시되는 것을 설명하기 위한 도면이다.8 is a diagram for explaining that a second learning item referenced in some embodiments of the present invention is displayed.

도 8 상단에 도시된 영역(1000)의 상태에서, 제2 사용자 입력(12)이 감지되고, 멀티미디어 컨텐츠가 제공되는 영역을 확인한 결과, 표시된 멀티미디어 컨텐츠가 이전에 출력되었던 것으로 판단하면, 제2 학습 아이템(1015)를 표시한다. 여기서 표시되는 제2 학습 아이템(1015)에 관한 구체적인 정의는 도 5의 설명을 참조한다.In the state of the region 1000 shown in the upper part of FIG. 8 , the second user input 12 is sensed, and as a result of checking the region where the multimedia content is provided, if it is determined that the displayed multimedia content has been previously output, the second learning Display the item 1015 . For a detailed definition of the second learning item 1015 displayed here, refer to the description of FIG. 5 .

도 9은 본 발명의 몇몇 실시예에서 참조되는 제2 학습 아이템이 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.9 is a diagram for explaining that a second learning item referenced in some embodiments of the present invention is displayed on a mobile screen.

도 9은 도 4에서 설명되는 인터랙션에 대한 정의가 적용될 수 있다. 다만, 도 9은 도 4와 달리, 이동 컨트롤(2003)에서 어느 한 방향으로 이동하는 제스처를 입력을 감지한 것에 응답하여, 제2 학습 아이템(2015)이 표시된다. 제2 학습 아이템(2012)에 관한 설명은 도 5에 관한 설명을 참조한다.In FIG. 9 , the definition of interaction described in FIG. 4 may be applied. However, unlike FIG. 4 , in FIG. 9 , the second learning item 2015 is displayed in response to detecting an input of a gesture moving in one direction in the movement control 2003 . For a description of the second learning item 2012, refer to the description of FIG. 5 .

도 10 본 발명의 몇몇 실시예에서 참조되는 인덱스가 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.10 is a diagram for explaining that an index referenced in some embodiments of the present invention is displayed on a mobile screen.

도 10에 도시된 바와 같이, 제2 사용자 입력(21)을 감지한 것에 응답하여, 모바일 화면 영역(2000)이 딤(Deem) 모드로 변경함과 동시에 복수의 인덱스(2004, 2005, 2005)를 우선하여 표시한다. 따라서, 제2 사용자 입력(22)에 따른 재 탐색 과정이 수행될 때, 인덱스 표시를 통하여 컨텐츠 전반에 대한 개요를 확인할 수 있다.As shown in FIG. 10 , in response to detecting the second user input 21 , the mobile screen area 2000 changes to a dim mode and simultaneously displays a plurality of indices 2004, 2005, and 2005. display first. Accordingly, when the re-search process according to the second user input 22 is performed, an overview of the entire content can be checked through the index display.

도 11은 본 발명의 또 다른 실시예에 따른 컨텐츠 연관 정보를 제공하는 방법에 관한 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.11 is a flowchart illustrating a method of providing content related information according to another embodiment of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some steps may be added or deleted as needed.

사용자 입력을 모니터링한 결과로(S1001), 사용자의 입력이 제3 사용자 입력인지 판단한다. 본 명세서에 서술되는 제3 사용자 입력은 사용자가 멀티미디어가 제공되는 화면 영역에서 의미 있는 내용을 발견한 경우에 감지될 수 있는 트리거를 의미한다. 예를 들어, 제3 사용자 입력은 아무런 입력의 감지가 없는 경우, 텍스트에 대하여 드래그 입력을 하는 경우 및 특정 영역을 캡처하는 경우의 입력일 수 있다.As a result of monitoring the user input ( S1001 ), it is determined whether the user input is a third user input. The third user input described in this specification means a trigger that can be detected when a user finds meaningful content in a screen area where multimedia is provided. For example, the third user input may be an input when no input is detected, when a drag input is performed with respect to text, and when a specific area is captured.

감지한 사용자 입력이 제3 사용자 입력인 경우(S1105), 사용자의 하이라이트 입력을 수신한다(S1105). 여기서, 하이라이트 입력은, 사용자가 텍스트에 중요 문장에 대하여 드래그 입력을 한 결과, 텍스트 중 일부를 강조하여 표시하는 것을 가리킨다. 수신 결과에 따라, 하이라이트 된 텍스트의 길이를 확인할 수 있는 인디케이터인 하이라이트 인디케이터 바를 어느 한 위치에 출력한다(S1107). 구체적인 사용자 인터페이스 화면은 도 13 내지 도 14를 참조하여 상세히 설명하도록 한다.When the sensed user input is the third user input (S1105), the user's highlight input is received (S1105). Here, the highlight input refers to highlighting and displaying a part of the text as a result of the user dragging the text with respect to an important sentence. According to the reception result, a highlight indicator bar, which is an indicator for checking the length of the highlighted text, is output to a certain position (S1107). A detailed user interface screen will be described in detail with reference to FIGS. 13 to 14 .

다음으로, 도 12는 본 발명의 몇몇 실시예에서 참조되는 레퍼런스 인디케이터 형성 과정에 대한 순서도이다. 단, 이는 본 발명의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.Next, FIG. 12 is a flowchart of a reference indicator forming process referenced in some embodiments of the present invention. However, this is only a preferred embodiment for achieving the object of the present invention, and it goes without saying that some steps may be added or deleted as needed.

멀티미디어 컨텐츠에서 텍스트를 추출하고(S1201), 추출된 텍스트의 일부에 대하여 다른 사용자들이 하이라이트 한 횟수를 산정한다(S1203). 예를 들어, 사용자가 텍스트 중 제1 지점에서 제2 지점까지 드래그 입력을 하고, 하이라이트 처리한 경우, 제1 지점에서 제2 지점까지 하이라이트 처리한 횟수를 산정하고, 산정된 횟수를 저장한다. 저장된 결과를 기초로, 기 지정된 횟수 이상인 경우에 멀티미디어 컨텐츠가 제공되는 화면 영역에 레퍼런스 인디케이터를 표시한다(S1205). 레퍼런스 인디케이터가 표시되는 위치에 관하여는 도 6 내지 도 7에 관한 설명을 참조한다.A text is extracted from the multimedia content (S1201), and the number of times other users highlight a part of the extracted text is calculated (S1203). For example, when the user performs a drag input from a first point to a second point in the text and performs highlighting, the number of times of highlighting from the first point to the second point is calculated, and the calculated number of times is stored. Based on the stored result, when the predetermined number of times or more is exceeded, a reference indicator is displayed on the screen area where the multimedia content is provided (S1205). For the position where the reference indicator is displayed, refer to the description of FIGS. 6 to 7 .

도 13은 본 발명의 몇몇 실시예에서 참조되는 하이라이트 인디케이터 바가 표시되는 것을 설명하기 위한 도면이다.13 is a diagram for explaining that a highlight indicator bar referred to in some embodiments of the present invention is displayed.

도 13을 참조하면, 컨텐츠가 제공되는 영역(1000)에서 텍스트의 일부에 대한 하이라이트 영역(1301)을 확인할 수 있다. 이 때, 컨텐츠가 제공되는 영역(1000)의 이동바 영역(1100)에 표시된 이동 바(1200)에 인접하여 하이라이트 인디케이터(1300)가 표시되었다. 하이라이트 인디케이터(1300)는 하이라이트 영역(1301)의 길이를 반영하기 위하여 가변적으로 표시될 수 있고, 전체 텍스트에 대한 하이라이트 영역(1301)의 위치를 나타내기 위하여 이동바 영역(1100)의 어느 한 곳에 위치할 수 있다.Referring to FIG. 13 , a highlight area 1301 for a part of text in the area 1000 in which content is provided may be checked. At this time, the highlight indicator 1300 is displayed adjacent to the movement bar 1200 displayed in the movement bar area 1100 of the area 1000 in which the content is provided. The highlight indicator 1300 may be variably displayed to reflect the length of the highlight region 1301 , and is positioned at any one of the moving bar region 1100 to indicate the position of the highlight region 1301 with respect to the entire text. can do.

또한, 사용자가 하이라이트 처리를 하기 전에 텍스트의 일부에 대한 드래그 입력을 하는 경우 변경되는 길이에 따른 하이라이트 인디케이터(1300)의 길이가 실시간으로 변경되는 사용자 인터페이스를 제공할 수 있다.Also, when a user drags a portion of text before highlighting, a user interface in which the length of the highlight indicator 1300 is changed in real time according to the changed length may be provided.

일 실시예에 따른, 컨텐츠 연관 정보를 제공하는 방법은, 멀티미디어 컨텐츠에 대한 텍스트의 일부를 표시하는 단계와 텍스트의 일부 중, 제1 지점에서 제2 지점까지에 대한 드래그 입력을 감지한 것에 응답하여 제1 지점에서 제2 지점까지의 구간의 길이를 가리키는 하이라이트 인디케이터 바(1300)를 표시할 수 있다.According to an embodiment, a method for providing content-related information includes displaying a part of text for multimedia content and in response to detecting a drag input from a first point to a second point among the text parts, A highlight indicator bar 1300 indicating the length of the section from the first point to the second point may be displayed.

다른 실시예에서, 하이라이트 인디케이터 바(1300)를 표시하는 단계는, 제1 지점에서 제2 지점까지의 문장을 저장할 수 있는 문장 아이템(1400)을 표시하여 문장 아이템(1400)을 통하여 하이라이트 된 영역의 문장을 저장할 수 있다.In another embodiment, the step of displaying the highlight indicator bar 1300 may include displaying a sentence item 1400 capable of storing sentences from the first point to the second point and selecting the area highlighted through the sentence item 1400 . You can save text.

다른 실시예에서, 사용자의 제1 지점에서 제2 지점까지의 드래그 입력이 감지한 것에 응답하여 제1 지점에서 제2 지점까지의 문장을 자동으로 저장할 수 있다.In another embodiment, the sentences from the first point to the second point may be automatically stored in response to detecting the user's drag input from the first point to the second point.

도 14는 본 발명의 몇몇 실시예에서 참조되는 하이라이트 인디케이터 바가 모바일 화면에서 표시되는 것을 설명하기 위한 도면이다.14 is a diagram for explaining that a highlight indicator bar referenced in some embodiments of the present invention is displayed on a mobile screen.

도 14를 참조하면, 모바일 화면 영역(2000)에서 텍스트의 일부에 대한 하이라이트 영역(2301)을 확인할 수 있다. 도 12와 다른 점은, 모바일 화면 영역(2000)에서 하이라이트 영역(2301)은 사용자의 롱 터치 제스처 및 드래그 제스처에 의한 입력에 따라 표시되는 것이다. 모바일 화면에서 구현되는 사용자 인터페이스인 이동바 영역(2100), 이동 바(2200) 및 하이라이트 인디케이터(2300)의 인터랙션에 대한 개념은 상술한 도 12의 설명을 참조한다.Referring to FIG. 14 , a highlight area 2301 for a part of text in the mobile screen area 2000 may be checked. The difference from FIG. 12 is that the highlight area 2301 in the mobile screen area 2000 is displayed according to the user's input by a long touch gesture and a drag gesture. For the concept of interaction between the moving bar area 2100 , the moving bar 2200 , and the highlight indicator 2300 that are user interfaces implemented on the mobile screen, refer to the description of FIG. 12 described above.

지금까지 도 1 내지 도 14를 참조하여 설명된 본 발명의 개념은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The concepts of the present invention described so far with reference to FIGS. 1 to 14 may be implemented as computer-readable codes on a computer-readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). can The computer program recorded in the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although acts are shown in a particular order in the drawings, it should not be understood that the acts must be performed in the specific order or sequential order shown, or that all depicted acts must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be construed as necessarily requiring such separation, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. It should be understood that there is

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can realize that the present invention can be embodied in other specific forms without changing the technical spirit or essential features. can understand Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (13)

컴퓨팅 장치에서 타깃 컨텐츠와 연관된 정보를 제공하는 방법에 있어서,
상기 컴퓨팅 장치의 화면에 상기 타깃 컨텐츠의 제1 부분을 표시하는 단계;
상기 화면에 표시된 상기 타깃 컨텐츠를 상기 제1 부분에서 제2 부분으로 이동시키는 제1 사용자 입력을 감지하는 단계 - 상기 제2 부분은 상기 제1 부분보다 상기 타깃 컨텐츠의 마지막에 더 가까이 위치한 부분임 - ; 및
상기 제1 사용자 입력에 응답하여, 상기 제2 부분과 연관된 정보를 제공하는 제1 학습 아이템을 상기 화면의 일부 영역에 표시하는 단계를 포함하는,
컨텐츠 연관 정보를 제공하는 방법.
A method for providing information associated with target content in a computing device, the method comprising:
displaying a first portion of the target content on the screen of the computing device;
detecting a first user input for moving the target content displayed on the screen from the first part to a second part, wherein the second part is a part located closer to the end of the target content than the first part; ; and
In response to the first user input, comprising the step of displaying a first learning item providing information related to the second portion on a partial area of the screen,
How to provide content-related information.
제1 항에 있어서,
상기 제1 학습 아이템은,
상기 제2 부분의 내용과 연관된 정보의 링크를 제공하는 것인,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
The first learning item,
providing a link to information related to the content of the second part;
How to provide content-related information.
제1 항에 있어서,
상기 타깃 컨텐츠는 텍스트 컨텐츠이고,
상기 텍스트 컨텐츠의 목차 정보를 제공하는 인덱스 바를 표시하는 단계를 더 포함하되,
상기 인덱스 바의 목차 정보는 상기 제1 사용자 입력에 응답하여 상기 제1 부분의 목차 정보에서 상기 제2 부분의 목차 정보로 변경되는,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
The target content is text content,
Further comprising the step of displaying an index bar providing the table of contents information of the text content,
The table of contents information of the index bar is changed from the table of contents information of the first part to the table of contents information of the second part in response to the first user input,
How to provide content-related information.
제1 항에 있어서,
상기 제1 학습 아이템과 인접한 위치에 소정의 자료에 대한 다운로드 기능을 제공하는 다운로드 아이템을 표시하는 단계를 더 포함하되,
상기 소정의 자료는 상기 제2 부분과 연관된 정보에 대한 것인,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
Displaying a download item providing a download function for a predetermined material in a position adjacent to the first learning item,
wherein the predetermined material is for information associated with the second part;
How to provide content-related information.
제1 항에 있어서,
상기 화면에 표시된 상기 타깃 컨텐츠를 상기 제2 부분에서 상기 제1 부분으로 이동시키는 제2 사용자 입력을 감지하는 단계; 및
상기 제2 사용자 입력에 응답하여, 상기 타깃 컨텐츠에 대한 빠른 이동 기능을 제공하는 호버 컨트롤을 표시하는 단계를 더 포함하는,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
detecting a second user input for moving the target content displayed on the screen from the second part to the first part; and
In response to the second user input, further comprising the step of displaying a hover control that provides a fast movement function to the target content,
How to provide content-related information.
제5 항에 있어서,
상기 제2 사용자 입력에 응답하여, 상기 호버 컨트롤과 인접한 위치에 레퍼런스 인디케이터를 표시하는 단계를 더 포함하되,
상기 레퍼런스 인디케이터는 상기 화면에 표시된 상기 제2 부분의 내용 중에 다른 사용자에 의해 하이라이트된 내용에 대한 표시 기능을 제공하는,
컨텐츠 연관 정보를 제공하는 방법.
6. The method of claim 5,
In response to the second user input, further comprising the step of displaying a reference indicator at a position adjacent to the hover control,
The reference indicator provides a display function for content highlighted by another user among the content of the second part displayed on the screen,
How to provide content-related information.
제1 항에 있어서,
상기 타깃 컨텐츠의 제1 부분을 표시하는 단계는,
상기 타깃 컨텐츠의 제1 부분과 연관된 정보를 제공하는 제2 학습 아이템을 표시하는 단계를 포함하고,
상기 화면에 표시된 상기 타깃 컨텐츠를 상기 제2 부분에서 상기 제1 부분으로 다시 이동시키는 제2 사용자 입력을 감지하는 단계; 및
상기 제2 사용자 입력에 따른 이동 속도가 기준치 이하인 경우에 한하여 상기 제1 부분과 연관된 정보를 제공하는 제3 학습 아이템을 표시하는 단계를 포함하되,
상기 제3 학습 아이템에 의해 제공되는 정보는 상기 제2 학습 아이템에 의해 제공되는 정보와 다른 것이고,
상기 제2 사용자 입력에 따른 이동 속도가 상기 기준치를 초과한 경우에는 상기 제3 학습 아이템은 표시되지 않는,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
Displaying the first part of the target content comprises:
displaying a second learning item providing information associated with the first portion of the target content;
detecting a second user input for moving the target content displayed on the screen from the second part back to the first part; and
Displaying a third learning item providing information related to the first part only when the moving speed according to the second user input is less than or equal to a reference value;
the information provided by the third learning item is different from the information provided by the second learning item,
When the moving speed according to the second user input exceeds the reference value, the third learning item is not displayed,
How to provide content-related information.
제1 항에 있어서,
상기 타깃 컨텐츠는 텍스트 컨텐츠이고,
상기 화면에 표시된 상기 제2 부분의 텍스트에 대한 드래그 입력을 감지하는 단계; 및
상기 드래그 입력에 응답하여, 상기 제2 부분의 텍스트에서 드래그된 구간을 가리키는 하이라이트 인디케이터를 표시하는 단계를 더 포함하는,
컨텐츠 연관 정보를 제공하는 방법.
The method of claim 1,
The target content is text content,
detecting a drag input for the text of the second part displayed on the screen; and
In response to the drag input, further comprising the step of displaying a highlight indicator indicating the dragged section in the text of the second portion,
How to provide content-related information.
제8 항에 있어서,
상기 하이라이트 인디케이터는,
상기 드래그된 구간의 길이 정보를 제공하는,
컨텐츠 연관 정보를 제공하는 방법.
9. The method of claim 8,
The highlight indicator is
providing length information of the dragged section,
How to provide content-related information.
제9 항에 있어서,
상기 드래그된 구간의 길이 정보는 상기 화면에 표시되는 상기 하이라이트 인디케이터의 길이를 통해 제공되고,
상기 하이라이트 인디케이터의 길이는 상기 드래그된 구간의 길이가 달라짐에 따라 자동으로 변경되는,
컨텐츠 연관 정보를 제공하는 방법.
10. The method of claim 9,
The length information of the dragged section is provided through the length of the highlight indicator displayed on the screen,
The length of the highlight indicator is automatically changed as the length of the dragged section is changed,
How to provide content-related information.
제8 항에 있어서,
상기 드래그 입력에 응답하여, 상기 드래그된 구간의 텍스트에 대한 저장 기능을 제공하는 문장 아이템을 표시하는 단계를 더 포함하는,
컨텐츠 연관 정보를 제공하는 방법.
9. The method of claim 8,
In response to the drag input, further comprising the step of displaying a sentence item providing a storage function for the text of the dragged section,
How to provide content-related information.
컴퓨팅 장치와 결합하여,
상기 컴퓨팅 장치의 화면에 타깃 컨텐츠의 제1 부분을 표시하는 단계;
상기 화면에 표시된 상기 타깃 컨텐츠를 상기 제1 부분에서 제2 부분으로 이동시키는 제1 사용자 입력을 감지하는 단계 - 상기 제2 부분은 상기 제1 부분보다 상기 타깃 컨텐츠의 마지막에 가까운 부분임 - ; 및
상기 제1 사용자 입력에 응답하여, 상기 제2 부분과 연관된 정보를 제공하는 제1 학습 아이템을 상기 화면의 일부 영역에 표시하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된,
컴퓨터 프로그램.
In combination with a computing device,
displaying a first portion of the target content on the screen of the computing device;
detecting a first user input for moving the target content displayed on the screen from the first part to a second part, wherein the second part is a part closer to the end of the target content than the first part; and
in response to the first user input, stored in a computer-readable recording medium to execute the step of displaying a first learning item providing information related to the second portion on a partial area of the screen,
computer program.
제12 항에 있어서,
상기 타깃 컨텐츠는 텍스트 컨텐츠이고,
상기 화면에 표시된 상기 제2 부분의 텍스트에 대한 드래그 입력을 감지하는 단계; 및
상기 드래그 입력에 응답하여, 상기 제2 부분의 텍스트에서 드래그된 구간을 가리키는 하이라이트 인디케이터를 표시하는 단계를 더 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된,
컴퓨터 프로그램.
13. The method of claim 12,
The target content is text content,
detecting a drag input for the text of the second part displayed on the screen; and
In response to the drag input, stored in a computer-readable recording medium to further execute the step of displaying a highlight indicator indicating the dragged section in the text of the second part,
computer program.
KR1020180061824A 2018-05-30 2018-05-30 Method for providing of information related to content based on user behavior KR102466219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180061824A KR102466219B1 (en) 2018-05-30 2018-05-30 Method for providing of information related to content based on user behavior

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180061824A KR102466219B1 (en) 2018-05-30 2018-05-30 Method for providing of information related to content based on user behavior

Publications (2)

Publication Number Publication Date
KR20190136301A KR20190136301A (en) 2019-12-10
KR102466219B1 true KR102466219B1 (en) 2022-11-10

Family

ID=69002721

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180061824A KR102466219B1 (en) 2018-05-30 2018-05-30 Method for providing of information related to content based on user behavior

Country Status (1)

Country Link
KR (1) KR102466219B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101416967B1 (en) * 2012-10-12 2014-07-08 한국과학기기공업협동조합 3d learning system for scientific education
KR20160127590A (en) 2015-04-27 2016-11-04 김태연 User interface device for representing information correlated

Also Published As

Publication number Publication date
KR20190136301A (en) 2019-12-10

Similar Documents

Publication Publication Date Title
EP3144794B1 (en) Mobile terminal and control method for the mobile terminal
KR102016975B1 (en) Display apparatus and method for controlling thereof
CN105683894B (en) Application execution method of display device and display device thereof
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
CN102272697B (en) For selecting calculation element and the method for viewing area in response to discrete orientation input action and intelligent content analysis
CN106155517B (en) Mobile terminal and control method thereof
KR101911804B1 (en) Method and apparatus for providing function of searching in a touch-based device
KR102158098B1 (en) Method and apparatus for image layout using image recognition
EP3232307A1 (en) Method and mobile device for providing recommended items based on context awareness
US20140143725A1 (en) Screen display method in mobile terminal and mobile terminal using the method
US20110087983A1 (en) Mobile communication terminal having touch interface and touch interface method
KR101990567B1 (en) Mobile apparatus coupled with external input device and control method thereof
US20130167090A1 (en) Device, method, and storage medium storing program
CN103999028A (en) Invisible control
US20140055398A1 (en) Touch sensitive device and method of touch-based manipulation for contents
CN103777892A (en) Display apparatus and method for inputting characters thereof
KR20140143556A (en) Portable terminal and method for user interface in the portable terminal
KR20140073378A (en) Display apparatus and method for controlling thereof
KR20150021722A (en) Method, apparatus and recovering medium for screen display by executing scroll
US10055092B2 (en) Electronic device and method of displaying object
KR20130126428A (en) Apparatus for processing multiple applications and method thereof
KR20150025450A (en) Method, apparatus and recovering medium for clipping of contents
KR20140027838A (en) A mobile apparatus having a function of hand writing using multi-touch and a control method thereof
KR102117048B1 (en) Method and device for executing a plurality of applications
US20200210034A1 (en) Electronic device and method of processing information in electronic device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant