KR20190013390A - Electronic device and method for providing search result thereof - Google Patents

Electronic device and method for providing search result thereof Download PDF

Info

Publication number
KR20190013390A
KR20190013390A KR1020170136888A KR20170136888A KR20190013390A KR 20190013390 A KR20190013390 A KR 20190013390A KR 1020170136888 A KR1020170136888 A KR 1020170136888A KR 20170136888 A KR20170136888 A KR 20170136888A KR 20190013390 A KR20190013390 A KR 20190013390A
Authority
KR
South Korea
Prior art keywords
information
electronic device
user
recognition
region
Prior art date
Application number
KR1020170136888A
Other languages
Korean (ko)
Other versions
KR102586170B1 (en
Inventor
최윤희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201880048421.8A priority Critical patent/CN110998507B/en
Priority to PCT/KR2018/008712 priority patent/WO2019027240A1/en
Priority to EP18186561.9A priority patent/EP3438853A1/en
Priority to AU2018310111A priority patent/AU2018310111B2/en
Priority to EP19191178.3A priority patent/EP3584717A1/en
Priority to US16/052,100 priority patent/US10956007B2/en
Publication of KR20190013390A publication Critical patent/KR20190013390A/en
Application granted granted Critical
Publication of KR102586170B1 publication Critical patent/KR102586170B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

According to various embodiments of the present document, the present invention relates to a method for providing a search result of an electronic device and an electronic device for the method. The method for providing a search result of an electronic device comprises: an operation of displaying a screen which includes an object; an operation of sensing a user input of selecting the object; an operation of generating a captured image by capturing the screen which includes the object in response to the user input; an operation of transmitting at least a part of the captured image to an external apparatus; an operation of receiving a search result, which is obtained based on object information corresponding to the object and additional information related to the object from the external apparatus; and an operation of displaying the search result.

Description

전자 장치 및 이의 검색 결과 제공 방법{ELECTRONIC DEVICE AND METHOD FOR PROVIDING SEARCH RESULT THEREOF}ELECTRONIC DEVICE AND METHOD FOR PROVIDING SEARCH RESULT THEREOF

본 문서는 검색 결과를 제공하는 전자 장치 및 검색 결과를 제공하는 방법에 관한 것이다.This document relates to an electronic device providing search results and a method for providing search results.

특히, 본 문서는 전자 장치의 화면에 포함된 객체와 연관된 검색 결과를 제공하는 방법에 관한 것이다.In particular, this document relates to a method of providing search results associated with objects contained in a screen of an electronic device.

또한, 본 문서는 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 인공 지능(Artificial Intelligence, AI) 시스템 및 그 응용에 관한 것이다.This document also relates to an artificial intelligence (AI) system that simulates the functions of the human brain using cognitive learning algorithms, and its applications.

전자 장치의 통신 기술 및 사용자 인터페이스가 발전함에 따라, 사용자는 장소 및 시간에 제약 없이 필요한 정보를 쉽게 전자 장치를 통하여 제공 받을 수 있다.As the communication technology and the user interface of the electronic device evolve, the user can easily receive necessary information through the electronic device without restriction of the place and time.

전자 장치가 객체를 포함하는 화면을 제공하는 경우, 사용자는 제공된 객체와 관련된 연관 정보를 검색하기를 원할 수 있다.When an electronic device provides a screen containing an object, the user may want to retrieve associated information associated with the provided object.

이를 위해, 사용자는 객체를 별도로 저장하고, 저장된 객체를 키워드로 하여 영상 검색을 수행하거나 또는 객체에 관한 텍스트를 직접 입력하여 텍스트 검색을 수행할 수 있다.To do this, the user may separately store an object, perform an image search using the stored object as a keyword, or perform a text search by directly inputting text related to the object.

또한, 근래에는 인간 수준의 지능을 구현하는 인공 지능 시스템이 다양한 분야에서 이용되고 있다. 인공 지능 시스템은 기존의 룰(rule) 기반 스마트 시스템과 달리 기계가 스스로 학습하고 판단하며 똑똑해지는 시스템이다. 인공 지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 룰 기반 스마트 시스템은 점차 딥러닝 기반 인공 지능 시스템으로 대체되고 있다.In recent years, artificial intelligence systems that implement human-level intelligence have been used in various fields. Artificial intelligence system is a system that the machine learns, judges, and becomes smarter, unlike the existing rule-based smart system. Artificial intelligence systems are becoming more and more recognizable as users use them, and existing rule-based smart systems are increasingly being replaced by deep-run-based artificial intelligence systems.

인공 지능 기술은 기계학습(예로, 딥러닝) 및 기계학습을 활용한 요소 기술들로 구성된다.Artificial intelligence technology consists of elemental technologies that utilize machine learning (eg, deep learning) and machine learning.

기계학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 딥러닝 등의 기계학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Machine learning is an algorithm technology that classifies / learns the characteristics of input data by itself. Element technology is a technology that simulates functions such as recognition and judgment of human brain using machine learning algorithms such as deep learning. Understanding, reasoning / prediction, knowledge representation, and motion control.

인공 지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields in which artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing, applying, and processing human language / characters, including natural language processing, machine translation, dialogue system, query response, speech recognition / synthesis, and the like. Visual understanding is a technology for recognizing and processing objects as human vision, including object recognition, object tracking, image search, human recognition, scene understanding, spatial understanding, and image enhancement. Inference prediction is a technique for judging and logically inferring and predicting information, including knowledge / probability based reasoning, optimization prediction, preference base planning, and recommendation. Knowledge representation is a technology for automating human experience information into knowledge data, including knowledge building (data generation / classification) and knowledge management (data utilization). The motion control is a technique for controlling the autonomous travel of the vehicle and the motion of the robot, and includes motion control (navigation, collision, traveling), operation control (behavior control), and the like.

종래에는 사용자가 화면에 포함된 객체와 관련된 연관 정보를 검색하기 위하여, 여러 단계를 거쳐야 하는 불편함이 있었다. 특히, 전자 장치가 영상 검색을 지원하지 않는 경우, 사용자는 객체에 관한 텍스트를 직접 입력해야만 했다. 또한, 객체와 관련된 연관 정보가 다양한 분야에서 검색되는 경우, 사용자가 검색 결과에 기초하여 다시 재검색을 수행해야 하는 불편함이 빈번하게 발생하였다.Conventionally, there has been an inconvenience that a user has to go through various steps in order to retrieve association information related to an object included in a screen. In particular, if the electronic device does not support image retrieval, the user had to manually enter text about the object. In addition, when association information related to an object is searched in various fields, a user often inconveniences to perform a search again based on the search result.

본 개시의 일 실시예에 따른, 전자 장치의 검색 결과 제공 방법은, 애플리케이션 실행 화면을 표시하는 동작; 상기 애플리케이션 실행 화면을 표시하는 동안 사용자 입력을 수신하는 동작; 상기 사용자 입력에 따라, 상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작; 및 상기 생성된 이미지 상의 상기 사용자 입력에 대응하는 제1 영역에 대한 제1 정보 및 상기 생성된 이미지 상의 상기 제1 영역과 다른 제2 영역에 대한 제2 정보를 이용하여 수행된 검색 결과를 표시하는 동작을 포함하고, 상기 제1 정보 및 상기 제2 정보는 학습된 모델에 의해 획득될 수 있다.According to an embodiment of the present disclosure, an electronic device search result providing method includes: displaying an application execution screen; Receiving a user input while displaying the application execution screen; Capturing the application execution screen according to the user input to generate an image; And displaying a search result performed using first information on a first region corresponding to the user input on the generated image and second information on a second region different from the first region on the generated image And the first information and the second information may be obtained by a learned model.

그리고, 상기 제1 영역은, 상기 사용자의 입력에 대응하는 터치 좌표에 기반하여, 상기 생성된 이미지로부터 획득될 수 있다.The first region may be obtained from the generated image based on the touch coordinates corresponding to the input of the user.

또한, 상기 방법은, 상기 생성된 이미지를 상기 애플리케이션 실행 화면을 대신하여 표시하는 동작을 더 포함할 수 있다.The method may further include displaying the generated image in place of the application execution screen.

그리고, 상기 방법은, 인공지능 에이전트의 실행에 의해 수행될 수 있다.And, the above method can be performed by execution of an artificial intelligence agent.

또한, 상기 제1 정보는, 상기 생성된 이미지의 상기 제1 영역을 인식하여 획득된 정보일 수 있다.The first information may be information obtained by recognizing the first area of the generated image.

그리고, 상기 제2 정보는, 상기 생성된 이미지의 상기 제2 영역을 인식하여 획득된 정보일 수 있다.The second information may be information obtained by recognizing the second area of the generated image.

또한, 상기 사용자 입력은, 상기 애플리케이션 실행 화면에 대한 입력일 수 있다.Also, the user input may be an input to the application execution screen.

그리고, 상기 방법은, 상기 검색 결과의 표시에 따른 사용자 피드백을 외부 장치로 전송하는 동작을 더 포함할 수 있다.The method may further include transmitting user feedback based on the search result to an external device.

또한, 상기 생성된 이미지의 적어도 일부를 외부 검색 서버로 전송하는 동작; 및 상기 검색 결과를 상기 외부 검색 서버로부터 수신하는 동작을 더 포함할 수 있다.Transmitting at least a portion of the generated image to an external search server; And receiving the search result from the external search server.

상기 검색 결과를 표시하는 동작은, 상기 애플리케이션 실행 화면이 표시되는 동안 상기 검색 결과가 표시되는 동작일 수 있다.The operation of displaying the search result may be an operation of displaying the search result while the application execution screen is displayed.

본 개시의 일 실시예에 따른, 전자 장치는, 디스플레이; 사용자 입력부; 통신부; 상기 디스플레이, 상기 사용자 입력부 및 상기 통신부와 전기적으로 연결된 프로세서; 및 상기 프로세서에 의해 실행되는 하나 이상의 컴퓨터 프로그램을 저장하는 메모리를 포함하며, 상기 하나 이상의 컴퓨터 프로그램은, 상기 디스플레이를 통해 애플리케이션 실행 화면을 표시하는 동작; 상기 애플리케이션 실행 화면을 표시하는 동안 사용자 입력을 수신하는 경우, 상기 사용자 입력에 따라, 상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작; 및 상기 생성된 이미지 상의 상기 사용자 입력에 대응하는 제1 영역에 대한 제1 정보 및 상기 생성된 이미지 상의 상기 제1 영역과 다른 제2 영역에 대한 제2 정보를 이용하여 수행된 검색 결과를 표시하는 동작;을 포함한다.According to one embodiment of the present disclosure, an electronic device comprises: a display; A user input section; A communication unit; A processor electrically connected to the display, the user input and the communication unit; And a memory for storing one or more computer programs executed by the processor, wherein the one or more computer programs are operable to: display an application execution screen via the display; When receiving a user input while displaying the application execution screen, generating an image by capturing the application execution screen according to the user input; And displaying a search result performed using first information on a first region corresponding to the user input on the generated image and second information on a second region different from the first region on the generated image Operation.

그리고, 상기 제1 영역은, 상기 사용자의 입력에 대응하는 터치 좌표에 기반하여, 상기 생성된 이미지로부터 획득될 수 있다.The first region may be obtained from the generated image based on the touch coordinates corresponding to the input of the user.

또한, 상기 하나 이상의 컴퓨터 프로그램은, 상기 생성된 이미지를 상기 애플리케이션 실행 화면을 대신하여 표시하는 동작을 더 포함할 수 있다.The one or more computer programs may further include an operation of displaying the generated image in place of the application execution screen.

그리고, 상기 하나 이상의 컴퓨터 프로그램은, 인공지능 에이전트의 실행에 의해 수행될 수 있다.And, the one or more computer programs can be executed by execution of an artificial intelligence agent.

또한, 상기 제1 정보는, 상기 생성된 이미지의 상기 제1 영역을 인식하여 획득된 정보일 수 있다.The first information may be information obtained by recognizing the first area of the generated image.

그리고, 상기 제2 정보는, 상기 생성된 이미지의 상기 제2 영역을 인식하여 획득된 정보일 수 있다.The second information may be information obtained by recognizing the second area of the generated image.

또한, 상기 사용자 입력은, 상기 애플리케이션 실행 화면에 대한 입력일 수 있다.Also, the user input may be an input to the application execution screen.

그리고, 상기 하나 이상의 컴퓨터 프로그램은, 상기 검색 결과의 표시에 따른 사용자 피드백을 외부 장치로 전송하는 동작을 더 포함할 수 있다.The one or more computer programs may further include an operation of transmitting user feedback according to the display of the search result to an external device.

또한, 상기 검색 결과를 표시하는 동작은, 상기 애플리케이션 실행 화면이 표시되는 동안 상기 검색 결과가 표시되는 동작일 수 있다.In addition, the operation of displaying the search result may be an operation of displaying the search result while the application execution screen is displayed.

한편, 본 개시의 일 실시예에 따른, 전자 장치의 학습된 모델을 이용한 정보 획득 방법은, 애플리케이션 실행 화면을 표시하는 동작; 상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작; 상기 생성된 이미지를 입력 데이터로 사용하는 학습된 제1 모델을 통해, 상기 생성된 이미지 상의 제1 영역에 대한 제1 정보를 획득하는 동작; 및 상기 획득된 제1 정보 및 상기 생성된 이미지를 입력 데이터 사용하는 학습된 제2 모델을 통해, 상기 생성된 이미지 상의 제1 영역과 다른 제2 영역에 대한 제2 정보를 획득하는 동작;을 포함할 수 있다.Meanwhile, a method of acquiring information using a learned model of an electronic device, according to an embodiment of the present disclosure, includes: displaying an application execution screen; Capturing the application execution screen to generate an image; Acquiring first information on a first region on the generated image through a learned first model using the generated image as input data; And acquiring second information on a second region different from the first region on the generated image through the learned second model using the acquired first information and the generated image as input data can do.

본 문서에 따르면, 사용자는 화면에 포함된 객체와 연관된 검색 결과를 쉽게 검색할 수 있다.According to this document, the user can easily search the search results associated with the objects contained in the screen.

또한, 객체의 선택에 기반하여 획득된 컨텍스트 정보를 이용하여 검색 결과를 제공함으로써, 사용자의 검색 의도가 잘 반영된 사용자 맞춤형 검색 결과가 제공될 수 있다.In addition, a user-customized search result that reflects the user's search intention can be provided by providing the search result using the context information acquired based on the selection of the object.

이에 따라, 사용자의 검색 단계 및 재검색 횟수가 줄어들어 전자 장치를 사용하는 사용자의 만족도 및 편의성이 향상될 수 있다.Accordingly, the number of retrieval steps and the number of times of re-searching the user are reduced, thereby improving the satisfaction and convenience of the user using the electronic device.

도 1은, 다양한 실시예에 따른 검색 결과를 제공하는 전자 장치의 사용도를 나타낸다.
도 2는, 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 시스템의 블록도들을 나타낸다.
도 3 내지 도 5는, 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 시스템의 흐름도를 나타낸다.
도 6은, 다양한 일 실시예에 따른 객체와 연관된 검색 결과를 제공하는 과정을 도식화한 도면이다.
도 7은 다양한 실시예에 따른 주변 정보를 이용하여 객체와 연관된 검색 결과를 제공하는 도면이다.
도 8은 다양한 실시예에 따른 객체를 선택하는 전자 장치의 사용도들을 나타낸다.
도 9a 및 도 9b는, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.
도 10은, 다양한 실시예에 따른 객체와 연관된 검색 결과를 검색 중인 것을 나타내는 도면이다.
도 11은, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.
도 12는, 다양한 실시예에 따른 촬영 정보를 이용하여 객체와 연관된 검색 결과를 제공하는 도면이다.
도 13 내지 도 16c는, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.
도 17은, 다양한 실시예에 따른 전자 장치 및 외부 장치가 연동하여 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
도 18은, 다양한 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 19a 및 도 19b는, 다양한 실시예에 따른 학습부 및 인식부를 나타내는 블록도이다.
도 20은, 다양한 실시예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
도 21은, 다양한 실시예에 따른 인식 모델을 이용하는 전자 장치의 흐름도이다.
도 22 내지 도 25는, 다양한 실시예에 따른 인식 모델을 이용하는 네트워크 시스템의 흐름도이다.
도 26 및 도 27은, 다양한 실시예에 따른, 인식 모델을 이용하는 전자 장치의 흐름도이다.
도 28 및 도 29는, 다양한 실시예에 따른 인식 모델을 이용하는 시스템의 흐름도이다.
1 shows a use diagram of an electronic device providing search results according to various embodiments.
Figure 2 shows block diagrams of a network system including an electronic device, in accordance with various embodiments.
Figures 3-5 illustrate a flow diagram of a network system including an electronic device according to various embodiments.
FIG. 6 is a diagram illustrating a process of providing search results associated with objects according to various embodiments.
Figure 7 is a diagram that provides search results associated with an object using perimeter information according to various embodiments.
Figure 8 shows use diagrams of an electronic device for selecting objects according to various embodiments.
9A and 9B are diagrams that provide search results associated with objects in accordance with various embodiments.
Figure 10 is a diagram showing searching for search results associated with objects according to various embodiments.
11 is a diagram that provides search results associated with objects in accordance with various embodiments.
12 is a diagram for providing search results associated with an object using photographing information according to various embodiments.
Figures 13 to 16C are diagrams that provide search results associated with objects in accordance with various embodiments.
Fig. 17 is a diagram showing an example in which an electronic device and an external device according to various embodiments cooperate to learn and recognize data.
18 is a block diagram showing a configuration of an electronic device according to various embodiments.
19A and 19B are block diagrams showing a learning unit and a recognition unit according to various embodiments.
20 is a flowchart for explaining a control method of an electronic device according to various embodiments.
21 is a flow diagram of an electronic device using a recognition model according to various embodiments.
22 to 25 are flowcharts of a network system using a recognition model according to various embodiments.
26 and 27 are flow diagrams of an electronic device using a recognition model, in accordance with various embodiments.
28 and 29 are flowcharts of a system using a recognition model according to various embodiments.

이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. It should be understood, however, that this invention is not intended to be limited to the particular embodiments described herein but includes various modifications, equivalents, and / or alternatives of the embodiments of this document . In connection with the description of the drawings, like reference numerals may be used for similar components.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다. In this document, the expressions "having," " having, "" comprising," or &Quot;, and does not exclude the presence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A or / and B," or "one or more of A and / or B," etc. may include all possible combinations of the listed items . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) Or (3) at least one A and at least one B all together.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. As used herein, the terms "first," "second," "first," or "second," and the like may denote various components, regardless of their order and / or importance, But is used to distinguish it from other components and does not limit the components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.(Or functionally or communicatively) coupled with / to "another component (eg, a second component), or a component (eg, a second component) Quot; connected to ", it is to be understood that any such element may be directly connected to the other element or may be connected through another element (e.g., a third element). On the other hand, when it is mentioned that a component (e.g., a first component) is "directly connected" or "directly connected" to another component (e.g., a second component) It can be understood that there is no other component (e.g., a third component) between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 부프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. As used herein, the phrase " configured to " (or set) to be "configured according to circumstances may include, for example, having the capacity to, To be designed to, "" adapted to, "" made to, "or" capable of ". The term " configured to (or set up) "may not necessarily mean" specifically designed to "in hardware. Instead, in some situations, the expression "configured to" may mean that the device can "do " with other devices or components. For example, a subprocessor configured to (or configured to) execute the phrases "A, B, and C" may be implemented as a processor dedicated to performing the operation (e.g., an embedded processor), or one or more software programs To a generic-purpose processor (e.g., a CPU or an application processor) that can perform the corresponding operations.

본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices in accordance with various embodiments of the present document may be used in various applications such as, for example, smart phones, tablet PCs, mobile phones, videophones, electronic book readers, desktop PCs, laptop PCs, netbook computers, workstations, a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be of the type of accessories (eg, watches, rings, bracelets, braces, necklaces, glasses, contact lenses or head-mounted-devices (HMD) (E.g., a skin pad or tattoo), or a bio-implantable circuit. In some embodiments, the electronic device may be, for example, a television, a digital video disk (Eg Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game consoles, home appliances, air conditioners, air conditioners, refrigerators, air conditioners, vacuum cleaners, ovens, microwave ovens, washing machines, air purifiers, set top boxes, home automation control panels, (E.g., Xbox (TM), PlayStation (TM)), an electronic dictionary, an electronic key, a camcorder, or an electronic photo frame.

다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) A navigation system, a global navigation satellite system (GNSS), an event data recorder (EDR), a flight data recorder (FDR), an automobile infotainment device, a marine electronic equipment (For example, marine navigation systems, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or domestic robots, drones, ATMs at financial institutions, of at least one of the following types of devices: a light bulb, a fire detector, a fire alarm, a thermostat, a streetlight, a toaster, a fitness device, a hot water tank, a heater, a boiler, .

본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this document, the term user may refer to a person using an electronic device or a device using an electronic device (e.g., an artificial intelligence electronic device).

도 1은, 다양한 실시예에 따른 검색 결과를 제공하는 전자 장치의 사용도를 나타낸다.1 shows a use diagram of an electronic device providing search results according to various embodiments.

먼저, 도 1의 (a)와 같이, 전자 장치(A)는 객체(111)(예로, 건축물)를 포함하는 화면을 표시할 수 있다. 객체는, 예로, 콘텐트(110)에 포함된 복수의 객체들 중 일 객체가 될 수 있다. 이 경우, 전자 장치(A)의 사용자(U)가 객체(111)와 관련된 정보를 추가적으로 알고 싶은 상황이 발생할 수 있다. 예로, 사용자(U)는 객체(111)인 건물의 이름 또는 용도를 알고 싶을 수 있다. 또한, 객체(111)를 포함하는 화면은 애플리케이션의 실행 화면일 수 있다.First, as shown in FIG. 1 (a), the electronic device A can display a screen including an object 111 (for example, a building). The object may be, for example, one object among a plurality of objects included in the content 110. In this case, a situation may arise where the user U of the electronic device A wants to additionally know information related to the object 111. [ For example, the user U may want to know the name or use of the building, which is the object 111. [ In addition, the screen including the object 111 may be an execution screen of the application.

이에, 도 1의 (b)와 같이, 사용자(U)는 객체(111)를 선택할 수 있다. 예로, 사용자(U)는 객체(111)가 표시된 디스플레이 영역의 일 지점을 롱 프레스(long press)할 수 있다. 또는, 사용자(U)는 객체(111)를 선택하기 위하여, 손가락 또는 전자펜 등을 이용하여 객체를 멀티 터치하거나, 강하게 터치하거나, 객체(111)의 주변을 드로잉하거나, 객체의 적어도 일부를 경유하도록 대각선으로 드래그할 수 있다. 또는, 사용자(U)는 전자 장치(A)에 구비된 버튼(예를 들어, 인공지능 기능을 실행하기 위한 버튼)을 누른 후(또는, 누르는 동안에), 객체(111)를 터치할 수 있다. 또는, 사용자는 사전에 정의한 액션을 이용하여 객체(111)를 선택할 수도 있다. 이에 대한 구체적인 예들은 이하 다양한 실시예들을 통하여 후술될 예정이다.1 (b), the user U can select the object 111. In this case, For example, the user U may long press one point of the display area where the object 111 is displayed. Alternatively, the user U may multi-touch or strongly touch an object using a finger or an electronic pen to select the object 111, draw the periphery of the object 111, You can drag it diagonally. Alternatively, the user U may touch the object 111 after pressing (or pressing) a button provided on the electronic device A (e.g., a button for executing an artificial intelligence function). Alternatively, the user may select the object 111 using a predefined action. Specific examples thereof will be described below through various embodiments.

전자 장치(A)는 일 지점을 선택하는 사용자 입력을 감지할 수 있다. 사용자 입력에 응답하여, 전자 장치(A)는 객체(111)를 포함하는 화면을 캡쳐(capture)하여 캡쳐 이미지를 생성할 수 있다. 캡쳐 이미지는, 예로, 전자 장치(A)의 메모리에 저장될 수 있다.The electronic device A may sense a user input that selects a point. In response to the user input, the electronic device A may capture a screen including the object 111 to generate a captured image. The captured image may be stored, for example, in the memory of electronic device A. [

이 때, 전자 장치(A)는 생성된 캡쳐 이미지를 객체(111)를 포함하는 화면 대신에 표시할 수도 있다.At this time, the electronic device A may display the generated captured image instead of the screen including the object 111. [

다음으로, 전자 장치(A)는 사용자 입력에 대응하는 터치 좌표에 기반하여 캡쳐 이미지에서 객체(111)와 관련된 객체 영역(또는, 제1 영역)을 검출할 수 있다. 이 때, 검출된 객체 영역은 하이라이트되어 표시되거나 또는 팝업 화면으로 표시될 수도 있다. 여기서, 하이라이트되어 표시된다는 것은, 선택된 객체 영역이 다른 영역과 구별되도록 표시되는 것을 의미할 수 있다. 예로, 하이라이트되어 표시된다는 것은, 예로, 다른 음영, 다른 명암 또는 보색을 갖도록 표시되거나, 객체 영역의 경계를 점선 또는 실선 등으로 구분하여 표시하거나, 객체 영역을 지시하는 인디케이터를 표시하는 것 등을 포함할 수 있다. 객체 영역이 하이라이트되는 구체적인 예들은 이하 다양한 실시예를 통하여 후술될 예정이다.Next, the electronic device A can detect an object region (or a first region) associated with the object 111 in the captured image based on the touch coordinates corresponding to the user input. At this time, the detected object area may be highlighted or displayed as a pop-up screen. Here, highlighted display may mean that the selected object area is displayed to be distinguished from other areas. For example, highlighting and displaying may include display of different shades, different contrasts, or complementary colors, or displaying the boundary of the object area in a dotted or solid line, or displaying an indicator indicating the object area, and the like can do. Specific examples in which the object region is highlighted will be described below through various embodiments.

다음으로,전자 장치(A)는 검출된 객체 영역을 바탕으로 객체 영역에 포함된 객체에 대한 정보(또는, 제1 정보)를 획득할 수 있으며, 캡쳐된 이미지 중 객체 영역을 주변의 주변 영역(또는 제2 영역)을 바탕으로 객체에 대한 컨텍스트 정보(또는 제2 정보)를 획득할 수 있다. 이때, 전자 장치(A)는 학습된 모델을 통해 객체에 대한 정보 및 컨텍스트 정보를 획득할 수 있다. 이에 대해서는 상세히 후술하도록 한다.Next, the electronic device A can acquire information (or first information) about the object included in the object area based on the detected object area, and acquires the object area of the captured image from the surrounding area (Or second information) about the object on the basis of the first area and the second area. At this time, the electronic device A can acquire information on the object and context information through the learned model. This will be described later in detail.

전자 장치(A)는 객체(111)에 대한 정보 및 객체(111)의 선택에 따라 획득된 컨텍스트 정보(121)를 이용하여, 객체(111)와 연관된 검색 결과를 획득할 수 있다.The electronic device A can obtain the search result associated with the object 111 using the information about the object 111 and the context information 121 obtained according to the selection of the object 111. [

이 때, 컨텍스트 정보는 객체의 선택에 따라 획득된 정보로서, 사용자가 객체(111)를 선택하는 시점에 객체(111)를 포함하는 화면에서 객체의 주변 영역에 대한 주변 정보를 포함할 수 있다. 객체(111)의 주변 정보는 선택된 객체에 근접하게 위치하는 다른 객체(예로, 텍스트 또는 이미지)가 될 수도 있고, 또는, 객체(111)를 포함하는 전체 문서 중 현재 디스플레이로 보여지는 문서에 포함된 일부 텍스트가 될 수도 있다.At this time, the context information may be information acquired according to the selection of the object, and may include surrounding information about the peripheral region of the object on the screen including the object 111 at the time when the user selects the object 111. [ The peripheral information of the object 111 may be another object (for example, text or image) located close to the selected object, or may be an object included in the document displayed as the current display among the entire document including the object 111 It may be some text.

다른 예로, 사용자에 의해 선택된 객체(111)를 포함하는 화면이 하나의 이미지인 경우, 객체(111)의 선택에 따라 획득된 주변 정보는 이미지 분석을 통해 획득된 이미지가 촬영된 것으로 추정되는 위치 정보 또는 시간 정보, 이미지 중 선택된 객체 외의 다른 객체에 대한 정보 또는 다른 객체에 대한 추가 정보 등이 포함될 수 있다. As another example, if the screen including the object 111 selected by the user is one image, the peripheral information acquired according to the selection of the object 111 may include positional information Or time information, information about other objects than the selected one of the images, or additional information about other objects, and the like.

또는, 컨텍스트 정보는 사용자가 객체(111)를 선택 시에, 전자 장치(A)에 구비된 카메라로 촬영된 촬영 정보를 포함할 수 있다. 여기서, "사용자가 객체(111)를 선택 시"라는 것은, 사용자가 객체(111)를 선택한 시점이 될 수도 있고, 객체(111)를 선택하고 일정 시간(예로, 1초 내지 10초) 이내가 될 수도 있다.Alternatively, when the user selects the object 111, the context information may include shooting information shot by a camera provided in the electronic device A. [ Here, "When the user selects the object 111" means that the user may select the object 111, or may select the object 111 within a predetermined time (for example, 1 to 10 seconds) .

한편, 전자 장치(A)는 컨텍스트 정보뿐만 아니라, 사용자(1)의 전자 장치(A)의 사용 이력 정보를 이용하여 객체(111)와 연관된 검색 결과를 획득할 수 있다. 또는, 전자 장치(A)는 전자 장치(A)의 사용자의 프로파일을 이용하여 객체(111)와 연관된 검색 결과를 획득할 수도 있다.On the other hand, the electronic device A can acquire the search result associated with the object 111 by using the context information as well as the use history information of the electronic device A of the user 1. Alternatively, the electronic device A may obtain a search result associated with the object 111 using the profile of the user of the electronic device A. [

도 1의 (c)에서, 전자 장치(A)는 획득된 객체와 연관된 검색 결과(131)를 화면에 표시할 수 있다. 검색 결과를 화면에 표시하는 방법으로는, 선택된 객체와 오버랩 되지 않도록 객체가 표시되지 않는 디스플레이 영역의 일부에 검색 결과가 표시될 수 있다. 이 경우, 객체와 검색 결과가 오버랩 되지 않도록 하기 위해서 객체의 표시 위치를 변경할 수 있다. 예를 들어 검색 결과가 디스플레이의 하단 영역에 표시되는 경우 객체는 디스플레이 상단 영역에 표시되도록 객체의 표시 위치가 변경되고, 검색 결과가 디스플레이의 상단 영역에 표시되는 경우 객체는 디스플레이 하단 영역에 표시되도록 객체의 표시 위치가 변경될 수 있다.In Fig. 1 (c), the electronic device A can display a search result 131 associated with the acquired object on the screen. As a method of displaying the search result on the screen, the search result may be displayed in a part of the display area where the object is not displayed so as not to overlap with the selected object. In this case, the display position of the object can be changed so that the object and the search result do not overlap. For example, if the search result is displayed in the lower area of the display, the display position of the object is changed so that the object is displayed in the upper area of the display. If the search result is displayed in the upper area of the display, Can be changed.

또한, 객체가 표시되는 화면과 별도의 화면으로 검색 결과를 표시할 수 있다. 예를 들어, 객체가 표시되는 화면 상에 별도의 팝업 윈도우가 표시되고, 그 윈도우를 통해 검색 결과를 표시할 수 있다. 이 경우, 팝업 윈도우의 표시 위치는 선택된 객체의 위치에 따라 결정되며, 팝업 윈도우의 크기는 객체의 화면 상의 크기와 전체 화면에서 객체를 제외한 화면의 크기에 따라 결정된다. 객체가 표시되는 화면과 별도의 화면으로 검색 결과를 표시하는 경우에도 팝업 윈도우가 객체와 겹쳐지지 않도록 표시될 수 있다.In addition, the search result can be displayed on a screen separate from the screen on which the object is displayed. For example, a separate pop-up window is displayed on the screen on which the object is displayed, and the search result can be displayed through the window. In this case, the display position of the pop-up window is determined according to the position of the selected object, and the size of the pop-up window is determined by the size of the object on the screen and the size of the screen excluding the object on the entire screen. Even when the search result is displayed on a screen separate from the screen on which the object is displayed, the pop-up window can be displayed so as not to overlap with the object.

물론, 검색 결과를 표시하는 별도의 화면은 객체가 표시되는 화면 대신에 표시될 수 있다. 이 경우 검색 결과를 표시하는 별도의 화면에는 선택된 객체의 이미지와 객체와 연관된 검색 결과가 함께 표시될 수 있다. 이 경우 별도의 화면의 배경 부분은 투명하게 표시되어 객체를 포함하는 화면이 보이도록 제공할 수 있다.Of course, a separate screen displaying the search result may be displayed instead of the screen on which the object is displayed. In this case, an image of the selected object and a search result associated with the object may be displayed on a separate screen displaying the search result. In this case, the background part of the separate screen can be displayed transparently so that the screen including the object can be seen.

객체와 연관된 검색 결과는, 예로, 객체에 대한 상세 정보, 객체와 관련된 광고 정보, 객체의 구매 정보, 객체와 연관된 다른 객체 정보 등이 포함될 수 있다. 구체적으로, 객체에 대한 상세 정보는 검색 엔진을 통한 신문기사, SNS에 업로드된 문서, 웹사이트에 개시된 문서 등에서 웹 문서 검색을 통해 수집될 수 있다. 또한, 객체와 관련된 광고 정보는 객체와 관련된 상품 및 서비스의 광고를 제공하는 웹 사이트 또는 상품을 제조하는 제조사 또는 서비스를 제공하는 회사의 웹 사이트 등에서 수집될 수 있다. 또한, 객체와 관련된 구매 정보는 검색 엔진을 통한 상품 및 서비스를 판매하는 웹사이트 등에서 상품 및 서비스 검색을 통해 수집될 수 있다. 또한 객체와 연관된 다른 객체 정보는 검색 엔진에서 객체에 대응하는 쿼리와 유사도 및 관련도가 높은 다른 쿼리를 이용한 검색을 통해 수집될 수 있다.Search results associated with an object may include, for example, detailed information about the object, advertising information associated with the object, purchase information of the object, other object information associated with the object, and the like. Specifically, detailed information about an object can be collected through a web document search in a newspaper article through a search engine, a document uploaded to the SNS, a document disclosed in a website, and the like. Further, the advertisement information related to the object can be collected at a website providing advertisement of goods and services related to the object, or at a website of a company or a company providing a service for manufacturing goods. Purchase information related to an object can also be collected through a search of goods and services on a web site that sells goods and services through a search engine. Further, other object information associated with the object may be collected through a search corresponding to the object in the search engine and a search using another query having a high degree of similarity and relevance.

또한, 객체와 연관된 검색 결과는 다양한 컨텐트(예로, 텍스트, 이미지, 동영상 등) 및 UI 엘리먼트(예를 들어, 아이콘, 하이퍼링크 등)로 구성될 수 있다. 예를 들어, 선택된 객체가 "건축물"인 경우, 객체와 연관된 검색 결과는 선택된 객체를 안내하기 위한 텍스트 컨텐트 및 이미지 컨텐트를 포함할 수 있으며, 선택된 객체에 대한 제어 동작(예를 들어, 저장, 공유 등)을 수행하기 위한 아이콘을 포함할 수 있으며, 선택된 객체에 대한 추가 정보(예를 들어, 위치 정보, 관광 정보)를 포함하는 웹 페이지를 액세스하기 위한 하이퍼링크를 포함할 수 있다.In addition, the search results associated with the object may be comprised of various content (e.g., text, images, videos, etc.) and UI elements (e.g., icons, hyperlinks, etc.). For example, if the selected object is a "building ", the search results associated with the object may include textual content and image content for guiding the selected object, and control actions (e.g., Etc.), and may include a hyperlink for accessing a web page including additional information (e.g., location information, tour information) for the selected object.

또한, 객체와 연관된 검색 결과는 사용자 입력에 의해 변경될 수 있다. 예를 들어, 선택된 객체가 "호텔"인 경우, 객체와 연관된 검색 결과로 "호텔에 대한 상세정보"가 포함된 화면(예를 들어, 팝업 화면)이 제공될 수 있다. "호텔에 대한 상세정보"가 제공되는 동안 사용자 입력(예를 들어, 드래그 입력)이 수신되면, "호텔에 대한 상세정보"를 포함하는 화면이 제거되고, "호텔 후기 정보"를 포함하는 새로운 화면이 제공될 수 있다.Further, the search result associated with the object may be changed by user input. For example, when the selected object is "hotel ", a screen (for example, a pop-up screen) including" detailed information about the hotel " When a user input (e.g., a drag input) is received while the "detailed information on the hotel" is being provided, the screen including the "detailed information about the hotel" is removed and a new screen Can be provided.

또한, 객체와 연관된 검색 결과는 시각적 정보뿐만 아니라, 청각적, 촉각적, 후각적 정보 중 적어도 하나의 결합으로 제공될 수도 있다. 객체와 연관된 검색 결과에 대한 구체적인 예들은 이하 다양한 실시예들을 통하여 후술된다.Further, the search result associated with the object may be provided not only as visual information, but also as a combination of at least one of auditory, tactile, and olfactory information. Specific examples of search results associated with an object are described below through various embodiments.

다양한 실시예에 따르면, 전자 장치(A)는 객체 영역 및 객체의 주변 정보를 학습된 객체 인식 모델의 입력 데이터로 사용하여 컨텍스트가 반영된 객체 정보(예. 객체명과 객체의 위치, 객체명과 객체 주변의 다른 객체, 객체명과 객체가 포함된 문서의 주제 등)와 객체와 관련된 추가 정보를 획득하고, 추가 정보가 반영된 객체 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다.According to various embodiments, the electronic device A uses the object area and the surrounding information of the object as input data of the learned object recognition model to generate the object information (for example, the object name, the position of the object, Another object, an object name, a subject of a document including the object, etc.) and additional information related to the object, and obtain the search result associated with the object using the object information reflecting the additional information.

또는, 전자 장치(A)는 객체 영역을 학습된 객체 인식 모델의 입력 데이터로 사용하여 일반적인 객체 정보(예로, 객체명, 객체의 아이디, 객체의 종류, 객체의 속성 등)를 획득하고, 획득된 일반적인 객체 정보 및 별도로 수집된 컨텍스트 정보(예. 객체의 위치 정보, 객체 주변의 다른 객체, 객체가 포함된 문서의 주제 등)를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다. 본 문서에서 학습된 객체 인식 모델은 인식 모델의 적용 분야 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 예로, 학습된 객체 인식 모델은 객체 영역 및 객체의 주변 정보를 입력 데이터로 사용하여 컨텍스트가 반영된 객체 정보를 추정하도록 설정될 수 있다. 학습된 객체 인식 모델은, 예로, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 객체 인식 모델은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있으며 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 뉴런의 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다. 또한 객체 인식 모델은, 일 예로, 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 모델을 포함할 수 있다. 딥 러닝 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다. 객체 인식 모델의 예에는 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 등이 있을 수 있으나 이에 한정되지 않는다.Alternatively, the electronic device A may acquire general object information (e.g., an object name, an object ID, an object type, an object attribute, etc.) using the object area as input data of the learned object recognition model, The search results associated with the object can be obtained using general object information and separately collected context information (e.g., location information of the object, other objects around the object, the subject of the document containing the object, etc.). The object recognition model learned in this document can be constructed considering the application field of the recognition model or the computer performance of the device. For example, the learned object recognition model can be set to estimate the object information that reflects the context by using the object region and the surrounding information of the object as input data. The learned object recognition model may be, for example, a model based on a neural network. The object recognition model may include a plurality of weighted network nodes that may be designed to simulate human brain structures on a computer and simulate the neurons of a human neural network. The plurality of network nodes may each establish a connection relationship so that the neurons simulate synaptic activity of the neurons sending and receiving signals via synapses. The object recognition model may also include, for example, a neural network model or a deep learning model developed in a neural network model. In the deep learning model, a plurality of network nodes are located at different depths (or layers) and can exchange data according to a convolution connection relationship. Examples of the object recognition model include, but are not limited to, Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN).

또한, 전자 장치(A)는 상술한 바와 같은 사용자에 의해 선택된 객체와 관련된 정보를 검색하기 위하여 인공지능 에이전트(Artificial intelligence agent)를 이용할 수 있다. 이때, 인공지능 에이전트는 AI(Artificial Intelligence) 기반의 서비스(예를 들어, 음성 인식 서비스, 비서 서비스, 번역 서비스, 검색 서비스 등)를 제공하기 위한 전용 프로그램으로서, 기존의 범용 프로세서(예를 들어, CPU) 또는 별도의 AI 전용 프로세서(예를 들어, GPU 등)에 의해 실행될 수 있다. 특히, 인공지능 에이전트는 후술할 다양한 모듈을 제어할 수 있다.In addition, the electronic device A may use an artificial intelligence agent to retrieve information related to the object selected by the user as described above. At this time, the artificial intelligence agent is a dedicated program for providing an artificial intelligence (AI) -based service (for example, speech recognition service, secretarial service, translation service, search service, CPU) or a separate AI dedicated processor (e.g., GPU, etc.). In particular, an artificial intelligence agent can control various modules to be described later.

구체적으로, 기설정된 사용자 입력(예를 들어, 롱프레스 등)에 의해 화면 상에 객체(111)가 선택되거나 전자 장치(A)에 구비된 버튼(예를 들어, 인공지능 에이전트를 실행하기 위한 버튼)이 눌러진 후 객체(111)가 선택된 경우, 인공지능 에이전트가 동작할 수 있다. 그리고, 인공지능 에이전트는 객체(111)를 포함하는 화면을 캡쳐(capture)하여 캡쳐 이미지를 생성하며, 사용자 입력에 대응하는 터치 좌표에 기반하여 캡쳐 이미지에서 객체(111)와 관련된 객체 영역을 검출하며, 검출된 객체 영역 및 객체(111)의 선택에 따라 획득된 컨텍스트 정보(121)(예를 들어, 객체의 주변 정보 등)를 이용하여, 객체(111)와 연관된 검색 결과를 획득하여 제공할 수 있다.Specifically, when the object 111 is selected on the screen by a predetermined user input (for example, a long press or the like) or a button provided on the electronic device A (for example, a button for executing the AI agent The artificial intelligence agent may be operated when the object 111 is selected after being pressed. The artificial intelligent agent captures a screen including the object 111 to generate a captured image and detects an object area associated with the object 111 in the captured image based on the touch coordinates corresponding to the user input , The search result associated with the object 111 can be obtained and provided using the detected object area and the context information 121 (for example, the surrounding information of the object and the like) obtained according to the selection of the object 111 have.

물론, 화면 상에 특정 아이콘이 터치되거나 전자 장치(A)에 구비된 버튼(예를 들어, 인공지능 에이전트를 실행하기 위한 버튼)이 눌러지면 인공지능 에이전트가 동작할 수도 있다. 그 경우, 인공지능 에이전트는 현재 표시되는 화면을 캡쳐(capture)하여 캡쳐 이미지를 생성하며, 그 이후 입력된 객체를 선택하기 위한 사용자 입력에 따라 사용자 입력에 대응하는 터치 좌표에 기반하여 캡쳐 이미지에서 객체(111)와 관련된 객체 영역을 검출하며, 검출된 객체 영역 및 객체(111)의 선택에 따라 획득된 컨텍스트 정보(121)를 이용하여, 객체(111)와 연관된 검색 결과를 획득하고, 연관된 검색 결과를 제공할 수 있다.Of course, if a specific icon is touched on the screen or a button provided on the electronic device A (e.g., a button for executing the AI agent) is pressed, the AI agent may operate. In this case, the artificial intelligent agent captures the currently displayed screen to generate a captured image, and then, based on the user's input for selecting the input object, (111) associated with the object (111), acquires a search result associated with the object (111) using the context information (121) acquired according to the detected object region and the selection of the object (111) Can be provided.

인공지능 에이전트는 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택된 이전에 기 실행된 상태일 수 있다. 이 경우, 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택된 이후에는 전자 장치(A)의 인공지능 에이전트가 화면을 캡쳐한 후 객체(111)의 관련 정보를 검색하여 제공할 수 있다. 예를 들어, 인공지능 에이전트가 AI 전용 프로세서에 의해 실행되는 경우, 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택되기 전에는 범용 프로세서에 의해 전자 장치(A)의 기능이 실행되며, 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택된 이후에는 AI 전용 프로세서에 의해 전자 장치(A)의 기능이 실행될 수 있다.The artificial intelligence agent may be a previously executed state in which a preset user input to the object 111 is sensed or a button provided in the electronic device A is selected. In this case, after predetermined user input is detected for the object 111 or a button provided on the electronic device A is selected, the AI agent of the electronic device A captures a screen, Information can be retrieved and provided. For example, if an AI agent is executed by an AI-only processor, a predetermined user input to the object 111 is detected or a button provided in the electronic device A is selected by the general purpose processor The function of the electronic device A can be executed by the AI dedicated processor after a predetermined user input to the object 111 is detected or a button provided in the electronic device A is selected .

또한, 인공지능 에이전트는 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택된 이전에 대기 상태일 수 있다. 여기서 대기 상태란, 인공지능 에이전트의 동작 시작을 제어하기 위해 미리 정의된 사용자 입력이 수신되는 것을 감지하는 상태이다. 인공지능 에이전트가 대기 상태인 동안 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택되면, 전자 장치(A)는 인공지능 에이전트를 동작시키고, 동작된 인공지능 에이전트를 이용하여 화면을 캡쳐한 후 객체(111)의 관련 정보를 검색하여 제공할 수 있다.In addition, the artificial intelligence agent may be in a standby state previously selected when a preset user input to the object 111 is detected or a button provided in the electronic device A is selected. Here, the standby state is a state in which a predefined user input is received to control the start of operation of the AI agent. If a predetermined user input is detected for the object 111 while the artificial intelligence agent is in the standby state or a button provided for the electronic device A is selected, the electronic device A operates the artificial intelligence agent, It is possible to retrieve and provide related information of the object 111 after capturing a screen using an intelligent agent.

또한, 인공지능 에이전트는 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택된 이전에 종료된 상태일 수 있다. 인공지능 에이전트가 종료된 상태에서 객체(111)에 대해 기설정된 사용자 입력이 감지되거나 전자 장치(A)에 구비된 버튼이 선택되면, 전자 장치(A)는 인공지능 에이전트를 실행시키고, 실행된 인공지능 에이전트를 이용하여 화면을 캡쳐한 후 객체(111)의 관련 정보를 검색하여 제공할 수 있다. In addition, the artificial intelligence agent may be in a state in which a preset user input to the object 111 is sensed or a button previously provided in the electronic device A is selected. When the predetermined user input to the object 111 is detected or the button provided in the electronic device A is selected in a state where the AI agent is terminated, the electronic device A executes the AI agent, It is possible to retrieve and provide related information of the object 111 after capturing a screen using an intelligent agent.

한편, 인공지능 에이전트는 후술할 다양한 장치 또는 모듈을 제어할 수 있다. 이에 대해서는 추후 상세히 설명하기로 한다.Meanwhile, the artificial intelligence agent can control various devices or modules to be described later. This will be described in detail later.

또한, 전자 장치(A) 및 서버 간의 학습된 객체 인식 모델을 이용하여 객체와 연관된 검색 결과를 획득하는 구체적인 예들은 이하 다양한 실시예들을 통하여 후술된다.Further, specific examples of acquiring search results associated with an object using the learned object recognition model between the electronic device A and the server will be described below through various embodiments.

도 2a는, 다양한 실시예에 따른 전자 장치(A)의 블록도를 나타낸다. 전자 장치(A)는 도 2a에 도시된 바와 같이, 디스플레이(110), 메모리(120), 사용자 입력부(130), 통신부(150) 및 프로세서(140)를 포함한다. 도 2에 도시된 구성들은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 당업자에게 자명한 수준의 적절한 하드웨어/소프트웨어 구성들이 전자 장치(A)에 추가로 포함될 수 있다.2A shows a block diagram of an electronic device A according to various embodiments. The electronic device A includes a display 110, a memory 120, a user input 130, a communication unit 150 and a processor 140, as shown in Fig. The configurations shown in FIG. 2 are illustrations for implementing embodiments of the present disclosure, and appropriate hardware / software configurations of a level obvious to those skilled in the art may be further included in the electronic device A.

디스플레이(110)는 다양한 화면을 제공할 수 있다. 특히, 디스플레이(110)는 객체를 포함하는 화면을 제공할 수 있다. 또한, 디스플레이(110)는 객체를 포함하는 화면 상에 객체와 관련된 검색 결과를 포함하는 화면(예를 들어, 팝업 화면)을 추가로 제공할 수 있다. 또는 디스플레이(110)는 객체와 관련된 검색결과를 포함하는 화면을 별도로 제공할 수 있다.The display 110 may provide various screens. In particular, the display 110 may provide a screen that includes objects. In addition, the display 110 may further provide a screen (e.g., a pop-up screen) containing search results related to the object on the screen including the object. Or the display 110 may separately provide a screen including search results related to the object.

메모리(120)는 전자 장치(A)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 특히, 메모리(120)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(120)는 프로세서(140)에 의해 액세스되며, 프로세서(140)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 개시에서 메모리라는 용어는 메모리(120), 프로세서(140) 내 롬(미도시), 램(미도시) 또는 전자 장치(A)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. 또한, 메모리(120)에는 디스플레이부(110)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다. Memory 120 may store instructions or data related to at least one other component of electronic device A. [ In particular, the memory 120 may be implemented as a non-volatile memory, a volatile memory, a flash memory, a hard disk drive (HDD), or a solid state drive (SSD). The memory 120 is accessed by the processor 140 and read / write / modify / delete / update of data by the processor 140 and the like can be performed. The term memory in this disclosure includes memory 120, a memory card (not shown) (e. G., Micro SD (not shown)) mounted in ROM (not shown), RAM Card, memory stick). The memory 120 may store programs and data for configuring various screens to be displayed in a display area of the display unit 110. [

또한, 메모리(120)는 선택된 객체와 관련된 정보를 제공하기 위한 인공지능 에이전트를 저장할 수 있으며, 본 개시의 인식 모델(객체 인식 모델, 주변 정보 인식 모델, 얼굴 인식 모델 등)을 저장할 수 있다.In addition, the memory 120 may store an artificial intelligence agent for providing information related to the selected object, and may store the recognition model (object recognition model, peripheral information recognition model, face recognition model, etc.) of the present disclosure.

또한, 메모리(120)는 도 2b에 도시된 검색 액션 감지 모듈(141), 화면 캡쳐/좌표 수집 모듈(142), 사용자 UI 모듈(143), 객체 영역 검출/분류 모듈(144), 얼굴 검출 모듈(145) 및 검색 결과 획득 모듈(146) 등을 저장할 수 있다. The memory 120 also includes a search action detection module 141, a screen capture / coordinate acquisition module 142, a user UI module 143, an object region detection / classification module 144, A search result acquisition module 145, and a search result acquisition module 146.

사용자 입력부(130)는 다양한 사용자 입력을 수신하여 프로세서(140)로 전달할 수 있다. 특히, 사용자 입력부(130)는 터치 센서, (디지털) 펜 센서, 압력 센서, 또는 키를 포함할 수 있다. 터치 센서는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. (디지털) 펜 센서는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다.The user input unit 130 may receive various user inputs and transmit them to the processor 140. In particular, the user input 130 may include a touch sensor, a (digital) pen sensor, a pressure sensor, or a key. The touch sensor can use, for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type. The (digital) pen sensor may be, for example, part of a touch panel or may include a separate recognition sheet. The key may include, for example, a physical button, an optical key, or a keypad.

특히, 사용자 입력부(130)는 객체를 선택하기 위한 기설정된 사용자 터치(예를 들어, 롱프레스 터치) 또는 특정 버튼을 누른 후 객체를 터치하는 사용자 입력에 따른 입력 신호를 획득할 수 있다. 그리고, 사용자 입력부(130)는 입력 신호를 프로세서(140)로 전송할 수 있다.In particular, the user input unit 130 may acquire an input signal according to a user input for touching an object after a predetermined user touch (for example, a long press touch) or a specific button is pressed to select an object. The user input unit 130 may transmit an input signal to the processor 140.

통신부(150)는 외부의 전자장치 또는 서버와 통신을 수행할 수 있다. 이때, 통신부(150)는 외부의 서버로 캡쳐 이미지를 전송하거나 객체 영역에 대한 정보 및 컨텍스트 정보(예를 들어, 객체의 주변 정보 등)를 전송할 수 있다. 또한, 통신부(150)는 캡쳐 이미지 또는 객체 영역에 대한 정보 및 컨텍스트 정보에 응답한 객체에 대한 검색 결과를 수신할 수 있다.The communication unit 150 can perform communication with an external electronic device or a server. At this time, the communication unit 150 may transmit a captured image to an external server or transmit information on the object region and context information (e.g., peripheral information of the object). In addition, the communication unit 150 may receive information about the captured image or the object region and a search result for the object in response to the context information.

프로세서(140)는 디스플레이(110), 메모리(120) 및 사용자 입력부(130)와 전기적으로 연결되어 전자 장치(A)의 전반적인 동작 및 기능을 제어할 수 있다. 특히, 프로세서(140)는 검색 액션 감지 모듈(141), 화면 캡쳐/좌표 수집 모듈(142), 사용자 UI 모듈(143), 객체 영역 검출/분류 모듈(144), 얼굴 검출 모듈(145) 및 검색 결과 획득 모듈(146) 등을 이용하여 사용자에 의해 선택된 객체와 관련된 정보를 검색하는 기능을 수행할 수 있다. The processor 140 may be electrically coupled to the display 110, the memory 120 and the user input 130 to control the overall operation and functionality of the electronic device A. [ In particular, the processor 140 includes a search action detection module 141, a screen capture / coordinate acquisition module 142, a user UI module 143, an object region detection / classification module 144, a face detection module 145, And retrieve information related to the object selected by the user using the result acquisition module 146 or the like.

구체적으로, 프로세서(140)는 사용자 입력부(130)를 이용하여 디스플레이(110)에 표시되는 화면의 객체를 선택하기 위한 사용자 입력에 따른 입력 신호를 획득할 수 있다. 또한, 프로세서(140)는 입력 신호에 응답하여, 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성하고, 생성된 캡쳐 이미지를 메모리(130)에 저장할 수 있다. 또한, 프로세서 (140)는 캡쳐 이미지에 포함된 객체에 대응하는 객체 영역 및 객체의 선택에 따라 획득된 컨텍스트(context) 정보를 이용하여 객체와 연관된 검색 결과를 획득하고, 객체와 관련된 검색 결과가 표시되도록 디스플레이(110)를 제어할 수 있다.In detail, the processor 140 may use the user input unit 130 to obtain an input signal according to a user input for selecting an object on the screen displayed on the display 110. In response to the input signal, the processor 140 may capture a screen including the object to generate a captured image, and store the generated captured image in the memory 130. In addition, the processor 140 acquires a search result associated with the object using the object region corresponding to the object included in the captured image and the context information obtained according to the selection of the object, So that the display 110 can be controlled.

또한, 프로세서(140)는 캡쳐 이미지의 적어도 일부를 외부의 서버로 전송하도록 통신부(150)를 제어할 수 있다. 이때, 프로세서(140)는 및 선택된 객체 영역에 정보(예를 들어, 객체 영역의 좌표 정보 등)를 함께 전송하도록 통신부(150)를 제어할 수 있다. 그리고, 프로세서(140)는 캡쳐 이미지에 포함된 객체에 대한 객체 정보 및 객체와 관련된 추가 정보를 기반하여 검색된 검색 결과를 외부의 서버로부터 통신부(150)를 통해 수신하며, 객체와 관련된 검색 결과가 표시되도록 디스플레이(110)를 제어할 수 있다. 프로세서(140)에 대한 설명은 추후 도 2b에서 더욱 상세히 설명하기로 한다.In addition, the processor 140 may control the communication unit 150 to transmit at least a part of the captured image to an external server. At this time, the processor 140 may control the communication unit 150 to transmit information (for example, coordinate information of the object region, etc.) together with the selected object region. The processor 140 receives the search result from the external server through the communication unit 150 based on the object information about the object included in the captured image and the additional information related to the object, So that the display 110 can be controlled. The description of the processor 140 will be described later in more detail in FIG. 2B.

도 2b는, 다양한 실시예에 따른, 전자 장치(A)를 포함하는 네트워크 시스템의 블록도들을 나타낸다.Figure 2B shows block diagrams of a network system including an electronic device A, according to various embodiments.

네트워크 시스템은 전자 장치(A), 추천 장치(B), 객체 인식 장치(C), 사용자 특성 인식 장치(D) 및 데이터 수집 장치(E)를 포함할 수 있다.The network system may include an electronic device A, a recommendation device B, an object recognition device C, a user characteristic recognition device D and a data collection device E.

이 때, 추천 장치(B), 객체 인식 장치(C), 사용자 특성 인식 장치(D) 및 데이터 수집 장치(E)는 설명의 편의상 구분한 것이며, 추천 장치(B), 객체 인식 장치(C), 사용자 특성 인식 장치(D) 및 데이터 수집 장치(E) 각각에 포함된 모듈들 중 적어도 일부가 결합하여 하나 이상의 서버(예로, 복수의 장치들로 구성된 클라우드)로 구성될 수도 있다. 또한, 추천 장치(B), 객체 인식 장치(C), 사용자 특성 인식 장치(D) 및 데이터 수집 장치(E) 각각에 포함된 모듈들 중 적어도 일부가 전자 장치(A)에 마련될 수도 있다. At this time, the recommendation apparatus B, the object recognition apparatus C, the user character recognition apparatus D and the data collection apparatus E are distinguished from each other for convenience of explanation. The recommendation apparatus B, the object recognition apparatus C, At least some of the modules included in the user characteristic recognition device D and the data collection device E may be combined into one or more servers (for example, a cloud composed of a plurality of devices). At least some of the modules included in each of the recommendation device B, the object recognition device C, the user characteristic recognition device D and the data collection device E may be provided in the electronic device A. [

여기서, 모듈은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. Here, the module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.

도 2b에서, 전자 장치(A)는 디스플레이(110), 메모리(120), 사용자 입력부(130), 통신부(150), 카메라(160) 및 프로세서(140)를 포함할 수 있다. 디스플레이(110), 메모리(120), 사용자 입력부(130), 통신부(150)에 대해서는 도 2a에서 상세히 설명하였으므로, 중복되는 설명은 생략하기로 한다. 프로세서(140)의 적어도 일부는 특정 목적 또는 기능에 따라 구별되는 복수의 모듈들로 동작할 수 있다. 프로세서(140)가 복수의 모듈들로 동작하기 위한 소프트웨어는 메모리(120)에 저장될 수 있다. 이 경우, 메모리(120)는 프로세서(140)가 상기 복수의 모듈들 각각으로 동작하기 위한 복수의 명령어들을 저장할 수 있다.2B, the electronic device A may include a display 110, a memory 120, a user input 130, a communication unit 150, a camera 160 and a processor 140. The display 110, the memory 120, the user input unit 130, and the communication unit 150 have been described in detail with reference to FIG. 2A, and a detailed description thereof will be omitted. At least some of the processors 140 may operate with a plurality of modules that are distinguished according to a particular purpose or function. The software for the processor 140 to operate with a plurality of modules may be stored in the memory 120. [ In this case, the memory 120 may store a plurality of instructions for the processor 140 to operate with each of the plurality of modules.

프로세서(140)는 검색 액션 감지 모듈(141), 화면 캡쳐/좌표 수집 모듈(142), 사용자 UI 모듈(143), 객체 영역 검출/분류 모듈(144), 얼굴 검출 모듈(145) 및 검색 결과 획득 모듈(146)을 포함할 수 있다. The processor 140 includes a search action detection module 141, a screen capture / coordinate acquisition module 142, a user UI module 143, an object region detection / classification module 144, a face detection module 145, Module 146, as shown in FIG.

검색 액션 감지 모듈(141)은 사용자 입력부(130)를 통하여 디스플레이(110)에 표시된 화면에 포함된 객체를 선택하는 사용자 입력(예로, 롱 터치, 멀티 터치, 펜 액션 등)에 따른 입력 신호를 획득할 수 있다. The search action detection module 141 obtains an input signal according to a user input (e.g., long touch, multi-touch, pen action, etc.) for selecting an object included in the screen displayed on the display 110 through the user input unit 130 can do.

검색 액션 감지 모듈(141)이 입력 신호를 획득하면, 화면 캡쳐/좌표 수집 모듈(142)는 화면을 캡쳐하여 캡쳐 이미지를 생성하고, 디스플레이(110) 상의 일 지점에 대응하는 좌표를 수집할 수 있다. 예로, 화면 캡쳐/좌표 수집 모듈(142)은 현재 디스플레이(110)에 표시되는 화면을 캡쳐하여 캡쳐 이미지를 생성하고 사용자가 선택한 디스플레이(110)의 일 지점에 대응하는 좌표를 수집할 수 있다.When the search action detection module 141 obtains the input signal, the screen capture / coordinate acquisition module 142 may capture the screen to generate a captured image and collect coordinates corresponding to a point on the display 110 . For example, the screen capture / coordinate acquisition module 142 may capture a screen displayed on the display 110 to generate a captured image and collect coordinates corresponding to one point of the display 110 selected by the user.

다른 예로, 사용자 입력부(130)로서 물리적인 버튼, 베젤 상의 터치 센서를 통하여 입력 신호가 획득되면, 검색 액션 감지 모듈(141)은 디스플레이(110)에 표시 중인 화면을 캡쳐하여 캡쳐 이미지를 생성하고, 사용자 입력부(130)를 통해 추가적으로 획득한 입력 신호에 따라 사용자가 선택한 디스플레이(110)의 일 지점에 대응하는 좌표를 수집할 수 있다.As another example, when an input signal is obtained through a physical button or a touch sensor on the bezel as the user input unit 130, the search action detection module 141 generates a captured image by capturing a screen displayed on the display 110, The coordinates corresponding to one point of the display 110 selected by the user may be collected according to the input signal additionally obtained through the user input unit 130. [

객체 영역 검출/분류 모듈(144)은 캡쳐 이미지 및 수집된 선택 좌표에 기반하여, 캡쳐 이미지에서 객체와 관련된 객체 영역을 검출하고, 객체 영역을 메모리(120)에 저장할 수 있다. 이 때, 검출된 객체 영역은, 예로, 캡쳐 이미지 중 객체 영역에 대응하는 이미지를 포함할 수 있다. 또한, 객체 영역 검출/분류 모듈(144)은 검출된 객체 영역에 대응하는 객체의 범주(또는, 객체 부류)를 결정할 수 있다. 예로, 객체 영역 검출/분류 모듈(144)은 검출된 객체 영역의 범주를, 얼굴, 상품, 옷 또는 음식 중 하나로 결정할 수 있다.The object region detection / classification module 144 may detect an object region associated with the object in the captured image, and store the object region in the memory 120, based on the captured image and the selected selected coordinates. At this time, the detected object area may include, for example, an image corresponding to the object area in the captured image. In addition, the object region detection / classification module 144 may determine the category (or object class) of the object corresponding to the detected object region. For example, the object region detection / classification module 144 may determine the category of the detected object region as one of face, goods, clothes or food.

다양한 실시예로, 객체 영역 검출/분류 모듈(144)은 객체 인식 장치(C) 중 하나에 선택적으로 마련될 수도 있다. 이 경우, 객체 인식 장치(C)의 객체 영역 검출/분류 모듈(201)이 전자 장치(A)의 객체 영역 검출/분류 모듈(144)에 대응될 수 있다. In various embodiments, the object region detection / classification module 144 may optionally be provided in one of the object recognition devices C. [ In this case, the object region detection / classification module 201 of the object recognition apparatus C may correspond to the object region detection / classification module 144 of the electronic device A. [

또한, 객체 영역 검출/분류 모듈(144)는 복수의 모듈로 구분되어 구성될 수도 있다. 이 경우, 객체 영역 검출 모듈은 전자 장치(A)에서 동작하도록 구성되고, 객체 영역 분류 모듈은 객체 인식 장치(C) 등과 같은 외부 장치에서 동작하도록 구성될 수 있다.The object region detection / classification module 144 may be divided into a plurality of modules. In this case, the object region detection module is configured to operate in the electronic device A, and the object region classification module can be configured to operate in an external device such as an object recognition device C and the like.

얼굴 검출 모듈(145)은 전자 장치(A)에 마련된 카메라(160)를 제어하여 전자 장치(A)를 사용하는 사용자의 얼굴을 포함하는 이미지를 획득하고, 이미지로부터 사용자의 얼굴을 검출하고, 검출된 얼굴에 대한 안면 정보(예로, 안면 이미지, 안면 영상 등)를 메모리(120)에 저장할 수 있다. 예로, 얼굴 검출 모듈(145)은 객체의 선택에 따라 획득된 컨텍스트 정보로서 안면 정보를 획득하여 메모리(120)에 저장할 수 있다.The face detection module 145 controls the camera 160 provided in the electronic device A to obtain an image including the user's face using the electronic device A, to detect the user's face from the image, (E.g., a facial image, a facial image, and the like) for the facial image of the user. For example, the face detection module 145 may acquire facial information as context information obtained according to the selection of the object and store the facial information in the memory 120.

검색 결과 획득 모듈(146)은 검출된 객체 영역 및/또는 컨텍스트 정보(예로, 주변 정보 또는 안면 정보)를 통신부(150)를 통하여 적어도 하나의 외부 장치로 전송할 수 있다. 예로, 검색 결과 획득 모듈(147)은 상기 객체 영역 검출/분류 모델(144)를 통해 검출된 캡쳐 이미지의 객체 영역은 객체 인식 장치(C)로 전송하고, 상기 얼굴 검출 모듈(146)을 통해 검출된 얼굴에 대한 안면 정보는 사용자 특성 인식 장치(D)로 전송할 수 있다.The search result acquisition module 146 may transmit the detected object region and / or context information (e.g., peripheral information or facial information) to at least one external device through the communication unit 150. [ For example, the search result acquisition module 147 transmits the object region of the captured image detected through the object region detection / classification model 144 to the object recognition device C, Facial information on the facial face can be transmitted to the user character recognition device (D).

검색 결과 획득 모듈(146)은 객체 영역 및 컨텍스트 정보를 외부 장치로 전송한 결과로서, 객체와 연관된 검색 결과를 획득할 수 있다. 예로, 검색 결과 획득 모듈(146)은 추천 장치(B)로부터 객체와 연관된 검색 결과를 획득할 수 있다.The search result acquiring module 146 may acquire the search result associated with the object as a result of transmitting the object area and the context information to the external device. For example, the search result acquisition module 146 may obtain search results associated with an object from the recommendation device B. [

사용자 UI 모듈(143)는 검색 결과 획득 모듈(146)에서 획득된 객체와 연관된 검색 결과가 사용자에게 제공되도록 디스플레이(110)를 제어할 수 있다.The user UI module 143 may control the display 110 to provide the search results associated with the object obtained in the search result acquisition module 146 to the user.

객체 인식 장치(C)는 객체 영역 검출/분류 모듈(201), 세부 객체 인식 모듈(202) 및 컨텍스트 인식 모듈(203)을 포함할 수 있다.The object recognition apparatus C may include an object region detection / classification module 201, a detailed object recognition module 202, and a context recognition module 203.

객체 영역 검출/분류 모듈(201)은 전자 장치(A)로부터 캡쳐 이미지 및 사용자가 선택한 좌표를 수신하는 경우, 캡쳐 이미지 및 선택 좌표에 기반하여, 캡쳐 이미지에서 사용자가 선택한 객체 영역을 검출하고, 검출된 객체 영역의 객체 범주(또는, 객체 부류)를 결정할 수 있다. 예로, 객체 영역 검출/분류 모듈(201)은 검출된 객체 영역의 범주를, 얼굴, 상품, 옷 또는 음식 중 하나로 결정할 수 있다.When receiving the captured image and the coordinates selected by the user from the electronic device A, the object region detection / classification module 201 detects the object region selected by the user in the captured image based on the captured image and the selected coordinates, The object category (or object class) of the object area. For example, the object region detection / classification module 201 may determine the category of the detected object region as one of face, goods, clothes or food.

객체 영역 검출/분류 모듈(201)은 별개로 구성될 수도 있으며, 객체 영역 검출 모듈은 전자 장치(A)에서 동작하도록 구성되고, 객체 영역 분류 모듈은 객체 인식 장치(C)에서 동작하도록 구성될 수 있다. 이 경우, 전자 장치의 객체 영역 검출 모듈은 캡쳐 이미지에서 사용자가 선택한 객체 영역을 검출한 후 객체 영역에 대한 정보를 객체 인식 장치(C)에 전송하고, 객체 인식 장치의 객체 영역 분류 모듈은 전자 장치(A)로부터 수신한 객체 영역에 대한 정보를 이용하여 객체 영역의 객체 범주를 결정할 수 있다.The object region detection / classification module 201 may be configured separately, and the object region detection module may be configured to operate in the electronic device A, and the object region classification module may be configured to operate in the object recognition device C have. In this case, the object area detection module of the electronic device detects the object area selected by the user in the captured image, and then transmits the information on the object area to the object recognition device (C), and the object area classification module The object category of the object area can be determined using the information about the object area received from the object area A.

객체 인식 장치(C)에는 다수의 객체 범주들 각각에 대응하는 다수의 세부 객체 인식 모듈들이 존재할 수 있다.The object recognition apparatus C may have a plurality of detailed object recognition modules corresponding to each of a plurality of object categories.

이 경우, 객체 범주가 결정되면, 객체 범주에 대응하는 세부 객체 인식 모듈(202)은 검출된 객체 영역을 더욱 세부적으로 인식할 수 있다. 예로, 세부 객체 인식 모듈(202)은 객체 영역을 인식하여 객체 영역과 관련된 객체 정보를 획득할 수 있다. 구체적으로, 객체 영역 검출/분류 모듈(201)에서 검출된 객체 영역과 관련된 객체 범주가 얼굴인 경우, 세부 객체 인식 모듈(202)은 객체 정보로서 누구의 얼굴인지를 인식할 수 있다. In this case, when the object category is determined, the detailed object recognition module 202 corresponding to the object category can recognize the detected object area in more detail. For example, the detailed object recognition module 202 may recognize an object region and obtain object information related to the object region. Specifically, when the object category related to the object region detected by the object region detection / classification module 201 is a face, the detailed object recognition module 202 can recognize the face of a person as object information.

특히, 객체 인식 장치(C)는 검출된 객체 영역을 학습된 객체 인식 모델의 입력 데이터로 사용하여 객체 영역과 관련된 객체 정보를 추정할 수도 있다. 학습된 객체 인식 모델은, 예로, 신경망 또는 딥러닝 기반의 인식 모델이 될 수 있다. 또한, 객체 인식 장치(C)는 검출된 객체 영역을 규칙 기반의 객체 인식 모델을 통해 분석하여 객체 영역과 관련된 객체 정보를 추정할 수도 있다.In particular, the object recognition apparatus C may estimate the object information related to the object region using the detected object region as input data of the learned object recognition model. The learned object recognition model can be, for example, a neural network or a deep learning based recognition model. In addition, the object recognition apparatus C may estimate the object information related to the object region by analyzing the detected object region through a rule-based object recognition model.

다양한 실시예로, 객체 영역 검출/분류 모듈(201)은 전자 장치(A) 및 객체 인식 장치(C) 중 하나에 선택적으로 마련될 수도 있다. 이 경우, 객체 인식 장치(C)의 객체 영역 검출/분류 모듈(201)은 전자 장치(A)의 객체 영역 검출/분류 모듈(144)에 대응될 수 있다. 예로, 객체 영역 검출/분류 모듈(201)은 전자 장치(A)에 마련되고, 세부 객체 인식 모듈(202)은 객체 인식 장치(C)에 마련될 수 있다. 또는, 객체 영역 검출/분류 모듈(201) 및 세부 객체 인식 모듈(202) 모두가 전자 장치(A) 또는 객체 인식 장치(C)에 마련될 수도 있다.In various embodiments, the object region detection / classification module 201 may be optionally provided in one of the electronic device A and the object recognition device C. In this case, the object region detection / classification module 201 of the object recognition apparatus C may correspond to the object region detection / classification module 144 of the electronic device A. [ For example, the object region detection / classification module 201 may be provided in the electronic device A, and the detailed object recognition module 202 may be provided in the object recognition device C. Alternatively, both the object region detection / classification module 201 and the detailed object recognition module 202 may be provided in the electronic device A or the object recognition device C.

또한, 객체 인식 장치(C)에는 객체와 연관성 있는 주변 정보를 인식하는 주변 정보 인식 모듈(203)이 존재할 수 있다.In addition, the object recognition apparatus C may include a peripheral information recognition module 203 for recognizing peripheral information related to the object.

주변 정보 인식 모듈(203)은 객체와 연관성 있는 주변 정보를 획득할 수 있다. 예로, 주변 정보 인식 모듈(203)는 객체의 주변에 위치한 주변 정보 중 객체와 연관성 있는 정보를 주변 정보로서 획득할 수 있다. 예로, 선택된 객체(111)가 화면에 표시된 문서에 포함된 단어 또는 이미지인 경우, 객체(111)의 선택에 기반하여 획득된 주변 정보는 객체가 표시되는 화면에서 추출된 정보로, 객체(111)와 가장 관련도가 높은 정보, 또는 객체(111)를 유사한 다른 객체와 구분하는데 가장 유용하게 사용될 수 있는 정보가 객체와 관련된 구변 정보로 결정될 수 있다. The peripheral information recognition module 203 can acquire peripheral information related to the object. For example, the peripheral information recognition module 203 may acquire, as peripheral information, information related to an object among peripheral information located around the object. For example, when the selected object 111 is a word or an image included in a document displayed on the screen, the peripheral information obtained based on the selection of the object 111 is information extracted from the screen on which the object is displayed, Or information that is most useful to distinguish the object 111 from other similar objects may be determined by the rectangle information associated with the object.

주변 정보 인식 모듈(203)은 학습된 모델인 주변 정보 인식 모델을 이용하여 주변 정보를 결정(또는, 추정, 판단)할 수 있다. 예로, 객체 인식 장치(C)는 객체가 표시되는 화면의 객체의 주변 영역에 대한 이미지를 학습된 주변 정보 인식 모델의 입력 데이터로 사용하여 객체와 연관성 있는 주변 정보를 결정할 수 있다. 학습된 주변 정보 인식 모델은, 예로, 신경망 또는 딥러닝 기반의 인식 모델이 될 수 있다.The peripheral information recognition module 203 can determine (or estimate, determine) peripheral information by using the peripheral information recognition model, which is a learned model. For example, the object recognition apparatus C can determine the peripheral information related to the object by using the image of the peripheral region of the object of the screen on which the object is displayed as the input data of the learned peripheral information recognition model. The learned peripheral information recognition model may be, for example, a neural network or a deep learning based recognition model.

또한 주변 정보 인식 모듈(203)은 규칙 기반의 주변 정보 인식 모델을 이용하여 주변 정보를 결정(또는 추정, 판단)할 수 있다. 예로, 객체 인식 장치(C)는 객체가 표시되는 화면의 객체의 주변 영역에 대한 이미지를 기 정의된 규칙을 통해 분석하여 객체와 연관성 있는 주변 정보를 결정할 수 있다.In addition, the peripheral information recognition module 203 can determine (or estimate, determine) peripheral information using a rule-based peripheral information recognition model. For example, the object recognition apparatus C can analyze the image of the peripheral region of the object on the screen on which the object is displayed through predetermined rules to determine the peripheral information related to the object.

일 실시예로, 객체와 주변 정보 간의 관련도가 가장 높은 단어가 주변 정보로서 주변 정보 인식 모델을 통해 획득될 수 있다. 이 때, 주변 정보 인식 모델은 객체 및 객체의 주변 정보를 학습 데이터로서 이용하여 학습된 모델일 수 있다. 일 예로, 객체와 주변 정보 간의 관련도가 가장 높은 단어는 객체와 주변 정보가 한 화면에 표시될 확률 또는 객체에 대한 검색시 주변 정보가 함께 검색될 확률에 기반하여 가장 높은 확률을 갖는 주변 정보로 결정될 수 있다.In one embodiment, a word having the highest degree of association between the object and the surrounding information can be obtained as the surrounding information through the surrounding information recognition model. At this time, the peripheral information recognition model may be a learned model using the object and surrounding information of the object as learning data. For example, the word with the highest degree of relevance between the object and the surrounding information is the surrounding information having the highest probability based on the probability that the object and the surrounding information are displayed on one screen or the probability that the surrounding information is searched together with the object Can be determined.

예를 들어, 사용자에 의해 선택된 객체가 '에펠탑'의 이미지 또는 '에펠탑'의 텍스트인 경우, 주변 정보 인식 모듈(203)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '여행', '역사'및 '건축정보'를 "에펠탑"이라는 객체와 관련도가 가장 높은 주변 정보로 결정할 수 있다. For example, if the object selected by the user is an image of the 'Eiffel Tower' or the text of the 'Eiffel Tower', the perimeter information recognition module 203 applies the perimeter information of the object to the perimeter information recognition model, ',' History 'and' architectural information 'can be determined as the object with the highest degree of relevance and the object named' Eiffel Tower '.

또한, 사용자에 의해 선택된 객체가 '유명 가수'의 이미지 또는 '유명 가수'의 텍스트인 경우, 주변 정보 인식 모듈(230)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '콘서트', '앨범' 및 '노래 제목'을 유명 가수에 관한 객체와 관련도가 가장 높은 주변 정보로 결정할 수 있다.When the object selected by the user is the image of the 'famous singer' or the text of the 'famous singer', the peripheral information recognition module 230 applies the peripheral information of the object to the peripheral information recognition model, The album and the song title can be determined as the object related to the famous singer and the surrounding information having the highest degree of relevance.

다른 실시예로, 객체(111)를 유사한 다른 객체와 구분하는데 가장 유용하게 사용될 수 있는 정보가 주변 정보 인식 모델을 통해 획득될 수 있다. 객체(111)를 유사한 다른 객체와 구분하는데 가장 유용하게 사용될 수 있는 정보의 일 예로, 객체에 대한 긍정적인/부정적인 속성을 갖는 단어가 있다. 주변 정보 인식 모델은 객체 및 객체와 관련된 정보 중 긍정적인/부정적인 속성을 갖는 단어를 학습 데이터로서 이용하여 학습된 모델일 수 있다. 긍정적인/부정적인 속성을 갖는 단어는 객체가 다른 객체와 식별 가능한 특징에 대한 정보이다. 이 때, 주변 정보 인식 모델은 객체와 주변 정보 간의 관련도를 추정하는 주변 인식 모델과 동일한 인식 모델일 수도 있고, 서로 다른 인식 모델일 수도 있다.In another embodiment, information that may be most usefully used to distinguish the object 111 from other similar objects may be obtained through a peripheral information recognition model. One example of information that can be most usefully used to distinguish the object 111 from other similar objects is a word having a positive / negative attribute for the object. The peripheral information recognition model may be a learned model using words having positive / negative attributes among information related to objects and objects as learning data. A word with a positive / negative attribute is information about a feature whose object can be distinguished from other objects. In this case, the peripheral information recognition model may be the same recognition model as the peripheral recognition model for estimating the association between the object and the surrounding information, or may be a different recognition model.

예를 들어, 사용자에 의해 선택된 객체가 '자동차'의 이미지 또는 '자동차'의 텍스트인 경우, 주변 정보 인식 모듈(203)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '자동차'라는 객체에 대한 관련도가 높으며 긍정적인/부정적인 속성을 갖는 단어인 '연비', '판매량' 및 '가격' 등을 객체에 대한 주변 정보로 결정할 수 있다.For example, if the object selected by the user is an image of an 'automobile' or a text of an 'automobile', the peripheral information recognition module 203 determines that the object selected by the user is' It is possible to determine the words 'fuel economy', 'sales volume', and 'price', which are related to the object and have positive / negative attributes, as peripheral information about the object.

또한, 사용자에 의해 선택된 객체가 '가전제품'의 이미지 또는 '가전 제품'의 텍스트인 경우, 주변 정보 인식 모듈(203)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '가전제품'이라는 객체에 대한 관련도가 높으며 긍정적인/부정적인 속성을 갖는 단어인 '전력소모량', '탑재된 기능', 또는 '가격' 등을 객체에 대한 주변 정보로 결정할 수 있다.When the object selected by the user is the image of the 'household appliances' or the text of the 'household appliances', the peripheral information recognition module 203 applies the peripheral information of the object to the peripheral information recognition model, Quot ;, " mounted function ", or " price ", which are related to the object, i.e., the object having the positive / negative attribute, can be determined as the surrounding information about the object.

객체(111)를 유사한 다른 객체와 구분하는데 가장 유용하게 사용될 수 있는 정보의 다른 예로, 객체의 추가 식별 정보가 있다. 객체의 추가 식별 정보는 학습된 주변 정보 인식 모델을 이용하여 객체에 대한 정보를 입력하면 다른 객체와 구분할 수 있는 주변 정보로서 획득될 수 있다. 이 때 추가 식별 정보는 다수 획득될 수 있으며 확률에 기반하여 다수의 추가 식별 정보 중 가장 유용하게 사용될 수 있는 정보가 선택된다. 그 경우, 객체가 표시되는 화면 중 객체의 주변 영역에 대한 이미지에서 다수의 주변 정보를 획득하고, 획득된 다수의 주변 정보 중 확률에 기반하여 높은 확률을 갖는 주변 정보가 추가 식별정보로 선택된다.Another example of information that can be most usefully used to distinguish the object 111 from other similar objects is additional identification information of the object. The additional identification information of the object can be obtained as peripheral information that can be distinguished from other objects by inputting information about the object using the learned peripheral information recognition model. At this time, a plurality of additional identification information can be obtained, and based on the probability, information that is most useful among a plurality of additional identification information is selected. In this case, a plurality of peripheral information is acquired from the image of the peripheral region of the object among the images displayed on the object, and the peripheral information having a high probability based on the probability among the acquired peripheral information is selected as the additional identification information.

또한, 사용자에 의해 선택된 객체가 '사람의 얼굴'이미지 또는 '사람의 이름'에 대응하는 텍스트인 경우, 주변 정보 인식 모듈(230)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '직업', '성별' 및 '나이'를 객체의 추가 식별 정보로 결정할 수 있다.If the object selected by the user is a text corresponding to a 'person's face' image or a 'person's name', the peripheral information recognition module 230 applies the peripheral information of the object to the peripheral information recognition model, Occupation ',' sex 'and' age 'as additional identification information of the object.

또한, 사용자에 의해 선택된 객체가 '자동차'나 '제품'의 이미지인 경우, 주변 정보 인식 모듈(203)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '제조사', '모델명' 및 '제원' 등을 객체의 추가 식별 정보로 결정할 수 있다.If the object selected by the user is an image of 'car' or 'product', the peripheral information recognition module 203 applies' peripheral ',' model name ', and' 'Specification' can be determined as additional identification information of the object.

또한, 사용자에 의해 선택된 객체가 '건물'이나 '장소'의 이미지인 경우, 주변 정보 인식 모듈(203)은 객체의 주변 정보를 주변 정보 인식 모델에 적용한 결과로서, '건물명 또는 장소명', '지역명 또는 나라명'및 '다른 랜드마크' 를 객체의 추가 식별 정보로 결정할 수 있다.In the case where the object selected by the user is an image of 'building' or 'place', the peripheral information recognition module 203 applies the peripheral information of the object to the peripheral information recognition model as 'building name or place name' Name or country name " and " other landmark " may be determined as additional identification information of the object.

다양한 실시예로, 주변 정보 인식 모델은 객체의 주변 정보가 객체의 종류를 고려하여 결정되도록 학습될 수 있다. 이 때, 객체와 유사한 다른 객체를 구분하기 위하여 가장 유용하게 사용될 수 있는 정보를 결정하도록 주변 정보 인식 모델이 지도 학습될 수 있다.In various embodiments, the perimeter information recognition model may be learned such that the perimeter information of the object is determined in consideration of the type of object. At this time, a peripheral information recognition model can be learned to determine information that is most useful for distinguishing objects that are similar to objects.

또한, 객체의 종류에 적합한 상세 정보가 검색될 수 있도록 객체의 종류를 고려하여 객체의 주변 정보의 종류가 결정되도록 주변 정보 인식 모델이 지도 학습될 수 있다. 그 밖에, 객체가 포함된 문서나 이미지에 포함되는 주변 정보의 빈도수 등에 기반한 비지도 학습을 통해 객체와 주변 정보와의 관련도가 학습될 수도 있다. 또한, 검색 결과에 대한 사용자의 피드백 등을 이용한 강화 학습을 통하여 주변 정보 인식 모델이 학습될 수 있다.In addition, the surrounding information recognition model can be instructed so that the type of the surrounding information of the object is determined in consideration of the type of the object so that the detailed information suitable for the object type can be retrieved. In addition, the degree of association between the object and the surrounding information may be learned through the non-background learning based on the frequency of the surrounding information included in the document or the image including the object. In addition, the surrounding information recognition model can be learned through reinforcement learning using user feedback on the search result.

사용자 특성 인식 장치(D)는 전자 장치(A)로부터 안면 정보를 수신할 수 있다. 예로, 사용자 특성 인식 장치(D)는 전자 장치(A)로부터 전자 장치(A)의 통신부(150)를 통해 전자 장치(A)의 얼굴 검출 모듈(146)이 검출한 사용자의 얼굴에 대한 안면 정보를 수신할 수 있다.The user character recognition device D can receive facial information from the electronic device A. [ For example, the user characteristic recognition device D may acquire facial information about the user's face detected by the face detection module 146 of the electronic device A from the electronic device A through the communication unit 150 of the electronic device A, Lt; / RTI >

사용자 특성 인식 장치(D)는 수신된 안면 정보로부터 사용자의 특징을 결정하고, 사용자의 특징 정보를 저장할 수 있다. 사용자의 특징 정보는, 예로, 사용자의 나이, 성별 또는 표정 등을 포함할 수 있다.The user characteristic recognizing device D can determine the characteristic of the user from the received facial information and store the characteristic information of the user. The user's feature information may include, for example, the user's age, gender or facial expression.

특히, 사용자 특성 인식 장치(D)는 안면 정보를 학습된 얼굴 인식 모델의 입력 데이터로 사용하여 안면 정보와 관련된 사용자 특징 정보를 추정할 수도 있다. 학습된 얼굴 인식 모델은, 예로, 신경망 또는 딥러닝 기반의 인식 모델이 될 수 있다.In particular, the user character recognition apparatus D may estimate the user characteristic information related to the face information by using the face information as input data of the learned face recognition model. The learned face recognition model may be, for example, a neural network or a deep learning based recognition model.

부가 데이터 수집 장치(E)는 전자 장치(A)로부터, 예로, 전자 장치(A)의 사용자 프로파일, 전자 장치의 사용 이력 정보 또는 사용자의 피드백을 수집할 수 있다. The additional data collecting device E can collect, for example, the user profile of the electronic device A, the usage history information of the electronic device, or the user's feedback from the electronic device A

사용자 프로파일은, 사용자가 전자 장치(A)에 기 등록한 사용자 정보로서, 예로, 사용자의 이름, 성별, 아이디, 선호 카테고리 및 생체 정보(예로, 키, 몸무게, 병력 등) 중 적어도 하나를 포함할 수 있다. 사용 이력 정보는, 예로, 사용자의 객체 검색 이력, 검색 결과에 대한 피드백 이력 또는 상품 구매 이력 등의 정보를 포함할 수 있다. 사용자 피드백은, 예로, 객체와 연관된 검색 결과에 대한 사용자의 피드백 또는 객체 정보에 대한 사용자의 피드백 중 적어도 하나를 포함할 수 있다. 구체적으로, 객체와 연관된 검색 결과에 대한 사용자의 피드백은, 예로 객체와 연관된 검색 결과에 대한 추가 선택 여부, 객체와 연관된 웹 사이트에 대한 사용자의 액세스 여부, 객체와 연관된 검색 결과에 대한 사용자의 저장, 공유 여부, 객체와 연관된 물품에 대한 사용자의 구매 여부 등을 포함할 수 있다.객체 정보에 대한 사용자 피드백은, 예로, 객체 정보에 대한 사용자의 확인 여부 정보, 객체 정보에 대한 사용자의 수정 정보 또는 사용자의 객체 재선택 정보 등을 포함할 수 있다.The user profile may include at least one of the user's name, gender, ID, preference category and biometric information (e.g., key, weight, medical history, etc.) as user information previously registered in the electronic device A by the user have. The use history information may include information such as a user's object search history, a feedback history of a search result, or a product purchase history, for example. User feedback may include, for example, at least one of user feedback on search results associated with an object or user feedback on object information. Specifically, the user's feedback on the search results associated with the object may include, for example, whether to additionally select search results associated with the object, whether the user has access to the website associated with the object, Whether or not the user has purchased the goods related to the object, etc. The user feedback on the object information includes, for example, information on whether or not the user confirms the object information, user's correction information on the object information, Object reselection information of the object.

추천 장치(B)는 객체 정보, 컨텍스트 정보 및 컨텍스트 인식 정보 중 적어도 하나를 이용하여 객체와 연관된 검색 결과를 제공할 수 있다. 예로, 추천 장치(B)는 객체 인식 장치(C)에서 수신한 객체 정보, 컨텍스트 정보 및 컨텍스트 인식 정보 중 적어도 하나를 이용할 수 있고, 또한, 사용자 특성 인식 장치(D) 및/또는 부가 데이터 수집 장치(E)에서 수신한 사용자의 특징 정보 및/또는 부가 데이터를 함께 이용할 수도 있다. The recommendation apparatus B can provide search results associated with an object using at least one of object information, context information, and context recognition information. For example, the recommendation apparatus B can use at least one of the object information, the context information, and the context recognition information received by the object recognition apparatus C, and the user character recognition apparatus D and / The feature information and / or the additional data of the user received in step (E) may be used together.

더욱 상세하게는, 추천 장치(B)는 별도의 검색 엔진에 수신한 객체 정보, 컨텍스트 정보 및 컨텍스트 인식 정보를 이용한 검색을 요청할 수 있다. 추천 장치(B)는 검색 엔진으로부터 수신한 검색된 결과를 우선 순위를 적용하여 전자 장치(A)로 제공할 수 있다. 예로, 추천 장치(B)는 사용자의 특징 정보 및/또는 부가 데이터를 이용하여 검색 결과에 우선 순위를 적용하여 전자 장치(A)로 제공할 수 있다. 즉, 컨텍스트 정보는 객체와 연관된 검색 결과를 획득하는데 이용될 수도 있고, 객체와 연관된 검색 결과에 우선 순위를 적용하여, 검색 결과를 우선 순위화하기 위하여 이용될 수도 있다.More specifically, the recommendation apparatus B can request a separate search engine to search using the received object information, context information, and context recognition information. The recommendation apparatus B can provide the retrieved result received from the search engine to the electronic device A by applying the priority order. For example, the recommendation apparatus B may apply the priority to the search result using the feature information of the user and / or the additional data and provide it to the electronic device A. [ That is, the context information may be used to obtain a search result associated with an object, and may be used to prioritize search results by applying a priority to search results associated with the object.

검색 엔진은 검색 서비스 제공자가 사용/유지/관리하는 서버에서 동작하는 소프트웨어로, 외부 장치(예로, 추천 장치(B))로부터 객체 정보 및/또는 컨텍스트 정보를 검색어로서 수신하고, 검색 요청을 수신하면, 수신된 검색어를 이용하여 미리 수집하여 저장하고 있는 데이터들 중 검색어와 관련된 데이터를 검색하여 외부 장치로 제공할 수 있다.The search engine is software operating on a server used / maintained / managed by a search service provider. The search engine receives object information and / or context information from an external device (for example, recommendation device B) as a search word, , And can retrieve data related to a query word among the data collected and stored in advance using the received query word, and provide the retrieved data to an external device.

추천 장치(B)가 객체 정보뿐만 아니라 객체의 컨텍스트 정보, 사용자의 특징 정보 및 부가 데이터 중 적어도 하나를 이용하여 검색 결과를 제공함에 따라, 사용자 의도에 부합하는 검색 결과가 제공될 수 있다.As the recommendation device B provides search results using at least one of context information of the object, feature information of the user, and additional data as well as object information, a search result matching the user's intention can be provided.

카메라(160)는 영상을 촬영할 수 있다. 특히, 카메라(160)는 컨텍스트 정보로서 사용자의 안면 이미지를 획득하기 위해, 전자 장치(A)를 사용하는 사용자의 얼굴을 촬영하여 사용자의 얼굴을 포함하는 이미지를 획득할 수 있다.The camera 160 can take a picture. In particular, the camera 160 may acquire an image including the user's face by photographing the face of the user using the electronic device A, in order to obtain the face image of the user as the context information.

도 3은, 다양한 실시예에 따른 전자 장치(A)를 포함하는 네트워크 시스템의 흐름도를 나타낸다.3 shows a flow diagram of a network system including an electronic device A according to various embodiments.

먼저, 도 3에서, 전자 장치(A)의 사용자는 화면에 포함된 객체를 선택할 수 있다(301). 예로, 사용자는 미리 정의된 액션 또는 사용자가 스스로 정의한 액션(예로, 롱 터치, 멀티 터치, 펜 액션 등)을 수행하여 일 객체를 선택할 수 있다.First, in FIG. 3, the user of electronic device A may select an object included in the screen (301). For example, a user may select a work object by performing a predefined action or an action (e.g., long touch, multi-touch, pen action, etc.) that the user has defined.

전자 장치(A)의 화면 캡쳐/좌표 수집 모듈(142)은 사용자 입력에 응답하여, 객체를 포함하는 화면을 캡쳐하고, 디스플레이(110)에서 사용자가 선택한 일 지점에 대응하는 좌표(예로, 터치 좌표)를 수집할 수 있다(303).The screen capture / coordinate acquisition module 142 of the electronic device A captures a screen including the object in response to a user input and displays coordinates corresponding to a point selected by the user on the display 110 (303). ≪ / RTI >

전자 장치(A)는 화면이 캡쳐된 캡쳐 이미지 및 수집된 좌표를 객체 인식 장치(C)에게 전송할 수 있다(305). 이 때, 객체 인식 장치(C)는 전자 장치(A)에 마련될 수도 있고, 또는 전자 장치(A)와 통신 연결하는 별도의 서버에 마련될 수도 있다.The electronic device A may send the captured image captured and the collected coordinates to the object recognition device C (305). At this time, the object recognition device C may be provided in the electronic device A or may be provided in a separate server communicating with the electronic device A.

객체 인식 장치(C)의 객체 영역 검출/분류 모듈(201)은 수신된 캡쳐 이미지 및 선택 좌표에 기반하여, 캡쳐 이미지에서 선택 좌표에 대응하는 객체 영역을 검출하고, 객체 영역을 분류할 수 있다(307). 이 때, 객체 범주는, 예로, 인물, 글자, 상품, 장소, 식물 또는 음식 중에 하나가 될 수 있으며, 전자 장치(A)가 제공하는 응용 서비스가 따라 각각 다르게 정의될 수도 있다.The object region detection / classification module 201 of the object recognition apparatus C can detect an object region corresponding to the selected coordinates in the captured image and classify the object region based on the received captured image and the selected coordinates ( 307). At this time, the category of the object may be one of, for example, a person, a character, a commodity, a place, a plant or a food, and may be defined differently depending on an application service provided by the electronic device A.

다양한 실시예로, 전자 장치(A)의 객체 영역 검출/분류 모듈(144)이 수신된 캡쳐 이미지 및 선택 좌표에 기반하여, 캡쳐 이미지에서 선택 좌표에 대응하는 객체 영역을 검출하고, 객체 영역을 분류할 수 있다. 이 경우, 전자 장치(A)는 객체 영역 및 객체 범주를 객체 인식 장치(C)에게 전송할 수도 있다.In various embodiments, the object region detection / classification module 144 of the electronic device A detects an object region corresponding to the selected coordinates in the captured image based on the received captured image and the selected coordinates, can do. In this case, the electronic device A may transmit the object area and the object category to the object recognition device C.

다양한 실시예로, 전자 장치(A)의 객체 영역 검출 모듈이 객체 영역을 검출하고, 전자 장치(A)가 검출된 객체 영역을 객체 인식 장치(C)에 전송할 수 있다. 이 경우, 객체 인식 장치(C)의 객체 영역 분류 모듈이 객체 영역의 객체 범주를 결정할 수도 있다.In various embodiments, the object area detection module of the electronic device A may detect the object area and the electronic device A may transmit the detected object area to the object recognition device C. In this case, the object region classification module of the object recognition apparatus C may determine the object category of the object region.

객체 영역 검출/분류 모듈(201)은 분류된 객체 범주를 고려하여 서로 다른 복수 개의 세부 객체 인식 모듈 중 일 세부 객체 인식 모듈로 객체 영역을 전달할 수 있다. 예로, 세부 객체 인식 모듈의 종류로는 얼굴 객체 인식 모듈, 상품 객체 인식 모듈, 글자 객체 인식 모듈, 장소 객체 인식 모듈 및 음식 객체 인식 모듈이 각각 존재할 수 있다.The object region detection / classification module 201 can transfer the object region to a detailed object recognition module among a plurality of different detailed object recognition modules in consideration of the classified object category. For example, the detailed object recognition module may include a face object recognition module, a product object recognition module, a character object recognition module, a place object recognition module, and a food object recognition module.

객체 인식 장치(C)의 세부 객체 인식 모듈(202)은 객체 영역 검출/분류 모듈(201)에서 분류된 객체의 범주보다 더욱 세부적으로 객체 영역을 인식하여 객체 정보를 획득할 수 있다(309). 예로, 얼굴 객체 인식 모듈은, 객체 정보로서 인물의 이름을 획득할 수 있다. 또는, 상품 객체 인식 모듈은 객체 정보로서 상품의 아이디를 인식할 수 있다. The detailed object recognition module 202 of the object recognition apparatus C may acquire object information by recognizing the object region more finely than the category of the object classified by the object region detection / classification module 201 (309). For example, the face object recognition module can obtain the name of a person as object information. Alternatively, the merchandise object recognition module can recognize the ID of the merchandise as object information.

한편, 세부 객체 인식 모듈(202)은 더욱 세부적인 분류를 수행하고, 분류된 세부 범주에 기반하여 객체 정보를 획득할 수도 있다. 예로, 상품 객체 인식 모듈은 상품 범주를 객체를 패션, 가방, 신발, 모자, 포장 상품 또는 신선 식품 등과 같은 세부 범주로 세부 분류를 수행할 수 있다. 그리고, 세부 객체 인식 모듈(202)은 세부 범주 내에서 객체를 인식하여 객체 정보를 획득할 수 있다. Meanwhile, the detailed object recognition module 202 may perform more detailed classification and acquire object information based on the classified detailed category. For example, the merchandise object recognition module may classify merchandise categories into subcategories such as fashion, bag, shoes, hat, packaged goods, or fresh food. Then, the detailed object recognition module 202 can recognize the object within the detailed category to acquire the object information.

객체 정보가 획득되면, 객체 인식 장치(C)는 획득된 객체 정보를 컨텍스트 분석/추천 장치(G)로 전송할 수 있다(311). 컨텍스트 분석/추천 장치(G)는 전술한 도 2의 추천 장치(B) 및 객체 인식 장치(C)의 컨텍스트 인식 모듈 중 적어도 하나에 대응될 수 있다.When the object information is obtained, the object recognition apparatus C may transmit the acquired object information to the context analysis / recommendation apparatus G (311). The context analysis / recommendation device G may correspond to at least one of the recommendation device B of FIG. 2 and the context recognition module of the object recognition device C described above.

또한, 컨텍스트 분석/추천 장치(G)는 객체의 선택에 따라 획득된 컨텍스트 정보를 획득할 수 있다(313). 예로, 컨텍스트 분석/추천 장치(G)는 전자 장치(A)로부터 전송된 객체의 선택에 따라 획득된 컨텍스트 정보로서, 객체가 포함된 화면에서 객체의 주변에 위치한 주변 정보 및 전자 장치(A)에 구비된 카메라로 촬영된 촬영 정보 중 적어도 하나를 획득할 수 있다.Also, the context analysis / recommendation device G may acquire the context information acquired according to the selection of the object (313). For example, the context analysis / recommendation apparatus G may include context information obtained according to the selection of the object transmitted from the electronic device A, as peripheral information located around the object on the screen including the object, It is possible to acquire at least one of the photographing information photographed by the provided camera.

컨텍스트 분석/추천 장치(G)는 객체 정보 및 사용자의 객체의 선택 시에 획득한 컨텍스트 정보에 기반하여, 객체와 연관된 검색 결과로서 추천 정보를 획득할 수 있다(315). 이 때, 컨텍스트 분석/추천 장치(G)는 객체 정보 및 컨텍스트 정보를 분석하여 최적의 추천 정보를 획득할 수 있다.The context analysis / recommendation apparatus G may acquire the recommendation information as a search result associated with the object (315) based on the object information and the context information acquired when the user selects the object. At this time, the context analysis / recommendation device G can obtain optimal recommendation information by analyzing the object information and the context information.

예로, 사용자가 선택한 객체의 객체 정보가 유명인의 이름이고, 컨텍스트 정보는 사용자가 선택한 객체의 주변에 위치한 텍스트 정보일 수 있다. 이 경우, 컨텍스트 분석/추천 장치(G)는 텍스트 정보를 분석하고, 분석된 컨텍스트 인식 정보가 콘서트에 관한 내용인 경우, 객체와 연관된 검색 결과로서 콘서트 티켓 정보를 획득할 수 있다.For example, the object information of the object selected by the user is the name of the celebrity, and the context information may be the text information located in the vicinity of the object selected by the user. In this case, the context analysis / recommendation device G may analyze the text information and acquire the concert ticket information as a search result associated with the object if the analyzed context aware information is content related to the concert.

다른 예로, 객체 정보가 상품과 관련된 정보이고, 전자 장치(A)의 사용 이력 정보가 사용자가 지속적으로 상품을 선택하여 가격 비교를 수행한 이력 정보인 경우, 컨텍스트 분석/추천 장치(G)는 객체와 연관된 검색 결과로서 가격 비교 정보를 획득할 수 있다.As another example, if the object information is information related to a product, and the usage history information of the electronic device A is history information in which the user continuously selects a product and performs price comparison, the context analysis / And obtain the price comparison information as a search result associated with the search result.

또 다른 예로, 객체 정보가 상품과 관련된 정보이고, 전자 장치(A)의 사용 이력 정보가 구매 이력 정보로서 사용자의 선호 정보 또는 관심사 정보를 포함하는 경우, 컨텍스트 분석/추천 장치(G)는 과거에 사용자가 구매한 상품의 취향(예로, 옷의 스타일)에 부합하는 정보를 객체와 연관된 검색 결과로서 획득할 수 있다.As another example, if the object information is information related to the goods and the use history information of the electronic device A includes the user's preference information or interest information as purchase history information, the context analysis / Information matching the taste of the purchased product (for example, the style of clothes) can be obtained as a search result associated with the object.

또 다른 예로, 컨텍스트 정보가 전자 장치(A)에 구비된 카메라로 촬영된 촬영 정보일 수 있다. 이 경우, 분석된 촬영 정보 사용자 특징 정보로서, 사용자의 나이, 외모, 성별, 표정 또는 기분을 나타내는 정보인 경우, 컨텍스트 분석/추천 장치(G)는 사용자의 나이, 외모, 성별 또는 기분을 고려한 객체와 연관된 검색 결과를 획득할 수 있다.As another example, the context information may be shot information shot by a camera provided in the electronic device A. [ In this case, the context analysis / recommendation device G may be an object that considers the age, the appearance, the sex, or the mood of the user in the case of information indicating the age, appearance, sex, facial expression or mood of the user, Can obtain search results associated with < RTI ID = 0.0 >

또 다른 예로, 객체 정보가 상품 관련 정보이고, 컨텍스트 정보는 객체의 주변에 위치한 텍스트 정보일 수 있다. 이 때, 텍스트 정보에 가격 정보가 이미 포함되어 있는 경우, 컨텍스트 분석/추천 장치(G)는 사용자가 상품에 대한 가격 정보 보다 상품의 스펙과 같은 상세 정보에 더욱 관심이 있는 것으로 판단하여, 상품과 관련된 스펙 정보를 획득할 수 있다.As another example, the object information may be product related information, and the context information may be text information located around the object. At this time, if the price information is already included in the text information, the context analysis / recommendation device G determines that the user is more interested in the detailed information such as the specification of the product than the price information on the product, Related specification information can be obtained.

다음으로, 컨텍스트 분석/추천 장치(G)는 추천 정보로서 객체와 연관된 검색 결과를 전자 장치(A)로 전송할 수 있다(317). 이 때, 추천 정보는, 사용자의 선택 의도에 부합하는 객체와 관련된 맞춤형 검색 결과를 포함할 수 있다. 전자 장치(A)는 수신한 추천 정보로서 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(319). Next, the context analysis / recommendation device G may transmit the search result associated with the object to the electronic device A as recommendation information (317). At this time, the recommendation information may include a customized search result related to an object matching the user's selection intention. The electronic device A may display the search result associated with the object in the display area as the received recommendation information (319).

도 4는, 다양한 실시예에 따른 전자 장치(A)를 포함하는 네트워크 시스템의 흐름도이다.4 is a flow diagram of a network system including an electronic device A according to various embodiments.

도 4에서, 전자 장치(A)가 사용자의 객체의 선택에 따라, 캡쳐 이미지 및 수집된 좌표를 객체 인식 장치(C)로 전송하는 동작 401 내지 동작 405는 도 3의 동작 301 내지 동작 305에 대응되어 중복되는 설명은 생략한다.4, operations 401 to 405 for transferring the captured image and the collected coordinates to the object recognition apparatus C according to the selection of the user's object correspond to the operations 301 to 305 in Fig. 3 And redundant explanations are omitted.

한편, 전자 장치(A)는 캡쳐 이미지 및 수집된 좌표뿐만 아니라 컨텍스트 정보를 객체 인식 장치(C)로 전송할 수도 있다. 이 때, 컨텍스트 정보는, 예로, 사용자에 의하여 선택된 객체의 주변에 위치한 주변 정보(예로, 텍스트 정보 또는 영상 정보) 등이 될 수 있다.On the other hand, the electronic device A may transmit the captured image and the collected coordinates as well as the context information to the object recognition device C. At this time, the context information may be, for example, peripheral information (e.g., text information or image information) located around the object selected by the user.

객체 인식 장치(C)는 객체 영역을 검출하고 분류할 수 있다(409). 또한, 객체 인식 장치(C)는 분류된 객체 범주를 고려하여, 세부적으로 객체 영역을 인식할 수 있다(411). 이 때, 객체 인식 장치(C)는 동작 407에서 수신된 컨텍스트 정보를 활용하여 객체 영역을 인식함으로써 인식 결과를 개선할 수 있다(413). The object recognition apparatus C can detect and classify the object region (409). In addition, the object recognition apparatus C can recognize the object region in detail considering the classified object category (411). At this time, the object recognition apparatus C can improve the recognition result by recognizing the object region using the context information received in operation 407 (413).

객체 인식 장치(C)는 개선된 인식 결과로서 객체 정보를 획득하고, 획득된 객체 정보를 컨텍스트 분석/추천 장치(G)로 전송할 수 있다(415).The object recognition apparatus C may acquire object information as an improved recognition result and transmit the acquired object information to the context analysis / recommendation apparatus G (415).

컨텍스트 분석/추천 장치(G)가 수신한 객체 정보에 기반하여 전자 장치(A)로 객체와 연관된 검색 결과를 전송하면, 전자 장치(A)는 검색 결과를 디스플레이 영역에 표시할 수 있다. 이에 대응하는 동작 417 내지 동작 421은 도 3의 동작 315 내지 동작 319에 대응되어 중복되는 설명은 생략한다.When the context analysis / recommendation device G transmits the search result associated with the object to the electronic device A based on the received object information, the electronic device A can display the search result in the display area. Operations 417 to 421 corresponding to these operations correspond to operations 315 to 319 of FIG. 3, and redundant explanations are omitted.

도 5는, 다양한 실시예에 따른 전자 장치(A)를 포함하는 네트워크 시스템의 흐름도이다.5 is a flow diagram of a network system including an electronic device A according to various embodiments.

도 5에서, 객체 인식 장치(C)는 사용자가 선택한 객체에 대응하는 객체 영역의 인식 결과(예로, 객체 정보)를 전자 장치(A)로 전송할 수 있다(501).5, the object recognition apparatus C may transmit the recognition result (e.g., object information) of the object region corresponding to the object selected by the user to the electronic apparatus A (501).

이에 대한 응답으로, 전자 장치(A)는 인식 결과에 대한 사용자 피드백을 객체 인식 장치(C)로 전송할 수 있다(503).In response, the electronic device A may send 505 the user feedback on the recognition result to the object recognition device C (503).

예로, 전자 장치(A)는 객체 인식 장치(C)에서 수신된 객체 영역의 인식 결과를 획득하여, 디스플레이 영역에 표시할 수 있다. 사용자는 표시된 인식 결과에 대한 사용자 피드백을 제공할 수 있다. 예로, 사용자는 인식 결과의 확인 여부를 묻는 팝업에 대한 응답 피드백을 입력할 수 있다.For example, the electronic device A can acquire the recognition result of the object area received by the object recognition device C and display it on the display area. The user can provide user feedback on the displayed recognition result. For example, the user can input the response feedback to the pop-up asking whether to confirm the recognition result.

객체 인식 장치(C)가 학습된 객체 인식 모델을 이용하여 객체를 인식하는 경우, 수신한 응답 피드백을 이용하여 객체를 인식하는 객체 인식 모델을 업데이트할 수 있다(505). 이 경우, 인식 결과에 따른 사용자 피드백이 많아질 수록 객체 인식 모델의 인식 기능은 계속하여 향상될 수 있다.When the object recognition apparatus C recognizes the object using the learned object recognition model, the object recognition model that recognizes the object using the received response feedback may be updated (505). In this case, the more the user feedback based on the recognition result is, the more the recognition function of the object recognition model can be continuously improved.

다양한 실시예로, 사용자 피드백이 없는 경우에도, 객체 인식 장치(C)은 전자 장치(A)가 객체 인식을 위하여 전송한 캡쳐 이미지 또는 객체 영역을 이용하여 지도/비지도 학습 방식으로 객체 인식 모델을 학습시킬 수도 있다.In various embodiments, even if there is no user feedback, the object recognition apparatus C can use the captured image or the object area transmitted by the electronic device A for object recognition to generate an object recognition model in a map / It can also be learned.

객체 인식 장치(C)는 객체 인식 모델의 출력 값인 인식 결과(예로, 객체 정보)를 컨텍스트 분석/추천 장치(G)로 전송할 수 있다(507).The object recognition apparatus C may transmit the recognition result (e.g., object information), which is an output value of the object recognition model, to the context analysis / recommendation apparatus G (507).

또한, 전자 장치(A)는 컨텍스트 정보, 사용자 프로파일 및 사용 이력 정보 중 적어도 하나를 데이터 수집 장치(E)로 전송할 수 있다(509~513). In addition, the electronic device A may transmit at least one of the context information, the user profile, and the usage history information to the data collection device E (509-513).

사용 이력 정보는, 전자 장치(A)의 사용 이력 정보로서, 예로, 검색 결과에 대한 사용 이력 정보를 포함할 수 있다. 검색 결과에 대한 사용 이력 정보는, 예로, 검색 결과에 기반하여 상품을 구매한 구매 이력, 사용자의 검색 결과 평가 이력 및 검색 결과를 탐색 또는 연결 링크를 선택하는 탐색 이력 중 적어도 하나를 포함할 수 있다. 또한, 데이터 수집 장치(E)는 검색 결과에 대한 사용자 특징 정보를 수집할 수 있다. 이 때의 사용자 특징 정보는 검색 결과 제공 후 카메라로 촬영된 정보에 기반하여 분석된 정보로서 검색 결과에 대한 사용자의 표정 또는 기분을 나타내는 정보 등을 포함할 수 있다.The usage history information may include usage history information on the search result, for example, as usage history information of the electronic device (A). The usage history information on the search result may include, for example, at least one of a purchase history of purchasing a product based on the search result, a search result evaluation history of the user, and a search history of searching for a search result or a connection link . Further, the data collection device E can collect user characteristic information on the search result. The user characteristic information at this time may be information analyzed based on the information photographed by the camera after providing the search result, and may include information indicating the user's facial expression or mood of the search result.

데이터 수집 장치(E)가 수집한 수집 데이터들(예로, 컨텍스트 정보, 사용자 프로파일, 사용 이력 정보 또는 사용자의 특징 정보 등)은 컨텍스트 분석/추천 장치(G)로 전송될 수 있다(515). 데이터 수집 장치(E)는, 상기 데이터들을 주기적(예로, 매시간 또는 매일)으로 컨텍스트 분석/추천 장치(G)로 전송할 수도 있고, 특정 이벤트 신호 발생 시(예로, 데이터 요청 시) 컨텍스트 분석/추천 장치(G)로 전송할 수도 있다.The collected data (e.g., context information, user profile, usage history information, or user characteristic information) collected by the data collection device E may be transmitted 515 to the context analysis / recommendation device G. FIG. The data collection device E may send the data to the context analysis / recommendation device G periodically (e.g., hourly or daily), or may send the context analysis / (G).

컨텍스트 분석/추천 장치(G)는 동작 517에서 객체 인식 장치(C)로부터 수신한 객체 정보와 데이터 수집 장치(E)로부터 수신한 수집 데이터들(예로, 컨텍스트 정보, 사용자 프로파일, 사용자 특징 정보 또는 사용자 사용 이력 등)에 기반하여, 사용자 의도에 부합하는 객체와 연관된 검색 결과를 획득할 수 있다. The context analysis / recommendation apparatus G may receive the object information received from the object recognition apparatus C at operation 517 and the collected data (e.g., context information, user profile, user characteristic information, History of use, etc.), a search result associated with an object corresponding to the user's intention can be obtained.

이때, 컨텍스트/추천 장치(G)는 객체 인식 장치(C)로부터 수신한 객체 정보 및 데이터 수집 장치(E)로부터 수신한 수집 데이터들 바탕으로 검색 엔진에 검색을 요청할 수 있다. 컨텍스트/추천 장치(G)는 검색 엔진으로부터 수신한 검색된 결과에 대해 우선 순위를 적용하여 전자 장치(A)로 제공할 수 있다. 예로, 컨텍스트/추천 장치(G)는 검색 엔진을 통해 객체 정보를 이용하여 검색 결과를 획득하고, 사용 이력 정보(예로, 구매 이력 정보, 탐색 이력 정보, 인식 결과 만족도 정보 등)를 바탕으로 검색 결과에 우선 순위를 적용하여 전자 장치(A)에 제공 또는 추천할 수 있다. 즉, 컨텍스트/추천 장치(G)는 사용 이력이 있는 검색 결과에 대해 우선순위를 높게 적용하여 전자 장치(A)에 제공 또는 추천할 수 있다.또 다른 예로, 사용자의 전자 장치(A)의 사용 이력이 객체 영역의 인식 결과와 유사한 인식 결과에 대한 사용 이력(예로, 구매 이력, 탐색 이력, 인식 결과 만족도 등)을 포함하는 경우, 컨텍스트 분석/추천 장치(G)은 사용 이력을 이용하여, 인식 결과에 대한 사용자의 주 관심 분야를 판단할 수 있고, 판단 결과를 바탕으로 사용자 의도에 부합하는 맞춤형 정보를 전자 장치(A)에 제공 또는 추천할 수 있다.At this time, the context / recommendation apparatus G can request the search engine to search the object based on the object information received from the object recognition apparatus C and the collected data received from the data collection apparatus E. [ The context / recommendation device G may provide the retrieved result received from the search engine to the electronic device A by applying a priority order. For example, the context / recommendation device G acquires the search result using the object information through the search engine and searches the search result based on the use history information (for example, purchase history information, search history information, To the electronic device A by applying the priority to the electronic device A. In other words, the context / recommendation device G can provide or recommend to the electronic device A by applying a high priority to search results with history of use. As another example, the use of the user's electronic device A When the history includes usage histories (e.g., purchase histories, search histories, recognition result satisfaction, etc.) for recognition results similar to the recognition results of the object regions, the context analysis / recommendation apparatus G uses It is possible to determine the user's main field of interest with respect to the result and to provide or recommend the customized information conforming to the user's intention to the electronic device A based on the determination result.

다음으로, 컨텍스트 분석/추천 장치(G)가 획득된 객체와 연관된 검색 결과를 전자 장치(A)로 전송하면(519), 전자 장치(A)는 수신한 검색 결과를 디스플레이 영역에 표시할 수 있다(521).Next, the context analysis / recommendation device G transmits 519 the search result associated with the acquired object to the electronic device A, and the electronic device A can display the received search result in the display area (521).

도 6은, 다양한 일 실시예에 따른 객체와 연관된 검색 결과를 제공하는 과정을 도식화한 도면이다.FIG. 6 is a diagram illustrating a process of providing search results associated with objects according to various embodiments.

먼저, 도 6의 (a)에서, 전자 장치(A)는 터치 액션 또는 펜 액션을 이용하여 화면에 포함된 객체를 선택하는 사용자 입력을 감지할 수 있다. 사용자 입력에 응답하여, 도 6의 (b)와 같이, 전자 장치(A)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지(610)를 생성할 수 있다. 이 때, 전자 장치(A)는 백그라운드 쓰레드(background thread)를 통하여 화면 캡쳐를 수행할 수 있다.6A, the electronic device A may sense a user input for selecting an object included in the screen using a touch action or a pen action. In response to the user input, electronic device A may generate a captured image 610 by capturing a screen including the object, as shown in FIG. 6B. At this time, the electronic device A can perform screen capturing through a background thread.

도 6의 (c)에서, 전자 장치(A)는 캡쳐 이미지(610)에서 사용자가 선택에 대응하는 터치 좌표에 기반하여 객체 영역(611)을 검출할 수 있다. 그리고, 전자 장치(A)는 객체 영역(611)을 인식하여 일 객체 범주로 분류할 수 있다. 그리고, 전자 장치(A)는 세부 객체 인식을 위하여 분류된 범주와 관련된 세부 객체 인식 장치(H)로 객체 영역을 전송할 수 있다. 세부 객체 인식 장치(H)는, 예로, 도 2의 세부 객체 인식 모듈(202)에 대응될 수 있다.6 (c), the electronic device A may detect the object area 611 based on the touch coordinates corresponding to the user's selection in the captured image 610. [ Then, the electronic device A recognizes the object area 611 and classifies it into one object category. Then, the electronic device A can transmit the object area to the detailed object recognition device H related to the category classified for detailed object recognition. The detailed object recognition device H may correspond to, for example, the detailed object recognition module 202 of FIG.

또한, 전자 장치(A)는 전자 장치(A)에서 촬영된 촬영 정보를 사용자 특성 인식 장치(D)로 전송할 수 있다. 사용자 특성 인식 장치(D)는 수신된 촬영 정보에 기반하여 사용자 특성을 인식할 수 있다. 예로, 사용자 특성 인식 장치(D)는 사용자의 나이, 성별 또는 표정 등을 인식할 수 있다.Further, the electronic device A can transmit the photographing information photographed by the electronic device A to the user characteristic recognizing device D. [ The user characteristic recognizing device D can recognize the user characteristic based on the received photographing information. For example, the user character recognition device D can recognize the age, sex, facial expression, etc. of the user.

세부 객체 인식 장치(H)는 객체 영역에 대응하는 객체를 인식하여 객체 정보(예로, 객체명, 객체의 식별자, 객체의 상세 레벨)를 획득할 수 있다. 그리고, 세부 객체 인식 장치(H)는 객체 정보를 상세 정보 획득 장치(I)에 전송할 수 있다.The detailed object recognition apparatus H can acquire object information (for example, an object name, an object identifier, and an object level of detail) by recognizing an object corresponding to the object region. Then, the detailed object recognition device H can transmit the object information to the detailed information acquisition device I.

상세 정보 획득 장치(I)는 수신한 객체 정보에 기반하여, 객체 정보와 관련된 1차 검색 결과로서 객체에 관한 상세 정보를 획득할 수 있다. 객체에 관한 상세 정보는 객체의 일반 정보 또는 구매 정보 등을 포함할 수 있다. 일반 정보는, 예로, 객체가 인물인 경우, 인물의 이름, 나이, 성명, 성별 또는 경력 등의 정보를 포함할 수 있다. 또한, 구매 정보는, 인물과 관련된 상품(예로, 콘서트 티켓, 도서, 음반, VOD 등) 또는 이를 구매할 수 있는 정보를 포함할 수 있다.The detailed information obtaining apparatus I can obtain detailed information on the object as the primary search result related to the object information based on the received object information. Detailed information about the object may include general information of the object or purchase information. The general information may include, for example, information such as the name, age, name, sex, or career of the person, if the object is a person. In addition, the purchase information may include goods related to the person (for example, a concert ticket, a book, a record, a VOD, or the like) or information capable of purchasing it.

세부 객체 인식 장치(H)는 상세 정보 획득 장치(I)로부터 객체 정보에 관한 상세 정보를 획득하고, 상기 상세 정보를 컨텍스트 분석/추천 장치(G)로 전송할 수 있다. 또는, 상세 정보 획득 장치(I)가 객체 정보에 관한 상세 정보를 직접 컨텍스트 분석/추천 장치(G)로 전송할 수도 있다.The detailed object recognition apparatus H may acquire detailed information on the object information from the detailed information acquisition apparatus I and transmit the detailed information to the context analysis / recommendation apparatus G. [ Alternatively, the detailed information obtaining apparatus I may send detailed information on the object information directly to the context analysis / recommendation apparatus G. [

컨텍스트 분석/추천 장치(G)는 세부 객체 인식 장치(H)에서 수신한 객체 정보 또는 상세 정보, 사용자 특성 인식 장치(D)에서 수신한 사용자 특성 정보, 전자 장치(A)에서 수신한 사용자 프로파일, 컨텍스트 정보 중 적어도 하나를 이용하여 2차 검색 결과로서 추천 정보를 획득할 수 있다. 예로, 컨텍스트 분석/추천 장치(G)는 사용자가 선택한 객체의 주변에 위치한 주변 정보(예로, 텍스트 정보, 영상 정보), 촬영 정보에 기반하여 인식된 사용자 특성 정보(예로, 사용자의 나이, 성별 기분), 및 전자 장치(A)의 사용 이력 데이터(621)를 이용하여 분석된 사용자의 선호 및 관심 정보에 기반하여 최적의 추천 정보를 획득할 수 있다.The context analysis / recommendation device G includes object information or detailed information received at the detailed object recognition device H, user property information received at the user property recognition device D, user profile received at the electronic device A, The recommendation information may be acquired as a secondary search result using at least one of the context information. For example, the context analysis / recommendation device G may include peripheral information (e.g., text information, image information) located around the object selected by the user, user characteristic information recognized based on the shooting information (e.g., ) And the use history data 621 of the electronic device A, based on the user's preference and interest information analyzed.

이때, 컨텍스트/추천 장치(G)는 세부 객체 인식 장치(H)로부터 수신한 객체 정보 및 상세 정보, 사용자 특성 인식 장치(D)에서 수신한 사용자 특성 정보, 전자 장치(A)에서 수신한 사용자 프로파일, 컨텍스트 정보 중 적어도 하나를 바탕으로 검색 엔진에 검색을 요청할 수 있다. 컨텍스트/추천 장치(G)는 검색 엔진으로부터 수신한 검색된 결과에 대해 사용자가 선호하는 검색 결과를 전자 장치(A)로 제공할 수 있다. 예로, 컨텍스트/추천 장치(G)는 검색 엔진을 통해 객체 정보 및 상세 정보를 이용하여 검색 결과를 획득하고, 사용자 특성 정보(예를 들어, 사용자 성별, 나이, 기분, 표정 등), 사용자 프로파일(예를 들어, 사용자 선호 분야, 사용자 검색 이력, 사용자 구매 이력 등) 및 컨텍스트 정보를 바탕으로 검색 결과 중 사용자가 선호하는 검색 결과를 판단하여 전자 장치(A)에 제공 또는 추천할 수 있다. 또는, 컨텍스트/추천 장치(G)는 사용자 특성 정보, 사용자 프로파일 및 컨텍스트 정보 중 적어도 하나를 바탕으로 검색 결과의 우선순위를 판단하여 전자 장치(A)에 제공 또는 추천할 수 있다.At this time, the context / recommendation device G includes object information and detailed information received from the detailed object recognition device H, user property information received from the user property recognition device D, user profile information received from the electronic device A, , And may request the search engine to search based on at least one of the context information. The context / recommendation device G may provide the user with a preferred search result for the retrieved result received from the search engine to the electronic device A. [ For example, the context / recommendation device G may obtain search results using object information and detailed information through a search engine, and may include user characteristics information (e.g., user gender, age, mood, (E.g., a user preference field, a user search history, a user purchase history, and the like) and context information, and provides the recommendation result to the electronic device A or recommends the recommendation result. Alternatively, the context / recommendation device G may determine or prioritize the search results based on at least one of the user characteristic information, the user profile, and the context information to provide or recommend to the electronic device A.

다음으로, 컨텍스트 분석/추천 장치(G)는 획득된 추천 정보인 객체와 연관된 검색 결과를 전자 장치(A)로 전송할 수 있다.Next, the context analysis / recommendation device G may transmit the search result associated with the object, which is the obtained recommendation information, to the electronic device A. [

전자 장치(A)는 수신한 객체와 연관된 검색 결과(631)를 화면을 통하여 사용자에게 제공할 수 있다. The electronic device A can provide the user with a search result 631 associated with the received object through the screen.

도 7은 다양한 실시예에 따른 주변 정보를 이용하여 객체와 연관된 검색 결과를 제공하는 도면이다.Figure 7 is a diagram that provides search results associated with an object using perimeter information according to various embodiments.

도 7에서, 전자 장치(A)는 선택된 객체(701) 및 객체 주변의 주변 정보(예로, 텍스트 또는 이미지 등)(702)에 기반하여, 객체와 연관된 검색 결과(703)를 제공할 수 있다. 예로, 전자 장치(A)에 이미지와 텍스트가 포함된 신문 기사가 표시될 수 있다. 이 경우, 사용자가 객체로서 이미지에 포함된 특정 가수의 얼굴(701)을 선택하면, 객체 인식 장치(C)는 이미지에서 선택된 얼굴을 분석하여 얼굴에 대응하는 특정 가수의 이름을 객체 정보로서 획득할 수 있다. In Figure 7, electronic device A may provide search results 703 associated with an object based on the selected object 701 and perimeter information (e.g., text or images, etc.) 702 around the object. For example, a newspaper article including an image and text may be displayed on the electronic device A. In this case, when the user selects a specific artist's face 701 included in the image as an object, the object recognition apparatus C analyzes the selected face in the image and acquires the name of the specific artist corresponding to the face as object information .

또한, 객체 인식 장치(C)는 이미지가 포함된 신문 기사의 텍스트를 분석한 결과, 신문 기사의 전체 내용 중 '연말 콘서트'(702)라는 키워드를 특정 가수와 관련된 컨텍스트 인식 정보로서 획득할 수 있다. 이 경우, 컨텍스트 분석/추천 장치(G)는 객체 인식 장치(C)로부터 수신한 '특정 가수의 이름' 및 '연말 콘서트'각각을 쿼리로서 이용할 수 있다. 예로, 컨텍스트 분석/추천 장치(G)는 상기 쿼리들을 이용하여 검색 엔진을 대상으로 관련 정보에 대한 검색을 요청할 수 있다. 그리고, 검색 엔진으로부터 상기 쿼리에 기초한 검색 결과를 수신할 수 있다. 객체 인식 장치(C)는 수신된 검색 결과를 사용자의 특성 정보 및 부가 데이터 등을 이용하여 선별적으로 제공할 수도 있다.As a result of analyzing the text of the newspaper article containing the image, the object recognition apparatus C can acquire the keyword " year-end concert " 702 among the entire contents of the newspaper article as the context recognition information related to the specific artist . In this case, the context analysis / recommendation apparatus G can use each of the 'specific artist name' and 'year-end concert' received from the object recognition apparatus C as a query. For example, the context analysis / recommendation device G may request the search engine to search for relevant information using the queries. Then, the search result based on the query can be received from the search engine. The object recognition apparatus C may selectively provide the received search result using characteristic information of the user, additional data, or the like.

다양한 실시예로, 객체 인식 장치(C)는 객체와 관련된 컨텍스트 인식 정보를 도출하기 위해서, 객체가 포함된 문서의 전체 내용 또는 객체의 주변에 위치한 문장으로부터 객체와 관련도가 가장 높은 단어 등을 추론할 수 있다. 또한, 객체 인식 장치(C)는 객체가 포함된 이미지가 촬영된 것으로 추정되는 장소 또는 시간 등을 추론할 수 있다. 이 경우, 객체 인식 장치(C)는 객체의 주변 정보를 학습된 주변 정보 인식 모델의 입력 데이터로 사용하여 객체와 관련된 컨텍스트 인식 정보를 추론할 수 있다. 학습된 주변 정보 인식 모델은, 예로, 신경망 또는 딥러닝 기반의 인식 모델이 될 수 있다.In order to derive the context recognition information related to the object, the object recognition apparatus C may infer the entire contents of the document including the object or a word having the highest degree of association with the object, can do. In addition, the object recognition apparatus C can deduce a place or a time at which the image including the object is estimated to be photographed. In this case, the object recognition apparatus C can deduce the context recognition information related to the object by using the peripheral information of the object as input data of the learned peripheral information recognition model. The learned peripheral information recognition model may be, for example, a neural network or a deep learning based recognition model.

도 8은 다양한 실시예에 따른 객체를 선택하는 전자 장치의 사용도들을 나타낸다.Figure 8 shows use diagrams of an electronic device for selecting objects according to various embodiments.

예로, 도 8의 (a)와 같이, 사용자는 객체를 선택하기 위하여 객체가 표시된 디스플레이 영역의 일 지점(801)을 터치(예로, 롱터치 또는 더블터치)할 수 있다. 또는, 도 8의 (b)와 같이, 사용자는 전자 펜을 이용하여 객체가 표시된 디스플레이 영역의 일부(803)를 드로잉할 수 있다.For example, as shown in FIG. 8A, a user can touch (e.g., a long touch or a double touch) a point 801 of a display area in which an object is displayed in order to select an object. Alternatively, as shown in FIG. 8B, the user can draw a portion 803 of the display area in which the object is displayed using the electronic pen.

또는, 도 8의 (c-1)과 같이, 전자 장치(A)는 화면에 객체와 연관된 검색 결과를 제공하는 UI(예로, 아이콘)(805)을 표시할 수 있다. 예로, 사용자가 전자 장치(A)에서 전자 펜을 인출하면, 전자 장치(A)는, 전자 펜의 인출에 따라 발생된 이벤트에 기반하여, 객체와 연관된 검색 결과를 제공하는 UI(805)를 표시할 수 있다. 다른 예로, 디스플레이 영역의 가장자리(예로, 엣지 영역)에서 중심으로 드래그하는 사용자 입력에 따라, 전자 장치(A)는 객체와 연관된 검색 결과를 제공하는 UI(805)를 표시할 수 있다. Alternatively, as shown in FIG. 8 (c-1), the electronic device A may display a UI (e.g., icon) 805 that provides search results associated with objects on the screen. For example, when the user withdraws the electronic pen from electronic device A, electronic device A displays UI 805 that provides search results associated with the object, based on events generated as a result of the withdrawal of the electronic pen can do. In another example, in response to a user input that is dragged to the center of the display area (e.g., an edge area), the electronic device A may display a UI 805 that provides search results associated with the object.

이러한 상황에서, 사용자가 상기 UI(805)를 선택하면, 전자 장치(A)는 UI 표시 전에 디스플레이 영역에 표시 중이던, 객체를 포함하는 화면을 캡쳐하고, 도 8의 (c-1)과 같이, 전자 장치(A)는 화면의 캡쳐 결과로서 캡쳐 이미지를 표시할 수 있다. 캡쳐 이미지가 표시되면, 예로, 사용자는 캡쳐 이미지의 일 영역(807)을 전자 펜으로 드로잉하여 객체를 선택할 수 있다.In this situation, when the user selects the UI 805, the electronic device A captures a screen including the object, which is being displayed in the display area before displaying the UI, and, as shown in (c-1) The electronic device A can display the captured image as a result of capture of the screen. When the captured image is displayed, for example, the user can select an object by drawing one area 807 of the captured image with the electronic pen.

도 9a 및 도 9b는, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.9A and 9B are diagrams that provide search results associated with objects in accordance with various embodiments.

일 예로, 도 9a의 (a)에서, 사용자가 객체인 건축물(901)을 선택하면, 전자 장치(A)는 객체와 연관된 검색 결과로서 건축물에 대한 상세 정보(902)를 디스플레이 영역의 일부에 표시할 수 있다. 이 경우, 건축물이 숙박이 가능한 건축물인 경우, 전자 장치(A)는 검색 결과로서 객실 예약 등이 가능한 UI 엘리먼트(903)를 함께 표시할 수도 있다.9A, when the user selects the building 901 as an object, the electronic device A displays detailed information 902 about the building as a search result associated with the object in a part of the display area can do. In this case, when the building is a building that can be accommodated, the electronic device A may display a UI element 903 capable of making a room reservation or the like as a search result.

다른 예로, 도 9a의 (b)에서, 사용자가 유명인(905)을 선택하면, 전자 장치(A)는 검색 결과로서 유명인에 대한 프로필 정보(906)를 디스플레이 영역의 일부에 표시할 수 있다. 이 때, 전자 장치(A)는 선택된 객체와 관련된 다른 검색 결과를 제공할 수 있는 UI 엘리먼트(907)를 함께 표시할 수도 있다.As another example, in (b) of FIG. 9A, if the user selects celebrity 905, electronic device A may display profile information 906 for celebrities as part of the search in a portion of the display area. At this time, the electronic device A may display a UI element 907 that may provide other search results associated with the selected object.

예로, 객체가 유명인인 경우, 전자 장치(A)는 검색 결과로서 사용자 프로필, 방송 진행 정보, 영화 출연 정보, 앨범 정보 또는 공연 정보 등과 같은 검색 카테고리를 선택할 수 있는 UI 엘리먼트를 함께 표시할 수 있다. 이 경우, 방송 진행 정보를 선택하는 사용자 입력이 수신되면, 전자 장치(A)는 방송 진행 정보와 관련된 검색 결과를 디스플레이 영역의 일부에 표시할 수 있다.For example, when the object is a celebrity, the electronic device A may display a UI element capable of selecting a search category such as a user profile, broadcast progress information, movie appearance information, album information, or performance information as a search result. In this case, when a user input for selecting broadcast progress information is received, the electronic device A can display a search result related to the broadcast progress information on a part of the display area.

한편, 상기 각각의 카테고리 정보들을 선택할 수 있는 UI 엘리먼트는 검색 카테고리들의 우선 순위에 따라 순차적인 순서로 표시될 수도 있다. 예로, 객체와 연관된 검색 결과로서, 사용자의 의도에 부합하는 검색 카테고리들이 여러 개인 경우, 사용자의 의도에 가장 적합한 우선 순위에 따라 각각의 카테고리 정보들을 선택할 수 있는 UI 엘리먼트들이 순차적으로 나열될 수 있다.The UI elements for selecting the category information may be displayed in a sequential order according to the priority of the search categories. For example, if there are a plurality of search categories matching the user's intention as a search result associated with the object, the UI elements that can select respective category information according to the priority most suitable for the user's intention can be sequentially listed.

다른 예로, 도 9a의 (c)에서, 사용자는 객체로서 텍스트(908)를 선택할 수도 있다. 예로, 텍스트(908)가 영화 제목인 경우, 전자 장치(A)는 텍스트(908)와 관련된 검색 결과(909)로서 영화와 관련된 내용, 평점, 썸네일 이미지, 티저 영상 및 영화 예약 UI 엘리먼트 중 적어도 하나를 디스플레이 영역의 일부에 표시할 수 있다.As another example, in FIG. 9A (c), the user may select text 908 as an object. For example, if the text 908 is a movie title, then the electronic device A may retrieve at least one of the movie related content, rating, thumbnail image, teaser image and movie reserve UI element as search results 909 associated with the text 908 Can be displayed on a part of the display area.

또 다른 예로, 도 9b의 (d)에서, 사용자는 전자 펜을 이용하여 대각선으로 드래그하여 객체(911)를 선택할 수 있다. 이 경우, 전자 장치(A)는 대각선 드래그에 대응하는 객체 영역(912)을 하이라이트하여 표시할 수 있다. 그리고, 전자 장치(A)는 객체(911)와 연관된 검색 결과로서 객체에 대한 상세 정보(913)를 디스플레이 영역의 일부에 표시할 수 있다. 예로, 전자 장치(A)를 객체(911)를 상품으로 간주하여, 객체와 관련된 상품 가격, 판매처, 유사 상품 등을 표시할 수 있다.As another example, in (d) of Fig. 9B, the user can select an object 911 by dragging diagonally using the electronic pen. In this case, the electronic device A can highlight and display the object area 912 corresponding to the diagonal drag. Then, the electronic device A can display detailed information 913 about the object as a search result associated with the object 911 in a part of the display area. For example, the electronic device A can be regarded as a commodity, and the commodity price, the seller, the similar commodity, etc. related to the object can be displayed.

또 다른, 예로, 도 9b의 (e)와 같이, 사용자는 전자 펜을 이용하여 객체(914)의 경계를 따라 드로잉할 수 있다. 이 경우, 전자 장치(A)는 드로잉 입력에 대응하는 세그멘테이션된 객체 영역(915)을 하이라이트하여 표시할 수 있다. 그리고, 전자 장치(A)는 객체와 연관된 검색 결과로서 객체에 대한 상세 정보(916)를 디스플레이 영역의 일부에 표시할 수 있다.As another example, as shown in (e) of FIG. 9B, the user can draw along the boundary of the object 914 using the electronic pen. In this case, the electronic device A can highlight and display the segmented object region 915 corresponding to the drawing input. Then, the electronic device A can display detailed information 916 on the object as part of the display area as search results associated with the object.

도 10은, 다양한 실시예에 따른 객체와 연관된 검색 결과를 검색 중인 것을 나타내는 도면이다.Figure 10 is a diagram showing searching for search results associated with objects according to various embodiments.

전술한 도 9b의 (d)와 같이, 사용자가 객체를 선택하는 경우, 도 10의 (a)와 같이 전자 장치(A)는 트랜지션 효과로서 선택된 객체와 함께, 객체와 연관된 검색 결과를 검색 중인 것을 나타내는 메시지(1001)(예로, 검색 중입니다)를 화면에 표시할 수 있다. 또는, 전술한 도 9b의 (e)와 같이, 사용자가 객체를 선택하는 경우, 도 10의 (b)와 같이 전자 장치(A)는 선택된 객체와 함께, 객체와 연관된 검색 결과를 검색 중인 것을 나타내는 메시지(1002)를 화면에 표시할 수 있다.As shown in (d) of FIG. 9B, when the user selects an object, the electronic device A, together with the object selected as the transition effect, searches for a search result associated with the object A message 1001 (e.g., searching) may be displayed on the screen. Alternatively, as shown in FIG. 9B (e), when the user selects an object, the electronic device A, together with the selected object, as shown in FIG. 10B, indicates that the search result associated with the object is being searched The message 1002 can be displayed on the screen.

이와 같이, 사용자와 선택한 객체에 대응하는 객체 영역 및 검색 상태 메시지를 표시하는 경우, 사용자에게는 객체와 연관된 검색 결과를 검색하기까지의 시간이 짧게 느껴지는 효과를 제공할 수 있다.In this way, when displaying the object area and the search status message corresponding to the user and the selected object, the user can be provided with an effect of shortening the time until the search result associated with the object is searched.

도 11은, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.11 is a diagram that provides search results associated with objects in accordance with various embodiments.

일 예로, 도 11의 (a)에서, 사용자는 객체(1101)가 포함된 화면(1102)을 캡쳐하는 사용자 입력을 수행할 수 있다. 사용자 입력에 따라, 도 11의 (b)에서, 전자 장치(A)는 캡쳐 이미지(1103)를 생성하고, 생성된 캡쳐 이미지(1103)을 대상으로 텍스트 인식(예로, OCR(optical character reader)) 또는 영상 인식을 수행하여 텍스트(1104) 및 객체 영역(1105)을 검출할 수 있다.For example, in FIG. 11A, a user may perform a user input for capturing a screen 1102 including an object 1101. 11B, the electronic device A generates a captured image 1103 and performs text recognition (e.g., an optical character reader (OCR)) on the generated captured image 1103, Or image recognition may be performed to detect text 1104 and object region 1105.

그리고, 전자 장치(A)는 검출된 객체 영역 및 텍스트를 이용하여 객체와 연관된 검색 결과를 제공할 수 있다.Then, the electronic device A can provide search results associated with the object using the detected object region and text.

예로, 도 11의 (a)에서, 화면(1102)이 객체(1101)가 포함된 웹 페이지인 경우, 전자 장치(A)는 텍스트 인식 및 영상 인식을 기반으로 캡쳐된 웹 페이지를 분석하여 객체 영역(1105) 및 텍스트(1104)를 검출하고, 텍스트(1104)를 컨텍스트 정보로서 이용하여, 객체와 연관된 검색 결과인 상품 정보(1106)을 디스플레이 영역에 표시할 수 있다. 상품 정보(1106)에는, 예로, 객체와 연관된 상품을 구매할 수 있는 UI 엘리먼트(미도시)를 포함할 수도 있다. 이 경우, UI 엘리먼트의 선택에 응답하여, 전자 장치(A)는 상품 구매 화면을 디스플레이 영역에 표시할 수도 있다.For example, in FIG. 11A, if the screen 1102 is a web page including the object 1101, the electronic device A analyzes the captured web page based on the text recognition and the image recognition, And display the product information 1106, which is a search result associated with the object, in the display area by using the text 1104 and the text 1104 as the context information. The item information 1106 may include, for example, a UI element (not shown) capable of purchasing a product associated with the object. In this case, in response to the selection of the UI element, the electronic device A may display the goods purchase screen in the display area.

도 12는, 다양한 실시예에 따른 촬영 정보를 이용하여 객체와 연관된 검색 결과를 제공하는 도면이다.12 is a diagram for providing search results associated with an object using photographing information according to various embodiments.

도 12의 (a)에서, 사용자가 객체(1201)를 선택하는 경우, 전자 장치(A)는 카메라(예로, 전면 카메라)를 이용하여 객체를 선택하는 사용자를 촬영할 수 있다.In Fig. 12A, when the user selects the object 1201, the electronic device A can photograph a user who selects an object using a camera (e.g., a front camera).

전자 장치(A)는 사용자에 촬영에 따라 생성된 촬영 정보를 이용하여 사용자의 특징 정보를 획득할 수 있다. 예로, 전자 장치(A)는 촬영 정보에 기반하여 사용자의 성별, 나이, 표정, 기분 등을 인식할 수 있다. 다음으로, 전자 장치(A)는 선택된 객체에 대응하는 객체 영역 및 사용자의 특징 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다. 그리고, 도 12의 (b)와 같이 디스플레이 영역에 객체와 관련된 검색 결과(1203)를 표시할 수 있다.The electronic device A can acquire the characteristic information of the user by using the photographing information generated according to the photographing by the user. For example, the electronic device A can recognize the sex, age, facial expression, mood, etc. of the user based on the photographing information. Next, the electronic device A may obtain search results associated with the object using the object region corresponding to the selected object and the user's feature information. Then, the search result 1203 related to the object can be displayed in the display area as shown in FIG. 12 (b).

이에 따라, 사용자의 특성 및 상태를 고려한 검색 결과가 제공되어 전자 장치(A)를 이용하는 사용자 만족도가 증가할 수 있다.Accordingly, the search result considering the characteristics and the state of the user is provided, and the user satisfaction using the electronic device A can be increased.

도 13은, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.Figure 13 is a diagram that provides search results associated with objects in accordance with various embodiments.

도 13에서, 전자 장치(A)가 본 문서에 따른 객체와 연관된 검색 결과를 제공하는 경우, 팝업 화면에 검색 결과를 포함하여 제공할 수도 있다.In Fig. 13, when electronic device A provides a search result associated with an object according to this document, it may be provided with a search result on a pop-up screen.

이 경우, 도 13의 (a)와 같이, 팝업 화면(1301)이 디스플레이 영역의 일 측으로부터 점차적으로 나타나면서, 도 13의 (b)와 같이, 미리 정의된 디스플레이 영역의 일부에 표시될 수도 있다. 이 때, 팝업 화면(1301)은 객체를 오버랩하지 않도록 디스플레이 영역에 표시될 수 있다.In this case, as shown in Fig. 13A, the pop-up screen 1301 gradually appears from one side of the display area, and may be displayed in a part of the predefined display area as shown in Fig. 13B . At this time, the pop-up screen 1301 may be displayed in the display area so as not to overlap the objects.

이 경우, 팝업 화면(1301)의 표시 위치는 선택된 객체의 위치에 따라 결정되며, 팝업 화면의 크기는 객체의 화면 상의 크기와 전체 화면에서 객체를 제외한 화면의 크기에 따라 결정될 수 있다. 또는, 팝업 화면의 배경 부분은 투명하게 표시되어 객체를 포함하는 화면이 보이도록 제공할 수 있다.In this case, the display position of the pop-up screen 1301 is determined according to the position of the selected object, and the size of the pop-up screen may be determined according to the size of the object on the screen and the size of the screen excluding the object on the entire screen. Alternatively, the background portion of the pop-up screen may be displayed transparently to provide a view of the screen containing the object.

검색 결과를 화면에 표시하는 방법(미도시)으로는, 선택된 객체와 오버랩 되지 않도록 객체를 포함하는 화면의 일부 영역에 검색 결과가 표시될 수 있다. 이 경우 객체와 검색 결과가 오버랩 되지 않도록 하기 위해서 객체의 표시 위치를 변경할 수 있다. 예를 들어, 검색 결과가 화면의 아래 영역에 표시되는 경우 객체는 화면 위 영역에 표시되도록 객체의 표시 위치가 변경되고, 검색 결과가 화면의 위 영역에 표시되는 경우 객체는 화면의 아래 영역에 표시되도록 객체의 표시 위치가 변경될 수 있다.In a method (not shown) of displaying a search result on a screen, a search result may be displayed in a partial area of a screen including an object so as not to overlap with the selected object. In this case, the display position of the object can be changed so that the object and the search result do not overlap. For example, if the search result is displayed in the lower area of the screen, the object is displayed in the upper area of the screen. If the search result is displayed in the upper area of the screen, the object is displayed in the lower area of the screen So that the display position of the object can be changed.

도 14는, 다양한 실시예에 따른 객체와 연관된 복수 개의 검색 결과들을 제공하는 도면이다.14 is a diagram that provides a plurality of search results associated with an object according to various embodiments.

도 14에서, 전자 장치(A)는 검색 카테고리 별로 본 문서에 따라 객체와 연관된 검색 결과를 획득할 수 있다. 예로, 사용자가 선택한 객체가 호텔 건물인 경우, 검색 카테고리는 '호텔 정보', '호텔 방문기', '호텔 위치' 등을 포함할 수 있다. 이 경우, 전자 장치(A)는 사용자 입력에 따라, 사용자 의도에 맞는 우선 순위에 기반하여 상기 검색 카테고리에 해당하는 검색 결과들을 순차적으로 제공할 수 있다. In Fig. 14, the electronic device A can acquire search results associated with objects according to the document by search category. For example, if the object selected by the user is a hotel building, the search category may include "hotel information", "hotel visitor", "hotel location", and the like. In this case, the electronic device A may sequentially provide search results corresponding to the search category based on the user's preference in accordance with the user's intention.

예로, 도 14의 (a)에서, 전자 장치(A)는 객체와 연관된 검색 결과로서 최상위 순위의 검색 결과(예로, 호텔 정보)(1401)를 표시할 수 있다. 이 때, 사용자 입력(예로, 스와이프 입력)이 수신되면, 도 14의 (b)와 같이, 전자 장치(A)는 차순위의 검색 결과(예로, 호텔 방문기)(1402)를 표시할 수 있다.For example, in FIG. 14 (a), electronic device A may display top ranking search results (e.g., hotel information) 1401 as search results associated with an object. At this time, when a user input (for example, a swipe input) is received, the electronic device A can display a search result (e.g., a hotel visitor) 1402 of the subordinate as shown in Fig. 14B.

계속하여, 사용자 입력이 수신되면, 도 14의 (c)와 같이, 전자 장치(A)는 다음 순위의 검색 결과(예로, 호텔 위치)(1403)를 표시할 수 있다. 그리고, 추가 사용자 입력이 수신되면, 도 14의 (d)와 같이, 전자 장치(A)는 정보(예로, 호텔 이용 문의)를 전송할 수 있는 입력창(1404)을 표시할 수 있다. 이 경우, 사용자가 입력창에 문의 사항을 작성하고 보내기 버튼을 선택하면, 전자 장치(A)는 입력된 문의 사항을 객체와 관련된 외부 장치(예로, 관리자 메일 서버)로 전송할 수 있다.Subsequently, when the user input is received, the electronic device A can display the next ranking search result (e.g., hotel location) 1403, as shown in Fig. 14C. Then, when additional user input is received, the electronic device A can display an input window 1404 in which information (for example, a hotel use inquiry) can be transmitted, as shown in (d) of FIG. In this case, when the user creates an inquiry in the input window and selects the send button, the electronic device A can transmit the input inquiry to an external device (for example, an administrator mail server) related to the object.

도 15는, 다양한 실시예에 따른 객체와 연관된 검색 결과를 제공하는 도면이다.15 is a diagram that provides search results associated with objects in accordance with various embodiments.

도 15의 (a)에서, 전자 장치(A)는 본 문서에 따라 획득된 객체와 관련된 검색 결과(1501)를 디스플레이 영역에 표시할 수 있다. 이 때, 객체와 관련된 검색 결과(1501)가 복수 개의 검색 카테고리 중 일 카테고리와 연관된 결과인 경우, 디스플레이 영역의 일부에는 다른 복수 개의 검색 카테고리들 각각의 식별 정보들(1502~1505)이 표시될 수 있다. In Fig. 15A, the electronic device A can display the search result 1501 related to the object acquired in accordance with the document in the display area. At this time, if the search result 1501 related to the object is a result related to one category among a plurality of search categories, identification information 1502 to 1505 of each of a plurality of other search categories may be displayed in a part of the display area have.

이 때, 복수 개의 식별 정보들(1502~1505) 중 일 식별 정보를 선택하는 사용자 입력(1503)에 응답하여, 도 15의 (b)와 같이, 전자 장치(A)는 선택된 카테고리와 관련된 검색 결과(1511)를 디스플레이 영역에 표시할 수 있다. 이 때, 디스플레이 영역의 일부에는 선택된 카테고리를 제외한 다른 카테고리들의 식별 정보들(1502,1504,1505,1506)이 표시될 수 있다.At this time, in response to the user input 1503 for selecting one piece of identification information among the plurality of pieces of identification information 1502 to 1505, the electronic device A, as shown in FIG. 15B, (1511) can be displayed in the display area. At this time, the identification information 1502, 1504, 1505, and 1506 of other categories except for the selected category may be displayed in a part of the display area.

도 16a 내지 도 16c는 다양한 실시예에 따른, 다양한 어플리케이션이 실행되는 동안 사용자에 의해 선택된 객체와 연관된 검색 결과를 제공하는 도면이다.16A-16C are diagrams that provide search results associated with an object selected by a user during execution of various applications, in accordance with various embodiments.

어플리케이션이 실행되는 동안 어플리케이션의 실행 화면에 포함된 객체를 선택하는 기 설정된 사용자 입력(예를 들어, 롱프레스 터치, 더블 탭 터치, 가로 드래그 터치, 강한 압력의 터치, 폐곡선으로 객체가 표시된 영역을 드로잉하는 입력 등)이 감지되면, 전자 장치(A)는 현재 표시되는 어플리케이션의 실행 화면을 캡쳐하고, 선택된 객체를 식별하여 관련 정보를 검색할 수 있다. 또는 어플리케이션이 실행되는 동안 어플리케이션의 실행 화면에 포함된 특정 아이콘 또는 전자 장치(A)에 구비된 특정 버튼을 선택하고 객체를 선택하는 사용자 입력이 감지되면, 전자 장치(A)는 현재 표시되는 어플리케이션의 실행 화면을 캡쳐하고, 선택된 객체를 식별하여 관련 정보를 검색할 수 있다.(E.g., a long press touch, a double tap touch, a horizontal drag touch, a strong pressure touch, an area where an object is displayed with a closed curve), which selects an object included in an execution screen of an application while the application is running , The electronic device A can capture the execution screen of the currently displayed application, identify the selected object, and retrieve the related information. Or when a user inputs a specific icon included in the execution screen of the application or a specific button included in the electronic device A and selects an object is detected while the application is being executed, Capture the run screen, identify the selected object, and retrieve relevant information.

이때, 전자 장치(A)는 어플리케이션의 실행 화면 상에서 아래에서 위 방향으로 선택된 객체에 대한 검색 결과를 포함하는 화면(예를 들어, 팝업 화면)을 제공할 수 있다.At this time, the electronic device A may provide a screen (for example, a pop-up screen) including a search result for the object selected in the upward direction from below on the execution screen of the application.

그리고, 제공되는 검색 결과는 복수의 검색 카테고리 별로 획득될 수 있으며, 사용자 특성 정보(예를 들어, 사용자 나이, 성별, 기분 등) 및 사용자 프로파일(예를 들어, 사용자 검색 이력, 사용자 구매 이력, 피드백 정보 등)을 정보를 바탕으로 복수의 검색 카테고리에 대한 우선 순위가 결정될 수 있다. The provided search result may be acquired for each of a plurality of search categories, and may include information on user characteristics (for example, user age, sex, mood, etc.) and user profile (e.g., user search history, Information, etc.), the priority for a plurality of search categories can be determined.

그리고, 검색 결과는 높은 우선 순위를 가지는 검색 카테고리에 대해서는 상세 정보를 제공하고, 다른 검색 카테고리에 대해서는 메뉴로 제공할 수 있다. 예를 들어, 선택된 객체가 "호텔"인 경우, 우선 순위가 높은 검색 카테고리인 "호텔 후기"에 대해서는 상세 정보를 제공하고, "호텔 예약", "호텔 가는 길", "호텔 주변 관광지" 등과 같은 검색 카테고리에 대해서는 메뉴(또는 아이콘)으로 검색 결과를 제공할 수 있다.Then, the search result provides detailed information for a search category having a high priority, and can provide a menu for another search category. For example, if the selected object is a "hotel ", detailed information is provided for the" hotel late ", which is a high priority search category, and the detailed information such as "hotel reservation "," For a search category, a search result may be provided by a menu (or an icon).

그리고, 전자 장치(A)는 복수의 검색 카테고리에 대한 사용자 선택 및 사용자 감정 상태를 바탕으로 피드백 정보를 생성하여 사용자 프로파일을 업데이트할 수 있다.Then, the electronic device A can update the user profile by generating feedback information based on user selection and user emotion states for a plurality of search categories.

본 발명의 일 실시예로, 웹 브라우저 어플리케이션이 실행되는 동안, 전자 장치(A)는 사용자 입력에 따라 웹 브라우저 어플리케이션의 실행 화면에 표시된 객체를 선택하는 사용자 입력을 수신할 수 있다. 이때, 사용자 입력은 표시 중인 객체를 기설정된 시간 이상 터치하는 롱프레스 터치 입력, 표시 중인 객체를 복수회 터치하는 더블 탭 터치 입력, 표시 중인 객체를 포함하는 영역을 가로 방향으로 드래그하는 드래드 입력, 표시 중인 객체를 기설정된 이상의 압력으로 터치하는 터치 입력, 표시 중인 객체를 포함하는 영역을 폐곡선으로 드로잉하는 터치 입력이 포함될 수 있다. 또한, 전자 장치(A)는 도 16a의 (a)에 도시된 바와 같이, 웹 브라우저 어플리케이션의 실행 화면 상에 검색 버튼(1610)을 표시할 수 있으며, 사용자에 의해 검색 버튼(1610)이 선택된 후 객체를 선택하는 사용자 입력을 수신할 수 있다. 또한, 전자 장치(A)는 특정 버튼(예를 들어, 인공지능 에이전트를 실행하기 위한 버튼 등)이 선택된 후 객체를 선택하는 사용자 입력을 수신할 수 있다.In one embodiment of the present invention, while the web browser application is running, the electronic device A may receive user input to select an object displayed on the execution screen of the web browser application according to the user input. At this time, the user input includes a long press touch input for touching the displayed object over a predetermined time, a double tap touch input for touching the displayed object a plurality of times, a drag input for horizontally dragging an area including the displayed object, A touch input for touching a displayed object with a predetermined pressure or more, and a touch input for drawing an area including a displayed object into a closed curve. 16A, the electronic device A can display the search button 1610 on the execution screen of the web browser application. After the search button 1610 is selected by the user And receive user input selecting the object. In addition, the electronic device A may receive user input to select an object after a specific button (e.g., a button for executing an AI agent) is selected.

상술한 바와 같은 사용자 입력이 수신되면, 전자 장치(A)는 표시중인 웹 브라우징 어플리케이션의 실행 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다.When the user input as described above is received, the electronic device A can capture an execution screen of the displayed web browsing application to generate a captured image.

그리고, 전자 장치(A)는 캡쳐 이미지 중 사용자에 의해 선택된 객체에 대한 객체 정보를 바탕으로 선택된 객체에 대한 검색 결과를 획득할 수 있다. 이때, 전자 장치(A)는 도 16a의 (b),(c)와 같이, 선택된 객체에 대한 검색 결과를 포함하는 팝업 화면(1620)을 아래 방향에서 윗 방향으로 이동하여 제공할 수 있다. 그리고, 전자 장치(A)는 도 16a의 (c)에 도시된 바와 같이, 웹 브라우징 어플리케이션의 실행 화면 상에 팝업 화면(1620)을 포함할 수 있다. 즉, 전자 장치(A)는 웹 브라우징 어플리케이션의 실행 화면을 디스플레이(110) 상에 제거할 수 있다.Then, the electronic device A can obtain a search result for the selected object based on the object information about the object selected by the user among the captured images. At this time, the electronic device A can move the pop-up screen 1620 including the search result of the selected object in the upward direction from the downward direction as shown in (b) and (c) of FIG. The electronic device A may include a pop-up screen 1620 on the execution screen of the web browsing application, as shown in (c) of FIG. 16. That is, the electronic device A can remove the execution screen of the web browsing application on the display 110. [

특히, 팝업 화면(1620) 상에는 복수의 카테고리(예를 들어, 구매 정보 카테고리, 관련 뉴스 카테고리, 후기 카테고리 등)가 포함될 수 있다. 이때, 사용자 프로파일 정보를 바탕으로 우선 순위가 높게 결정된 구매 정보 카테고리는 상세 정보가 제공되며, 우선 순위가 낮게 결정된 관련 뉴스 카테고리, 후기 카테고리는 관련 아이콘만 제공될 수 있다.In particular, the pop-up screen 1620 may include a plurality of categories (e.g., purchase information category, related news category, late category, etc.). At this time, detailed information is provided for the purchase information category having a high priority determined based on the user profile information, and only the related icon is provided for the related news category and the late category determined to have a low priority.

전자 장치(A)는 복수의 카테고리에 대한 사용자 선택 결과를 반영하여 사용자 피드백 정보를 업데이트할 수 있다.The electronic device A can update the user feedback information by reflecting user selection results for a plurality of categories.

또한, 전자 장치(A)는 사용자 음성을 함께 이용하여 선택된 객체에 대한 검색 결과를 획득할 수 있다. 예를 들어, 객체를 선택하는 동안 "어디서 구매할 수 있어"라는 사용자 음성이 입력된 경우, 전자 장치(A)는 선택된 객체에 대한 검색 카테고리로 "구매 정보 카테고리"를 결정하고, 결정된 객체 정보 및 검색 카테고리를 바탕으로 검색 결과를 제공할 수 있다.In addition, the electronic device A may use the user's voice together to obtain search results for the selected object. For example, when the user's voice "Where can I buy" is entered during the selection of the object, the electronic device A determines the "purchase information category" as the search category for the selected object, You can provide search results based on categories.

본 발명의 다른 실시예로, 갤러리 어플리케이션이 실행되는 동안, 전자 장치(A)는 도 16b의 (a)에 도시된 바와 같이, 사용자 입력에 따라 갤러리 어플리케이션의 실행 화면에 표시된 객체를 선택하는 사용자 입력을 수신할 수 있다. 이때, 사용자 입력은 도 16a에서 설명한 바와 같으므로, 중복되는 설명은 생략한다.In another embodiment of the present invention, while the gallery application is being executed, the electronic device A, as shown in FIG. 16B (a), selects a user input Lt; / RTI > At this time, since the user input is the same as described with reference to FIG. 16A, a duplicate description will be omitted.

사용자 입력이 수신되면, 전자 장치(A)는 표시중인 갤러리 어플리케이션의 실행 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다.When the user input is received, the electronic device A can capture an execution screen of the displayed gallery application to generate a captured image.

그리고, 전자 장치(A)는 캡쳐 이미지 중 사용자에 의해 선택된 객체에 대한 객체 정보를 바탕으로 선택된 객체에 대한 검색 결과를 획득할 수 있다. 이때, 선택된 객체가 텍스트를 포함하는 경우, 전자 장치(A)는 OCR을 이용하여 객체 내에 포함된 텍스트를 인식하고, 인식된 텍스트를 객체 정보로 이용할 수 있다. 또는 전자 장치(A)는 갤러리 어플리케이션의 실행 화면 상에 포함된 이미지의 메타 데이터(예를 들어, 촬영 위치 정보, 촬영 시간 정보 등)를 컨텍스트 정보로 이용할 수 있다. 예를 들어, 선택된 객체가 에펠 탑인 경우, 전자 장치(A)는 이미지의 메타 데이터에 포함된 위치 정보가 "프랑스, 파리"임을 이용하여 사용자에 의해 선택된 객체가 에펠 탑임을 인식할 수 있다.Then, the electronic device A can obtain a search result for the selected object based on the object information about the object selected by the user among the captured images. In this case, if the selected object includes text, the electronic device A can recognize the text included in the object using OCR, and use the recognized text as object information. Alternatively, the electronic device A can use metadata (e.g., photographing position information, photographing time information, etc.) of an image included on the execution screen of the gallery application as context information. For example, when the selected object is the Eiffel Tower, the electronic device A can recognize that the object selected by the user is the Eiffel Tower by using the location information included in the metadata of the image as "France, Paris ".

전자 장치(A)는 선택된 객체에 대한 검색 결과를 포함하는 팝업 화면(1640)을 아래 방향에서 윗 방향으로 이동하여, 도 16b의 (b) 와 같이, 실행 화면의 하단 영역에 팝업 화면(1640)을 제공할 수 있다.The electronic device A moves the pop-up screen 1640 including the search result of the selected object from the down direction to the upper direction and displays the pop-up screen 1640 in the lower area of the execution screen as shown in (b) Can be provided.

특히, 팝업 화면(1640) 상에는 복수의 카테고리(예를 들어, 상세 정보 카테고리, 주변 정보 카테고리, 관련 이미지 카테고리 등)가 포함될 수 있다. 이때, 사용자 프로파일 정보를 바탕으로 우선 순위가 높게 결정된 상세 정보 카테고리는 상세 정보가 제공되며, 우선 순위가 낮게 결정된 관련 주변 정보 카테고리, 관련 이미지 카테고리는 아이콘만 제공될 수 있다.In particular, a plurality of categories (for example, detailed information category, peripheral information category, related image category, etc.) may be included on the pop-up screen 1640. [ At this time, the detailed information category having a high priority determined based on the user profile information is provided with detailed information, and only the icon of the related peripheral information category and the related image category having a low priority is provided.

전자 장치(A)는 복수의 카테고리에 대한 사용자 선택 결과를 반영하여 사용자 피드백 정보를 업데이트할 수 있다.The electronic device A can update the user feedback information by reflecting user selection results for a plurality of categories.

본 발명의 또 다른 실시예로, 카메라 어플리케이션이 실행되는 동안, 전자 장치(A)는 사용자 입력에 따라 갤러리 어플리케이션의 실행 화면에 표시된 객체를 선택하는 사용자 입력을 수신할 수 있다. 이때, 사용자 입력은 도 16a에서 설명한 바와 같으므로, 중복되는 설명은 생략한다. In another embodiment of the present invention, while the camera application is running, the electronic device A may receive user input to select an object displayed on the run screen of the gallery application according to user input. At this time, since the user input is the same as described with reference to FIG. 16A, a duplicate description will be omitted.

또한, 전자 장치(A)는 도 16c의 (a)에 도시된 바와 같이, 카메라 어플리케이션의 실행 화면 상에 AR 기능 버튼(1650)을 표시할 수 있으며, 사용자에 의해 AR 기능 버튼(1650)이 선택된 후 도 16c의 (b)에 도시된 바와 같이, 객체를 선택하는 사용자 입력을 수신할 수 있다.Further, the electronic device A can display the AR function button 1650 on the execution screen of the camera application as shown in FIG. 16C (a), and when the AR function button 1650 is selected by the user After that, as shown in FIG. 16 (b), a user input for selecting an object can be received.

사용자 입력이 수신되면, 전자 장치(A)는 표시중인 카메라 어플리케이션의 실행 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다. 다만, 전자 장치(A)는 별도로 화면을 캡쳐하지 않고, 촬영된 이미지 중 객체를 포함하는 이미지를 이용할 수 있다.When the user input is received, the electronic device A can capture an execution screen of the displayed camera application to generate a captured image. However, the electronic device A can use an image including an object among captured images without capturing a screen separately.

그리고, 전자 장치(A)는 캡쳐 이미지 중 사용자에 의해 선택된 객체에 대한 객체 정보를 바탕으로 선택된 객체에 대한 검색 결과를 획득할 수 있다. 이때, 선택된 객체가 텍스트를 포함하는 경우, 전자 장치(A)는 OCR을 이용하여 객체 내에 포함된 텍스트를 인식하고, 인식된 텍스트를 객체 정보로 이용할 수 있다. 또는 전자 장치(A)는 촬영 이미지의 메타 데이터(예를 들어, 촬영 위치 정보, 촬영 시간 정보 등)를 컨텍스트 정보로 이용할 수 있다. Then, the electronic device A can obtain a search result for the selected object based on the object information about the object selected by the user among the captured images. In this case, if the selected object includes text, the electronic device A can recognize the text included in the object using OCR, and use the recognized text as object information. Alternatively, the electronic device A can use metadata of the shot image (e.g., shooting location information, shooting time information, and the like) as the context information.

전자 장치(A)는 선택된 객체에 대한 검색 결과를 포함하는 팝업 화면(1660)을 아래 방향에서 윗 방향으로 이동하여, 도 16c의 (c) 와 같이, 실행 화면의 하단 영역에 팝업 화면(1660)을 제공할 수 있다.The electronic device A moves the pop-up screen 1660 including the search result of the selected object from the down direction to the upper direction and displays the pop-up screen 1660 in the lower area of the execution screen as shown in (c) Can be provided.

특히, 팝업 화면(1640) 상에는 복수의 카테고리(예를 들어, 상세 정보 카테고리, 주변 정보 카테고리, 관련 이미지 카테고리 등)가 포함될 수 있다. 이때, 사용자 프로파일 정보를 바탕으로 우선 순위가 높게 결정된 상세 정보 카테고리는 상세 정보가 제공되며, 우선 순위가 낮게 결정된 관련 주변 정보 카테고리, 관련 이미지 카테고리는 아이콘만 제공될 수 있다.In particular, a plurality of categories (for example, detailed information category, peripheral information category, related image category, etc.) may be included on the pop-up screen 1640. [ At this time, the detailed information category having a high priority determined based on the user profile information is provided with detailed information, and only the icon of the related peripheral information category and the related image category having a low priority is provided.

전자 장치(A)는 복수의 카테고리에 대한 사용자 선택 결과를 반영하여 사용자 피드백 정보를 업데이트할 수 있다.The electronic device A can update the user feedback information by reflecting user selection results for a plurality of categories.

도 17은, 다양한 실시예에 따른 외부 장치와 연동하여 객체와 연관된 검색 결과를 제공하는 흐름도이다.Figure 17 is a flow diagram that provides search results associated with an object in conjunction with an external device in accordance with various embodiments.

먼저, 전자 장치(A)는 객체를 포함하는 화면을 표시할 수 있다(1701).First, the electronic device A can display a screen including an object (1701).

이 경우, 객체를 선택하는 사용자 입력이 감지되면(1702-Y), 전자 장치(A)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(1703). 이 때, 캡쳐 이미지는 객체를 포함하는 화면을 대신하여 디스플레이 영역에 표시될 수 있다. 또한, 객체는 사용자의 입력에 대응하는 터치 좌표에 기반하여 캡쳐 이미지로부터 검출될 수 있다.In this case, when a user input for selecting an object is sensed (1702-Y), the electronic device A may capture a screen including the object to generate a captured image (1703). At this time, the captured image can be displayed in the display area instead of the screen including the object. In addition, the object may be detected from the captured image based on the touch coordinates corresponding to the user's input.

그리고, 전자 장치(A)는 캡쳐 이미지 중 적어도 일부를 외부 장치로 전송할 수 있다(1704). 이때, 전자 장치(A)는 선택된 객체에 대응하는 객체 영역에 대한 정보(예를 들어, 객체 영역의 좌표 등)을 함께 전송할 수 있다. Then, the electronic device A can transmit at least a part of the captured image to the external device (1704). At this time, the electronic device A may transmit information (for example, coordinates of the object area) about the object area corresponding to the selected object together.

그리고, 전자 장치(A)는 캡쳐 이미지에 포함된 객체에 대응하는 객체 정보 및 객체와 관련된 추가 정보를 기반하여 검색된 검색 결과를 외부 장치로부터 수신 할 수 있다(1705).Then, the electronic device A may receive the retrieved search result from the external device based on the object information corresponding to the object included in the captured image and the additional information related to the object (1705).

이때, 객체 정보는 캡쳐 이미지의 적어도 일부 중 객체에 대응하는 객체 영역을 인식하여 획득된 정보이고, 추가 정보는 캡쳐 이미지의 적어도 일부 중 객체 영역의 주변 영역을 인식하여 획득한 정보일 수 있다. 특히, 객체 정보는 객체 영역을 객체 정보를 추정하도록 설정된 학습된 인식 모델에 적용하여 획득된 정보이고, 추가 정보는 주변 영역을 통해 추가 정보를 추정하도록 설정된 학습된 인식 모델에 적용하여 획득된 정보일 수 있다.At this time, the object information is information obtained by recognizing the object region corresponding to the object of at least a part of the captured image, and the additional information may be information obtained by recognizing the peripheral region of the object region among at least a part of the captured image. Particularly, the object information is information obtained by applying the object region to the learned recognition model set to estimate the object information, and the additional information is information obtained by applying the learned information to the learned recognition model set to estimate the additional information through the surrounding region .

또한, 검색된 검색 결과는 객체 정보 및 추가 정보를 검색 카테고리를 추정하도록 설정된 학습된 인식 모델에 적용하여 획득된 검색 카테고리에 기반하여 검색된 검색 결과일 수 있다. 이때, 검색된 검색 결과는 객체 정보 및 추가 정보 이외에 전자 장치(A)의 사용 이력 정보, 전자 장치(A)의 사용자의 사용자 프로파일, 전자 장치(A)에 구비된 카메라로 촬영된 촬영 정보 중 적어도 하나를 추가적으로 이용하여 검색될 수 있다.The retrieved retrieval result may be the retrieval result based on the retrieval category obtained by applying the object information and the additional information to the learned recognition model set to estimate the retrieval category. At this time, the searched search result includes at least one of the history information of the electronic device A, the user profile of the user of the electronic device A, and the shooting information shot by the camera provided in the electronic device A, As shown in FIG.

다음으로, 전자 장치(A)는 획득된 검색 결과를 디스플레이 영역에 표시할 수 있다(1706). 이 때, 전자 장치(A)는 검색 결과가 객체와 오버랩되지 않도록 디스플레이 영역의 일 측에 표시할 수 있다. 또한, 전자 장치(A)는 검색 결과와 함께 객체 정보를 함께 표시할 수 있다. 또한, 전자 장치(A)는 검색 결과 또는 객체 정보의 표시에 따른 사용자 피드백을 외부 장치로 전송할 수 있다.Next, the electronic device A can display the obtained search result in the display area (1706). At this time, the electronic device A can display one side of the display area so that the search result does not overlap with the object. Further, the electronic device A can display the object information together with the search result. Further, the electronic device A can transmit user feedback according to the display of the search result or the object information to the external device.

도 18은, 다양한 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.18 is a block diagram showing a configuration of an electronic device according to various embodiments.

도 18에 도시된 바와 같이, 전자 장치(A)는 영상 획득부(1810), 영상 처리부(1820), 디스플레이부(1830), 통신부(1840), 메모리(1850), 오디오 처리부(1860), 오디오 출력부(1870), 사용자 입력부(1880) 및 프로세서(1890) 중 적어도 하나를 포함할 수 있다. 한편, 도 18에 도시된 전자 장치(A)의 구성은 일 예에 불과하므로, 반드시 전술된 블록도에 한정되는 것은 아니다. 따라서, 전자 장치(A)의 종류 또는 전자 장치(A)의 목적에 따라 도 18에 도시된 전자 장치(A의 구성의 일부가 생략 또는 변형되거나, 추가될 수도 있음은 물론이다. 18, the electronic device A includes an image acquisition unit 1810, an image processing unit 1820, a display unit 1830, a communication unit 1840, a memory 1850, an audio processing unit 1860, An output 1870, a user input 1880, and a processor 1890. On the other hand, the configuration of the electronic device A shown in Fig. 18 is merely an example, and is not necessarily limited to the above-described block diagrams. Therefore, it goes without saying that part of the configuration of the electronic device A shown in Fig. 18 may be omitted, modified or added depending on the kind of the electronic device A or the purpose of the electronic device A.

영상 획득부(1810)는 다양한 소스를 통해 영상 데이터를 획득할 수 있다. 예로, 영상 획득부(1810)는 카메라로 구현되어 외부 환경을 촬영하여 촬영 정보를 획득할 수 있다. 영상 획득부(1810)를 통해 획득된 영상 데이터는 영상 처리부(1820)에서 처리될 수 있다.The image acquisition unit 1810 may acquire image data through various sources. For example, the image acquiring unit 1810 may be implemented by a camera to acquire photographing information by photographing an external environment. The image data obtained through the image acquiring unit 1810 may be processed in the image processing unit 1820. [

영상 처리부(1820)는 영상 획득부(1810)에서 수신한 영상 데이터에 대한 처리를 수행할 수 있다. 영상 처리부(1820)에서는 영상 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환 또는 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The image processing unit 1820 may process the image data received by the image obtaining unit 1810. The image processor 1820 may perform various image processes such as decoding, scaling, noise filtering, frame rate conversion, or resolution conversion on the image data.

디스플레이부(1830)는 영상 처리부(1820)에서 처리한 영상 데이터를 디스플레이 영역(또는, 디스플레이)에 디스플레이할 수 있다. 디스플레이 영역은 전자 장치(A)의 하우징의 일면에 노출된 디스플레이부(1830)의 적어도 일부를 의미할 수 있다.The display unit 1830 may display the image data processed by the image processing unit 1820 on a display area (or a display). The display area may refer to at least a portion of the display portion 1830 exposed on one side of the housing of the electronic device A. [

디스플레이부(1830)의 적어도 일부는 플렉서블 디스플레이(flexible display)의 형태로 전자 장치(A)의 전면 영역 및, 측면 영역 및 후면 영역 중 적어도 하나에 결합될 수도 있다. 플렉서블 디스플레이는 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있는 것을 특징으로 할 수 있다. At least a portion of the display portion 1830 may be coupled to at least one of a front region and a side region and a rear region of the electronic device A in the form of a flexible display. The flexible display can be characterized by being able to bend, bend or speak without damage through a thin, flexible substrate such as paper.

디스플레이부(1830)는 터치 패널(1881)과 결합하여 레이어 구조의 터치 스크린으로 구현될 수 있다. 터치 스크린은 디스플레이 기능뿐만 아니라 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출하는 기능을 가질 수 있고, 또한 실질적인 터치(real-touch)뿐만 아니라 근접 터치(proximity touch)도 검출하는 기능을 가질 수 있다.The display unit 1830 may be implemented as a touch screen having a layer structure in combination with the touch panel 1881. The touch screen not only has a display function but also a function of detecting a touch input position and a touch area as well as a touch input pressure and has a function of detecting not only a real touch but also a proximity touch .

통신부(1840)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행할 수 있다. 통신부(1840)는 와이파이칩(1841), 블루투스 칩(1842), 무선 통신 칩(1843), NFC 칩(1844) 중 적어도 하나를 포함할 수 있다. 프로세서(1890)는 통신부(1840)를 이용하여 외부 서버 또는 각종 외부 기기와 통신을 수행할 수 있다. The communication unit 1840 can perform communication with various types of external devices according to various types of communication methods. The communication unit 1840 may include at least one of a Wi-Fi chip 1841, a Bluetooth chip 1842, a wireless communication chip 1843, and an NFC chip 1844. The processor 1890 can communicate with an external server or various external devices using the communication unit 1840. [

메모리(1850)는 전자 장치(A)의 동작에 필요한 각종 프로그램 및 데이터를 저장할 수 있다. 메모리(1850)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(1850)는 프로세서(1890)에 의해 액세스되며, 프로세서(1890)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 문서에서 메모리라는 용어는 메모리(1850), 프로세서(1890) 내 롬(미도시), 램(미도시) 또는 전자 장치(A)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱)를 포함할 수 있다. The memory 1850 can store various programs and data necessary for the operation of the electronic device A. [ The memory 1850 may be implemented as a non-volatile memory, a volatile memory, a flash memory, a hard disk drive (HDD), or a solid state drive (SSD). Memory 1850 is accessed by processor 1890 and read / write / modify / delete / update of data by processor 1890 can be performed. The term memory in this document refers to a memory 1850, a ROM (not shown), a RAM (not shown) or a memory card (not shown) (e.g. micro SD Card, memory stick).

또한, 메모리(1850)에는 디스플레이부(1830)의 디스플레이 영역에 표시될 각종 화면을 구성하기 위한 프로그램 및 데이터 등이 저장될 수 있다. 또한, 메모리(1850)는 본 문서의 다양한 인식 모델을 저장할 수도 있다.In the memory 1850, a program and data for configuring various screens to be displayed in the display area of the display unit 1830 may be stored. The memory 1850 may also store various recognition models of the document.

오디오 처리부(1860)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(1860)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 오디오 처리부(1860)에서 처리된 오디오 데이터는 오디오 출력부(1870)로 출력될 수 있다.The audio processing unit 1860 is a component that performs processing on audio data. In the audio processing unit 1860, various processes such as decoding and amplification of audio data, noise filtering, and the like may be performed. The audio data processed in the audio processing unit 1860 may be output to the audio output unit 1870.

오디오 출력부(1870)는 오디오 처리부(1860)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지를 출력하는 구성이다. 특히, 오디오 출력부(1870)는 스피커로 구현될 수 있으나, 이는 일 실시 예에 불과할 뿐, 오디오 데이터를 출력할 수 있는 출력 단자로 구현될 수 있다.The audio output unit 1870 outputs various kinds of audio data as well as various kinds of notification sounds and voice messages that are subjected to various processing operations such as decoding, amplification, and noise filtering by the audio processing unit 1860. In particular, the audio output unit 1870 may be implemented as a speaker, but it may be implemented as an output terminal capable of outputting audio data, which is only an example.

사용자 입력부(1880)는 다양한 사용자 입력을 수신하여 프로세서(1890)로 전달할 수 있다. 사용자 입력부(1880)는, 예를 들면, 터치 패널(1881), (디지털) 펜 센서(1882) 또는 키(1883)를 포함할 수 있다. 터치 패널(1881)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(1881)은 제어 회로를 더 포함할 수도 있다. 터치 패널(1881)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(1882)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(1883)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. The user input 1880 can receive various user inputs and communicate them to the processor 1890. The user input portion 1880 may include, for example, a touch panel 1881, a (digital) pen sensor 1882 or a key 1883. As the touch panel 1881, for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type can be used. Further, the touch panel 1881 may further include a control circuit. The touch panel 1881 may further include a tactile layer to provide a tactile response to the user. (Digital) pen sensor 1882 may be part of, for example, a touch panel or may include a separate recognition sheet. Key 1883 may include, for example, a physical button, an optical key, or a keypad.

프로세서(1890)(또는, 제어부)는 메모리(1750)에 저장된 각종 프로그램을 이용하여 전자 장치(A)의 전반적인 동작을 제어할 수 있다.The processor 1890 (or the control unit) can control the overall operation of the electronic device A by using various programs stored in the memory 1750. [

프로세서(1890)는 RAM(1891), ROM(1892), 그래픽 처리부(1893), 메인 CPU(1894), 제1 내지 n 인터페이스(1895-1~1895-n), 버스(1896)로 구성될 수 있다. 이때, RAM(1891), ROM(1892), 그래픽 처리부(1893), 메인 CPU(1894), 제1 내지 n 인터페이스(1895-1~1895-n) 등은 버스(1896)를 통해 서로 연결될 수 있다.The processor 1890 may comprise a RAM 1891, a ROM 1892, a graphics processor 1893, a main CPU 1894, first through n interfaces 1895-1 through 1895-n, have. At this time, the RAM 1891, the ROM 1892, the graphics processor 1893, the main CPU 1894, the first through n interfaces 1895-1 through 1895-n, etc. may be connected to each other via a bus 1896 .

도 19a를 참조하면, 프로세서(1900)는 학습부(1910) 및 인식부(1920) 중 적어도 하나를 포함할 수 있다. 도 19a의 프로세서(1900)는 도 18의 전자 장치(A)의 프로세서(1890) 또는 데이터 학습 서버(미도시)의 프로세서에 대응될 수 있다.19A, the processor 1900 may include at least one of a learning unit 1910 and a recognition unit 1920. [ The processor 1900 of FIG. 19A may correspond to the processor 1890 of the electronic device A of FIG. 18 or a processor of a data learning server (not shown).

학습부(1910)는 소정의 상황 판단을 위한 기준을 갖는 인식 모델을 생성 또는 학습시킬 수 있다. 학습부(1910)는 수집된 학습 데이터를 이용하여 판단 기준을 갖는 인식 모델을 생성할 수 있다. The learning unit 1910 can generate or learn a recognition model having a criterion for a predetermined situation judgment. The learning unit 1910 can generate a recognition model having a determination criterion using the collected learning data.

일 예로, 학습부(1910)는 객체가 포함된 이미지를 학습 데이터로서 이용하여 이미지에 포함된 객체가 어떤 것인지 판단하는 기준을 갖는 객체 인식 모델을 생성, 학습 또는 갱신시킬 수 있다.For example, the learning unit 1910 may generate, learn, or update an object recognition model having a criterion for determining an object included in an image using an image including the object as learning data.

또 다른 예로, 학습부(1910)는 객체가 포함된 화면에 포함된 주변 정보를 학습 데이터로서 이용하여 이미지에 포함된 객체 주변에 다양한 추가 정보를 판단하는 기준을 갖는 주변 정보 인식 모델을 생성, 학습 또는 갱신시킬 수 있다.As another example, the learning unit 1910 may generate a peripheral information recognition model having a criterion for determining various additional information around an object included in an image, using peripheral information included in a screen including the object as learning data, Or updated.

또 다른 예로, 학습부(1910)는 카메라에 의해 촬영된 이미지를 학습 데이터로서 이용하여 이미지에 포함된 사용자의 얼굴을 판단하는 기준을 갖는 얼굴 인식 모델을 생성, 학습 또는 갱신시킬 수 있다.As another example, the learning unit 1910 can generate, learn, or update a face recognition model having a criterion for determining a face of a user included in an image using an image photographed by a camera as learning data.

인식부(1920)는 소정의 데이터를 학습된 인식 모델의 입력 데이터로 사용하여, 소정의 데이터에 포함된 인식 대상을 추정할 수 있다.The recognition unit 1920 can use the predetermined data as the input data of the learned recognition model to estimate the recognition target included in the predetermined data.

일 예로, 인식부(1920)는 객체가 포함된 객체 영역(또는, 이미지)를 학습된 인식 모델의 입력 데이터로 사용하여 객체 영역에 포함된 객체에 대한 객체 정보를 획득(또는, 추정, 추론)할 수 있다.For example, the recognition unit 1920 acquires (or estimates, estimates) object information on an object included in the object region using the object region (or image) including the object as input data of the recognition model, can do.

다른 예로, 인식부(1920)는 객체 정보 및 컨텍스트 정보 중 적어도 하나를 학습된 인식 모델에 적용하여 검색 결과를 제공할 검색 카테고리를 추정(또는, 결정, 추론)할 수 있다. 이 때, 검색 결과는 우선 순위에 따라 복수 개가 획득될 수도 있다.As another example, the recognition unit 1920 may apply at least one of the object information and the context information to the learned recognition model to estimate (or determine, or deduce) a search category to provide a search result. At this time, a plurality of search results may be obtained according to the priority order.

또 다른 예로, 인식부(1920)는 컨텍스트 정보(예를 들어, 객체의 주변 정보)를 학습된 인식 모델에 적용하여 객체와 연관성이 있는 컨텍스트 인식 정보(예를 들어, 객체와 관련된 추가 정보 등)를 추정할 수 있다.As another example, the recognition unit 1920 may apply the context information (e.g., the peripheral information of the object) to the learned recognition model to generate context recognition information (e.g., additional information related to the object, etc.) Can be estimated.

학습부(1910)의 적어도 일부 및 인식부(1920)의 적어도 일부는, 소프트웨어 모듈로 구현되거나 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 학습부(1910) 및 인식부(1920) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 전술한 각종 전자 장치 또는 객체 인식 장치에 탑재될 수도 있다. 이 때, 인공 지능을 위한 전용 하드웨어 칩은 확률 연산에 특화된 전용 프로세서로서, 기존의 범용 프로세서보다 병렬처리 성능이 높아 기계 학습과 같은 인공 지능 분야의 연산 작업을 빠르게 처리할 수 있다. 학습부(1910) 및 인식부(1920)가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 이 경우, 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.At least a portion of the learning unit 1910 and at least a portion of the recognition unit 1920 may be implemented in a software module or in the form of at least one hardware chip and mounted in an electronic device. For example, at least one of the learning unit 1910 and the recognition unit 1920 may be fabricated in the form of a dedicated hardware chip for artificial intelligence (AI), or a conventional general purpose processor (e.g., a CPU or an application processor or a graphics-only processor (e.g., a GPU), and may be mounted on the above-described various electronic devices or object recognition devices. At this time, the dedicated hardware chip for artificial intelligence is a dedicated processor specialized for probability calculation, and it has a higher parallel processing performance than conventional general purpose processors, so that it can quickly process computation tasks in artificial intelligence such as machine learning. When the learning unit 1910 and the recognition unit 1920 are implemented by a software module (or a program module including an instruction), the software module may be a computer-readable and non- transitory computer readable media. In this case, the software module may be provided by an operating system (OS) or provided by a predetermined application. Alternatively, some of the software modules may be provided by an Operating System (OS), and some of the software modules may be provided by a predetermined application.

이 경우, 학습부(1210) 및 인식부(1220)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 학습부(1210) 및 인식부(1220) 중 하나는 전자 장치(A0)에 포함되고, 나머지 하나는 외부의 서버에 포함될 수 있다. 또한, 학습부(1910) 및 인식부(1920)는 유선 또는 무선으로 통하여, 학습부(1910)가 구축한 모델 정보를 인식부(1920)로 제공할 수도 있고, 인식부(1920)로 입력된 데이터가 추가 학습 데이터로서 학습부(1910)로 제공될 수도 있다. In this case, the learning unit 1210 and the recognition unit 1220 may be mounted on one electronic device or on separate electronic devices, respectively. For example, one of the learning unit 1210 and the recognition unit 1220 may be included in the electronic device A0, and the other may be included in an external server. The learning unit 1910 and the recognition unit 1920 may provide the model information constructed by the learning unit 1910 to the recognition unit 1920 through wired or wireless communication, Data may be provided to the learning unit 1910 as additional learning data.

도 19b는, 다양한 실시예에 따른 학습부(1910) 및 인식부(1920)의 블록도이다.19B is a block diagram of a learning unit 1910 and a recognition unit 1920 according to various embodiments.

도 19b의 (a)를 참조하면, 일부 실시예에 따른 학습부(1910)는 학습 데이터 획득부(1910-1) 및 모델 학습부(1910-4)를 포함할 수 있다. 또한, 학습부(1910)는 학습 데이터 전처리부(1910-2), 학습 데이터 선택부(1910-3) 및 모델 평가부(1910-5) 중 적어도 하나를 선택적으로 더 포함할 수 있다.Referring to FIG. 19B, a learning unit 1910 according to some embodiments may include a learning data obtaining unit 1910-1 and a model learning unit 1910-4. The learning unit 1910 may further include at least one of the learning data preprocessing unit 1910-2, the learning data selecting unit 1910-3, and the model evaluating unit 1910-5.

학습 데이터 획득부(1910-1)는 인식 대상을 추론하기 위한 인식 모델에 필요한 학습 데이터를 획득할 수 있다. 본 문서의 실시예로, 학습 데이터 획득부(1910-1)는 객체를 포함하는 전체 이미지, 객체 영역에 대응하는 이미지, 객체 정보 및 컨텍스트 정보 중 적어도 하나를 학습 데이터로서 획득할 수 있다. 학습 데이터는 학습부(1910) 또는 학습부(1910)의 제조사가 수집 또는 테스트한 데이터가 될 수도 있다. The learning data acquisition unit 1910-1 can acquire learning data necessary for a recognition model for reasoning an object to be recognized. In the embodiment of the present document, the learning data obtaining unit 1910-1 may obtain at least one of the entire image including the object, the image corresponding to the object region, the object information, and the context information as learning data. The learning data may be data collected or tested by the learning unit 1910 or the manufacturer of the learning unit 1910.

모델 학습부(1910-4)는 학습 데이터를 이용하여, 인식 모델이 소정의 인식 대상을 어떻게 판단할 지에 관한 판단 기준을 갖도록 학습시킬 수 있다. 예로, 모델 학습부(1910-4)는 학습 데이터 중 적어도 일부를 판단 기준으로 이용하는 지도 학습(supervised learning)을 통하여, 인식 모델을 학습시킬 수 있다. 또는, 모델 학습부(1910-4)는, 예를 들어, 별다른 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 상황의 판단을 위한 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통하여, 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1210-4)는, 예를 들어, 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통하여, 인식 모델을 학습시킬 수 있다. 또한, 모델 학습부(1910-4)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 인식 모델을 학습시킬 수 있다The model learning unit 1910-4 can use learning data to learn such that the recognition model has a determination criterion as to how to determine a predetermined recognition target. For example, the model learning unit 1910-4 can learn the recognition model through supervised learning using at least some of the learning data as a criterion. Alternatively, the model learning unit 1910-4 may learn, for example, self-learning by using learning data without any guidance, so that the model learning unit 1910-1 may perform learning by using unsupervised learning, . Also, the model learning unit 1210-4 can learn the recognition model through reinforcement learning using, for example, feedback as to whether the result of the situation judgment based on learning is correct. Also, the model learning unit 1910-4 can learn the recognition model using, for example, a learning algorithm including an error back-propagation method or a gradient descent

또한, 모델 학습부(1910-4)는 입력 데이터를 이용하여 인식 대상을 추정하기 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 선별 기준을 학습할 수도 있다. Also, the model learning unit 1910-4 may learn a selection criterion as to which learning data should be used to estimate the recognition target using the input data.

모델 학습부(1910-4)는 미리 구축된 인식 모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 인식 모델을 학습할 인식 모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 인식 모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 지역, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 장르, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다. The model learning unit 1910-4 can determine a recognition model having a large relation between the input learning data and the basic learning data as a recognition model for learning when there are a plurality of recognition models previously constructed. In this case, the basic learning data may be pre-classified according to the data type, and the recognition model may be pre-built for each data type. For example, the basic learning data may be pre-classified by various criteria such as an area where the learning data is generated, a time at which the learning data is generated, a size of the learning data, a genre of the learning data, a creator of the learning data, .

인식 모델이 학습되면, 모델 학습부(1910-4)는 학습된 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(1910-4)는 학습된 인식 모델을 전자 장치(A)의 메모리(1750)에 저장할 수 있다. 또는, 모델 학습부(1910-4)는 학습된 인식 모델을 전자 장치(A)와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.Once the recognition model is learned, the model learning unit 1910-4 can store the learned recognition model. In this case, the model learning unit 1910-4 can store the learned recognition model in the memory 1750 of the electronic device A. [ Alternatively, the model learning unit 1910-4 may store the learned recognition model in the memory of the server connected to the electronic device A via a wired or wireless network.

학습부(1910)는 인식 모델의 분석 결과를 향상시키거나, 인식 모델의 생성에 필요한 자원 또는 시간을 절약하기 위하여, 학습 데이터 전처리부(1910-2) 및 학습 데이터 선택부(1910-3)를 더 포함할 수도 있다.The learning unit 1910 includes a learning data preprocessing unit 1910-2 and a learning data selection unit 1910-3 in order to improve the analysis result of the recognition model or to save resources or time required for generation of the recognition model .

학습 데이터 전처리부(1910-2)는 상황 판단을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 학습 데이터 전처리부(1910-2)는 모델 학습부(1910-4)가 상황 판단을 위한 학습을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다. The learning data preprocessing section 1910-2 can pre-process the acquired data so that the acquired data can be used for learning for situation determination. The learning data preprocessing unit 1910-2 can process the acquired data into a predetermined format so that the model learning unit 1910-4 can use the data acquired for learning for the situation determination.

학습 데이터 선택부(1910-3)는 학습 데이터 획득부(1910-1)에서 획득된 데이터 또는 학습 데이터 전처리부(1910-2)에서 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 학습 데이터는 모델 학습부(1910-4)에 제공될 수 있다. 학습 데이터 선택부(1910-3)는 기 설정된 선별 기준에 따라, 획득되거나 전처리된 데이터 중에서 학습에 필요한 학습 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(1910-3)는 모델 학습부(1910-4)에 의한 학습에 의해 기 설정된 선별 기준에 따라 학습 데이터를 선택할 수도 있다.The learning data selection unit 1910-3 can select data acquired by the learning data acquisition unit 1910-1 or data necessary for learning from data preprocessed by the learning data preprocessor 1910-2. The selected learning data may be provided to the model learning unit 1910-4. The learning data selection unit 1910-3 can select learning data necessary for learning from the acquired or preprocessed data according to a predetermined selection criterion. The learning data selection unit 1910-3 may also select learning data according to a predetermined selection criterion by learning by the model learning unit 1910-4.

학습부(1910)는 데이터 인식 모델의 분석 결과를 향상시키기 위하여, 모델 평가부(1910-5)를 더 포함할 수도 있다.The learning unit 1910 may further include a model evaluation unit 1910-5 to improve the analysis result of the data recognition model.

모델 평가부(1910-5)는 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 분석 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(1910-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 인식 모델을 평가하기 위한 기 정의된 데이터일 수 있다. The model evaluating unit 1910-5 inputs the evaluation data to the recognition model and allows the model learning unit 1910-4 to learn again if the analysis result output from the evaluation data does not satisfy the predetermined criterion . In this case, the evaluation data may be predefined data for evaluating the recognition model.

예를 들어, 모델 평가부(1910-5)는 평가 데이터에 대한 학습된 인식 모델의 분석 결과 중에서, 분석 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. For example, the model evaluating unit 1910-5 satisfies a predetermined criterion when the number or ratio of the evaluation data whose analysis result is not correct out of the analysis results of the learned recognition model for the evaluation data exceeds a preset threshold value It can be evaluated as not doing.

한편, 학습된 인식 모델이 복수 개가 존재하는 경우, 모델 평가부(1910-5)는 각각의 학습된 인식 모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 인식 모델로서 결정할 수 있다. 이 경우, 소정 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(1910-5)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 인식 모델로서 결정할 수 있다.On the other hand, when there are a plurality of learned recognition models, the model evaluation unit 1910-5 evaluates whether each of the learned recognition models satisfies a predetermined criterion, and determines a model satisfying a predetermined criterion as a final recognition model . In this case, when there are a plurality of models satisfying the predetermined criterion, the model evaluating unit 1910-5 can determine any one or a predetermined number of models preset in descending order of the evaluation score as a final recognition model.

도 19b의 (b)를 참조하면, 일부 실시예에 따른 인식부(1920)는 인식 데이터 획득부(1920-1) 및 인식 결과 제공부(1920-4)를 포함할 수 있다.Referring to FIG. 19B, the recognition unit 1920 according to some embodiments may include a recognition data obtaining unit 1920-1 and a recognition result providing unit 1920-4.

또한, 인식부(1920)는 인식 데이터 전처리부(1920-2), 인식 데이터 선택부(1920-3) 및 모델 갱신부(1920-5) 중 적어도 하나를 선택적으로 더 포함할 수 있다.The recognition unit 1920 may further include at least one of the recognition data preprocessing unit 1920-2, the recognition data selection unit 1920-3, and the model updating unit 1920-5.

인식 데이터 획득부(1920-1)는 상황 판단에 필요한 데이터를 획득할 수 있다. 인식 결과 제공부(1920-4)는 인식 데이터 획득부(1920-1)에서 획득된 데이터를 입력 값으로 학습된 인식 모델에 적용하여 상황을 판단할 수 있다. 인식 결과 제공부(1920-4)는 데이터의 분석 목적에 따른 분석 결과를 제공할 수 있다. 인식 결과 제공부(1920-4)는 후술할 인식 데이터 전처리부(1920-2) 또는 인식 데이터 선택부(1920-3)에 의해 선택된 데이터를 입력 값으로 인식 모델에 적용하여 분석 결과를 획득할 수 있다. 분석 결과는 인식 모델에 의해 결정될 수 있다. The recognition data acquisition unit 1920-1 can acquire data necessary for the situation determination. The recognition result providing unit 1920-4 can determine the situation by applying the data acquired by the recognition data obtaining unit 1920-1 to the learned recognition model as an input value. The recognition result providing unit 1920-4 can provide the analysis result according to the data analysis purpose. The recognition result providing unit 1920-4 can apply the data selected by the recognition data preprocessing unit 1920-2 or the recognition data selecting unit 1920-3, which will be described later, to the recognition model as an input value, have. The results of the analysis can be determined by the recognition model.

일 실시예로, 인식 결과 제공부(1920-4)는 인식 데이터 획득부(1920-1)에서 획득한 객체가 포함된 객체 영역을 학습된 인식 모델 적용하여 객체 영역에 대응하는 객체 정보를 획득(또는, 추정)할 수 있다.In one embodiment, the recognition result providing unit 1920-4 may acquire object information corresponding to the object region by applying a learned recognition model to the object region including the object acquired by the recognition data obtaining unit 1920-1 Or estimated).

다른 실시예로, 인식 결과 제공부(1920-4)는 인식 데이터 획득부(1920-1)에서 획득한 객체 영역, 객체 정보 및 컨텍스트 정보 중 적어도 하나를 학습된 인식 모델에 적용하여 검색 결과를 제공할 검색 카테고리를 획득(또는, 추정)할 수 있다In another embodiment, the recognition result providing unit 1920-4 applies at least one of the object region, the object information, and the context information acquired by the recognition data obtaining unit 1920-1 to the learned recognition model to provide a search result (Or estimate) a search category to do

인식부(1920)는 인식 모델의 분석 결과를 향상시키거나, 분석 결과의 제공을 위한 자원 또는 시간을 절약하기 위하여, 인식 데이터 전처리부(1920-2) 및 인식 데이터 선택부(1920-3)를 더 포함할 수도 있다.The recognizing unit 1920 recognizes the recognition data preprocessing unit 1920-2 and the recognition data selecting unit 1920-3 in order to improve the analysis result of the recognition model or to save resources or time for providing the analysis result .

인식 데이터 전처리부(1920-2)는 상황 판단을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 인식 데이터 전처리부(1920-2)는 인식 결과 제공부(1920-4)가 상황 판단을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 정의된 포맷으로 가공할 수 있다. The recognition data preprocessing section 1920-2 can preprocess acquired data so that the acquired data can be used for the situation determination. The recognition data preprocessing section 1920-2 can process the acquired data into a predefined format so that the recognition result providing section 1920-4 can use the data obtained for the situation determination.

인식 데이터 선택부(1920-3)는 인식 데이터 획득부(1920-1)에서 획득된 데이터 또는 인식 데이터 전처리부(1920-2)에서 전처리된 데이터 중에서 상황 판단에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(1920-4)에게 제공될 수 있다. 인식 데이터 선택부(1920-3)는 상황 판단을 위한 기 설정된 선별 기준에 따라, 획득되거나 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(1920-3)는 모델 학습부(1910-4)에 의한 학습에 의해 기 설정된 선별 기준에 따라 데이터를 선택할 수도 있다.The recognition data selection unit 1920-3 can select the data acquired by the recognition data acquisition unit 1920-1 or the data necessary for the situation determination among the data preprocessed by the recognition data preprocessor 1920-2. The selected data may be provided to the recognition result provider 1920-4. The recognition data selection unit 1920-3 can select some or all of the obtained or preprocessed data according to a predetermined selection criterion for the situation judgment. The recognition data selection unit 1920-3 can also select data according to a predetermined selection criterion by learning by the model learning unit 1910-4.

모델 갱신부(1920-5)는 인식 결과 제공부(1920-4)에 의해 제공되는 분석 결과에 대한 평가에 기초하여, 인식 모델이 갱신되도록 제어할 수 있다. 예를 들어, 모델 갱신부(1920-5)는 인식 결과 제공부(1920-4)에 의해 제공되는 분석 결과를 모델 학습부(1910-4)에게 제공함으로써, 모델 학습부(1910-4)가 인식 모델을 추가 학습 또는 갱신하도록 요청할 수 있다.The model updating unit 1920-5 can control the recognition model to be updated based on the evaluation of the analysis result provided by the recognition result providing unit 1920-4. For example, the model updating unit 1920-5 provides the model learning unit 1910-4 with the analysis result provided by the recognition result providing unit 1920-4 so that the model learning unit 1910-4 And may request additional learning or updating of the recognition model.

도 20은, 일 실시예에 따른 전자 장치(A) 및 서버(S)가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.20 is a diagram showing an example of learning and recognizing data by interlocking with the electronic device A and the server S according to an embodiment.

도 20을 참조하면, 서버(S)는 상황 판단을 위한 기준을 학습할 수 있으며, 전자 장치(A)는 서버(S)에 의한 학습 결과에 기초하여 상황을 판단할 수 있다.Referring to FIG. 20, the server S can learn a criterion for determining the situation, and the electronic device A can determine the situation based on the learning result by the server S.

이 경우, 서버(S)의 모델 학습부(1910-4)는 도 1919a에 도시된 학습부(1910)의 기능을 수행할 수 있다. 서버(S)의 모델 학습부(1910-4)는 소정의 상황을 판단하기 위하여 어떤 객체 영상, 객체 정보 또는 컨텍스트 정보를 이용할 지, 상기 데이터를 이용하여 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. In this case, the model learning unit 1910-4 of the server S can perform the function of the learning unit 1910 shown in Fig. 1919a. The model learning unit 1910-4 of the server S learns which object image, object information or context information to use to determine a predetermined situation, and a criterion on how to determine the situation using the data .

또한, 전자 장치(A)의 인식 결과 제공부(1920-4)는 인식 데이터 선택부(1920-3)에 의해 선택된 데이터를 서버(S)에 의해 생성된 인식 모델에 적용하여 객체 정보 또는 검색 카테고리를 판단할 수 있다. 또는, 전자 장치(A)의 인식 결과 제공부(1920-4)는 서버(S)에 의해 생성된 인식 모델을 서버(S)로부터 수신하고, 수신된 인식 모델을 이용하여 상황을 판단할 수 있다. 이 경우, 전자 장치(A)의 인식 결과 제공부(1920-4)는 인식 데이터 선택부(1920-3)에 의해 선택된 객체 영상을 서버(S)로부터 수신된 인식 모델에 적용하여, 객체 영상에 대응하는 객체 정보를 판단할 수 있다. 또는, 인식 결과 제공부(1920-4)는 컨텍스트 정보 및 컨텍스트 인식 정보 중 적어도 하나를 이용하여 검색 결과를 획득할 검색 카테고리를 판단할 수 있다.The recognition result delivering unit 1920-4 of the electronic device A applies the data selected by the recognition data selecting unit 1920-3 to the recognition model generated by the server S, Can be determined. Alternatively, the recognition result providing unit 1920-4 of the electronic device A may receive the recognition model generated by the server S from the server S and determine the situation using the received recognition model . In this case, the recognition result delivering unit 1920-4 of the electronic device A applies the object image selected by the recognition data selecting unit 1920-3 to the recognition model received from the server S, The corresponding object information can be determined. Alternatively, the recognition result providing unit 1920-4 may determine a search category in which the search result is to be obtained by using at least one of the context information and the context recognition information.

도 21은, 일 실시예에 따른 인식 모델을 이용하는 전자 장치의 흐름도이다.21 is a flow diagram of an electronic device using a recognition model according to an embodiment.

도 21을 참조하면, 전자 장치(A)는 객체를 포함하는 화면을 표시할 수 있다(2101).Referring to FIG. 21, the electronic device A may display a screen including an object (2101).

전자 장치(A)는 객체를 선택하는 사용자 입력이 감지되면(2102-Y), 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(2103).When the user input for selecting an object is sensed (2102-Y), the electronic device A may capture a screen including the object to generate a captured image (2103).

다음으로, 전자 장치(A)는 캡쳐 이미지에 포함된 객체 영역에 대응하는 객체 정보 및 주변 영역에 대응되는 객체에 대한 추가 정보 중 적어도 하나를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다(2104).Next, the electronic device A may acquire a search result associated with the object using at least one of object information corresponding to the object area included in the captured image and additional information about the object corresponding to the peripheral area (2104 ).

이때, 객체 영역 및 주변에 대한 정보 중 적어도 하나를 인식 모델에 적용한 결과는, 예로, 객체 정보, 객체에 대한 추가 정보 및 검색 카테고리 중 적어도 하나가 될 수 있다. 전자 장치(A)는 객체 정보, 객체에 대한 추가 정보 및 검색 카테고리 중 적어도 하나를 이용하여 객체와 관련된 검색 결과를 획득할 수 있다. 예로, 전자 장치(A)는 객체 정보, 추가 정보 및 검색 카테고리를 추천 장치(B)에 전송하고, 이에 대한 응답으로 객체와 관련된 검색 결과를 획득할 수 있다.At this time, the result of applying at least one of the object region and the surrounding information to the recognition model may be at least one of, for example, object information, additional information about the object, and a search category. The electronic device A may obtain search results related to the object using at least one of object information, additional information about the object, and a search category. For example, the electronic device A may send object information, additional information, and a search category to the recommendation device B and obtain search results related to the object in response thereto.

검색 결과가 획득되면, 전자 장치(A)는 획득된 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(2105). Once the search results are obtained, the electronic device A may display 2105 the search results associated with the acquired objects in the display area.

도 22 내지 도 25는, 다른 실시예에 따른 인식 모델을 이용하는 네트워크 시스템의 흐름도이다.22 to 25 are flowcharts of a network system using a recognition model according to another embodiment.

도 22 내지 도 25에서, 인식 모델을 이용하는 네트워크 시스템은 제1 구성 요소(2201,2301,2401,2501), 제2 구성 요소(2202,2302,2402,2502) 및 제3 구성 요소(2203,2303,2403)를 포함할 수 있다.22 to 25, the network system using the recognition model includes a first component 2201, 2301, 2401, 2501, a second component 2202, 2302, 2402, 2502, and a third component 2203, 2303 , 2403).

여기서, 제1 구성 요소(2201,2301,2401,2501)는 전자 장치(A)이고, 제2 구성 요소(2202,2302,2402,2502)는 인식 모델이 저장된 서버(S)가 될 수 있다. 또는, 제1 구성 요소(2201,2301,2401,2501)는 범용 프로세서이고, 제2 구성 요소(2202,2302,2402,2502)는 인공 지능 전용 프로세서가 될 수 있다. 또는, 제1 구성 요소(2201,2301,2401,2501)는 적어도 하나의 어플리케이션이 될 수 있고, 제2 구성 요소(2202,2302,2402,2502)는 운영 체제(operating system, OS)가 될 수 있다. 즉, 제2 구성 요소(2202,2302,2402,2502)는 제1 구성 요소(2201,2301,2401,2501)보다 더 집적화되거나, 전용화되거나, 딜레이(delay)가 작거나, 성능이 우세하거나 또는 많은 리소스를 가진 구성 요소로서 데이터 인식 모델의 생성, 갱신 또는 적용 시에 요구되는 많은 연산을 제1 구성 요소(2201,2301,2401,2501)보다 신속하고 효과적으로 처리 가능한 구성 요소가 될 수 있다.Here, the first components 2201, 2301, 2401, and 2501 may be the electronic device A, and the second components 2202, 2302, 2402, and 2502 may be the server S that stores the recognition model. Alternatively, the first components 2201, 2301, 2401, and 2501 may be general purpose processors, and the second components 2202, 2302, 2402, and 2502 may be dedicated artificial intelligence processors. Alternatively, the first component 2201, 2301, 2401, 2501 can be at least one application and the second component 2202, 2302, 2402, 2502 can be an operating system have. That is, the second components 2202, 2302, 2402, and 2502 may be more integrated, dedicated, delay less, Or a component having a large number of resources, can be a component that can process many operations required to create, update, or apply the data recognition model more quickly and effectively than the first component 2201, 2301, 2401, 2501.

이 경우, 제1 구성 요소(2201,2301,2401,2501) 및 제2 구성 요소(2202,2302,2402,2502) 간에 데이터를 송/수신하기 위한 인터페이스가 정의될 수 있다. In this case, an interface for transmitting / receiving data between the first component 2201, 2301, 2401, 2501 and the second component 2202, 2302, 2402, 2502 may be defined.

예로, 인식 모델에 적용할 학습 데이터를 인자 값(또는, 매개 값 또는 전달 값)으로 갖는 API(application program interface)가 정의될 수 있다. API는 어느 하나의 프로토콜(예로, 전자 장치(A)에서 정의된 프로토콜)에서 다른 프로토콜(예로, 서버(S)에서 정의된 프로토콜)의 어떤 처리를 위해 호출할 수 있는 서브 루틴 또는 함수의 집합으로 정의될 수 있다. 즉, API를 통하여 어느 하나의 프로토콜에서 다른 프로토콜의 동작이 수행될 수 있는 환경을 제공될 수 있다.For example, an application program interface (API) having an argument value (or an intermediate value or a transfer value) of learning data to be applied to the recognition model may be defined. An API is a set of subroutines or functions that can be called for any processing of any protocol (e.g., a protocol defined in the electronic device A) to another protocol (e.g., a protocol defined in the server S) Can be defined. That is, it is possible to provide an environment through which an operation of another protocol can be performed through any one of the protocols through the API.

한편, 제3 구성 요소(2203,2303,2403)는 제1 구성 요소(2201,2301,2401,2501) 및 제2 구성 요소(2202,2302,2402,2502) 중 적어도 하나에서 수신한 데이터에 기반하여 객체와 연관된 검색 결과를 획득할 수 있다. 제3 구성 요소(2203,2303,2403)는 예로, 도 2b의 추천 장치(B)에 대응될 수 있다. 이 때, 제3 구성 요소(2203,2303,2403)가 수신하는 데이터는, 예로, 객체 영역, 컨텍스트 정보, 객체 정보 또는 검색 카테고리 중 적어도 하나가 될 수 있다. 또한, 일 실시예에 따라, 제3 구성 요소(2203,2303,2403)는 제2 구성 요소(2202,2302,2402,2502)와 하나의 장치로 구현될 수 있다.On the other hand, the third components 2203, 2303, and 2403 are based on data received from at least one of the first component 2201, 2301, 2401, 2501 and the second component 2202, 2302, 2402, To obtain search results associated with the object. The third components 2203, 2303, and 2403 may correspond to the recommendation device B of FIG. 2B, for example. At this time, the data received by the third components 2203, 2303, and 2403 may be, for example, at least one of an object region, context information, object information, and a search category. Also, according to one embodiment, the third components 2203, 2303, and 2403 may be implemented as a single device with the second components 2202, 2302, 2402, and 2502.

일 실시예로, 도 22에서, 먼저, 제1 구성 요소(2201)는 객체를 포함하는 화면을 표시할 수 있다(2211).In one embodiment, in FIG. 22, first, the first component 2201 may display a screen including an object (2211).

이 경우, 객체를 선택하는 사용자 입력이 수신되면, 제1 구성 요소(2201)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(2212).In this case, when a user input for selecting an object is received, the first component 2201 may capture a screen including the object to generate a captured image (2212).

다음으로, 제1 구성 요소(2201)는 캡쳐 이미지에 포함된 객체에 대응하는 객체 영역을 획득하고(2213), 획득된 객체 영역을 제2 구성 요소(2202)로 전송할 수 있다(2214).Next, the first component 2201 acquires (2213) an object region corresponding to the object included in the captured image, and transmits the obtained object region to the second component 2202 (2214).

제2 구성 요소(2202)는 수신한 객체 영역을 인식 모델로 입력하여 객체 정보를 획득할 수 있다(2215).The second component 2202 can obtain the object information by inputting the received object region as a recognition model (2215).

제2 구성 요소(2202)은 객체 정보를 제3 구성 요소(2203)로 전송할 수 있다(2216). 제3 구성 요소(2203)는 객체 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다(2217). 이때, 제3 구성 요소(2203)는 객체 정보 이외에 부가 데이터(예를 들어, 사용자 특징 정보, 사용자 프로필, 사용자 피드백 등)을 추가적으로 이용하여 검색 결과를 획득할 수 있다.The second component 2202 may send the object information to the third component 2203 (2216). The third component 2203 may obtain the search result associated with the object using the object information (2217). At this time, the third component 2203 may obtain search results by additionally using additional data (e.g., user characteristic information, user profile, user feedback, etc.) in addition to the object information.

제3 구성 요소(2203)가 객체와 연관된 검색 결과를 제1 구성 요소(2201)로 전송하면(2218), 제1 구성 요소(2201)는 수신한 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(2219). 제3 구성 요소(2203)은 객체와 연관된 검색 결과를 제1 구성요소(2201)로 직접 전송할 수도 있으며, 제2 구성 요소(2202)를 통해 전송할 수도 있다.When the third component 2203 sends (2218) the search result associated with the object to the first component 2201, the first component 2201 can display the search result associated with the received object in the display area (2219). The third component 2203 may transmit the search result associated with the object directly to the first component 2201 or through the second component 2202.

다른 실시예로, 도23에서, 먼저, 제1 구성 요소(2301)는 객체를 포함하는 화면을 표시할 수 있다(2311).In another embodiment, in FIG. 23, first, the first component 2301 may display a screen including an object (2311).

이 경우, 객체를 선택하는 사용자 입력이 수신되면, 제1 구성 요소(2301)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(2312).In this case, when a user input for selecting an object is received, the first component 2301 may capture a screen including the object to generate a captured image (2312).

제1 구성 요소(2301)는 캡쳐 이미지를 제2 구성 요소(2302)로 전송할 수 있다(2313). 이때, 제1 구성 요소(2301)는 캡쳐 이미지와 함께 선택된 객체에 대응되는 객체 영역에 대한 정보를 전송할 수 있다.The first component 2301 may transmit the captured image to the second component 2302 (2313). At this time, the first component 2301 may transmit information about the object region corresponding to the selected object together with the captured image.

제2 구성 요소(2302)는 수신된 캡쳐 이미지를 객체 영역 및 주변 영역으로 분리할 수 있다(2314). 이때, 제2 구성 요소(2302)는 수신된 객체 영역에 대한 정보를 바탕으로 객체 영역 및 주변 영역을 분리할 수 있다. 다른 실시예로, 제1 구성 요소(2301)은 캡쳐 이미지를 객체 영역 및 주변 영역으로 분리하여 제2 구성 요소(2302)로 전송할 수 있다.The second component 2302 may separate the received captured image into an object region and a surrounding region (2314). At this time, the second component 2302 can separate the object region and the surrounding region based on the information on the received object region. In another embodiment, the first component 2301 may separate the captured image into an object region and a surrounding region and transmit the captured image to a second component 2302. [

제2 구성 요소(2302)는 분리된 객체 영역 및 주변 영역을 인식 모델로 입력하여 객체 정보 및 객체에 대한 추가 정보를 획득할 수 있다(2315). 이때, 제2 구성 요소(2302)는 객체 영역을 객체 인식 모델에 입력하여 객체 정보를 획득할 수 있으며, 주변 영역을 주변 정보 인식 모델에 입력하여 객체에 대한 추가 정보를 획득할 수 있다. 또한, 제2 구성 요소(2302)는 객체 정보 및 객체에 대한 추가 정보를 바탕으로 검색 카테고리 및 검색 카테고리의 우선 순위를 결정할 수 있다. The second component 2302 can input the object information and the additional information about the object by inputting the separated object region and the surrounding region as recognition models (2315). At this time, the second component 2302 can obtain the object information by inputting the object region into the object recognition model, and input the peripheral region to the peripheral information recognition model to obtain additional information about the object. In addition, the second component 2302 can determine the priorities of the search category and the search category based on the object information and the additional information about the object.

또는, 제2 구성 요소(2302)는 객체 영역을 인식 모델로 입력하여 객체 정보를 획득하고, 객체를 포함하는 화면 중 주변 영역에 대응하는 부분의 애플리케이션 리소스(resource) 분석을 통해 추가 정보를 획득할 수 있다. 이 경우, 제2 구성요소(2302)는 객체 정보 및 객체에 대한 추가 정보를 바탕으로 검색 카테고리 및 검색 카테고리의 우선순위를 결정할 수 있다. Alternatively, the second component 2302 acquires object information by inputting the object region as a recognition model, and acquires additional information through an application resource analysis of a portion corresponding to the peripheral region of the screen including the object . In this case, the second component 2302 can determine the priority of the search category and the search category based on the object information and the additional information about the object.

애플리케이션 리소스 분석은 애플리케이션이 실행되었을 때 실행 화면 상에 표시되는 UI(user interface)요소의 종류, 내용(예. 이미지나 텍스트의 내용 등) 및 화면 상의 위치 등을 파싱(parsing)하는 것을 의미한다. 주변 영역에 대응하는 부분의 애플리케이션 리소스 분석은, 캡쳐 이미지를 생성하는 시점의 애플리케이션 실행 화면에서 UI요소의 화면 상의 위치를 이용하여 주변 영역에 대응하는 위치에 표시되는 UI요소의 종류나 내용을 파악하는 것을 의미한다.Application resource analysis refers to parsing the type, content (eg, image or text content) and screen location of a UI (user interface) element displayed on the execution screen when the application is executed. The application resource analysis of the portion corresponding to the peripheral region uses the position on the screen of the UI element on the application execution screen at the time of generating the captured image to grasp the type and content of the UI element displayed at the position corresponding to the peripheral region .

제2 구성 요소(2302)는 UI 요소의 종류나 내용을 파악하여 객체에 대한 추가 정보를 획득할 수 있다. 이 경우, 제1 구성 요소(2301)는 UI 요소의 종류 및 내용을 파악하여 객체에 대한 추가 정보를 획득하여 제2 구성 요소(2302)로 전송할 수도 있다.The second component 2302 can acquire additional information about the object by grasping the type and content of the UI element. In this case, the first component 2301 may acquire additional information about the object by grasping the type and content of the UI element, and may transmit the additional information to the second component 2302.

제2 구성 요소(2302)는 동작 2315의 인식 모델 적용 결과인 객체 정보 및 추가 정보를 제3 구성 요소(2303)로 전송할 수 있다(2316). 이때, 제2 구성 요소(2302)는 검색 카테고리에 대한 정보를 함께 제3 구성 요소(2303)로 전송할 수 있다. The second component 2302 may send 2316 the object information and the additional information as a result of applying the recognition model of operation 2315 to the third component 2303. At this time, the second component 2302 may transmit information on the search category together with the third component 2303.

제3 구성 요소(2303)는 수신한 객체 정보 및 추가 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다(2317). 이때, 제3 구성 요소(2303)는 검색 카테고리를 함께 이용하여 검색 결과를 획득할 수 있다. 또한, 제3 구성 요소(2303)는 객체 정보 및 추가 정보 이외에 부가 데이터(예를 들어, 사용자 특징 정보, 사용자 프로필, 사용자 피드백 등)를 추가적으로 이용하여 검색 결과를 획득할 수 있다. 이때, 부가 데이터는 제1 구성 요소(2301) 또는 다른 요소로부터 전송되거나 제3 구성 요소(2303)에 기 저장될 수 있다. The third component 2303 may obtain the search result associated with the object using the received object information and the additional information (2317). At this time, the third component 2303 may use the search category together to obtain the search result. In addition, the third component 2303 may additionally use additional data (e.g., user characteristic information, user profile, user feedback, etc.) in addition to object information and additional information to obtain search results. At this time, the additional data may be transmitted from the first component 2301 or another element or stored in the third component 2303.

제3 구성 요소(2303)가 객체와 연관된 검색 결과를 제1 구성 요소(2301)로 전송하면(2318), 제1 구성 요소(2301)는 수신한 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(2319).When the third component 2303 sends (2318) the search result associated with the object to the first component 2301, the first component 2301 can display the search result associated with the received object in the display area (2319).

다른 실시예로, 도24에서, 먼저, 제1 구성 요소(2401)는 객체를 포함하는 화면을 표시할 수 있다(2411).In another embodiment, in FIG. 24, first, the first component 2401 may display a screen including an object (2411).

이 경우, 객체를 선택하는 사용자 입력이 수신되면, 제1 구성 요소(2401)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(2412).In this case, when a user input for selecting an object is received, the first component 2401 may capture a screen including the object to generate a captured image (2412).

제1 구성 요소(2401)는 생성된 캡쳐 이미지를 객체 영역 및 주변 영역으로 분리할 수 있다(2413). 이때, 제1 구성 요소(2401)는 사용자 터치 지점을 바탕으로 객체 영역을 판단하고, 판단된 객체 영역에 대한 정보를 바탕으로 객체 영역 및 주변 영역을 분리할 수 있다.제1 구성 요소(2401)를 분리된 객체 영역 및 주변 영역을 제2 구성 요소(2402)로 전송할 수 있다(2415).The first component 2401 can separate the generated captured image into an object area and a surrounding area (step 2413). In this case, the first component 2401 may determine an object region based on the user touch point, and may separate the object region and the surrounding region based on the information on the determined object region. To the second component 2402 (step 2415).

제2 구성 요소(2402)는 객체 영역 및 주변 정보를 인식 모델로 입력하여 객체 정보 및 객체에 대한 추가 정보를 획득할 수 있다(2416). 이때, 제2 구성 요소(2402)는 객체 영역을 객체 인식 모델에 입력하여 객체 정보를 획득할 수 있고, 주변 영역을 주변 정보 인식 모델에 입력하여 객체에 대한 추가 정보를 획득할 수 있다. 또한, 제2 구성 요소(2302)는 객체 정보 및 추가 정보를 바탕으로 검색 카테고리 및 검색 카테고리의 우선 순위를 결정할 수 있다.The second component 2402 may acquire object information and additional information about the object by inputting the object region and the surrounding information into the recognition model (2416). At this time, the second component 2402 can obtain the object information by inputting the object region into the object recognition model, and input the peripheral region into the peripheral information recognition model to obtain additional information about the object. In addition, the second component 2302 can determine the priority of the search category and the search category based on the object information and the additional information.

제2 구성 요소(2402)는 획득한 객체 정보 및 추가 정보를 제3 구성 요소(2403)로 전송할 수 있다 (2417). 이때, 제2 구성 요소(2402)는 검색 카테고리에 대한 정보를 함께 제3 구성 요소(2403)로 전송할 수 있다.The second component 2402 may transmit the acquired object information and the additional information to the third component 2403 (2417). At this time, the second component 2402 may transmit information on the search category together with the third component 2403.

제3 구성 요소(2403)는 수신한 객체 정보 및 추가 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다(2418). 이때, 제3 구성 요소(2403)는 객체 정보 및 추가 정보를 입력 데이터로서 인식 모델에 적용하여 객체와 연관된 검색 결과를 획득할 수 있다. 이때, 제3 구성 요소(2403)는 검색 카테고리를 함께 이용하여 검색 결과를 획득할 수 있다. 또한, 제3 구성 요소(2403)는 객체 정보 및 추가 정보 이외에 부가 데이터(예를 들어, 사용자 특징 정보, 사용자 프로필, 사용자 피드백 등)을 이용하여 검색 결과를 획득할 수 있다. 이때, 부가 데이터는 제1 구성 요소(2401) 또는 다른 요소로부터 전송되거나 제3 구성 요소(2403)에 기 저장될 수 있다.The third component 2403 may obtain the search result associated with the object using the received object information and the additional information (2418). At this time, the third component 2403 can obtain the search result associated with the object by applying the object information and the additional information to the recognition model as input data. At this time, the third component 2403 may use the search category together to obtain the search result. In addition, the third component 2403 can obtain search results using additional data (e.g., user characteristic information, user profile, user feedback, etc.) in addition to object information and additional information. At this time, the additional data may be transmitted from the first component 2401 or another element or may be stored in the third component 2403 in advance.

제3 구성 요소(2403)가 객체와 연관된 검색 결과를 제1 구성 요소(2401)로 전송하면(2419), 제1 구성 요소(2401)는 수신한 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(2420). When the third component 2403 sends (2419) the search result associated with the object to the first component 2401, the first component 2401 can display the search result associated with the received object in the display area (2420).

다른 실시예로, 도25에서, 먼저, 제1 구성 요소(2501)는 객체를 포함하는 화면을 표시할 수 있다(2511).In another embodiment, first, in FIG. 25, the first component 2501 may display a screen including an object (2511).

이 경우, 객체를 선택하는 사용자 입력이 수신되면, 제1 구성 요소(2501)는 객체를 포함하는 화면을 캡쳐하여 캡쳐 이미지를 생성할 수 있다(2512).In this case, when a user input for selecting an object is received, the first component 2501 may capture a screen including the object to generate a captured image (2512).

제1 구성 요소(2501)는 캡쳐 이미지를 제2 구성 요소(2502)로 전송할 수 있다(2513). 이때, 제1 구성 요소(2501)는 캡쳐 이미지와 함께 선택된 객체에 대응되는 객체 영역에 대한 정보를 전송할 수 있다.The first component 2501 may transmit the captured image to the second component 2502 (2513). At this time, the first component 2501 may transmit information about the object region corresponding to the selected object together with the captured image.

제2 구성 요소(2502)는 수신된 캡쳐 이미지를 객체 영역 및 주변 영역으로 분리할 수 있다(2514). 이때, 제2 구성 요소(2502)는 수신된 객체 영역에 대한 정보를 바탕으로 객체 영역 및 주변 영역을 분리할 수 있다.The second component 2502 may separate the received captured image into an object region and a surrounding region (2514). At this time, the second component 2502 can separate the object region and the surrounding region based on the information on the received object region.

제2 구성 요소(2502)는 분리된 객체 영역 및 주변 영역을 인식 모델로 입력하여 객체 정보 및 객체에 대한 추가 정보를 획득할 수 있다(2515). 이때, 제2 구성 요소(2502)는 객체 영역을 객체 인식 모델에 입력하여 객체 정보를 획득할 수 있으며, 주변 영역을 주변 정보 인식 모델에 입력하여 객체에 대한 추가 정보를 획득할 수 있다. 또한, 제2 구성 요소(2502)는 객체 정보 및 객체에 대한 추가 정보를 바탕으로 검색 카테고리 및 검색 카테고리의 우선 순위를 결정할 수 있다. The second component 2502 can input the object information and the additional information about the object by inputting the separated object region and the surrounding region as recognition models (2515). At this time, the second component 2502 can acquire the object information by inputting the object region into the object recognition model, and input the peripheral region into the peripheral information recognition model to obtain additional information about the object. In addition, the second component 2502 can determine the priority of the search category and the search category based on the object information and the additional information about the object.

제2 구성 요소(2502)는 획득된 객체 정보 및 추가 정보를 이용하여 객체와 연관된 검색 결과를 획득할 수 있다(2516). 이때, 제2 구성 요소(2502)는 객체 정보 및 추가 정보를 입력 데이터로서 인식 모델에 적용하여 객체와 연관된 검색 결과를 획득할 수 있다. 이때, 제2 구성 요소(2502)는 검색 카테고리를 함께 이용하여 검색 결과를 획득할 수 있다. 또한, 제2 구성 요소(2502)는 객체 정보 및 추가 정보 이외에 부가 데이터(예를 들어, 사용자 특징 정보, 사용자 프로필, 사용자 피드백 등)을 이용하여 검색 결과를 획득할 수 있다. 이때, 부가 데이터는 제1 구성 요소(2501) 또는 다른 요소로부터 전송되거나 제2 구성 요소(2502)에 기 저장될 수 있다.The second component 2502 may obtain the search results associated with the object using the acquired object information and the additional information (2516). At this time, the second component 2502 may apply the object information and the additional information to the recognition model as input data to obtain the search result associated with the object. At this time, the second component 2502 may use the search category together to obtain the search result. Also, the second component 2502 may obtain search results using additional data (e.g., user feature information, user profiles, user feedback, etc.) in addition to object information and additional information. At this time, the additional data may be transmitted from the first component 2501 or another element or may be stored in the second component 2502 in advance.

제2 구성 요소(2502)가 객체와 연관된 검색 결과를 제1 구성 요소(2501)로 전송하면(2517), 제1 구성 요소(2501)는 수신한 객체와 연관된 검색 결과를 디스플레이 영역에 표시할 수 있다(2518).When the second component 2502 sends 2517 the search result associated with the object to the first component 2501, the first component 2501 can display the search result associated with the received object in the display area (2518).

도 25 및 도 26는, 다른 실시예에 따른 전자 장치가 인식 모델을 이용하여 사용자에 의해 선택된 제1 영역에 대한 검색 결과를 제공하는 실시예를 설명하기 위한 흐름도이다. 25 and 26 are flowcharts for explaining an embodiment in which an electronic device according to another embodiment provides a search result for a first region selected by a user using a recognition model.

도 25에서, 전자 장치(A)는 애플리케이션 실행 화면을 표시할 수 있다(2610). 이때, 애플리케이션 실행 화면에는 적어도 하나의 객체가 포함될 수 있다.In Fig. 25, the electronic device A can display an application execution screen (2610). At this time, at least one object may be included in the application execution screen.

전자 장치(A)는 애플리케이션 실행 화면을 표시하는 동안 사용자 입력을 수신할 수 있다(2620). 이때, 사용자 입력은 애플리케이션 실행 화면을 중 객체를 선택하기 위해, 애플리케이션 실행 화면에 대한 입력일 수 있다. 특히, 사용자 입력이 수신된 경우, 전자 장치(A)는 선택된 객체를 포함하는 제1 영역에 대한 검색을 수행하기 위해 인공지능 에이전트을 실행할 수 있다.Electronic device A may receive user input 2620 while displaying an application run screen. At this time, the user input may be an input to the application execution screen for selecting the middle object as the application execution screen. In particular, when a user input is received, the electronic device A may execute an AI agent to perform a search for a first area containing the selected object.

전자 장치(A)는 사용자 입력에 따라 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다(2630). 이때, 전자 장치(A)는 생성된 이미지를 애플리케이션 실행 화면을 대신하여 표시할 수 있다.The electronic device A may capture an application execution screen according to a user input to generate an image (2630). At this time, the electronic device A can display the generated image in place of the application execution screen.

전자 장치(A)는 생성된 이미지 상의 사용자 입력에 대응되는 제1 영역에 대한 제1 정보 및 제1 영역과 다른 제2 영역에 대한 제2 정보를 이용하여 수행된 검색 결과를 표시할 수 있다(S2640). 이때, 제1 영역은 사용자 입력에 대응하는 터치 좌표에 기반하여 생성된 이미지로부터 획득된 영역일 수 있다. 제2 영역은 생성된 이미지 중 제1 영역을 제외한 영역일 수 있다. The electronic device A may display the search result performed using the first information for the first area corresponding to the user input on the generated image and the second information for the second area different from the first area S2640). In this case, the first area may be an area obtained from the image generated based on the touch coordinates corresponding to the user input. The second area may be an area excluding the first area of the generated image.

또한, 제1 영역에 대한 제1 정보 및 제2 영역에 대한 제2 정보는 학습된 모델에 의해 획득될 수 있다. 즉, 생성된 이미지를 학습된 제1 모델에 입력하여 제1 정보를 획득할 수 있으며, 제1 정보 및 생성된 이미지를 학습된 제2 모델에 입력하여 제2 정보를 획득할 수 있다. 이때, 학습된 모델은 전자 장치(A) 혹은 외부의 서버에 저장될 수 있다.Also, the first information for the first area and the second information for the second area can be obtained by the learned model. That is, the generated image may be input to the learned first model to obtain the first information, and the first information and the generated image may be input to the learned second model to obtain the second information. At this time, the learned model can be stored in the electronic device (A) or an external server.

일 실시예로, 제1 정보 및 제2 정보를 획득하고 제1 영역에 대한 정보를 검색하는 동작은 외부 검색 서버에 의해 수행될 수 있다. 즉, 전자 장치(A)는 생성된 이미지의 적어도 일부를 외부 검색 서버로 전송하고, 외부 검색 서버로부터 검색 결과를 수신할 수 있다.In one embodiment, the operation of obtaining the first information and the second information and retrieving the information of the first area may be performed by an external search server. That is, the electronic device A can transmit at least a part of the generated image to the external search server and receive the search result from the external search server.

또한, 전자 장치(A)는 애플리케이션 실행 화면 상에 검색 결과를 표시할 수 있으며, 검색 결과의 표시에 따른 사용자 피드백을 학습된 모델을 저장하는 외부 장치로 전송할 수 있다. Further, the electronic device A can display the search result on the application execution screen, and can transmit the user feedback according to the display of the search result to an external device that stores the learned model.

도 26에서, 전자 장치(A)는 애플리케이션 실행 화면을 표시할 수 있다(2710). 이때, 애플리케이션 실행 화면에는 적어도 하나의 객체가 포함될 수 있다.In Fig. 26, the electronic device A may display an application execution screen (2710). At this time, at least one object may be included in the application execution screen.

전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다(2720). 이때, 애플리케이션 실행 화면 중 객체를 포함하는 제1 영역에 대한 사용자 입력이 수신된 경우, 전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다. 이때, 전자 장치(A)는 애플리케이션 실행 화면 상에 생성된 이미지를 표시할 수 있다.Electronic device A may capture an application run screen to generate an image (2720). At this time, when a user input for the first area including the object is received from the application execution screen, the electronic device A can capture an application execution screen to generate an image. At this time, the electronic device A can display the generated image on the application execution screen.

전자 장치(A)는 생성된 이미지를 입력 데이터 사용하는 학습된 제1 모델을 통해 제1 영역에 대한 제1 정보를 획득할 수 있다(2730). 이때, 제1 모델은 전자 장치(A)에 저장될 수 있으나, 이는 일 실시예에 불과할 뿐, 외부 서버에 저장될 수 도 있다. The electronic device A may obtain 2730 the first information for the first region through the learned first model using the generated image as input data. At this time, the first model may be stored in the electronic device A, but this may be stored in an external server only in an embodiment.

전자 장치(A)는 제1 정보 및 생성된 이미지를 입력 데이터로 사용하는 학습된 제2 모델을 통해 제2 영역에 대한 제2 정보를 획득할 수 있다(2740). 이때, 제1 모델은 전자 장치(A)에 저장될 수 있으나, 이는 일 실시예에 불과할 뿐, 외부 서버에 저장될 수 도 있다. The electronic device A may acquire 2740 the second information for the second region through the learned second model using the first information and the generated image as input data. At this time, the first model may be stored in the electronic device A, but this may be stored in an external server only in an embodiment.

외부 서버에 제1 모델 및 제2 모델이 저장된 경우, 전자 장치(A)는 생성된 이미지를 외부 서버로 전송하고, 외부 서버로부터 이미지를 제1 모델에 입력하여 획득한 제1 정보 및 이미지와 제1 정보를 제2 모델에 입력하여 획득한 제2 정보를 수신할 수 있다.When the first model and the second model are stored in the external server, the electronic device A transmits the generated image to the external server, and the first information and the image obtained by inputting the image from the external server into the first model, 1 information to the second model and receive the second information.

상술한 바와 같이, 사용자 입력이 감지된 제1 영역에 대한 제1 정보뿐만 아니라 제1 영역 주위의 제2 영역에 대한 제2 정보를 획득함으로써, 제1 영역에 대한 정보를 더욱 정확하게 검색할 수 있게 된다.As described above, by acquiring the first information on the first area in which the user input is sensed as well as the second information on the second area around the first area, it is possible to more accurately search the information on the first area do.

도 28 및 도 29는, 다양한 실시예에 따른 인식 모델을 이용하는 시스템의 흐름도이다.28 and 29 are flowcharts of a system using a recognition model according to various embodiments.

도 28에서, 전자 장치(A)는 애플리케이션 실행 화면을 표시할 수 있다(2810). 이때, 애플리케이션 실행 화면에는 적어도 하나의 객체가 포함될 수 있다.In Fig. 28, electronic device A may display an application execution screen (2810). At this time, at least one object may be included in the application execution screen.

전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다(2820). 구체적으로, 애플리케이션 실행 화면이 표시되는 동안 객체를 선택하기 위한 사용자 명령이 수신되면, 전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다.Electronic device A may capture an application run screen to generate an image (2820). Specifically, when a user command for selecting an object is received while the application execution screen is being displayed, the electronic device A can capture an application execution screen to generate an image.

전자 장치(A)는 생성된 이미지를 서버(S)로 전송할 수 있다(2830). 이때, 서버(S)는 학습된 모델을 저장하며, 검색된 정보를 바탕으로 검색 기능을 수행할 수 있다.The electronic device A may transmit the generated image to the server S (2830). At this time, the server S stores the learned model and can perform a search function based on the retrieved information.

서버(S)는 생성된 이미지를 입력 데이터 사용하는 학습된 제1 모델을 통해 제1 영역에 대한 제1 정보를 획득할 수 있다(2840). 이때, 제1 영역은 사용자 입력이 수신된 터치 좌표점을 바탕으로 검출된 객체가 포함된 영역일 수 있다.The server S may acquire the first information for the first region through the learned first model using the generated image as input data (2840). In this case, the first area may be an area including an object detected based on the touch coordinate point on which the user input is received.

서버(S)는 제1 정보 및 생성된 이미지를 입력 데이터로 사용하는 학습된 제2 모델을 통해 제2 영역에 대한 제2 정보를 획득할 수 있다(2850). 이때, 제2 영역은 생성된 이미지 중 제1 영역을 제외한 영역일 수 있다.The server S may acquire the second information for the second region through the learned second model using the first information and the generated image as input data (2850). In this case, the second area may be a region excluding the first area of the generated image.

서버(S)는 제1 정보 및 제2 정보를 바탕으로 제1 영역과 관련된 정보를 검색할 수 있다(S2860). 즉, 서버(S)는 객체에 대한 정보 및 객체 주변의 추가 정보를 바탕으로 객체를 포함하는 제1 영역에 관한 정보를 검색할 수 있다.The server S may search information related to the first area based on the first information and the second information (S2860). That is, the server S can retrieve information about the first area including the object based on the information about the object and the additional information around the object.

서버(S)는 제1 영역과 관련된 검색 결과를 전자 장치(A)로 전송할 수 있으며(2870), 전자 장치(A)는 수신된 검색 결과를 제공할 수 있다(2880). The server S may send 2870 the search results associated with the first domain to the electronic device A and the electronic device A may provide 2880 the received search results.

즉, 도 28에 도시된 바와 같이, 전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 생성된 이미지를 서버(S)에 제공하며, 서버(S)는 생성된 이미지를 학습된 인식 모델에 입력하여 제1 정보 및 제2 정보를 획득할 수 있고, 제1 정보 및 제2 정보를 바탕으로 정보를 검색할 수 있다.28, the electronic device A captures an application execution screen and provides the generated image to the server S. The server S inputs the generated image to the learned recognition model The first information and the second information can be obtained, and the information can be retrieved based on the first information and the second information.

한편, 상술한 실시예에서는 하나의 서버(S)가 학습된 모델을 통해 제1 정보 및 제2 정보를 획득하고, 제1 영역과 관련된 정보를 검색하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 복수의 서버가 상술한 동작을 나누어 수행할 수 있다. 즉, 제1 서버가 학습된 모델을 통해 제1 정보 및 제2 정보를 획득하고, 제2 서버가 제1 서버로부터 획득된 제1 정보 및 제2 정보를 바탕으로 제1 영역과 관련된 정보를 검색할 수 있다.Meanwhile, in the above-described embodiment, one server S has acquired the first information and the second information through the learned model and retrieved the information related to the first region, but this is merely an embodiment , And a plurality of servers can divide and carry out the above-described operations. That is, the first server obtains the first information and the second information through the learned model, and the second server retrieves information related to the first region based on the first information and the second information obtained from the first server can do.

도 28에서, 전자 장치(A)는 애플리케이션 실행 화면을 표시할 수 있다(2910). 이때, 애플리케이션 실행 화면에는 적어도 하나의 객체가 포함될 수 있다.In Fig. 28, the electronic device A can display an application execution screen (2910). At this time, at least one object may be included in the application execution screen.

전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다(2920). 구체적으로, 애플리케이션 실행 화면이 표시되는 동안 객체를 선택하기 위한 사용자 명령이 수신되면, 전자 장치(A)는 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성할 수 있다.Electronic device A may capture an application run screen to generate an image (2920). Specifically, when a user command for selecting an object is received while the application execution screen is being displayed, the electronic device A can capture an application execution screen to generate an image.

전자 장치(A)는 생성된 이미지를 입력 데이터 사용하는 학습된 제1 모델을 통해 제1 영역에 대한 제1 정보를 획득할 수 있다(2930). The electronic device A may obtain 2930 the first information for the first region through the learned first model using the generated image as input data.

전자 장치(A)는 생성된 이미지 및 제1 정보를 서버(S)로 전송할 수 있다(2940).The electronic device A may transmit the generated image and the first information to the server S (2940).

서버(S)는 제1 정보 및 생성된 이미지를 입력 데이터로 사용하는 학습된 제2 모델을 통해 제2 영역에 대한 제2 정보를 획득할 수 있다(2950).The server S may acquire the second information on the second region through the learned second model using the first information and the generated image as input data (2950).

서버(S)는 제1 정보 및 제2 정보를 바탕으로 제1 영역과 관련된 정보를 검색할 수 있다(2960).The server S may retrieve information related to the first area based on the first information and the second information (2960).

서버(S)는 제1 영역과 관련된 검색 결과를 전자 장치(A)로 전송할 수 있으며(2970), 전자 장치(A)는 수신된 검색 결과를 제공할 수 있다(2980). The server S may transmit 2970 the search results associated with the first domain to electronic device A and the electronic device A may provide 2980 the received search results.

즉, 상술한 실시예에서는 객체를 인식하기 위한 제1 모델을 통해 제1 정보를 획득하는 동작은 전자 장치(A)가 수행하고, 컨텍스트 정보를 추정하기 위한 제2 모델을 통해 제2 정보를 획득하는 서버(S)가 수행할 수 있다. 즉, 적은 처리량으로도 정보를 수행할 수 있는 객체 인식 동작은 전자 장치(A)가 수행할 수 있으며, 많은 처리량이 필요한 컨텍스트 추정 동작은 서버(S)가 수행할 수 있다That is, in the above-described embodiment, the operation of acquiring the first information through the first model for recognizing the object is performed by the electronic device A, and the second information is obtained through the second model for estimating the context information The server S can perform the processing. That is, the object recognition operation that can perform information even with a small throughput can be performed by the electronic device A, and the context estimation operation requiring a large amount of processing can be performed by the server S

한편, 도 28 및 도 29에서 설명한 실시예에서는 하나의 서버(S)가 학습된 모델을 통해 제1 정보 또는 제2 정보를 획득하고, 제1 영역과 관련된 정보를 검색하는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 복수의 서버가 상술한 동작을 나누어 수행할 수 있다. 즉, 제1 서버가 학습된 모델을 통해 제1 정보 및 제2 정보를 획득하고, 제2 서버가 제1 서버로부터 획득된 제1 정보 및 제2 정보를 바탕으로 제1 영역과 관련된 정보를 검색할 수 있다.28 and 29, one server S has acquired the first information or the second information through the learned model and retrieved the information related to the first region. However, Only a plurality of servers can perform the operations described above. That is, the first server obtains the first information and the second information through the learned model, and the second server retrieves information related to the first region based on the first information and the second information obtained from the first server can do.

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term "module " includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. A module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(A))를 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present document may be implemented in software, including instructions stored on machine-readable storage media, such as a machine (e.g., a computer) (E.g., electronic device A) in accordance with the disclosed embodiments, when the instructions are executed by a processor, the processor may directly or indirectly, Or other components under the control of the processor. The instructions may include code generated or executed by a compiler or an interpreter. Non-transitory storage medium, where 'non-transient' means that the storage medium does not contain a signal, It does not distinguish that data is stored semi-permanently or temporarily on the storage medium.

일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to a temporal example, the method according to various embodiments disclosed herein may be provided in a computer program product. A computer program product can be traded between a seller and a buyer as a product. A computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore ™). In the case of on-line distribution, at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.

다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each of the components (e.g., modules or programs) according to various embodiments may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments. Alternatively or additionally, some components (e.g., modules or programs) may be integrated into a single entity to perform the same or similar functions performed by each respective component prior to integration. Operations performed by a module, program, or other component, in accordance with various embodiments, may be performed sequentially, in parallel, repetitively, or heuristically, or at least some operations may be performed in a different order, .

A: 전자 장치 C: 객체 인식 장치
D: 사용자 특성 인식 장치 B: 추천 장치
E: 데이터 수집 장치 S: 서버
A: Electronic device C: Object recognition device
D: User characteristic recognition device B: Recommendation device
E: Data collection device S: Server

Claims (20)

전자 장치의 검색 결과 제공 방법에 있어서,
애플리케이션 실행 화면을 표시하는 동작;
상기 애플리케이션 실행 화면을 표시하는 동안 사용자 입력을 수신하는 동작;
상기 사용자 입력에 따라, 상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작; 및
상기 생성된 이미지 상의 상기 사용자 입력에 대응하는 제1 영역에 대한 제1 정보 및 상기 생성된 이미지 상의 상기 제1 영역과 다른 제2 영역에 대한 제2 정보를 이용하여 수행된 검색 결과를 표시하는 동작
을 포함하고,
상기 제1 정보 및 상기 제2 정보는 학습된 모델에 의해 획득되는 것인,
검색 결과 제공 방법.
A method for providing search results of an electronic device,
Displaying an application execution screen;
Receiving a user input while displaying the application execution screen;
Capturing the application execution screen according to the user input to generate an image; And
Displaying the search result performed using the first information on the first region corresponding to the user input on the generated image and the second information on the second region different from the first region on the generated image
/ RTI >
Wherein the first information and the second information are obtained by a learned model,
How to provide search results.
제1항에 있어서,
상기 제1 영역은,
상기 사용자 입력에 대응하는 터치 좌표에 기반하여, 상기 생성된 이미지로부터 획득되는 것인
검색 결과 제공 방법.
The method according to claim 1,
Wherein the first region comprises:
Based on the touch coordinates corresponding to the user input,
How to provide search results.
제1항에 있어서,
상기 방법은,
상기 생성된 이미지를 상기 애플리케이션 실행 화면을 대신하여 표시하는 동작
을 더 포함하는 검색 결과 제공 방법.
The method according to claim 1,
The method comprises:
An operation of displaying the generated image in place of the application execution screen
Further comprising:
제1항에 있어서,
상기 방법은,
인공지능 에이전트의 실행에 의해 수행되는 것인
검색 결과 제공 방법.
The method according to claim 1,
The method comprises:
What is being done by the execution of an AI agent
How to provide search results.
제1항에 있어서,
상기 제1 정보는,
상기 생성된 이미지의 상기 제1 영역을 인식하여 획득된 정보인
검색 결과 제공 방법.
The method according to claim 1,
Wherein the first information comprises:
And the information obtained by recognizing the first area of the generated image
How to provide search results.
제5항에 있어서,
상기 제2 정보는,
상기 생성된 이미지의 상기 제2 영역을 인식하여 획득된 정보인
검색 결과 제공 방법.
6. The method of claim 5,
Wherein the second information comprises:
The second region of the generated image is recognized as information obtained by recognizing the second region
How to provide search results.
제1항에 있어서,
상기 사용자 입력은,
상기 애플리케이션 실행 화면에 대한 입력인
검색 결과 제공 방법.
The method according to claim 1,
Wherein the user input comprises:
The input to the application execution screen
How to provide search results.
제1항에 있어서,
상기 방법은,
상기 검색 결과의 표시에 따른 사용자 피드백을 외부 장치로 전송하는 동작
을 더 포함하는 검색 결과 제공 방법.
The method according to claim 1,
The method comprises:
Transmitting the user feedback according to the display of the search result to an external device
Further comprising:
제1항에 있어서,
상기 생성된 이미지의 적어도 일부를 외부 검색 서버로 전송하는 동작; 및
상기 검색 결과를 상기 외부 검색 서버로부터 수신하는 동작
을 더 포함하는 검색 결과 제공 방법.
The method according to claim 1,
Transmitting at least a portion of the generated image to an external search server; And
Receiving the search result from the external search server
Further comprising:
제1항에 있어서,
상기 검색 결과를 표시하는 동작은,
상기 애플리케이션 실행 화면이 표시되는 동안 상기 검색 결과가 표시되는 동작인
검색 결과 제공 방법.

The method according to claim 1,
The operation of displaying the search result includes:
An operation for displaying the search result while the application execution screen is displayed
How to provide search results.

전자 장치에 있어서,
디스플레이;
사용자 입력부;
통신부;
상기 디스플레이, 상기 사용자 입력부 및 상기 통신부와 전기적으로 연결된 프로세서; 및
상기 프로세서에 의해 실행되는 하나 이상의 컴퓨터 프로그램을 저장하는 메모리를 포함하며,
상기 하나 이상의 컴퓨터 프로그램은,
상기 디스플레이를 통해 애플리케이션 실행 화면을 표시하는 동작;
상기 애플리케이션 실행 화면을 표시하는 동안 사용자 입력을 수신하는 경우, 상기 사용자 입력에 따라, 상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작; 및
상기 생성된 이미지 상의 상기 사용자 입력에 대응하는 제1 영역에 대한 제1 정보 및 상기 생성된 이미지 상의 상기 제1 영역과 다른 제2 영역에 대한 제2 정보를 이용하여 수행된 검색 결과를 표시하는 동작;을 포함하는 전자 장치.
In an electronic device,
display;
A user input section;
A communication unit;
A processor electrically connected to the display, the user input and the communication unit; And
And a memory for storing one or more computer programs executed by the processor,
The one or more computer programs,
Displaying an application execution screen through the display;
When receiving a user input while displaying the application execution screen, generating an image by capturing the application execution screen according to the user input; And
Displaying the search result performed using the first information on the first region corresponding to the user input on the generated image and the second information on the second region different from the first region on the generated image And an electronic device.
제11항에 있어서,
상기 제1 영역은,
상기 사용자 입력에 대응하는 터치 좌표에 기반하여, 상기 생성된 이미지로부터 획득되는 것인
전자 장치.
12. The method of claim 11,
Wherein the first region comprises:
Based on the touch coordinates corresponding to the user input,
Electronic device.
제11항에 있어서,
상기 하나 이상의 컴퓨터 프로그램은,
상기 생성된 이미지를 상기 애플리케이션 실행 화면을 대신하여 표시하는 동작
을 더 포함하는 전자 장치.
12. The method of claim 11,
The one or more computer programs,
An operation of displaying the generated image in place of the application execution screen
Further comprising:
제11항에 있어서,
상기 하나 이상의 컴퓨터 프로그램은,
인공지능 에이전트의 실행에 의해 수행되는 것인
전자 장치.
12. The method of claim 11,
The one or more computer programs,
What is being done by the execution of an AI agent
Electronic device.
제11항에 있어서,
상기 제1 정보는,
상기 생성된 이미지의 상기 제1 영역을 인식하여 획득된 정보인
전자 장치.
12. The method of claim 11,
Wherein the first information comprises:
And the information obtained by recognizing the first area of the generated image
Electronic device.
제15항에 있어서,
상기 제2 정보는,
상기 생성된 이미지의 상기 제2 영역을 인식하여 획득된 정보인
전자 장치.
16. The method of claim 15,
Wherein the second information comprises:
The second region of the generated image is recognized as information obtained by recognizing the second region
Electronic device.
제11항에 있어서,
상기 사용자 입력은,
상기 애플리케이션 실행 화면에 대한 입력인
전자 장치.
12. The method of claim 11,
Wherein the user input comprises:
The input to the application execution screen
Electronic device.
제11항에 있어서,
상기 하나 이상의 컴퓨터 프로그램은,
상기 검색 결과의 표시에 따른 사용자 피드백을 외부 장치로 전송하는 동작
을 더 포함하는 전자 장치.
12. The method of claim 11,
The one or more computer programs,
Transmitting the user feedback according to the display of the search result to an external device
Further comprising:
제11항에 있어서,
상기 검색 결과를 표시하는 동작은,
상기 애플리케이션 실행 화면이 표시되는 동안 상기 검색 결과가 표시되는 동작인
전자 장치.
12. The method of claim 11,
The operation of displaying the search result includes:
An operation for displaying the search result while the application execution screen is displayed
Electronic device.
전자 장치의 학습된 모델을 이용한 정보 획득 방법에 있어서,
애플리케이션 실행 화면을 표시하는 동작;
상기 애플리케이션 실행 화면을 캡쳐하여 이미지를 생성하는 동작;
상기 생성된 이미지를 입력 데이터로 사용하는 학습된 제1 모델을 통해, 상기 생성된 이미지 상의 제1 영역에 대한 제1 정보를 획득하는 동작; 및
상기 획득된 제1 정보 및 상기 생성된 이미지를 입력 데이터 사용하는 학습된 제2 모델을 통해, 상기 생성된 이미지 상의 제1 영역과 다른 제2 영역에 대한 제2 정보를 획득하는 동작;을 포함하는 정보 획득 방법.

A method for acquiring information using a learned model of an electronic device,
Displaying an application execution screen;
Capturing the application execution screen to generate an image;
Acquiring first information on a first region on the generated image through a learned first model using the generated image as input data; And
And acquiring second information on a second region different from the first region on the generated image, using the acquired first information and the learned second model using the generated image as input data Information acquisition method.

KR1020170136888A 2017-08-01 2017-10-20 Electronic device and method for providing search result thereof KR102586170B1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201880048421.8A CN110998507B (en) 2017-08-01 2018-07-31 Electronic device and method for providing search results
PCT/KR2018/008712 WO2019027240A1 (en) 2017-08-01 2018-07-31 Electronic device and method for providing search result thereof
EP18186561.9A EP3438853A1 (en) 2017-08-01 2018-07-31 Electronic device and method for providing search result thereof
AU2018310111A AU2018310111B2 (en) 2017-08-01 2018-07-31 Electronic device and method for providing search result thereof
EP19191178.3A EP3584717A1 (en) 2017-08-01 2018-07-31 Electronic device and method for providing search result thereof
US16/052,100 US10956007B2 (en) 2017-08-01 2018-08-01 Electronic device and method for providing search result thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762539637P 2017-08-01 2017-08-01
US62/539,637 2017-08-01

Publications (2)

Publication Number Publication Date
KR20190013390A true KR20190013390A (en) 2019-02-11
KR102586170B1 KR102586170B1 (en) 2023-10-10

Family

ID=65370622

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170136888A KR102586170B1 (en) 2017-08-01 2017-10-20 Electronic device and method for providing search result thereof

Country Status (3)

Country Link
KR (1) KR102586170B1 (en)
CN (1) CN110998507B (en)
AU (1) AU2018310111B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180884B1 (en) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 Apparatus for providing product information based on object recognition in video content and method therefor
WO2021261686A1 (en) * 2020-06-25 2021-12-30 주식회사 딥엑스 Portable artificial neural network device
WO2022114495A1 (en) * 2020-11-30 2022-06-02 삼성전자 주식회사 Method and apparatus for controlling user interface of flexible display

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470649A (en) * 2021-08-18 2021-10-01 三星电子(中国)研发中心 Voice interaction method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130013578A1 (en) * 2011-07-05 2013-01-10 Microsoft Corporation Object retrieval using visual query context
US20130018867A1 (en) * 2011-07-14 2013-01-17 Nuance Communications, Inc. Methods and apparatus for initiating an action
US20130325839A1 (en) * 2012-03-05 2013-12-05 TeleCommunication Communication Systems, Inc. Single Search Box Global
EP2894574A1 (en) * 2014-01-08 2015-07-15 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20150370895A1 (en) * 2014-06-18 2015-12-24 Google Inc. Generating contextual search presentations
US20170155631A1 (en) * 2015-12-01 2017-06-01 Integem, Inc. Methods and systems for personalized, interactive and intelligent searches

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513024B1 (en) * 2008-04-22 2015-04-17 엘지전자 주식회사 Terminal and method of recognizing image therein
US9135277B2 (en) * 2009-08-07 2015-09-15 Google Inc. Architecture for responding to a visual query
US8463025B2 (en) * 2011-04-26 2013-06-11 Nec Laboratories America, Inc. Distributed artificial intelligence services on a cell phone
CN105190644B (en) * 2013-02-01 2020-12-18 英特尔公司 Techniques for image-based searching using touch control
US10152495B2 (en) * 2013-08-19 2018-12-11 Qualcomm Incorporated Visual search in real world using optical see-through head mounted display with augmented reality and user interaction tracking
KR102158214B1 (en) * 2014-05-19 2020-09-22 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
WO2015185479A1 (en) * 2014-06-03 2015-12-10 Thomson Licensing Method of and system for determining and selecting media representing event diversity
US10068373B2 (en) * 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130013578A1 (en) * 2011-07-05 2013-01-10 Microsoft Corporation Object retrieval using visual query context
US20130018867A1 (en) * 2011-07-14 2013-01-17 Nuance Communications, Inc. Methods and apparatus for initiating an action
US20130325839A1 (en) * 2012-03-05 2013-12-05 TeleCommunication Communication Systems, Inc. Single Search Box Global
EP2894574A1 (en) * 2014-01-08 2015-07-15 Lg Electronics Inc. Mobile terminal and controlling method thereof
US20150370895A1 (en) * 2014-06-18 2015-12-24 Google Inc. Generating contextual search presentations
US20170155631A1 (en) * 2015-12-01 2017-06-01 Integem, Inc. Methods and systems for personalized, interactive and intelligent searches

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180884B1 (en) * 2020-04-21 2020-11-19 피앤더블유시티 주식회사 Apparatus for providing product information based on object recognition in video content and method therefor
WO2021261686A1 (en) * 2020-06-25 2021-12-30 주식회사 딥엑스 Portable artificial neural network device
WO2022114495A1 (en) * 2020-11-30 2022-06-02 삼성전자 주식회사 Method and apparatus for controlling user interface of flexible display

Also Published As

Publication number Publication date
KR102586170B1 (en) 2023-10-10
AU2018310111A1 (en) 2019-11-07
CN110998507A (en) 2020-04-10
AU2018310111B2 (en) 2023-06-01
CN110998507B (en) 2024-04-12

Similar Documents

Publication Publication Date Title
US10956007B2 (en) Electronic device and method for providing search result thereof
US11574116B2 (en) Apparatus and method for providing summarized information using an artificial intelligence model
US11671386B2 (en) Electronic device and method for changing chatbot
US20240152548A1 (en) Electronic apparatus for searching related image and control method therefor
US11954150B2 (en) Electronic device and method for controlling the electronic device thereof
US11721333B2 (en) Electronic apparatus and control method thereof
KR102628037B1 (en) Method and apparatus for providing sales information of goods
CN110998507B (en) Electronic device and method for providing search results
KR102449630B1 (en) Electronic device and Method for controlling the electronic device thereof
KR102469717B1 (en) Electronic device and method for controlling the electronic device thereof
EP3819851A1 (en) Electronic device and method for controlling same
US11468270B2 (en) Electronic device and feedback information acquisition method therefor
KR102440963B1 (en) Electronic apparatus, method for controlling thereof, and non-transitory computer readable recording medium
CN118093902A (en) Electronic device and method for providing search results
KR20190032749A (en) Electronic device and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)