KR20220149803A - Electronic device and method for sharing information - Google Patents

Electronic device and method for sharing information Download PDF

Info

Publication number
KR20220149803A
KR20220149803A KR1020210053267A KR20210053267A KR20220149803A KR 20220149803 A KR20220149803 A KR 20220149803A KR 1020210053267 A KR1020210053267 A KR 1020210053267A KR 20210053267 A KR20210053267 A KR 20210053267A KR 20220149803 A KR20220149803 A KR 20220149803A
Authority
KR
South Korea
Prior art keywords
electronic device
image
input
preview image
present disclosure
Prior art date
Application number
KR1020210053267A
Other languages
Korean (ko)
Inventor
김상헌
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210053267A priority Critical patent/KR20220149803A/en
Priority to PCT/KR2022/005742 priority patent/WO2022225354A1/en
Publication of KR20220149803A publication Critical patent/KR20220149803A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N5/232933
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An embodiment of the present disclosure relates to a method by which an electronic device shares information with an external device. The method by which an electronic device shares information with an external device according to an embodiment of the present invention comprises: an operation of displaying a preview image acquired through a camera; an operation of receiving a first input selecting an area of interest in the preview image; an operation of identifying an object related to the area of interest in the preview image based on the first input; an operation of receiving a second input for sharing the image of the object; and an operation of transmitting the image of the object and information related to the object to an external device based on the second input.

Description

정보를 공유하기 위한 전자 장치 및 그 동작 방법{ELECTRONIC DEVICE AND METHOD FOR SHARING INFORMATION}Electronic device for sharing information and method of operation thereof

본 개시의 다양한 실시 예는 정보를 공유하기 위한 전자 장치 및 그 동작 방법을 제공한다.Various embodiments of the present disclosure provide an electronic device for sharing information and an operating method thereof.

최근, 전자 장치는 깊이 카메라를 통해 근거리의 피사체와 원거리의 배경을 감지함으로써, 피사체에 대한 빠른 오토포커스 기능을 제공할 수 있다. 또한, 카메라를 통해 촬영된 이미지는 전자 장치에 저장된 후, 메신저 어플리케이션, 이메일, SNS 어플리케이션 등과 같이 공유 가능한 어플리케이션으로 외부 장치에 공유될 수 있다. Recently, an electronic device may provide a fast autofocus function for a subject by detecting a near subject and a far background through a depth camera. In addition, after the image captured by the camera is stored in the electronic device, it may be shared with an external device as a shareable application such as a messenger application, e-mail, or SNS application.

그러나, 현재의 기술의 경우, 촬영된 이미지를 공유하기 위해서는 이미지를 저장한 후, 공유 어플리케이션을 실행하고 상대방을 선택하는 등의 여러 단계가 필요하다. 또한, 현재 기술의 경우, 깊이 카메라를 통해 피사체에 대한 오토포커스 기능은 제공하지만, 배경과 분리하여 피사체만을 공유할 수 없다는 문제점이 존재할 수 있다.However, in the case of the current technology, in order to share a photographed image, several steps are required, such as storing the image, executing a sharing application, and selecting a counterpart. In addition, in the case of the current technology, although an autofocus function on the subject is provided through the depth camera, there may be a problem in that only the subject cannot be shared by separating it from the background.

본 개시는 정보를 공유하기 위한 전자 장치 및 그 동작 방법에 관한 것으로서, 보다 구체적으로는 전자 장치에 표시되는 프리뷰 이미지 내에서 사용자가 선택한 오브젝트를 분리하고, 오브젝트와 관련된 정보를 공유하는 전자 장치 및 그 동작 방법에 관한 것이다.The present disclosure relates to an electronic device for sharing information and an operating method thereof, and more particularly, to an electronic device that separates an object selected by a user within a preview image displayed on the electronic device, and shares information related to the object, and the same It's about how it works.

본 개시의 일 실시 예에 따른 전자 장치가 외부 장치와 정보를 공유하는 방법은 카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작; 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작; 제1 입력에 기초하여, 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작; 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 동작; 및 제2 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 포함할 수 있다. According to an embodiment of the present disclosure, a method for an electronic device to share information with an external device includes: displaying a preview image acquired through a camera; receiving a first input for selecting a region of interest in the preview image; identifying an object associated with the region of interest in the preview image based on the first input; receiving a second input for sharing an image of the object; and transmitting an image of the object and information related to the object to an external device based on the second input.

본 개시의 일 실시 예에 따른 전자 장치는, 디스플레이; 카메라; 외부 장치와 통신하는 통신부; 하나 이상의 인스트럭션들을 저장하는 메모리; 및 카메라를 통해 획득되는 프리뷰 이미지를 디스플레이에 표시하고, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고, 제1 입력에 기초하여, 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하고, 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하고, 제2 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송하는 프로세서를 포함할 수 있다. An electronic device according to an embodiment of the present disclosure includes a display; camera; a communication unit communicating with an external device; a memory storing one or more instructions; and displaying a preview image obtained through the camera on a display, receiving a first input for selecting a region of interest in the preview image, and based on the first input, identifying an object related to the region of interest in the preview image, the object and a processor that receives a second input for sharing an image of , and transmits an image of the object and information related to the object to an external device based on the second input.

본 개시의 일 실시 예에 따른 컴퓨터로 읽을 수 있는 기록 매체는 카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작; 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작; 제1 입력에 기초하여, 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작; 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하는 동작; 및 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 수행하도록 하는 프로그램이 저장될 수 있다. A computer-readable recording medium according to an embodiment of the present disclosure may include: displaying a preview image acquired through a camera; receiving a first input for selecting a region of interest in the preview image; identifying an object associated with the region of interest in a preview image based on a first input; receiving a second input for sharing information related to the object; and a program for transmitting an image of the object and information related to the object to an external device based on the second input.

도 1은 본 개시의 일 실시 예에 따른 오브젝트와 관련된 정보를 공유하는 시스템을 나타내는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 공유하는 방법을 설명하기 위한 순서도이다.
도 3은 본 개시의 일 실시 예에 따른 피사체가 이동할 때, 전자 장치가 프리뷰 이미지에서 포커스 표시를 이동시키는 동작을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 추천 포커스 표시를 제공하는 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 터치 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 음성 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 전자 장치가 복수의 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치가 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치가 식별 불가능한 오브젝트를 선택하는 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 전자 장치가 식별된 오브젝트를 표시하고, 오브젝트의 이미지를 공유하기 위한 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 공유 기능을 지원하는 어플리케이션에 대한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 13은 본 개시의 일 실시 예에 따른 전자 장치가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치가 메신저 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시 예에 따른 전자 장치가 근거리 무선 통신 용 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 16은 본 개시의 일 실시 예에 따른 전자 장치가 QR 코드의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 17은 본 개시의 일 실시 예에 따른 QR 코드와 관련된 정보를 설명하기 위한 도면이다.
도 18은 본 개시의 일 실시 예에 따른 전자 장치가 문서의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 19는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 20은 본 개시의 일 실시 예에 따른 전자 장치가 증강 현실(AR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 21은 본 개시의 일 실시 예에 따른 전자 장치가 가상 현실(VR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 22는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트에 대한 편집을 수행한 후 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트를 편집 어플리케이션으로 공유하는 동작을 설명하기 위한 도면이다.
도 24 및 도 25는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록 구성도이다.
도 26은 본 개시의 일 실시 예에 따른 메모리에 저장되는 소프트웨어 모듈을 설명하기 위한 도면이다.
1 is a diagram illustrating a system for sharing information related to an object according to an embodiment of the present disclosure.
2 is a flowchart illustrating a method for an electronic device to share information related to an object according to an embodiment of the present disclosure.
FIG. 3 is a diagram for describing an operation in which an electronic device moves a focus mark in a preview image when a subject moves, according to an embodiment of the present disclosure;
4 is a diagram for explaining an operation of providing a recommended focus display by an electronic device according to an embodiment of the present disclosure;
5 is a diagram for explaining an operation of receiving a touch input for selecting an ROI by an electronic device according to an embodiment of the present disclosure;
FIG. 6 is a diagram for describing an operation in which an electronic device receives a voice input for selecting a region of interest, according to an embodiment of the present disclosure.
FIG. 7 is a diagram for describing an operation in which an electronic device receives a stylus input for selecting a region of interest, according to an embodiment of the present disclosure;
8 is a diagram for describing an operation of receiving, by an electronic device, a stylus input for selecting a plurality of ROIs, according to an embodiment of the present disclosure;
9 is a diagram for describing an operation of an electronic device identifying an object related to a region of interest in a preview image according to an embodiment of the present disclosure;
10 is a diagram for describing an operation of receiving an input for selecting an unidentifiable object by an electronic device according to an embodiment of the present disclosure;
11 is a diagram for describing an operation of an electronic device displaying an identified object and receiving an input for sharing an image of the object, according to an embodiment of the present disclosure;
12 is a flowchart illustrating a method of providing information on an application supporting a sharing function according to an embodiment of the present disclosure.
13 is a diagram for explaining an operation in which an electronic device provides information on an application that provides a sharing function, according to an embodiment of the present disclosure.
14 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using a messenger application according to an embodiment of the present disclosure.
15 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using an application for short-range wireless communication according to an embodiment of the present disclosure.
16 is a diagram for explaining an operation of an electronic device sharing an image and information of a QR code with an external device according to an embodiment of the present disclosure.
17 is a diagram for explaining information related to a QR code according to an embodiment of the present disclosure.
18 is a diagram for explaining an operation of an electronic device sharing an image and information of a document to an external device according to an embodiment of the present disclosure;
19 is a diagram for describing an operation in which an electronic device shares object-related information with an external device according to an embodiment of the present disclosure.
20 is a diagram for explaining an operation of an electronic device sharing information related to an object to an external device by using an augmented reality (AR) technology according to an embodiment of the present disclosure.
21 is a diagram for describing an operation of an electronic device sharing object-related information to an external device by using virtual reality (VR) technology according to an embodiment of the present disclosure.
22 is a diagram for explaining an operation of sharing an object with an external device after an electronic device edits an object according to an embodiment of the present disclosure;
23 is a diagram for describing an operation of an electronic device sharing an object with an editing application according to an embodiment of the present disclosure;
24 and 25 are block diagrams for explaining an electronic device according to an embodiment of the present disclosure.
26 is a diagram for describing a software module stored in a memory according to an embodiment of the present disclosure.

본 개시에서 사용되는 용어에 대해 간략히 설명하고, 본 개시의 일 실시 예에 대해 구체적으로 설명하기로 한다. Terms used in the present disclosure will be briefly described, and an embodiment of the present disclosure will be described in detail.

본 개시에서 사용되는 용어는 본 개시의 일 실시예에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure are selected as currently widely used general terms as possible while considering the functions in an embodiment of the present disclosure, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. have. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding embodiment. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

본 개시 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 본 개시에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the present disclosure, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the present disclosure mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. have.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 본 개시 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly describe the embodiment of the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the present disclosure.

이하, 본 개시의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 일 실시 예에 따른 오브젝트와 관련된 정보를 공유하는 시스템을 나타내는 도면이다.1 is a diagram illustrating a system for sharing information related to an object according to an embodiment of the present disclosure.

도 1을 참조하면, 본 개시의 일 실시 예에 따른 정보 공유 시스템은, 전자 장치(100)와 외부 장치를 포함할 수 있다. 여기서, 외부 장치는 서버 장치(200) 및 외부 전자 장치(300)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 정보 공유 시스템이 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 정보 공유 시스템이 구현될 수 있다. 예를 들어, 정보 공유 시스템은, 전자 장치(100)와 서버 장치(200)로 구현될 수도 있고, 전자 장치(100)와 외부 전자 장치(300)로 구현될 수도 있고, 전자 장치(100)만으로 구현될 수도 있다. 각 구성에 대해서 살펴보기로 한다.Referring to FIG. 1 , an information sharing system according to an embodiment of the present disclosure may include an electronic device 100 and an external device. Here, the external device may include the server device 200 and the external electronic device 300 . However, not all illustrated components are essential components. The information sharing system may be implemented by more elements than the illustrated elements, and the information sharing system may be implemented by fewer elements than that. For example, the information sharing system may be implemented with the electronic device 100 and the server device 200 , may be implemented with the electronic device 100 and the external electronic device 300 , or only with the electronic device 100 . may be implemented. Let's take a look at each configuration.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 피사체에 대한 적어도 하나의 프레임을 획득하는 기기를 의미할 수 있다. 이하에서는, 설명의 편의상, 피사체에 대한 적어도 하나의 프레임은 이미지 또는 사진으로 표현될 수도 있다.According to an embodiment of the present disclosure, the electronic device 100 may mean a device that acquires at least one frame of a subject. Hereinafter, for convenience of description, at least one frame of a subject may be expressed as an image or a photo.

본 개시의 일 실시 예에 의하면, 피사체는 촬영 대상이 되는 객체를 의미할 수 있다. 피사체는 사람, 동물, 곤충, 자동차와 같은 움직이는 객체일 수도 있고, 건축물, 동상, 그림, 바위, 외국어 간판, 2차원 바코드(예컨대, QR(Quick Response) 코드), 문서와 같은 움직이지 않는 객체일 수도 있고, 나무나 꽃과 같은 식물일 수도 있고, 재생 중인 컨텐츠일 수도 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the subject may mean an object to be photographed. The subject may be a moving object such as a person, animal, insect, or car, or it may be a non-moving object such as a building, statue, painting, rock, foreign language sign, two-dimensional barcode (eg, QR (Quick Response) code), or document. It may be a plant such as a tree or a flower, or may be a content being reproduced, but is not limited thereto.

본 개시의 일 실시 예에 따른 전자 장치(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 전자 장치(100)는, 디지털 카메라, 스마트 폰(smart phone)(160), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. The electronic device 100 according to an embodiment of the present disclosure may be implemented in various forms. For example, the electronic device 100 may include a digital camera, a smart phone 160, a laptop computer, a tablet PC, an electronic book terminal, a digital broadcasting terminal, a personal digital assistant (PDA), or a PMP. (Portable Multimedia Player), navigation, MP3 player, etc. may be included, but is not limited thereto.

본 개시에서 기술되는 전자 장치(100)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 웨어러블 디바이스는 액세서리 형 장치(예컨대, 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 증강 현실 글래스(Augmented Reality Glass), 증강 현실 헬멧(Augmented Reality Helmet), 가상 현실 글래스(Virtual Reality Glass), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있다. The electronic device 100 described in the present disclosure may be a wearable device that can be worn by a user. Wearable devices include accessory type devices (eg, watches, rings, bracelets, anklets, necklaces, glasses, contact lenses), head-mounted-devices (HMDs), augmented reality glasses, and augmented reality glasses. Augmented Reality Helmet, Virtual Reality Glass, textile or garment-integrated device (e.g., electronic garment), body-attached device (e.g., skin pad), or bioimplantable device ( eg: an implantable circuit).

또한, 본 개시의 일 실시예에 의하면, 전자 장치(100)는 플렉서블(flexible) 디스플레이를 포함하는 스마트폰(160)일 수 있다. 플렉서블 디스플레이는 휘어질 수 있는 디스플레이로서, 커브드(curved) 디스플레이, 벤더블(bendable) 디스플레이, 폴더블(foldable) 디스플레이 및 롤러블(rollable) 디스플레이 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.Also, according to an embodiment of the present disclosure, the electronic device 100 may be a smart phone 160 including a flexible display. The flexible display is a display that can be bent, and may include at least one of a curved display, a bendable display, a foldable display, and a rollable display, but is limited thereto. not.

이하에서는, 설명의 편의상, 전자 장치(100)가 디지털 카메라 또는 카메라를 내장한 스마트폰(160)인 경우를 예로 들어 설명하기로 한다.Hereinafter, for convenience of description, a case in which the electronic device 100 is a digital camera or a smart phone 160 having a built-in camera will be described as an example.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 전자 장치(100)를 이용하여 피사체의 사진을 촬영할 수 있다. 전자 장치(100)를 이용하여 사진 촬영 시, 전자 장치(100)의 디스플레이에 피사체에 대한 프리뷰 이미지(110)가 표시될 수 있다. 프리뷰 이미지(110)는 디스플레이를 통해 사용자가 사진 촬영 전에 미리 확인할 수 있는 이미지일 수 있다.According to an embodiment of the present disclosure, a user of the electronic device 100 may take a picture of a subject using the electronic device 100 . When taking a picture using the electronic device 100 , a preview image 110 of a subject may be displayed on the display of the electronic device 100 . The preview image 110 may be an image that a user can check in advance before taking a picture through a display.

이때, 전자 장치(100)의 사용자는, 이미지를 캡쳐하지 않더라도, 프리뷰 이미지(110)에 나타나는 피사체들(120, 130, 140) 중 특정 피사체(120)를 선택하고, 특정 피사체(120)의 이미지(150)를 외부 장치와 공유하기를 원할 수 있다.At this time, even if the user of the electronic device 100 does not capture an image, the user selects a specific subject 120 among the subjects 120 , 130 , and 140 appearing in the preview image 110 , and selects an image of the specific subject 120 . You may want to share 150 with an external device.

이때, 일반적인 전자 장치를 이용하여, 사용자가 배경이 제거된 특정 피사체에 대한 이미지를 외부 장치와 공유하기 위해서는 여러 단계를 거쳐야 한다. 먼저, 사용자는 특정 피사체가 포함된 사진을 촬영해야 한다(촬영 단계). 그 다음, 사용자는 추가적인 편집 어플리케이션을 이용하여 특정 피사체와 배경을 분리하는 작업을 수행해야 한다(편집 단계). 마지막으로, 사용자는 배경 분리 작업이 수행된 이미지를 공유 어플리케이션을 실행하여 공유해야한다(공유 단계).In this case, using a general electronic device, a user must go through several steps to share an image of a specific subject from which the background is removed with an external device. First, the user must take a picture including a specific subject (photographing step). Next, the user must perform a task of separating a specific subject from the background by using an additional editing application (editing step). Finally, the user must share the image on which the background separation operation has been performed by running a sharing application (sharing step).

즉, 사진 촬영과 동시에 특정 피사체(120)의 이미지(150)가 공유가 되는 것이 아니라, 상기 단계(촬영 단계, 편집 단계, 공유 단계)를 거쳐야하므로 이미지(150)를 공유하기 위한 시간이 오래 걸릴 수 있다. 또한, 사진 편집 작업에 익숙하지 않은 일반적인 사용자는 촬영된 이미지(예컨대, 캡쳐 이미지)에서 특정 피사체와 배경을 분리하는 작업에 어려움을 느낄 수 있으며, 결과물이 정교하지 않을 수 있다.That is, the image 150 of a specific subject 120 is not shared at the same time as the photo is taken, but it takes a long time to share the image 150 because the above steps (shooting step, editing step, sharing step) are required. can In addition, a general user unfamiliar with photo editing may have difficulty in separating a specific subject and a background from a captured image (eg, a captured image), and the result may not be sophisticated.

상술한 문제점을 해결하기 위하여, 본 개시의 다양한 실시 예들에 따른 전자 장치(100)가 제안된다.In order to solve the above problems, the electronic device 100 according to various embodiments of the present disclosure is proposed.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 프리뷰 이미지(110)에서 특정 피사체(120)를 선택하는 입력(170)을 수신하는 경우, 프리뷰 이미지(110)에서 특정 피사체(120)를 배경과 분리하여, 특정 피사체(120)의 이미지(150)를 획득할 수 있다. 이때, 특정 피사체(120)의 이미지(150)는 프리뷰 이미지(110)의 일부 영역일 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 간단한 사용자 입력(예컨대, 드래그 앤 드롭 입력)에 따라 특정 피사체(120)의 이미지(150)를 외부 장치로 전송할 수 있다. 즉, 전자 장치(100)는 프리뷰 이미지(110) 전체를 외부 장치에 전송하는 것이 아니라 특정 피사체(120)를 포함하는 일부 영역의 이미지(150)를 외부 장치에 전송할 수 있다. 예를 들어, 전자 장치(100)는 특정 피사체(120)의 이미지(150)를 서버 장치(200)를 통해 외부 전자 장치(300)로 전송할 수 있다. 또한, 전자 장치(100)는 근거리 무선 통신(예컨대, WiFi, Bluetooth, UWB 등)을 통해 직접 외부 전자 장치(300)로 특정 피사체(120)의 이미지(150)를 전송할 수 있다. According to an embodiment of the present disclosure, when receiving an input 170 for selecting a specific subject 120 from the preview image 110 from the user, the electronic device 100 selects the specific subject 120 from the preview image 110 . ) is separated from the background to obtain an image 150 of a specific subject 120 . In this case, the image 150 of the specific subject 120 may be a partial area of the preview image 110 . According to an embodiment of the present disclosure, the electronic device 100 may transmit the image 150 of the specific subject 120 to the external device according to a simple user input (eg, drag and drop input). That is, the electronic device 100 may transmit the image 150 of a partial area including the specific subject 120 to the external device, rather than transmitting the entire preview image 110 to the external device. For example, the electronic device 100 may transmit the image 150 of the specific subject 120 to the external electronic device 300 through the server device 200 . Also, the electronic device 100 may directly transmit the image 150 of the specific subject 120 to the external electronic device 300 through short-range wireless communication (eg, WiFi, Bluetooth, UWB, etc.).

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 특정 피사체(120)의 이미지(150)와 함께 특정 피사체(120)와 관련된 정보도 서버 장치(200) 또는 외부 전자 장치(300)로 전송할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 transmits information related to the specific subject 120 together with the image 150 of the specific subject 120 to the server device 200 or the external electronic device 300 . can

따라서, 본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)에 나타나는 프리뷰 이미지(110)에 대한 간단한 조작만으로 프리뷰 이미지(110) 내의 특정 피사체(120)의 이미지(150) 및/또는 특정 피사체(120)에 관한 정보를 외부 장치와 공유할 수 있다. Accordingly, according to an embodiment of the present disclosure, the user only manipulates the preview image 110 displayed on the electronic device 100 by simply operating the image 150 and/or the specific subject 120 in the preview image 110 . Information about the subject 120 may be shared with an external device.

한편, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 특정 피사체와 배경을 분리하기 위한 인공 지능 모델을 포함할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 학습 데이터를 이용하여, 인공 지능 모델을 직접 생성하거나, 갱신(refine)할 수 있다. 또한, 전자 장치(100)는, 서버 장치(200)에서 학습된 인공 지능 모델을 서버 장치(200)로부터 수신하여, 저장할 수도 있다. Meanwhile, according to an embodiment of the present disclosure, the electronic device 100 may include an artificial intelligence model for separating a specific subject and a background. According to an embodiment of the present disclosure, the electronic device 100 may directly generate or refine an artificial intelligence model by using the learning data. Also, the electronic device 100 may receive and store the artificial intelligence model learned by the server device 200 from the server device 200 .

서버 장치(200)는, 외부의 장치와 통신을 수행하기 위한 통신 인터페이스를 포함할 수 있다. 본 개시의 일 실시 예에 의하면, 서버 장치(200)는 통신 인터페이스를 통해 전자 장치(100) 또는 외부 전자 장치(300)와 통신을 수행할 수 있다. The server device 200 may include a communication interface for performing communication with an external device. According to an embodiment of the present disclosure, the server device 200 may communicate with the electronic device 100 or the external electronic device 300 through a communication interface.

서버 장치(200)는 전자 장치(100) 또는 외부 전자 장치(300)와 데이터를 송수신하는 서버, 어플리케이션 서비스를 제공하기 위한 서버, 본 개시의 실시 예들을 수행하기 위해 별도로 마련된 서버 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The server device 200 may include a server for transmitting and receiving data to and from the electronic device 100 or the external electronic device 300 , a server for providing an application service, a server separately provided for performing embodiments of the present disclosure, etc. However, the present invention is not limited thereto.

서버 장치(200)는 전자 장치(100)로부터 오브젝트의 이미지 및 오브젝트와 관련된 정보를 수신할 수 있다. 서버 장치(200)는 전자 장치(100)로부터 수신된 오브젝트의 이미지 및 오브젝트와 관련된 정보를 다른 서버 장치로 전송하거나 외부 전자 장치(300)로 전송할 수 있다. The server device 200 may receive an image of an object and information related to the object from the electronic device 100 . The server device 200 may transmit an image of an object received from the electronic device 100 and information related to the object to another server device or to the external electronic device 300 .

외부 전자 장치(300)는, 외부의 장치와 통신을 수행하기 위한 통신 인터페이스를 포함할 수 있다. 외부 전자 장치(300)는 전자 장치(100)의 사용자가 소지한 다른 단말일 수도 있다. 예를 들어, 외부 전자 장치(300)는 전자 장치(100)와 동일한 계정으로 연결된 장치일 수 있다. 또는, 외부 전자 장치(300)는 타인이 소지한 전자 장치일 수 있다. The external electronic device 300 may include a communication interface for communicating with an external device. The external electronic device 300 may be another terminal possessed by the user of the electronic device 100 . For example, the external electronic device 300 may be a device connected to the same account as the electronic device 100 . Alternatively, the external electronic device 300 may be an electronic device owned by another person.

본 개시의 일 실시 예에 따른 외부 전자 장치(300)는 다양한 형태로 구현될 수 있다. 예를 들어, 외부 전자 장치(300)는, 디지털 카메라, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 외부 전자 장치(300)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. The external electronic device 300 according to an embodiment of the present disclosure may be implemented in various forms. For example, the external electronic device 300 may include a digital camera, a smart phone, a laptop computer, a tablet PC, an electronic book terminal, a digital broadcasting terminal, a personal digital assistant (PDA), or a portable computer (PMP). Multimedia Player), navigation, MP3 player, etc., but is not limited thereto. For example, the external electronic device 300 may be a wearable device that can be worn by a user.

외부 전자 장치(300)는, 전자 장치(100)로부터 오브젝트의 이미지 및 오브젝트와 관련된 정보를 수신할 수 있다. 일 실시 예에 의하면, 외부 전자 장치(300)는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 서버 장치(200)를 통해 전자 장치(100)로부터 수신할 수 있다. 다른 실시 예에 의하면, 외부 전자 장치(300)는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 근거리 무선 통신(예컨대, WiFi, Bluetooth, UWB 등)을 통해 직접 전자 장치(100)로부터 수신할 수 있다.The external electronic device 300 may receive an image of an object and information related to the object from the electronic device 100 . According to an embodiment, the external electronic device 300 may receive an image of an object and information related to the object from the electronic device 100 through the server device 200 . According to another embodiment, the external electronic device 300 may directly receive an image of an object and information related to the object from the electronic device 100 through short-range wireless communication (eg, WiFi, Bluetooth, UWB, etc.).

이하에서는 도 2를 참조하여 전자 장치(100)가 배경이 분리된 오브젝트 이미지(150) 및/또는 오브젝트와 관련된 정보를 외부 전자 장치(300)로 공유하는 동작에 대해서 자세히 살펴보도록 한다.Hereinafter, with reference to FIG. 2 , an operation in which the electronic device 100 shares the object image 150 and/or information related to the object from which the background is separated to the external electronic device 300 will be described in detail.

도 2는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 공유하는 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method for an electronic device to share information related to an object according to an embodiment of the present disclosure.

단계 S210에서, 전자 장치(100)는, 카메라를 통해 획득되는 프리뷰 이미지를 표시할 수 있다. 프리뷰 이미지는 디스플레이를 통해 사용자가 사진 촬영 또는 동영상 촬영 전에 미리 확인할 수 있는 이미지일 수 있다.In operation S210, the electronic device 100 may display a preview image obtained through a camera. The preview image may be an image that a user can check in advance through a display before taking a photo or a video.

본 개시의 일 실시 예에 의하면, 프리뷰 이미지에는 피사체(예컨대, 사람, 동물, QR 코드, 문서, 외국어 간판 등), 배경 등이 포함될 수 있다. According to an embodiment of the present disclosure, the preview image may include a subject (eg, a person, an animal, a QR code, a document, a foreign language signboard, etc.), a background, and the like.

본 개시의 일 실시 예에 의하면, 프리뷰 이미지는 전자 장치(100)의 카메라의 화각에 따라 달라질 수 있다. 카메라는 일반 카메라, 망원 카메라, 광각 카메라 등의 종류들이 있을 수 있다. 전자 장치(100)의 카메라가 일반 카메라인 경우, 전자 장치(100)는 표준 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. 전자 장치(100)의 카메라가 망원 카메라인 경우, 전자 장치(100)는 망원 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. 전자 장치(100)의 카메라가 광각 카메라인 경우, 전자 장치(100)는 광각 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. According to an embodiment of the present disclosure, the preview image may vary according to the angle of view of the camera of the electronic device 100 . The camera may include a general camera, a telephoto camera, a wide-angle camera, and the like. When the camera of the electronic device 100 is a general camera, the electronic device 100 may acquire a preview image using a standard lens. When the camera of the electronic device 100 is a telephoto camera, the electronic device 100 may obtain a preview image using a telephoto lens. When the camera of the electronic device 100 is a wide-angle camera, the electronic device 100 may obtain a preview image using a wide-angle lens.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 전자 장치(100)를 이동하는 경우, 프리뷰 이미지가 변경될 수 있다. 예를 들어, 사용자가 야외에서 전자 장치(100)로 사람과 강아지를 촬영할 경우, 사용자는 전자 장치(100)를 사람이 촬영되는 방향에서 강아지가 촬영되는 방향으로 이동할 수 있다. 이 경우, 전자 장치(100)의 프리뷰 이미지는, 사람이 표시된 프리뷰 이미지에서 강아지가 표시된 프리뷰 이미지로 변경될 수 있다.According to an embodiment of the present disclosure, when the user of the electronic device 100 moves the electronic device 100 , the preview image may be changed. For example, when a user takes pictures of a person and a dog with the electronic device 100 outdoors, the user may move the electronic device 100 from a direction in which a person is photographed to a direction in which the dog is photographed. In this case, the preview image of the electronic device 100 may be changed from a preview image in which a person is displayed to a preview image in which a puppy is displayed.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 카메라의 초점에 따라서 프리뷰 이미지가 변경될 수 있다. 초점이 피사체에 있는 경우, 프리뷰 이미지의 피사체는 뚜렷하고 배경은 흐릴 수 있다. 초점이 배경에 있는 경우, 프리뷰 이미지의 배경은 뚜렷하고 피사체는 흐릴 수 있다.According to an embodiment of the present disclosure, the preview image may be changed according to the focus of the camera of the electronic device 100 . When the focus is on the subject, the subject in the preview image may be distinct and the background blurred. When the focus is on the background, the background of the preview image is clear and the subject may be blurred.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 포커스 표시를 제공할 수 있다. 예를 들어, 프리뷰 이미지에 사람과 동물과 나무가 포함되어 있는 경우, 전자 장치(100)는 프리뷰 이미지 내에서 사람이 차지하는 영역, 동물이 차지하는 영역, 나무가 차지하는 영역 각각에 포커스 표시(예컨대, 피사체가 사람인 경우, 사람 얼굴 주위에 원형 표시)를 할 수도 있고, 사람이 차지하는 영역에만 포커스 표시를 할 수도 있다. 다만, 이에 한정되는 것은 아니다. According to an embodiment of the present disclosure, the electronic device 100 may provide a focus indication in a preview image. For example, when a person, an animal, and a tree are included in the preview image, the electronic device 100 displays a focus on each of the area occupied by the person, the area occupied by the animal, and the area occupied by the tree in the preview image (eg, the subject). If is a person, a circle mark around the face of the person) may be made, or a focus mark may be displayed only on the area occupied by the person. However, the present invention is not limited thereto.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라 어플리케이션에서 제공되는 피사체에 관한 정보를 이용하여, 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시를 할 수 있다. 예를 들어, 전자 장치(100)는 피사체가 사람인지 동물인지 QR 코드인지 문서인지 등을 식별할 수 있고, 식별된 피사체 위에 포커스 표시를 할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may identify the subject in the preview image by using information about the subject provided by the camera application, and may display a focus on the identified subject. For example, the electronic device 100 may identify whether the subject is a human, an animal, a QR code, or a document, and may display a focus on the identified subject.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수도 있다. According to an embodiment of the present disclosure, the electronic device 100 may also display information related to a subject in the preview image.

본 개시의 일 실시 예에 의하면, 프리뷰 이미지 내의 피사체가 피사체에 대한 정보를 전송할 수 있는 장치를 지니고 있는 경우, 피사체와 관련된 정보를 상기 장치로부터 수신하여 프리뷰 이미지 내에 표시할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 스마트 태그를 착용한 강아지를 촬영한 경우, 전자 장치(100)는 강아지의 스마트 태그로부터 근거리 무선 통신(예컨대, UWB(Ultra-wideband))을 통해 스마트 태그에 저장된 강아지와 관련된 정보를 수신할 수 있다. 이 경우, 전자 장치(100)는, 프리뷰 이미지에 강아지 이미지와 함께 스마트 태그로부터 수신된 강아지와 관련된 정보를 팝업 형태로 표시할 수 있다.According to an embodiment of the present disclosure, when the subject in the preview image has a device capable of transmitting information about the subject, information related to the subject may be received from the device and displayed in the preview image. For example, when the user of the electronic device 100 takes a picture of a puppy wearing a smart tag, the electronic device 100 sends a smart tag from the puppy's smart tag through short-range wireless communication (eg, ultra-wideband (UWB)). You can receive information related to the puppy stored in the tag. In this case, the electronic device 100 may display, in a pop-up form, information related to a puppy received from the smart tag together with the puppy image in the preview image.

단계 S220에서, 전자 장치(100)는, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신할 수 있다.In operation S220 , the electronic device 100 may receive a first input for selecting an ROI from the preview image.

본 개시의 일 실시 예에 의하면, 프리뷰 이미지에서 관심 영역은, 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체에 해당하는 영역일 수 있다. 예를 들어, 프리뷰 이미지에 사람과 동물과 나무가 포함되어 있을 때, 전자 장치(100)의 사용자는 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원할 수 있다. 이때, 프리뷰 이미지에서 관심 영역은 사람에 해당하는 영역일 수 있다.According to an embodiment of the present disclosure, the region of interest in the preview image may be a region corresponding to a specific subject that the user of the electronic device 100 wants to separate from the background. For example, when a person, an animal, and a tree are included in the preview image, the user of the electronic device 100 may want to separate the person in the preview image from the background. In this case, the region of interest in the preview image may be a region corresponding to a person.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지에 대한 터치 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 프리뷰 이미지 내에서 특정 영역을 소정의 시간(예컨대, 3초)만큼 터치하는 입력일 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 사용자는 사람이 나타나는 영역을 손으로 소정의 시간만큼 터치할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may receive a touch input for a preview image as a first input for selecting an ROI. According to an embodiment of the present disclosure, the first input may be an input of touching a specific area within a preview image for a predetermined time (eg, 3 seconds). For example, when the user of the electronic device 100 wants to separate the person in the preview image from the background, the user may touch an area in which the person appears for a predetermined time with his/her hand.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 음성 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수도 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 배경과 분리되기를 원하는 특정 피사체에 대한 정보가 담긴 음성 입력일 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 전자 장치(100)는 사용자로부터 "사람만 분리해줘!"라는 음성 입력을 수신할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may receive a voice input as a first input for selecting an ROI. According to an embodiment of the present disclosure, the first input may be a voice input containing information on a specific subject desired to be separated from the background. For example, when the user of the electronic device 100 desires to separate the person in the preview image from the background, the electronic device 100 may receive a voice input from the user saying “separate only the person!” from the user.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 스타일러스 펜 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수도 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 자이로센서가 탑재된 스타일러스 펜을 이용하여 특정 피사체를 선택하는 입력일 수 있다. 본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)와 일정 거리 내에서 스타일러스 펜을 이용하여 특정 피사체에 해당하는 영역을 선택할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 사용자는 전자 장치(100)와 일정 거리 내에서 사람이 나타나는 영역을 스타일러스 펜으로 선택(예컨대, 호버링 입력, 에어 제스처(Air pointer))할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may receive a stylus pen input as a first input for selecting an ROI. According to an embodiment of the present disclosure, the first input may be an input for selecting a specific subject using a stylus pen equipped with a gyro sensor. According to an embodiment of the present disclosure, a user may select an area corresponding to a specific subject using a stylus pen within a predetermined distance from the electronic device 100 . For example, when the user of the electronic device 100 desires to separate a person in the preview image from the background, the user selects an area in which the person appears within a predetermined distance from the electronic device 100 with a stylus pen (eg, by hovering). input, air gesture (Air pointer).

단계 S230에서, 전자 장치(100)는, 제1 입력에 기초하여 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별할 수 있다. In operation S230 , the electronic device 100 may identify an object related to the ROI in the preview image based on the first input.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 관심 영역을 선택하는 제1 입력을 수신하면, 관심 영역의 소정 비율(예컨대, 80%) 이상의 영역과 중첩되는 특정 피사체를 관심 영역과 관련된 오브젝트로 식별할 수 있다. According to an embodiment of the present disclosure, when receiving a first input for selecting an ROI from a user, the electronic device 100 selects a specific subject overlapping an area of a predetermined ratio (eg, 80%) or more of the ROI as the ROI. It can be identified as an object related to

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에서 식별된 오브젝트를 배경으로부터 분리하는 동작을 수행할 수 있다. 이 때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 학습 네트워크 모델을 이용하여 오브젝트를 배경으로부터 분리할 수 있다. 여기서, 학습 네트워크 모델은 피사체의 다양한 배경과 포즈가 담긴 수많은 샘플 이미지 데이터를 활용해 훈련된 인공 지능(AI) 모델일 수 있다. 예를 들어, 식별된 오브젝트가 사람인 경우, 훈련된 학습 네트워크 모델이 사람의 얼굴 특징과 머리카락을 정확하게 배경으로부터 분리할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may perform an operation of separating the object identified in the preview image from the background. In this case, according to an embodiment of the present disclosure, the electronic device 100 may separate the object from the background by using the learning network model. Here, the learning network model may be an artificial intelligence (AI) model trained using numerous sample image data containing various backgrounds and poses of the subject. For example, if the identified object is a person, a trained learning network model can accurately separate the person's facial features and hair from the background.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 오브젝트에 대한 식별 표시를 할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에서 분리된 오브젝트(예를 들어, 사람)의 가장자리 영역을 나타내는 윤곽선을 소정의 색깔 또는 소정의 두께로 표시할 수 있다. 다만, 표시 방법은 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the electronic device 100 may display an identification of an object in a preview image. According to an embodiment of the present disclosure, the electronic device 100 may display an outline indicating an edge region of an object (eg, a person) separated in a preview image with a predetermined color or a predetermined thickness. However, the display method is not limited thereto.

단계 S240에서, 전자 장치(100)는, 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신할 수 있다.In operation S240 , the electronic device 100 may receive a second input for sharing an image of an object.

본 개시의 일 실시 예에 의하면, 제2 입력은 터치 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자가 오브젝트(또는 관심 영역)를 소정 시간 이상 터치하는 경우, 오브젝트의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다. According to an embodiment of the present disclosure, the second input may be a touch input. For example, when a user touches an object (or an ROI) for a predetermined time or longer, the electronic device 100 may recognize the object as a second input for sharing an image.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자가 오브젝트(또는 관심 영역)를 터치하는 중에 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 복수의 어플리케이션은 공유 기능을 지원하는 어플리케이션들(이하에서는, 설명의 편의상, 공유 기능을 지원하는 어플리케이션을 공유 어플리케이션이라고 명할 수 있다)일 수 있다. 예를 들어, 복수의 어플리케이션은 SNS 어플리케이션, 메신저 어플리케이션, 브라우저 어플리케이션, 근거리 무선 통신 용 어플리케이션 등일 수 있으나, 이에 한정되는 것은 아니다. 본 개시의 일 실시 예에 의하면, 복수의 어플리케이션 각각에 대응하는 아이콘들은, 프리뷰 이미지와 중첩하여 표시될 수도 있고, 프리뷰 이미지와 다른 영역에 표시될 수도 있다. 예를 들어, 전자 장치(100)는, 오브젝트가 사용자에 의해 터치됨에 따라, 프리뷰 이미지를 축소하고, 복수의 어플리케이션 각각에 대응하는 아이콘들을 축소된 프리뷰 이미지와 다른 영역에 표시할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may display icons corresponding to each of a plurality of applications on the screen while the user touches an object (or a region of interest). The plurality of applications may be applications supporting the sharing function (hereinafter, for convenience of description, an application supporting the sharing function may be referred to as a sharing application). For example, the plurality of applications may be an SNS application, a messenger application, a browser application, an application for short-range wireless communication, and the like, but is not limited thereto. According to an embodiment of the present disclosure, the icons corresponding to each of the plurality of applications may be displayed to overlap the preview image, or may be displayed in a different area from the preview image. For example, as the object is touched by the user, the electronic device 100 may reduce the preview image and display icons corresponding to each of the plurality of applications in a different area from the reduced preview image.

본 개시의 일 실시예에 의하면, 전자 장치(100)는, 사용자가 오브젝트를 터치한 채 특정 공유 어플리케이션에 대응하는 아이콘으로 드래그하는 입력을 수신할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may receive an input that the user drags to an icon corresponding to a specific shared application while touching the object.

본 개시의 일 실시 예에 의하면, 사용자가 오브젝트를 터치한 채 특정 공유 어플리케이션으로 드래그 할 때, 오브젝트 이미지의 크기가 변경될 수 있다. 예를 들어, 오브젝트를 터치한 채 드래그 할 때, 오브젝트의 이미지가 축소된 채로 이동될 수 있다.According to an embodiment of the present disclosure, when a user drags an object to a specific shared application while touching the object, the size of the object image may be changed. For example, when dragging an object while touching it, the image of the object may be moved while being reduced.

본 개시의 일 실시 예에 의하면, 제2 입력은 음성 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 오브젝트의 이미지를 공유하기 위한 음성을 수신하는 경우(예컨대, "사람만 공유해줘!"), 상기 음성 입력을 제 2 입력으로 인식할 수 있다.According to an embodiment of the present disclosure, the second input may be a voice input. For example, when receiving a voice for sharing an image of an object from a user (eg, "Please share only people!"), the electronic device 100 may recognize the voice input as the second input.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자로부터 음성 입력을 수신한 경우 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 음성 입력을 수신함에 따라 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시하는 방법은 터치 입력에서 서술한 방법과 동일하므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, when receiving a voice input from a user, the electronic device 100 may display icons corresponding to each of a plurality of applications on the screen. A method of displaying icons corresponding to each of a plurality of applications on the screen upon receiving a voice input is the same as the method described in the touch input, and thus a description thereof will be omitted.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 특정 공유 어플리케이션을 선택하는 음성(예컨대, "메시지 어플리케이션으로 공유해줘!")을 수신할 수 있다. 본 개시의 일 실시 에에 의하면, 전자 장치(100)가 사용자로부터 특정 공유 어플리케이션을 선택하는 음성을 수신한 경우, 오브젝트 이미지는 크기가 변경된 채로 특정 공유 어플리케이션으로 이동될 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may receive a voice for selecting a specific sharing application from the user (eg, "Share it as a message application!"). According to an embodiment of the present disclosure, when the electronic device 100 receives a voice for selecting a specific shared application from the user, the object image may be moved to the specific shared application while the size is changed.

본 개시의 일 실시 예에 의하면, 제2 입력은 스타일러스 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자가 스타일러스 펜을 이용하여 오브젝트(또는 관심 영역)을 소정 시간 이상 선택하는 경우, 오브젝트의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다.According to an embodiment of the present disclosure, the second input may be a stylus input. For example, when a user selects an object (or a region of interest) for a predetermined time or longer using a stylus pen, the electronic device 100 may recognize the object as a second input for sharing an image.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자가 스타일러스 펜을 이용하여 오브젝트(또는 관심 영역)을 선택하는 중에 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 스타일러스 펜 입력을 수신함에 따라 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시하는 방법은 터치 입력에서 서술한 방법과 동일하므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, the electronic device 100 may display icons corresponding to each of a plurality of applications on the screen while the user selects an object (or a region of interest) using a stylus pen. A method of displaying icons corresponding to each of a plurality of applications on the screen as the stylus pen input is received is the same as the method described in the touch input, and thus a description thereof will be omitted.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자가 스타일러스 펜을 이용하여 오브젝트를 특정 공유 어플리케이션에 대응하는 아이콘으로 드래그하는 입력을 수신할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may receive an input in which a user drags an object to an icon corresponding to a specific sharing application using a stylus pen.

본 개시의 일 실시 예에 의하면, 사용자가 스타일러스 펜을 이용하여 오브젝트를 특정 공유 어플리케이션으로 드래그 할 때, 오브젝트 이미지의 크기가 변경될 수 있다. 예를 들어, 스타일러스 펜을 이용하여 오브젝트를 드래그 할 때, 오브젝트의 이미지가 축소된 채로 이동될 수 있다.According to an embodiment of the present disclosure, when a user drags an object to a specific sharing application using a stylus pen, the size of the object image may be changed. For example, when an object is dragged using a stylus pen, the image of the object may be moved while being reduced.

본 개시의 일 실시 예에 의하면, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력과 오브젝트 이미지를 공유하기 위한 제2 입력은 하나의 동작으로 구현될 수도 있고, 연속되는 동작으로 구현될 수 있다. 예를 들어, 전자 장치(100)가 '사람만 공유해줘'라는 음성 입력을 수신하는 경우, 전자 장치(100)는, '사람만 공유해줘'라는 하나의 음성 입력을 관심 영역을 선택하는 제1 입력과 오브젝트 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다. 또한, 전자 장치(100)가 프리뷰 이미지에서 사람을 소정시간 이상 터치한 채 메신저 애플리케이션의 창으로 드래그하는 입력을 수신하는 경우, 전자 장치(100)는 사람을 소정 시간 이상 터치하는 입력을 제1 입력으로 인식하고, 드래그하는 입력을 제2 입력으로 인식할 수 있다. 이때, 제1 입력과 제2 입력은 터치 앤 드래그라는 연속적인 동작으로 구현될 수 있다. According to an embodiment of the present disclosure, the first input for selecting the region of interest from the preview image and the second input for sharing the object image may be implemented as one operation or as a continuous operation. For example, when the electronic device 100 receives a voice input of 'share only people', the electronic device 100 uses a first voice input of 'share only people' for selecting an ROI. It may be recognized as a second input for sharing the input and the object image. In addition, when the electronic device 100 receives an input of dragging a person to the window of the messenger application while touching the person in the preview image for a predetermined time or longer, the electronic device 100 receives an input of touching the person for a predetermined time or longer as the first input , and a dragging input may be recognized as a second input. In this case, the first input and the second input may be implemented as a continuous operation called touch and drag.

단계 S250에서, 전자 장치(100)는, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다.In operation S250 , the electronic device 100 may transmit an image of an object and information related to the object to an external device based on the second input.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자에 의해 선택된 공유 어플리케이션을 통해서 외부 장치에 오브젝트의 이미지를 전송할 수 있다. 오브젝트의 이미지는 오브젝트의 가장자리를 오려낸 이미지일 수도 있고, 오브젝트를 포함하는 소정 크기의 이미지일 수도 있으나, 이에 한정되는 것은 아니다. 오브젝트의 이미지는 프리뷰 이미지보다 작을 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may transmit an image of an object to an external device through a sharing application selected by a user. The image of the object may be an image cut out of an edge of the object or an image of a predetermined size including the object, but is not limited thereto. The image of the object may be smaller than the preview image.

예를 들어, 전자 장치(100)는, 제 2입력에 대응하여 표시된 복수의 어플리케이션의 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그하는 입력에 기초하여, 오브젝트를 외부 장치에 전송할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 오브젝트를 터치한 채 메신저 어플리케이션에 대응하는 아이콘으로 드래그하는 경우, 오브젝트의 이미지는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다. For example, the electronic device 100 may transmit the object to the external device based on an input of dragging an object to an icon of a specific application among icons of a plurality of applications displayed in response to the second input. . For example, when the user of the electronic device 100 touches and drags the object to the icon corresponding to the messenger application, the image of the object is transmitted to the electronic device (external device) of the counterpart with whom the user is having a conversation using the messenger application. can be

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다. 오브젝트와 관련된 정보는 오브젝트의 명칭, 오브젝트의 연락처, 오브젝트의 주소, 오브젝트의 모델명, 오브젝트가 QR 코드인 경우 QR코드의 정보(예컨데 영어, 숫자, 한글등의 텍스트가 포함된 정보로 URL(Uniform Resource Locator) 주소, Wi-Fi 비밀번호, Mobile Hotspot, 설정값, IoT 기기 정보 등 일 수 있다.), 오브젝트가 문서인 경우 OCR(optical character reader) 데이터 정보, 오브젝트가 외국어 간판인 경우 번역 정보 등이 있을 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may transmit information related to an object together with an image of the object to an external device. The object-related information includes the name of the object, the contact information of the object, the address of the object, the model name of the object, and information of the QR code if the object is a QR code (for example, information containing text such as English, numbers, Korean, etc., and URL (Uniform Resource Locator) address, Wi-Fi password, Mobile Hotspot, setting value, IoT device information, etc.), OCR (optical character reader) data information if the object is a document, translation information, etc., if the object is a foreign language sign can

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 정보를 획득하고, 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may obtain information related to an object, and transmit the information related to the object together with an image of the object to an external device.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지를 분석하여, 오브젝트와 관련된 정보를 획득할 수 있다. 이때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 오브젝트와 관련된 정보를 획득할 수 있다. 예를 들어, 오브젝트가 QR 코드인 경우, QR 코드와 관련된 정보(예컨대, 전화 번호, 이메일 주소, URL 정보, 주소 정보, Wi-Fi 비밀번호 정보, Mobile Hotspot 설정 값 정보, IoT 기기 정보 등)를 획득할 수 있고, 오브젝트가 문서인 경우, 문서를 텍스트로 변환하여 텍스트 데이터(OCR 데이터)를 획득할 수 있다. 다만, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the electronic device 100 may obtain information related to an object by analyzing a preview image. In this case, according to an embodiment of the present disclosure, the electronic device 100 may acquire information related to the object using a learning network model of an artificial intelligence (AI) system. For example, when the object is a QR code, information related to the QR code (eg, phone number, email address, URL information, address information, Wi-Fi password information, Mobile Hotspot setting value information, IoT device information, etc.) is obtained. If the object is a document, the document may be converted into text to obtain text data (OCR data). However, the present invention is not limited thereto.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 장치로부터 오브젝트와 관련된 정보를 획득할 수도 있다. 예를 들어, 오브젝트가 사람인 경우, 오브젝트가 소지한 모바일 단말이나 웨어러블 디바이스로부터 사람과 관련된 정보(예컨대, 사람의 이름, 사람의 주소 등)를 획득할 수 있다. 오브젝트가 강아지인 경우, 강아지에 연결된 스마트 태그로부터 강아지와 관련된 정보(예컨대, 강아지의 주인, 강아지의 이름, 강아지의 주소 등)를 획득할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may obtain information related to an object from a device related to the object. For example, when the object is a person, information related to a person (eg, a person's name, a person's address, etc.) may be obtained from a mobile terminal or a wearable device possessed by the object. When the object is a dog, information related to the dog (eg, the dog's owner, the dog's name, the dog's address, etc.) may be obtained from the smart tag connected to the dog.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 장치와의 친밀도를 판단할 수 있으며, 판단된 친밀도에 기초하여 오브젝트와 관련된 정보를 획득할 수 있다. 본 개시의 일 실시 예에 의하면, 오브젝트와 관련된 장치는 프라이빗 레벨을 설정할 수 있다. 프라이빗 레벨은 각각의 레벨에 대응되는 접근 가능한(이용 가능한) 오브젝트와 관련된 정보를 포함할 수 있다. 예를 들어, 프라이빗 레벨이 높을수록 보안 유지가 필요한 민감한 정보(예를 들어, 핸드폰 번호)등이 포함될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)와 오브젝트와 관련된 장치와의 친밀도가 높은 경우, 프라이빗 레벨이 높게 설정될 수 있다. 전자 장치(100)는 오브젝트와 관련된 장치와의 친밀도가 높다고 판단한 경우, 높은 프라이빗 레벨에 대응되는 정보(예컨대, 핸드폰 정보)를 획득할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may determine intimacy with the device related to the object, and may acquire information related to the object based on the determined intimacy. According to an embodiment of the present disclosure, a device related to an object may set a private level. The private level may include information related to an accessible (available) object corresponding to each level. For example, the higher the private level, the more sensitive information required to maintain security (eg, cell phone number) may be included. According to an embodiment of the present disclosure, when the intimacy between the electronic device 100 and the device related to the object is high, the private level may be set high. When it is determined that the intimacy with the device related to the object is high, the electronic device 100 may acquire information (eg, mobile phone information) corresponding to a high private level.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 근거리 무선 통신(WiFi, Bluetooth, UWB 등)을 통해 직접 외부 전자 장치(300)로 공유할 수 있다. 이때, 공유 어플리케이션의 실행 화면은 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 directly transmits an image of an object and information related to the object to the external electronic device 300 through short-range wireless communication (WiFi, Bluetooth, UWB, etc.) based on the second input. ) can be shared. In this case, the execution screen of the shared application may include an interface screen for short-range wireless communication with an external device.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자에 의해 선택된 공유 어플리케이션에서 지원하는 데이터 형식에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 가공할 수 있다. 예를 들어, 공유 어플리케이션에서 지원하는 데이터 형식이 PNG파일인 경우, 전자 장치(100)는, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 PNG 형식으로 가공하여 공유할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may process an image of an object and information related to the object based on a data format supported by a shared application selected by a user. For example, when the data format supported by the sharing application is a PNG file, the electronic device 100 may process an image of an object and information related to the object in a PNG format and share it.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 오브젝트의 이미지를 외부 장치에 공유하는 것과 동시에 전자 장치(100)의 메모리에 저장할 수도 있다. 이때, 배경이 제거되지 않은 원본 프리뷰 이미지와 배경이 제거된 오브젝트의 이미지가 함께 전자 장치(100)의 메모리에 저장될 수도 있고, 오브젝트의 이미지만 메모리에 저장될 수도 있다.According to an embodiment of the present disclosure, the electronic device 100 may store the image of the object in the memory of the electronic device 100 at the same time as sharing the image with the external device. In this case, the original preview image from which the background is not removed and the image of the object from which the background is removed may be stored together in the memory of the electronic device 100 , or only the image of the object may be stored in the memory.

도 3은 본 개시의 일 실시 예에 따른 피사체가 이동할 때, 전자 장치가 프리뷰 이미지에서 포커스 표시를 이동시키는 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram for describing an operation in which an electronic device moves a focus mark in a preview image when a subject moves, according to an embodiment of the present disclosure;

도 3의 300-1을 참조하면, 전자 장치(100)는 카메라로부터 획득되는 실시간 영상 상태 또는 촬영 상태에서, 뛰어가는 사람을 프리뷰 이미지(310)에 표시할 수 있다. 프리뷰 이미지에는 피사체인 사람(330), 배경(320)이 포함될 수 있다.Referring to 300 - 1 of FIG. 3 , the electronic device 100 may display a running person on a preview image 310 in a real-time image state or a photographing state obtained from a camera. The preview image may include a subject 330 and a background 320 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 포커스 표시(340)를 제공할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라 어플리케이션에서 제공되는 피사체에 관한 정보를 이용하여, 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시(340)를 할 수 있다. 예를 들어, 전자 장치(100)는 프리뷰 이미지 내에서 사람(330)을 식별하고, 식별된 사람(330) 위에 포커스 표시(340)를 할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may provide the focus indication 340 in the preview image. According to an embodiment of the present disclosure, the electronic device 100 may identify the subject in the preview image by using information about the subject provided by the camera application, and may display the focus 340 on the identified subject. . For example, the electronic device 100 may identify the person 330 in the preview image, and mark the focus 340 on the identified person 330 .

도 3의 300-2를 참조하면, 피사체인 사람(330)이 뛰어감에 따라 프리뷰 이미지(310) 내에서 사람(330)의 위치가 변경된 것을 알 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지(310) 내에서 사람(330)의 위치를 추적하고, 위치가 이동된 사람(330) 위에 포커스 표시(350)를 할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 피사체의 움직임을 추적하여, 프리뷰 이미지(310) 내에서 포커스 표시(340, 350)를 이동시킬 수 있다.Referring to 300-2 of FIG. 3 , it can be seen that the position of the person 330 in the preview image 310 is changed as the person 330, which is the subject, jumps. In this case, the electronic device 100 may track the location of the person 330 in the preview image 310 , and may display the focus mark 350 on the person 330 whose location has been moved. According to an embodiment, the electronic device 100 may move the focus marks 340 and 350 in the preview image 310 by tracking the movement of the subject.

도 4는 본 개시의 일 실시 예에 따른 전자 장치가 추천 포커스 표시를 제공하는 동작을 설명하기 위한 도면이다.4 is a diagram for explaining an operation of providing a recommended focus display by an electronic device according to an embodiment of the present disclosure;

도 4를 참조하면, 전자 장치(100)는 카메라로부터 획득되는 실시간 영상 상태 또는 촬영 상태에서, 복수의 피사체들(410, 420, 430, 440)을 프리뷰 이미지(450)에 표시할 수 있다. 프리뷰 이미지(450)에는 복수의 피사체들(410 내지 440) 및 배경이 포함될 수 있다.Referring to FIG. 4 , the electronic device 100 may display a plurality of subjects 410 , 420 , 430 , and 440 in a preview image 450 in a real-time image state or a photographing state obtained from a camera. The preview image 450 may include a plurality of subjects 410 to 440 and a background.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 카메라는 인텔리전트(Intelligent) 기능을 실행하여 프리뷰 이미지(450) 내에서 피사체들을 인식할 수 있다. 예를 들어, 전자 장치(100)의 카메라는 프리뷰 이미지(450) 내에서 배경과 분리되는 피사체들(예컨대, 제1 사람(410), 강아지(420), 제2 사람(430), 고양이(440))를 인식할 수 있다. According to an embodiment of the present disclosure, the camera of the electronic device 100 may recognize subjects in the preview image 450 by executing an intelligent function. For example, the camera of the electronic device 100 detects subjects (eg, the first person 410 , the dog 420 , the second person 430 , and the cat 440 that are separated from the background in the preview image 450 ). )) can be recognized.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라에 의해 인식된 피사체들(410 내지 440)에 추천 포커스 표시(예컨대, 제1 사람(410)에 대한 제1 추천 포커스 표시(460), 강아지(420)에 대한 제2 추천 포커스 표시(470), 제2 사람(430)에 대한 제3 추천 포커스 표시(480), 고양이(440)에 대한 제4 추천 포커스 표시(490))를 할 수 있다. 전자 장치(100)의 사용자는 추천 포커스 표시(460, 470, 480, 490)에 기초하여 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 제1 추천 포커스 표시(460)를 터치함으로써, 프리뷰 이미지(450) 내에서 제1 사람(410)의 얼굴을 관심 영역으로 선택할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 displays a recommended focus on the subjects 410 to 440 recognized by the camera (eg, a first recommended focus display 460 for the first person 410 ). , a second recommended focus display 470 on the dog 420 , a third recommended focus display 480 on the second person 430 , and a fourth recommended focus display 490 on the cat 440 ). can The user of the electronic device 100 may select an ROI based on the recommended focus indications 460 , 470 , 480 , and 490 . For example, the user may select the face of the first person 410 as the ROI in the preview image 450 by touching the first recommendation focus mark 460 .

도 5는 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 터치 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing an operation in which an electronic device receives a touch input for selecting a region of interest, according to an embodiment of the present disclosure.

도 5를 참조하면, 전자 장치(100)는 프리뷰 이미지(510)에 대한 터치 입력(520)을 관심 영역(530)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(530)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(540)에 해당하는 영역일 수 있다. Referring to FIG. 5 , the electronic device 100 may receive a touch input 520 for a preview image 510 as a first input for selecting an ROI 530 . In this case, the region of interest 530 may be a region corresponding to the person 540, which is a specific subject that the user of the electronic device 100 wants to separate from the background.

예를 들어, 전자 장치(100)는 사용자로부터 사람(540)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(520)을 수신할 수 있다. 이때, 전자 장치(100)는 터치 입력(520)이 감지된 위치(좌표)로부터 소정 반경 내의 영역을 관심 영역(530)으로 선택할 수 있다. 도 5에는 관심 영역(530)이 터치 입력(520)을 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(530)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(510)에 표시되지는 않을 수도 있다.For example, the electronic device 100 may receive a touch input 520 for touching the person 540 for a predetermined time (eg, 3 seconds) from the user. In this case, the electronic device 100 may select a region within a predetermined radius from the position (coordinate) where the touch input 520 is sensed as the region of interest 530 . In FIG. 5 , the region of interest 530 is indicated as a rectangular region including the touch input 520 , but this is only an indication of the range of the region of interest 530 and may not be displayed in the actual preview image 510 . may be

도 6은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 음성 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for describing an operation in which an electronic device receives a voice input for selecting a region of interest, according to an embodiment of the present disclosure.

도 6을 참조하면, 전자 장치(100)는 프리뷰 이미지(610)에 대한 음성 입력(620)을 관심 영역(630)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(630)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(640)에 해당하는 영역일 수 있다.Referring to FIG. 6 , the electronic device 100 may receive a voice input 620 for a preview image 610 as a first input for selecting an ROI 630 . In this case, the region of interest 630 may be a region corresponding to the person 640 , which is a specific subject that the user of the electronic device 100 wants to separate from the background.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 마이크로폰을 통해 사용자의 음성 입력(620)을 수신하고, ASR(Automatic Speech Recognition)모델을 이용하여 음성 부분을 컴퓨터로 판독 가능한 텍스트로 변환할 수 있다. 그리고, 자연어 이해(Natural Language Understanding, NLU) 모델을 이용하여 변환된 텍스트를 해석하여, 사용자의 발화 의도를 획득할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 receives the user's voice input 620 through a microphone, and converts the voice part into computer-readable text using an Automatic Speech Recognition (ASR) model. can In addition, the converted text may be interpreted using a Natural Language Understanding (NLU) model to acquire the user's intention to speak.

예를 들어, 전자 장치(100)는 사용자로부터 "사람만 분리해줘!"라는 음성 입력(620)을 수신하고, ASR 모델을 이용하여 "사람만 분리해줘!"라는 음성을 컴퓨터로 판독 가능한 텍스트로 변환할 수 있다. 그리고, NLU 모델을 이용하여 변환된 텍스트를 해석하여, 음성 입력(620)이 관심 영역(630)을 선택하는 의도임을 획득할 수 있다. 이에 따라, 전자 장치(100)는 음성 입력에 포함된 "사람"에 해당하는 영역을 관심 영역(630)으로 선택할 수 있다. 도 6에는 관심 영역(630)이 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(630)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(610)에 표시되지는 않을 수도 있다.For example, the electronic device 100 receives a voice input 620 from the user saying “separate only the person!” and converts the voice “separate only the person!” into computer-readable text using the ASR model. can be converted Then, by analyzing the converted text using the NLU model, it is possible to obtain that the voice input 620 is an intention to select the region of interest 630 . Accordingly, the electronic device 100 may select a region corresponding to “person” included in the voice input as the region of interest 630 . Although the region of interest 630 is indicated as a rectangular region in FIG. 6 , this is only an indication of the range of the region of interest 630 and may not be displayed in the actual preview image 610 .

본 개시의 일 실시 예에 의하면, ASR 모델 또는 NLU 모델은 인공 지능 모델일 수 있으며, 인공 지능 모델은 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계된 인공 지능 전용 프로세서에 의해 처리될 수 있다. 본 개시의 일 실시 예에 의하면, 인공 지능 모델은 학습을 통해 만들어질 수 있다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공 지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 인공 지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.According to an embodiment of the present disclosure, the ASR model or the NLU model may be an artificial intelligence model, and the artificial intelligence model may be processed by an artificial intelligence dedicated processor designed with a hardware structure specialized for processing the artificial intelligence model. According to an embodiment of the present disclosure, an artificial intelligence model may be created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created it means. The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weights.

도 7은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing an operation in which an electronic device receives a stylus input for selecting a region of interest, according to an embodiment of the present disclosure;

도 7의 700-1을 참조하면, 전자 장치(100)는 프리뷰 이미지(710)에 대한 스타일러스 입력을 관심 영역(730)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(730)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(740)에 해당하는 영역일 수 있다.Referring to 700 - 1 of FIG. 7 , the electronic device 100 may receive a stylus input for a preview image 710 as a first input for selecting an ROI 730 . In this case, the region of interest 730 may be a region corresponding to the person 740 , which is a specific subject that the user of the electronic device 100 wants to separate from the background.

본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)와 일정 거리 내에서 스타일러스 펜(101)을 이용하여 관심 영역(730)을 선택할 수 있다. 예를 들어, 전자 장치(100)가 폴더블(fordable) 디스플레이를 포함하는 스마트폰인 경우, 사용자는 전자 장치(100)를 바닥에 세워두고 스타일러스 펜(101)을 이용하여 관심 영역(730)을 선택할 수 있다.According to an embodiment of the present disclosure, the user may select the ROI 730 using the stylus pen 101 within a predetermined distance from the electronic device 100 . For example, when the electronic device 100 is a smartphone including a foldable display, the user puts the electronic device 100 on the floor and uses the stylus pen 101 to draw the region of interest 730 . You can choose.

도 7의 700-2를 참조하면, 스타일러스 펜(101)은 측면에 버튼(102)을 포함할 수 있다. 도 7의 700-1을 참조하면, 전자 장치(100)의 사용자가 스타일러스 펜(101)을 프리뷰 이미지(710)에 표시된 사람(740)을 향하도록 하고 버튼(102)을 누르면, 포인트 표시(720)가 나타날 수 있다.Referring to 700-2 of FIG. 7 , the stylus pen 101 may include a button 102 on the side thereof. Referring to 700-1 of FIG. 7 , when the user of the electronic device 100 points the stylus pen 101 toward the person 740 displayed in the preview image 710 and presses the button 102, a point display 720 ) may appear.

이 때, 전자 장치(100)는 프리뷰 이미지(710) 내에서 포인트 표시(720)로부터 소정 반경 내의 영역을 관심 영역(730)으로 선택할 수 있다. 도 7의 700-1에는 관심 영역(730)이 포인트 표시(720)를 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(730)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(710)에 표시되지는 않을 수도 있다. 한편, 사용자는 스타일러스 펜(101)을 이용한 호버링 입력을 통해서 포인트 표시(720)의 위치를 변경할 수 있다. 본 개시에서, 호버링 입력은 전자 장치(100)로부터 기 정의된 이격 거리 이내로 스타일러스 펜(101)이 접근하는 입력 이벤트를 의미할 수 있다. In this case, the electronic device 100 may select a region within a predetermined radius from the point mark 720 in the preview image 710 as the region of interest 730 . In 700-1 of FIG. 7 , the region of interest 730 is indicated as a rectangular region including the point mark 720 , but this is only an indication of the range of the region of interest 730 and is not displayed in the actual preview image 710 . It may not be displayed. Meanwhile, the user may change the position of the point display 720 through a hovering input using the stylus pen 101 . In the present disclosure, the hovering input may refer to an input event in which the stylus pen 101 approaches within a predetermined separation distance from the electronic device 100 .

도 8은 본 개시의 일 실시 예에 따른 전자 장치가 복수의 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다. 8 is a diagram for describing an operation of receiving, by an electronic device, a stylus input for selecting a plurality of ROIs, according to an embodiment of the present disclosure;

도 8을 참조하면, 전자 장치(100)는 프리뷰 이미지(801)에 표시된 복수의 피사체들(802, 803, 804, 805, 806) 중에서 특정 피사체들(803, 804, 806)에 해당하는 영역인 복수의 관심 영역(807, 808, 809)을 선택하는 스타일러스 입력을 수신할 수 있다. Referring to FIG. 8 , the electronic device 100 is an area corresponding to specific subjects 803 , 804 , and 806 among a plurality of subjects 802 , 803 , 804 , 805 and 806 displayed in a preview image 801 . A stylus input for selecting a plurality of regions of interest 807 , 808 , and 809 may be received.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 프리뷰 이미지(801)에 표시된 피사체들(802, 803, 804, 805, 806) 중 복수의 피사체들(803, 804, 806)을 배경으로부터 분리하기를 원할 수 있다. 이 경우, 사용자는 스타일러스 펜(101)을 이용하여 복수의 관심 영역(807, 808, 809)을 선택할 수 있다. 일 실시 예에 의하면, 사용자는 스타일러스 펜(101)을 특정 피사체들(803, 804, 806)을 향하게 하고 순차적으로 버튼(102)을 누르면, 포인트 표시(810)가 순차적으로 나타날 수 있다.According to an embodiment of the present disclosure, the user of the electronic device 100 selects the plurality of subjects 803 , 804 , and 806 among the subjects 802 , 803 , 804 , 805 , and 806 displayed in the preview image 801 . You may want to separate it from the background. In this case, the user may select a plurality of regions of interest 807 , 808 , and 809 using the stylus pen 101 . According to an embodiment, when the user points the stylus pen 101 to the specific subjects 803 , 804 , and 806 and presses the buttons 102 sequentially, the point marks 810 may appear sequentially.

이 때, 전자 장치(100)는 프리뷰 이미지(801) 내에서 포인트 표시들(810)로부터 소정 반경 내의 영역을 관심 영역들(807, 808, 809)로 선택할 수 있다. 도 8에는 관심 영역들(807, 808, 809)이 포인트 표시들(810)을 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역들(807, 808, 809)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(801)에 표시되지는 않을 수도 있다.In this case, the electronic device 100 may select a region within a predetermined radius from the point marks 810 in the preview image 801 as the ROIs 807 , 808 , and 809 . 8 , the regions of interest 807 , 808 , 809 are indicated as rectangular regions including the point marks 810 , but this only indicates the extent of the regions of interest 807 , 808 , 809 , It may not be displayed in the actual preview image 801 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 복수의 피사체들을 선택하다가 원하지 않는 피사체를 선택하는 경우가 있을 수 있다. 이 경우, 사용자는 스타일러스 펜(101)을 이용하여 잘못 선택한 영역에 대해 버튼(102)을 재차 누름으로써, 선택을 취소할 수 있다.According to an embodiment of the present disclosure, the user of the electronic device 100 may select an unwanted subject while selecting a plurality of subjects. In this case, the user may cancel the selection by pressing the button 102 again for the erroneously selected area using the stylus pen 101 .

도 9는 본 개시의 일 실시 예에 따른 전자 장치가 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작을 설명하기 위한 도면이다.9 is a diagram for describing an operation of an electronic device identifying an object related to a region of interest in a preview image according to an embodiment of the present disclosure;

도 9를 참조하면, 전자 장치(100)의 사용자는 눈사람 인형(930)을 촬영하고, 눈사람 인형(930)이 배경(920)과 분리될 오브젝트로 결정되기를 원할 수 있다.Referring to FIG. 9 , a user of the electronic device 100 may photograph a snowman doll 930 and desire to determine the snowman doll 930 as an object to be separated from a background 920 .

도 9의 900-1을 참조하면, 전자 장치(100)는, 프리뷰 이미지(910) 내에서 배경(920)과 분리하기를 원하는 특정 피사체인 눈사람 인형(930)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(940)을 수신할 수 있다. 도 9에서 터치 입력(940)인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 이 때, 전자 장치(100)는 터치 입력(940)으로부터 소정 반경 내의 영역을 관심 영역(950)으로 선택할 수 있다. 또한, 전자 장치(100)는 관심 영역(950)과 인접한 영역을 관심 영역(950)으로 확장할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(950)과 인접한 영역에 대해 엣지 영역으로 구분할 수 있다. 예를 들어, 눈사람의 얼굴이 관심 영역(950)으로 선택된 경우, 전자 장치(100)는 눈사람의 손, 몸통으로 관심 영역을 확장할 수 있다. 이때, 전자 장치(100)는 사용자로부터 드래그 입력, 멀티 터치 입력 등을 수신하여 관심 영역을 확장할 수 있다.Referring to 900 - 1 of FIG. 9 , the electronic device 100 transmits a snowman doll 930 , which is a specific subject desired to be separated from the background 920 in the preview image 910 for a predetermined time (eg, 3 seconds). ) may receive a touch input 940 to be touched. Although it is described as the touch input 940 in FIG. 9 , it may be a voice input or a stylus input. In this case, the electronic device 100 may select a region within a predetermined radius from the touch input 940 as the region of interest 950 . Also, the electronic device 100 may extend a region adjacent to the ROI 950 to the ROI 950 . According to an embodiment of the present disclosure, the electronic device 100 may classify a region adjacent to the region of interest 950 as an edge region. For example, when the snowman's face is selected as the ROI 950 , the electronic device 100 may extend the ROI to the snowman's hands and torso. In this case, the electronic device 100 may receive a drag input, a multi-touch input, or the like from the user to expand the ROI.

도 9의 900-2를 참조하면, 전자 장치(100)는, 관심 영역(950)에서 눈사람 인형(930)이 차지하는 비율을 판단할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(950)에서 눈사람 인형(930)이 차지하는 비율이 소정 비율(예컨대, 80%) 이상인 경우, 눈사람 인형(930)을 오브젝트로 식별할 수 있다. 예를 들어, 도 9의 900-2를 참조하면, 관심 영역(950)에서 눈사람 인형(930)이 차지하는 영역(960)이 관심 영역의 83%일 수 있다. 이 경우, 눈사람 인형(930)을 배경과 분리할 오브젝트로 식별할 수 있다.Referring to 900 - 2 of FIG. 9 , the electronic device 100 may determine a ratio of the snowman doll 930 in the ROI 950 . According to an embodiment of the present disclosure, the electronic device 100 identifies the snowman 930 as an object when the proportion of the snowman 930 in the region of interest 950 is greater than or equal to a predetermined ratio (eg, 80%). can do. For example, referring to 900 - 2 of FIG. 9 , the area 960 occupied by the snowman doll 930 in the area of interest 950 may be 83% of the area of interest. In this case, the snowman doll 930 may be identified as an object to be separated from the background.

도 9의 900-3을 참조하면, 전자 장치(100)는 눈사람 인형(930)을 오브젝트로 식별한 경우, 식별된 오브젝트를 배경(920)으로부터 분리할 수 있다. 이 때, 일 실시 예에 의하면, 전자 장치(100)는 학습 네트워크 모델을 이용하여 오브젝트를 배경(920)으로부터 분리할 수 있다. 여기서, 학습 네트워크 모델은 피사체의 다양한 배경과 포즈가 담긴 수많은 샘플 이미지 데이터를 활용해 훈련된 인공 지능(AI) 모델일 수 있다.Referring to 900 - 3 of FIG. 9 , when the electronic device 100 identifies the snowman doll 930 as an object, the electronic device 100 may separate the identified object from the background 920 . In this case, according to an embodiment, the electronic device 100 may separate the object from the background 920 using the learning network model. Here, the learning network model may be an artificial intelligence (AI) model trained using numerous sample image data containing various backgrounds and poses of the subject.

도 10은 본 개시의 일 실시 예에 따른 전자 장치가 식별 불가능한 오브젝트를 선택하는 입력을 수신하는 동작을 설명하기 위한 도면이다.10 is a diagram for describing an operation of receiving an input for selecting an unidentifiable object by an electronic device according to an embodiment of the present disclosure;

도 10을 참조하면, 전자 장치(100)의 사용자는 눈사람 인형(1030)이 배경과 분리될 오브젝트로 결정되기를 원하였지만, 실수로 눈사람 인형(1030)과 관련 없는 배경(1020) 부분을 선택할 수 있다.Referring to FIG. 10 , the user of the electronic device 100 wants the snowman doll 1030 to be determined as an object to be separated from the background, but may accidentally select a part of the background 1020 that is not related to the snowman doll 1030. .

도 10의 1000-1을 참조하면, 전자 장치(100)는, 프리뷰 이미지(1010) 내에서 특정 피사체인 눈사람 인형(1030)과 관련 없는 영역(예컨대, 배경 영역)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(1040)을 수신할 수 있다. 도 10에서 터치 입력(1040)인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 이 때, 전자 장치(100)는 터치 입력(1040)으로부터 소정 반경 내의 영역을 관심 영역(1050)으로 선택할 수 있다.Referring to 1000 - 1 of FIG. 10 , the electronic device 100 selects a region (eg, a background region) that is not related to a snowman doll 1030 that is a specific subject within a preview image 1010 for a predetermined time (eg, 3 A touch input 1040 that touches by seconds) may be received. Although it is described as a touch input 1040 in FIG. 10 , it may be a voice input or a stylus input. In this case, the electronic device 100 may select a region within a predetermined radius from the touch input 1040 as the region of interest 1050 .

도 10의 1000-2를 참조하면, 전자 장치(100)는, 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 비율을 판단할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 비율이 소정 비율(예컨대, 80%) 이하인 경우, 눈사람 인형(1030)을 오브젝트로 식별하지 않을 수 있다. 예를 들어, 도 10의 1000-2를 참조하면, 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 영역(1060)이 관심 영역의 8%일 수 있다. 이 경우, 눈사람 인형(1030)을 오브젝트로 식별하지 않을 수 있다. 또한, 관심 영역(1050)에서 배경(1020)이 차지하는 부분이 90% 이상인 경우, 전자 장치(100)는 사용자가 식별 불가능한 피사체를 선택했다고 판단할 수 있다. Referring to 1000 - 2 of FIG. 10 , the electronic device 100 may determine a ratio of the snowman doll 1030 in the ROI 1050 . According to an embodiment of the present disclosure, when the proportion (eg, 80%) of the snowman doll 1030 in the region of interest 1050 is less than a predetermined ratio (eg, 80%), the electronic device 100 identifies the snowman doll 1030 as an object. may not For example, referring to 1000 - 2 of FIG. 10 , the area 1060 occupied by the snowman doll 1030 in the area of interest 1050 may be 8% of the area of interest. In this case, the snowman doll 1030 may not be identified as an object. Also, when the portion occupied by the background 1020 in the region of interest 1050 is greater than or equal to 90%, the electronic device 100 may determine that the user has selected an unidentifiable subject.

본 개시의 일 실시 예에 의하면, 사용자가 프리뷰 이미지(1010) 내에서 식별 불가능한 피사체(예컨대, 배경 영역)를 선택한 경우, 전자 장치(100)는, 식별된 오브젝트가 없음을 전자 장치(100)의 사용자에게 알릴 수 있다. 예를 들어, "식별된 오브젝트가 존재하지 않습니다."라는 문구를 프리뷰 이미지(1010) 내에 팝업 형태로 표시할 수 있다.According to an embodiment of the present disclosure, when the user selects an unidentifiable subject (eg, a background area) in the preview image 1010 , the electronic device 100 determines that there is no identified object. You can notify the user. For example, the phrase “the identified object does not exist” may be displayed in a pop-up form in the preview image 1010 .

도 11은 본 개시의 일 실시 예에 따른 전자 장치가 식별된 오브젝트를 표시하고, 오브젝트의 이미지를 공유하기 위한 입력을 수신하는 동작을 설명하기 위한 도면이다.11 is a diagram for describing an operation of an electronic device displaying an identified object and receiving an input for sharing an image of the object, according to an embodiment of the present disclosure;

도 11을 참조하면, 전자 장치(100)의 사용자가 눈사람 인형(1120)을 선택함에 따라, 눈사람 인형(1120)이 배경과 분리될 오브젝트로 식별될 수 있다. 전자 장치(100)는 프리뷰 이미지(1110) 내에 눈사람 인형(1120)이 오브젝트로 식별되었음을 나타내는 식별 표시(1130)를 할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1110) 내에서 눈사람 인형(1120)의 가장자리 영역을 나타내는 윤곽선을 소정의 색깔 또는 소정의 두께로 표시할 수 있다. 다만, 표시 방법은 이에 한정되는 것은 아니다.Referring to FIG. 11 , when the user of the electronic device 100 selects the snowman doll 1120 , the snowman doll 1120 may be identified as an object to be separated from the background. The electronic device 100 may make an identification mark 1130 indicating that the snowman doll 1120 is identified as an object in the preview image 1110 . According to an embodiment, the electronic device 100 may display an outline indicating an edge region of the snowman doll 1120 in the preview image 1110 with a predetermined color or a predetermined thickness. However, the display method is not limited thereto.

도 11을 참조하면, 전자 장치(100)는 오브젝트로 식별된 눈사람 인형(1120)의 이미지를 공유하기 위한 제2 입력(1140)을 수신할 수 있다. 도 11에서 터치 입력인 것으로 도시되어 있으나, 음성 입력 또는 스타일러스 입력일 수도 있다. 예를 들어, 전자 장치(100)는 사용자가 식별 표시(1130)가 된 눈사람 인형(1120)을 소정 시간 이상 터치하는 경우, 눈사람 인형(1120)의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다.Referring to FIG. 11 , the electronic device 100 may receive a second input 1140 for sharing an image of a snowman doll 1120 identified as an object. Although shown as a touch input in FIG. 11 , it may be a voice input or a stylus input. For example, when the user touches the snowman doll 1120 having the identification mark 1130 for a predetermined time or longer, the electronic device 100 may recognize the snowman doll 1120 as a second input for sharing the image. have.

도 12는 본 개시의 일 실시 예에 따른 공유 기능을 지원하는 어플리케이션에 대한 정보를 제공하는 방법을 설명하기 위한 순서도이다.12 is a flowchart illustrating a method of providing information on an application supporting a sharing function according to an embodiment of the present disclosure.

도 12를 참조하면, 단계 S1210은 도 2의 단계 S240 이후에 수행될 수 있다.Referring to FIG. 12 , step S1210 may be performed after step S240 of FIG. 2 .

단계 S1210에서, 전자 장치(100)는, 공유 기능을 지원하는 복수의 어플리케이션 정보를 수신할 수 있다. In operation S1210, the electronic device 100 may receive a plurality of application information supporting a sharing function.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 경우, 복수의 어플리케이션 정보를 수신할 수 있다. 복수의 어플리케이션은 공유 기능을 지원하는 어플리케이션들(설명의 편의상, 공유 어플리케이션이라고 명할 수 있다)일 수 있다. 어플리케이션 정보는 어플리케이션의 이름, 종류, 지원하는 데이터 형식 등일 수 있다.According to an embodiment of the present disclosure, when receiving a second input for sharing an image of an object, the electronic device 100 may receive a plurality of application information. The plurality of applications may be applications supporting a sharing function (for convenience of description, they may be referred to as shared applications). The application information may be an application name, type, supported data format, and the like.

단계 S1220에서, 전자 장치(100)는, 복수의 어플리케이션 각각에 대응하는 아이콘들을 표시할 수 있다.In operation S1220, the electronic device 100 may display icons corresponding to each of a plurality of applications.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 복수의 어플리케이션(공유 어플리케이션) 각각에 대응하는 아이콘들을 전자 장치(100)의 화면에 표시할 수 있다. 예를 들어, 공유 어플리케이션은 SNS 어플리케이션, 메신저 어플리케이션, 브라우저 어플리케이션, 근거리 무선 통신 용 어플리케이션 등일 수 있으나, 이에 한정되는 것은 아니다. 본 개시의 일 실시 예에 의하면, 공유 어플리케이션 각각에 대응되는 아이콘들은, 프리뷰 이미지와 중첩되어 표시될 수도 있고, 프리뷰 이미지와 다른 영역에 표시될 수도 있다. 예를 들어, 전자 장치(100)는, 제2 입력을 수신함에 따라, 프리뷰 이미지를 축소하고, 복수의 어플리케이션 각각에 대응하는 아이콘들을 축소된 프리뷰 이미지와 다른 영역에 표시할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may display icons corresponding to each of a plurality of applications (shared applications) on the screen of the electronic device 100 . For example, the sharing application may be an SNS application, a messenger application, a browser application, an application for short-range wireless communication, and the like, but is not limited thereto. According to an embodiment of the present disclosure, the icons corresponding to each of the shared applications may be displayed overlapping the preview image or displayed in a different area from the preview image. For example, upon receiving the second input, the electronic device 100 may reduce the preview image and display icons corresponding to each of the plurality of applications in a different area from the reduced preview image.

단계 S1230에서, 전자 장치(100)는, 표시된 아이콘들 중 하나로 오브젝트를 드래그하는 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다.In operation S1230, the electronic device 100 may transmit an image of the object and information related to the object to the external device based on an input of dragging the object to one of the displayed icons.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 제2 입력에 대응하여 표시된 복수의 어플리케이션의 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그할 수 있다. 전자 장치(100)는 드래그 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다. According to an embodiment of the present disclosure, the user of the electronic device 100 may touch and drag an object to an icon of a specific application among icons of a plurality of applications displayed in response to the second input. The electronic device 100 may transmit an image of an object and information related to the object to an external device based on a drag input.

본 개시의 일 실시 예에 의하면, 전자 장치(100)가 단일 윈도우인 경우에도, 전자 장치(100)의 사용자는 드래그와 같은 단순한 사용자 입력으로, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 쉽게 전송할 수 있다.According to an embodiment of the present disclosure, even when the electronic device 100 is a single window, the user of the electronic device 100 easily transmits an image of an object and information related to the object to an external device through a simple user input such as dragging. can be transmitted

이하에서는 도 13을 참조하여 전자 장치(100)가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작에 대해서 자세히 살펴보기로 한다.Hereinafter, an operation in which the electronic device 100 provides information on an application providing a sharing function will be described in detail with reference to FIG. 13 .

도 13은 본 개시의 일 실시 예에 따른 전자 장치가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.13 is a diagram for explaining an operation in which an electronic device provides information on an application that provides a sharing function, according to an embodiment of the present disclosure.

도 13을 참조하면, 사용자는 자신이 마시고 있는 커피의 이미지를 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라를 실행하고, 커피를 포함하는 프리뷰 이미지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다.Referring to FIG. 13 , a user may wish to share an image of the coffee he is drinking with his friend. In this case, the user may launch the camera of the electronic device 100 and cause a preview image including coffee to appear on the display of the electronic device 100 .

도 13의 1300-1을 참조하면, 전자 장치(100)는 프리뷰 이미지(1310) 내에서 커피(1320)를 소정 시간 이상 터치하는 사용자 입력(1330)을 수신할 수 있다. 도 13에서 사용자 입력(1330)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 일 실시 예에 의하면, 전자 장치(100)는 커피(1320)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1330)으로 인식할 수 있다.Referring to 1300-1 of FIG. 13 , the electronic device 100 may receive a user input 1330 of touching coffee 1320 within a preview image 1310 for a predetermined time or longer. Although it is described that the user input 1330 is a touch input in FIG. 13 , it may be a voice input or a stylus input. According to an embodiment, the electronic device 100 may display an outline indicating that the coffee 1320 is separated from the background. When the area within the displayed outline is touched for a predetermined time or longer, the electronic device 100 may recognize it as the user input 1330 .

도 13의 1300-2를 참조하면, 전자 장치(100)는 사용자가 오브젝트(1320)를 터치하는 중에 프리뷰 이미지(1310)의 하단에 제1 어플리케이션, 제2 어플리케이션, 제3 어플리케이션에 대응하는 아이콘들(제1 아이콘(1340), 제2 아이콘(1350), 제3 아이콘(1360))을 표시할 수 있다. 이때, 제1 어플리케이션은 메신저 어플리케이션, 제2 어플리케이션은 SNS 어플리케이션, 제3 어플리케이션은 근거리 무선 통신 용 어플리케이션일 수 있다. Referring to 1300 - 2 of FIG. 13 , the electronic device 100 displays icons corresponding to the first application, the second application, and the third application at the bottom of the preview image 1310 while the user touches the object 1320 . (the first icon 1340 , the second icon 1350 , and the third icon 1360 ) may be displayed. In this case, the first application may be a messenger application, the second application may be an SNS application, and the third application may be an application for short-range wireless communication.

본 개시의 일 실시 예에 의하면, 전자 장치(100)가 사용자 입력(1320)을 수신한 경우, 프리뷰 이미지(1310)의 밝기가 어두워질 수 있다. 그리고, 배경이 제거된 커피 이미지(1370)만이 크기가 축소된 채로 화면에 표시될 수 있다. 이때, 전자 장치(100)의 사용자는 제1 아이콘(1340), 제2 아이콘(1350), 제3 아이콘(1360) 중 특정 어플리케이션 아이콘으로 배경이 제거된 커피 이미지(1370)를 터치한 채 드래그할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 제1 어플리케이션인 메신저 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 커피 이미지(1370)를 터치한 채 제1 아이콘(1340)에 드래그할 수 있다.According to an embodiment of the present disclosure, when the electronic device 100 receives the user input 1320 , the brightness of the preview image 1310 may be darkened. In addition, only the coffee image 1370 from which the background is removed may be displayed on the screen with the size reduced. In this case, the user of the electronic device 100 may drag the coffee image 1370 from which the background has been removed to a specific application icon among the first icon 1340 , the second icon 1350 , and the third icon 1360 while touching it. can For example, when the user of the electronic device 100 wants to share an object through a messenger application that is the first application, the user may drag the coffee image 1370 to the first icon 1340 while touching it. .

도 13의 1300-3을 참조하면, 전자 장치(100)는 메신저 어플리케이션을 이용하여 이미지(1370)를 공유할 수 있다. 전자 장치(100)의 사용자가 이미지(1370)를 터치한 채 메신저 어플리케이션의 아이콘(1340)에 드래그한 경우, 메신저 어플리케이션이 실행될 수 있다. 이때, 배경이 제거된 커피 이미지(1370)는 메신저 어플리케이션의 실행 화면(1380)에 중첩해서 표시될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1380) 상에서 이미지(1370)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1370)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 1300 - 3 of FIG. 13 , the electronic device 100 may share an image 1370 using a messenger application. When the user of the electronic device 100 touches and drags the image 1370 to the icon 1340 of the messenger application, the messenger application may be executed. In this case, the coffee image 1370 from which the background is removed may be displayed overlaid on the execution screen 1380 of the messenger application. According to an embodiment of the present disclosure, when the user of the electronic device 100 stops touching the image 1370 on the messenger application execution screen 1380 (eg, a drop event), the image 1370 displays the messenger application. It may be transmitted to the electronic device (external device) of the counterpart with whom the communication is being performed.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 커피 이미지(1370)와 함께 커피 명, 커피를 구매할 수 있는 사이트 연결 정보 등 커피(1320)와 관련된 정보를 함께 대화 상대방의 전자 장치에 전송할 수 있다. 이때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 커피(1320)와 관련된 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 transmits, together with the coffee image 1370 , information related to the coffee 1320 , such as the name of the coffee and information on connection to a site where coffee can be purchased, to the electronic device of the conversation partner. can In this case, according to an embodiment of the present disclosure, the electronic device 100 may acquire information related to the coffee 1320 using a learning network model of an artificial intelligence (AI) system.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 배경이 제거된 커피 이미지(1370)를 얻기 위해서 추가적인 편집 과정이 필요하지 않게 되므로, 보다 편리하고 빠르게 이미지(1370)를 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, since the user of the electronic device 100 does not need an additional editing process in order to obtain the coffee image 1370 from which the background has been removed, it is more convenient and faster to transfer the image 1370 to the other party's electronic device. It can be transmitted to a device (external device).

도 14는 본 개시의 일 실시 예에 따른 전자 장치가 메신저 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.14 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using a messenger application according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 멀티 윈도우 기능을 가지는 스마트폰일 수 있다. 전자 장치(100)가 멀티 윈도우 기능을 가지는 경우, 제1 어플리케이션 실행 화면과 제2 어플리케이션 실행 화면을 동시에 표시할 수 있다. 이하에서는, 제1 어플리케이션은 카메라 어플리케이션, 제2 어플리케이션은 메신저 어플리케이션인 경우를 예로 들어 설명하기로 한다.According to an embodiment of the present disclosure, the electronic device 100 may be a smartphone having a multi-window function. When the electronic device 100 has a multi-window function, the first application execution screen and the second application execution screen may be simultaneously displayed. Hereinafter, a case in which the first application is a camera application and the second application is a messenger application will be described as an example.

도 14를 참조하면, 사용자는 친구의 이미지를 촬영하고, 배경이 제거된 친구의 이미지를 메신저 어플리케이션을 통해 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)로 제1 어플리케이션인 카메라 어플리케이션을 실행하고, 친구를 포함하는 프리뷰 이미지(1410)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1420)에 나타나도록 할 수 있다.Referring to FIG. 14 , a user may want to photograph a friend's image and share the friend's image from which the background is removed through a messenger application. In this case, the user may execute the camera application, which is the first application, with the electronic device 100 , and may cause the preview image 1410 including the friend to appear on the camera application execution screen 1420 of the electronic device 100 .

도 14의 1400-1을 참조하면, 전자 장치(100)는, 카메라 실행 화면(1420)과 메신저 어플리케이션 실행 화면(1430)을 동시에 표시할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1410) 내의 친구 이미지(1440)를 소정 시간 이상 터치하는 사용자 입력(1450)을 수신할 수 있다. 도 14에서 사용자 입력(1450)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 친구 이미지(1440)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1450)으로 인식할 수 있다.Referring to 1400-1 of FIG. 14 , the electronic device 100 may simultaneously display a camera execution screen 1420 and a messenger application execution screen 1430 . According to an embodiment of the present disclosure, the electronic device 100 may receive a user input 1450 of touching the friend image 1440 in the preview image 1410 for a predetermined time or longer. Although it is described that the user input 1450 is a touch input in FIG. 14 , it may be a voice input or a stylus input. According to an embodiment of the present disclosure, the electronic device 100 may display an outline indicating that the friend image 1440 is separated from the background. When the area within the displayed outline is touched for a predetermined time or longer, the electronic device 100 may recognize it as the user input 1450 .

도 14의 1400-2를 참조하면, 전자 장치(100)가 사용자 입력(1450)을 수신한 경우, 배경이 제거된 친구 이미지(1460)가 크기가 축소된 채로 카메라 실행 화면(1420)에 표시될 수 있다. 이때, 프리뷰 이미지(1410)의 밝기가 어두워질 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 제2 어플리케이션인 메신저 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 이미지(1460)를 터치한 채 메신저 어플리케이션 실행 화면(1430)으로 드래그할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1430) 상에서 이미지(1460)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1460)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 1400 - 2 of FIG. 14 , when the electronic device 100 receives the user input 1450 , the friend image 1460 from which the background is removed is displayed on the camera execution screen 1420 while the size is reduced. can In this case, the brightness of the preview image 1410 may be darkened. According to an embodiment of the present disclosure, when the user of the electronic device 100 desires to share an object through the messenger application, which is the second application, the user touches the image 1460 and the messenger application execution screen 1430 can be dragged to According to an embodiment of the present disclosure, when the user of the electronic device 100 stops touching the image 1460 on the messenger application execution screen 1430 (eg, a drop event), the image 1460 displays the messenger application. It may be transmitted to the electronic device (external device) of the counterpart with whom the communication is being performed.

도 15는 본 개시의 일 실시 예에 따른 전자 장치가 근거리 무선 통신 용 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.15 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using an application for short-range wireless communication according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 멀티 윈도우 기능을 가지는 스마트폰일 수 있다. 전자 장치(100)가 멀티 윈도우 기능을 가지는 경우, 제1 어플리케이션 실행 화면과 제2 어플리케이션 실행 화면을 동시에 표시할 수 있다. 도 15에서는, 제1 어플리케이션은 카메라 어플리케이션, 제2 어플리케이션은 근거리 무선 통신 용 어플리케이션인 경우를 예로 들어 설명하기로 한다.According to an embodiment of the present disclosure, the electronic device 100 may be a smartphone having a multi-window function. When the electronic device 100 has a multi-window function, the first application execution screen and the second application execution screen may be simultaneously displayed. In FIG. 15 , a case in which the first application is a camera application and the second application is an application for short-range wireless communication will be described as an example.

도 15를 참조하면, 사용자는 제1 친구의 이미지를 촬영하고, 배경이 제거된 제1 친구의 이미지를 근거리 무선 통신을 이용해서 제2 친구의 전자 장치로 빠르게 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)로 제1 어플리케이션인 카메라 어플리케이션을 실행하고, 제1 친구를 포함하는 프리뷰 이미지(1501)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1502)에 나타나도록 할 수 있다.Referring to FIG. 15 , a user may want to take an image of a first friend and quickly share the image of the first friend from which the background is removed to the electronic device of the second friend using short-range wireless communication. In this case, the user may execute the camera application, which is the first application, with the electronic device 100 , and cause the preview image 1501 including the first friend to appear on the camera application execution screen 1502 of the electronic device 100 . have.

도 15의 1500-1을 참조하면, 전자 장치(100)는 카메라 실행 화면(1502)과 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)을 동시에 표시할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1501) 내의 제1 친구 이미지(1504)를 소정 시간 이상 터치하는 사용자 입력(1505)을 수신할 수 있다. 도 15에서 사용자 입력(1505)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 제1 친구 이미지(1504)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1505)으로 인식할 수 있다.Referring to 1500 - 1 of FIG. 15 , the electronic device 100 may simultaneously display a camera execution screen 1502 and an interface screen 1503 for short-range wireless communication with an external device. According to an embodiment of the present disclosure, the electronic device 100 may receive a user input 1505 of touching the first friend image 1504 in the preview image 1501 for a predetermined time or longer. Although it is described that the user input 1505 is a touch input in FIG. 15 , it may be a voice input or a stylus input. According to an embodiment of the present disclosure, the electronic device 100 may display an outline indicating that the first friend image 1504 is separated from the background. When the area within the displayed outline is touched for a predetermined time or longer, the electronic device 100 may recognize it as the user input 1505 .

도 15의 1500-2를 참조하면, 전자 장치(100)가 사용자 입력(1505)을 수신한 경우, 배경이 제거된 제1 친구 이미지(1506)가 크기가 축소된 채로 카메라 실행 화면(1502)에 표시될 수 있다. 이때, 프리뷰 이미지(1501)의 밝기가 어두워질 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 제2 어플리케이션인 근거리 무선 통신 용 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 이미지(1506)를 터치한 채 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)으로 드래그할 수 있다. Referring to 1500 - 2 of FIG. 15 , when the electronic device 100 receives a user input 1505 , the first friend image 1506 with the background removed is displayed on the camera execution screen 1502 with a reduced size. can be displayed. In this case, the brightness of the preview image 1501 may be darkened. According to an embodiment of the present disclosure, when a user of the electronic device 100 desires to share an object through an application for short-range wireless communication that is a second application, the user touches the image 1506 while touching the image 1506 It can be dragged to the interface screen 1503 for wireless communication.

도 15의 1500-3을 참조하면, 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)에는 이미지(1506)를 공유할 수 있는 복수의 상대방 목록이 아이콘들(1507, 1508, 1509, 1510, 1511)로 표시될 수 있다. 이때, 전자 장치(100)의 사용자는 공유하기를 원하는 제2 친구(예컨대, "제이콥")가 표시된 아이콘(1507)으로 이미지(1506)를 터치한 채 드래그할 수 있다. Referring to 1500-3 of FIG. 15 , on the interface screen 1503 for short-range wireless communication with an external device, a list of a plurality of counterparts with which an image 1506 can be shared is displayed with icons 1507 , 1508 , 1509 , 1510 , 1511) can be shown. In this case, the user of the electronic device 100 may touch and drag the image 1506 to the icon 1507 on which the second friend (eg, “Jacob”) to be shared is displayed.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 근거리 무선 통신을 하기 위한 인터페이스 화면(1503) 상에서 이미지(1506)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1506)는 근거리 무선 통신(1512)을 통해 직접 제2 친구(예컨대, "제이콥")의 전자 장치(300)로 전송될 수 있다. 여기서, 근거리 무선 통신(1512)은 WiFi, Bluetooth, UWB 등을 포함할 수 있다. 이때, WiFi는 전자 장치들이 무선랜(WLAN)에 연결할 수 있게 하는 기술로서, 무선 접속 장치(AP)가 설치된 곳을 중심으로 일정 거리 이내에서 이용할 수 있다. Bluetooth는 전자 장비 간 짧은 거리의 데이터 통신이 가능하게 하는 기술로서, 사용자는 Bluetooth를 이용해서 디지털 정보를 비교적 낮은 속도로 주고받을 수 있다. UWB(Ultra-wideband, 초광대역)는 기존의 스펙트럼에 비해 매우 넓은 대역에 걸쳐 낮은 전력으로 대용량의 정보를 전송할 수 있는 무선 통신 기술이다.According to an embodiment of the present disclosure, when the user of the electronic device 100 stops touching the image 1506 on the interface screen 1503 for short-range wireless communication (eg, a drop event), the image 1506 may be directly transmitted to the electronic device 300 of the second friend (eg, “Jacob”) through short-range wireless communication 1512 . Here, the short-range wireless communication 1512 may include WiFi, Bluetooth, UWB, and the like. In this case, WiFi is a technology that enables electronic devices to connect to a wireless LAN (WLAN), and can be used within a certain distance from a place where a wireless access device (AP) is installed. Bluetooth is a technology that enables short-distance data communication between electronic devices, and a user can send and receive digital information at a relatively low speed using Bluetooth. UWB (Ultra-wideband) is a wireless communication technology that can transmit large amounts of information with low power over a very wide band compared to the existing spectrum.

도 16은 본 개시의 일 실시 예에 따른 전자 장치가 QR 코드의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.16 is a diagram for explaining an operation of an electronic device sharing an image and information of a QR code with an external device according to an embodiment of the present disclosure.

도 16에서는 전자 장치(100)가 멀티 윈도우 기능을 가지는 스마트폰인 경우를 예로 들어 설명 하기로 한다.In FIG. 16 , a case in which the electronic device 100 is a smart phone having a multi-window function will be described as an example.

도 16을 참조하면, 사용자는 QR 코드를 촬영하고, QR 코드의 이미지와 QR 코드와 관련된 정보를 함께 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라 어플리케이션을 실행하고, QR 코드 이미지를 포함하는 프리뷰 이미지(1610)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1620) 상에 나타나도록 할 수 있다.Referring to FIG. 16 , a user may want to photograph a QR code and share an image of the QR code and information related to the QR code with a friend. In this case, the user may execute the camera application of the electronic device 100 and cause the preview image 1610 including the QR code image to appear on the camera application execution screen 1620 of the electronic device 100 .

도 16의 1600-1을 참조하면, 전자 장치(100)는 카메라 어플리케이션 실행 화면(1620)의 프리뷰 이미지(1610) 내의 QR 코드(1640)를 선택하는 사용자 입력(1650)을 수신할 수 있다. Referring to 1600 - 1 of FIG. 16 , the electronic device 100 may receive a user input 1650 for selecting the QR code 1640 in the preview image 1610 of the camera application execution screen 1620 .

도 16의 1600-2를 참조하면, 전자 장치(100)는 사용자 입력(1650)에 대응하여 배경이 제거된 QR 코드 이미지(1660)와 함께 QR 코드와 관련된 정보(1670)를 획득할 수 있다. 이때, QR 코드와 관련된 정보(1670)는 이메일 주소, URL 정보, 전화 번호, Wi-Fi 비밀번호 정보, Mobile Hotspot 설정 값 정보, IoT 기기 정보 등을 포함할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 QR 코드와 관련된 정보(1670)를 획득할 수 있다.Referring to 1600 - 2 of FIG. 16 , in response to a user input 1650 , the electronic device 100 may acquire QR code related information 1670 together with a QR code image 1660 from which the background is removed. In this case, the QR code-related information 1670 may include an email address, URL information, phone number, Wi-Fi password information, Mobile Hotspot setting value information, IoT device information, and the like. According to an embodiment, the electronic device 100 may obtain information 1670 related to the QR code by using a learning network model of an artificial intelligence (AI) system.

도 16의 1600-3을 참조하면, 전자 장치(100)가 사용자 입력(1650)을 수신한 경우, QR 코드(1640)의 배경이 제거된 이미지(1660)가 크기가 축소된 채로 카메라 실행 화면(1620)에 표시될 수 있다. 그리고, QR 코드와 관련된 정보(1670)도 이미지(1660)와 함께 팝업 형태로 카메라 실행 화면(1620)에 표시될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션을 통하여 이미지(1660) 및 정보(1670)를 공유하기를 원하는 경우, 사용자는 이미지(1660) 및 정보(1670)를 터치한 채 메신저 어플리케이션 실행 화면(1630)으로 드래그할 수 있다.Referring to 1600-3 of FIG. 16 , when the electronic device 100 receives a user input 1650 , the image 1660 from which the background of the QR code 1640 is removed is reduced in size on the camera execution screen ( 1620). In addition, information 1670 related to the QR code may also be displayed on the camera execution screen 1620 in a pop-up form together with the image 1660 . According to an embodiment of the present disclosure, when the user of the electronic device 100 wants to share the image 1660 and the information 1670 through the messenger application, the user touches the image 1660 and the information 1670 . It can be dragged to the messenger application execution screen 1630 while holding it.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1630) 상에서 이미지(1660) 및 정보(1670)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1660) 및 정보(1670)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다. According to an embodiment of the present disclosure, when the user of the electronic device 100 stops touching the image 1660 and the information 1670 on the messenger application execution screen 1630 (eg, a drop event), the image 1660 ) and the information 1670 may be transmitted to an electronic device (external device) of the counterpart with whom the user is having a conversation using a messenger application.

본 개시의 일 실시 예에 의하면, QR 코드(1640)에 URL 정보가 포함되어 있는 경우, 이미지(1660)와 URL 정보가 함께 상대방의 전자 장치로 전송될 수 있다. 이때, 상대방은 전달 받은 이미지(1660)를 자신의 전자 장치에서 탭함으로써, QR 코드에 담긴 콘텐츠를 미리 볼 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 Wi-Fi 비밀번호가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 자신의 전자 장치에서 탭함으로써, 현재 연결된 AP 정보와 비밀번호를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 Mobile Hotspot 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 현재 설정된 AP 정보와 비밀번호를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 사용자의 프로필 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 사용자의 이름, 전화번호, 이메일, 직장, 생일 등의 정보를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 사용자의 헬스 프로필 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 헬스와 관련된 소셜 네트워킹 서비스를 사용자와 함께 이용하도록 운동 종류, 운동 횟수, 인바디 정보 등을 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 IoT(Internet of Things) 기기 관련 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, IoT 기기(예컨대, 로봇 청소기, TV, 냉장고, 세탁기, AI 스피커 등)의 정보를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 클라우드 URL 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 대용량 파일을 클라우드로부터 간편하게 공유 받을 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 스마트폰 설정 값 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 스마트폰을 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 건강 관련 어플리케이션에 대한 그룹 챌린지 초대 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 건강 관련 어플리케이션에서 그룹 생성 정보(예컨대, 헬스 트레이너 그룹 등)을 간편하게 설정할 수 있다.According to an embodiment of the present disclosure, when URL information is included in the QR code 1640 , the image 1660 and the URL information may be transmitted together to the electronic device of the counterpart. In this case, the counterpart may preview the content contained in the QR code by tapping the received image 1660 on their electronic device. According to an embodiment of the present disclosure, when a Wi-Fi password is included in the QR code 1640 , the other party taps the received image 1660 on his/her electronic device to conveniently access the currently connected AP information and password. can be set. According to an embodiment of the present disclosure, when Mobile Hotspot information is included in the QR code 1640 , the counterpart can easily set the currently set AP information and password by tapping the received image 1660 . According to an embodiment of the present disclosure, when the user's profile information is included in the QR code 1640, the other party taps the received image 1660, such as the user's name, phone number, email, work, birthday, etc. information can be easily set. According to an embodiment of the present disclosure, when the user's health profile information is included in the QR code 1640, the other party taps the received image 1660 to use a health-related social networking service together with the user. You can easily set the type of exercise, the number of exercises, and InBody information. According to an embodiment of the present disclosure, when the QR code 1640 includes Internet of Things (IoT) device-related information, the other party taps the received image 1660, so that the IoT device (eg, a robot cleaner, TV, refrigerator, washing machine, AI speaker, etc.) can be easily set. According to an embodiment of the present disclosure, when cloud URL information is included in the QR code 1640 , the counterpart can easily share a large file from the cloud by tapping the received image 1660 . According to an embodiment of the present disclosure, when the smart phone setting value information is included in the QR code 1640 , the counterpart can easily set the smart phone by tapping the received image 1660 . According to an embodiment of the present disclosure, when the QR code 1640 includes group challenge invitation information for a health-related application, the other party taps the received image 1660 to create group information ( For example, a health trainer group, etc.) can be easily set.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 QR 코드와 관련된 정보를 전송하는 추가적인 동작 없이도, QR 코드의 이미지와 QR 코드와 관련된 정보를 동시에 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, the user of the electronic device 100 simultaneously transmits the image of the QR code and information related to the QR code to the other party's electronic device (external device) without an additional operation of transmitting the information related to the QR code. can be transmitted

도 17을 참조하여, QR 코드와 관련된 정보에 대해서 조금 더 살펴보기로 한다. Referring to FIG. 17 , the information related to the QR code will be examined a little more.

도 17은 본 개시의 일 실시 예에 따른 QR 코드와 관련된 정보를 설명하기 위한 도면이다.17 is a diagram for explaining information related to a QR code according to an embodiment of the present disclosure.

도 17에서는 제1 사용자가 제1 전자 장치를 통해서 제2 사용자의 제2 전자 장치로 QR 코드의 이미지 및 QR 코드와 관련된 정보를 전송한 경우를 예로 들어 설명하기로 한다. In FIG. 17 , a case in which the first user transmits the image of the QR code and information related to the QR code to the second electronic device of the second user through the first electronic device will be described as an example.

도 17을 참조하면, QR 코드와 관련된 정보는 전화 번호 정보(1710), 이메일 주소 정보(1720), URL 정보(1730), 주소 정보(1740), 스케쥴 정보(1750) 등을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, QR 코드와 관련된 정보는 Wi-Fi 비밀 번호 정보, Mobile Hotspot 정보, 헬스와 관련된 소셜 네트워킹 서비스 이용 정보, IoT(Internet of Things) 기기 관련 정보 등을 더 포함할 수 있다.Referring to FIG. 17 , information related to the QR code may include phone number information 1710 , email address information 1720 , URL information 1730 , address information 1740 , schedule information 1750 , and the like. However, the present invention is not limited thereto, and the QR code-related information may further include Wi-Fi password information, mobile hotspot information, health-related social networking service use information, Internet of Things (IoT) device-related information, and the like. .

본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 전화 번호 정보(1710)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 다이얼 어플리케이션을 자동으로 실행하고, 전화 번호 정보(1710)에 포함된 전화 번호로 통화 연결을 시도할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be phone number information 1710 . At this time, when the second user, who has received the image and information of the QR code, taps the image of the QR code on his/her second electronic device, the second electronic device automatically executes the dial application and enters the phone number information 1710 . You can try to connect a call to the included phone number.

본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 이메일 주소 정보(1720)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 이메일 어플리케이션을 자동으로 실행하고, 이메일 주소 정보(1720)에 포함된 이메일 주소로 이메일을 보낼 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be email address information 1720 . At this time, when the second user, who has received the image and information of the QR code, taps the image of the QR code on his/her second electronic device, the second electronic device automatically executes the email application and sends the email address information 1720 to the user. You can send an email to the included email address.

본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 URL 정보(1730)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 인터넷을 실행함으로써 URL 정보(1710)에 포함된 URL을 열 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be URL information 1730 . At this time, when the second user who has received the image and information of the QR code taps the image of the QR code on his/her second electronic device, the second electronic device opens the URL included in the URL information 1710 by executing the Internet. can

본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 주소 정보(1740)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 지도 어플리케이션이 실행할 수 있고, 주소 정보(1740)에 포함된 주소로 길안내를 실행할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be address information 1740 . In this case, when the second user, who has received the image and information of the QR code, taps the image of the QR code on his/her second electronic device, the map application can be executed on the second electronic device and the information contained in the address information 1740 is You can run directions by address.

본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 스케쥴 정보(1750)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 달력 어플리케이션이 실행할 수 있고, 스케쥴 정보(1750)에 포함된 스케쥴을 달력 어플리케이션에 기록할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be schedule information 1750 . At this time, when the second user who has received the image and information of the QR code taps the image of the QR code on his/her second electronic device, the calendar application may be executed on the second electronic device, and the information included in the schedule information 1750 may be executed. Schedules can be recorded in the calendar application.

도 18은 본 개시의 일 실시 예에 따른 전자 장치가 문서의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.18 is a diagram for explaining an operation of an electronic device sharing an image and information of a document to an external device according to an embodiment of the present disclosure;

도 18에서는 전자 장치(100)가 멀티 윈도우 기능을 가지는 스마트폰인 경우를 예로 들어 설명하기로 한다.In FIG. 18 , a case in which the electronic device 100 is a smart phone having a multi-window function will be described as an example.

도 18을 참조하면, 사용자는 특정 문서의 이미지(예컨대, 스마트폰 설명서)를 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라를 실행하고, 특정 문서를 포함하는 프리뷰 이미지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다. Referring to FIG. 18 , a user may wish to share an image (eg, a smartphone manual) of a specific document with a friend. In this case, the user may launch the camera of the electronic device 100 and cause a preview image including a specific document to appear on the display of the electronic device 100 .

도 18의 1800-1을 참조하면, 전자 장치(100)는 프리뷰 이미지 내의 문서(오브젝트)를 선택하는 사용자 입력(1810)을 수신할 수 있다. 전자 장치(100)가 사용자 입력(1810)을 수신하는 동작에 대해서는, 도 14에 대한 설명에서 서술하였으므로, 구체적인 설명은 생략하기로 한다. Referring to 1800-1 of FIG. 18 , the electronic device 100 may receive a user input 1810 for selecting a document (object) in a preview image. Since the operation of the electronic device 100 receiving the user input 1810 has been described with reference to FIG. 14 , a detailed description thereof will be omitted.

도 18의 1800-2를 참조하면, 전자 장치(100)는 문서를 선택하는 사용자 입력(1810)에 대응하여 배경이 제거된 문서 이미지(1820)와 함께 문서와 관련된 정보(1830)를 획득할 수 있다. 이때, 문서와 관련된 정보(1830)는 OCR(optical character recognition) 기술을 이용하여 문서를 판독한 텍스트 데이터일 수 있다. OCR 기술은, 이미지 속의 글자 모양 부분을 컴퓨팅 연산을 통해 특정 문자 코드로 바꾸어 주는 기술일 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 문서를 판독할 수 있다.Referring to 1800-2 of FIG. 18 , in response to a user input 1810 for selecting a document, the electronic device 100 may acquire document-related information 1830 together with a document image 1820 from which the background is removed. have. In this case, the document-related information 1830 may be text data obtained by reading a document using optical character recognition (OCR) technology. The OCR technology may be a technology that converts a character-shaped part in an image into a specific character code through a computational operation. According to an embodiment, the electronic device 100 may read a document using a learning network model of an artificial intelligence (AI) system.

도 18의 1800-3을 참조하면, 전자 장치(100)의 사용자가 메신저 어플리케이션을 통하여 이미지(1820) 및 정보(1830)를 공유하기를 원하는 경우, 사용자는 이미지(1820) 및 정보(1830)를 터치한 채 메신저 어플리케이션 실행 화면(1630)으로 드래그할 수 있다.Referring to 1800-3 of FIG. 18 , when a user of the electronic device 100 desires to share an image 1820 and information 1830 through a messenger application, the user transmits the image 1820 and information 1830 . While touching, it may be dragged to the messenger application execution screen 1630 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면 상에서 이미지(1820) 및 정보(1830)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1820) 및 정보(1830)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.According to an embodiment of the present disclosure, when the user of the electronic device 100 stops touching the image 1820 and the information 1830 on the messenger application execution screen (eg, a drop event), the image 1820 and the information 1830 may be transmitted to an electronic device (external device) of the counterpart with whom the user is having a conversation using a messenger application.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 문서의 이미지를 캡쳐하여 텍스트 데이터로 변환하는 과정을 거치지 않고도, 문서의 이미지와 텍스트 데이터를 동시에 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, the user of the electronic device 100 simultaneously transmits the image of the document and the text data to the other party's electronic device (external device) without going through a process of capturing the image of the document and converting it into text data. can be transmitted

도 19는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.19 is a diagram for describing an operation in which an electronic device shares object-related information with an external device according to an embodiment of the present disclosure.

도 19를 참조하면, 사용자는 스마트 태그(1910)를 착용한 강아지를 촬영하여 메신저 어플리케이션을 통해 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라 어플리케이션을 실행하고, 스마트 태그(1910)를 착용한 강아지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다.Referring to FIG. 19 , a user may want to photograph a dog wearing a smart tag 1910 and share it with a friend through a messenger application. In this case, the user may execute a camera application of the electronic device 100 and make a puppy wearing the smart tag 1910 appear on the display of the electronic device 100 .

도 19의 1900-1을 참조하면, 전자 장치(100)의 사용자가 스마트 태그(1910)를 착용한 강아지를 촬영하는 경우, 프리뷰 이미지(1920)에는 스마트 태그(1910)로부터 수신한 강아지에 대한 정보(1940)가 팝업 형태로 표시될 수 있다. 전자 장치(100)는 근거리 무선 통신(예컨대, UWB, 블루투스, 와이파이 등)을 통해 스마트 태그(1910)로부터 강아지에 대한 정보(1940)를 수신할 수 있다. Referring to 1900 - 1 of FIG. 19 , when the user of the electronic device 100 photographs a puppy wearing the smart tag 1910 , the preview image 1920 contains information about the puppy received from the smart tag 1910 . (1940) may be displayed in a pop-up form. The electronic device 100 may receive the information 1940 about the dog from the smart tag 1910 through short-range wireless communication (eg, UWB, Bluetooth, Wi-Fi, etc.).

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1920) 내에서 강아지(1930)를 선택하는 사용자 입력(1950)을 수신할 수 있다. 예를 들어, 전자 장치(100)는 강아지(1930)를 소정 시간 이상 터치하는 입력을 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자 입력(1950)을 수신함에 따라 공유 어플리케이션(예컨대, 메신저 어플리케이션, SNS 어플리케이션 등)에 대응하는 아이콘들을 프리뷰 이미지(1920) 하단에 중첩하여 표시할 수 있다. According to an embodiment of the present disclosure, the electronic device 100 may receive a user input 1950 for selecting a puppy 1930 in the preview image 1920 . For example, the electronic device 100 may receive an input of touching the puppy 1930 for a predetermined time or longer. According to an embodiment of the present disclosure, the electronic device 100 superimposes icons corresponding to a shared application (eg, a messenger application, an SNS application, etc.) on the lower portion of the preview image 1920 upon receiving the user input 1950 . can be displayed.

도 19의 1900-2를 참조하면, 전자 장치(100)는, 사용자 입력(1950)에 대응하여 배경이 제거된 강아지 이미지(1960)와 함께 강아지와 관련된 정보(1970)를 획득할 수 있다. 이때, 강아지와 관련된 정보(1970)는 강아지의 이름, 강아지의 주인, 강아지의 주소 등을 포함할 수 있다. Referring to 1900 - 2 of FIG. 19 , in response to a user input 1950 , the electronic device 100 may acquire information related to a dog 1970 together with a dog image 1960 from which the background is removed. In this case, the dog-related information 1970 may include the dog's name, the dog's owner, the dog's address, and the like.

도 19의 1900-3을 참조하면, 전자 장치(100)는 이미지(1960) 및 정보(1970)를 공유할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 공유 어플리케이션 아이콘 중 메신저 어플리케이션 아이콘으로 이미지(1960) 및 정보(1970)를 터치한 채 드래그함으로써 이미지(1960) 및 정보(1970)를 공유할 수 있다. 다른 실시 예에 의하면, 전자 장치(100)가 사용자 입력(1950)을 수신한 경우, 카메라 어플리케이션의 프리뷰 화면(1920)이 사용자가 이전에 실행하고 있었던 어플리케이션 실행 화면으로 전환될 수 있다. 이때, 전자 장치(100)는 전환된 어플리케이션으로 이미지(1960) 및 정보(1970)를 공유할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 카메라 어플리케이션 실행 전 메신저 어플리케이션을 실행하고 있었던 경우, 전자 장치(100)는 이미지(1960) 및 정보(1970)를 메신저 어플리케이션을 통해 대화하고 있던 상대방에게 전송할 수 있다.Referring to 1900 - 3 of FIG. 19 , the electronic device 100 may share an image 1960 and information 1970 . According to an embodiment of the present disclosure, the user of the electronic device 100 displays the image 1960 and the information 1970 by dragging the image 1960 and the information 1970 to the messenger application icon among the shared application icons while touching them. can share According to another embodiment, when the electronic device 100 receives the user input 1950, the preview screen 1920 of the camera application may be switched to the application execution screen previously executed by the user. In this case, the electronic device 100 may share the image 1960 and the information 1970 as the switched application. For example, when the user of the electronic device 100 is running the messenger application before the camera application is executed, the electronic device 100 transmits the image 1960 and information 1970 to the counterpart with whom the user is talking through the messenger application. can

도 20은 본 개시의 일 실시 예에 따른 전자 장치가 증강 현실(AR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.20 is a diagram for explaining an operation of an electronic device sharing information related to an object to an external device by using an augmented reality (AR) technology according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 증강 현실(AR) 기술을 제공하는 어플리케이션을 활용하는 스마트폰일 수 있다. 그러나, 이에 한정되는 것은 아니고, 본 개시의 전자 장치(100)는 사용자의 안면부에 착용하는 안경 형태의 증강 현실 글래스(Augmented Reality Glass), 사용자의 머리 부분에 착용하는 헤드 마운트 디스플레이 장치(HMD: Head Mounted Display Apparatus), 또는 증강 현실 헬멧(Augmented Reality Helmet)일 수도 있다.According to an embodiment of the present disclosure, the electronic device 100 may be a smartphone using an application providing augmented reality (AR) technology. However, the present disclosure is not limited thereto, and the electronic device 100 of the present disclosure includes augmented reality glasses in the form of glasses worn on the user's face, and a head mounted display device (HMD) worn on the user's head. It may be a Mounted Display Apparatus, or an Augmented Reality Helmet.

도 20의 2000-1을 참조하면, 전자 장치(100)의 사용자는 증강 현실(AR) 기술을 제공하는 어플리케이션을 이용하여 일본어("デザ?トの時間である!")가 기재된 풍선을 들고있는 인형(2010)을 촬영할 수 있다. 이 경우, 프리뷰 이미지(2020)에는 풍선의 일본어("デザ?トの時間である!")가 한국어("디저트 시간!")로 번역되어 표시될 수 있다. Referring to 2000-1 of FIG. 20 , the user of the electronic device 100 is holding a balloon in which Japanese (“デザ?トの時間である!”) is written using an application providing augmented reality (AR) technology. A doll (2010) can be photographed. In this case, in the preview image 2020, the Japanese (“デザ?トの時間である!”) of the balloons may be translated and displayed in Korean (“dessert time!”).

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 인형(2010)의 이미지(2050) 및 풍선에 기재된 일본어에 대한 번역 정보(2060)를 동시에 공유하기를 원할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 프리뷰 이미지(2020) 내에서 오브젝트로 식별된 인형(2030)을 선택하는 사용자 입력(2040)을 수신할 수 있다. 예를 들어, 전자 장치(100)는 오브젝트로 식별된 인형(2030)을 소정 시간 이상 터치하는 입력을 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자 입력(2040)을 수신함에 따라 공유 어플리케이션(예컨대, 메신저 어플리케이션, SNS 어플리케이션 등)에 대응하는 아이콘들을 프리뷰 이미지(2020) 하단에 중첩하여 표시할 수 있다. According to an embodiment of the present disclosure, the user of the electronic device 100 may want to simultaneously share the image 2050 of the doll 2010 and the translation information 2060 for Japanese written on the balloon. According to an embodiment of the present disclosure, the user of the electronic device 100 may receive a user input 2040 for selecting the doll 2030 identified as an object in the preview image 2020 . For example, the electronic device 100 may receive an input of touching the doll 2030 identified as an object for a predetermined time or longer. According to an embodiment of the present disclosure, the electronic device 100 superimposes icons corresponding to a shared application (eg, a messenger application, an SNS application, etc.) on the lower portion of the preview image 2020 upon receiving the user input 2040 . can be displayed.

도 20의 2000-2를 참조하면, 전자 장치(100)는, 사용자 입력(2040)에 대응하여 배경이 제거된 인형 이미지(2050)와 함께 인형이 들고있는 풍선에 기재된 일본어("デザ?トの時間である!")에 대한 번역 정보(2060)를 획득할 수 있다. Referring to 2000-2 of FIG. 20 , in response to a user input 2040 , the electronic device 100 includes a doll image 2050 from which the background has been removed, along with the Japanese language (“デザ?ton”) written in the balloon held by the doll. It is possible to obtain translation information 2060 for TIME である!").

도 20의 2000-3을 참조하면, 전자 장치(100)는 이미지(2050) 및 번역 정보(2060)를 공유할 수 있다. 여기서, 번역 정보(2060)는 텍스트 데이터 형식으로 공유될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 공유 어플리케이션 아이콘 중 메신저 어플리케이션 아이콘으로 이미지(2050) 및 번역 정보(2060)를 터치한 채 드래그함으로써 이미지(2050) 및 번역 정보(2060)를 외부 장치로 공유할 수 있다. 다른 실시 예에 의하면, 전자 장치(100)는 사용자 입력(2040)을 수신함에 따라, 카메라 어플리케이션 이전에 실행되고 있었던 메신저 어플리케이션을 통해 이미지(2050) 및 번역 정보(2060)를 외부 장치로 공유할 수 있다.Referring to 2000-3 of FIG. 20 , the electronic device 100 may share an image 2050 and translation information 2060 . Here, the translation information 2060 may be shared in the form of text data. According to an embodiment of the present disclosure, the user of the electronic device 100 touches and drags the image 2050 and the translation information 2060 to the messenger application icon among the shared application icons, and thus the image 2050 and the translation information 2060 ) can be shared as an external device. According to another embodiment, upon receiving the user input 2040 , the electronic device 100 may share the image 2050 and the translation information 2060 to an external device through a messenger application that was running before the camera application. have.

도 21은 본 개시의 일 실시 예에 따른 전자 장치가 가상 현실(VR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.21 is a diagram for describing an operation of an electronic device sharing object-related information to an external device by using virtual reality (VR) technology according to an embodiment of the present disclosure.

도 21을 참조하면, 전자 장치(100)는 가상 현실(VR) 기술을 제공하는 헤드 마운트 디스플레이 장치(HMD: Head Mounted Display Apparatus)일 수 있다. 그러나, 이에 한정되는 것은 아니고, 사용자의 안면부에 착용하는 안경 형태의 가상 현실 글래스(Virtual Reality Glass) 또는 생체 이식형 장치(예컨대, implantable circuit)일 수도 있다.Referring to FIG. 21 , the electronic device 100 may be a Head Mounted Display Apparatus (HMD) that provides virtual reality (VR) technology. However, the present invention is not limited thereto, and may be virtual reality glasses in the form of glasses worn on the user's face or a bioimplantable device (eg, an implantable circuit).

도 21의 2100-1을 참조하면, 전자 장치(100)는 가상 현실을 위한 VR 컨텐츠(2020)를 표시할 수 있다. 이때, 전자 장치(100)의 사용자는 디스플레이되는 VR 컨텐츠 중에서 특정 캐릭터(2030)의 이미지를 친구와 공유하기를 원할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 VR 컨텐츠(2020) 상에서 특정 캐릭터(2030)를 선택하는 사용자 입력(2040)을 수신할 수 있다. 이때, 전자 장치(100)는 사용자의 모션을 센싱하기 위한 적어도 하나의 센서들을 포함할 수 있고, 적어도 하나의 센서로부터 획득되는 적어도 하나의 센싱값들에 기초하여, 사용자에 의해 선택된 특정 캐릭터(2030)를 식별할 수 있다. Referring to 2100-1 of FIG. 21 , the electronic device 100 may display VR content 2020 for virtual reality. In this case, the user of the electronic device 100 may wish to share an image of a specific character 2030 among displayed VR contents with a friend. According to an embodiment of the present disclosure, the electronic device 100 may receive a user input 2040 for selecting a specific character 2030 on the VR content 2020 . In this case, the electronic device 100 may include at least one sensor for sensing the user's motion, and a specific character 2030 selected by the user based on at least one sensing value obtained from the at least one sensor. ) can be identified.

특정 캐릭터를 선택하는 사용자 입력(2040)은 모션 입력 또는 음성 입력일 수 있으며, 전자 장치(100)에 포함된 센서들에 의해 수신될 수 있다. The user input 2040 for selecting a specific character may be a motion input or a voice input, and may be received by sensors included in the electronic device 100 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)가 특정 캐릭터(2030)를 식별한 경우, VR 컨텐츠(2020)가 블러 처리될 수 있다. 그리고, 배경이 제거된 특정 캐릭터 이미지(2050)만이 크기가 축소된 채로 VR 컨텐츠(2020) 위에 표시될 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 VR 컨텐츠(2020) 하단에 공유 어플리케이션들의 아이콘들(미도시)을 중첩하여 표시할 수 있다. 이때, 전자 장치(100)의 사용자는 공유 어플리케이션들의 아이콘들 중 메신저 어플리케이션 아이콘으로 배경이 제거된 이미지(2050)를 드래그하는 모션을 취할 수 있다. According to an embodiment of the present disclosure, when the electronic device 100 identifies a specific character 2030 , the VR content 2020 may be blurred. In addition, only the specific character image 2050 from which the background is removed may be displayed on the VR content 2020 with the size reduced. According to an embodiment, the electronic device 100 may overlap and display icons (not shown) of shared applications at the bottom of the VR content 2020 . In this case, the user of the electronic device 100 may take a motion of dragging the image 2050 from which the background is removed to the messenger application icon among the icons of the shared applications.

도 21의 2100-2를 참조하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 아이콘으로 이미지(2050)를 드래그하는 모션을 취하는 경우, 메신저 어플리케이션 실행 화면(2060)이 VR 컨텐츠(2020) 위에 중첩되어 표시될 수 있다. 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(2060) 상에서 이미지(2050)를 드래그하는 모션을 중단하는 경우(예컨대, 드롭 이벤트), 이미지(2050)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 2100-2 of FIG. 21 , when the user of the electronic device 100 takes a motion of dragging the image 2050 to the messenger application icon, the messenger application execution screen 2060 is superimposed on the VR content 2020. can be displayed. According to an embodiment, when the user of the electronic device 100 stops the motion of dragging the image 2050 on the messenger application execution screen 2060 (eg, a drop event), the image 2050 uses the messenger application. to be transmitted to the electronic device (external device) of the other party with whom the user is having a conversation.

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 VR 화면을 캡쳐하여 편집하지 않고도, VR 화면 상의 특정 오브젝트의 이미지를 다른 사용자와 공유할 수 있다. According to an embodiment of the present disclosure, the user of the electronic device 100 may share an image of a specific object on the VR screen with other users without capturing and editing the VR screen.

도 22는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트에 대한 편집을 수행한 후 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of sharing an object with an external device after an electronic device edits an object according to an embodiment of the present disclosure;

도 22를 참조하면, 전자 장치(100)는 프리뷰 이미지 내에서 사용자가 선택한 특정 오브젝트의 이미지를 편집할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 벤치에 앉아있는 친구(2210)가 포함된 프리뷰 이미지 내에서 친구(2210)를 소정 시간 이상 터치하는 입력을 수신할 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지 내에서 친구(2210)의 이미지(2250)를 배경과 분리하고, 친구(2210)의 이미지(2250)를 편집하기 위한 편집 어플리케이션(제1-1 어플리케이션)(2240)을 실행할 수 있다. 전자 장치(100)의 사용자는 편집 어플리케이션(2240)에 표시된 친구(2210)의 이미지(2210)를 편집하여 편집 이미지(2260)를 생성할 수 있다. 이때, 편집은 오브젝트에 효과 주기, 텍스트 입력, GIF 파일 생성, 아이콘 추가 등을 포함할 수 있다. 예를 들어, 사용자는 친구(2210)의 이미지 옆에 'You're driving me crazy!' 라는 문구를 추가하여 편집 이미지(2260)를 생성할 수 있다. Referring to FIG. 22 , the electronic device 100 may edit an image of a specific object selected by a user within a preview image. According to an embodiment of the present disclosure, the electronic device 100 may receive an input of touching the friend 2210 for a predetermined time or longer in a preview image including the friend 2210 sitting on a bench. In this case, the electronic device 100 separates the image 2250 of the friend 2210 from the background in the preview image, and an editing application for editing the image 2250 of the friend 2210 (application 1-1) (2240) may be executed. The user of the electronic device 100 may create the edited image 2260 by editing the image 2210 of the friend 2210 displayed on the editing application 2240 . In this case, the editing may include giving an effect to the object, inputting text, creating a GIF file, adding an icon, and the like. For example, a user may say 'You're driving me crazy!' next to an image of a friend 2210. An edited image 2260 may be created by adding the phrase .

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 메신저 어플리케이션(제2 어플리케이션)(2270)을 통하여 편집 이미지(2260)를 친구의 전자 장치와 공유할 수 있다. 전자 장치(100)가 사용자의 드래그 입력을 통하여 이미지를 공유하는 동작에 대해서는, 도 13에 대한 설명에서 서술하였으므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, the electronic device 100 may share the edited image 2260 with the electronic device of a friend through the messenger application (second application) 2270 . An operation in which the electronic device 100 shares an image through a user's drag input has been described in the description of FIG. 13 , so a description thereof will be omitted.

도 23은 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트를 편집 어플리케이션으로 공유하는 동작을 설명하기 위한 도면이다.23 is a diagram for describing an operation of an electronic device sharing an object with an editing application according to an embodiment of the present disclosure;

도 23을 참조하면, 전자 장치(100)는 프리뷰 이미지(2310) 내에서 사용자가 스타일러스 펜(101)을 이용하여 선택한 특정 오브젝트의 이미지를 편집 어플리케이션(2350)을 이용하여 자유롭게 편집할 수 있다. Referring to FIG. 23 , the electronic device 100 may freely edit the image of a specific object selected by the user using the stylus pen 101 in the preview image 2310 using the editing application 2350 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 벤치에 앉아 있는 친구(2320)가 포함된 프리뷰 이미지 내에서 친구(2320)를 선택하는 사용자 입력(2330)을 수신할 수 있다. 이때, 사용자 입력(2330)은 스타일러스 펜(101)의 제1 버튼(102)을 누른 채로 친구(2320)를 선택하는 입력일 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지(2310) 내에서 친구(2320)의 이미지(2340)를 배경과 분리할 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may receive a user input 2330 for selecting the friend 2320 from the preview image including the friend 2320 sitting on a bench. In this case, the user input 2330 may be an input for selecting the friend 2320 while pressing the first button 102 of the stylus pen 101 . In this case, the electronic device 100 may separate the image 2340 of the friend 2320 from the background in the preview image 2310 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 편집 어플리케이션(2350)을 이용하여 이미지(2340)를 자유롭게 편집할 수 있다. 전자 장치(100)의 사용자가 친구(2320)를 선택한 채로, 스타일러스 펜(101)의 제2 버튼(103)을 누르는 경우, 편집 어플리케이션(2350)이 실행될 수 있다. 전자 장치(100)의 사용자는 편집 어플리케이션(2350)에서 스타일러스 펜(101)을 이용하여 자유롭게 이미지(2340)를 편집할 수 있다. 이때, 편집은 이미지(2340) 주변으로 다른 이미지 추가, 스타일러스 펜(101)을 이용한 손글씨 추가, 아이콘 추가, 스티커 추가 등을 포함할 수 있다. According to an embodiment of the present disclosure, the user of the electronic device 100 may freely edit the image 2340 using the editing application 2350 . When the user of the electronic device 100 presses the second button 103 of the stylus pen 101 while selecting the friend 2320 , the editing application 2350 may be executed. The user of the electronic device 100 may freely edit the image 2340 using the stylus pen 101 in the editing application 2350 . In this case, the editing may include adding another image around the image 2340 , adding handwriting using the stylus pen 101 , adding an icon, adding a sticker, and the like.

도 24 및 도 25는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록 구성도이다.24 and 25 are block diagrams for explaining an electronic device according to an embodiment of the present disclosure.

도 24에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(100)는, 디스플레이(2521), 카메라(2551), 메모리(2560), 프로세서(2510)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 장치(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 전자 장치(100)는 구현될 수 있다.24 , the electronic device 100 according to an embodiment may include a display 2521 , a camera 2551 , a memory 2560 , and a processor 2510 . However, not all illustrated components are essential components. The electronic device 100 may be implemented by more components than the illustrated components, or the electronic device 100 may be implemented by fewer components.

예를 들어, 도25에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(100)는, 프로세서(2510), 출력부(2520), 통신부(2530), 사용자 입력부(2540), A/V 입력부(2550), 메모리(2560)를 포함할 수 있다.For example, as shown in FIG. 25 , the electronic device 100 according to an embodiment includes a processor 2510 , an output unit 2520 , a communication unit 2530 , a user input unit 2540 , and an A/V input unit. 2550 and a memory 2560 may be included.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

출력부(2520)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(2521), 음향 출력부(2522), 진동 모터(2523) 등이 포함될 수 있다. The output unit 2520 is for outputting an audio signal, a video signal, or a vibration signal, and may include a display unit 2521 , a sound output unit 2522 , a vibration motor 2523 , and the like.

음향 출력부(2522)는 통신부(2530)로부터 수신되거나 메모리(2560)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(2522)는 전자 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(2522)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 2522 outputs audio data received from the communication unit 2530 or stored in the memory 2560 . Also, the sound output unit 2522 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, and a notification sound) performed by the electronic device 100 . The sound output unit 2522 may include a speaker, a buzzer, and the like.

진동 모터(2523)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(2523)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(2523)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다. 진동 모터(2523)는, 사용자로부터 제1 입력을 수신하여 특정 피사체를 오브젝트로 식별한 경우, 진동 신호를 출력할 수도 있다. The vibration motor 2523 may output a vibration signal. For example, the vibration motor 2523 may output a vibration signal corresponding to the output of audio data or video data (eg, a call signal reception sound, a message reception sound, etc.). Also, the vibration motor 2523 may output a vibration signal when a touch is input to the touch screen. The vibration motor 2523 may output a vibration signal when a specific subject is identified as an object by receiving a first input from the user.

출력부(2520)는 카메라(2551)를 통해 인식되는 피사체를 포함하는 프리뷰 이미지를 표시할 수 있다. 출력부(2520)는 프리뷰 이미지 내에 포커스 표시를 제공할 수 있다. The output unit 2520 may display a preview image including a subject recognized by the camera 2551 . The output unit 2520 may provide a focus indication in the preview image.

출력부(2520)는 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 스마트 태그를 착용한 강아지를 촬영한 경우, 강아지와 관련된 정보를 표시할 수 있다.The output unit 2520 may also display information related to the subject in the preview image. For example, when the user of the electronic device 100 takes a picture of a puppy wearing a smart tag, information related to the puppy may be displayed.

출력부(2520)는 공유 기능을 지원하는 복수의 어플리케이션에 대한 정보를 제공할 수 있다.The output unit 2520 may provide information on a plurality of applications supporting a sharing function.

프로세서(2510)는, 통상적으로 전자 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2510)는, 메모리(2560)에 저장된 프로그램들을 실행함으로써, 출력부(2520), 통신부(2530), 사용자 입력부(2540), A/V 입력부(2550), 메모리(2560) 등을 전반적으로 제어할 수 있다.The processor 2510 generally controls the overall operation of the electronic device 100 . For example, the processor 2510 executes programs stored in the memory 2560 , and thus the output unit 2520 , the communication unit 2530 , the user input unit 2540 , the A/V input unit 2550 , and the memory 2560 . You have total control over your back.

일 실시예에 의하면, 프로세서(2510)는 학습 네트워크 모델을 생성하기 위한 AI 프로세서를 포함할 수 있으나, 이에 한정되는 것은 아니다. 일 실시예에 의하면, AI 프로세서는 프로세서(2510)와 별도의 칩으로 구현될 수도 있다. According to an embodiment, the processor 2510 may include an AI processor for generating a learning network model, but is not limited thereto. According to an embodiment, the AI processor may be implemented as a chip separate from the processor 2510 .

프로세서(2510)는 카메라를 통해 획득되는 프리뷰 이미지를 디스플레이에 표시할 수 있다. 프로세서(2510)는 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시를 할 수 있다. 프로세서(2510)는 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수도 있다.The processor 2510 may display a preview image obtained through the camera on the display. The processor 2510 may identify a subject in the preview image, and may display a focus on the identified subject. The processor 2510 may also display information related to the subject on the preview image.

프로세서(2510)는 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고, 제1 입력에 기초하여 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별할 수 있다. 프로세서(2510)는 관심 영역의 소정 비율 이상의 영역과 중첩되는 피사체를 오브젝트로 식별할 수 있다. 프로세서(2510)는 프리뷰 이미지 내에 오브젝트에 대한 식별 표시를 할 수 있다.The processor 2510 may receive a first input for selecting a region of interest in the preview image, and identify an object related to the region of interest in the preview image based on the first input. The processor 2510 may identify a subject that overlaps an area equal to or greater than a predetermined ratio of the area of interest as an object. The processor 2510 may mark an object in the preview image for identification.

프로세서(2510)는 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하고, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다. 프로세서(2510)는 제2 입력에 대응하여 복수의 어플리케이션의 아이콘들을 표시할 수 있다. 프로세서(2510)는 표시된 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그하는 입력에 기초하여, 오브젝트를 외부 장치에 전송할 수 있다. 프로세서(2510)는 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다.The processor 2510 may receive a second input for sharing information related to an object, and transmit an image of the object and information related to the object to an external device based on the second input. The processor 2510 may display icons of a plurality of applications in response to the second input. The processor 2510 may transmit the object to the external device based on an input of dragging the object to the icon of a specific application from among the displayed icons. The processor 2510 may transmit information related to the object together with the image of the object to an external device.

통신부(2530)는, 전자 장치(100)와 서버 장치(200), 전자 장치(100)와 외부 전자 장치(300) 또는 전자 장치(100)와 피사체에 대한 정보를 전송할 수 있는 장치 간의 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(2530)는, 근거리 통신부(2531), 이동 통신부(2532), 방송 수신부(2533)를 포함할 수 있다.The communication unit 2530 performs communication between the electronic device 100 and the server device 200 , the electronic device 100 and the external electronic device 300 , or the electronic device 100 and a device capable of transmitting information about a subject. It may include one or more components that For example, the communication unit 2530 may include a short-range communication unit 2531 , a mobile communication unit 2532 , and a broadcast receiving unit 2533 .

근거리 통신부(short-range wireless communication unit)(2531)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. Short-range wireless communication unit 2531, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared ( It may include an IrDA, infrared Data Association) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, and the like, but is not limited thereto.

이동 통신부(2532)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 2532 transmits/receives wireless signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.

방송 수신부(2533)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(100)가 방송 수신부(2533)를 포함하지 않을 수도 있다.The broadcast receiving unit 2533 receives a broadcast signal and/or broadcast related information from the outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. According to an embodiment, the electronic device 100 may not include the broadcast receiver 2533 .

일 실시 예에 의하면, 통신부(2530)는, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치(200, 300)에 전송할 수 있다. 통신부(2530)는, 오브젝트와 관련된 정보를 외부 장치(예컨대, 스마트 태그)로부터 수신할 수 있다. 통신부(2530)는 오브젝트의 이미지를 SNS 서버에 업로드하거나, SNS 서버로부터 이미지를 다운로드할 수 있다.According to an embodiment, the communication unit 2530 may transmit an image of an object and information related to the object to the external devices 200 and 300 . The communication unit 2530 may receive information related to an object from an external device (eg, a smart tag). The communication unit 2530 may upload an image of an object to an SNS server or download an image from the SNS server.

A/V(Audio/Video) 입력부(2550)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(2551), 마이크로폰(2552) 등이 포함될 수 있다. 카메라(2551)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(2510) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video) input unit 2550 is for inputting an audio signal or a video signal, and may include a camera 2551 , a microphone 2552 , and the like. The camera 2551 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a shooting mode. The image captured through the image sensor may be processed through the processor 2510 or a separate image processing unit (not shown).

카메라(2551)에서 처리된 화상 프레임은 메모리(2560)에 저장되거나 통신부(2530)를 통하여 외부로 전송될 수 있다. The image frame processed by the camera 2551 may be stored in the memory 2560 or transmitted to the outside through the communication unit 2530 .

일 실시 예에 의하면, 카메라(2551)는 일반 카메라, 망원 카메라, 광각 카메라 중 적어도 하나일 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the camera 2551 may be at least one of a general camera, a telephoto camera, and a wide-angle camera, but is not limited thereto.

마이크로폰(2552)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(2552)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(2552)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 2552 receives an external sound signal and processes it as electrical voice data. For example, the microphone 2552 may receive an acoustic signal from an external device or a speaker. The microphone 2552 may use various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

사용자 입력부(2540)는, 사용자가 전자 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(2540)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 2540 means a means for a user to input data for controlling the electronic device 100 . For example, the user input unit 2540 includes a key pad, a dome switch, and a touch pad (contact capacitive type, pressure resistance film type, infrared sensing method, surface ultrasonic conduction method, integral type). There may be a tension measurement method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

메모리(2560)는 피사체 추천 모듈(2561), 친밀도 판단 모듈(2562), 오브젝트 매니저 모듈(2563)을 포함할 수 있으며, 오브젝트 매니저 모듈(2563)은 오브젝트 결정 모듈(2564), 오브젝트 분리 모듈(2565), 오브젝트 공유 모듈(2566)을 포함할 수 있다.The memory 2560 may include a subject recommendation module 2561 , an affinity determination module 2562 , and an object manager module 2563 , and the object manager module 2563 includes an object determination module 2564 , and an object separation module 2565 . ), an object sharing module 2566 .

일 실시 예에 따르면, 메모리(2563)에 포함되는 구성 요소들(예: 피사체 추천 모듈(2561), 친밀도 판단 모듈(2562), 오브젝트 결정 모듈(2564), 오브젝트 분리 모듈(2565), 및/또는 오브젝트 공유 모듈(2566))은 소프트웨어 구조 이외에, 추가적으로 또는 대체적으로 하드웨어 구조(또는 하드웨어 모듈(예: 회로(circuitry)))로서 프로세서(2510)에 포함될 수 있다.According to an embodiment, components included in the memory 2563 (eg, a subject recommendation module 2561 , an affinity determination module 2562 , an object determination module 2564 , an object separation module 2565 , and/or The object sharing module 2566) may be included in the processor 2510 as a hardware structure (or a hardware module (eg, circuitry)) in addition or alternatively to a software structure.

피사체 추천 모듈(2561)은 전자 장치(100)의 카메라가 인텔리전트(Intelligent) 기능을 실행하여 프리뷰 이미지(450) 내에서 피사체들을 인식하고, 인식된 피사체에 추천 포커스 표시를 하기 위한 인스트럭션들을 저장할 수 있다.The subject recommendation module 2561 may store instructions for recognizing subjects in the preview image 450 by the camera of the electronic device 100 executing an intelligent function, and displaying a recommended focus on the recognized subject. .

친밀도 판단 모듈(2562)은 전자 장치(100)가 오브젝트와 관련된 장치로부터 오브젝트와 관련된 정보를 획득할 때, 전자 장치(100)와 오브젝트와 관련된 장치의 친밀도에 기초하여 정보를 획득하는 정도를 결정하기 위하여, 전자 장치(100)와 오브젝트와 관련된 장치와의 친밀도를 판단하기 위한 인스트럭션들을 저장할 수 있다.The intimacy determination module 2562 is configured to determine a degree of obtaining information based on the intimacy between the electronic device 100 and the object-related device when the electronic device 100 obtains the object-related information from the object-related device. To this end, instructions for determining the intimacy between the electronic device 100 and the device related to the object may be stored.

오브젝트 결정 모듈(2564)은 제1 입력에 따른 관심 영역에서 특정 피사체가 차지하는 비율이 소정 비율 이상인 경우, 특정 피사체를 오브젝트로 결정하기 위한 인스트럭션들을 저장할 수 있다.The object determination module 2564 may store instructions for determining the specific subject as an object when the ratio of the specific subject in the ROI according to the first input is equal to or greater than a predetermined ratio.

오브젝트 분리 모듈(2565)은 프리뷰 이미지 내에서 결정된 오브젝트를 배경과 분리하고, 프리뷰 이미지 내에서 분리된 오브젝트에 대한 식별 표시를 하기 위한 인스트럭션들을 저장할 수 있다.The object separation module 2565 may store instructions for separating an object determined in the preview image from a background, and identifying the separated object in the preview image.

오브젝트 공유 모듈(2566)은 사용자에 의해서 선택된 공유 어플리케이션을 통해서 외부 장치에 오브젝트의 이미지 또는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 공유하기 위한 인스트럭션들을 저장할 수 있다.The object sharing module 2566 may store an image of an object or instructions for sharing an image of an object and information related to an object in an external device through a sharing application selected by a user.

메모리(2560)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory 2560 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks.

본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Functions related to artificial intelligence according to the present disclosure are operated through a processor and a memory. The processor may consist of one or a plurality of processors. In this case, the one or more processors may be a general-purpose processor such as a CPU, an AP, a digital signal processor (DSP), or the like, a graphics-only processor such as a GPU, a VPU (Vision Processing Unit), or an artificial intelligence-only processor such as an NPU. One or a plurality of processors control to process input data according to a predefined operation rule or artificial intelligence model stored in the memory. Alternatively, when one or more processors are AI-only processors, the AI-only processor may be designed with a hardware structure specialized for processing a specific AI model.

기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.The predefined action rule or artificial intelligence model is characterized in that it is created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden. Such learning may be performed in the device itself on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system. Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.

인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weights. The plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized. The artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), There may be a Deep Belief Network (DBN), a Bidirectional Recurrent Deep Neural Network (BRDNN), or a Deep Q-Networks, but is not limited to the above-described example.

도 26은 본 개시의 일 실시 예에 따른 메모리에 저장되는 소프트웨어 모듈을 설명하기 위한 도면이다.26 is a diagram for describing a software module stored in a memory according to an embodiment of the present disclosure.

도 26을 참조하면, 본 개시의 일 실시 예에 따른 시스템은 어플리케이션 계층(2610), 프레임워크 계층(2620), 하드웨어 추상화 계층(2630), 커널 계층(2640), 하드웨어 계층(2650)으로 구성될 수 있다. 다만, 이에 한정되지 않으며, 전자 장치(100)가 포함하는 플랫폼에 따라 도시된 구성 중 적어도 일부는 변경될 수 있다.Referring to FIG. 26 , the system according to an embodiment of the present disclosure includes an application layer 2610 , a framework layer 2620 , a hardware abstraction layer 2630 , a kernel layer 2640 , and a hardware layer 2650 . can However, the present invention is not limited thereto, and at least some of the illustrated configurations may be changed depending on the platform included in the electronic device 100 .

본 개시의 일 실시 예에 따른 어플리케이션 계층(2610)은 어플리케이션들(2611) 및 시스템 유저 인터페이스(2612)를 포함할 수 있다.The application layer 2610 according to an embodiment of the present disclosure may include applications 2611 and a system user interface 2612 .

본 개시의 일 실시 예에 따른 프레임 워크 계층(2620)은 윈도우 매니저(2621), 오브젝트 매니저 모듈(2563), 뷰 시스템(2622), 액티비티 매니저(2623), 센서 매니저(2624), 스타일러스 펜 동작 감지 매니저(2625)를 포함할 수 있다. The framework layer 2620 according to an embodiment of the present disclosure includes a window manager 2621 , an object manager module 2563 , a view system 2622 , an activity manager 2623 , a sensor manager 2624 , and a stylus pen motion detection A manager 2625 may be included.

일 실시 예에 따른 윈도우 매니저(2621)는 센서 매니저(2624)를 통해 전자 장치(100)의 상태 변경이 식별되면, 전자 장치의 변경된 상태에 대응되는 정보를 어플리케이션들(2611)에 전달할 수 있다. 일 실시 예에 따른 뷰 시스템(2622)은 전자 장치(100)의 디스플레이에 적어도 하나의 레이어를 표시할 수 있다. 일 실시 예에 따른 오브젝트 매니저 모듈(2563)은 프리뷰 이미지 내의 피사체들 중 오브젝트를 결정하고, 결정된 오브젝트를 분리 및 공유할 수 있다.When a state change of the electronic device 100 is identified through the sensor manager 2624 , the window manager 2621 according to an embodiment may transmit information corresponding to the changed state of the electronic device to the applications 2611 . The view system 2622 according to an embodiment may display at least one layer on the display of the electronic device 100 . The object manager module 2563 according to an embodiment may determine an object among subjects in the preview image, and separate and share the determined object.

본 개시의 일 실시 예에 따른 하드웨어 추상화 계층(2630)은 이벤트 허브(2631) 및 서비스 플링거(2632)를 포함할 수 있다. 일 실시 예에 따른 하드웨어 추상화 계층(2630)은 하드웨어 계층에 포함된 복수의 하드웨어 모듈과 전자 장치(100)의 소프트웨어 사이의 추상화된 계층을 의미할 수 있다.The hardware abstraction layer 2630 according to an embodiment of the present disclosure may include an event hub 2631 and a service flinger 2632 . The hardware abstraction layer 2630 according to an embodiment may mean an abstraction layer between a plurality of hardware modules included in the hardware layer and software of the electronic device 100 .

본 개시의 일 실시 예에 따른 커널 계층(2640)은 센서 드라이버(2641), 블루투스 컨트롤러(2642), 디스플레이 컨트롤러(2643)를 포함할 수 있다. 일 실시 예에 따른 커널 계층(2640)은 전자 장치(100)에 포함된 다양한 하드웨어 모듈을 제어하기 위한 다양한 드라이버를 포함할 수 있다. The kernel layer 2640 according to an embodiment of the present disclosure may include a sensor driver 2641 , a Bluetooth controller 2642 , and a display controller 2643 . The kernel layer 2640 according to an embodiment may include various drivers for controlling various hardware modules included in the electronic device 100 .

본 개시의 일 실시 예에 따른 하드웨어 계층(2650)은 센서 컨트롤러(2651) 및 디스플레이 패널(2642)을 포함할 수 있다. 일 실시 예에 따른 하드웨어 계층(2650)은 센서 컨트롤러(2651)에 기초하여 전자 장치(100)의 상태 변경을 식별할 수 있다.The hardware layer 2650 according to an embodiment of the present disclosure may include a sensor controller 2651 and a display panel 2642 . The hardware layer 2650 according to an embodiment may identify a state change of the electronic device 100 based on the sensor controller 2651 .

본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트를 촬영한 후 캡쳐하여 배경을 제거하는 과정을 거치지 않고도, 배경이 제거된 오브젝트 이미지를 곧바로 외부 장치로 전송할 수 있다. 특히, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트의 이미지와 오브젝트와 관련된 정보를 동시에 전송함으로써, 오브젝트와 관련된 정보를 전송하는 추가적인 동작이 필요하지 않을 수 있다.According to an embodiment of the present disclosure, the electronic device 100 may directly transmit the object image from which the background is removed to the external device without going through a process of removing the background by capturing the object after capturing it. In particular, according to an embodiment of the present disclosure, since the electronic device 100 simultaneously transmits an image of an object and information related to the object, an additional operation for transmitting information related to the object may not be required.

기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is stored at least in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.

이상에서 본 개시의 실시 예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments of the present disclosure have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. belong to the scope of the right.

Claims (20)

전자 장치가 외부 장치와 정보를 공유하는 방법에 있어서,
카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작;
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작;
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작;
상기 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 동작; 및
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작을 포함하는, 방법.
A method for an electronic device to share information with an external device, the method comprising:
displaying a preview image acquired through a camera;
receiving a first input for selecting a region of interest in the preview image;
identifying an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing an image of the object; and
and transmitting an image of the object and information related to the object to the external device based on the second input.
제1항에 있어서, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작은,
상기 프리뷰 이미지 내에서 상기 오브젝트를 배경으로부터 분리하는 동작을 포함하는, 방법.
The method of claim 1 , wherein identifying the object related to the region of interest in the preview image comprises:
isolating the object from a background within the preview image.
제1항에 있어서, 상기 프리뷰 이미지를 표시하는 동작은,
제1 어플리케이션의 실행 화면을 통해 상기 프리뷰 이미지를 표시하는 동작을 포함하고,
상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작은,
상기 제1 어플리케이션과 상이한 제2 어플리케이션을 통해서 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작을 포함하는, 방법.
The method of claim 1, wherein the displaying of the preview image comprises:
Displaying the preview image through the execution screen of the first application,
The operation of transmitting the image of the object and information related to the object to the external device includes:
and transmitting the image of the object and information related to the object to the external device through a second application different from the first application.
제3항에 있어서, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작은,
상기 제2 어플리케이션에서 지원하는 데이터 형식에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 가공하는 동작을 포함하는, 방법.
The method of claim 3, wherein transmitting the image of the object and information related to the object to the external device comprises:
and processing an image of the object and information related to the object based on a data format supported by the second application.
제3항에 있어서, 상기 제2 입력을 수신하는 동작은,
상기 프리뷰 이미지에서 상기 오브젝트를 터치한 채 상기 제2 어플리케이션의 실행 화면으로 드래그하는 입력을 수신하는 동작을 포함하는, 방법.
The method of claim 3, wherein the receiving of the second input comprises:
and receiving an input of dragging the object from the preview image to an execution screen of the second application while touching the object.
제3항에 있어서, 상기 제2 입력을 수신하는 동작은,
상기 프리뷰 이미지에서 상기 오브젝트가 터치됨에 따라, 데이터 공유 기능을 지원하는 복수의 어플리케이션 각각에 대응하는 아이콘들을 표시하는 동작; 및
상기 아이콘들 중에서 상기 제2 어플리케이션에 대응하는 아이콘 위로 상기 오브젝트를 드래그하는 동작을 포함하는, 방법.
The method of claim 3, wherein the receiving of the second input comprises:
displaying icons corresponding to each of a plurality of applications supporting a data sharing function as the object is touched in the preview image; and
and dragging the object onto an icon corresponding to the second application from among the icons.
제5항에 있어서,
상기 제2 어플리케이션의 실행 화면은 상기 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함하고,
상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작은,
상기 근거리 무선 통신을 통해 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 다른 사용자의 모바일 장치로 전송하는 동작을 포함하는, 방법.
6. The method of claim 5,
The execution screen of the second application includes an interface screen for short-range wireless communication with the external device,
The operation of transmitting the image of the object and information related to the object to the external device includes:
and transmitting the image of the object and information related to the object to another user's mobile device through the short-range wireless communication.
제1항에 있어서, 상기 방법은,
상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는 동작을 더 포함하는, 방법.
The method of claim 1, wherein the method comprises:
The method further comprising receiving information related to the object from a device connected to the object.
제8항에 있어서, 상기 오브젝트와 관련된 정보를 수신하는 동작은,
UWB(ultra wideband) 통신을 통해 상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는, 방법.
The method of claim 8, wherein the receiving of the information related to the object comprises:
A method for receiving information related to the object from a device connected to the object through ultra wideband (UWB) communication.
제1항에 있어서, 상기 오브젝트는,
2차원 코드를 포함하고,
상기 전송하는 동작은,
상기 2차원 코드의 이미지 및 상기 2차원 코드와 관련된 접속 주소 정보를 전송하는 동작을 포함하는, 방법.
According to claim 1, wherein the object,
contains a two-dimensional code;
The transmitting operation is
and transmitting an image of the two-dimensional code and access address information related to the two-dimensional code.
디스플레이;
카메라;
외부 장치와 통신하는 통신부;
하나 이상의 인스트럭션들을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고,
상기 프로세서는,
상기 카메라를 통해 획득되는 프리뷰 이미지를 상기 디스플레이에 표시하고,
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고,
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하고,
상기 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하고,
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는, 전자 장치.
display;
camera;
a communication unit communicating with an external device;
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor is
displaying a preview image obtained through the camera on the display,
receiving a first input for selecting a region of interest in the preview image;
identify an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing an image of the object;
and transmitting the image of the object and information related to the object to the external device based on the second input.
제11항에 있어서, 상기 프로세서는,
상기 프리뷰 이미지 내에서 상기 오브젝트를 배경으로부터 분리하는, 전자 장치.
The method of claim 11 , wherein the processor comprises:
separating the object from a background in the preview image.
제11항에 있어서, 상기 프로세서는,
제1 어플리케이션의 실행화면을 통해 상기 프리뷰 이미지를 표시하고, 상기 제1 어플리케이션과 상이한 제2 어플리케이션을 통해서 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는, 전자 장치.
The method of claim 11 , wherein the processor comprises:
Displaying the preview image through an execution screen of a first application, and transmitting the image of the object and information related to the object to the external device through a second application different from the first application.
제13항에 있어서, 상기 프로세서는,
상기 제2 어플리케이션에서 지원하는 데이터 형식에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 가공하는, 전자 장치.
14. The method of claim 13, wherein the processor,
An electronic device that processes an image of the object and information related to the object based on a data format supported by the second application.
제13항에 있어서, 상기 프로세서는,
상기 프리뷰 이미지에서 상기 오브젝트를 터치한 채 상기 제2 어플리케이션의 실행 화면으로 드래그하는 입력을 상기 제2 입력으로 수신하는, 전자 장치.
14. The method of claim 13, wherein the processor,
receiving, as the second input, an input of dragging the object from the preview image to the execution screen of the second application while touching the object.
제13항에 있어서, 상기 프로세서는,
상기 프리뷰 이미지에서 상기 오브젝트가 터치됨에 따라, 데이터 공유 기능을 지원하는 복수의 어플리케이션 각각에 대응하는 아이콘들을 상기 디스플레이에 표시하고,
상기 아이콘들 중에서 상기 제2 어플리케이션에 대응하는 아이콘 위로 상기 오브젝트를 드래그하는 입력을 상기 제2 입력으로 수신하는, 전자 장치.
14. The method of claim 13, wherein the processor,
As the object is touched in the preview image, icons corresponding to each of a plurality of applications supporting a data sharing function are displayed on the display,
and receiving an input of dragging the object onto an icon corresponding to the second application from among the icons as the second input.
제15항에 있어서,
상기 제2 어플리케이션의 실행 화면은 상기 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함하고,
상기 프로세서는,
상기 근거리 무선 통신을 통해 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 다른 사용자의 모바일 장치로 전송하는, 전자 장치.
16. The method of claim 15,
The execution screen of the second application includes an interface screen for short-range wireless communication with the external device,
The processor is
An electronic device for transmitting an image of the object and information related to the object to another user's mobile device through the short-range wireless communication.
제11항에 있어서, 상기 통신부는,
상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는, 전자 장치.
The method of claim 11, wherein the communication unit,
An electronic device that receives information related to the object from a device connected to the object.
제11항에 있어서, 상기 오브젝트는,
2차원 코드를 포함하고,
상기 프로세서는,
상기 2차원 코드의 이미지 및 상기 2차원 코드와 관련된 접속 주소 정보를 전송하는, 전자 장치.
The method of claim 11, wherein the object,
contains a two-dimensional code;
The processor is
An electronic device for transmitting an image of the two-dimensional code and access address information related to the two-dimensional code.
카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작;
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작;
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작;
상기 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하는 동작; 및
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체.
displaying a preview image acquired through a camera;
receiving a first input for selecting a region of interest in the preview image;
identifying an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing information related to the object; and
A computer-readable recording medium storing a program for transmitting an image of the object and information related to the object to an external device based on the second input.
KR1020210053267A 2021-04-23 2021-04-23 Electronic device and method for sharing information KR20220149803A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210053267A KR20220149803A (en) 2021-04-23 2021-04-23 Electronic device and method for sharing information
PCT/KR2022/005742 WO2022225354A1 (en) 2021-04-23 2022-04-21 Electronic device for sharing information and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210053267A KR20220149803A (en) 2021-04-23 2021-04-23 Electronic device and method for sharing information

Publications (1)

Publication Number Publication Date
KR20220149803A true KR20220149803A (en) 2022-11-08

Family

ID=83723059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210053267A KR20220149803A (en) 2021-04-23 2021-04-23 Electronic device and method for sharing information

Country Status (2)

Country Link
KR (1) KR20220149803A (en)
WO (1) WO2022225354A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101788046B1 (en) * 2010-11-03 2017-10-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR102091137B1 (en) * 2012-07-17 2020-03-20 삼성전자주식회사 System and method for rpoviding image
US20150319217A1 (en) * 2014-04-30 2015-11-05 Motorola Mobility Llc Sharing Visual Media
KR102360067B1 (en) * 2015-08-12 2022-02-07 삼성전자 주식회사 Electronic device and method for sharing information thereof
CN107239203A (en) * 2016-03-29 2017-10-10 北京三星通信技术研究有限公司 A kind of image management method and device

Also Published As

Publication number Publication date
WO2022225354A1 (en) 2022-10-27

Similar Documents

Publication Publication Date Title
US10951813B2 (en) Method and system for providing recommendation information related to photography
KR20160054392A (en) Electronic apparatus and operation method of the same
US20200412864A1 (en) Modular camera interface
US20220197393A1 (en) Gesture control on an eyewear device
KR20180109499A (en) Method and apparatus for providng response to user's voice input
US20220375137A1 (en) Presenting shortcuts based on a scan operation within a messaging system
KR20230119005A (en) Gesture control on eyewear devices
US20240031782A1 (en) Non-textual communication and user states management
US20220206582A1 (en) Media content items with haptic feedback augmentations
US20220317773A1 (en) Real-time communication interface with haptic and audio feedback response
US11983462B2 (en) Conversation guided augmented reality experience
KR20240027047A (en) User interface to present functions applicable to the camera
EP4341805A1 (en) Combining functions into shortcuts within messaging system
KR20220149803A (en) Electronic device and method for sharing information
US20230393730A1 (en) User interface including multiple interaction zones
US11995757B2 (en) Customized animation from video
US11825276B2 (en) Selector input device to transmit audio signals
US11922587B2 (en) Dynamic augmented reality experience
US20220210336A1 (en) Selector input device to transmit media content items
US20230394770A1 (en) Input modalities for ar wearable devices
US20230376175A1 (en) Facilitating interactions based on user access patterns
US20230138677A1 (en) Customized animation from video
US20220210370A1 (en) Real-time video communication interface with haptic feedback response
US20240163489A1 (en) Navigating previously captured images and ar experiences
KR20230112723A (en) E-Trading Enabled Augmented Reality Experience