KR20220149803A - Electronic device and method for sharing information - Google Patents
Electronic device and method for sharing information Download PDFInfo
- Publication number
- KR20220149803A KR20220149803A KR1020210053267A KR20210053267A KR20220149803A KR 20220149803 A KR20220149803 A KR 20220149803A KR 1020210053267 A KR1020210053267 A KR 1020210053267A KR 20210053267 A KR20210053267 A KR 20210053267A KR 20220149803 A KR20220149803 A KR 20220149803A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- image
- input
- preview image
- present disclosure
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H04N5/232933—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 개시의 다양한 실시 예는 정보를 공유하기 위한 전자 장치 및 그 동작 방법을 제공한다.Various embodiments of the present disclosure provide an electronic device for sharing information and an operating method thereof.
최근, 전자 장치는 깊이 카메라를 통해 근거리의 피사체와 원거리의 배경을 감지함으로써, 피사체에 대한 빠른 오토포커스 기능을 제공할 수 있다. 또한, 카메라를 통해 촬영된 이미지는 전자 장치에 저장된 후, 메신저 어플리케이션, 이메일, SNS 어플리케이션 등과 같이 공유 가능한 어플리케이션으로 외부 장치에 공유될 수 있다. Recently, an electronic device may provide a fast autofocus function for a subject by detecting a near subject and a far background through a depth camera. In addition, after the image captured by the camera is stored in the electronic device, it may be shared with an external device as a shareable application such as a messenger application, e-mail, or SNS application.
그러나, 현재의 기술의 경우, 촬영된 이미지를 공유하기 위해서는 이미지를 저장한 후, 공유 어플리케이션을 실행하고 상대방을 선택하는 등의 여러 단계가 필요하다. 또한, 현재 기술의 경우, 깊이 카메라를 통해 피사체에 대한 오토포커스 기능은 제공하지만, 배경과 분리하여 피사체만을 공유할 수 없다는 문제점이 존재할 수 있다.However, in the case of the current technology, in order to share a photographed image, several steps are required, such as storing the image, executing a sharing application, and selecting a counterpart. In addition, in the case of the current technology, although an autofocus function on the subject is provided through the depth camera, there may be a problem in that only the subject cannot be shared by separating it from the background.
본 개시는 정보를 공유하기 위한 전자 장치 및 그 동작 방법에 관한 것으로서, 보다 구체적으로는 전자 장치에 표시되는 프리뷰 이미지 내에서 사용자가 선택한 오브젝트를 분리하고, 오브젝트와 관련된 정보를 공유하는 전자 장치 및 그 동작 방법에 관한 것이다.The present disclosure relates to an electronic device for sharing information and an operating method thereof, and more particularly, to an electronic device that separates an object selected by a user within a preview image displayed on the electronic device, and shares information related to the object, and the same It's about how it works.
본 개시의 일 실시 예에 따른 전자 장치가 외부 장치와 정보를 공유하는 방법은 카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작; 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작; 제1 입력에 기초하여, 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작; 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 동작; 및 제2 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 포함할 수 있다. According to an embodiment of the present disclosure, a method for an electronic device to share information with an external device includes: displaying a preview image acquired through a camera; receiving a first input for selecting a region of interest in the preview image; identifying an object associated with the region of interest in the preview image based on the first input; receiving a second input for sharing an image of the object; and transmitting an image of the object and information related to the object to an external device based on the second input.
본 개시의 일 실시 예에 따른 전자 장치는, 디스플레이; 카메라; 외부 장치와 통신하는 통신부; 하나 이상의 인스트럭션들을 저장하는 메모리; 및 카메라를 통해 획득되는 프리뷰 이미지를 디스플레이에 표시하고, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고, 제1 입력에 기초하여, 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하고, 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하고, 제2 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송하는 프로세서를 포함할 수 있다. An electronic device according to an embodiment of the present disclosure includes a display; camera; a communication unit communicating with an external device; a memory storing one or more instructions; and displaying a preview image obtained through the camera on a display, receiving a first input for selecting a region of interest in the preview image, and based on the first input, identifying an object related to the region of interest in the preview image, the object and a processor that receives a second input for sharing an image of , and transmits an image of the object and information related to the object to an external device based on the second input.
본 개시의 일 실시 예에 따른 컴퓨터로 읽을 수 있는 기록 매체는 카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작; 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작; 제1 입력에 기초하여, 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작; 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하는 동작; 및 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 수행하도록 하는 프로그램이 저장될 수 있다. A computer-readable recording medium according to an embodiment of the present disclosure may include: displaying a preview image acquired through a camera; receiving a first input for selecting a region of interest in the preview image; identifying an object associated with the region of interest in a preview image based on a first input; receiving a second input for sharing information related to the object; and a program for transmitting an image of the object and information related to the object to an external device based on the second input.
도 1은 본 개시의 일 실시 예에 따른 오브젝트와 관련된 정보를 공유하는 시스템을 나타내는 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 공유하는 방법을 설명하기 위한 순서도이다.
도 3은 본 개시의 일 실시 예에 따른 피사체가 이동할 때, 전자 장치가 프리뷰 이미지에서 포커스 표시를 이동시키는 동작을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 추천 포커스 표시를 제공하는 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 터치 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 음성 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 전자 장치가 복수의 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치가 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작을 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치가 식별 불가능한 오브젝트를 선택하는 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 11은 본 개시의 일 실시 예에 따른 전자 장치가 식별된 오브젝트를 표시하고, 오브젝트의 이미지를 공유하기 위한 입력을 수신하는 동작을 설명하기 위한 도면이다.
도 12는 본 개시의 일 실시 예에 따른 공유 기능을 지원하는 어플리케이션에 대한 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 13은 본 개시의 일 실시 예에 따른 전자 장치가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치가 메신저 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 15는 본 개시의 일 실시 예에 따른 전자 장치가 근거리 무선 통신 용 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 16은 본 개시의 일 실시 예에 따른 전자 장치가 QR 코드의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 17은 본 개시의 일 실시 예에 따른 QR 코드와 관련된 정보를 설명하기 위한 도면이다.
도 18은 본 개시의 일 실시 예에 따른 전자 장치가 문서의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 19는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 20은 본 개시의 일 실시 예에 따른 전자 장치가 증강 현실(AR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 21은 본 개시의 일 실시 예에 따른 전자 장치가 가상 현실(VR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 22는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트에 대한 편집을 수행한 후 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트를 편집 어플리케이션으로 공유하는 동작을 설명하기 위한 도면이다.
도 24 및 도 25는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록 구성도이다.
도 26은 본 개시의 일 실시 예에 따른 메모리에 저장되는 소프트웨어 모듈을 설명하기 위한 도면이다.1 is a diagram illustrating a system for sharing information related to an object according to an embodiment of the present disclosure.
2 is a flowchart illustrating a method for an electronic device to share information related to an object according to an embodiment of the present disclosure.
FIG. 3 is a diagram for describing an operation in which an electronic device moves a focus mark in a preview image when a subject moves, according to an embodiment of the present disclosure;
4 is a diagram for explaining an operation of providing a recommended focus display by an electronic device according to an embodiment of the present disclosure;
5 is a diagram for explaining an operation of receiving a touch input for selecting an ROI by an electronic device according to an embodiment of the present disclosure;
FIG. 6 is a diagram for describing an operation in which an electronic device receives a voice input for selecting a region of interest, according to an embodiment of the present disclosure.
FIG. 7 is a diagram for describing an operation in which an electronic device receives a stylus input for selecting a region of interest, according to an embodiment of the present disclosure;
8 is a diagram for describing an operation of receiving, by an electronic device, a stylus input for selecting a plurality of ROIs, according to an embodiment of the present disclosure;
9 is a diagram for describing an operation of an electronic device identifying an object related to a region of interest in a preview image according to an embodiment of the present disclosure;
10 is a diagram for describing an operation of receiving an input for selecting an unidentifiable object by an electronic device according to an embodiment of the present disclosure;
11 is a diagram for describing an operation of an electronic device displaying an identified object and receiving an input for sharing an image of the object, according to an embodiment of the present disclosure;
12 is a flowchart illustrating a method of providing information on an application supporting a sharing function according to an embodiment of the present disclosure.
13 is a diagram for explaining an operation in which an electronic device provides information on an application that provides a sharing function, according to an embodiment of the present disclosure.
14 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using a messenger application according to an embodiment of the present disclosure.
15 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using an application for short-range wireless communication according to an embodiment of the present disclosure.
16 is a diagram for explaining an operation of an electronic device sharing an image and information of a QR code with an external device according to an embodiment of the present disclosure.
17 is a diagram for explaining information related to a QR code according to an embodiment of the present disclosure.
18 is a diagram for explaining an operation of an electronic device sharing an image and information of a document to an external device according to an embodiment of the present disclosure;
19 is a diagram for describing an operation in which an electronic device shares object-related information with an external device according to an embodiment of the present disclosure.
20 is a diagram for explaining an operation of an electronic device sharing information related to an object to an external device by using an augmented reality (AR) technology according to an embodiment of the present disclosure.
21 is a diagram for describing an operation of an electronic device sharing object-related information to an external device by using virtual reality (VR) technology according to an embodiment of the present disclosure.
22 is a diagram for explaining an operation of sharing an object with an external device after an electronic device edits an object according to an embodiment of the present disclosure;
23 is a diagram for describing an operation of an electronic device sharing an object with an editing application according to an embodiment of the present disclosure;
24 and 25 are block diagrams for explaining an electronic device according to an embodiment of the present disclosure.
26 is a diagram for describing a software module stored in a memory according to an embodiment of the present disclosure.
본 개시에서 사용되는 용어에 대해 간략히 설명하고, 본 개시의 일 실시 예에 대해 구체적으로 설명하기로 한다. Terms used in the present disclosure will be briefly described, and an embodiment of the present disclosure will be described in detail.
본 개시에서 사용되는 용어는 본 개시의 일 실시예에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present disclosure are selected as currently widely used general terms as possible while considering the functions in an embodiment of the present disclosure, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. have. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding embodiment. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.
본 개시 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 본 개시에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the present disclosure, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the present disclosure mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. have.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시의 실시예를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 본 개시 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those of ordinary skill in the art to which the present disclosure pertains can easily implement them. However, the present disclosure may be implemented in several different forms and is not limited to the embodiments described herein. And in order to clearly describe the embodiment of the present disclosure in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the present disclosure.
이하, 본 개시의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 개시의 일 실시 예에 따른 오브젝트와 관련된 정보를 공유하는 시스템을 나타내는 도면이다.1 is a diagram illustrating a system for sharing information related to an object according to an embodiment of the present disclosure.
도 1을 참조하면, 본 개시의 일 실시 예에 따른 정보 공유 시스템은, 전자 장치(100)와 외부 장치를 포함할 수 있다. 여기서, 외부 장치는 서버 장치(200) 및 외부 전자 장치(300)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 정보 공유 시스템이 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 정보 공유 시스템이 구현될 수 있다. 예를 들어, 정보 공유 시스템은, 전자 장치(100)와 서버 장치(200)로 구현될 수도 있고, 전자 장치(100)와 외부 전자 장치(300)로 구현될 수도 있고, 전자 장치(100)만으로 구현될 수도 있다. 각 구성에 대해서 살펴보기로 한다.Referring to FIG. 1 , an information sharing system according to an embodiment of the present disclosure may include an
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 피사체에 대한 적어도 하나의 프레임을 획득하는 기기를 의미할 수 있다. 이하에서는, 설명의 편의상, 피사체에 대한 적어도 하나의 프레임은 이미지 또는 사진으로 표현될 수도 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 피사체는 촬영 대상이 되는 객체를 의미할 수 있다. 피사체는 사람, 동물, 곤충, 자동차와 같은 움직이는 객체일 수도 있고, 건축물, 동상, 그림, 바위, 외국어 간판, 2차원 바코드(예컨대, QR(Quick Response) 코드), 문서와 같은 움직이지 않는 객체일 수도 있고, 나무나 꽃과 같은 식물일 수도 있고, 재생 중인 컨텐츠일 수도 있으나, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the subject may mean an object to be photographed. The subject may be a moving object such as a person, animal, insect, or car, or it may be a non-moving object such as a building, statue, painting, rock, foreign language sign, two-dimensional barcode (eg, QR (Quick Response) code), or document. It may be a plant such as a tree or a flower, or may be a content being reproduced, but is not limited thereto.
본 개시의 일 실시 예에 따른 전자 장치(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 전자 장치(100)는, 디지털 카메라, 스마트 폰(smart phone)(160), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. The
본 개시에서 기술되는 전자 장치(100)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 웨어러블 디바이스는 액세서리 형 장치(예컨대, 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈), 머리 착용형 장치(head-mounted-device(HMD)), 증강 현실 글래스(Augmented Reality Glass), 증강 현실 헬멧(Augmented Reality Helmet), 가상 현실 글래스(Virtual Reality Glass), 직물 또는 의류 일체형 장치(예: 전자 의복), 신체 부착형 장치(예컨대, 스킨 패드(skin pad)), 또는 생체 이식형 장치(예: implantable circuit) 중 적어도 하나를 포함할 수 있다. The
또한, 본 개시의 일 실시예에 의하면, 전자 장치(100)는 플렉서블(flexible) 디스플레이를 포함하는 스마트폰(160)일 수 있다. 플렉서블 디스플레이는 휘어질 수 있는 디스플레이로서, 커브드(curved) 디스플레이, 벤더블(bendable) 디스플레이, 폴더블(foldable) 디스플레이 및 롤러블(rollable) 디스플레이 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다.Also, according to an embodiment of the present disclosure, the
이하에서는, 설명의 편의상, 전자 장치(100)가 디지털 카메라 또는 카메라를 내장한 스마트폰(160)인 경우를 예로 들어 설명하기로 한다.Hereinafter, for convenience of description, a case in which the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 전자 장치(100)를 이용하여 피사체의 사진을 촬영할 수 있다. 전자 장치(100)를 이용하여 사진 촬영 시, 전자 장치(100)의 디스플레이에 피사체에 대한 프리뷰 이미지(110)가 표시될 수 있다. 프리뷰 이미지(110)는 디스플레이를 통해 사용자가 사진 촬영 전에 미리 확인할 수 있는 이미지일 수 있다.According to an embodiment of the present disclosure, a user of the
이때, 전자 장치(100)의 사용자는, 이미지를 캡쳐하지 않더라도, 프리뷰 이미지(110)에 나타나는 피사체들(120, 130, 140) 중 특정 피사체(120)를 선택하고, 특정 피사체(120)의 이미지(150)를 외부 장치와 공유하기를 원할 수 있다.At this time, even if the user of the
이때, 일반적인 전자 장치를 이용하여, 사용자가 배경이 제거된 특정 피사체에 대한 이미지를 외부 장치와 공유하기 위해서는 여러 단계를 거쳐야 한다. 먼저, 사용자는 특정 피사체가 포함된 사진을 촬영해야 한다(촬영 단계). 그 다음, 사용자는 추가적인 편집 어플리케이션을 이용하여 특정 피사체와 배경을 분리하는 작업을 수행해야 한다(편집 단계). 마지막으로, 사용자는 배경 분리 작업이 수행된 이미지를 공유 어플리케이션을 실행하여 공유해야한다(공유 단계).In this case, using a general electronic device, a user must go through several steps to share an image of a specific subject from which the background is removed with an external device. First, the user must take a picture including a specific subject (photographing step). Next, the user must perform a task of separating a specific subject from the background by using an additional editing application (editing step). Finally, the user must share the image on which the background separation operation has been performed by running a sharing application (sharing step).
즉, 사진 촬영과 동시에 특정 피사체(120)의 이미지(150)가 공유가 되는 것이 아니라, 상기 단계(촬영 단계, 편집 단계, 공유 단계)를 거쳐야하므로 이미지(150)를 공유하기 위한 시간이 오래 걸릴 수 있다. 또한, 사진 편집 작업에 익숙하지 않은 일반적인 사용자는 촬영된 이미지(예컨대, 캡쳐 이미지)에서 특정 피사체와 배경을 분리하는 작업에 어려움을 느낄 수 있으며, 결과물이 정교하지 않을 수 있다.That is, the
상술한 문제점을 해결하기 위하여, 본 개시의 다양한 실시 예들에 따른 전자 장치(100)가 제안된다.In order to solve the above problems, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 프리뷰 이미지(110)에서 특정 피사체(120)를 선택하는 입력(170)을 수신하는 경우, 프리뷰 이미지(110)에서 특정 피사체(120)를 배경과 분리하여, 특정 피사체(120)의 이미지(150)를 획득할 수 있다. 이때, 특정 피사체(120)의 이미지(150)는 프리뷰 이미지(110)의 일부 영역일 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 간단한 사용자 입력(예컨대, 드래그 앤 드롭 입력)에 따라 특정 피사체(120)의 이미지(150)를 외부 장치로 전송할 수 있다. 즉, 전자 장치(100)는 프리뷰 이미지(110) 전체를 외부 장치에 전송하는 것이 아니라 특정 피사체(120)를 포함하는 일부 영역의 이미지(150)를 외부 장치에 전송할 수 있다. 예를 들어, 전자 장치(100)는 특정 피사체(120)의 이미지(150)를 서버 장치(200)를 통해 외부 전자 장치(300)로 전송할 수 있다. 또한, 전자 장치(100)는 근거리 무선 통신(예컨대, WiFi, Bluetooth, UWB 등)을 통해 직접 외부 전자 장치(300)로 특정 피사체(120)의 이미지(150)를 전송할 수 있다. According to an embodiment of the present disclosure, when receiving an
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 특정 피사체(120)의 이미지(150)와 함께 특정 피사체(120)와 관련된 정보도 서버 장치(200) 또는 외부 전자 장치(300)로 전송할 수 있다. According to an embodiment of the present disclosure, the
따라서, 본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)에 나타나는 프리뷰 이미지(110)에 대한 간단한 조작만으로 프리뷰 이미지(110) 내의 특정 피사체(120)의 이미지(150) 및/또는 특정 피사체(120)에 관한 정보를 외부 장치와 공유할 수 있다. Accordingly, according to an embodiment of the present disclosure, the user only manipulates the
한편, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 특정 피사체와 배경을 분리하기 위한 인공 지능 모델을 포함할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 학습 데이터를 이용하여, 인공 지능 모델을 직접 생성하거나, 갱신(refine)할 수 있다. 또한, 전자 장치(100)는, 서버 장치(200)에서 학습된 인공 지능 모델을 서버 장치(200)로부터 수신하여, 저장할 수도 있다. Meanwhile, according to an embodiment of the present disclosure, the
서버 장치(200)는, 외부의 장치와 통신을 수행하기 위한 통신 인터페이스를 포함할 수 있다. 본 개시의 일 실시 예에 의하면, 서버 장치(200)는 통신 인터페이스를 통해 전자 장치(100) 또는 외부 전자 장치(300)와 통신을 수행할 수 있다. The
서버 장치(200)는 전자 장치(100) 또는 외부 전자 장치(300)와 데이터를 송수신하는 서버, 어플리케이션 서비스를 제공하기 위한 서버, 본 개시의 실시 예들을 수행하기 위해 별도로 마련된 서버 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The
서버 장치(200)는 전자 장치(100)로부터 오브젝트의 이미지 및 오브젝트와 관련된 정보를 수신할 수 있다. 서버 장치(200)는 전자 장치(100)로부터 수신된 오브젝트의 이미지 및 오브젝트와 관련된 정보를 다른 서버 장치로 전송하거나 외부 전자 장치(300)로 전송할 수 있다. The
외부 전자 장치(300)는, 외부의 장치와 통신을 수행하기 위한 통신 인터페이스를 포함할 수 있다. 외부 전자 장치(300)는 전자 장치(100)의 사용자가 소지한 다른 단말일 수도 있다. 예를 들어, 외부 전자 장치(300)는 전자 장치(100)와 동일한 계정으로 연결된 장치일 수 있다. 또는, 외부 전자 장치(300)는 타인이 소지한 전자 장치일 수 있다. The external
본 개시의 일 실시 예에 따른 외부 전자 장치(300)는 다양한 형태로 구현될 수 있다. 예를 들어, 외부 전자 장치(300)는, 디지털 카메라, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 외부 전자 장치(300)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. The external
외부 전자 장치(300)는, 전자 장치(100)로부터 오브젝트의 이미지 및 오브젝트와 관련된 정보를 수신할 수 있다. 일 실시 예에 의하면, 외부 전자 장치(300)는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 서버 장치(200)를 통해 전자 장치(100)로부터 수신할 수 있다. 다른 실시 예에 의하면, 외부 전자 장치(300)는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 근거리 무선 통신(예컨대, WiFi, Bluetooth, UWB 등)을 통해 직접 전자 장치(100)로부터 수신할 수 있다.The external
이하에서는 도 2를 참조하여 전자 장치(100)가 배경이 분리된 오브젝트 이미지(150) 및/또는 오브젝트와 관련된 정보를 외부 전자 장치(300)로 공유하는 동작에 대해서 자세히 살펴보도록 한다.Hereinafter, with reference to FIG. 2 , an operation in which the
도 2는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 공유하는 방법을 설명하기 위한 순서도이다.2 is a flowchart illustrating a method for an electronic device to share information related to an object according to an embodiment of the present disclosure.
단계 S210에서, 전자 장치(100)는, 카메라를 통해 획득되는 프리뷰 이미지를 표시할 수 있다. 프리뷰 이미지는 디스플레이를 통해 사용자가 사진 촬영 또는 동영상 촬영 전에 미리 확인할 수 있는 이미지일 수 있다.In operation S210, the
본 개시의 일 실시 예에 의하면, 프리뷰 이미지에는 피사체(예컨대, 사람, 동물, QR 코드, 문서, 외국어 간판 등), 배경 등이 포함될 수 있다. According to an embodiment of the present disclosure, the preview image may include a subject (eg, a person, an animal, a QR code, a document, a foreign language signboard, etc.), a background, and the like.
본 개시의 일 실시 예에 의하면, 프리뷰 이미지는 전자 장치(100)의 카메라의 화각에 따라 달라질 수 있다. 카메라는 일반 카메라, 망원 카메라, 광각 카메라 등의 종류들이 있을 수 있다. 전자 장치(100)의 카메라가 일반 카메라인 경우, 전자 장치(100)는 표준 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. 전자 장치(100)의 카메라가 망원 카메라인 경우, 전자 장치(100)는 망원 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. 전자 장치(100)의 카메라가 광각 카메라인 경우, 전자 장치(100)는 광각 렌즈를 이용하여 프리뷰 이미지를 획득할 수 있다. According to an embodiment of the present disclosure, the preview image may vary according to the angle of view of the camera of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 전자 장치(100)를 이동하는 경우, 프리뷰 이미지가 변경될 수 있다. 예를 들어, 사용자가 야외에서 전자 장치(100)로 사람과 강아지를 촬영할 경우, 사용자는 전자 장치(100)를 사람이 촬영되는 방향에서 강아지가 촬영되는 방향으로 이동할 수 있다. 이 경우, 전자 장치(100)의 프리뷰 이미지는, 사람이 표시된 프리뷰 이미지에서 강아지가 표시된 프리뷰 이미지로 변경될 수 있다.According to an embodiment of the present disclosure, when the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 카메라의 초점에 따라서 프리뷰 이미지가 변경될 수 있다. 초점이 피사체에 있는 경우, 프리뷰 이미지의 피사체는 뚜렷하고 배경은 흐릴 수 있다. 초점이 배경에 있는 경우, 프리뷰 이미지의 배경은 뚜렷하고 피사체는 흐릴 수 있다.According to an embodiment of the present disclosure, the preview image may be changed according to the focus of the camera of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 포커스 표시를 제공할 수 있다. 예를 들어, 프리뷰 이미지에 사람과 동물과 나무가 포함되어 있는 경우, 전자 장치(100)는 프리뷰 이미지 내에서 사람이 차지하는 영역, 동물이 차지하는 영역, 나무가 차지하는 영역 각각에 포커스 표시(예컨대, 피사체가 사람인 경우, 사람 얼굴 주위에 원형 표시)를 할 수도 있고, 사람이 차지하는 영역에만 포커스 표시를 할 수도 있다. 다만, 이에 한정되는 것은 아니다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라 어플리케이션에서 제공되는 피사체에 관한 정보를 이용하여, 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시를 할 수 있다. 예를 들어, 전자 장치(100)는 피사체가 사람인지 동물인지 QR 코드인지 문서인지 등을 식별할 수 있고, 식별된 피사체 위에 포커스 표시를 할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수도 있다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 프리뷰 이미지 내의 피사체가 피사체에 대한 정보를 전송할 수 있는 장치를 지니고 있는 경우, 피사체와 관련된 정보를 상기 장치로부터 수신하여 프리뷰 이미지 내에 표시할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 스마트 태그를 착용한 강아지를 촬영한 경우, 전자 장치(100)는 강아지의 스마트 태그로부터 근거리 무선 통신(예컨대, UWB(Ultra-wideband))을 통해 스마트 태그에 저장된 강아지와 관련된 정보를 수신할 수 있다. 이 경우, 전자 장치(100)는, 프리뷰 이미지에 강아지 이미지와 함께 스마트 태그로부터 수신된 강아지와 관련된 정보를 팝업 형태로 표시할 수 있다.According to an embodiment of the present disclosure, when the subject in the preview image has a device capable of transmitting information about the subject, information related to the subject may be received from the device and displayed in the preview image. For example, when the user of the
단계 S220에서, 전자 장치(100)는, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신할 수 있다.In operation S220 , the
본 개시의 일 실시 예에 의하면, 프리뷰 이미지에서 관심 영역은, 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체에 해당하는 영역일 수 있다. 예를 들어, 프리뷰 이미지에 사람과 동물과 나무가 포함되어 있을 때, 전자 장치(100)의 사용자는 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원할 수 있다. 이때, 프리뷰 이미지에서 관심 영역은 사람에 해당하는 영역일 수 있다.According to an embodiment of the present disclosure, the region of interest in the preview image may be a region corresponding to a specific subject that the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지에 대한 터치 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 프리뷰 이미지 내에서 특정 영역을 소정의 시간(예컨대, 3초)만큼 터치하는 입력일 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 사용자는 사람이 나타나는 영역을 손으로 소정의 시간만큼 터치할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 음성 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수도 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 배경과 분리되기를 원하는 특정 피사체에 대한 정보가 담긴 음성 입력일 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 전자 장치(100)는 사용자로부터 "사람만 분리해줘!"라는 음성 입력을 수신할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 스타일러스 펜 입력을 관심 영역을 선택하는 제1 입력으로 수신할 수도 있다. 본 개시의 일 실시 예에 의하면, 제1 입력은 자이로센서가 탑재된 스타일러스 펜을 이용하여 특정 피사체를 선택하는 입력일 수 있다. 본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)와 일정 거리 내에서 스타일러스 펜을 이용하여 특정 피사체에 해당하는 영역을 선택할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 프리뷰 이미지 내의 사람을 배경으로부터 분리하기를 원하는 경우, 사용자는 전자 장치(100)와 일정 거리 내에서 사람이 나타나는 영역을 스타일러스 펜으로 선택(예컨대, 호버링 입력, 에어 제스처(Air pointer))할 수 있다.According to an embodiment of the present disclosure, the
단계 S230에서, 전자 장치(100)는, 제1 입력에 기초하여 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별할 수 있다. In operation S230 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 관심 영역을 선택하는 제1 입력을 수신하면, 관심 영역의 소정 비율(예컨대, 80%) 이상의 영역과 중첩되는 특정 피사체를 관심 영역과 관련된 오브젝트로 식별할 수 있다. According to an embodiment of the present disclosure, when receiving a first input for selecting an ROI from a user, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에서 식별된 오브젝트를 배경으로부터 분리하는 동작을 수행할 수 있다. 이 때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 학습 네트워크 모델을 이용하여 오브젝트를 배경으로부터 분리할 수 있다. 여기서, 학습 네트워크 모델은 피사체의 다양한 배경과 포즈가 담긴 수많은 샘플 이미지 데이터를 활용해 훈련된 인공 지능(AI) 모델일 수 있다. 예를 들어, 식별된 오브젝트가 사람인 경우, 훈련된 학습 네트워크 모델이 사람의 얼굴 특징과 머리카락을 정확하게 배경으로부터 분리할 수 있다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 오브젝트에 대한 식별 표시를 할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에서 분리된 오브젝트(예를 들어, 사람)의 가장자리 영역을 나타내는 윤곽선을 소정의 색깔 또는 소정의 두께로 표시할 수 있다. 다만, 표시 방법은 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the
단계 S240에서, 전자 장치(100)는, 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신할 수 있다.In operation S240 , the
본 개시의 일 실시 예에 의하면, 제2 입력은 터치 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자가 오브젝트(또는 관심 영역)를 소정 시간 이상 터치하는 경우, 오브젝트의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다. According to an embodiment of the present disclosure, the second input may be a touch input. For example, when a user touches an object (or an ROI) for a predetermined time or longer, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자가 오브젝트(또는 관심 영역)를 터치하는 중에 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 복수의 어플리케이션은 공유 기능을 지원하는 어플리케이션들(이하에서는, 설명의 편의상, 공유 기능을 지원하는 어플리케이션을 공유 어플리케이션이라고 명할 수 있다)일 수 있다. 예를 들어, 복수의 어플리케이션은 SNS 어플리케이션, 메신저 어플리케이션, 브라우저 어플리케이션, 근거리 무선 통신 용 어플리케이션 등일 수 있으나, 이에 한정되는 것은 아니다. 본 개시의 일 실시 예에 의하면, 복수의 어플리케이션 각각에 대응하는 아이콘들은, 프리뷰 이미지와 중첩하여 표시될 수도 있고, 프리뷰 이미지와 다른 영역에 표시될 수도 있다. 예를 들어, 전자 장치(100)는, 오브젝트가 사용자에 의해 터치됨에 따라, 프리뷰 이미지를 축소하고, 복수의 어플리케이션 각각에 대응하는 아이콘들을 축소된 프리뷰 이미지와 다른 영역에 표시할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시예에 의하면, 전자 장치(100)는, 사용자가 오브젝트를 터치한 채 특정 공유 어플리케이션에 대응하는 아이콘으로 드래그하는 입력을 수신할 수 있다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 사용자가 오브젝트를 터치한 채 특정 공유 어플리케이션으로 드래그 할 때, 오브젝트 이미지의 크기가 변경될 수 있다. 예를 들어, 오브젝트를 터치한 채 드래그 할 때, 오브젝트의 이미지가 축소된 채로 이동될 수 있다.According to an embodiment of the present disclosure, when a user drags an object to a specific shared application while touching the object, the size of the object image may be changed. For example, when dragging an object while touching it, the image of the object may be moved while being reduced.
본 개시의 일 실시 예에 의하면, 제2 입력은 음성 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 오브젝트의 이미지를 공유하기 위한 음성을 수신하는 경우(예컨대, "사람만 공유해줘!"), 상기 음성 입력을 제 2 입력으로 인식할 수 있다.According to an embodiment of the present disclosure, the second input may be a voice input. For example, when receiving a voice for sharing an image of an object from a user (eg, "Please share only people!"), the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자로부터 음성 입력을 수신한 경우 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 음성 입력을 수신함에 따라 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시하는 방법은 터치 입력에서 서술한 방법과 동일하므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, when receiving a voice input from a user, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자로부터 특정 공유 어플리케이션을 선택하는 음성(예컨대, "메시지 어플리케이션으로 공유해줘!")을 수신할 수 있다. 본 개시의 일 실시 에에 의하면, 전자 장치(100)가 사용자로부터 특정 공유 어플리케이션을 선택하는 음성을 수신한 경우, 오브젝트 이미지는 크기가 변경된 채로 특정 공유 어플리케이션으로 이동될 수 있다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 제2 입력은 스타일러스 입력일 수 있다. 예를 들어, 전자 장치(100)는 사용자가 스타일러스 펜을 이용하여 오브젝트(또는 관심 영역)을 소정 시간 이상 선택하는 경우, 오브젝트의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다.According to an embodiment of the present disclosure, the second input may be a stylus input. For example, when a user selects an object (or a region of interest) for a predetermined time or longer using a stylus pen, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자가 스타일러스 펜을 이용하여 오브젝트(또는 관심 영역)을 선택하는 중에 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시할 수 있다. 스타일러스 펜 입력을 수신함에 따라 복수의 어플리케이션 각각에 대응하는 아이콘들을 화면에 표시하는 방법은 터치 입력에서 서술한 방법과 동일하므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 사용자가 스타일러스 펜을 이용하여 오브젝트를 특정 공유 어플리케이션에 대응하는 아이콘으로 드래그하는 입력을 수신할 수 있다. According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 사용자가 스타일러스 펜을 이용하여 오브젝트를 특정 공유 어플리케이션으로 드래그 할 때, 오브젝트 이미지의 크기가 변경될 수 있다. 예를 들어, 스타일러스 펜을 이용하여 오브젝트를 드래그 할 때, 오브젝트의 이미지가 축소된 채로 이동될 수 있다.According to an embodiment of the present disclosure, when a user drags an object to a specific sharing application using a stylus pen, the size of the object image may be changed. For example, when an object is dragged using a stylus pen, the image of the object may be moved while being reduced.
본 개시의 일 실시 예에 의하면, 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력과 오브젝트 이미지를 공유하기 위한 제2 입력은 하나의 동작으로 구현될 수도 있고, 연속되는 동작으로 구현될 수 있다. 예를 들어, 전자 장치(100)가 '사람만 공유해줘'라는 음성 입력을 수신하는 경우, 전자 장치(100)는, '사람만 공유해줘'라는 하나의 음성 입력을 관심 영역을 선택하는 제1 입력과 오브젝트 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다. 또한, 전자 장치(100)가 프리뷰 이미지에서 사람을 소정시간 이상 터치한 채 메신저 애플리케이션의 창으로 드래그하는 입력을 수신하는 경우, 전자 장치(100)는 사람을 소정 시간 이상 터치하는 입력을 제1 입력으로 인식하고, 드래그하는 입력을 제2 입력으로 인식할 수 있다. 이때, 제1 입력과 제2 입력은 터치 앤 드래그라는 연속적인 동작으로 구현될 수 있다. According to an embodiment of the present disclosure, the first input for selecting the region of interest from the preview image and the second input for sharing the object image may be implemented as one operation or as a continuous operation. For example, when the
단계 S250에서, 전자 장치(100)는, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다.In operation S250 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자에 의해 선택된 공유 어플리케이션을 통해서 외부 장치에 오브젝트의 이미지를 전송할 수 있다. 오브젝트의 이미지는 오브젝트의 가장자리를 오려낸 이미지일 수도 있고, 오브젝트를 포함하는 소정 크기의 이미지일 수도 있으나, 이에 한정되는 것은 아니다. 오브젝트의 이미지는 프리뷰 이미지보다 작을 수 있다. According to an embodiment of the present disclosure, the
예를 들어, 전자 장치(100)는, 제 2입력에 대응하여 표시된 복수의 어플리케이션의 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그하는 입력에 기초하여, 오브젝트를 외부 장치에 전송할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 오브젝트를 터치한 채 메신저 어플리케이션에 대응하는 아이콘으로 드래그하는 경우, 오브젝트의 이미지는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다. For example, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다. 오브젝트와 관련된 정보는 오브젝트의 명칭, 오브젝트의 연락처, 오브젝트의 주소, 오브젝트의 모델명, 오브젝트가 QR 코드인 경우 QR코드의 정보(예컨데 영어, 숫자, 한글등의 텍스트가 포함된 정보로 URL(Uniform Resource Locator) 주소, Wi-Fi 비밀번호, Mobile Hotspot, 설정값, IoT 기기 정보 등 일 수 있다.), 오브젝트가 문서인 경우 OCR(optical character reader) 데이터 정보, 오브젝트가 외국어 간판인 경우 번역 정보 등이 있을 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 정보를 획득하고, 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지를 분석하여, 오브젝트와 관련된 정보를 획득할 수 있다. 이때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 오브젝트와 관련된 정보를 획득할 수 있다. 예를 들어, 오브젝트가 QR 코드인 경우, QR 코드와 관련된 정보(예컨대, 전화 번호, 이메일 주소, URL 정보, 주소 정보, Wi-Fi 비밀번호 정보, Mobile Hotspot 설정 값 정보, IoT 기기 정보 등)를 획득할 수 있고, 오브젝트가 문서인 경우, 문서를 텍스트로 변환하여 텍스트 데이터(OCR 데이터)를 획득할 수 있다. 다만, 이에 한정되는 것은 아니다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 장치로부터 오브젝트와 관련된 정보를 획득할 수도 있다. 예를 들어, 오브젝트가 사람인 경우, 오브젝트가 소지한 모바일 단말이나 웨어러블 디바이스로부터 사람과 관련된 정보(예컨대, 사람의 이름, 사람의 주소 등)를 획득할 수 있다. 오브젝트가 강아지인 경우, 강아지에 연결된 스마트 태그로부터 강아지와 관련된 정보(예컨대, 강아지의 주인, 강아지의 이름, 강아지의 주소 등)를 획득할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트와 관련된 장치와의 친밀도를 판단할 수 있으며, 판단된 친밀도에 기초하여 오브젝트와 관련된 정보를 획득할 수 있다. 본 개시의 일 실시 예에 의하면, 오브젝트와 관련된 장치는 프라이빗 레벨을 설정할 수 있다. 프라이빗 레벨은 각각의 레벨에 대응되는 접근 가능한(이용 가능한) 오브젝트와 관련된 정보를 포함할 수 있다. 예를 들어, 프라이빗 레벨이 높을수록 보안 유지가 필요한 민감한 정보(예를 들어, 핸드폰 번호)등이 포함될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)와 오브젝트와 관련된 장치와의 친밀도가 높은 경우, 프라이빗 레벨이 높게 설정될 수 있다. 전자 장치(100)는 오브젝트와 관련된 장치와의 친밀도가 높다고 판단한 경우, 높은 프라이빗 레벨에 대응되는 정보(예컨대, 핸드폰 정보)를 획득할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 근거리 무선 통신(WiFi, Bluetooth, UWB 등)을 통해 직접 외부 전자 장치(300)로 공유할 수 있다. 이때, 공유 어플리케이션의 실행 화면은 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자에 의해 선택된 공유 어플리케이션에서 지원하는 데이터 형식에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 가공할 수 있다. 예를 들어, 공유 어플리케이션에서 지원하는 데이터 형식이 PNG파일인 경우, 전자 장치(100)는, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 PNG 형식으로 가공하여 공유할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 오브젝트의 이미지를 외부 장치에 공유하는 것과 동시에 전자 장치(100)의 메모리에 저장할 수도 있다. 이때, 배경이 제거되지 않은 원본 프리뷰 이미지와 배경이 제거된 오브젝트의 이미지가 함께 전자 장치(100)의 메모리에 저장될 수도 있고, 오브젝트의 이미지만 메모리에 저장될 수도 있다.According to an embodiment of the present disclosure, the
도 3은 본 개시의 일 실시 예에 따른 피사체가 이동할 때, 전자 장치가 프리뷰 이미지에서 포커스 표시를 이동시키는 동작을 설명하기 위한 도면이다.FIG. 3 is a diagram for describing an operation in which an electronic device moves a focus mark in a preview image when a subject moves, according to an embodiment of the present disclosure;
도 3의 300-1을 참조하면, 전자 장치(100)는 카메라로부터 획득되는 실시간 영상 상태 또는 촬영 상태에서, 뛰어가는 사람을 프리뷰 이미지(310)에 표시할 수 있다. 프리뷰 이미지에는 피사체인 사람(330), 배경(320)이 포함될 수 있다.Referring to 300 - 1 of FIG. 3 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지 내에 포커스 표시(340)를 제공할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라 어플리케이션에서 제공되는 피사체에 관한 정보를 이용하여, 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시(340)를 할 수 있다. 예를 들어, 전자 장치(100)는 프리뷰 이미지 내에서 사람(330)을 식별하고, 식별된 사람(330) 위에 포커스 표시(340)를 할 수 있다.According to an embodiment of the present disclosure, the
도 3의 300-2를 참조하면, 피사체인 사람(330)이 뛰어감에 따라 프리뷰 이미지(310) 내에서 사람(330)의 위치가 변경된 것을 알 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지(310) 내에서 사람(330)의 위치를 추적하고, 위치가 이동된 사람(330) 위에 포커스 표시(350)를 할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 피사체의 움직임을 추적하여, 프리뷰 이미지(310) 내에서 포커스 표시(340, 350)를 이동시킬 수 있다.Referring to 300-2 of FIG. 3 , it can be seen that the position of the
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 추천 포커스 표시를 제공하는 동작을 설명하기 위한 도면이다.4 is a diagram for explaining an operation of providing a recommended focus display by an electronic device according to an embodiment of the present disclosure;
도 4를 참조하면, 전자 장치(100)는 카메라로부터 획득되는 실시간 영상 상태 또는 촬영 상태에서, 복수의 피사체들(410, 420, 430, 440)을 프리뷰 이미지(450)에 표시할 수 있다. 프리뷰 이미지(450)에는 복수의 피사체들(410 내지 440) 및 배경이 포함될 수 있다.Referring to FIG. 4 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 카메라는 인텔리전트(Intelligent) 기능을 실행하여 프리뷰 이미지(450) 내에서 피사체들을 인식할 수 있다. 예를 들어, 전자 장치(100)의 카메라는 프리뷰 이미지(450) 내에서 배경과 분리되는 피사체들(예컨대, 제1 사람(410), 강아지(420), 제2 사람(430), 고양이(440))를 인식할 수 있다. According to an embodiment of the present disclosure, the camera of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 카메라에 의해 인식된 피사체들(410 내지 440)에 추천 포커스 표시(예컨대, 제1 사람(410)에 대한 제1 추천 포커스 표시(460), 강아지(420)에 대한 제2 추천 포커스 표시(470), 제2 사람(430)에 대한 제3 추천 포커스 표시(480), 고양이(440)에 대한 제4 추천 포커스 표시(490))를 할 수 있다. 전자 장치(100)의 사용자는 추천 포커스 표시(460, 470, 480, 490)에 기초하여 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 제1 추천 포커스 표시(460)를 터치함으로써, 프리뷰 이미지(450) 내에서 제1 사람(410)의 얼굴을 관심 영역으로 선택할 수 있다.According to an embodiment of the present disclosure, the
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 터치 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 5 is a diagram for describing an operation in which an electronic device receives a touch input for selecting a region of interest, according to an embodiment of the present disclosure.
도 5를 참조하면, 전자 장치(100)는 프리뷰 이미지(510)에 대한 터치 입력(520)을 관심 영역(530)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(530)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(540)에 해당하는 영역일 수 있다. Referring to FIG. 5 , the
예를 들어, 전자 장치(100)는 사용자로부터 사람(540)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(520)을 수신할 수 있다. 이때, 전자 장치(100)는 터치 입력(520)이 감지된 위치(좌표)로부터 소정 반경 내의 영역을 관심 영역(530)으로 선택할 수 있다. 도 5에는 관심 영역(530)이 터치 입력(520)을 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(530)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(510)에 표시되지는 않을 수도 있다.For example, the
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 음성 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 6 is a diagram for describing an operation in which an electronic device receives a voice input for selecting a region of interest, according to an embodiment of the present disclosure.
도 6을 참조하면, 전자 장치(100)는 프리뷰 이미지(610)에 대한 음성 입력(620)을 관심 영역(630)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(630)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(640)에 해당하는 영역일 수 있다.Referring to FIG. 6 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 마이크로폰을 통해 사용자의 음성 입력(620)을 수신하고, ASR(Automatic Speech Recognition)모델을 이용하여 음성 부분을 컴퓨터로 판독 가능한 텍스트로 변환할 수 있다. 그리고, 자연어 이해(Natural Language Understanding, NLU) 모델을 이용하여 변환된 텍스트를 해석하여, 사용자의 발화 의도를 획득할 수 있다. According to an embodiment of the present disclosure, the
예를 들어, 전자 장치(100)는 사용자로부터 "사람만 분리해줘!"라는 음성 입력(620)을 수신하고, ASR 모델을 이용하여 "사람만 분리해줘!"라는 음성을 컴퓨터로 판독 가능한 텍스트로 변환할 수 있다. 그리고, NLU 모델을 이용하여 변환된 텍스트를 해석하여, 음성 입력(620)이 관심 영역(630)을 선택하는 의도임을 획득할 수 있다. 이에 따라, 전자 장치(100)는 음성 입력에 포함된 "사람"에 해당하는 영역을 관심 영역(630)으로 선택할 수 있다. 도 6에는 관심 영역(630)이 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(630)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(610)에 표시되지는 않을 수도 있다.For example, the
본 개시의 일 실시 예에 의하면, ASR 모델 또는 NLU 모델은 인공 지능 모델일 수 있으며, 인공 지능 모델은 인공 지능 모델의 처리에 특화된 하드웨어 구조로 설계된 인공 지능 전용 프로세서에 의해 처리될 수 있다. 본 개시의 일 실시 예에 의하면, 인공 지능 모델은 학습을 통해 만들어질 수 있다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공 지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공 지능 모델이 만들어짐을 의미한다. 인공 지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다.According to an embodiment of the present disclosure, the ASR model or the NLU model may be an artificial intelligence model, and the artificial intelligence model may be processed by an artificial intelligence dedicated processor designed with a hardware structure specialized for processing the artificial intelligence model. According to an embodiment of the present disclosure, an artificial intelligence model may be created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created it means. The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weights.
도 7은 본 개시의 일 실시 예에 따른 전자 장치가 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다.FIG. 7 is a diagram for describing an operation in which an electronic device receives a stylus input for selecting a region of interest, according to an embodiment of the present disclosure;
도 7의 700-1을 참조하면, 전자 장치(100)는 프리뷰 이미지(710)에 대한 스타일러스 입력을 관심 영역(730)을 선택하는 제1 입력으로 수신할 수 있다. 이 경우, 관심 영역(730)은 전자 장치(100)의 사용자가 배경으로부터 분리하기를 원하는 특정 피사체인 사람(740)에 해당하는 영역일 수 있다.Referring to 700 - 1 of FIG. 7 , the
본 개시의 일 실시 예에 의하면, 사용자는 전자 장치(100)와 일정 거리 내에서 스타일러스 펜(101)을 이용하여 관심 영역(730)을 선택할 수 있다. 예를 들어, 전자 장치(100)가 폴더블(fordable) 디스플레이를 포함하는 스마트폰인 경우, 사용자는 전자 장치(100)를 바닥에 세워두고 스타일러스 펜(101)을 이용하여 관심 영역(730)을 선택할 수 있다.According to an embodiment of the present disclosure, the user may select the
도 7의 700-2를 참조하면, 스타일러스 펜(101)은 측면에 버튼(102)을 포함할 수 있다. 도 7의 700-1을 참조하면, 전자 장치(100)의 사용자가 스타일러스 펜(101)을 프리뷰 이미지(710)에 표시된 사람(740)을 향하도록 하고 버튼(102)을 누르면, 포인트 표시(720)가 나타날 수 있다.Referring to 700-2 of FIG. 7 , the
이 때, 전자 장치(100)는 프리뷰 이미지(710) 내에서 포인트 표시(720)로부터 소정 반경 내의 영역을 관심 영역(730)으로 선택할 수 있다. 도 7의 700-1에는 관심 영역(730)이 포인트 표시(720)를 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역(730)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(710)에 표시되지는 않을 수도 있다. 한편, 사용자는 스타일러스 펜(101)을 이용한 호버링 입력을 통해서 포인트 표시(720)의 위치를 변경할 수 있다. 본 개시에서, 호버링 입력은 전자 장치(100)로부터 기 정의된 이격 거리 이내로 스타일러스 펜(101)이 접근하는 입력 이벤트를 의미할 수 있다. In this case, the
도 8은 본 개시의 일 실시 예에 따른 전자 장치가 복수의 관심 영역을 선택하는 스타일러스 입력을 수신하는 동작을 설명하기 위한 도면이다. 8 is a diagram for describing an operation of receiving, by an electronic device, a stylus input for selecting a plurality of ROIs, according to an embodiment of the present disclosure;
도 8을 참조하면, 전자 장치(100)는 프리뷰 이미지(801)에 표시된 복수의 피사체들(802, 803, 804, 805, 806) 중에서 특정 피사체들(803, 804, 806)에 해당하는 영역인 복수의 관심 영역(807, 808, 809)을 선택하는 스타일러스 입력을 수신할 수 있다.
Referring to FIG. 8 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 프리뷰 이미지(801)에 표시된 피사체들(802, 803, 804, 805, 806) 중 복수의 피사체들(803, 804, 806)을 배경으로부터 분리하기를 원할 수 있다. 이 경우, 사용자는 스타일러스 펜(101)을 이용하여 복수의 관심 영역(807, 808, 809)을 선택할 수 있다. 일 실시 예에 의하면, 사용자는 스타일러스 펜(101)을 특정 피사체들(803, 804, 806)을 향하게 하고 순차적으로 버튼(102)을 누르면, 포인트 표시(810)가 순차적으로 나타날 수 있다.According to an embodiment of the present disclosure, the user of the
이 때, 전자 장치(100)는 프리뷰 이미지(801) 내에서 포인트 표시들(810)로부터 소정 반경 내의 영역을 관심 영역들(807, 808, 809)로 선택할 수 있다. 도 8에는 관심 영역들(807, 808, 809)이 포인트 표시들(810)을 포함하는 사각형의 영역으로 표시되어 있지만, 이는 관심 영역들(807, 808, 809)의 범위를 표시한 것일 뿐, 실제 프리뷰 이미지(801)에 표시되지는 않을 수도 있다.In this case, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 복수의 피사체들을 선택하다가 원하지 않는 피사체를 선택하는 경우가 있을 수 있다. 이 경우, 사용자는 스타일러스 펜(101)을 이용하여 잘못 선택한 영역에 대해 버튼(102)을 재차 누름으로써, 선택을 취소할 수 있다.According to an embodiment of the present disclosure, the user of the
도 9는 본 개시의 일 실시 예에 따른 전자 장치가 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별하는 동작을 설명하기 위한 도면이다.9 is a diagram for describing an operation of an electronic device identifying an object related to a region of interest in a preview image according to an embodiment of the present disclosure;
도 9를 참조하면, 전자 장치(100)의 사용자는 눈사람 인형(930)을 촬영하고, 눈사람 인형(930)이 배경(920)과 분리될 오브젝트로 결정되기를 원할 수 있다.Referring to FIG. 9 , a user of the
도 9의 900-1을 참조하면, 전자 장치(100)는, 프리뷰 이미지(910) 내에서 배경(920)과 분리하기를 원하는 특정 피사체인 눈사람 인형(930)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(940)을 수신할 수 있다. 도 9에서 터치 입력(940)인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 이 때, 전자 장치(100)는 터치 입력(940)으로부터 소정 반경 내의 영역을 관심 영역(950)으로 선택할 수 있다. 또한, 전자 장치(100)는 관심 영역(950)과 인접한 영역을 관심 영역(950)으로 확장할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(950)과 인접한 영역에 대해 엣지 영역으로 구분할 수 있다. 예를 들어, 눈사람의 얼굴이 관심 영역(950)으로 선택된 경우, 전자 장치(100)는 눈사람의 손, 몸통으로 관심 영역을 확장할 수 있다. 이때, 전자 장치(100)는 사용자로부터 드래그 입력, 멀티 터치 입력 등을 수신하여 관심 영역을 확장할 수 있다.Referring to 900 - 1 of FIG. 9 , the
도 9의 900-2를 참조하면, 전자 장치(100)는, 관심 영역(950)에서 눈사람 인형(930)이 차지하는 비율을 판단할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(950)에서 눈사람 인형(930)이 차지하는 비율이 소정 비율(예컨대, 80%) 이상인 경우, 눈사람 인형(930)을 오브젝트로 식별할 수 있다. 예를 들어, 도 9의 900-2를 참조하면, 관심 영역(950)에서 눈사람 인형(930)이 차지하는 영역(960)이 관심 영역의 83%일 수 있다. 이 경우, 눈사람 인형(930)을 배경과 분리할 오브젝트로 식별할 수 있다.Referring to 900 - 2 of FIG. 9 , the
도 9의 900-3을 참조하면, 전자 장치(100)는 눈사람 인형(930)을 오브젝트로 식별한 경우, 식별된 오브젝트를 배경(920)으로부터 분리할 수 있다. 이 때, 일 실시 예에 의하면, 전자 장치(100)는 학습 네트워크 모델을 이용하여 오브젝트를 배경(920)으로부터 분리할 수 있다. 여기서, 학습 네트워크 모델은 피사체의 다양한 배경과 포즈가 담긴 수많은 샘플 이미지 데이터를 활용해 훈련된 인공 지능(AI) 모델일 수 있다.Referring to 900 - 3 of FIG. 9 , when the
도 10은 본 개시의 일 실시 예에 따른 전자 장치가 식별 불가능한 오브젝트를 선택하는 입력을 수신하는 동작을 설명하기 위한 도면이다.10 is a diagram for describing an operation of receiving an input for selecting an unidentifiable object by an electronic device according to an embodiment of the present disclosure;
도 10을 참조하면, 전자 장치(100)의 사용자는 눈사람 인형(1030)이 배경과 분리될 오브젝트로 결정되기를 원하였지만, 실수로 눈사람 인형(1030)과 관련 없는 배경(1020) 부분을 선택할 수 있다.Referring to FIG. 10 , the user of the
도 10의 1000-1을 참조하면, 전자 장치(100)는, 프리뷰 이미지(1010) 내에서 특정 피사체인 눈사람 인형(1030)과 관련 없는 영역(예컨대, 배경 영역)을 소정의 시간(예컨대, 3초)만큼 터치하는 터치 입력(1040)을 수신할 수 있다. 도 10에서 터치 입력(1040)인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 이 때, 전자 장치(100)는 터치 입력(1040)으로부터 소정 반경 내의 영역을 관심 영역(1050)으로 선택할 수 있다.Referring to 1000 - 1 of FIG. 10 , the
도 10의 1000-2를 참조하면, 전자 장치(100)는, 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 비율을 판단할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 비율이 소정 비율(예컨대, 80%) 이하인 경우, 눈사람 인형(1030)을 오브젝트로 식별하지 않을 수 있다. 예를 들어, 도 10의 1000-2를 참조하면, 관심 영역(1050)에서 눈사람 인형(1030)이 차지하는 영역(1060)이 관심 영역의 8%일 수 있다. 이 경우, 눈사람 인형(1030)을 오브젝트로 식별하지 않을 수 있다. 또한, 관심 영역(1050)에서 배경(1020)이 차지하는 부분이 90% 이상인 경우, 전자 장치(100)는 사용자가 식별 불가능한 피사체를 선택했다고 판단할 수 있다. Referring to 1000 - 2 of FIG. 10 , the
본 개시의 일 실시 예에 의하면, 사용자가 프리뷰 이미지(1010) 내에서 식별 불가능한 피사체(예컨대, 배경 영역)를 선택한 경우, 전자 장치(100)는, 식별된 오브젝트가 없음을 전자 장치(100)의 사용자에게 알릴 수 있다. 예를 들어, "식별된 오브젝트가 존재하지 않습니다."라는 문구를 프리뷰 이미지(1010) 내에 팝업 형태로 표시할 수 있다.According to an embodiment of the present disclosure, when the user selects an unidentifiable subject (eg, a background area) in the
도 11은 본 개시의 일 실시 예에 따른 전자 장치가 식별된 오브젝트를 표시하고, 오브젝트의 이미지를 공유하기 위한 입력을 수신하는 동작을 설명하기 위한 도면이다.11 is a diagram for describing an operation of an electronic device displaying an identified object and receiving an input for sharing an image of the object, according to an embodiment of the present disclosure;
도 11을 참조하면, 전자 장치(100)의 사용자가 눈사람 인형(1120)을 선택함에 따라, 눈사람 인형(1120)이 배경과 분리될 오브젝트로 식별될 수 있다. 전자 장치(100)는 프리뷰 이미지(1110) 내에 눈사람 인형(1120)이 오브젝트로 식별되었음을 나타내는 식별 표시(1130)를 할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1110) 내에서 눈사람 인형(1120)의 가장자리 영역을 나타내는 윤곽선을 소정의 색깔 또는 소정의 두께로 표시할 수 있다. 다만, 표시 방법은 이에 한정되는 것은 아니다.Referring to FIG. 11 , when the user of the
도 11을 참조하면, 전자 장치(100)는 오브젝트로 식별된 눈사람 인형(1120)의 이미지를 공유하기 위한 제2 입력(1140)을 수신할 수 있다. 도 11에서 터치 입력인 것으로 도시되어 있으나, 음성 입력 또는 스타일러스 입력일 수도 있다. 예를 들어, 전자 장치(100)는 사용자가 식별 표시(1130)가 된 눈사람 인형(1120)을 소정 시간 이상 터치하는 경우, 눈사람 인형(1120)의 이미지를 공유하기 위한 제2 입력으로 인식할 수 있다.Referring to FIG. 11 , the
도 12는 본 개시의 일 실시 예에 따른 공유 기능을 지원하는 어플리케이션에 대한 정보를 제공하는 방법을 설명하기 위한 순서도이다.12 is a flowchart illustrating a method of providing information on an application supporting a sharing function according to an embodiment of the present disclosure.
도 12를 참조하면, 단계 S1210은 도 2의 단계 S240 이후에 수행될 수 있다.Referring to FIG. 12 , step S1210 may be performed after step S240 of FIG. 2 .
단계 S1210에서, 전자 장치(100)는, 공유 기능을 지원하는 복수의 어플리케이션 정보를 수신할 수 있다. In operation S1210, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 경우, 복수의 어플리케이션 정보를 수신할 수 있다. 복수의 어플리케이션은 공유 기능을 지원하는 어플리케이션들(설명의 편의상, 공유 어플리케이션이라고 명할 수 있다)일 수 있다. 어플리케이션 정보는 어플리케이션의 이름, 종류, 지원하는 데이터 형식 등일 수 있다.According to an embodiment of the present disclosure, when receiving a second input for sharing an image of an object, the
단계 S1220에서, 전자 장치(100)는, 복수의 어플리케이션 각각에 대응하는 아이콘들을 표시할 수 있다.In operation S1220, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 복수의 어플리케이션(공유 어플리케이션) 각각에 대응하는 아이콘들을 전자 장치(100)의 화면에 표시할 수 있다. 예를 들어, 공유 어플리케이션은 SNS 어플리케이션, 메신저 어플리케이션, 브라우저 어플리케이션, 근거리 무선 통신 용 어플리케이션 등일 수 있으나, 이에 한정되는 것은 아니다. 본 개시의 일 실시 예에 의하면, 공유 어플리케이션 각각에 대응되는 아이콘들은, 프리뷰 이미지와 중첩되어 표시될 수도 있고, 프리뷰 이미지와 다른 영역에 표시될 수도 있다. 예를 들어, 전자 장치(100)는, 제2 입력을 수신함에 따라, 프리뷰 이미지를 축소하고, 복수의 어플리케이션 각각에 대응하는 아이콘들을 축소된 프리뷰 이미지와 다른 영역에 표시할 수 있다.According to an embodiment of the present disclosure, the
단계 S1230에서, 전자 장치(100)는, 표시된 아이콘들 중 하나로 오브젝트를 드래그하는 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다.In operation S1230, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 제2 입력에 대응하여 표시된 복수의 어플리케이션의 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그할 수 있다. 전자 장치(100)는 드래그 입력에 기초하여, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 전송할 수 있다. According to an embodiment of the present disclosure, the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)가 단일 윈도우인 경우에도, 전자 장치(100)의 사용자는 드래그와 같은 단순한 사용자 입력으로, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치에 쉽게 전송할 수 있다.According to an embodiment of the present disclosure, even when the
이하에서는 도 13을 참조하여 전자 장치(100)가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작에 대해서 자세히 살펴보기로 한다.Hereinafter, an operation in which the
도 13은 본 개시의 일 실시 예에 따른 전자 장치가 공유 기능을 제공하는 어플리케이션에 대한 정보를 제공하는 동작을 설명하기 위한 도면이다.13 is a diagram for explaining an operation in which an electronic device provides information on an application that provides a sharing function, according to an embodiment of the present disclosure.
도 13을 참조하면, 사용자는 자신이 마시고 있는 커피의 이미지를 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라를 실행하고, 커피를 포함하는 프리뷰 이미지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다.Referring to FIG. 13 , a user may wish to share an image of the coffee he is drinking with his friend. In this case, the user may launch the camera of the
도 13의 1300-1을 참조하면, 전자 장치(100)는 프리뷰 이미지(1310) 내에서 커피(1320)를 소정 시간 이상 터치하는 사용자 입력(1330)을 수신할 수 있다. 도 13에서 사용자 입력(1330)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 일 실시 예에 의하면, 전자 장치(100)는 커피(1320)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1330)으로 인식할 수 있다.Referring to 1300-1 of FIG. 13 , the
도 13의 1300-2를 참조하면, 전자 장치(100)는 사용자가 오브젝트(1320)를 터치하는 중에 프리뷰 이미지(1310)의 하단에 제1 어플리케이션, 제2 어플리케이션, 제3 어플리케이션에 대응하는 아이콘들(제1 아이콘(1340), 제2 아이콘(1350), 제3 아이콘(1360))을 표시할 수 있다. 이때, 제1 어플리케이션은 메신저 어플리케이션, 제2 어플리케이션은 SNS 어플리케이션, 제3 어플리케이션은 근거리 무선 통신 용 어플리케이션일 수 있다. Referring to 1300 - 2 of FIG. 13 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)가 사용자 입력(1320)을 수신한 경우, 프리뷰 이미지(1310)의 밝기가 어두워질 수 있다. 그리고, 배경이 제거된 커피 이미지(1370)만이 크기가 축소된 채로 화면에 표시될 수 있다. 이때, 전자 장치(100)의 사용자는 제1 아이콘(1340), 제2 아이콘(1350), 제3 아이콘(1360) 중 특정 어플리케이션 아이콘으로 배경이 제거된 커피 이미지(1370)를 터치한 채 드래그할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 제1 어플리케이션인 메신저 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 커피 이미지(1370)를 터치한 채 제1 아이콘(1340)에 드래그할 수 있다.According to an embodiment of the present disclosure, when the
도 13의 1300-3을 참조하면, 전자 장치(100)는 메신저 어플리케이션을 이용하여 이미지(1370)를 공유할 수 있다. 전자 장치(100)의 사용자가 이미지(1370)를 터치한 채 메신저 어플리케이션의 아이콘(1340)에 드래그한 경우, 메신저 어플리케이션이 실행될 수 있다. 이때, 배경이 제거된 커피 이미지(1370)는 메신저 어플리케이션의 실행 화면(1380)에 중첩해서 표시될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1380) 상에서 이미지(1370)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1370)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 1300 - 3 of FIG. 13 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 커피 이미지(1370)와 함께 커피 명, 커피를 구매할 수 있는 사이트 연결 정보 등 커피(1320)와 관련된 정보를 함께 대화 상대방의 전자 장치에 전송할 수 있다. 이때, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 커피(1320)와 관련된 정보를 획득할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 배경이 제거된 커피 이미지(1370)를 얻기 위해서 추가적인 편집 과정이 필요하지 않게 되므로, 보다 편리하고 빠르게 이미지(1370)를 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, since the user of the
도 14는 본 개시의 일 실시 예에 따른 전자 장치가 메신저 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.14 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using a messenger application according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 멀티 윈도우 기능을 가지는 스마트폰일 수 있다. 전자 장치(100)가 멀티 윈도우 기능을 가지는 경우, 제1 어플리케이션 실행 화면과 제2 어플리케이션 실행 화면을 동시에 표시할 수 있다. 이하에서는, 제1 어플리케이션은 카메라 어플리케이션, 제2 어플리케이션은 메신저 어플리케이션인 경우를 예로 들어 설명하기로 한다.According to an embodiment of the present disclosure, the
도 14를 참조하면, 사용자는 친구의 이미지를 촬영하고, 배경이 제거된 친구의 이미지를 메신저 어플리케이션을 통해 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)로 제1 어플리케이션인 카메라 어플리케이션을 실행하고, 친구를 포함하는 프리뷰 이미지(1410)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1420)에 나타나도록 할 수 있다.Referring to FIG. 14 , a user may want to photograph a friend's image and share the friend's image from which the background is removed through a messenger application. In this case, the user may execute the camera application, which is the first application, with the
도 14의 1400-1을 참조하면, 전자 장치(100)는, 카메라 실행 화면(1420)과 메신저 어플리케이션 실행 화면(1430)을 동시에 표시할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1410) 내의 친구 이미지(1440)를 소정 시간 이상 터치하는 사용자 입력(1450)을 수신할 수 있다. 도 14에서 사용자 입력(1450)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 친구 이미지(1440)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1450)으로 인식할 수 있다.Referring to 1400-1 of FIG. 14 , the
도 14의 1400-2를 참조하면, 전자 장치(100)가 사용자 입력(1450)을 수신한 경우, 배경이 제거된 친구 이미지(1460)가 크기가 축소된 채로 카메라 실행 화면(1420)에 표시될 수 있다. 이때, 프리뷰 이미지(1410)의 밝기가 어두워질 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 제2 어플리케이션인 메신저 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 이미지(1460)를 터치한 채 메신저 어플리케이션 실행 화면(1430)으로 드래그할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1430) 상에서 이미지(1460)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1460)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 1400 - 2 of FIG. 14 , when the
도 15는 본 개시의 일 실시 예에 따른 전자 장치가 근거리 무선 통신 용 어플리케이션을 이용하여 오브젝트의 이미지를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.15 is a diagram for describing an operation of an electronic device sharing an image of an object to an external device using an application for short-range wireless communication according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 멀티 윈도우 기능을 가지는 스마트폰일 수 있다. 전자 장치(100)가 멀티 윈도우 기능을 가지는 경우, 제1 어플리케이션 실행 화면과 제2 어플리케이션 실행 화면을 동시에 표시할 수 있다. 도 15에서는, 제1 어플리케이션은 카메라 어플리케이션, 제2 어플리케이션은 근거리 무선 통신 용 어플리케이션인 경우를 예로 들어 설명하기로 한다.According to an embodiment of the present disclosure, the
도 15를 참조하면, 사용자는 제1 친구의 이미지를 촬영하고, 배경이 제거된 제1 친구의 이미지를 근거리 무선 통신을 이용해서 제2 친구의 전자 장치로 빠르게 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)로 제1 어플리케이션인 카메라 어플리케이션을 실행하고, 제1 친구를 포함하는 프리뷰 이미지(1501)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1502)에 나타나도록 할 수 있다.Referring to FIG. 15 , a user may want to take an image of a first friend and quickly share the image of the first friend from which the background is removed to the electronic device of the second friend using short-range wireless communication. In this case, the user may execute the camera application, which is the first application, with the
도 15의 1500-1을 참조하면, 전자 장치(100)는 카메라 실행 화면(1502)과 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)을 동시에 표시할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1501) 내의 제1 친구 이미지(1504)를 소정 시간 이상 터치하는 사용자 입력(1505)을 수신할 수 있다. 도 15에서 사용자 입력(1505)이 터치 입력인 것으로 설명하나, 음성 입력 또는 스타일러스 입력일 수도 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 제1 친구 이미지(1504)가 배경으로부터 분리되었음을 나타내는 윤곽선을 표시할 수 있다. 전자 장치(100)는 표시된 윤곽선 내의 영역이 소정 시간 이상 터치되는 경우, 사용자 입력(1505)으로 인식할 수 있다.Referring to 1500 - 1 of FIG. 15 , the
도 15의 1500-2를 참조하면, 전자 장치(100)가 사용자 입력(1505)을 수신한 경우, 배경이 제거된 제1 친구 이미지(1506)가 크기가 축소된 채로 카메라 실행 화면(1502)에 표시될 수 있다. 이때, 프리뷰 이미지(1501)의 밝기가 어두워질 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 제2 어플리케이션인 근거리 무선 통신 용 어플리케이션을 통하여 오브젝트를 공유하기를 원하는 경우, 사용자는 이미지(1506)를 터치한 채 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)으로 드래그할 수 있다. Referring to 1500 - 2 of FIG. 15 , when the
도 15의 1500-3을 참조하면, 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면(1503)에는 이미지(1506)를 공유할 수 있는 복수의 상대방 목록이 아이콘들(1507, 1508, 1509, 1510, 1511)로 표시될 수 있다. 이때, 전자 장치(100)의 사용자는 공유하기를 원하는 제2 친구(예컨대, "제이콥")가 표시된 아이콘(1507)으로 이미지(1506)를 터치한 채 드래그할 수 있다. Referring to 1500-3 of FIG. 15 , on the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 근거리 무선 통신을 하기 위한 인터페이스 화면(1503) 상에서 이미지(1506)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1506)는 근거리 무선 통신(1512)을 통해 직접 제2 친구(예컨대, "제이콥")의 전자 장치(300)로 전송될 수 있다. 여기서, 근거리 무선 통신(1512)은 WiFi, Bluetooth, UWB 등을 포함할 수 있다. 이때, WiFi는 전자 장치들이 무선랜(WLAN)에 연결할 수 있게 하는 기술로서, 무선 접속 장치(AP)가 설치된 곳을 중심으로 일정 거리 이내에서 이용할 수 있다. Bluetooth는 전자 장비 간 짧은 거리의 데이터 통신이 가능하게 하는 기술로서, 사용자는 Bluetooth를 이용해서 디지털 정보를 비교적 낮은 속도로 주고받을 수 있다. UWB(Ultra-wideband, 초광대역)는 기존의 스펙트럼에 비해 매우 넓은 대역에 걸쳐 낮은 전력으로 대용량의 정보를 전송할 수 있는 무선 통신 기술이다.According to an embodiment of the present disclosure, when the user of the
도 16은 본 개시의 일 실시 예에 따른 전자 장치가 QR 코드의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.16 is a diagram for explaining an operation of an electronic device sharing an image and information of a QR code with an external device according to an embodiment of the present disclosure.
도 16에서는 전자 장치(100)가 멀티 윈도우 기능을 가지는 스마트폰인 경우를 예로 들어 설명 하기로 한다.In FIG. 16 , a case in which the
도 16을 참조하면, 사용자는 QR 코드를 촬영하고, QR 코드의 이미지와 QR 코드와 관련된 정보를 함께 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라 어플리케이션을 실행하고, QR 코드 이미지를 포함하는 프리뷰 이미지(1610)가 전자 장치(100)의 카메라 어플리케이션 실행 화면(1620) 상에 나타나도록 할 수 있다.Referring to FIG. 16 , a user may want to photograph a QR code and share an image of the QR code and information related to the QR code with a friend. In this case, the user may execute the camera application of the
도 16의 1600-1을 참조하면, 전자 장치(100)는 카메라 어플리케이션 실행 화면(1620)의 프리뷰 이미지(1610) 내의 QR 코드(1640)를 선택하는 사용자 입력(1650)을 수신할 수 있다. Referring to 1600 - 1 of FIG. 16 , the
도 16의 1600-2를 참조하면, 전자 장치(100)는 사용자 입력(1650)에 대응하여 배경이 제거된 QR 코드 이미지(1660)와 함께 QR 코드와 관련된 정보(1670)를 획득할 수 있다. 이때, QR 코드와 관련된 정보(1670)는 이메일 주소, URL 정보, 전화 번호, Wi-Fi 비밀번호 정보, Mobile Hotspot 설정 값 정보, IoT 기기 정보 등을 포함할 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 QR 코드와 관련된 정보(1670)를 획득할 수 있다.Referring to 1600 - 2 of FIG. 16 , in response to a
도 16의 1600-3을 참조하면, 전자 장치(100)가 사용자 입력(1650)을 수신한 경우, QR 코드(1640)의 배경이 제거된 이미지(1660)가 크기가 축소된 채로 카메라 실행 화면(1620)에 표시될 수 있다. 그리고, QR 코드와 관련된 정보(1670)도 이미지(1660)와 함께 팝업 형태로 카메라 실행 화면(1620)에 표시될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션을 통하여 이미지(1660) 및 정보(1670)를 공유하기를 원하는 경우, 사용자는 이미지(1660) 및 정보(1670)를 터치한 채 메신저 어플리케이션 실행 화면(1630)으로 드래그할 수 있다.Referring to 1600-3 of FIG. 16 , when the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(1630) 상에서 이미지(1660) 및 정보(1670)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1660) 및 정보(1670)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다. According to an embodiment of the present disclosure, when the user of the
본 개시의 일 실시 예에 의하면, QR 코드(1640)에 URL 정보가 포함되어 있는 경우, 이미지(1660)와 URL 정보가 함께 상대방의 전자 장치로 전송될 수 있다. 이때, 상대방은 전달 받은 이미지(1660)를 자신의 전자 장치에서 탭함으로써, QR 코드에 담긴 콘텐츠를 미리 볼 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 Wi-Fi 비밀번호가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 자신의 전자 장치에서 탭함으로써, 현재 연결된 AP 정보와 비밀번호를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 Mobile Hotspot 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 현재 설정된 AP 정보와 비밀번호를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 사용자의 프로필 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 사용자의 이름, 전화번호, 이메일, 직장, 생일 등의 정보를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 사용자의 헬스 프로필 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 헬스와 관련된 소셜 네트워킹 서비스를 사용자와 함께 이용하도록 운동 종류, 운동 횟수, 인바디 정보 등을 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 IoT(Internet of Things) 기기 관련 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, IoT 기기(예컨대, 로봇 청소기, TV, 냉장고, 세탁기, AI 스피커 등)의 정보를 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 클라우드 URL 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 대용량 파일을 클라우드로부터 간편하게 공유 받을 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 스마트폰 설정 값 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 스마트폰을 간편하게 설정할 수 있다. 본 개시의 일 실시 예에 의하면, QR 코드(1640)에 건강 관련 어플리케이션에 대한 그룹 챌린지 초대 정보가 포함되어 있는 경우, 상대방은 전달 받은 이미지(1660)를 탭함으로써, 건강 관련 어플리케이션에서 그룹 생성 정보(예컨대, 헬스 트레이너 그룹 등)을 간편하게 설정할 수 있다.According to an embodiment of the present disclosure, when URL information is included in the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 QR 코드와 관련된 정보를 전송하는 추가적인 동작 없이도, QR 코드의 이미지와 QR 코드와 관련된 정보를 동시에 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, the user of the
도 17을 참조하여, QR 코드와 관련된 정보에 대해서 조금 더 살펴보기로 한다. Referring to FIG. 17 , the information related to the QR code will be examined a little more.
도 17은 본 개시의 일 실시 예에 따른 QR 코드와 관련된 정보를 설명하기 위한 도면이다.17 is a diagram for explaining information related to a QR code according to an embodiment of the present disclosure.
도 17에서는 제1 사용자가 제1 전자 장치를 통해서 제2 사용자의 제2 전자 장치로 QR 코드의 이미지 및 QR 코드와 관련된 정보를 전송한 경우를 예로 들어 설명하기로 한다. In FIG. 17 , a case in which the first user transmits the image of the QR code and information related to the QR code to the second electronic device of the second user through the first electronic device will be described as an example.
도 17을 참조하면, QR 코드와 관련된 정보는 전화 번호 정보(1710), 이메일 주소 정보(1720), URL 정보(1730), 주소 정보(1740), 스케쥴 정보(1750) 등을 포함할 수 있다. 다만, 이에 한정되는 것은 아니며, QR 코드와 관련된 정보는 Wi-Fi 비밀 번호 정보, Mobile Hotspot 정보, 헬스와 관련된 소셜 네트워킹 서비스 이용 정보, IoT(Internet of Things) 기기 관련 정보 등을 더 포함할 수 있다.Referring to FIG. 17 , information related to the QR code may include
본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 전화 번호 정보(1710)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 다이얼 어플리케이션을 자동으로 실행하고, 전화 번호 정보(1710)에 포함된 전화 번호로 통화 연결을 시도할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be
본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 이메일 주소 정보(1720)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 이메일 어플리케이션을 자동으로 실행하고, 이메일 주소 정보(1720)에 포함된 이메일 주소로 이메일을 보낼 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be
본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 URL 정보(1730)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 인터넷을 실행함으로써 URL 정보(1710)에 포함된 URL을 열 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be
본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 주소 정보(1740)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 지도 어플리케이션이 실행할 수 있고, 주소 정보(1740)에 포함된 주소로 길안내를 실행할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be
본 개시의 일 실시 예에 의하면, QR 코드와 관련된 정보는 스케쥴 정보(1750)일 수 있다. 이때, QR 코드의 이미지 및 정보를 전달받은 제2 사용자가 자신의 제2 전자 장치에서 QR 코드의 이미지를 탭할 경우, 제2 전자 장치는 달력 어플리케이션이 실행할 수 있고, 스케쥴 정보(1750)에 포함된 스케쥴을 달력 어플리케이션에 기록할 수 있다.According to an embodiment of the present disclosure, the information related to the QR code may be
도 18은 본 개시의 일 실시 예에 따른 전자 장치가 문서의 이미지 및 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.18 is a diagram for explaining an operation of an electronic device sharing an image and information of a document to an external device according to an embodiment of the present disclosure;
도 18에서는 전자 장치(100)가 멀티 윈도우 기능을 가지는 스마트폰인 경우를 예로 들어 설명하기로 한다.In FIG. 18 , a case in which the
도 18을 참조하면, 사용자는 특정 문서의 이미지(예컨대, 스마트폰 설명서)를 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라를 실행하고, 특정 문서를 포함하는 프리뷰 이미지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다. Referring to FIG. 18 , a user may wish to share an image (eg, a smartphone manual) of a specific document with a friend. In this case, the user may launch the camera of the
도 18의 1800-1을 참조하면, 전자 장치(100)는 프리뷰 이미지 내의 문서(오브젝트)를 선택하는 사용자 입력(1810)을 수신할 수 있다. 전자 장치(100)가 사용자 입력(1810)을 수신하는 동작에 대해서는, 도 14에 대한 설명에서 서술하였으므로, 구체적인 설명은 생략하기로 한다. Referring to 1800-1 of FIG. 18 , the
도 18의 1800-2를 참조하면, 전자 장치(100)는 문서를 선택하는 사용자 입력(1810)에 대응하여 배경이 제거된 문서 이미지(1820)와 함께 문서와 관련된 정보(1830)를 획득할 수 있다. 이때, 문서와 관련된 정보(1830)는 OCR(optical character recognition) 기술을 이용하여 문서를 판독한 텍스트 데이터일 수 있다. OCR 기술은, 이미지 속의 글자 모양 부분을 컴퓨팅 연산을 통해 특정 문자 코드로 바꾸어 주는 기술일 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 인공지능(AI) 시스템의 학습 네트워크 모델을 이용하여 문서를 판독할 수 있다.Referring to 1800-2 of FIG. 18 , in response to a
도 18의 1800-3을 참조하면, 전자 장치(100)의 사용자가 메신저 어플리케이션을 통하여 이미지(1820) 및 정보(1830)를 공유하기를 원하는 경우, 사용자는 이미지(1820) 및 정보(1830)를 터치한 채 메신저 어플리케이션 실행 화면(1630)으로 드래그할 수 있다.Referring to 1800-3 of FIG. 18 , when a user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면 상에서 이미지(1820) 및 정보(1830)의 터치를 중단하는 경우(예컨대, 드롭 이벤트), 이미지(1820) 및 정보(1830)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.According to an embodiment of the present disclosure, when the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 문서의 이미지를 캡쳐하여 텍스트 데이터로 변환하는 과정을 거치지 않고도, 문서의 이미지와 텍스트 데이터를 동시에 상대방의 전자 장치(외부 장치)로 전송할 수 있다.According to an embodiment of the present disclosure, the user of the
도 19는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.19 is a diagram for describing an operation in which an electronic device shares object-related information with an external device according to an embodiment of the present disclosure.
도 19를 참조하면, 사용자는 스마트 태그(1910)를 착용한 강아지를 촬영하여 메신저 어플리케이션을 통해 친구와 공유하기를 원할 수 있다. 이때, 사용자는 전자 장치(100)의 카메라 어플리케이션을 실행하고, 스마트 태그(1910)를 착용한 강아지가 전자 장치(100)의 디스플레이에 나타나도록 할 수 있다.Referring to FIG. 19 , a user may want to photograph a dog wearing a
도 19의 1900-1을 참조하면, 전자 장치(100)의 사용자가 스마트 태그(1910)를 착용한 강아지를 촬영하는 경우, 프리뷰 이미지(1920)에는 스마트 태그(1910)로부터 수신한 강아지에 대한 정보(1940)가 팝업 형태로 표시될 수 있다. 전자 장치(100)는 근거리 무선 통신(예컨대, UWB, 블루투스, 와이파이 등)을 통해 스마트 태그(1910)로부터 강아지에 대한 정보(1940)를 수신할 수 있다. Referring to 1900 - 1 of FIG. 19 , when the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 프리뷰 이미지(1920) 내에서 강아지(1930)를 선택하는 사용자 입력(1950)을 수신할 수 있다. 예를 들어, 전자 장치(100)는 강아지(1930)를 소정 시간 이상 터치하는 입력을 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자 입력(1950)을 수신함에 따라 공유 어플리케이션(예컨대, 메신저 어플리케이션, SNS 어플리케이션 등)에 대응하는 아이콘들을 프리뷰 이미지(1920) 하단에 중첩하여 표시할 수 있다. According to an embodiment of the present disclosure, the
도 19의 1900-2를 참조하면, 전자 장치(100)는, 사용자 입력(1950)에 대응하여 배경이 제거된 강아지 이미지(1960)와 함께 강아지와 관련된 정보(1970)를 획득할 수 있다. 이때, 강아지와 관련된 정보(1970)는 강아지의 이름, 강아지의 주인, 강아지의 주소 등을 포함할 수 있다. Referring to 1900 - 2 of FIG. 19 , in response to a
도 19의 1900-3을 참조하면, 전자 장치(100)는 이미지(1960) 및 정보(1970)를 공유할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 공유 어플리케이션 아이콘 중 메신저 어플리케이션 아이콘으로 이미지(1960) 및 정보(1970)를 터치한 채 드래그함으로써 이미지(1960) 및 정보(1970)를 공유할 수 있다. 다른 실시 예에 의하면, 전자 장치(100)가 사용자 입력(1950)을 수신한 경우, 카메라 어플리케이션의 프리뷰 화면(1920)이 사용자가 이전에 실행하고 있었던 어플리케이션 실행 화면으로 전환될 수 있다. 이때, 전자 장치(100)는 전환된 어플리케이션으로 이미지(1960) 및 정보(1970)를 공유할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 카메라 어플리케이션 실행 전 메신저 어플리케이션을 실행하고 있었던 경우, 전자 장치(100)는 이미지(1960) 및 정보(1970)를 메신저 어플리케이션을 통해 대화하고 있던 상대방에게 전송할 수 있다.Referring to 1900 - 3 of FIG. 19 , the
도 20은 본 개시의 일 실시 예에 따른 전자 장치가 증강 현실(AR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.20 is a diagram for explaining an operation of an electronic device sharing information related to an object to an external device by using an augmented reality (AR) technology according to an embodiment of the present disclosure.
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 증강 현실(AR) 기술을 제공하는 어플리케이션을 활용하는 스마트폰일 수 있다. 그러나, 이에 한정되는 것은 아니고, 본 개시의 전자 장치(100)는 사용자의 안면부에 착용하는 안경 형태의 증강 현실 글래스(Augmented Reality Glass), 사용자의 머리 부분에 착용하는 헤드 마운트 디스플레이 장치(HMD: Head Mounted Display Apparatus), 또는 증강 현실 헬멧(Augmented Reality Helmet)일 수도 있다.According to an embodiment of the present disclosure, the
도 20의 2000-1을 참조하면, 전자 장치(100)의 사용자는 증강 현실(AR) 기술을 제공하는 어플리케이션을 이용하여 일본어("デザ?トの時間である!")가 기재된 풍선을 들고있는 인형(2010)을 촬영할 수 있다. 이 경우, 프리뷰 이미지(2020)에는 풍선의 일본어("デザ?トの時間である!")가 한국어("디저트 시간!")로 번역되어 표시될 수 있다. Referring to 2000-1 of FIG. 20 , the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 인형(2010)의 이미지(2050) 및 풍선에 기재된 일본어에 대한 번역 정보(2060)를 동시에 공유하기를 원할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 프리뷰 이미지(2020) 내에서 오브젝트로 식별된 인형(2030)을 선택하는 사용자 입력(2040)을 수신할 수 있다. 예를 들어, 전자 장치(100)는 오브젝트로 식별된 인형(2030)을 소정 시간 이상 터치하는 입력을 수신할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는, 사용자 입력(2040)을 수신함에 따라 공유 어플리케이션(예컨대, 메신저 어플리케이션, SNS 어플리케이션 등)에 대응하는 아이콘들을 프리뷰 이미지(2020) 하단에 중첩하여 표시할 수 있다. According to an embodiment of the present disclosure, the user of the
도 20의 2000-2를 참조하면, 전자 장치(100)는, 사용자 입력(2040)에 대응하여 배경이 제거된 인형 이미지(2050)와 함께 인형이 들고있는 풍선에 기재된 일본어("デザ?トの時間である!")에 대한 번역 정보(2060)를 획득할 수 있다. Referring to 2000-2 of FIG. 20 , in response to a
도 20의 2000-3을 참조하면, 전자 장치(100)는 이미지(2050) 및 번역 정보(2060)를 공유할 수 있다. 여기서, 번역 정보(2060)는 텍스트 데이터 형식으로 공유될 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 공유 어플리케이션 아이콘 중 메신저 어플리케이션 아이콘으로 이미지(2050) 및 번역 정보(2060)를 터치한 채 드래그함으로써 이미지(2050) 및 번역 정보(2060)를 외부 장치로 공유할 수 있다. 다른 실시 예에 의하면, 전자 장치(100)는 사용자 입력(2040)을 수신함에 따라, 카메라 어플리케이션 이전에 실행되고 있었던 메신저 어플리케이션을 통해 이미지(2050) 및 번역 정보(2060)를 외부 장치로 공유할 수 있다.Referring to 2000-3 of FIG. 20 , the
도 21은 본 개시의 일 실시 예에 따른 전자 장치가 가상 현실(VR) 기술을 활용하여 오브젝트와 관련된 정보를 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.21 is a diagram for describing an operation of an electronic device sharing object-related information to an external device by using virtual reality (VR) technology according to an embodiment of the present disclosure.
도 21을 참조하면, 전자 장치(100)는 가상 현실(VR) 기술을 제공하는 헤드 마운트 디스플레이 장치(HMD: Head Mounted Display Apparatus)일 수 있다. 그러나, 이에 한정되는 것은 아니고, 사용자의 안면부에 착용하는 안경 형태의 가상 현실 글래스(Virtual Reality Glass) 또는 생체 이식형 장치(예컨대, implantable circuit)일 수도 있다.Referring to FIG. 21 , the
도 21의 2100-1을 참조하면, 전자 장치(100)는 가상 현실을 위한 VR 컨텐츠(2020)를 표시할 수 있다. 이때, 전자 장치(100)의 사용자는 디스플레이되는 VR 컨텐츠 중에서 특정 캐릭터(2030)의 이미지를 친구와 공유하기를 원할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 VR 컨텐츠(2020) 상에서 특정 캐릭터(2030)를 선택하는 사용자 입력(2040)을 수신할 수 있다. 이때, 전자 장치(100)는 사용자의 모션을 센싱하기 위한 적어도 하나의 센서들을 포함할 수 있고, 적어도 하나의 센서로부터 획득되는 적어도 하나의 센싱값들에 기초하여, 사용자에 의해 선택된 특정 캐릭터(2030)를 식별할 수 있다. Referring to 2100-1 of FIG. 21 , the
특정 캐릭터를 선택하는 사용자 입력(2040)은 모션 입력 또는 음성 입력일 수 있으며, 전자 장치(100)에 포함된 센서들에 의해 수신될 수 있다. The
본 개시의 일 실시 예에 의하면, 전자 장치(100)가 특정 캐릭터(2030)를 식별한 경우, VR 컨텐츠(2020)가 블러 처리될 수 있다. 그리고, 배경이 제거된 특정 캐릭터 이미지(2050)만이 크기가 축소된 채로 VR 컨텐츠(2020) 위에 표시될 수 있다. 일 실시 예에 의하면, 전자 장치(100)는 VR 컨텐츠(2020) 하단에 공유 어플리케이션들의 아이콘들(미도시)을 중첩하여 표시할 수 있다. 이때, 전자 장치(100)의 사용자는 공유 어플리케이션들의 아이콘들 중 메신저 어플리케이션 아이콘으로 배경이 제거된 이미지(2050)를 드래그하는 모션을 취할 수 있다. According to an embodiment of the present disclosure, when the
도 21의 2100-2를 참조하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 아이콘으로 이미지(2050)를 드래그하는 모션을 취하는 경우, 메신저 어플리케이션 실행 화면(2060)이 VR 컨텐츠(2020) 위에 중첩되어 표시될 수 있다. 일 실시 예에 의하면, 전자 장치(100)의 사용자가 메신저 어플리케이션 실행 화면(2060) 상에서 이미지(2050)를 드래그하는 모션을 중단하는 경우(예컨대, 드롭 이벤트), 이미지(2050)는 메신저 어플리케이션을 이용하여 대화하고 있는 상대방의 전자 장치(외부 장치)로 전송될 수 있다.Referring to 2100-2 of FIG. 21 , when the user of the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 VR 화면을 캡쳐하여 편집하지 않고도, VR 화면 상의 특정 오브젝트의 이미지를 다른 사용자와 공유할 수 있다. According to an embodiment of the present disclosure, the user of the
도 22는 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트에 대한 편집을 수행한 후 외부 장치에 공유하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of sharing an object with an external device after an electronic device edits an object according to an embodiment of the present disclosure;
도 22를 참조하면, 전자 장치(100)는 프리뷰 이미지 내에서 사용자가 선택한 특정 오브젝트의 이미지를 편집할 수 있다. 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 벤치에 앉아있는 친구(2210)가 포함된 프리뷰 이미지 내에서 친구(2210)를 소정 시간 이상 터치하는 입력을 수신할 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지 내에서 친구(2210)의 이미지(2250)를 배경과 분리하고, 친구(2210)의 이미지(2250)를 편집하기 위한 편집 어플리케이션(제1-1 어플리케이션)(2240)을 실행할 수 있다. 전자 장치(100)의 사용자는 편집 어플리케이션(2240)에 표시된 친구(2210)의 이미지(2210)를 편집하여 편집 이미지(2260)를 생성할 수 있다. 이때, 편집은 오브젝트에 효과 주기, 텍스트 입력, GIF 파일 생성, 아이콘 추가 등을 포함할 수 있다. 예를 들어, 사용자는 친구(2210)의 이미지 옆에 'You're driving me crazy!' 라는 문구를 추가하여 편집 이미지(2260)를 생성할 수 있다. Referring to FIG. 22 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 메신저 어플리케이션(제2 어플리케이션)(2270)을 통하여 편집 이미지(2260)를 친구의 전자 장치와 공유할 수 있다. 전자 장치(100)가 사용자의 드래그 입력을 통하여 이미지를 공유하는 동작에 대해서는, 도 13에 대한 설명에서 서술하였으므로, 설명을 생략하기로 한다.According to an embodiment of the present disclosure, the
도 23은 본 개시의 일 실시 예에 따른 전자 장치가 오브젝트를 편집 어플리케이션으로 공유하는 동작을 설명하기 위한 도면이다.23 is a diagram for describing an operation of an electronic device sharing an object with an editing application according to an embodiment of the present disclosure;
도 23을 참조하면, 전자 장치(100)는 프리뷰 이미지(2310) 내에서 사용자가 스타일러스 펜(101)을 이용하여 선택한 특정 오브젝트의 이미지를 편집 어플리케이션(2350)을 이용하여 자유롭게 편집할 수 있다. Referring to FIG. 23 , the
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 벤치에 앉아 있는 친구(2320)가 포함된 프리뷰 이미지 내에서 친구(2320)를 선택하는 사용자 입력(2330)을 수신할 수 있다. 이때, 사용자 입력(2330)은 스타일러스 펜(101)의 제1 버튼(102)을 누른 채로 친구(2320)를 선택하는 입력일 수 있다. 이 경우, 전자 장치(100)는 프리뷰 이미지(2310) 내에서 친구(2320)의 이미지(2340)를 배경과 분리할 수 있다.According to an embodiment of the present disclosure, the
본 개시의 일 실시 예에 의하면, 전자 장치(100)의 사용자는 편집 어플리케이션(2350)을 이용하여 이미지(2340)를 자유롭게 편집할 수 있다. 전자 장치(100)의 사용자가 친구(2320)를 선택한 채로, 스타일러스 펜(101)의 제2 버튼(103)을 누르는 경우, 편집 어플리케이션(2350)이 실행될 수 있다. 전자 장치(100)의 사용자는 편집 어플리케이션(2350)에서 스타일러스 펜(101)을 이용하여 자유롭게 이미지(2340)를 편집할 수 있다. 이때, 편집은 이미지(2340) 주변으로 다른 이미지 추가, 스타일러스 펜(101)을 이용한 손글씨 추가, 아이콘 추가, 스티커 추가 등을 포함할 수 있다. According to an embodiment of the present disclosure, the user of the
도 24 및 도 25는 본 개시의 일 실시 예에 따른 전자 장치를 설명하기 위한 블록 구성도이다.24 and 25 are block diagrams for explaining an electronic device according to an embodiment of the present disclosure.
도 24에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(100)는, 디스플레이(2521), 카메라(2551), 메모리(2560), 프로세서(2510)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 장치(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 전자 장치(100)는 구현될 수 있다.24 , the
예를 들어, 도25에 도시된 바와 같이, 일 실시 예에 따른 전자 장치(100)는, 프로세서(2510), 출력부(2520), 통신부(2530), 사용자 입력부(2540), A/V 입력부(2550), 메모리(2560)를 포함할 수 있다.For example, as shown in FIG. 25 , the
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.
출력부(2520)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(2521), 음향 출력부(2522), 진동 모터(2523) 등이 포함될 수 있다. The
음향 출력부(2522)는 통신부(2530)로부터 수신되거나 메모리(2560)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(2522)는 전자 장치(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(2522)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
진동 모터(2523)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(2523)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(2523)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다. 진동 모터(2523)는, 사용자로부터 제1 입력을 수신하여 특정 피사체를 오브젝트로 식별한 경우, 진동 신호를 출력할 수도 있다. The
출력부(2520)는 카메라(2551)를 통해 인식되는 피사체를 포함하는 프리뷰 이미지를 표시할 수 있다. 출력부(2520)는 프리뷰 이미지 내에 포커스 표시를 제공할 수 있다. The
출력부(2520)는 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수 있다. 예를 들어, 전자 장치(100)의 사용자가 스마트 태그를 착용한 강아지를 촬영한 경우, 강아지와 관련된 정보를 표시할 수 있다.The
출력부(2520)는 공유 기능을 지원하는 복수의 어플리케이션에 대한 정보를 제공할 수 있다.The
프로세서(2510)는, 통상적으로 전자 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(2510)는, 메모리(2560)에 저장된 프로그램들을 실행함으로써, 출력부(2520), 통신부(2530), 사용자 입력부(2540), A/V 입력부(2550), 메모리(2560) 등을 전반적으로 제어할 수 있다.The
일 실시예에 의하면, 프로세서(2510)는 학습 네트워크 모델을 생성하기 위한 AI 프로세서를 포함할 수 있으나, 이에 한정되는 것은 아니다. 일 실시예에 의하면, AI 프로세서는 프로세서(2510)와 별도의 칩으로 구현될 수도 있다. According to an embodiment, the
프로세서(2510)는 카메라를 통해 획득되는 프리뷰 이미지를 디스플레이에 표시할 수 있다. 프로세서(2510)는 프리뷰 이미지 내에서 피사체를 식별하고, 식별된 피사체 위에 포커스 표시를 할 수 있다. 프로세서(2510)는 프리뷰 이미지에 피사체와 관련된 정보를 함께 표시할 수도 있다.The
프로세서(2510)는 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고, 제1 입력에 기초하여 프리뷰 이미지 내에서 관심 영역과 관련된 오브젝트를 식별할 수 있다. 프로세서(2510)는 관심 영역의 소정 비율 이상의 영역과 중첩되는 피사체를 오브젝트로 식별할 수 있다. 프로세서(2510)는 프리뷰 이미지 내에 오브젝트에 대한 식별 표시를 할 수 있다.The
프로세서(2510)는 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하고, 제2 입력에 기초하여 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다. 프로세서(2510)는 제2 입력에 대응하여 복수의 어플리케이션의 아이콘들을 표시할 수 있다. 프로세서(2510)는 표시된 아이콘들 중 특정 어플리케이션의 아이콘으로 오브젝트를 터치한 채 드래그하는 입력에 기초하여, 오브젝트를 외부 장치에 전송할 수 있다. 프로세서(2510)는 오브젝트의 이미지와 함께 오브젝트와 관련된 정보를 외부 장치로 전송할 수 있다.The
통신부(2530)는, 전자 장치(100)와 서버 장치(200), 전자 장치(100)와 외부 전자 장치(300) 또는 전자 장치(100)와 피사체에 대한 정보를 전송할 수 있는 장치 간의 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(2530)는, 근거리 통신부(2531), 이동 통신부(2532), 방송 수신부(2533)를 포함할 수 있다.The
근거리 통신부(short-range wireless communication unit)(2531)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. Short-range
이동 통신부(2532)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(2533)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 전자 장치(100)가 방송 수신부(2533)를 포함하지 않을 수도 있다.The
일 실시 예에 의하면, 통신부(2530)는, 오브젝트의 이미지 및 오브젝트와 관련된 정보를 외부 장치(200, 300)에 전송할 수 있다. 통신부(2530)는, 오브젝트와 관련된 정보를 외부 장치(예컨대, 스마트 태그)로부터 수신할 수 있다. 통신부(2530)는 오브젝트의 이미지를 SNS 서버에 업로드하거나, SNS 서버로부터 이미지를 다운로드할 수 있다.According to an embodiment, the
A/V(Audio/Video) 입력부(2550)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(2551), 마이크로폰(2552) 등이 포함될 수 있다. 카메라(2551)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(2510) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video)
카메라(2551)에서 처리된 화상 프레임은 메모리(2560)에 저장되거나 통신부(2530)를 통하여 외부로 전송될 수 있다. The image frame processed by the
일 실시 예에 의하면, 카메라(2551)는 일반 카메라, 망원 카메라, 광각 카메라 중 적어도 하나일 수 있으나, 이에 한정되는 것은 아니다.According to an embodiment, the
마이크로폰(2552)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(2552)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(2552)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The
사용자 입력부(2540)는, 사용자가 전자 장치(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(2540)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The
메모리(2560)는 피사체 추천 모듈(2561), 친밀도 판단 모듈(2562), 오브젝트 매니저 모듈(2563)을 포함할 수 있으며, 오브젝트 매니저 모듈(2563)은 오브젝트 결정 모듈(2564), 오브젝트 분리 모듈(2565), 오브젝트 공유 모듈(2566)을 포함할 수 있다.The
일 실시 예에 따르면, 메모리(2563)에 포함되는 구성 요소들(예: 피사체 추천 모듈(2561), 친밀도 판단 모듈(2562), 오브젝트 결정 모듈(2564), 오브젝트 분리 모듈(2565), 및/또는 오브젝트 공유 모듈(2566))은 소프트웨어 구조 이외에, 추가적으로 또는 대체적으로 하드웨어 구조(또는 하드웨어 모듈(예: 회로(circuitry)))로서 프로세서(2510)에 포함될 수 있다.According to an embodiment, components included in the memory 2563 (eg, a
피사체 추천 모듈(2561)은 전자 장치(100)의 카메라가 인텔리전트(Intelligent) 기능을 실행하여 프리뷰 이미지(450) 내에서 피사체들을 인식하고, 인식된 피사체에 추천 포커스 표시를 하기 위한 인스트럭션들을 저장할 수 있다.The
친밀도 판단 모듈(2562)은 전자 장치(100)가 오브젝트와 관련된 장치로부터 오브젝트와 관련된 정보를 획득할 때, 전자 장치(100)와 오브젝트와 관련된 장치의 친밀도에 기초하여 정보를 획득하는 정도를 결정하기 위하여, 전자 장치(100)와 오브젝트와 관련된 장치와의 친밀도를 판단하기 위한 인스트럭션들을 저장할 수 있다.The
오브젝트 결정 모듈(2564)은 제1 입력에 따른 관심 영역에서 특정 피사체가 차지하는 비율이 소정 비율 이상인 경우, 특정 피사체를 오브젝트로 결정하기 위한 인스트럭션들을 저장할 수 있다.The
오브젝트 분리 모듈(2565)은 프리뷰 이미지 내에서 결정된 오브젝트를 배경과 분리하고, 프리뷰 이미지 내에서 분리된 오브젝트에 대한 식별 표시를 하기 위한 인스트럭션들을 저장할 수 있다.The
오브젝트 공유 모듈(2566)은 사용자에 의해서 선택된 공유 어플리케이션을 통해서 외부 장치에 오브젝트의 이미지 또는 오브젝트의 이미지 및 오브젝트와 관련된 정보를 공유하기 위한 인스트럭션들을 저장할 수 있다.The
메모리(2560)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
본 개시에 따른 인공지능과 관련된 기능은 프로세서와 메모리를 통해 동작된다. 프로세서는 하나 또는 복수의 프로세서로 구성될 수 있다. 이때, 하나 또는 복수의 프로세서는 CPU, AP, DSP(Digital Signal Processor) 등과 같은 범용 프로세서, GPU, VPU(Vision Processing Unit)와 같은 그래픽 전용 프로세서 또는 NPU와 같은 인공지능 전용 프로세서일 수 있다. 하나 또는 복수의 프로세서는, 메모리에 저장된 기 정의된 동작 규칙 또는 인공지능 모델에 따라, 입력 데이터를 처리하도록 제어한다. 또는, 하나 또는 복수의 프로세서가 인공지능 전용 프로세서인 경우, 인공지능 전용 프로세서는, 특정 인공지능 모델의 처리에 특화된 하드웨어 구조로 설계될 수 있다. Functions related to artificial intelligence according to the present disclosure are operated through a processor and a memory. The processor may consist of one or a plurality of processors. In this case, the one or more processors may be a general-purpose processor such as a CPU, an AP, a digital signal processor (DSP), or the like, a graphics-only processor such as a GPU, a VPU (Vision Processing Unit), or an artificial intelligence-only processor such as an NPU. One or a plurality of processors control to process input data according to a predefined operation rule or artificial intelligence model stored in the memory. Alternatively, when one or more processors are AI-only processors, the AI-only processor may be designed with a hardware structure specialized for processing a specific AI model.
기 정의된 동작 규칙 또는 인공지능 모델은 학습을 통해 만들어진 것을 특징으로 한다. 여기서, 학습을 통해 만들어진다는 것은, 기본 인공지능 모델이 학습 알고리즘에 의하여 다수의 학습 데이터들을 이용하여 학습됨으로써, 원하는 특성(또는, 목적)을 수행하도록 설정된 기 정의된 동작 규칙 또는 인공지능 모델이 만들어짐을 의미한다. 이러한 학습은 본 개시에 따른 인공지능이 수행되는 기기 자체에서 이루어질 수도 있고, 별도의 서버 및/또는 시스템을 통해 이루어 질 수도 있다. 학습 알고리즘의 예로는, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)이 있으나, 전술한 예에 한정되지 않는다.The predefined action rule or artificial intelligence model is characterized in that it is created through learning. Here, being made through learning means that a basic artificial intelligence model is learned using a plurality of learning data by a learning algorithm, so that a predefined action rule or artificial intelligence model set to perform a desired characteristic (or purpose) is created means burden. Such learning may be performed in the device itself on which artificial intelligence according to the present disclosure is performed, or may be performed through a separate server and/or system. Examples of the learning algorithm include, but are not limited to, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning.
인공지능 모델은, 복수의 신경망 레이어들로 구성될 수 있다. 복수의 신경망 레이어들 각각은 복수의 가중치들(weight values)을 갖고 있으며, 이전(previous) 레이어의 연산 결과와 복수의 가중치들 간의 연산을 통해 신경망 연산을 수행한다. 복수의 신경망 레이어들이 갖고 있는 복수의 가중치들은 인공지능 모델의 학습 결과에 의해 최적화될 수 있다. 예를 들어, 학습 과정 동안 인공지능 모델에서 획득한 로스(loss) 값 또는 코스트(cost) 값이 감소 또는 최소화되도록 복수의 가중치들이 갱신될 수 있다. 인공 신경망은 심층 신경망(DNN:Deep Neural Network)를 포함할 수 있으며, 예를 들어, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 또는 심층 Q-네트워크 (Deep Q-Networks) 등이 있으나, 전술한 예에 한정되지 않는다.The artificial intelligence model may be composed of a plurality of neural network layers. Each of the plurality of neural network layers has a plurality of weight values, and a neural network operation is performed through an operation between an operation result of a previous layer and a plurality of weights. The plurality of weights of the plurality of neural network layers may be optimized by the learning result of the artificial intelligence model. For example, a plurality of weights may be updated so that a loss value or a cost value obtained from the artificial intelligence model during the learning process is reduced or minimized. The artificial neural network may include a deep neural network (DNN), for example, a Convolutional Neural Network (CNN), a Deep Neural Network (DNN), a Recurrent Neural Network (RNN), a Restricted Boltzmann Machine (RBM), There may be a Deep Belief Network (DBN), a Bidirectional Recurrent Deep Neural Network (BRDNN), or a Deep Q-Networks, but is not limited to the above-described example.
도 26은 본 개시의 일 실시 예에 따른 메모리에 저장되는 소프트웨어 모듈을 설명하기 위한 도면이다.26 is a diagram for describing a software module stored in a memory according to an embodiment of the present disclosure.
도 26을 참조하면, 본 개시의 일 실시 예에 따른 시스템은 어플리케이션 계층(2610), 프레임워크 계층(2620), 하드웨어 추상화 계층(2630), 커널 계층(2640), 하드웨어 계층(2650)으로 구성될 수 있다. 다만, 이에 한정되지 않으며, 전자 장치(100)가 포함하는 플랫폼에 따라 도시된 구성 중 적어도 일부는 변경될 수 있다.Referring to FIG. 26 , the system according to an embodiment of the present disclosure includes an
본 개시의 일 실시 예에 따른 어플리케이션 계층(2610)은 어플리케이션들(2611) 및 시스템 유저 인터페이스(2612)를 포함할 수 있다.The
본 개시의 일 실시 예에 따른 프레임 워크 계층(2620)은 윈도우 매니저(2621), 오브젝트 매니저 모듈(2563), 뷰 시스템(2622), 액티비티 매니저(2623), 센서 매니저(2624), 스타일러스 펜 동작 감지 매니저(2625)를 포함할 수 있다. The
일 실시 예에 따른 윈도우 매니저(2621)는 센서 매니저(2624)를 통해 전자 장치(100)의 상태 변경이 식별되면, 전자 장치의 변경된 상태에 대응되는 정보를 어플리케이션들(2611)에 전달할 수 있다. 일 실시 예에 따른 뷰 시스템(2622)은 전자 장치(100)의 디스플레이에 적어도 하나의 레이어를 표시할 수 있다. 일 실시 예에 따른 오브젝트 매니저 모듈(2563)은 프리뷰 이미지 내의 피사체들 중 오브젝트를 결정하고, 결정된 오브젝트를 분리 및 공유할 수 있다.When a state change of the
본 개시의 일 실시 예에 따른 하드웨어 추상화 계층(2630)은 이벤트 허브(2631) 및 서비스 플링거(2632)를 포함할 수 있다. 일 실시 예에 따른 하드웨어 추상화 계층(2630)은 하드웨어 계층에 포함된 복수의 하드웨어 모듈과 전자 장치(100)의 소프트웨어 사이의 추상화된 계층을 의미할 수 있다.The
본 개시의 일 실시 예에 따른 커널 계층(2640)은 센서 드라이버(2641), 블루투스 컨트롤러(2642), 디스플레이 컨트롤러(2643)를 포함할 수 있다. 일 실시 예에 따른 커널 계층(2640)은 전자 장치(100)에 포함된 다양한 하드웨어 모듈을 제어하기 위한 다양한 드라이버를 포함할 수 있다. The
본 개시의 일 실시 예에 따른 하드웨어 계층(2650)은 센서 컨트롤러(2651) 및 디스플레이 패널(2642)을 포함할 수 있다. 일 실시 예에 따른 하드웨어 계층(2650)은 센서 컨트롤러(2651)에 기초하여 전자 장치(100)의 상태 변경을 식별할 수 있다.The
본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트를 촬영한 후 캡쳐하여 배경을 제거하는 과정을 거치지 않고도, 배경이 제거된 오브젝트 이미지를 곧바로 외부 장치로 전송할 수 있다. 특히, 본 개시의 일 실시 예에 의하면, 전자 장치(100)는 오브젝트의 이미지와 오브젝트와 관련된 정보를 동시에 전송함으로써, 오브젝트와 관련된 정보를 전송하는 추가적인 동작이 필요하지 않을 수 있다.According to an embodiment of the present disclosure, the
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' is a tangible device and only means that it does not contain a signal (eg, electromagnetic wave). It does not distinguish the case where it is stored as For example, the 'non-transitory storage medium' may include a buffer in which data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product). Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones). In the case of online distribution, at least a portion of the computer program product (eg, a downloadable app) is stored at least in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or a relay server. It may be temporarily stored or temporarily created.
이상에서 본 개시의 실시 예에 대하여 상세하게 설명하였지만 본 개시의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 개시의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 개시의 권리범위에 속한다.Although the embodiments of the present disclosure have been described in detail above, the scope of the present disclosure is not limited thereto, and various modifications and improved forms of the present disclosure are also provided by those skilled in the art using the basic concept of the present disclosure as defined in the following claims. belong to the scope of the right.
Claims (20)
카메라를 통해 획득되는 프리뷰 이미지를 표시하는 동작;
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작;
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작;
상기 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하는 동작; 및
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작을 포함하는, 방법.A method for an electronic device to share information with an external device, the method comprising:
displaying a preview image acquired through a camera;
receiving a first input for selecting a region of interest in the preview image;
identifying an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing an image of the object; and
and transmitting an image of the object and information related to the object to the external device based on the second input.
상기 프리뷰 이미지 내에서 상기 오브젝트를 배경으로부터 분리하는 동작을 포함하는, 방법.The method of claim 1 , wherein identifying the object related to the region of interest in the preview image comprises:
isolating the object from a background within the preview image.
제1 어플리케이션의 실행 화면을 통해 상기 프리뷰 이미지를 표시하는 동작을 포함하고,
상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작은,
상기 제1 어플리케이션과 상이한 제2 어플리케이션을 통해서 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작을 포함하는, 방법.The method of claim 1, wherein the displaying of the preview image comprises:
Displaying the preview image through the execution screen of the first application,
The operation of transmitting the image of the object and information related to the object to the external device includes:
and transmitting the image of the object and information related to the object to the external device through a second application different from the first application.
상기 제2 어플리케이션에서 지원하는 데이터 형식에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 가공하는 동작을 포함하는, 방법.The method of claim 3, wherein transmitting the image of the object and information related to the object to the external device comprises:
and processing an image of the object and information related to the object based on a data format supported by the second application.
상기 프리뷰 이미지에서 상기 오브젝트를 터치한 채 상기 제2 어플리케이션의 실행 화면으로 드래그하는 입력을 수신하는 동작을 포함하는, 방법.The method of claim 3, wherein the receiving of the second input comprises:
and receiving an input of dragging the object from the preview image to an execution screen of the second application while touching the object.
상기 프리뷰 이미지에서 상기 오브젝트가 터치됨에 따라, 데이터 공유 기능을 지원하는 복수의 어플리케이션 각각에 대응하는 아이콘들을 표시하는 동작; 및
상기 아이콘들 중에서 상기 제2 어플리케이션에 대응하는 아이콘 위로 상기 오브젝트를 드래그하는 동작을 포함하는, 방법.The method of claim 3, wherein the receiving of the second input comprises:
displaying icons corresponding to each of a plurality of applications supporting a data sharing function as the object is touched in the preview image; and
and dragging the object onto an icon corresponding to the second application from among the icons.
상기 제2 어플리케이션의 실행 화면은 상기 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함하고,
상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는 동작은,
상기 근거리 무선 통신을 통해 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 다른 사용자의 모바일 장치로 전송하는 동작을 포함하는, 방법.6. The method of claim 5,
The execution screen of the second application includes an interface screen for short-range wireless communication with the external device,
The operation of transmitting the image of the object and information related to the object to the external device includes:
and transmitting the image of the object and information related to the object to another user's mobile device through the short-range wireless communication.
상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는 동작을 더 포함하는, 방법.The method of claim 1, wherein the method comprises:
The method further comprising receiving information related to the object from a device connected to the object.
UWB(ultra wideband) 통신을 통해 상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는, 방법.The method of claim 8, wherein the receiving of the information related to the object comprises:
A method for receiving information related to the object from a device connected to the object through ultra wideband (UWB) communication.
2차원 코드를 포함하고,
상기 전송하는 동작은,
상기 2차원 코드의 이미지 및 상기 2차원 코드와 관련된 접속 주소 정보를 전송하는 동작을 포함하는, 방법.According to claim 1, wherein the object,
contains a two-dimensional code;
The transmitting operation is
and transmitting an image of the two-dimensional code and access address information related to the two-dimensional code.
카메라;
외부 장치와 통신하는 통신부;
하나 이상의 인스트럭션들을 저장하는 메모리; 및
상기 메모리에 저장된 상기 하나 이상의 인스트럭션들을 실행하는 프로세서를 포함하고,
상기 프로세서는,
상기 카메라를 통해 획득되는 프리뷰 이미지를 상기 디스플레이에 표시하고,
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하고,
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하고,
상기 오브젝트의 이미지를 공유하기 위한 제2 입력을 수신하고,
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는, 전자 장치.display;
camera;
a communication unit communicating with an external device;
a memory storing one or more instructions; and
a processor executing the one or more instructions stored in the memory;
The processor is
displaying a preview image obtained through the camera on the display,
receiving a first input for selecting a region of interest in the preview image;
identify an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing an image of the object;
and transmitting the image of the object and information related to the object to the external device based on the second input.
상기 프리뷰 이미지 내에서 상기 오브젝트를 배경으로부터 분리하는, 전자 장치.The method of claim 11 , wherein the processor comprises:
separating the object from a background in the preview image.
제1 어플리케이션의 실행화면을 통해 상기 프리뷰 이미지를 표시하고, 상기 제1 어플리케이션과 상이한 제2 어플리케이션을 통해서 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 상기 외부 장치로 전송하는, 전자 장치.The method of claim 11 , wherein the processor comprises:
Displaying the preview image through an execution screen of a first application, and transmitting the image of the object and information related to the object to the external device through a second application different from the first application.
상기 제2 어플리케이션에서 지원하는 데이터 형식에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 가공하는, 전자 장치.14. The method of claim 13, wherein the processor,
An electronic device that processes an image of the object and information related to the object based on a data format supported by the second application.
상기 프리뷰 이미지에서 상기 오브젝트를 터치한 채 상기 제2 어플리케이션의 실행 화면으로 드래그하는 입력을 상기 제2 입력으로 수신하는, 전자 장치.14. The method of claim 13, wherein the processor,
receiving, as the second input, an input of dragging the object from the preview image to the execution screen of the second application while touching the object.
상기 프리뷰 이미지에서 상기 오브젝트가 터치됨에 따라, 데이터 공유 기능을 지원하는 복수의 어플리케이션 각각에 대응하는 아이콘들을 상기 디스플레이에 표시하고,
상기 아이콘들 중에서 상기 제2 어플리케이션에 대응하는 아이콘 위로 상기 오브젝트를 드래그하는 입력을 상기 제2 입력으로 수신하는, 전자 장치.14. The method of claim 13, wherein the processor,
As the object is touched in the preview image, icons corresponding to each of a plurality of applications supporting a data sharing function are displayed on the display,
and receiving an input of dragging the object onto an icon corresponding to the second application from among the icons as the second input.
상기 제2 어플리케이션의 실행 화면은 상기 외부 장치와 근거리 무선 통신을 하기 위한 인터페이스 화면을 포함하고,
상기 프로세서는,
상기 근거리 무선 통신을 통해 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 다른 사용자의 모바일 장치로 전송하는, 전자 장치.16. The method of claim 15,
The execution screen of the second application includes an interface screen for short-range wireless communication with the external device,
The processor is
An electronic device for transmitting an image of the object and information related to the object to another user's mobile device through the short-range wireless communication.
상기 오브젝트에 연결된 장치로부터 상기 오브젝트와 관련된 정보를 수신하는, 전자 장치.The method of claim 11, wherein the communication unit,
An electronic device that receives information related to the object from a device connected to the object.
2차원 코드를 포함하고,
상기 프로세서는,
상기 2차원 코드의 이미지 및 상기 2차원 코드와 관련된 접속 주소 정보를 전송하는, 전자 장치.The method of claim 11, wherein the object,
contains a two-dimensional code;
The processor is
An electronic device for transmitting an image of the two-dimensional code and access address information related to the two-dimensional code.
상기 프리뷰 이미지에서 관심 영역을 선택하는 제1 입력을 수신하는 동작;
상기 제1 입력에 기초하여, 상기 프리뷰 이미지 내에서 상기 관심 영역과 관련된 오브젝트를 식별하는 동작;
상기 오브젝트와 관련된 정보를 공유하기 위한 제2 입력을 수신하는 동작; 및
상기 제2 입력에 기초하여, 상기 오브젝트의 이미지 및 상기 오브젝트와 관련된 정보를 외부 장치로 전송하는 동작을 수행하도록 하는 프로그램이 저장된 컴퓨터로 읽을 수 있는 기록 매체.displaying a preview image acquired through a camera;
receiving a first input for selecting a region of interest in the preview image;
identifying an object associated with the region of interest in the preview image based on the first input;
receiving a second input for sharing information related to the object; and
A computer-readable recording medium storing a program for transmitting an image of the object and information related to the object to an external device based on the second input.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210053267A KR20220149803A (en) | 2021-04-23 | 2021-04-23 | Electronic device and method for sharing information |
PCT/KR2022/005742 WO2022225354A1 (en) | 2021-04-23 | 2022-04-21 | Electronic device for sharing information and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210053267A KR20220149803A (en) | 2021-04-23 | 2021-04-23 | Electronic device and method for sharing information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220149803A true KR20220149803A (en) | 2022-11-08 |
Family
ID=83723059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210053267A KR20220149803A (en) | 2021-04-23 | 2021-04-23 | Electronic device and method for sharing information |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220149803A (en) |
WO (1) | WO2022225354A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101788046B1 (en) * | 2010-11-03 | 2017-10-19 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
KR102091137B1 (en) * | 2012-07-17 | 2020-03-20 | 삼성전자주식회사 | System and method for rpoviding image |
US20150319217A1 (en) * | 2014-04-30 | 2015-11-05 | Motorola Mobility Llc | Sharing Visual Media |
KR102360067B1 (en) * | 2015-08-12 | 2022-02-07 | 삼성전자 주식회사 | Electronic device and method for sharing information thereof |
CN107239203A (en) * | 2016-03-29 | 2017-10-10 | 北京三星通信技术研究有限公司 | A kind of image management method and device |
-
2021
- 2021-04-23 KR KR1020210053267A patent/KR20220149803A/en unknown
-
2022
- 2022-04-21 WO PCT/KR2022/005742 patent/WO2022225354A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022225354A1 (en) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10951813B2 (en) | Method and system for providing recommendation information related to photography | |
KR20160054392A (en) | Electronic apparatus and operation method of the same | |
US20200412864A1 (en) | Modular camera interface | |
US20220197393A1 (en) | Gesture control on an eyewear device | |
KR20180109499A (en) | Method and apparatus for providng response to user's voice input | |
US20220375137A1 (en) | Presenting shortcuts based on a scan operation within a messaging system | |
KR20230119005A (en) | Gesture control on eyewear devices | |
US20240031782A1 (en) | Non-textual communication and user states management | |
US20220206582A1 (en) | Media content items with haptic feedback augmentations | |
US20220317773A1 (en) | Real-time communication interface with haptic and audio feedback response | |
US11983462B2 (en) | Conversation guided augmented reality experience | |
KR20240027047A (en) | User interface to present functions applicable to the camera | |
EP4341805A1 (en) | Combining functions into shortcuts within messaging system | |
KR20220149803A (en) | Electronic device and method for sharing information | |
US20230393730A1 (en) | User interface including multiple interaction zones | |
US11995757B2 (en) | Customized animation from video | |
US11825276B2 (en) | Selector input device to transmit audio signals | |
US11922587B2 (en) | Dynamic augmented reality experience | |
US20220210336A1 (en) | Selector input device to transmit media content items | |
US20230394770A1 (en) | Input modalities for ar wearable devices | |
US20230376175A1 (en) | Facilitating interactions based on user access patterns | |
US20230138677A1 (en) | Customized animation from video | |
US20220210370A1 (en) | Real-time video communication interface with haptic feedback response | |
US20240163489A1 (en) | Navigating previously captured images and ar experiences | |
KR20230112723A (en) | E-Trading Enabled Augmented Reality Experience |