KR20240054140A - Electronic apparatus, and method of operating the electronic apparatus - Google Patents

Electronic apparatus, and method of operating the electronic apparatus Download PDF

Info

Publication number
KR20240054140A
KR20240054140A KR1020230010227A KR20230010227A KR20240054140A KR 20240054140 A KR20240054140 A KR 20240054140A KR 1020230010227 A KR1020230010227 A KR 1020230010227A KR 20230010227 A KR20230010227 A KR 20230010227A KR 20240054140 A KR20240054140 A KR 20240054140A
Authority
KR
South Korea
Prior art keywords
electronic device
gesture
capture
capture mode
virtual space
Prior art date
Application number
KR1020230010227A
Other languages
Korean (ko)
Inventor
구본석
김영태
소병석
이영철
이원희
이기성
장용석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/012088 priority Critical patent/WO2024085397A1/en
Publication of KR20240054140A publication Critical patent/KR20240054140A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치 및 전자 장치의 동작 방법이 제공된다. 전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 가상 공간을 표시하도록 상기 디스플레이를 제어하고, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하고, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하고, 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성한다. An electronic device and a method of operating the electronic device are provided. The electronic device includes a display, memory storing one or more instructions, and at least one processor. The at least one processor controls the display to display a virtual space by executing the one or more instructions, and determines an object to be captured in the virtual space based on a first gesture for capturing the virtual space. And, based on the second gesture for selecting the capture mode, the capture mode is determined, and a capture image capturing the virtual space is generated according to the determined capture mode.

Figure P1020230010227
Figure P1020230010227

Description

전자 장치 및 전자 장치의 동작 방법{ELECTRONIC APPARATUS, AND METHOD OF OPERATING THE ELECTRONIC APPARATUS}Electronic device and method of operating the electronic device {ELECTRONIC APPARATUS, AND METHOD OF OPERATING THE ELECTRONIC APPARATUS}

다양한 실시예들은 전자 장치 및 전자 장치의 동작 방법에 관한 것으로, 보다 구체적으로는 가상 공간을 캡쳐하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.Various embodiments relate to an electronic device and a method of operating the electronic device, and more specifically, to an electronic device that captures a virtual space and a method of operating the electronic device.

최근에는 사용자에게 현실 공간과 유사한 가상 공간에서 콘텐츠를 체험하도록 제공하는 차세대 미디어 환경에 대한 관심이 확대되고 있다. 특히, 가상 공간을 사용자에게 제공하는 대표적인 서비스로서 메타버스(metaverse)가 각광받고 있다. 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 3차원 가상 세계를 의미하며, 이러한 메타버스의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR) 기술이다. 가상 공간을 구현하는 방식은 다양하지만, 공통적으로 가상의 3차원 이미지를 사용하여 현실 공간의 사용자와 실시간으로 상호작용한다는 특징을 가진다. Recently, interest in next-generation media environments that provide users with the ability to experience content in a virtual space similar to real space is growing. In particular, metaverse is in the spotlight as a representative service that provides virtual space to users. Metaverse is a compound word of meta, meaning processing and abstraction, and universe, meaning the real world, and means a three-dimensional virtual world. The core technologies of this metaverse are virtual reality (VR), It is an extended reality (XR) technology that encompasses augmented reality (AR) and mixed reality (MR). There are various ways to implement virtual space, but they have in common the characteristic of using virtual 3D images to interact with users in real space in real time.

가상 공간 화면을 표시하여 사용자에게 가장 공간 콘텐츠를 즐길 수 있도록 하는 데에 전자 장치가 사용될 수 있다. 특히, 전자 장치를 이용하여 체험한 가상 공간에서의 경험을 타인과 공유하거나 기록하고 싶은 경우가 있다. 이 경우, 가상 공간에서 사용자가 바라보는 이미지를 단순한 2D 이미지로 캡쳐할 경우, 사용자가 경험한 다양한 시야와 감정을 표현하는데 한계가 있다. An electronic device may be used to display a virtual space screen so that the user can enjoy the most spatial content. In particular, there are cases where you want to share or record your experience in a virtual space using an electronic device with others. In this case, when the image the user sees in a virtual space is captured as a simple 2D image, there are limitations in expressing the various views and emotions experienced by the user.

본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 가상 공간을 표시하도록 상기 디스플레이를 제어한다. 상기 적어도 하나의 프로세서는, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정한다. 상기 적어도 하나의 프로세서는, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정한다. 상기 적어도 하나의 프로세서는, 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성한다. An electronic device according to an embodiment of the present disclosure includes a display, a memory storing one or more instructions, and at least one processor. The at least one processor controls the display to display a virtual space by executing the one or more instructions. The at least one processor determines an object to be captured in the virtual space based on a first gesture for capturing the virtual space. The at least one processor determines the capture mode based on a second gesture for selecting the capture mode. The at least one processor generates a capture image capturing the virtual space according to the determined capture mode.

본 개시의 일 실시예에 따른전자 장치의 동작 방법은 가상 공간을 표시하도록 디스플레이를 제어하는 단계, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계, 및 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함한다. A method of operating an electronic device according to an embodiment of the present disclosure includes controlling a display to display a virtual space, and determining an object to be captured in the virtual space based on a first gesture for capturing the virtual space. A step of determining the capture mode based on a second gesture for selecting a capture mode, and generating a capture image capturing the virtual space according to the determined capture mode.

도 1은 일 실시예에 따른 전자 장치의 캡쳐 서비스를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 4는 일 실시예에 따른 캡쳐 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따라 캡쳐 서비스를 개시하는 전자 장치의 동작을 나타내는 도면이다.
도 6은 일 실시예에 따라 캡쳐 모드를 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 7은 일 실시예에 따른 캡쳐 모드 중 다시점 캡쳐 모드(multi-view capture mode)의 종류를 나타내는 도면이다.
도 8은 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 9는 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 10은 일 실시예에 따라 전자 장치의 센서를 통해 제1 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 11은 일 실시예에 따라 전자 장치의 센서를 통해 제2 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 전자 장치의 센서를 통해 제3 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.
도 14는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.
FIG. 1 is a diagram for explaining a capture service of an electronic device according to an embodiment.
Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.
Figure 4 is a flowchart showing a method of operating an electronic device that provides a capture service according to an embodiment.
FIG. 5 is a diagram illustrating the operation of an electronic device that initiates a capture service according to an embodiment.
FIG. 6 is a diagram illustrating an operation of an electronic device that determines a capture mode, according to an embodiment.
Figure 7 is a diagram showing a type of multi-view capture mode among capture modes according to an embodiment.
FIG. 8 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
FIG. 9 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
FIG. 10 is a diagram illustrating a method of detecting a first gesture through a sensor of an electronic device according to an embodiment.
FIG. 11 is a diagram illustrating a method of detecting a second gesture through a sensor of an electronic device according to an embodiment.
FIG. 12 is a diagram illustrating a method of detecting a third gesture through a sensor of an electronic device according to an embodiment.
Figure 13 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.
Figure 14 is a block diagram showing the configuration of a server according to an embodiment.

본 개시에서, "a, b 또는 c 중 적어도 하나" 표현은 " a", " b", " c", "a 및 b", "a 및 c", "b 및 c", "a, b 및 c 모두", 혹은 그 변형들을 지칭할 수 있다.In the present disclosure, the expression “at least one of a, b, or c” refers to “a”, “b”, “c”, “a and b”, “a and c”, “b and c”, “a, b and c", or variations thereof.

아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시 예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.Although it has been described in general terms currently used in consideration of the functions mentioned in the present disclosure, it may mean various other terms depending on the intention or precedents of those skilled in the art, the emergence of new technologies, etc. Therefore, the terms used in this disclosure should not be interpreted only by the name of the term, but should be interpreted based on the meaning of the term and the overall content of this disclosure.

또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. Additionally, the terms used in the present disclosure are merely used to describe specific embodiments and are not intended to limit the present disclosure.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본 명세서의 실시예에서 “사용자”라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.In embodiments of this specification, the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings.

도 1은 일 실시예에 따른 전자 장치의 캡쳐 서비스를 설명하기 위한 도면이다. FIG. 1 is a diagram for explaining a capture service of an electronic device according to an embodiment.

도 1을 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 영상을 출력할 수 있는 전자 장치일 수 있다. 일 예에 따라 전자 장치(100)는 디스플레이를 포함하는 다양한 형태의 전자 장치로 구현될 수 있다. 전자 장치(100)는 고정형 또는 이동형일 수 있으며, 디지털 방송 수신이 가능한 디지털 TV일 수 있으나, 이에 한정되지 않는다. Referring to FIG. 1, an electronic device 100 according to an embodiment of the present disclosure may be an electronic device capable of outputting images. According to one example, the electronic device 100 may be implemented as various types of electronic devices including a display. The electronic device 100 may be fixed or mobile, and may be a digital TV capable of receiving digital broadcasting, but is not limited thereto.

본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간을 제공할 수 있다. 가상 공간은, 실제 현실과 다른 가상 현실을 나타낸 공간으로써, 사용자는 사용자가 투영된 아바타를 통해 다양한 가상 공간을 체험할 수 있다. 가상 공간은 3차원 공간 이미지로 구현될 수 있다. 예를 들어, 전자 장치(100)는 3차원 공간 이미지로 구현된 이미지, 영상, 텍스트, 어플리케이션 등을 포함하는 콘텐츠를 제공할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may provide a virtual space. A virtual space is a space representing a virtual reality that is different from actual reality, and the user can experience various virtual spaces through the user's projected avatar. Virtual space can be implemented as a three-dimensional spatial image. For example, the electronic device 100 may provide content including images, videos, texts, applications, etc. implemented as three-dimensional spatial images.

본 개시의 일 실시예에 따른 전자 장치(100)는 데스크톱, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자 북 리더기(e-book reader), 랩톱 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 디지털 카메라, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 캠코더, 네비게이션, 웨어러블 장치(wearable device), 스마트 와치(smart watch), 홈 네트워크 시스템, 보안 시스템, 의료 장치, 헤드 마운티드 디스플레이(HMD), 반구형 디스플레이, 대형 디스플레이, 프로젝터 디스플레이(projector display) 중 적어도 하나를 포함할 수 있다.The electronic device 100 according to an embodiment of the present disclosure includes a desktop, a smart phone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Laptop personal computer, netbook computer, digital camera, Personal Digital Assistants (PDA), Portable Multimedia Player (PMP), camcorder, navigation, wearable device, smart watch, It may include at least one of a home network system, a security system, a medical device, a head mounted display (HMD), a hemispherical display, a large display, and a projector display.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 제공할 수 있다. 본 개시의 일 실시예에 따른 캡쳐 서비스는, 사용자가 바라보는 가상 공간의 이미지를 캡쳐하거나, 캡쳐 이미지를 저장하는 서비스일 수 있다. 전자 장치(100)의 사용자는 가상 공간에서의 체험을 기록하기 위해 가상 공간의 이미지를 캡쳐할 수 있다. 이 경우, 가상 공간이 사용자 자신이 바라보는 1인칭 시점의 2차원 이미지로 캡쳐된다면, 사용자가 가상 공간에서 느꼈던 공간감 및 체험감이 그대로 기록되기 어렵다. The electronic device 100 according to an embodiment of the present disclosure may provide a capture service. The capture service according to an embodiment of the present disclosure may be a service that captures an image of a virtual space viewed by a user or stores the captured image. A user of the electronic device 100 may capture an image of a virtual space to record an experience in the virtual space. In this case, if the virtual space is captured as a two-dimensional image from the user's first-person perspective, it is difficult to record the sense of space and experience that the user felt in the virtual space.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 통해 사용자가 바라보는 가상 공간의 이미지를 2D 이미지나 단시점(single-view) 이미지 뿐만 아니라, 3D 이미지, 및 다시점(multi-view) 이미지 등으로 캡쳐할 수 있다. 이에 따라, 전자 장치(100)는 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 생성할 수 있다.The electronic device 100 according to an embodiment of the present disclosure captures images of the virtual space viewed by the user through a capture service as well as 2D images or single-view images, as well as 3D images and multi-view images. view) can be captured as an image, etc. Accordingly, the electronic device 100 can generate captured images containing various views and emotions experienced by the user in a virtual space.

본 개시의 일 실시예에 따른 캡쳐 서비스는, 사용자의 공간 상의 제스쳐(gesture), 터치(touch), 및 그 밖에 사용자의 명령에 대응한 다양한 인터랙션(interation)을 통해 실행될 수 있다. 전자 장치(100)는 사용자의 공간 상의 제스쳐, 터치 등을 통해 캡쳐 서비스를 제공할 수 있다. 전자 장치(100)는 별도의 조작 장치가 없더라도 사용자의 공간 상의 제스쳐, 터치 등을 감지함으로써, 가상 공간을 캡쳐할 수 있다. 예를 들어, 공간 상의 제스쳐는, 일정 시간 동안 동일한 지점을 가리키는 포인팅(pointing) 동작, 스와이핑(swiping) 동작, 줌-인(zoom-in) 동작, 줌-아웃(zoom-out) 동작, 드래그(drag) 동작, 핀치-인(pinch-in), 핀치-아웃(pinch-out) 동작 등을 포함할 수 있다. 본 개시에서는, 사용자의 공간 상의 제스쳐가 손 제스쳐(hand gesture)인 것으로 예시하지만, 이에 제한되지 않는다. The capture service according to an embodiment of the present disclosure may be executed through gestures, touches, and other various interactions corresponding to user commands in the user's space. The electronic device 100 may provide a capture service through gestures, touches, etc. in the user's space. The electronic device 100 can capture the virtual space by detecting the user's gestures, touches, etc. in the space even without a separate operating device. For example, gestures in space include pointing, swiping, zooming in, zooming out, and dragging, all pointing to the same point for a certain period of time. It may include (drag) motion, pinch-in, pinch-out motion, etc. In the present disclosure, the gesture in the user's space is exemplified as a hand gesture, but is not limited thereto.

본 개시의 일 실시예에 따른 캡쳐 서비스는, 캡쳐 서비스 개시(100A) 단계, 캡쳐 모드 결정(100B) 단계, 및 캡쳐 영역 결정(100C) 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 캡쳐 서비스 개시(100A) 동작, 캡쳐 모드 결정(100B) 동작, 및 캡쳐 영역 결정(100C) 동작을 수행하여, 캡쳐 이미지를 생성할 수 있다. 다만, 이에 제한되지 않고, 전자 장치(100)는 캡쳐 서비스 개시(100A) 동작 및 캡쳐 모드 결정(100B) 동작 만을 수행하여, 캡쳐 이미지를 생성할 수 있고, 캡쳐 서비스 개시(100A) 동작, 및 캡쳐 영역 결정(100C) 동작 만을 수행하여, 캡쳐 이미지를 생성할 수도 있다. The capture service according to an embodiment of the present disclosure may include a capture service initiation (100A) step, a capture mode determination (100B) step, and a capture area determination (100C) step. The electronic device 100 according to an embodiment of the present disclosure may generate a capture image by performing a capture service initiation (100A) operation, a capture mode determination (100B) operation, and a capture area determination (100C) operation. . However, without being limited thereto, the electronic device 100 may generate a capture image by performing only the capture service initiation (100A) operation and the capture mode determination (100B) operation, the capture service initiation (100A) operation, and the capture mode determination (100B) operation. A captured image may be generated by performing only the area determination (100C) operation.

먼저, 캡쳐 서비스 개시(100A) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제1 제스쳐(10)에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 가상 공간 내에 포함된 객체(50)를 포인팅하는 제1 제스쳐(10)를 감지할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)가 존재한다고 판단된 경우, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)의 포인팅 위치에 따라 캡쳐할 객체(50)를 결정할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐할 객체(50)가 결정되었음을 알리는 강조 아이콘(70)을 객체(50) 상에 표시할 수 있다. First, in the capture service initiation (100A) step, the electronic device 100 according to an embodiment of the present disclosure may initiate the capture service based on the user's first gesture 10. For example, the electronic device 100 may detect the first gesture 10 pointing to the object 50 included in the virtual space. For example, when it is determined that the first gesture 10 exists, the electronic device 100 may start a capture service. For example, the electronic device 100 may determine the object 50 to be captured according to the pointing position of the first gesture 10. For example, the electronic device 100 may display an emphasis icon 70 on the object 50 to indicate that the object 50 to be captured has been determined.

본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐(10)에 기초하여, 캡쳐 이미지(15)를 생성할 수 있다. 캡쳐 이미지(15)는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 현재 사용자가 바라보는 시점에 대한 단시점 캡쳐 모드일 수 있고, 기 설정된 캡쳐 영역은 객체(50) 주위로 미리 정해진 가상 공간의 범위일 수 있으나, 이에 제한되지 않는다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐(10)에 따른 포인팅 동작이 해제된 경우, 캡쳐 이미지(15)를 생성할 수 있다. 다만, 이에 제한되지 않는다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)에 따른 포인팅 동작이 일정 시간 동안 유지되는 경우, 캡쳐 이미지(15)를 생성할 수도 있다. 캡쳐 이미지(15)는 전자 장치(100)의 일부 영역에 표시될 수 있다. 예를 들어, 캡쳐 이미지(15)는 전자 장치(100)의 우측 상단 영역에 표시될 수 있다. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image 15 based on the first gesture 10. The captured image 15 may be a captured image according to a preset capture mode and a preset capture area. For example, the preset capture mode may be a single-view capture mode for the current user's viewing point, and the preset capture area may be a predetermined range of virtual space around the object 50, but is not limited thereto. . The electronic device 100 according to an embodiment of the present disclosure may generate a captured image 15 when the pointing operation according to the first gesture 10 is canceled. However, it is not limited to this. For example, the electronic device 100 may generate the captured image 15 when the pointing motion according to the first gesture 10 is maintained for a certain period of time. The captured image 15 may be displayed in some area of the electronic device 100. For example, the captured image 15 may be displayed in the upper right area of the electronic device 100.

그 다음, 캡쳐 모드 결정(100B) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제2 제스쳐(20)에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 일 방향으로 스와이핑하는 제2 제스쳐(20)를 감지할 수 있다. 일 방향은, 상측 방향, 하측 방향, 좌측 방향, 및 우측 방향 중 어느 하나일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(20)가 존재한다고 판단된 경우, 캡쳐 모드를 변경할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐(20)에 따라 기 설정된 캡쳐 모드에서 다른 캡쳐 모드로 변경할 수 있다. 예를 들어, 캡쳐 모드는 다시점 캡쳐 모드 및 3D 캡쳐 모드 등을 포함할 수 있다. 예를 들어, 다시점 캡쳐 모드는, 객체(50)를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 캡쳐 모드일 수 있다. 예를 들어, 3D 캡쳐 모드는, 객체(50)에 대한 3D 캡쳐 이미지를 생성하는 캡쳐 모드일 수 있다. Next, in the capture mode determination step 100B, the electronic device 100 according to an embodiment of the present disclosure may determine the capture mode based on the user's second gesture 20. For example, the electronic device 100 may detect the second gesture 20 of swiping in one direction in space. One direction may be any one of an upward direction, a downward direction, a left direction, and a right direction. The electronic device 100 according to an embodiment of the present disclosure may change the capture mode when it is determined that the second gesture 20 for selecting the capture mode exists. For example, the electronic device 100 may change from a preset capture mode to another capture mode according to the second gesture 20. For example, capture modes may include multi-view capture mode and 3D capture mode. For example, the multi-viewpoint capture mode may be a capture mode that generates capture images for a plurality of viewpoints rotated with respect to the object 50. For example, the 3D capture mode may be a capture mode that generates a 3D capture image of the object 50.

본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐(20)에 기초하여, 캡쳐 이미지(25)를 생성할 수 있다. 예를 들어, 사용자는 제2 제스쳐(20)를 통해 다시점 캡쳐 모드를 선택할 수 있고, 전자 장치(100)는 제2 제스쳐(20)를 감지함으로써, 캡쳐 모드를 다시점 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 다시점 캡쳐 모드에 따라, 객체(50)를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지(25)를 생성할 수 있다. 예를 들어, 캡쳐 이미지(25)는 객체(50)를 기준으로 90도씩 회전된 4개의 시점에 대한 캡쳐 이미지일 수 있다. The electronic device 100 according to an embodiment of the present disclosure may generate the captured image 25 based on the second gesture 20. For example, the user may select the multi-viewpoint capture mode through the second gesture 20, and the electronic device 100 may determine the capture mode as the multi-viewpoint capture mode by detecting the second gesture 20. . For example, the electronic device 100 may generate captured images 25 for a plurality of viewpoints rotated with respect to the object 50 according to a multi-viewpoint capture mode. For example, the captured image 25 may be a captured image for four viewpoints rotated by 90 degrees with respect to the object 50.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(20)가 존재하지 않는다고 판단된 경우, 캡쳐 모드를 변경하지 않고, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)가 감지되고 난 후 일정 시간동안 제2 제스쳐(20)가 감지되지 않는 경우, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. When it is determined that the second gesture 20 for selecting a capture mode does not exist, the electronic device 100 according to an embodiment of the present disclosure may determine the capture mode as a preset capture mode without changing the capture mode. there is. For example, if the second gesture 20 is not detected for a certain period of time after the first gesture 10 is detected, the electronic device 100 may determine the capture mode to be a preset capture mode. For example, the electronic device 100 may generate a captured image according to a preset capture mode.

그 다음, 캡쳐 영역 결정(100C) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제3 제스쳐(30)에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인하거나 줌-아웃 하는 제3 제스쳐(30)를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(30)가 존재한다고 판단된 경우, 캡쳐 영역을 변경할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐(30)에 따라 기 설정된 캡쳐 영역을 확장하거나, 축소할 수 있다. 예를 들어, 캡쳐 영역이 확장되는 경우, 캡쳐할 가상 공간의 범위가 확장 될 수 있다. 예를 들어, 캡쳐 영역이 축소되는 경우, 캡쳐할 가상 공간의 범위가 축소될 수 있다. Next, in the capture area determination step 100C, the electronic device 100 according to an embodiment of the present disclosure may determine the capture area based on the user's third gesture 30. For example, the electronic device 100 may detect the third gesture 30 of zooming in or out in space. The electronic device 100 according to an embodiment of the present disclosure may change the capture area when it is determined that there is a third gesture 30 that sets the capture area. For example, the electronic device 100 may expand or contract a preset capture area according to the third gesture 30. For example, when the capture area is expanded, the range of virtual space to be captured may be expanded. For example, when the capture area is reduced, the extent of the virtual space to be captured may be reduced.

본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐(30)에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 줌-인 동작을 감지함으로써, 캡쳐 영역을 확장시킬 수 있고, 확장된 캡쳐 이미지(35)를 생성할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image in which the capture area is expanded or reduced based on the third gesture 30. For example, the electronic device 100 can expand the capture area and generate the expanded capture image 35 by detecting a zoom-in operation.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(30)가 존재하지 않는다고 판단된 경우, 캡쳐 영역을 변경하지 않고, 캡쳐 영역을 기 설정된 캡쳐 영역으로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. If it is determined that the third gesture 30 for setting the capture area does not exist, the electronic device 100 according to an embodiment of the present disclosure may determine the capture area to be a preset capture area without changing the capture area. there is. For example, the electronic device 100 may generate a captured image according to a preset capture area.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 통해 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 생성할 수 있다.The electronic device 100 according to an embodiment of the present disclosure may generate captured images containing various views and emotions experienced by the user in a virtual space through a capture service.

도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다. Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.

도 2를 참조하면, 일 실시예에 따른 전자 장치(100)는 프로세서(110), 디스플레이(120), 메모리(130), 및 센서(140)를 포함할 수 있다. Referring to FIG. 2 , the electronic device 100 according to one embodiment may include a processor 110, a display 120, a memory 130, and a sensor 140.

일 실시예에 따른 디스플레이(120)는 프로세서(110)의 제어에 의해 가상 공간을 표시할 수 있다. 일 실시예에 따른 디스플레이(120)는 프로세서(110)의 제어에 의해 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 제공할 수 있다. The display 120 according to one embodiment may display a virtual space under the control of the processor 110. The display 120 according to one embodiment may provide captured images containing various views and emotions experienced by the user in a virtual space under the control of the processor 110.

일 실시예에 따른 메모리(130)는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 일 실시예에 따른 메모리(130)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(130)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(110)에 의해 실행될 수 있다.The memory 130 according to one embodiment may store various data, programs, or applications for driving and controlling the electronic device 100. A program stored in memory 130 according to one embodiment may include one or more instructions. A program (one or more instructions) or application stored in the memory 130 may be executed by the processor 110.

일 실시예에 따른 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 130 according to one embodiment may be a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (for example, SD or Memory, etc.), RAM (Random Access Memory), SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), It may include at least one type of storage medium among magnetic memory, magnetic disk, and optical disk.

일 실시예에 따른 센서(140)는 사용자의 공간 상 제스쳐, 터치 등의 동작의 유무, 위치, 및 종류 등을 감지할 수 있다. 예를 들어, 센서(140)는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서(140)는 거리 센서, 이미지 센서 등을 포함할 수 있다.The sensor 140 according to one embodiment can detect the presence, location, and type of actions such as gestures and touches in the user's space. For example, sensor 140 may include at least one sensor. For example, the sensor 140 may include a distance sensor, an image sensor, etc.

일 실시예에 따른 프로세서(110)는 전자 장치(100)의 전반적인 동작을 제어하고, 전자 장치(100)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. The processor 110 according to one embodiment controls the overall operation of the electronic device 100, controls signal flow between internal components of the electronic device 100, and performs data processing.

일 실시예에 따른 프로세서(110)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 일 실시예에 따른 프로세서(110)는 CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(110)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.The processor 110 according to one embodiment may include at least one of a Central Processing Unit (CPU), a Graphics Processing Unit (GPU), and a Video Processing Unit (VPU). Alternatively, the processor 110 according to one embodiment may be implemented in the form of a System On Chip (SoC) that integrates at least one of a CPU, GPU, and VPU. Alternatively, the processor 110 may further include a Neural Processing Unit (NPU).

일 실시예에 따른 프로세서(110)는, 메모리(130)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 전자 장치(100)의 동작들이 수행되도록 제어할 수 있다.The processor 110 according to one embodiment may control operations of the electronic device 100 to be performed by executing one or more instructions stored in the memory 130.

본 개시의 일 실시예에 따른 프로세서(110)는 가상 공간을 표시하도록 디스플레이(120)를 제어할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 캡쳐 모드를 결정할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 결정된 캡쳐 모드에 따라, 가상 공간을 캡쳐한 캡쳐 이미지를 생성할 수 있다. The processor 110 according to an embodiment of the present disclosure may control the display 120 to display a virtual space. The processor 110 according to an embodiment of the present disclosure may determine an object to be captured in the virtual space based on the first gesture for capturing the virtual space. The processor 110 according to an embodiment of the present disclosure may determine the capture mode based on the second gesture for selecting the capture mode. The processor 110 according to an embodiment of the present disclosure may generate a capture image that captures a virtual space according to the determined capture mode.

본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 객체를 포인팅하는 제1 제스쳐의 존재 여부를 판단할 수 있다. The processor 110 according to an embodiment of the present disclosure may determine whether a first gesture pointing to an object exists through at least one sensor 140.

본 개시의 일 실시예에 따른 프로세서(110)는 제1 센서를 통해 사용자 손의 위치를 판단할 수 있다. . 본 개시의 일 실시예에 따른 프로세서(110)는 제2 센서를 통해 사용자 손이 가리키는 포인팅 방향을 판단할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 사용자 손의 위치, 및 포인팅 방향에 기초하여, 사용자 손에 의해 포인팅된 가상 공간 내 객체의 위치를 판단할 수 있다.The processor 110 according to an embodiment of the present disclosure may determine the position of the user's hand through the first sensor. . The processor 110 according to an embodiment of the present disclosure may determine the pointing direction of the user's hand through the second sensor. The processor 110 according to an embodiment of the present disclosure may determine the location of an object in the virtual space pointed by the user's hand, based on the location of the user's hand and the pointing direction.

본 개시의 일 실시예에 따른 프로세서(110)는 제1 제스쳐에 기초하여, 캡쳐할 객체가 결정되었음을 알리는 강조 아이콘을 표시하도록 디스플레이(120)를 제어할 수 있다. The processor 110 according to an embodiment of the present disclosure may control the display 120 to display a highlight icon indicating that an object to be captured has been determined, based on the first gesture.

본 개시의 일 실시예에 따른 캡쳐 모드는 현재 시점에 대한 캡쳐 이미지를 생성하는 단시점 캡쳐 모드, 객체를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 다시점 캡쳐 모드, 및 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 어느 하나를 포함할 수 있다. The capture mode according to an embodiment of the present disclosure includes a single-view capture mode that generates a capture image for the current viewpoint, a multi-view capture mode that generates capture images for a plurality of viewpoints rotated with respect to the object, and a capture mode for generating a capture image for the object. It may include any one of the 3D capture modes that generate a 3D captured image.

본 개시의 일 실시예에 따른 프로세서(110)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The processor 110 according to an embodiment of the present disclosure may generate a captured image according to the determined capture mode, based on determining that the second gesture exists. The processor 110 according to an embodiment of the present disclosure may generate a capture image according to a preset capture mode based on determining that the second gesture does not exist.

본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단할 수 있다. The processor 110 according to an embodiment of the present disclosure may determine whether a second gesture exists based on the movement of the user's hand detected through at least one sensor 140.

본 개시의 일 실시예에 따른 프로세서(110)는 제1 방향으로 움직이는 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제1 방향과 반대되는 제2 방향으로 움직이는 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The processor 110 according to an embodiment of the present disclosure may generate a capture image according to the next capture mode based on the user's hand moving in the first direction. The processor 110 according to an embodiment of the present disclosure may generate a capture image according to a previous capture mode based on the user's hand moving in a second direction opposite to the first direction.

본 개시의 일 실시예에 따른 프로세서(110)는 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정할 수 있다. The processor 110 according to an embodiment of the present disclosure may determine the range of the virtual space to be captured based on the third gesture for setting the capture area.

본 개시의 일 실시예에 따른 프로세서(110)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. The processor 110 according to an embodiment of the present disclosure may generate a capture image in which the range of the virtual space to be captured is expanded or reduced based on the determination that a third gesture exists. The processor 110 according to an embodiment of the present disclosure may generate a capture image according to a preset capture area based on determining that the third gesture does not exist.

본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 감지한 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 제3 제스쳐의 존재 여부를 판단할 수 있다. The processor 110 according to an embodiment of the present disclosure is based on the user's hands zooming in or out detected through at least one sensor 140, and the third The presence or absence of a gesture can be determined.

도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다. FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.

도 3을 참조하면, 동작 S310에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 가상 공간을 표시하도록 디스플레이를 제어하는 단계를 포함할 수 있다. Referring to FIG. 3 , in operation S310, a method of operating the electronic device 100 according to an embodiment of the present disclosure may include controlling the display to display a virtual space.

동작 S320에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정하는 단계를 포함할 수 있다. In operation S320, the method of operating the electronic device 100 according to an embodiment of the present disclosure may include determining an object to be captured in the virtual space based on a first gesture for capturing the virtual space. .

동작 S330에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 캡쳐 모드를 결정하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 적어도 하나의 센서(140)를 통해 객체를 포인팅하는 제1 제스쳐의 존재 여부를 판단하는 단계를 포함할 수 있다. In operation S330, the method of operating the electronic device 100 according to an embodiment of the present disclosure may include determining a capture mode based on a second gesture for selecting the capture mode. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include determining whether a first gesture pointing to an object exists through at least one sensor 140.

본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include generating a captured image according to a determined capture mode based on determining that a second gesture exists. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include generating a capture image according to a preset capture mode based on determining that the second gesture does not exist.

본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제1 방향으로 움직이는 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계, 및 제1 방향과 반대되는 제2 방향으로 움직이는 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. A method of operating the electronic device 100 according to an embodiment of the present disclosure includes generating a capture image according to the next capture mode based on a user's hand moving in a first direction, and a second direction opposite to the first direction. It may include generating a capture image according to the previous capture mode based on the user's hand moving.

본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계를 포함할 수 있다. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include determining whether a second gesture exists based on the movement of the user's hand detected through at least one sensor 140. there is.

동작 S340에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 결정된 캡쳐 모드에 따라, 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. In operation S340, the method of operating the electronic device 100 according to an embodiment of the present disclosure may include generating a capture image that captures a virtual space according to the determined capture mode.

본 개시의 일 실시예에 따른 캡쳐 모드는, 현재 시점에 대한 캡쳐 이미지를 생성하는 단시점 캡쳐 모드, 객체를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 다시점 캡쳐 모드, 및 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 적어도 하나를 포함할 수 있다. The capture mode according to an embodiment of the present disclosure includes a single-view capture mode that generates a capture image for the current viewpoint, a multi-view capture mode that generates capture images for a plurality of viewpoints rotated with respect to the object, and It may include at least one of the 3D capture modes for generating a 3D capture image.

본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계를 더 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. The method of operating the electronic device 100 according to an embodiment of the present disclosure may further include determining the range of the virtual space to be captured based on a third gesture for setting the capture area. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include generating a capture image in which the range of the virtual space to be captured is expanded or reduced based on determining that a third gesture exists. there is. A method of operating the electronic device 100 according to an embodiment of the present disclosure may include generating a capture image according to a preset capture area based on determining that the third gesture does not exist.

도 4는 일 실시예에 따른 캡쳐 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다. Figure 4 is a flowchart showing a method of operating an electronic device that provides a capture service according to an embodiment.

도 4를 참조하면, 동작 S405에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간을 표시하도록 디스플레이를 제어할 수 있다.Referring to FIG. 4 , in operation S405, the electronic device 100 according to an embodiment of the present disclosure may control the display to display a virtual space.

동작 S410에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제1 제스쳐를 식별할 수 있다. 예를 들어, 제1 제스쳐는 공간 상에서 객체를 포인팅하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 동작 S415를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 다시 동작 S405를 수행할 수 있다. In operation S410, the electronic device 100 according to an embodiment of the present disclosure may determine whether the first gesture exists. For example, the electronic device 100 may identify the first gesture through a sensor. For example, the first gesture may be an action of pointing to an object in space. The electronic device 100 according to an embodiment of the present disclosure may perform operation S415 based on determining that the first gesture exists. For example, the electronic device 100 may perform operation S405 again based on determining that the first gesture does not exist.

동작 S415에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐의 포인팅 위치에 따라 캡쳐할 객체를 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐에 기초하여, 캡쳐 서비스가 개시되었음을 알리는 강조 아이콘을 제공할 수 있다. 또한 예를 들어, 전자 장치(100)는 제1 제스쳐에 기초하여, 결정된 객체에 대한 캡쳐 이미지를 생성할 수 있다. 캡쳐 이미지는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 단시점 캡쳐 모드일 수 있으나, 이에 제한되지 않는다. 기 설정된 캡쳐 모드는, 다시점 캡쳐 모드 및 3D 캡쳐 모드 중 어느 하나일 수도 있다. 예를 들어, 기 설정된 캡쳐 영역은 객체 주위로 정해진 가상 공간의 범위일 수 있다. In operation S415, the electronic device 100 according to an embodiment of the present disclosure may determine an object to be captured in the virtual space based on it being determined that the first gesture exists. For example, the electronic device 100 may initiate a capture service. For example, the electronic device 100 may determine an object to capture according to the pointing position of the first gesture. For example, based on the first gesture, the electronic device 100 may provide a highlight icon indicating that a capture service has started. Also, for example, the electronic device 100 may generate a captured image for the determined object based on the first gesture. The captured image may be a captured image according to a preset capture mode and a preset capture area. For example, the preset capture mode may be a single view capture mode, but is not limited thereto. The preset capture mode may be either a multi-view capture mode or a 3D capture mode. For example, a preset capture area may be a range of virtual space defined around an object.

동작 S420에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제2 제스쳐를 식별할 수 있다. 예를 들어, 제2 제스쳐는 공간 상에서 손이 일 방향으로 움직이는 동작일 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여 동작 S430 및 동작 S435를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 동작 S425를 수행할 수 있다. In operation S420, the electronic device 100 according to an embodiment of the present disclosure may determine whether a second gesture exists. For example, the electronic device 100 may identify the second gesture through a sensor. For example, the second gesture may be a movement of the hand in one direction in space. For example, the electronic device 100 may perform operations S430 and S435 based on determining that the second gesture exists. For example, the electronic device 100 may perform operation S425 based on determining that the second gesture does not exist.

동작 S425에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 기 설정된 캡쳐 모드에 따라 캡쳐 이미지 생성할 수 있다. In operation S425, the electronic device 100 according to an embodiment of the present disclosure may determine the capture mode to be a preset capture mode based on determining that the second gesture does not exist. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to a preset capture mode.

동작 S430에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐에 기초하여, 캡쳐 모드를 변경된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐에 기초하여, 캡쳐 모드를 기 설정된 캡쳐 모드에서 사용자에 의해 선택된 캡쳐 모드로 변경할 수 있다. 사용자는, 캡쳐 모드를 다른 캡쳐 모드로 변경하여 선택하거나, 다시 기 설정된 캡쳐 모드를 선택할 수도 있다. In operation S430, the electronic device 100 according to an embodiment of the present disclosure may determine a capture mode based on determining that a second gesture exists. The electronic device 100 may determine the capture mode to be a changed capture mode based on the second gesture for selecting the capture mode. For example, the electronic device 100 may change the capture mode from a preset capture mode to a capture mode selected by the user based on the second gesture. The user can select a capture mode by changing it to another capture mode or select a preset capture mode again.

동작 S435에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 결정된 캡쳐 모드에 따라 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 단시점 캡쳐 모드, 다시점 캡쳐 모드, 및 3D 캡쳐 모드 등에 따라 캡쳐 이미지를 생성할 수 있다.In operation S435, the electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to the determined capture mode. For example, the electronic device 100 may generate a captured image according to a single-view capture mode, a multi-view capture mode, and a 3D capture mode.

동작 S440에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제3 제스쳐를 식별할 수 있다. 예를 들어, 제3 제스쳐는 공간 상에서 줌-인, 줌-아웃하는 동작일 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여 동작 S450 및 동작 S455를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 동작 S445를 수행할 수 있다. In operation S440, the electronic device 100 according to an embodiment of the present disclosure may determine whether a third gesture exists. For example, the electronic device 100 may identify the third gesture through a sensor. For example, the third gesture may be an operation to zoom in and out in space. For example, the electronic device 100 may perform operations S450 and S455 based on determining that a third gesture exists. For example, the electronic device 100 may perform operation S445 based on determining that the third gesture does not exist.

동작 S445에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 캡쳐 영역을 기 설정된 캡쳐 영역으로 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 기 설정된 캡쳐 영역에 따라 캡쳐 이미지를 생성할 수 있다. In operation S445, the electronic device 100 according to an embodiment of the present disclosure may determine the capture area to be a preset capture area based on determining that the third gesture does not exist. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to a preset capture area.

동작 S450에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여 캡쳐 영역을 결정할 수 있다. 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐에 기초하여, 캡쳐 영역을 기 설정된 캡쳐 영역에서 설정된 캡쳐 영역로 변경할 수 있다. 사용자는, 캡쳐 영역를 확장시키거나 축소시킬 수 있고, 기 설정된 캡쳐 영역을 유지할 수도 있다. In operation S450, the electronic device 100 according to an embodiment of the present disclosure may determine a capture area based on determining that a third gesture exists. The electronic device 100 may determine the capture area based on the third gesture that sets the capture area. For example, the electronic device 100 may change the capture area from a preset capture area to a set capture area based on the third gesture. The user can expand or contract the capture area and maintain the preset capture area.

동작 S455에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 결정된 캡쳐 영역에 따라 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다.In operation S455, the electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to the determined capture area. For example, the electronic device 100 may generate a captured image with an expanded or reduced capture area based on the third gesture.

도 5는 일 실시예에 따라 캡쳐 서비스를 개시하는 전자 장치의 동작을 나타내는 도면이다. FIG. 5 is a diagram illustrating the operation of an electronic device that initiates a capture service according to an embodiment.

도 5를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제1 제스쳐(510)에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 가상 공간 내에 포함된 객체(550)를 포인팅하는 제1 제스쳐(510)를 감지할 수 있다. 예를 들어, 사용자는 일정 시간 동안 정지 상태를 유지하고 동일한 지점을 가리킬 수 있다. 예를 들어, 전자 장치(100)는 일정 시간 동안 정지 상태를 유지하는 사용자의 포인팅 동작을 감지한 경우, 캡쳐 서비스를 개시할 수 있다. Referring to FIG. 5 , the electronic device 100 according to an embodiment of the present disclosure may start a capture service based on the user's first gesture 510. For example, the electronic device 100 may detect a first gesture 510 pointing to an object 550 included in a virtual space. For example, the user can remain still for a certain period of time and point to the same point. For example, when the electronic device 100 detects a user's pointing motion that remains stationary for a certain period of time, the electronic device 100 may start a capture service.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스가 개시 중임을 알리는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스가 개시 중임을 알리는 강조 아이콘(560)을 표시할 수 있다. 예를 들어, 캡쳐 서비스가 개시됨에 따라, 제1 제스쳐(510)의 포인팅 위치에 존재하는 객체(550)를 결정하고, 캡쳐 이미지를 생성하는 동작에는 일정 시간이 소요될 수 있다. 전자 장치(100)는 객체(550)를 결정하고, 캡쳐 이미지를 생성하기 위한 연산을 수행하는 동안 강조 아이콘(560)을 표시할 수 있다. 예를 들어, 강조 아이콘(560)은 객체(550) 상에 존재하는 원형 아이콘일 수 있으나, 이에 제한되지 않는다. 예를 들어, 강조 아이콘(560)은 사용자에게 "캡쳐 서비스가 개시 중임"을 알리는 다양한 상태로 존재할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may provide a user interface indicating that a capture service is starting. For example, the electronic device 100 may display an emphasis icon 560 indicating that a capture service is starting. For example, as a capture service is started, determining the object 550 present at the pointing position of the first gesture 510 and generating a capture image may take a certain amount of time. The electronic device 100 may determine the object 550 and display a highlight icon 560 while performing an operation to generate a captured image. For example, the highlight icon 560 may be a circular icon existing on the object 550, but is not limited thereto. For example, the highlight icon 560 may exist in various states to inform the user that “capture service is starting.”

본 개시의 일 실시예에 따른 전자 장치(100)는 포인팅 위치에 존재하는 객체(550)를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 객체(550)가 결정되었음을 알리는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 객체(550)가 결정되었음을 알리는 강조 아이콘(570)을 표시할 수 있다. 예를 들어, 강조 아이콘(570)은 객체(550) 상에 존재하는 이중 원형 아이콘일 수 있으나, 이에 제한되지 않는다. 예를 들어, 강조 아이콘(570)은 사용자에게 "객체가 결정되었음"을 알리는 다양한 상태로 존재할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may determine the object 550 present at the pointing position. The electronic device 100 according to an embodiment of the present disclosure may provide a user interface notifying that the object 550 has been determined. For example, the electronic device 100 may display an emphasis icon 570 indicating that the object 550 has been determined. For example, the highlight icon 570 may be a double circular icon present on the object 550, but is not limited thereto. For example, highlight icon 570 may exist in various states to inform the user that “an object has been determined.”

또한, 본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간 내 객체(550)를 포함한 캡쳐 이미지(515)를 생성할 수 있다. 예를 들어, 캡쳐 이미지(515)는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 현재 사용자가 바라보는 1인칭 시점에 대한 단시점 캡쳐 모드일 수 있으나, 이에 제한되지 않는다. 예를 들어, 기 설정된 캡쳐 모드가 후술할 다시점 캡쳐 모드이거나, 3D 캡쳐 모드일 수도 있다. 또한, 예를 들어, 기 설정된 캡쳐 영역은 객체(550) 주위로 미리 정해진 가상 공간의 범위일 수 있으나, 이에 제한되지 않는다. Additionally, the electronic device 100 according to an embodiment of the present disclosure may generate a captured image 515 including an object 550 in a virtual space. For example, the captured image 515 may be a captured image according to a preset capture mode and a preset capture area. For example, the preset capture mode may be a single-view capture mode for the first-person perspective that the current user is looking at, but is not limited to this. For example, the preset capture mode may be a multi-view capture mode, which will be described later, or a 3D capture mode. Additionally, for example, the preset capture area may be a predetermined range of virtual space around the object 550, but is not limited thereto.

예를 들어, 객체(550)는 정지 상태이거나 동작 상태일 수 있다. 예를 들어, 객체(550)가 정지 상태인 경우, 캡쳐 이미지(515)는 정지 상태의 객쳬 이미지를 포함할 수 있다. 예를 들어, 객체(550)가 동작 상태인 경우, 캡쳐 이미지(515)는 제1 제스쳐(510)에 따른 포인팅 동작이 해제된 상태에서의 객체 이미지를 포함할 수 있다. 예를 들어, 객체(550)가 동작 상태인 경우, 캡쳐 이미지(515)는 제1 제스쳐(510)에 따른 포인팅 동작이 일정 시간 경과하고 난 상태에서의 객체 이미지를 포함할 수 있다. For example, object 550 may be in a stationary state or in an operating state. For example, when the object 550 is in a stationary state, the captured image 515 may include an image of the object in a stationary state. For example, when the object 550 is in an operating state, the captured image 515 may include an image of the object in a state in which the pointing operation according to the first gesture 510 is released. For example, when the object 550 is in an operating state, the captured image 515 may include an image of the object after the pointing motion according to the first gesture 510 has elapsed for a certain period of time.

본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)의 일부 영역에 캡쳐 이미지(515)를 표시할 수 있다. 예를 들어, 전자 장치(100)는 전자 장치(100)의 우측 상단 영역에 캡쳐 이미지(515)를 표시할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may display the captured image 515 in a partial area of the electronic device 100. For example, the electronic device 100 may display the captured image 515 in the upper right area of the electronic device 100.

도 6은 일 실시예에 따라 캡쳐 모드를 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 6 is a diagram illustrating an operation of an electronic device that determines a capture mode, according to an embodiment.

도 6를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제2 제스쳐(620)에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 일 방향으로 스와이핑하는 제2 제스쳐(620)를 감지할 수 있다. 일 방향은, 상측 방향, 하측 방향, 좌측 방향, 및 우측 방향 중 어느 하나일 수 있다. 예를 들어, 전자 장치(100)는 우측 방향으로 스와이핑하는 제2 제스쳐(620)를 감지할 수 있고, 캡쳐 모드를 결정할 수 있다. Referring to FIG. 6 , the electronic device 100 according to an embodiment of the present disclosure may determine a capture mode based on the user's second gesture 620. For example, the electronic device 100 may detect the second gesture 620 of swiping in one direction in space. One direction may be any one of an upward direction, a downward direction, a left direction, and a right direction. For example, the electronic device 100 can detect the second gesture 620 of swiping to the right and determine the capture mode.

예를 들어, 캡쳐 모드(601)는, 단시점 캡쳐 모드(602), 다시점 캡쳐 모드(604), 및 3D 캡쳐 모드(606)를 포함할 수 있다. For example, capture mode 601 may include a single-view capture mode 602, a multi-view capture mode 604, and a 3D capture mode 606.

예를 들어, 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)는 현재 사용자가 바라보는 1인칭 시점에 대한 2D 이미지를 가질 수 있다. 예를 들어, 현재 사용자가 객체(650)(예컨대, 새(bird))의 좌측면을 바라보고 있는 경우, 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)는 객체(650)의 좌측면에 대한 2D 이미지를 가질 수 있다. For example, the captured image 622 according to the single-view capture mode 602 may have a 2D image of the first-person perspective that the current user is looking at. For example, if the user is currently looking at the left side of the object 650 (e.g., a bird), the captured image 622 according to the single view capture mode 602 is the left side of the object 650. You can have a 2D image for .

예를 들어, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 객체(650)를 기준으로 회전된 복수의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 객체(650)를 기준으로 90도씩 회전한 4개의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 캡쳐 이미지(624)는 객체(650)의 좌측면, 정면, 후면, 및 우측면의 2D 이미지를 가질 수 있다. 본 개시에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점인 것으로 예시하였지만, 이에 제한되지 않는다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점보다 적을수도 있고, 4개의 시점보다 많을 수도 있다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)의 시점 개수는 미리 설정되거나, 사용자의 설정에 의해 변경될 수 있다. 다시점 캡쳐 모드(604)에 관해서는 도 7에서 상세히 설명한다.For example, the captured image 624 according to the multi-viewpoint capture mode 604 may have images for a plurality of viewpoints rotated with respect to the object 650. For example, the captured image 624 according to the multi-viewpoint capture mode 604 may have images for four viewpoints rotated by 90 degrees with respect to the object 650. For example, the captured image 624 may have 2D images of the left, front, back, and right sides of the object 650. In the present disclosure, the captured image 624 according to the multi-viewpoint capture mode 604 is illustrated as having four viewpoints, but is not limited thereto. The captured image 624 according to the multi-viewpoint capture mode 604 may be less than four views or may be more than four views. The number of viewpoints of the captured image 624 according to the multi-viewpoint capture mode 604 may be preset or changed according to the user's settings. The multi-view capture mode 604 will be described in detail in FIG. 7.

예를 들어, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)는 객체(650)에 대한 3D 이미지를 가질 수 있다. 예를 들어, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)는 용자가 경험한 다양한 시야가 담긴 이미지일 수 있다. For example, the captured image 626 according to the 3D capture mode 606 may have a 3D image of the object 650. For example, the captured image 626 according to the 3D capture mode 606 may be an image containing various views experienced by the user.

본 개시의 일 실시예에 따른 캡쳐 모드(601)는, 일 방향으로 스와이핑하는 동작에 의해 다음 캡쳐 모드로 변경될 수 있다. 예를 들어, 캡쳐 모드(601)는 단시점 캡쳐 모드(602)에서 다시점 캡쳐 모드(604)로 변경(도 6의 ① 참조)될 수 있고, 다시점 캡쳐 모드(604)에서 3D 캡쳐 모드(606)로 변경(도 6의 ② 참조)될 수 있고, 3D 캡쳐 모드(606)에서 단시점 캡쳐 모드(602)로 변경(도 6의 ③ 참조)될 수 있다. 또한, 도시하지는 않았으나 캡쳐 모드(601)는, 반대 방향으로 스와이핑하는 동작에 의해 이전 캡쳐 모드로 변경될 수도 있다. Capture mode 601 according to an embodiment of the present disclosure can be changed to the next capture mode by swiping in one direction. For example, the capture mode 601 can be changed from the single-view capture mode 602 to the multi-view capture mode 604 (see ① in FIG. 6), and from the multi-view capture mode 604 to the 3D capture mode ( 606) (see ② in FIG. 6), and from the 3D capture mode 606 to the single view capture mode 602 (see ③ in FIG. 6). Additionally, although not shown, the capture mode 601 may be changed to the previous capture mode by swiping in the opposite direction.

본 개시의 일 실시예에 따른 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스가 개시되고 캡쳐할 객체(650)가 결정됨에 따라 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다. 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)를 생성할 수 있다(도 6의 ① 참조). 또한, 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)를 생성할 수 있다(도 6의 ② 참조). 또한, 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다시 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다(도 6의 ③ 참조).The electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to the next capture mode based on the second gesture 620 moving in the right direction. For example, the electronic device 100 may generate a captured image 622 according to the single-view capture mode 602 as the capture service is initiated and the object 650 to be captured is determined. For example, the electronic device 100 may generate a captured image 624 according to the multi-viewpoint capture mode 604 based on the second gesture 620 moving in the right direction (see ① in FIG. 6 ). Additionally, for example, the electronic device 100 may generate a captured image 626 according to the 3D capture mode 606 based on the second gesture 620 moving in the right direction (② in FIG. 6 reference). Additionally, for example, the electronic device 100 may again generate a captured image 622 according to the single view capture mode 602 based on the second gesture 620 moving in the right direction (FIG. 6 (see ③).

또한, 본 개시의 일 실시예에 따른 전자 장치(100)는 좌측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 단시점 캡쳐 모드(602)에서 3D 캡쳐 모드(606)로 변경하거나, 3D 캡쳐 모드(606)에서 다시점 캡쳐 모드(604)로 변경하거나, 다시점 캡쳐 모드(604)에서 단시점 캡쳐 모드(602)로 변경할 수도 있다.Additionally, the electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to the previous capture mode based on the second gesture 620 moving in the left direction. For example, the electronic device 100 changes from the single-view capture mode 602 to the 3D capture mode 606, from the 3D capture mode 606 to the multi-view capture mode 604, or from the multi-view capture mode 604. It is also possible to change from 604 to single view capture mode 602.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(620)가 존재하지 않는다고 판단된 경우, 캡쳐 모드를 변경하지 않고, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(510)가 감지되고 난 후 일정 시간 동안 제2 제스쳐(620)가 감지되지 않는 경우, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 모드에 따른 캡쳐 이미지, 즉 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다. When it is determined that the second gesture 620 for selecting a capture mode does not exist, the electronic device 100 according to an embodiment of the present disclosure may determine the capture mode as a preset capture mode without changing the capture mode. there is. For example, if the second gesture 620 is not detected for a certain period of time after the first gesture 510 is detected, the electronic device 100 may determine the capture mode to be a preset capture mode. For example, the electronic device 100 may generate a capture image according to a preset capture mode, that is, a capture image 622 according to the single view capture mode 602.

도 7은 일 실시예에 따른 캡쳐 모드 중 다시점 캡쳐 모드(multi-view capture mode)의 종류를 나타내는 도면이다. Figure 7 is a diagram showing a type of multi-view capture mode among capture modes according to an embodiment.

도 7을 참조하여, 다시점 캡쳐 모드(도 6의 604)에 따른 캡쳐 이미지(624)를 예시한다. Referring to FIG. 7 , a captured image 624 according to a multi-view capture mode (604 in FIG. 6 ) is illustrated.

본 개시의 일 실시예에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지는 제1 캡쳐 이미지(701), 제2 캡쳐 이미지(702), 및 제3 캡쳐 이미지(703) 중 어느 하나일 수 있다. In one embodiment of the present disclosure, the captured image according to the multi-viewpoint capture mode 604 may be any one of the first captured image 701, the second captured image 702, and the third captured image 703. .

예를 들어, 제1 캡쳐 이미지(701)는 객체(750)를 기준으로 회전된 복수의 단시점에 대한 이미지를 가질 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 사용자의 현재 시점(710) 외에도, 가상 공간(700) 내에서 사용자에 대응한 아바타가 객체(750)를 바라보는 다양한 시점에 대한 이미지를 가질 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 객체(750)를 기준으로 90도씩 회전한 4개의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 4개의 시점은, 가상 공간(700)에서 객체(750)를 좌측면에서 바라보는 제1 시점(710), 객체(750)를 후면에서 바라보는 제1 시점(720), 객체(750)를 우측면에서 바라보는 제2 시점(730), 및 객체(750)를 정면에서 바라보는 제3 시점(740)을 포함할 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 좌측면, 정면, 후면, 및 우측면의 2D 이미지를 가질 수 있다. 제1 캡쳐 이미지(701)는 도 6의 캡쳐 이미지(624)에 대응될 수 있다.For example, the first captured image 701 may have images of a plurality of single viewpoints rotated with respect to the object 750. For example, the first captured image 701 may have images of various viewpoints from which an avatar corresponding to the user looks at the object 750 within the virtual space 700, in addition to the user's current viewpoint 710. . For example, the first captured image 701 may have images from four viewpoints rotated by 90 degrees with respect to the object 750. For example, the four viewpoints include a first viewpoint 710 looking at the object 750 from the left side in the virtual space 700, a first viewpoint 720 looking at the object 750 from the rear, and an object ( It may include a second viewpoint 730 looking at the object 750 from the right side, and a third viewpoint 740 looking at the object 750 from the front. For example, the first captured image 701 may have 2D images of the left side, front side, back side, and right side. The first captured image 701 may correspond to the captured image 624 of FIG. 6 .

본 개시에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점인 것으로 예시하였지만, 이에 제한되지 않는다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점보다 적을수도 있고, 4개의 시점보다 많을 수도 있다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)의 시점 개수는 미리 설정되거나, 사용자의 설정에 의해 변경될 수 있다.In the present disclosure, the captured image 624 according to the multi-viewpoint capture mode 604 is illustrated as having four viewpoints, but is not limited thereto. The captured image 624 according to the multi-viewpoint capture mode 604 may be less than four views or may be more than four views. The number of viewpoints of the captured image 624 according to the multi-viewpoint capture mode 604 may be set in advance or changed according to the user's settings.

예를 들어, 제2 캡쳐 이미지(702)는 객체(750)를 기준으로 회전된 복수의 단시점에 대한 이미지와 3D 이미지를 가질 수 있다. 예를 들어, 제2 캡쳐 이미지(702)는 좌측면, 정면, 및 후면에 대한 2D 이미지와 3D 이미지를 복합적으로 가질 수 있다. For example, the second captured image 702 may have images of a plurality of single viewpoints rotated with respect to the object 750 and a 3D image. For example, the second captured image 702 may have a combination of 2D images and 3D images for the left side, front, and back.

예를 들어, 제3 캡쳐 이미지(703)는 객체(750)의 특징이 반영된 시점을 우선 적으로 나타내는 이미지를 가질 수 있다. 예를 들어, 새(bird)의 경우, 일반적으로 새를 정면에서 바라볼 때 새의 특징이 가장 잘 나타난다. 전자 장치(100)는 객체(750)의 특정을 기초로, 우선 순위를 판단하고, 우선 순위에 따른 복수의 시점에 대한 이미지를 생성할 수 있다. 예를 들어, 제3 캡쳐 이미지(703)는 우선 순위대로 객체(750)의 정면, 우측면, 및 후면에 대한 이미지를 가질 수 있다. 또는, 예를 들어, 객체(750)가 건물(미도시)인 경우, 2D 이미지보다는 3D 이미지가 건물의 특징이 잘 나타나므로, 제3 캡쳐 이미지(703)는 건물의 3D 이미지, 및 정면 이미지를 가질 수 있다. 이 경우, 제3 캡쳐 이미지(703)의 첫번째 이미지는, 사용자의 현재 시점과 무관한 시점의 이미지일 수 있다. For example, the third captured image 703 may have an image that preferentially represents a viewpoint at which the characteristics of the object 750 are reflected. For example, in the case of a bird, the characteristics of the bird are generally best seen when viewed from the front. The electronic device 100 may determine the priority based on the specification of the object 750 and generate images for a plurality of viewpoints according to the priority. For example, the third captured image 703 may have images of the front, right, and back sides of the object 750 in order of priority. Or, for example, when the object 750 is a building (not shown), the 3D image shows the characteristics of the building better than the 2D image, so the third capture image 703 is a 3D image of the building and a front image. You can have it. In this case, the first image of the third captured image 703 may be an image from a viewpoint unrelated to the user's current viewpoint.

본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자가 바라보는 가상 공간의 이미지를 단순한 2D 이미지 뿐만 아니라, 다시점 이미지, 3D 이미지, 및 복합 이미지로 캡쳐할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자의 현재 시점 외에 사용자가 바라보지 않은 시점에서의 가상 공간을 이미지로 생성할 수 있으므로, 가상 공간에서 사용자가 경험한 다양한 시야와 감정을 증폭시킬 수 있다. .The electronic device 100 according to an embodiment of the present disclosure can capture an image of the virtual space viewed by the user not only as a simple 2D image, but also as a multi-viewpoint image, a 3D image, and a composite image. The electronic device 100 according to an embodiment of the present disclosure is capable of generating an image of a virtual space from a viewpoint other than the user's current viewpoint, thereby capturing various views and emotions experienced by the user in the virtual space. It can be amplified. .

도 8은 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 8 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.

도 8을 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제3 제스쳐(830)에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인(832)하거나 줌-아웃(831) 하는 제3 제스쳐(830)를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(830)가 존재한다고 판단된 경우, 캡쳐 영역을 변경할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐(830)에 따라 기 설정된 캡쳐 영역을 확장하거나, 축소할 수 있다. Referring to FIG. 8 , the electronic device 100 according to an embodiment of the present disclosure may determine a capture area based on the user's third gesture 830. For example, the electronic device 100 may detect a third gesture 830 of zooming in (832) or zooming out (831) in space. The electronic device 100 according to an embodiment of the present disclosure may change the capture area when it is determined that there is a third gesture 830 that sets the capture area. For example, the electronic device 100 may expand or reduce a preset capture area according to the third gesture 830.

예를 들어, 전자 장치(100)는 공간 상에서 줌-인(832)하는 제3 제스쳐(830)에 기초하여, 캡쳐 영역이 확장된 캡쳐 이미지(835)를 생성할 수 있다. 캡쳐 이미지(835)는 가상 공간의 범위가 확장된 캡쳐 영역을 가질 수 있다. 확장된 캡쳐 이미지(835)는 2D 캡쳐 이미지일 수 있다.For example, the electronic device 100 may generate a capture image 835 with an expanded capture area based on the third gesture 830 of zooming in 832 in space. The capture image 835 may have a capture area with an expanded range of virtual space. The extended capture image 835 may be a 2D captured image.

본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(830)가 존재하지 않는다고 판단된 경우, 캡쳐 영역을 변경하지 않고, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지(815)를 생성할 수 있다. If it is determined that the third gesture 830 for setting the capture area does not exist, the electronic device 100 according to an embodiment of the present disclosure does not change the capture area and captures the image 815 according to the preset capture area. ) can be created.

본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자가 바라보는 가상 공간의 범위를 임의로 확대하거나 축소하여 캡쳐함으로써, 가상 공간에서 사용자가 경험한 다양한 시야와 감정을 증폭시킬 수 있다. . The electronic device 100 according to an embodiment of the present disclosure can amplify the various views and emotions experienced by the user in the virtual space by arbitrarily enlarging or reducing the range of the virtual space viewed by the user and capturing it. .

도 9는 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 9 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.

도 9를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐(930)에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인(932)하는 제3 제스쳐(930)를 감지함으로써, 캡쳐 영역을 확장시킬 수 있고, 확장된 캡쳐 이미지(935)를 생성할 수 있다. 확장된 캡쳐 이미지(935)는 3D 캡쳐 이미지일 수 있다. Referring to FIG. 9 , the electronic device 100 according to an embodiment of the present disclosure may generate a captured image in which the capture area is expanded or reduced based on the third gesture 930. For example, the electronic device 100 can expand the capture area and generate an expanded capture image 935 by detecting the third gesture 930 of zooming in 932 in space. The extended capture image 935 may be a 3D captured image.

도 10은 일 실시예에 따라 전자 장치의 센서를 통해 제1 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 10 is a diagram illustrating a method of detecting a first gesture through a sensor of an electronic device according to an embodiment.

본 개시의 일 실시예에 따른 전자 장치(100)는 객체(1050)를 포인팅하는 제1 제스쳐(1010)의 존재 여부를 판단할 수 있다. 센서(140)는 객체(1050)를 포인팅하는 제1 제스쳐(1010)를 감지할 수 있다. 프로세서(110)는 센서(140)를 통해 제1 제스쳐(1010)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제1 제스쳐(1010)가 존재한다고 판단된 것에 기초하여, 캡쳐 서비스를 개시할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제1 제스쳐(1010)가 존재한다고 판단된 것에 기초하여, 가상 공간 내에서 캡쳐할 객체(1050)를 결정할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may determine whether a first gesture 1010 pointing to an object 1050 exists. The sensor 140 may detect the first gesture 1010 pointing to the object 1050. The processor 110 may determine whether the first gesture 1010 exists through the sensor 140. The electronic device 100 according to an embodiment of the present disclosure may start a capture service based on determining that the first gesture 1010 exists. The electronic device 100 according to an embodiment of the present disclosure may determine an object 1050 to be captured in the virtual space based on determining that the first gesture 1010 exists.

본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1001)의 위치 및 사용자 손(1001)과 전자 장치(100) 사이의 거리를 판단할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may determine the position of the user's hand 1001 and the distance between the user's hand 1001 and the electronic device 100 through the distance sensor 150.

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1001)의 위치를 판단할 수 있다. 거리 센서(150)는 사용자 손(1001)과 거리 센서(150) 사이의 거리를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 복수의 거리 센서(151, 152, 153)를 포함할 수 있고, 복수의 거리 센서(151, 152, 153)는 제1 거리 센서(151), 제2 거리 센서(152), 및 제3 거리 센서(153)를 포함할 수 있다. 예를 들어, 제1 거리 센서(151)는 사용자 손(1001)과 제1 거리 센서(151) 사이의 제1 거리(D1)를 감지할 수 있다. 제2 거리 센서(152)는 사용자 손(1001)과 제2 거리 센서(152) 사이의 제2 거리(D2)를 감지할 수 있다. 제3 거리 센서(153)는 사용자 손(1001)과 제3 거리 센서(153) 사이의 제3 거리(D3)를 감지할 수 있다. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the position of the user's hand 1001 through the distance sensor 150. The distance sensor 150 can detect the distance between the user's hand 1001 and the distance sensor 150. The electronic device 100 according to an embodiment of the present disclosure may include a plurality of distance sensors 151, 152, and 153, and the plurality of distance sensors 151, 152, and 153 include the first distance sensor 151. , it may include a second distance sensor 152, and a third distance sensor 153. For example, the first distance sensor 151 may detect the first distance D1 between the user's hand 1001 and the first distance sensor 151. The second distance sensor 152 may detect the second distance D2 between the user's hand 1001 and the second distance sensor 152. The third distance sensor 153 may detect the third distance D3 between the user's hand 1001 and the third distance sensor 153.

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 복수의 거리 센서(151, 152, 153)에 의해 감지된 센싱 데이터에 기초하여, 사용자 손(1001)의 위치를 판단할 수 있다. 예를 들어, 프로세서(110)는 제1 거리(D1), 제2 거리(D2), 및 제3 거리(D3)에 기초하여, 사용자 손(1001)의 위치(X, Y)를 판단할 수 있다. 여기서, 사용자 손(1001)의 위치는 객체(1050)를 포인팅하는 사용자 손끝의 위치일 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손끝의 위치인 특징점(1001)(feature point)의 위치를 감지할 수 있다. 예를 들어, 제1 제스쳐(1010)는 1개의 특징점(1001)을 가질 수 있다. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the position of the user's hand 1001 based on sensing data detected by the plurality of distance sensors 151, 152, and 153. You can. For example, the processor 110 may determine the position (X, Y) of the user's hand 1001 based on the first distance (D1), the second distance (D2), and the third distance (D3). there is. Here, the position of the user's hand 1001 may be the position of the user's fingertip pointing at the object 1050. For example, the electronic device 100 according to an embodiment of the present disclosure may detect the location of the feature point 1001, which is the location of the user's fingertip. For example, the first gesture 1010 may have one feature point 1001.

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 전자 장치(100)와 사용자 손(1001) 사이의 거리(D4)를 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 전자 장치(100)의 위치(X0, Y0)와 복수의 거리 센서(151, 152, 153)를 통해 판단한 사용자 손(1001)의 위치(X, Y)를 기초로 전자 장치(100)와 사용자 손(1001) 사이의 거리(D4)를 판단할 수 있다. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the distance D4 between the electronic device 100 and the user's hand 1001. For example, the electronic device 100 according to an embodiment of the present disclosure determines the user's hand 1001 through the positions (X0, Y0) of the electronic device 100 and a plurality of distance sensors 151, 152, and 153. ) The distance D4 between the electronic device 100 and the user's hand 1001 can be determined based on the positions (X, Y).

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 사용자 손(1001)이 가리키는 포인팅 방향(1005) 및 포인팅 위치(1004)를 판단할 수 있다. 포인팅 방향(1005)은, 사용자 손(1001)이 가리키는 방향을 의미한다. 포인팅 위치(1004)는, 사용자 손(1001)이 가리키는 위치를 의미한다. 포인팅 위치(1004)는, 전자 장치(100)에 표시된 객체(1050)의 위치와 동일할 수 있으나, 이에 제한되지 않는다. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the pointing direction 1005 and pointing position 1004 indicated by the user's hand 1001 through the image sensor 160. The pointing direction 1005 refers to the direction the user's hand 1001 points. The pointing position 1004 refers to the position pointed by the user's hand 1001. The pointing position 1004 may be the same as the position of the object 1050 displayed on the electronic device 100, but is not limited thereto.

예를 들어, 이미지 센서(160)는 사용자 손(1001)을 트래킹 할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)로부터 트래킹된 이미지에 기초하여, 사용자 손(1001)이 가리키는 포인팅 방향(1005) 및 포인팅 위치(1004)를 판단할 수 있다. For example, the image sensor 160 may track the user's hand 1001. The electronic device 100 according to an embodiment of the present disclosure may determine the pointing direction 1005 and pointing position 1004 indicated by the user's hand 1001 based on the image tracked from the image sensor 160. .

본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자 손(1001)의 위치(X, Y), 포인팅 위치(1004), 및 포인팅 방향(1005) 중 적어도 하나에 기초하여, 사용자 손(1001)에 의해 포인팅된 가상 공간 내 객체(1050)의 위치를 판단할 수 있다. The electronic device 100 according to an embodiment of the present disclosure, based on at least one of the position (X, Y) of the user's hand 1001, the pointing position 1004, and the pointing direction 1005, the user's hand ( The location of the object 1050 in the virtual space pointed by 1001 can be determined.

한편, 도 10에서 복수의 거리 센서(151, 152, 153)는 각각 전자 장치(100)의 4개의 모서리 중 3개의 모서리에 위치하는 것으로 예시하였으나, 이에 제한되지 않는다. 복수의 거리 센서(151, 152, 153)는 3개보다 많을 수 있고, 3개보다 적을 수 있다. 또한, 복수의 거리 센서(151, 152, 153)는 전자 장치(100)의 모서리가 아닌 전자 장치(100)의 내부의 어느 위치에 위치할 수 있다. 또한, 이미지 센서(160)는, 전자 장치(100)의 상단에 위치하는 것으로 예시하였으나, 이에 제한되지 않는다. Meanwhile, in FIG. 10 , the plurality of distance sensors 151, 152, and 153 are illustrated as being located at three of the four corners of the electronic device 100, but the present invention is not limited thereto. The plurality of distance sensors 151, 152, and 153 may be more than three or less than three. Additionally, the plurality of distance sensors 151, 152, and 153 may be located anywhere inside the electronic device 100, rather than at a corner of the electronic device 100. In addition, the image sensor 160 is illustrated as being located at the top of the electronic device 100, but is not limited thereto.

도 11은 일 실시예에 따라 전자 장치의 센서를 통해 제2 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram illustrating a method of detecting a second gesture through a sensor of an electronic device according to an embodiment.

본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손(1101, 1102)의 움직임에 기초하여, 제2 제스쳐(1120)의 존재 여부를 판단할 수 있다. 센서(140)는 사용자 손(1101, 1102)의 움직임 유무 및 움직임 방향을 감지할 수 있다. 프로세서(110)는 센서(140)를 통해 제2 제스쳐(1120)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제2 제스쳐(1120)가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 선택된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 이와 달리, 본 개시의 일 실시예에 따른 전자 장치(100)는, 제2 제스쳐(1120)가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The electronic device 100 according to an embodiment of the present disclosure may determine whether the second gesture 1120 exists based on the movement of the user's hands 1101 and 1102. The sensor 140 can detect whether the user's hands 1101 and 1102 are moving and the direction of movement. The processor 110 may determine whether the second gesture 1120 exists through the sensor 140. The electronic device 100 according to an embodiment of the present disclosure may determine a capture mode based on determining that the second gesture 1120 exists. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to the selected capture mode. In contrast, the electronic device 100 according to an embodiment of the present disclosure may generate a captured image according to a preset capture mode based on determining that the second gesture 1120 does not exist.

본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1101, 1102)의 위치 변화 및 사용자 손(1101, 1102)과 전자 장치(100) 사이의 거리(D5, D6) 변화를 판단할 수 있다. The electronic device 100 according to an embodiment of the present disclosure monitors the change in position of the user's hands 1101 and 1102 and the distance D5 between the user's hands 1101 and 1102 and the electronic device 100 through the distance sensor 150. , D6) Changes can be judged.

예를 들어, 제2 제스쳐(1120)는 좌측에서 우측 방향으로 스와이핑하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1101, 1102)의 제1 위치(X1, Y1)와 제2 위치(X2, Y2)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 위치(X1, Y1)에서 제2 위치(X2, Y2)로 이동하는 사용자 손(1101, 1102)의 위치 변화를 통해 스와이핑 동작을 감지할 수 있다. 이 경우, 사용자 손(1101, 1102)의 특징점은 1개일 수 있다. For example, the second gesture 1120 may be a swiping operation from left to right. The electronic device 100 according to an embodiment of the present disclosure can determine the first positions (X1, Y1) and the second positions (X2, Y2) of the user's hands (1101, 1102) through the distance sensor 150. there is. The electronic device 100 according to an embodiment of the present disclosure performs a swiping operation through a change in the position of the user's hands 1101 and 1102 moving from the first position (X1, Y1) to the second position (X2, Y2). It can be detected. In this case, the feature point of the user's hand (1101, 1102) may be one.

또는, 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)와 사용자 손(1101, 1102) 사이의 거리인, 제5 거리(D5) 및 제6 거리(D6)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제5 거리(D5)에서 제6 거리(D6)로 변경된 거리에 기초하여, 스와이핑 동작을 감지할 수 있다. Or, for example, the electronic device 100 according to an embodiment of the present disclosure may have a fifth distance D5 and a sixth distance D6, which are the distances between the electronic device 100 and the user's hands 1101 and 1102. ) can be determined. The electronic device 100 according to an embodiment of the present disclosure may detect a swiping operation based on the distance changed from the fifth distance D5 to the sixth distance D6.

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자 손(1101, 1102)의 위치 변화를 통해 제스쳐의 종류를 판단할 수 있으므로, 이미지 센서(160)를 선택적으로 비활성화시킬 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)가 제2 제스쳐(1120)를 판단하는 경우, 거리 센서(150)를 활성화하고 이미지 센서(160)를 비활성화할 수 있으므로, 제1 제스쳐 또는 제3 제스쳐를 판단하는 경우보다 저전력으로 동작할 수 있다. For example, the electronic device 100 according to an embodiment of the present disclosure can determine the type of gesture through changes in the positions of the user's hands 1101 and 1102, thereby selectively deactivating the image sensor 160. You can. When the electronic device 100 according to an embodiment of the present disclosure determines the second gesture 1120, the distance sensor 150 may be activated and the image sensor 160 may be deactivated, so that the first or third gesture It can operate with lower power than when judging gestures.

도 12는 일 실시예에 따라 전자 장치의 센서를 통해 제3 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 12 is a diagram illustrating a method of detecting a third gesture through a sensor of an electronic device according to an embodiment.

본 개시의 일 실시예에 따른 전자 장치(100)는 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 제3 제스쳐(1230)의 존재 여부를 판단할 수 있다. 센서(140)는 사용자 손들의 동작을 감지하고, 사용자 손들의 위치를 감지할 수 있다. 프로세서는 센서를 통해 제3 제스쳐(1230)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)에 기초하여, 캡쳐될 가상 공간의 범위를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 이와 달리, 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. The electronic device 100 according to an embodiment of the present disclosure determines whether the third gesture 1230 exists based on the user's hands zooming in or out. You can. The sensor 140 can detect the motion of the user's hands and the position of the user's hands. The processor may determine whether the third gesture 1230 exists through a sensor. The electronic device 100 according to an embodiment of the present disclosure may determine the range of the virtual space to be captured based on the third gesture 1230. The electronic device 100 according to an embodiment of the present disclosure may generate a captured image in which the range of the virtual space to be captured is expanded or reduced based on the determination that the third gesture 1230 exists. In contrast, the electronic device 100 according to an embodiment of the present disclosure may generate a capture image according to a preset capture area based on determining that the third gesture 1230 does not exist.

본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손의 위치 변화 및 사용자 손과 본 개시의 일 실시예에 따른 전자 장치(100) 사이의 거리 변화를 판단할 수 있다. The electronic device 100 according to an embodiment of the present disclosure determines a change in the position of the user's hand and a change in the distance between the user's hand and the electronic device 100 according to an embodiment of the present disclosure through the distance sensor 150. You can.

예를 들어, 제3 제스쳐(1230)는 두개의 손으로 줌-인하거나 줌-아웃하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손의 제3 위치(X3, Y3), 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 위치(X3, Y3), 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6)의 위치 변화를 통해 줌-인 또는 줌-아웃 동작을 감지할 수 있다. 이 경우, 사용자 손의 특징점(feature point)는 4개일 수 있다. For example, the third gesture 1230 may be an operation of zooming in or out with two hands. The electronic device 100 according to an embodiment of the present disclosure detects the third position (X3, Y3), fourth position (X4, Y4), and fifth position (X5, Y5) of the user's hand through the distance sensor 150. , and the sixth position (X6, Y6) can be determined. The electronic device 100 according to an embodiment of the present disclosure has a third position (X3, Y3), a fourth position (X4, Y4), a fifth position (X5, Y5), and a sixth position (X6, Y6). Zoom-in or zoom-out motion can be detected through changes in position. In this case, there may be four feature points of the user's hand.

또는, 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)와 사용자 손 사이의 거리를 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손의 제3 위치(X3, Y3)와 전자 장치(100) 사이의 제7 거리(D7)를 판단할 수 있다. 이와 동일하게, 본 개시의 일 실시예에 따른 전자 장치(100)는 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6) 각각과 본 개시의 일 실시예에 따른 전자 장치(100)의 거리를 판단할 수 있다. Or, for example, the electronic device 100 according to an embodiment of the present disclosure may determine the distance between the electronic device 100 and the user's hand. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the seventh distance D7 between the third position (X3, Y3) of the user's hand and the electronic device 100. Likewise, the electronic device 100 according to an embodiment of the present disclosure is configured to operate at the fourth location (X4, Y4), the fifth location (X5, Y5), and the sixth location (X6, Y6), respectively. The distance of the electronic device 100 according to one embodiment may be determined.

예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 사용자 손 동작을 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 두개의 손으로 줌-인하거나 줌-아웃하는 동작을 판단할 수 있다. For example, the electronic device 100 according to an embodiment of the present disclosure may determine the user's hand motion through the image sensor 160. For example, the electronic device 100 according to an embodiment of the present disclosure may determine a zoom-in or zoom-out operation using two hands through the image sensor 160.

도 13은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.Figure 13 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.

도 13의 전자 장치(1300)는 도 2의 전자 장치(100)의 일 예일 수 있다. 이하, 도 2에서 설명한 내용과 중복되는 설명은 생략한다.The electronic device 1300 of FIG. 13 may be an example of the electronic device 100 of FIG. 2 . Hereinafter, descriptions that overlap with those described in FIG. 2 will be omitted.

도 13를 참조하면, 전자 장치(1300)는 프로세서(1301) 및 메모리(1370)를 포함할 수 있다. 전자 장치(1300)에 포함된 프로세서(1301) 및 메모리(1370)는 도 2의 전자 장치(100)에 포함된 프로세서(110) 및 메모리(130)와 동일한 동작을 수행할 수 있다. Referring to FIG. 13, the electronic device 1300 may include a processor 1301 and a memory 1370. The processor 1301 and memory 1370 included in the electronic device 1300 may perform the same operations as the processor 110 and memory 130 included in the electronic device 100 of FIG. 2 .

일 실시예에서, 전자 장치(1300)는 프로세서(1301) 및 메모리(1370) 외에, 통신 인터페이스(1320), 센서(1330), 입/출력부(1340), 디스플레이(1350), 및 입력 인터페이스(1360)를 더 포함할 수 있다. 디스플레이(1350)는 도 2의 디스플레이(120)에 대응될 수 있다. 센서(1330)는 도 2의 센서(140)에 대응될 수 있다. In one embodiment, the electronic device 1300 includes, in addition to the processor 1301 and the memory 1370, a communication interface 1320, a sensor 1330, an input/output unit 1340, a display 1350, and an input interface ( 1360) may be further included. Display 1350 may correspond to display 120 of FIG. 2 . Sensor 1330 may correspond to sensor 140 of FIG. 2 .

일 실시예에서, 통신 인터페이스(1320)는 프로세서(1301)의 제어에 의해 전자 장치(1300)를 주변 기기나 외부 장치, 서버, 이동 단말기 등과 연결할 수 있다. 통신 인터페이스(1320)는 무선 통신을 수행할 수 있는 적어도 하나의 통신 모듈을 포함할 수 있다. 통신 인터페이스(1320)는 전자 장치(1300)의 성능 및 구조에 대응하여 무선랜 모듈, 블루투스 모듈, 유선 이더넷(Ethernet) 중 적어도 하나를 포함할 수 있다.In one embodiment, the communication interface 1320 can connect the electronic device 1300 to a peripheral device, external device, server, mobile terminal, etc. under the control of the processor 1301. The communication interface 1320 may include at least one communication module capable of performing wireless communication. The communication interface 1320 may include at least one of a wireless LAN module, a Bluetooth module, and a wired Ethernet depending on the performance and structure of the electronic device 1300.

센서(1330)는 사용자의 이미지, 또는 사용자의 인터랙션, 제스쳐, 및 터치 등을 감지하며, 거리 센서(1331), 이미지 센서(1332), 제스쳐 센서, 조도 센서 등을 포함할 수 있다. 거리 센서(1331)는 초음파 센서, IR(Infrared Radiation) 센서, TOF(Time Of Flight) 센서 등 전자 장치(100)와 사용자와의 거리를 감지하는 다양한 센서를 포함할 수 있다. 거리 센서(1331)는 사용자와의 거리를 감지하며, 센싱 데이터를 프로세서(110)로 전달할 수 있다. 이미지 센서(1332)는 카메라 등을 통해 사용자의 제스쳐를 감지하며, 수신한 영상을 전기 신호로 변환하여 프로세서(110)로 전달할 수 있다. 제스쳐 센서는 가속도 센서 또는 자이로 센서를 통해 이동 속도 또는 방향을 감지할 수 있다. 조도 센서는 주변 조도를 감지할 수 있다. The sensor 1330 detects the user's image, or the user's interaction, gesture, and touch, and may include a distance sensor 1331, an image sensor 1332, a gesture sensor, and an illumination sensor. The distance sensor 1331 may include various sensors that detect the distance between the electronic device 100 and the user, such as an ultrasonic sensor, an infrared radiation (IR) sensor, and a time of flight (TOF) sensor. The distance sensor 1331 can detect the distance from the user and transmit sensing data to the processor 110. The image sensor 1332 detects the user's gesture through a camera, etc., converts the received image into an electrical signal, and transmits it to the processor 110. The gesture sensor can detect movement speed or direction through an acceleration sensor or gyro sensor. The illuminance sensor can detect the surrounding illuminance.

입/출력부(1340)는 프로세서(1301)의 제어에 의해 외부 기기 등으로부터 비디오(예를 들어, 동적 이미지 신호나 정지 이미지 신호 등), 오디오(예를 들어, 음성 신호나, 음악 신호 등) 및 부가 정보 등을 수신할 수 있다. 입/출력부(1340)는 HDMI 포트(High-Definition Multimedia Interface port), 컴포넌트 잭(component jack), PC 포트(PC port), 및 USB 포트(USB port) 중 하나를 포함할 수 있다. The input/output unit 1340 receives video (e.g., dynamic image signals, still image signals, etc.) and audio (e.g., voice signals, music signals, etc.) from external devices under the control of the processor 1301. and additional information can be received. The input/output unit 1340 may include one of an HDMI port (High-Definition Multimedia Interface port), a component jack, a PC port, and a USB port.

디스플레이(1350)는 방송국으로부터 수신하거나 외부 서버, 또는 외부 저장 매체 등의 외부 기기로부터 수신하거나, 또는 다양한 앱, 예컨대, OTT 서비스 제공자나 메타버스 콘텐츠 제공자가 제공하는 콘텐츠를 화면에 출력할 수 있다.The display 1350 can output on the screen content received from a broadcasting station or from an external device such as an external server or external storage medium, or provided by various apps, such as an OTT service provider or a metaverse content provider.

입력 인터페이스(1360)는 전자 장치(1300)를 제어하기 위한 사용자의 입력을 수신하거나, 출력할 수 있다. 입력 인터페이스는, 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치(dome switch), 음성 인식을 위한 마이크, 모션을 센싱하는 모션 감지 센서 등을 포함하는 다양한 형태의 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다. The input interface 1360 may receive or output a user's input for controlling the electronic device 1300. The input interface includes a touch panel that detects the user's touch, a button that receives the user's push operation, a wheel that receives the user's rotation operation, a keyboard, a dome switch, and a microphone for voice recognition. , may include various types of user input devices including a motion detection sensor that senses motion, but is not limited thereto.

일 실시예에서, 메모리(1370)는 렌더링 모듈(1371), 제스쳐 판단 모듈(1372), 및 캡쳐 제어 모듈(1373)을 저장할 수 있다. In one embodiment, the memory 1370 may store a rendering module 1371, a gesture determination module 1372, and a capture control module 1373.

일 실시예에 따른 프로세서(1301)는 렌더링 모듈(1371), 제스쳐 판단 모듈(1372), 및 캡쳐 제어 모듈(1373) 각각에 저장된 하나 이상의 인스트럭션을 실행하여, 본 개시에 따른 동작을 수행할 수 있다. The processor 1301 according to an embodiment may execute one or more instructions stored in each of the rendering module 1371, the gesture determination module 1372, and the capture control module 1373 to perform operations according to the present disclosure. .

일 실시예에 따른 프로세서(1301)는 렌더링 모듈(1371)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 외부 서버 또는 메타버스 콘텐츠 제공자로부터 수신한 데이터를 기초로 가상 공간을 렌더링할 수 있다. The processor 1301 according to one embodiment may render a virtual space based on data received from an external server or metaverse content provider by executing one or more instructions stored in the rendering module 1371.

일 실시예에 따른 프로세서(1301)는 제스쳐 판단 모듈(1372)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 센서(1330)의 센싱 데이터를 기초로, 공간 상의 손 제스쳐를 식별할 수 있다. 예를 들어, 프로세서(1301)는 센서(1330)의 센싱 데이터를 기초로, 손 제스쳐의 유무, 손 제스쳐의 종류, 손 제스쳐의 위치, 방향 등을 식별할 수 있다. The processor 1301 according to one embodiment may identify a hand gesture in space based on sensing data from the sensor 1330 by executing one or more instructions stored in the gesture determination module 1372. For example, the processor 1301 may identify the presence or absence of a hand gesture, the type of hand gesture, the location and direction of the hand gesture, etc., based on the sensing data of the sensor 1330.

일 실시예에 따른 프로세서(1301)는 캡쳐 제어 모듈(1373)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 식별한 손 제스쳐의 속성에 따른 캡쳐 서비스의 동작을 수행할 수 있다. 예를 들어, 프로세서(1301)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 프로세서(1301)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 프로세서(1301)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 영역을 결정할 수 있다. The processor 1301 according to one embodiment may perform a capture service operation according to the properties of the identified hand gesture by executing one or more instructions stored in the capture control module 1373. For example, the processor 1301 may initiate a capture service based on determining that the first gesture exists. For example, the processor 1301 may determine the capture mode based on determining that a second gesture exists. For example, the processor 1301 may determine the capture area based on determining that a third gesture exists.

도 14는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다. Figure 14 is a block diagram showing the configuration of a server according to an embodiment.

도 14를 참조하면, 서버(200)는 가상 공간 콘텐츠를 생성하고, 가상 공간 콘텐츠에 다양한 클라이언트의 사용자가 접속할 수 있도록 가상 공간 콘텐츠를 제공하는 장치이다. 서버(200)는 다양한 클라이언트의 사용자를 반영한 아바타를 생성하고, 제공할 수 있다. 서버(200)는 클라이언트의 일 예시인, 전자 장치(100)에 가상 공간 콘텐츠를 제공하며, 전자 장치(100) 사용자의 입력에 대응하여, 가상 공간 내의 객체(예컨대, 아바타)의 좌표를 관리할 수 있다. 즉, 서버(200)는 현실 공간의 사용자와 가상 공간의 객체가 상호작용할 수 있도록 한다.Referring to FIG. 14, the server 200 is a device that generates virtual space content and provides virtual space content so that users of various clients can access the virtual space content. The server 200 can create and provide avatars that reflect users of various clients. The server 200 provides virtual space content to the electronic device 100, which is an example of a client, and manages the coordinates of objects (e.g., avatars) in the virtual space in response to input from the user of the electronic device 100. You can. In other words, the server 200 allows users in real space and objects in virtual space to interact.

일 실시예에 따른 서버(200)는 프로세서(210), 통신 인터페이스(220), 및 메모리(230)를 포함할 수 있다. The server 200 according to one embodiment may include a processor 210, a communication interface 220, and a memory 230.

일 실시예에 따른 통신 인터페이스(220)는 전자 장치(100)와 데이터 또는 신호를 송수신할 수 있다. 예를 들어, 통신 인터페이스(220)는 와이-파이(Wi-Fi) 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈, LAN 모듈, 이더넷(Ethernet) 모듈, 유선 통신 모듈 등을 포함할 수 있다. 이때, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.The communication interface 220 according to one embodiment can transmit and receive data or signals with the electronic device 100. For example, the communication interface 220 may include a Wi-Fi module, a Bluetooth module, an infrared communication module, a wireless communication module, a LAN module, an Ethernet module, a wired communication module, etc. At this time, each communication module may be implemented in the form of at least one hardware chip.

일 실시예에 따른 통신 인터페이스(220)는 프로세서(210)의 제어에 의해 아바타를 포함한 가상 공간을 전자 장치(100)에 전송할 수 있다. The communication interface 220 according to one embodiment may transmit a virtual space including an avatar to the electronic device 100 under the control of the processor 210.

일 실시예에 따른 프로세서(210)는 서버(200)의 전반적인 동작 및 서버(200)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.The processor 210 according to one embodiment controls the overall operation of the server 200 and signal flow between internal components of the server 200, and performs the function of processing data.

일 실시예에 따른 프로세서(210)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 실시예에 따라, CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(210)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.The processor 210 according to one embodiment may include at least one of a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), and a Video Processing Unit (VPU). Alternatively, depending on the embodiment, it may be implemented in the form of a SoC (System On Chip) integrating at least one of CPU, GPU, and VPU. Alternatively, the processor 210 may further include a Neural Processing Unit (NPU).

일 실시예에 따른 메모리(230)는 서버(200)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(230)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(230)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(210)에 의해 실행될 수 있다. 일 실시예에 따른 메모리(230)는 메타버스 가상 공간 콘텐츠를 생성하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다. 일 실시예에 따른 메모리(230)는 가상 공간 콘텐츠를 저장할 수 있다.The memory 230 according to one embodiment may store various data, programs, or applications for driving and controlling the server 200. A program stored in memory 230 may include one or more instructions. A program (one or more instructions) or application stored in the memory 230 may be executed by the processor 210. Memory 230 according to one embodiment may include one or more instructions for generating metaverse virtual space content. The memory 230 according to one embodiment may store virtual space content.

기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. A computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.

Claims (20)

디스플레이(120);
하나 이상의 인스트럭션을 저장하는 메모리(130); 및
적어도 하나의 프로세서(110)를 포함하고,
상기 적어도 하나의 프로세서(110)는, 상기 하나 이상의 인스트럭션을 실행함으로써,
가상 공간을 표시하도록 상기 디스플레이(120)를 제어하고,
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하고,
캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하고,
상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는, 전자 장치(100).
display 120;
a memory 130 that stores one or more instructions; and
Comprising at least one processor 110,
The at least one processor 110 executes the one or more instructions,
Control the display 120 to display a virtual space,
Based on the first gesture for capturing the virtual space, determine an object to capture within the virtual space,
Based on the second gesture for selecting a capture mode, determine the capture mode,
The electronic device 100 generates a capture image capturing the virtual space according to the determined capture mode.
제1 항에 있어서,
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 상기 객체를 포인팅하는 상기 제1 제스쳐의 존재 여부를 판단하는, 전자 장치(100).
According to claim 1,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
The electronic device 100 determines whether the first gesture pointing to the object exists through the at least one sensor 140.
제2 항에 있어서,
상기 적어도 하나의 센서(140)는, 제1 센서 및 제2 센서를 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 제1 센서를 통해 사용자 손의 위치를 판단하고,
상기 제2 센서를 통해 사용자 손이 가리키는 포인팅 방향을 판단하고,
상기 사용자 손의 위치, 및 상기 포인팅 방향에 기초하여, 상기 사용자 손에 의해 포인팅된 상기 가상 공간 내 상기 객체의 위치를 판단하는, 전자 장치(100).
According to clause 2,
The at least one sensor 140 includes a first sensor and a second sensor,
The at least one processor 110,
Determine the position of the user's hand through the first sensor,
Determine the pointing direction of the user's hand through the second sensor,
The electronic device 100 determines the position of the object in the virtual space pointed by the user's hand, based on the position of the user's hand and the pointing direction.
제1 항 내지 제3 항 중 어느 한 항에 있어서,
상기 적어도 하나의 프로세서(110)는,
상기 제1 제스쳐에 기초하여, 상기 캡쳐할 객체가 결정되었음을 알리는 강조 아이콘을 표시하도록 상기 디스플레이(120)를 제어하는, 전자 장치(100).
According to any one of claims 1 to 3,
The at least one processor 110,
Based on the first gesture, the electronic device 100 controls the display 120 to display a highlight icon indicating that the object to be captured has been determined.
제1 항 내지 제4 항 중 어느 한 항에 있어서,
상기 캡쳐 모드는,
현재 시점에 대한 상기 캡쳐 이미지를 생성하는 단시점 캡쳐 모드; 및
상기 객체를 기준으로 회전된 복수의 시점에 대한 상기 캡쳐 이미지를 생성하는 다시점 캡쳐 모드를 포함하는, 전자 장치(100).
According to any one of claims 1 to 4,
The capture mode is,
A single view capture mode that generates the captured image for the current view point; and
The electronic device 100 includes a multi-viewpoint capture mode that generates the captured images for a plurality of viewpoints rotated with respect to the object.
제5 항에 있어서,
상기 캡쳐 모드는,
상기 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드를 더 포함하는, 전자 장치(100).
According to clause 5,
The capture mode is,
The electronic device 100 further includes a 3D capture mode for generating a 3D capture image of the object.
제1 항 내지 제6 항 중 어느 한 항에 있어서,
상기 적어도 하나의 프로세서(110)는,
상기 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하고,
상기 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100).
The method according to any one of claims 1 to 6,
The at least one processor 110,
Based on it being determined that the second gesture exists, generating the capture image according to the determined capture mode,
The electronic device 100 generates the captured image according to a preset capture mode based on determining that the second gesture does not exist.
제1 항 내지 제7 항 중 어느 한 항에 있어서,
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는, 전자 장치(100).
The method according to any one of claims 1 to 7,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
The electronic device 100 determines whether a second gesture exists based on the movement of the user's hand detected through the at least one sensor 140.
제8 항에 있어서,
상기 적어도 하나의 프로세서(110)는,
제1 방향으로 움직이는 상기 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하고,
상기 제1 방향과 반대되는 제2 방향으로 움직이는 상기 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100).
According to clause 8,
The at least one processor 110,
Based on the user's hand moving in a first direction, generate the captured image according to the next capture mode,
The electronic device 100 generates the captured image according to a previous capture mode based on the user's hand moving in a second direction opposite to the first direction.
제1 항 내지 제9 항 중 어느 한 항에 있어서,
상기 적어도 하나의 프로세서(110)는,
캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는, 전자 장치(100).
The method according to any one of claims 1 to 9,
The at least one processor 110,
The electronic device 100 determines the range of the virtual space to be captured based on the third gesture for setting the capture area.
제10 항에 있어서,
상기 적어도 하나의 프로세서(110)는,
상기 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 상기 캡쳐 이미지를 생성하고,
상기 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100).
According to claim 10,
The at least one processor 110,
Based on the determination that the third gesture exists, generate the captured image in which the range of the virtual space to be captured is expanded or reduced,
The electronic device 100 generates the captured image according to a preset capture area based on determining that the third gesture does not exist.
제10 항에 있어서,
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 감지한 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 상기 제3 제스쳐의 존재 여부를 판단하는, 전자 장치(100).
According to claim 10,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
An electronic device ( 100).
전자 장치(100)의 동작 방법에 있어서,
가상 공간을 표시하도록 디스플레이(120)를 제어하는 단계;
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계;
캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계; 및
상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
In a method of operating the electronic device 100,
Controlling the display 120 to display a virtual space;
Based on a first gesture for capturing the virtual space, determining an object to capture within the virtual space;
determining the capture mode based on a second gesture for selecting the capture mode; and
A method of operating the electronic device 100, including generating a capture image capturing the virtual space according to the determined capture mode.
제13 항에 있어서,
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계는,
적어도 하나의 센서(140)를 통해 상기 객체를 포인팅하는 상기 제1 제스쳐의 존재 여부를 판단하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
According to claim 13,
Based on the first gesture for capturing the virtual space, determining an object to be captured in the virtual space includes:
A method of operating an electronic device 100, including determining whether the first gesture pointing to the object exists through at least one sensor 140.
제13 항 또는 제14 항에 있어서,
상기 캡쳐 모드는,
현재 시점에 대한 상기 캡쳐 이미지를 생성하는 단시점 캡쳐 모드;
상기 객체를 기준으로 회전된 복수의 시점에 대한 상기 캡쳐 이미지를 생성하는 다시점 캡쳐 모드; 및
상기 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 적어도 하나를 포함하는, 전자 장치(100)의 동작 방법.
The method of claim 13 or 14,
The capture mode is,
A single view capture mode that generates the captured image for the current view point;
a multi-viewpoint capture mode that generates the captured images for a plurality of viewpoints rotated with respect to the object; and
A method of operating the electronic device 100, including at least one of a 3D capture mode for generating a 3D capture image of the object.
제13 항 내지 제15 항 중 어느 한 항에 있어서,
상기 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계는,
상기 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
The method according to any one of claims 13 to 15,
The step of determining the capture mode based on the second gesture for selecting the capture mode includes:
based on determining that the second gesture exists, generating the captured image according to the determined capture mode; and
A method of operating the electronic device 100, including generating the captured image according to a preset capture mode based on determining that the second gesture does not exist.
제13 항 내지 제16 항 중 어느 한 항에 있어서,
적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
The method according to any one of claims 13 to 16,
A method of operating the electronic device 100, including determining whether a second gesture exists based on the movement of the user's hand detected through at least one sensor 140.
제17 항에 있어서,
상기 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계는,
제1 방향으로 움직이는 상기 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제1 방향과 반대되는 제2 방향으로 움직이는 상기 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
According to claim 17,
The step of determining whether a second gesture exists based on the movement of the user's hand detected through the at least one sensor 140 includes:
Based on the user's hand moving in a first direction, generating the captured image according to a next capture mode; and
A method of operating the electronic device 100, including generating the captured image according to a previous capture mode based on the user's hand moving in a second direction opposite to the first direction.
제13 항 내지 제18 항 중 어느 한 항에 있어서,
캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계를 더 포함하는, 전자 장치(100)의 동작 방법.
The method according to any one of claims 13 to 18,
A method of operating the electronic device 100, further comprising determining the range of the virtual space to be captured based on the third gesture for setting the capture area.
제19 항에 있어서,
상기 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계는,
상기 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법.
According to clause 19,
The step of determining the range of the virtual space to be captured based on the third gesture for setting the capture area includes:
generating the captured image in which the range of the virtual space to be captured is expanded or reduced based on determining that the third gesture exists; and
A method of operating the electronic device 100, including generating the captured image according to a preset capture area based on determining that the third gesture does not exist.
KR1020230010227A 2022-10-18 2023-01-26 Electronic apparatus, and method of operating the electronic apparatus KR20240054140A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/012088 WO2024085397A1 (en) 2022-10-18 2023-08-16 Electronic device and operation method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220134467 2022-10-18
KR20220134467 2022-10-18

Publications (1)

Publication Number Publication Date
KR20240054140A true KR20240054140A (en) 2024-04-25

Family

ID=90885376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230010227A KR20240054140A (en) 2022-10-18 2023-01-26 Electronic apparatus, and method of operating the electronic apparatus

Country Status (1)

Country Link
KR (1) KR20240054140A (en)

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
US10082886B2 (en) Automatic configuration of an input device based on contextual usage
US9911231B2 (en) Method and computing device for providing augmented reality
US11443453B2 (en) Method and device for detecting planes and/or quadtrees for use as a virtual substrate
KR102389185B1 (en) Electronic device and method for executing function using input interface displayed via at least portion of content
KR101784328B1 (en) Augmented reality surface displaying
US20180067572A1 (en) Method of controlling virtual object or view point on two dimensional interactive display
US20140053086A1 (en) Collaborative data editing and processing system
JP6048898B2 (en) Information display device, information display method, and information display program
US20150063785A1 (en) Method of overlappingly displaying visual object on video, storage medium, and electronic device
EP3764200B1 (en) Traversing photo-augmented information through depth using gesture and ui controlled occlusion planes
US9495064B2 (en) Information processing method and electronic device
US10620807B2 (en) Association of objects in a three-dimensional model with time-related metadata
US10474324B2 (en) Uninterruptable overlay on a display
KR20140081840A (en) Motion controlled list scrolling
JP4912377B2 (en) Display device, display method, and program
KR20240084532A (en) Electronic device for generating object and system
US11867495B2 (en) Electronic device for providing image data using augmented reality and control method for same
KR20240054140A (en) Electronic apparatus, and method of operating the electronic apparatus
JP2020046983A (en) Program, information processing apparatus, and method
KR20160114126A (en) Universal capture
JP7289208B2 (en) Program, Information Processing Apparatus, and Method
WO2024085397A1 (en) Electronic device and operation method thereof
US11036287B2 (en) Electronic device, control method for electronic device, and non-transitory computer readable medium
JP2022137023A (en) Program, Information Processing Apparatus, and Method