KR20240054140A - Electronic apparatus, and method of operating the electronic apparatus - Google Patents
Electronic apparatus, and method of operating the electronic apparatus Download PDFInfo
- Publication number
- KR20240054140A KR20240054140A KR1020230010227A KR20230010227A KR20240054140A KR 20240054140 A KR20240054140 A KR 20240054140A KR 1020230010227 A KR1020230010227 A KR 1020230010227A KR 20230010227 A KR20230010227 A KR 20230010227A KR 20240054140 A KR20240054140 A KR 20240054140A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- gesture
- capture
- capture mode
- virtual space
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000010586 diagram Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 12
- 230000008451 emotion Effects 0.000 description 6
- 230000000977 initiatory effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
전자 장치 및 전자 장치의 동작 방법이 제공된다. 전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 가상 공간을 표시하도록 상기 디스플레이를 제어하고, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하고, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하고, 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성한다. An electronic device and a method of operating the electronic device are provided. The electronic device includes a display, memory storing one or more instructions, and at least one processor. The at least one processor controls the display to display a virtual space by executing the one or more instructions, and determines an object to be captured in the virtual space based on a first gesture for capturing the virtual space. And, based on the second gesture for selecting the capture mode, the capture mode is determined, and a capture image capturing the virtual space is generated according to the determined capture mode.
Description
다양한 실시예들은 전자 장치 및 전자 장치의 동작 방법에 관한 것으로, 보다 구체적으로는 가상 공간을 캡쳐하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다.Various embodiments relate to an electronic device and a method of operating the electronic device, and more specifically, to an electronic device that captures a virtual space and a method of operating the electronic device.
최근에는 사용자에게 현실 공간과 유사한 가상 공간에서 콘텐츠를 체험하도록 제공하는 차세대 미디어 환경에 대한 관심이 확대되고 있다. 특히, 가상 공간을 사용자에게 제공하는 대표적인 서비스로서 메타버스(metaverse)가 각광받고 있다. 메타버스는 가공, 추상을 의미하는 메타(meta)와 현실세계를 의미하는 유니버스(universe)의 합성어로 3차원 가상 세계를 의미하며, 이러한 메타버스의 핵심기술은 가상현실(virtual reality, VR), 증강현실(augmented reality, AR) 및 혼합현실(mixed reality, MR)을 아우르는 확장현실(extended reality, XR) 기술이다. 가상 공간을 구현하는 방식은 다양하지만, 공통적으로 가상의 3차원 이미지를 사용하여 현실 공간의 사용자와 실시간으로 상호작용한다는 특징을 가진다. Recently, interest in next-generation media environments that provide users with the ability to experience content in a virtual space similar to real space is growing. In particular, metaverse is in the spotlight as a representative service that provides virtual space to users. Metaverse is a compound word of meta, meaning processing and abstraction, and universe, meaning the real world, and means a three-dimensional virtual world. The core technologies of this metaverse are virtual reality (VR), It is an extended reality (XR) technology that encompasses augmented reality (AR) and mixed reality (MR). There are various ways to implement virtual space, but they have in common the characteristic of using virtual 3D images to interact with users in real space in real time.
가상 공간 화면을 표시하여 사용자에게 가장 공간 콘텐츠를 즐길 수 있도록 하는 데에 전자 장치가 사용될 수 있다. 특히, 전자 장치를 이용하여 체험한 가상 공간에서의 경험을 타인과 공유하거나 기록하고 싶은 경우가 있다. 이 경우, 가상 공간에서 사용자가 바라보는 이미지를 단순한 2D 이미지로 캡쳐할 경우, 사용자가 경험한 다양한 시야와 감정을 표현하는데 한계가 있다. An electronic device may be used to display a virtual space screen so that the user can enjoy the most spatial content. In particular, there are cases where you want to share or record your experience in a virtual space using an electronic device with others. In this case, when the image the user sees in a virtual space is captured as a simple 2D image, there are limitations in expressing the various views and emotions experienced by the user.
본 개시의 일 실시예에 따른 전자 장치는, 디스플레이, 하나 이상의 인스트럭션을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함한다. 상기 적어도 하나의 프로세서는, 상기 하나 이상의 인스트럭션을 실행함으로써, 가상 공간을 표시하도록 상기 디스플레이를 제어한다. 상기 적어도 하나의 프로세서는, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정한다. 상기 적어도 하나의 프로세서는, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정한다. 상기 적어도 하나의 프로세서는, 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성한다. An electronic device according to an embodiment of the present disclosure includes a display, a memory storing one or more instructions, and at least one processor. The at least one processor controls the display to display a virtual space by executing the one or more instructions. The at least one processor determines an object to be captured in the virtual space based on a first gesture for capturing the virtual space. The at least one processor determines the capture mode based on a second gesture for selecting the capture mode. The at least one processor generates a capture image capturing the virtual space according to the determined capture mode.
본 개시의 일 실시예에 따른전자 장치의 동작 방법은 가상 공간을 표시하도록 디스플레이를 제어하는 단계, 상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계, 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계, 및 상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함한다. A method of operating an electronic device according to an embodiment of the present disclosure includes controlling a display to display a virtual space, and determining an object to be captured in the virtual space based on a first gesture for capturing the virtual space. A step of determining the capture mode based on a second gesture for selecting a capture mode, and generating a capture image capturing the virtual space according to the determined capture mode.
도 1은 일 실시예에 따른 전자 장치의 캡쳐 서비스를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다.
도 4는 일 실시예에 따른 캡쳐 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다.
도 5는 일 실시예에 따라 캡쳐 서비스를 개시하는 전자 장치의 동작을 나타내는 도면이다.
도 6은 일 실시예에 따라 캡쳐 모드를 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 7은 일 실시예에 따른 캡쳐 모드 중 다시점 캡쳐 모드(multi-view capture mode)의 종류를 나타내는 도면이다.
도 8은 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 9는 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다.
도 10은 일 실시예에 따라 전자 장치의 센서를 통해 제1 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 11은 일 실시예에 따라 전자 장치의 센서를 통해 제2 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 전자 장치의 센서를 통해 제3 제스쳐를 감지하는 방법을 설명하기 위한 도면이다.
도 13은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.
도 14는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다.FIG. 1 is a diagram for explaining a capture service of an electronic device according to an embodiment.
Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.
Figure 4 is a flowchart showing a method of operating an electronic device that provides a capture service according to an embodiment.
FIG. 5 is a diagram illustrating the operation of an electronic device that initiates a capture service according to an embodiment.
FIG. 6 is a diagram illustrating an operation of an electronic device that determines a capture mode, according to an embodiment.
Figure 7 is a diagram showing a type of multi-view capture mode among capture modes according to an embodiment.
FIG. 8 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
FIG. 9 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
FIG. 10 is a diagram illustrating a method of detecting a first gesture through a sensor of an electronic device according to an embodiment.
FIG. 11 is a diagram illustrating a method of detecting a second gesture through a sensor of an electronic device according to an embodiment.
FIG. 12 is a diagram illustrating a method of detecting a third gesture through a sensor of an electronic device according to an embodiment.
Figure 13 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.
Figure 14 is a block diagram showing the configuration of a server according to an embodiment.
본 개시에서, "a, b 또는 c 중 적어도 하나" 표현은 " a", " b", " c", "a 및 b", "a 및 c", "b 및 c", "a, b 및 c 모두", 혹은 그 변형들을 지칭할 수 있다.In the present disclosure, the expression “at least one of a, b, or c” refers to “a”, “b”, “c”, “a and b”, “a and c”, “b and c”, “a, b and c", or variations thereof.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시 예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Below, with reference to the attached drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily implement the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.
본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.Although it has been described in general terms currently used in consideration of the functions mentioned in the present disclosure, it may mean various other terms depending on the intention or precedents of those skilled in the art, the emergence of new technologies, etc. Therefore, the terms used in this disclosure should not be interpreted only by the name of the term, but should be interpreted based on the meaning of the term and the overall content of this disclosure.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. Additionally, the terms used in the present disclosure are merely used to describe specific embodiments and are not intended to limit the present disclosure.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Below, with reference to the attached drawings, embodiments will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted, and similar parts are given similar reference numerals throughout the specification.
본 명세서의 실시예에서 “사용자”라는 용어는 시스템, 기능 또는 동작을 제어하는 사람을 의미하며, 개발자, 관리자 또는 설치 기사를 포함할 수 있다.In embodiments of this specification, the term “user” refers to a person who controls a system, function, or operation, and may include a developer, administrator, or installer.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings.
도 1은 일 실시예에 따른 전자 장치의 캡쳐 서비스를 설명하기 위한 도면이다. FIG. 1 is a diagram for explaining a capture service of an electronic device according to an embodiment.
도 1을 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 영상을 출력할 수 있는 전자 장치일 수 있다. 일 예에 따라 전자 장치(100)는 디스플레이를 포함하는 다양한 형태의 전자 장치로 구현될 수 있다. 전자 장치(100)는 고정형 또는 이동형일 수 있으며, 디지털 방송 수신이 가능한 디지털 TV일 수 있으나, 이에 한정되지 않는다. Referring to FIG. 1, an
본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간을 제공할 수 있다. 가상 공간은, 실제 현실과 다른 가상 현실을 나타낸 공간으로써, 사용자는 사용자가 투영된 아바타를 통해 다양한 가상 공간을 체험할 수 있다. 가상 공간은 3차원 공간 이미지로 구현될 수 있다. 예를 들어, 전자 장치(100)는 3차원 공간 이미지로 구현된 이미지, 영상, 텍스트, 어플리케이션 등을 포함하는 콘텐츠를 제공할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 데스크톱, 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자 북 리더기(e-book reader), 랩톱 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 디지털 카메라, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 캠코더, 네비게이션, 웨어러블 장치(wearable device), 스마트 와치(smart watch), 홈 네트워크 시스템, 보안 시스템, 의료 장치, 헤드 마운티드 디스플레이(HMD), 반구형 디스플레이, 대형 디스플레이, 프로젝터 디스플레이(projector display) 중 적어도 하나를 포함할 수 있다.The
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 제공할 수 있다. 본 개시의 일 실시예에 따른 캡쳐 서비스는, 사용자가 바라보는 가상 공간의 이미지를 캡쳐하거나, 캡쳐 이미지를 저장하는 서비스일 수 있다. 전자 장치(100)의 사용자는 가상 공간에서의 체험을 기록하기 위해 가상 공간의 이미지를 캡쳐할 수 있다. 이 경우, 가상 공간이 사용자 자신이 바라보는 1인칭 시점의 2차원 이미지로 캡쳐된다면, 사용자가 가상 공간에서 느꼈던 공간감 및 체험감이 그대로 기록되기 어렵다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 통해 사용자가 바라보는 가상 공간의 이미지를 2D 이미지나 단시점(single-view) 이미지 뿐만 아니라, 3D 이미지, 및 다시점(multi-view) 이미지 등으로 캡쳐할 수 있다. 이에 따라, 전자 장치(100)는 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 생성할 수 있다.The
본 개시의 일 실시예에 따른 캡쳐 서비스는, 사용자의 공간 상의 제스쳐(gesture), 터치(touch), 및 그 밖에 사용자의 명령에 대응한 다양한 인터랙션(interation)을 통해 실행될 수 있다. 전자 장치(100)는 사용자의 공간 상의 제스쳐, 터치 등을 통해 캡쳐 서비스를 제공할 수 있다. 전자 장치(100)는 별도의 조작 장치가 없더라도 사용자의 공간 상의 제스쳐, 터치 등을 감지함으로써, 가상 공간을 캡쳐할 수 있다. 예를 들어, 공간 상의 제스쳐는, 일정 시간 동안 동일한 지점을 가리키는 포인팅(pointing) 동작, 스와이핑(swiping) 동작, 줌-인(zoom-in) 동작, 줌-아웃(zoom-out) 동작, 드래그(drag) 동작, 핀치-인(pinch-in), 핀치-아웃(pinch-out) 동작 등을 포함할 수 있다. 본 개시에서는, 사용자의 공간 상의 제스쳐가 손 제스쳐(hand gesture)인 것으로 예시하지만, 이에 제한되지 않는다. The capture service according to an embodiment of the present disclosure may be executed through gestures, touches, and other various interactions corresponding to user commands in the user's space. The
본 개시의 일 실시예에 따른 캡쳐 서비스는, 캡쳐 서비스 개시(100A) 단계, 캡쳐 모드 결정(100B) 단계, 및 캡쳐 영역 결정(100C) 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 캡쳐 서비스 개시(100A) 동작, 캡쳐 모드 결정(100B) 동작, 및 캡쳐 영역 결정(100C) 동작을 수행하여, 캡쳐 이미지를 생성할 수 있다. 다만, 이에 제한되지 않고, 전자 장치(100)는 캡쳐 서비스 개시(100A) 동작 및 캡쳐 모드 결정(100B) 동작 만을 수행하여, 캡쳐 이미지를 생성할 수 있고, 캡쳐 서비스 개시(100A) 동작, 및 캡쳐 영역 결정(100C) 동작 만을 수행하여, 캡쳐 이미지를 생성할 수도 있다. The capture service according to an embodiment of the present disclosure may include a capture service initiation (100A) step, a capture mode determination (100B) step, and a capture area determination (100C) step. The
먼저, 캡쳐 서비스 개시(100A) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제1 제스쳐(10)에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 가상 공간 내에 포함된 객체(50)를 포인팅하는 제1 제스쳐(10)를 감지할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)가 존재한다고 판단된 경우, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)의 포인팅 위치에 따라 캡쳐할 객체(50)를 결정할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐할 객체(50)가 결정되었음을 알리는 강조 아이콘(70)을 객체(50) 상에 표시할 수 있다. First, in the capture service initiation (100A) step, the
본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐(10)에 기초하여, 캡쳐 이미지(15)를 생성할 수 있다. 캡쳐 이미지(15)는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 현재 사용자가 바라보는 시점에 대한 단시점 캡쳐 모드일 수 있고, 기 설정된 캡쳐 영역은 객체(50) 주위로 미리 정해진 가상 공간의 범위일 수 있으나, 이에 제한되지 않는다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐(10)에 따른 포인팅 동작이 해제된 경우, 캡쳐 이미지(15)를 생성할 수 있다. 다만, 이에 제한되지 않는다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)에 따른 포인팅 동작이 일정 시간 동안 유지되는 경우, 캡쳐 이미지(15)를 생성할 수도 있다. 캡쳐 이미지(15)는 전자 장치(100)의 일부 영역에 표시될 수 있다. 예를 들어, 캡쳐 이미지(15)는 전자 장치(100)의 우측 상단 영역에 표시될 수 있다. The
그 다음, 캡쳐 모드 결정(100B) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제2 제스쳐(20)에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 일 방향으로 스와이핑하는 제2 제스쳐(20)를 감지할 수 있다. 일 방향은, 상측 방향, 하측 방향, 좌측 방향, 및 우측 방향 중 어느 하나일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(20)가 존재한다고 판단된 경우, 캡쳐 모드를 변경할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐(20)에 따라 기 설정된 캡쳐 모드에서 다른 캡쳐 모드로 변경할 수 있다. 예를 들어, 캡쳐 모드는 다시점 캡쳐 모드 및 3D 캡쳐 모드 등을 포함할 수 있다. 예를 들어, 다시점 캡쳐 모드는, 객체(50)를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 캡쳐 모드일 수 있다. 예를 들어, 3D 캡쳐 모드는, 객체(50)에 대한 3D 캡쳐 이미지를 생성하는 캡쳐 모드일 수 있다. Next, in the capture
본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐(20)에 기초하여, 캡쳐 이미지(25)를 생성할 수 있다. 예를 들어, 사용자는 제2 제스쳐(20)를 통해 다시점 캡쳐 모드를 선택할 수 있고, 전자 장치(100)는 제2 제스쳐(20)를 감지함으로써, 캡쳐 모드를 다시점 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 다시점 캡쳐 모드에 따라, 객체(50)를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지(25)를 생성할 수 있다. 예를 들어, 캡쳐 이미지(25)는 객체(50)를 기준으로 90도씩 회전된 4개의 시점에 대한 캡쳐 이미지일 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(20)가 존재하지 않는다고 판단된 경우, 캡쳐 모드를 변경하지 않고, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(10)가 감지되고 난 후 일정 시간동안 제2 제스쳐(20)가 감지되지 않는 경우, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. When it is determined that the
그 다음, 캡쳐 영역 결정(100C) 단계에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제3 제스쳐(30)에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인하거나 줌-아웃 하는 제3 제스쳐(30)를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(30)가 존재한다고 판단된 경우, 캡쳐 영역을 변경할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐(30)에 따라 기 설정된 캡쳐 영역을 확장하거나, 축소할 수 있다. 예를 들어, 캡쳐 영역이 확장되는 경우, 캡쳐할 가상 공간의 범위가 확장 될 수 있다. 예를 들어, 캡쳐 영역이 축소되는 경우, 캡쳐할 가상 공간의 범위가 축소될 수 있다. Next, in the capture area determination step 100C, the
본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐(30)에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 줌-인 동작을 감지함으로써, 캡쳐 영역을 확장시킬 수 있고, 확장된 캡쳐 이미지(35)를 생성할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(30)가 존재하지 않는다고 판단된 경우, 캡쳐 영역을 변경하지 않고, 캡쳐 영역을 기 설정된 캡쳐 영역으로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. If it is determined that the
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스를 통해 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 생성할 수 있다.The
도 2는 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다. Figure 2 is a block diagram showing the configuration of an electronic device according to an embodiment.
도 2를 참조하면, 일 실시예에 따른 전자 장치(100)는 프로세서(110), 디스플레이(120), 메모리(130), 및 센서(140)를 포함할 수 있다. Referring to FIG. 2 , the
일 실시예에 따른 디스플레이(120)는 프로세서(110)의 제어에 의해 가상 공간을 표시할 수 있다. 일 실시예에 따른 디스플레이(120)는 프로세서(110)의 제어에 의해 가상 공간에서 사용자가 경험한 다양한 시야와 감정이 담긴 캡쳐 이미지를 제공할 수 있다. The
일 실시예에 따른 메모리(130)는 전자 장치(100)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 일 실시예에 따른 메모리(130)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(130)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(110)에 의해 실행될 수 있다.The
일 실시예에 따른 메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
일 실시예에 따른 센서(140)는 사용자의 공간 상 제스쳐, 터치 등의 동작의 유무, 위치, 및 종류 등을 감지할 수 있다. 예를 들어, 센서(140)는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서(140)는 거리 센서, 이미지 센서 등을 포함할 수 있다.The
일 실시예에 따른 프로세서(110)는 전자 장치(100)의 전반적인 동작을 제어하고, 전자 장치(100)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. The
일 실시예에 따른 프로세서(110)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 일 실시예에 따른 프로세서(110)는 CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(110)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.The
일 실시예에 따른 프로세서(110)는, 메모리(130)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 전자 장치(100)의 동작들이 수행되도록 제어할 수 있다.The
본 개시의 일 실시예에 따른 프로세서(110)는 가상 공간을 표시하도록 디스플레이(120)를 제어할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 캡쳐 모드를 결정할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 결정된 캡쳐 모드에 따라, 가상 공간을 캡쳐한 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 객체를 포인팅하는 제1 제스쳐의 존재 여부를 판단할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 제1 센서를 통해 사용자 손의 위치를 판단할 수 있다. . 본 개시의 일 실시예에 따른 프로세서(110)는 제2 센서를 통해 사용자 손이 가리키는 포인팅 방향을 판단할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 사용자 손의 위치, 및 포인팅 방향에 기초하여, 사용자 손에 의해 포인팅된 가상 공간 내 객체의 위치를 판단할 수 있다.The
본 개시의 일 실시예에 따른 프로세서(110)는 제1 제스쳐에 기초하여, 캡쳐할 객체가 결정되었음을 알리는 강조 아이콘을 표시하도록 디스플레이(120)를 제어할 수 있다. The
본 개시의 일 실시예에 따른 캡쳐 모드는 현재 시점에 대한 캡쳐 이미지를 생성하는 단시점 캡쳐 모드, 객체를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 다시점 캡쳐 모드, 및 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 어느 하나를 포함할 수 있다. The capture mode according to an embodiment of the present disclosure includes a single-view capture mode that generates a capture image for the current viewpoint, a multi-view capture mode that generates capture images for a plurality of viewpoints rotated with respect to the object, and a capture mode for generating a capture image for the object. It may include any one of the 3D capture modes that generate a 3D captured image.
본 개시의 일 실시예에 따른 프로세서(110)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 제1 방향으로 움직이는 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제1 방향과 반대되는 제2 방향으로 움직이는 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 본 개시의 일 실시예에 따른 프로세서(110)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 프로세서(110)는 적어도 하나의 센서(140)를 통해 감지한 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 제3 제스쳐의 존재 여부를 판단할 수 있다. The
도 3은 일 실시예에 따라 전자 장치의 동작 방법의 일 예를 나타내는 흐름도이다. FIG. 3 is a flowchart illustrating an example of a method of operating an electronic device according to an embodiment.
도 3을 참조하면, 동작 S310에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 가상 공간을 표시하도록 디스플레이를 제어하는 단계를 포함할 수 있다. Referring to FIG. 3 , in operation S310, a method of operating the
동작 S320에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정하는 단계를 포함할 수 있다. In operation S320, the method of operating the
동작 S330에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 캡쳐 모드를 결정하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 적어도 하나의 센서(140)를 통해 객체를 포인팅하는 제1 제스쳐의 존재 여부를 판단하는 단계를 포함할 수 있다. In operation S330, the method of operating the
본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. A method of operating the
본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제1 방향으로 움직이는 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계, 및 제1 방향과 반대되는 제2 방향으로 움직이는 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. A method of operating the
본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계를 포함할 수 있다. A method of operating the
동작 S340에서, 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 결정된 캡쳐 모드에 따라, 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. In operation S340, the method of operating the
본 개시의 일 실시예에 따른 캡쳐 모드는, 현재 시점에 대한 캡쳐 이미지를 생성하는 단시점 캡쳐 모드, 객체를 기준으로 회전된 복수의 시점에 대한 캡쳐 이미지를 생성하는 다시점 캡쳐 모드, 및 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 적어도 하나를 포함할 수 있다. The capture mode according to an embodiment of the present disclosure includes a single-view capture mode that generates a capture image for the current viewpoint, a multi-view capture mode that generates capture images for a plurality of viewpoints rotated with respect to the object, and It may include at least one of the 3D capture modes for generating a 3D capture image.
본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계를 더 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)의 동작 방법은 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성하는 단계를 포함할 수 있다. The method of operating the
도 4는 일 실시예에 따른 캡쳐 서비스를 제공하는 전자 장치의 동작 방법을 나타내는 흐름도이다. Figure 4 is a flowchart showing a method of operating an electronic device that provides a capture service according to an embodiment.
도 4를 참조하면, 동작 S405에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간을 표시하도록 디스플레이를 제어할 수 있다.Referring to FIG. 4 , in operation S405, the
동작 S410에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제1 제스쳐를 식별할 수 있다. 예를 들어, 제1 제스쳐는 공간 상에서 객체를 포인팅하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 동작 S415를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 다시 동작 S405를 수행할 수 있다. In operation S410, the
동작 S415에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 가상 공간 내에서 캡쳐할 객체를 결정할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐의 포인팅 위치에 따라 캡쳐할 객체를 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐에 기초하여, 캡쳐 서비스가 개시되었음을 알리는 강조 아이콘을 제공할 수 있다. 또한 예를 들어, 전자 장치(100)는 제1 제스쳐에 기초하여, 결정된 객체에 대한 캡쳐 이미지를 생성할 수 있다. 캡쳐 이미지는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 단시점 캡쳐 모드일 수 있으나, 이에 제한되지 않는다. 기 설정된 캡쳐 모드는, 다시점 캡쳐 모드 및 3D 캡쳐 모드 중 어느 하나일 수도 있다. 예를 들어, 기 설정된 캡쳐 영역은 객체 주위로 정해진 가상 공간의 범위일 수 있다. In operation S415, the
동작 S420에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제2 제스쳐를 식별할 수 있다. 예를 들어, 제2 제스쳐는 공간 상에서 손이 일 방향으로 움직이는 동작일 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여 동작 S430 및 동작 S435를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 동작 S425를 수행할 수 있다. In operation S420, the
동작 S425에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 기 설정된 캡쳐 모드에 따라 캡쳐 이미지 생성할 수 있다. In operation S425, the
동작 S430에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐에 기초하여, 캡쳐 모드를 변경된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제2 제스쳐에 기초하여, 캡쳐 모드를 기 설정된 캡쳐 모드에서 사용자에 의해 선택된 캡쳐 모드로 변경할 수 있다. 사용자는, 캡쳐 모드를 다른 캡쳐 모드로 변경하여 선택하거나, 다시 기 설정된 캡쳐 모드를 선택할 수도 있다. In operation S430, the
동작 S435에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 결정된 캡쳐 모드에 따라 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 단시점 캡쳐 모드, 다시점 캡쳐 모드, 및 3D 캡쳐 모드 등에 따라 캡쳐 이미지를 생성할 수 있다.In operation S435, the
동작 S440에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐의 존재 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 센서를 통해 제3 제스쳐를 식별할 수 있다. 예를 들어, 제3 제스쳐는 공간 상에서 줌-인, 줌-아웃하는 동작일 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여 동작 S450 및 동작 S455를 수행할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 동작 S445를 수행할 수 있다. In operation S440, the
동작 S445에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 캡쳐 영역을 기 설정된 캡쳐 영역으로 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 기 설정된 캡쳐 영역에 따라 캡쳐 이미지를 생성할 수 있다. In operation S445, the
동작 S450에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여 캡쳐 영역을 결정할 수 있다. 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐에 기초하여, 캡쳐 영역을 기 설정된 캡쳐 영역에서 설정된 캡쳐 영역로 변경할 수 있다. 사용자는, 캡쳐 영역를 확장시키거나 축소시킬 수 있고, 기 설정된 캡쳐 영역을 유지할 수도 있다. In operation S450, the
동작 S455에서, 본 개시의 일 실시예에 따른 전자 장치(100)는 결정된 캡쳐 영역에 따라 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다.In operation S455, the
도 5는 일 실시예에 따라 캡쳐 서비스를 개시하는 전자 장치의 동작을 나타내는 도면이다. FIG. 5 is a diagram illustrating the operation of an electronic device that initiates a capture service according to an embodiment.
도 5를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제1 제스쳐(510)에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 전자 장치(100)는 가상 공간 내에 포함된 객체(550)를 포인팅하는 제1 제스쳐(510)를 감지할 수 있다. 예를 들어, 사용자는 일정 시간 동안 정지 상태를 유지하고 동일한 지점을 가리킬 수 있다. 예를 들어, 전자 장치(100)는 일정 시간 동안 정지 상태를 유지하는 사용자의 포인팅 동작을 감지한 경우, 캡쳐 서비스를 개시할 수 있다. Referring to FIG. 5 , the
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 서비스가 개시 중임을 알리는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스가 개시 중임을 알리는 강조 아이콘(560)을 표시할 수 있다. 예를 들어, 캡쳐 서비스가 개시됨에 따라, 제1 제스쳐(510)의 포인팅 위치에 존재하는 객체(550)를 결정하고, 캡쳐 이미지를 생성하는 동작에는 일정 시간이 소요될 수 있다. 전자 장치(100)는 객체(550)를 결정하고, 캡쳐 이미지를 생성하기 위한 연산을 수행하는 동안 강조 아이콘(560)을 표시할 수 있다. 예를 들어, 강조 아이콘(560)은 객체(550) 상에 존재하는 원형 아이콘일 수 있으나, 이에 제한되지 않는다. 예를 들어, 강조 아이콘(560)은 사용자에게 "캡쳐 서비스가 개시 중임"을 알리는 다양한 상태로 존재할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 포인팅 위치에 존재하는 객체(550)를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 객체(550)가 결정되었음을 알리는 사용자 인터페이스를 제공할 수 있다. 예를 들어, 전자 장치(100)는 객체(550)가 결정되었음을 알리는 강조 아이콘(570)을 표시할 수 있다. 예를 들어, 강조 아이콘(570)은 객체(550) 상에 존재하는 이중 원형 아이콘일 수 있으나, 이에 제한되지 않는다. 예를 들어, 강조 아이콘(570)은 사용자에게 "객체가 결정되었음"을 알리는 다양한 상태로 존재할 수 있다. The
또한, 본 개시의 일 실시예에 따른 전자 장치(100)는 가상 공간 내 객체(550)를 포함한 캡쳐 이미지(515)를 생성할 수 있다. 예를 들어, 캡쳐 이미지(515)는 기 설정된 캡쳐 모드, 및 기 설정된 캡쳐 영역에 따른 캡쳐 이미지일 수 있다. 예를 들어, 기 설정된 캡쳐 모드는 현재 사용자가 바라보는 1인칭 시점에 대한 단시점 캡쳐 모드일 수 있으나, 이에 제한되지 않는다. 예를 들어, 기 설정된 캡쳐 모드가 후술할 다시점 캡쳐 모드이거나, 3D 캡쳐 모드일 수도 있다. 또한, 예를 들어, 기 설정된 캡쳐 영역은 객체(550) 주위로 미리 정해진 가상 공간의 범위일 수 있으나, 이에 제한되지 않는다. Additionally, the
예를 들어, 객체(550)는 정지 상태이거나 동작 상태일 수 있다. 예를 들어, 객체(550)가 정지 상태인 경우, 캡쳐 이미지(515)는 정지 상태의 객쳬 이미지를 포함할 수 있다. 예를 들어, 객체(550)가 동작 상태인 경우, 캡쳐 이미지(515)는 제1 제스쳐(510)에 따른 포인팅 동작이 해제된 상태에서의 객체 이미지를 포함할 수 있다. 예를 들어, 객체(550)가 동작 상태인 경우, 캡쳐 이미지(515)는 제1 제스쳐(510)에 따른 포인팅 동작이 일정 시간 경과하고 난 상태에서의 객체 이미지를 포함할 수 있다. For example, object 550 may be in a stationary state or in an operating state. For example, when the
본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)의 일부 영역에 캡쳐 이미지(515)를 표시할 수 있다. 예를 들어, 전자 장치(100)는 전자 장치(100)의 우측 상단 영역에 캡쳐 이미지(515)를 표시할 수 있다. The
도 6은 일 실시예에 따라 캡쳐 모드를 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 6 is a diagram illustrating an operation of an electronic device that determines a capture mode, according to an embodiment.
도 6를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제2 제스쳐(620)에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 일 방향으로 스와이핑하는 제2 제스쳐(620)를 감지할 수 있다. 일 방향은, 상측 방향, 하측 방향, 좌측 방향, 및 우측 방향 중 어느 하나일 수 있다. 예를 들어, 전자 장치(100)는 우측 방향으로 스와이핑하는 제2 제스쳐(620)를 감지할 수 있고, 캡쳐 모드를 결정할 수 있다. Referring to FIG. 6 , the
예를 들어, 캡쳐 모드(601)는, 단시점 캡쳐 모드(602), 다시점 캡쳐 모드(604), 및 3D 캡쳐 모드(606)를 포함할 수 있다. For example, capture mode 601 may include a single-view capture mode 602, a
예를 들어, 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)는 현재 사용자가 바라보는 1인칭 시점에 대한 2D 이미지를 가질 수 있다. 예를 들어, 현재 사용자가 객체(650)(예컨대, 새(bird))의 좌측면을 바라보고 있는 경우, 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)는 객체(650)의 좌측면에 대한 2D 이미지를 가질 수 있다. For example, the captured
예를 들어, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 객체(650)를 기준으로 회전된 복수의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 객체(650)를 기준으로 90도씩 회전한 4개의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 캡쳐 이미지(624)는 객체(650)의 좌측면, 정면, 후면, 및 우측면의 2D 이미지를 가질 수 있다. 본 개시에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점인 것으로 예시하였지만, 이에 제한되지 않는다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점보다 적을수도 있고, 4개의 시점보다 많을 수도 있다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)의 시점 개수는 미리 설정되거나, 사용자의 설정에 의해 변경될 수 있다. 다시점 캡쳐 모드(604)에 관해서는 도 7에서 상세히 설명한다.For example, the captured
예를 들어, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)는 객체(650)에 대한 3D 이미지를 가질 수 있다. 예를 들어, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)는 용자가 경험한 다양한 시야가 담긴 이미지일 수 있다. For example, the captured
본 개시의 일 실시예에 따른 캡쳐 모드(601)는, 일 방향으로 스와이핑하는 동작에 의해 다음 캡쳐 모드로 변경될 수 있다. 예를 들어, 캡쳐 모드(601)는 단시점 캡쳐 모드(602)에서 다시점 캡쳐 모드(604)로 변경(도 6의 ① 참조)될 수 있고, 다시점 캡쳐 모드(604)에서 3D 캡쳐 모드(606)로 변경(도 6의 ② 참조)될 수 있고, 3D 캡쳐 모드(606)에서 단시점 캡쳐 모드(602)로 변경(도 6의 ③ 참조)될 수 있다. 또한, 도시하지는 않았으나 캡쳐 모드(601)는, 반대 방향으로 스와이핑하는 동작에 의해 이전 캡쳐 모드로 변경될 수도 있다. Capture mode 601 according to an embodiment of the present disclosure can be changed to the next capture mode by swiping in one direction. For example, the capture mode 601 can be changed from the single-view capture mode 602 to the multi-view capture mode 604 (see ① in FIG. 6), and from the
본 개시의 일 실시예에 따른 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다음 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 캡쳐 서비스가 개시되고 캡쳐할 객체(650)가 결정됨에 따라 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다. 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)를 생성할 수 있다(도 6의 ① 참조). 또한, 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 3D 캡쳐 모드(606)에 따른 캡쳐 이미지(626)를 생성할 수 있다(도 6의 ② 참조). 또한, 예를 들어, 전자 장치(100)는 우측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 다시 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다(도 6의 ③ 참조).The
또한, 본 개시의 일 실시예에 따른 전자 장치(100)는 좌측 방향으로 이동하는 제2 제스쳐(620)에 기초하여, 이전 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 단시점 캡쳐 모드(602)에서 3D 캡쳐 모드(606)로 변경하거나, 3D 캡쳐 모드(606)에서 다시점 캡쳐 모드(604)로 변경하거나, 다시점 캡쳐 모드(604)에서 단시점 캡쳐 모드(602)로 변경할 수도 있다.Additionally, the
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 모드를 선택하는 제2 제스쳐(620)가 존재하지 않는다고 판단된 경우, 캡쳐 모드를 변경하지 않고, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 제1 제스쳐(510)가 감지되고 난 후 일정 시간 동안 제2 제스쳐(620)가 감지되지 않는 경우, 캡쳐 모드를 기 설정된 캡쳐 모드로 결정할 수 있다. 예를 들어, 전자 장치(100)는 기 설정된 캡쳐 모드에 따른 캡쳐 이미지, 즉 단시점 캡쳐 모드(602)에 따른 캡쳐 이미지(622)를 생성할 수 있다. When it is determined that the
도 7은 일 실시예에 따른 캡쳐 모드 중 다시점 캡쳐 모드(multi-view capture mode)의 종류를 나타내는 도면이다. Figure 7 is a diagram showing a type of multi-view capture mode among capture modes according to an embodiment.
도 7을 참조하여, 다시점 캡쳐 모드(도 6의 604)에 따른 캡쳐 이미지(624)를 예시한다. Referring to FIG. 7 , a captured
본 개시의 일 실시예에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지는 제1 캡쳐 이미지(701), 제2 캡쳐 이미지(702), 및 제3 캡쳐 이미지(703) 중 어느 하나일 수 있다. In one embodiment of the present disclosure, the captured image according to the
예를 들어, 제1 캡쳐 이미지(701)는 객체(750)를 기준으로 회전된 복수의 단시점에 대한 이미지를 가질 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 사용자의 현재 시점(710) 외에도, 가상 공간(700) 내에서 사용자에 대응한 아바타가 객체(750)를 바라보는 다양한 시점에 대한 이미지를 가질 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 객체(750)를 기준으로 90도씩 회전한 4개의 시점에 대한 이미지를 가질 수 있다. 예를 들어, 4개의 시점은, 가상 공간(700)에서 객체(750)를 좌측면에서 바라보는 제1 시점(710), 객체(750)를 후면에서 바라보는 제1 시점(720), 객체(750)를 우측면에서 바라보는 제2 시점(730), 및 객체(750)를 정면에서 바라보는 제3 시점(740)을 포함할 수 있다. 예를 들어, 제1 캡쳐 이미지(701)는 좌측면, 정면, 후면, 및 우측면의 2D 이미지를 가질 수 있다. 제1 캡쳐 이미지(701)는 도 6의 캡쳐 이미지(624)에 대응될 수 있다.For example, the first captured
본 개시에서, 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점인 것으로 예시하였지만, 이에 제한되지 않는다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)는 4개의 시점보다 적을수도 있고, 4개의 시점보다 많을 수도 있다. 다시점 캡쳐 모드(604)에 따른 캡쳐 이미지(624)의 시점 개수는 미리 설정되거나, 사용자의 설정에 의해 변경될 수 있다.In the present disclosure, the captured
예를 들어, 제2 캡쳐 이미지(702)는 객체(750)를 기준으로 회전된 복수의 단시점에 대한 이미지와 3D 이미지를 가질 수 있다. 예를 들어, 제2 캡쳐 이미지(702)는 좌측면, 정면, 및 후면에 대한 2D 이미지와 3D 이미지를 복합적으로 가질 수 있다. For example, the second captured
예를 들어, 제3 캡쳐 이미지(703)는 객체(750)의 특징이 반영된 시점을 우선 적으로 나타내는 이미지를 가질 수 있다. 예를 들어, 새(bird)의 경우, 일반적으로 새를 정면에서 바라볼 때 새의 특징이 가장 잘 나타난다. 전자 장치(100)는 객체(750)의 특정을 기초로, 우선 순위를 판단하고, 우선 순위에 따른 복수의 시점에 대한 이미지를 생성할 수 있다. 예를 들어, 제3 캡쳐 이미지(703)는 우선 순위대로 객체(750)의 정면, 우측면, 및 후면에 대한 이미지를 가질 수 있다. 또는, 예를 들어, 객체(750)가 건물(미도시)인 경우, 2D 이미지보다는 3D 이미지가 건물의 특징이 잘 나타나므로, 제3 캡쳐 이미지(703)는 건물의 3D 이미지, 및 정면 이미지를 가질 수 있다. 이 경우, 제3 캡쳐 이미지(703)의 첫번째 이미지는, 사용자의 현재 시점과 무관한 시점의 이미지일 수 있다. For example, the third captured
본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자가 바라보는 가상 공간의 이미지를 단순한 2D 이미지 뿐만 아니라, 다시점 이미지, 3D 이미지, 및 복합 이미지로 캡쳐할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자의 현재 시점 외에 사용자가 바라보지 않은 시점에서의 가상 공간을 이미지로 생성할 수 있으므로, 가상 공간에서 사용자가 경험한 다양한 시야와 감정을 증폭시킬 수 있다. .The
도 8은 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 8 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
도 8을 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자의 제3 제스쳐(830)에 기초하여, 캡쳐 영역을 결정할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인(832)하거나 줌-아웃(831) 하는 제3 제스쳐(830)를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(830)가 존재한다고 판단된 경우, 캡쳐 영역을 변경할 수 있다. 예를 들어, 전자 장치(100)는 제3 제스쳐(830)에 따라 기 설정된 캡쳐 영역을 확장하거나, 축소할 수 있다. Referring to FIG. 8 , the
예를 들어, 전자 장치(100)는 공간 상에서 줌-인(832)하는 제3 제스쳐(830)에 기초하여, 캡쳐 영역이 확장된 캡쳐 이미지(835)를 생성할 수 있다. 캡쳐 이미지(835)는 가상 공간의 범위가 확장된 캡쳐 영역을 가질 수 있다. 확장된 캡쳐 이미지(835)는 2D 캡쳐 이미지일 수 있다.For example, the
본 개시의 일 실시예에 따른 전자 장치(100)는 캡쳐 영역을 설정하는 제3 제스쳐(830)가 존재하지 않는다고 판단된 경우, 캡쳐 영역을 변경하지 않고, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지(815)를 생성할 수 있다. If it is determined that the
본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자가 바라보는 가상 공간의 범위를 임의로 확대하거나 축소하여 캡쳐함으로써, 가상 공간에서 사용자가 경험한 다양한 시야와 감정을 증폭시킬 수 있다. . The
도 9는 일 실시예에 따라 캡쳐 영역을 결정하는 전자 장치의 동작을 나타내는 도면이다. FIG. 9 is a diagram illustrating an operation of an electronic device that determines a capture area according to an embodiment.
도 9를 참조하면, 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 제스쳐(930)에 기초하여, 캡쳐 영역이 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 공간 상에서 줌-인(932)하는 제3 제스쳐(930)를 감지함으로써, 캡쳐 영역을 확장시킬 수 있고, 확장된 캡쳐 이미지(935)를 생성할 수 있다. 확장된 캡쳐 이미지(935)는 3D 캡쳐 이미지일 수 있다. Referring to FIG. 9 , the
도 10은 일 실시예에 따라 전자 장치의 센서를 통해 제1 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 10 is a diagram illustrating a method of detecting a first gesture through a sensor of an electronic device according to an embodiment.
본 개시의 일 실시예에 따른 전자 장치(100)는 객체(1050)를 포인팅하는 제1 제스쳐(1010)의 존재 여부를 판단할 수 있다. 센서(140)는 객체(1050)를 포인팅하는 제1 제스쳐(1010)를 감지할 수 있다. 프로세서(110)는 센서(140)를 통해 제1 제스쳐(1010)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제1 제스쳐(1010)가 존재한다고 판단된 것에 기초하여, 캡쳐 서비스를 개시할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제1 제스쳐(1010)가 존재한다고 판단된 것에 기초하여, 가상 공간 내에서 캡쳐할 객체(1050)를 결정할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1001)의 위치 및 사용자 손(1001)과 전자 장치(100) 사이의 거리를 판단할 수 있다. The
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1001)의 위치를 판단할 수 있다. 거리 센서(150)는 사용자 손(1001)과 거리 센서(150) 사이의 거리를 감지할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 복수의 거리 센서(151, 152, 153)를 포함할 수 있고, 복수의 거리 센서(151, 152, 153)는 제1 거리 센서(151), 제2 거리 센서(152), 및 제3 거리 센서(153)를 포함할 수 있다. 예를 들어, 제1 거리 센서(151)는 사용자 손(1001)과 제1 거리 센서(151) 사이의 제1 거리(D1)를 감지할 수 있다. 제2 거리 센서(152)는 사용자 손(1001)과 제2 거리 센서(152) 사이의 제2 거리(D2)를 감지할 수 있다. 제3 거리 센서(153)는 사용자 손(1001)과 제3 거리 센서(153) 사이의 제3 거리(D3)를 감지할 수 있다. For example, the
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 복수의 거리 센서(151, 152, 153)에 의해 감지된 센싱 데이터에 기초하여, 사용자 손(1001)의 위치를 판단할 수 있다. 예를 들어, 프로세서(110)는 제1 거리(D1), 제2 거리(D2), 및 제3 거리(D3)에 기초하여, 사용자 손(1001)의 위치(X, Y)를 판단할 수 있다. 여기서, 사용자 손(1001)의 위치는 객체(1050)를 포인팅하는 사용자 손끝의 위치일 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손끝의 위치인 특징점(1001)(feature point)의 위치를 감지할 수 있다. 예를 들어, 제1 제스쳐(1010)는 1개의 특징점(1001)을 가질 수 있다. For example, the
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 전자 장치(100)와 사용자 손(1001) 사이의 거리(D4)를 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 전자 장치(100)의 위치(X0, Y0)와 복수의 거리 센서(151, 152, 153)를 통해 판단한 사용자 손(1001)의 위치(X, Y)를 기초로 전자 장치(100)와 사용자 손(1001) 사이의 거리(D4)를 판단할 수 있다. For example, the
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 사용자 손(1001)이 가리키는 포인팅 방향(1005) 및 포인팅 위치(1004)를 판단할 수 있다. 포인팅 방향(1005)은, 사용자 손(1001)이 가리키는 방향을 의미한다. 포인팅 위치(1004)는, 사용자 손(1001)이 가리키는 위치를 의미한다. 포인팅 위치(1004)는, 전자 장치(100)에 표시된 객체(1050)의 위치와 동일할 수 있으나, 이에 제한되지 않는다. For example, the
예를 들어, 이미지 센서(160)는 사용자 손(1001)을 트래킹 할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)로부터 트래킹된 이미지에 기초하여, 사용자 손(1001)이 가리키는 포인팅 방향(1005) 및 포인팅 위치(1004)를 판단할 수 있다. For example, the
본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자 손(1001)의 위치(X, Y), 포인팅 위치(1004), 및 포인팅 방향(1005) 중 적어도 하나에 기초하여, 사용자 손(1001)에 의해 포인팅된 가상 공간 내 객체(1050)의 위치를 판단할 수 있다. The
한편, 도 10에서 복수의 거리 센서(151, 152, 153)는 각각 전자 장치(100)의 4개의 모서리 중 3개의 모서리에 위치하는 것으로 예시하였으나, 이에 제한되지 않는다. 복수의 거리 센서(151, 152, 153)는 3개보다 많을 수 있고, 3개보다 적을 수 있다. 또한, 복수의 거리 센서(151, 152, 153)는 전자 장치(100)의 모서리가 아닌 전자 장치(100)의 내부의 어느 위치에 위치할 수 있다. 또한, 이미지 센서(160)는, 전자 장치(100)의 상단에 위치하는 것으로 예시하였으나, 이에 제한되지 않는다. Meanwhile, in FIG. 10 , the plurality of
도 11은 일 실시예에 따라 전자 장치의 센서를 통해 제2 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram illustrating a method of detecting a second gesture through a sensor of an electronic device according to an embodiment.
본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손(1101, 1102)의 움직임에 기초하여, 제2 제스쳐(1120)의 존재 여부를 판단할 수 있다. 센서(140)는 사용자 손(1101, 1102)의 움직임 유무 및 움직임 방향을 감지할 수 있다. 프로세서(110)는 센서(140)를 통해 제2 제스쳐(1120)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제2 제스쳐(1120)가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 선택된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. 이와 달리, 본 개시의 일 실시예에 따른 전자 장치(100)는, 제2 제스쳐(1120)가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1101, 1102)의 위치 변화 및 사용자 손(1101, 1102)과 전자 장치(100) 사이의 거리(D5, D6) 변화를 판단할 수 있다. The
예를 들어, 제2 제스쳐(1120)는 좌측에서 우측 방향으로 스와이핑하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손(1101, 1102)의 제1 위치(X1, Y1)와 제2 위치(X2, Y2)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제1 위치(X1, Y1)에서 제2 위치(X2, Y2)로 이동하는 사용자 손(1101, 1102)의 위치 변화를 통해 스와이핑 동작을 감지할 수 있다. 이 경우, 사용자 손(1101, 1102)의 특징점은 1개일 수 있다. For example, the
또는, 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)와 사용자 손(1101, 1102) 사이의 거리인, 제5 거리(D5) 및 제6 거리(D6)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제5 거리(D5)에서 제6 거리(D6)로 변경된 거리에 기초하여, 스와이핑 동작을 감지할 수 있다. Or, for example, the
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는, 사용자 손(1101, 1102)의 위치 변화를 통해 제스쳐의 종류를 판단할 수 있으므로, 이미지 센서(160)를 선택적으로 비활성화시킬 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)가 제2 제스쳐(1120)를 판단하는 경우, 거리 센서(150)를 활성화하고 이미지 센서(160)를 비활성화할 수 있으므로, 제1 제스쳐 또는 제3 제스쳐를 판단하는 경우보다 저전력으로 동작할 수 있다. For example, the
도 12는 일 실시예에 따라 전자 장치의 센서를 통해 제3 제스쳐를 감지하는 방법을 설명하기 위한 도면이다. FIG. 12 is a diagram illustrating a method of detecting a third gesture through a sensor of an electronic device according to an embodiment.
본 개시의 일 실시예에 따른 전자 장치(100)는 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 제3 제스쳐(1230)의 존재 여부를 판단할 수 있다. 센서(140)는 사용자 손들의 동작을 감지하고, 사용자 손들의 위치를 감지할 수 있다. 프로세서는 센서를 통해 제3 제스쳐(1230)의 존재 여부를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)에 기초하여, 캡쳐될 가상 공간의 범위를 결정할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 캡쳐 이미지를 생성할 수 있다. 이와 달리, 본 개시의 일 실시예에 따른 전자 장치(100)는, 제3 제스쳐(1230)가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 캡쳐 이미지를 생성할 수 있다. The
본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손의 위치 변화 및 사용자 손과 본 개시의 일 실시예에 따른 전자 장치(100) 사이의 거리 변화를 판단할 수 있다. The
예를 들어, 제3 제스쳐(1230)는 두개의 손으로 줌-인하거나 줌-아웃하는 동작일 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 거리 센서(150)를 통해 사용자 손의 제3 위치(X3, Y3), 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6)를 판단할 수 있다. 본 개시의 일 실시예에 따른 전자 장치(100)는 제3 위치(X3, Y3), 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6)의 위치 변화를 통해 줌-인 또는 줌-아웃 동작을 감지할 수 있다. 이 경우, 사용자 손의 특징점(feature point)는 4개일 수 있다. For example, the
또는, 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 전자 장치(100)와 사용자 손 사이의 거리를 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 사용자 손의 제3 위치(X3, Y3)와 전자 장치(100) 사이의 제7 거리(D7)를 판단할 수 있다. 이와 동일하게, 본 개시의 일 실시예에 따른 전자 장치(100)는 제4 위치(X4, Y4), 제5 위치(X5, Y5), 및 제6 위치(X6, Y6) 각각과 본 개시의 일 실시예에 따른 전자 장치(100)의 거리를 판단할 수 있다. Or, for example, the
예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 사용자 손 동작을 판단할 수 있다. 예를 들어, 본 개시의 일 실시예에 따른 전자 장치(100)는 이미지 센서(160)를 통해 두개의 손으로 줌-인하거나 줌-아웃하는 동작을 판단할 수 있다. For example, the
도 13은 일 실시예에 따른 전자 장치의 구성을 나타내는 상세 블록도이다.Figure 13 is a detailed block diagram showing the configuration of an electronic device according to an embodiment.
도 13의 전자 장치(1300)는 도 2의 전자 장치(100)의 일 예일 수 있다. 이하, 도 2에서 설명한 내용과 중복되는 설명은 생략한다.The
도 13를 참조하면, 전자 장치(1300)는 프로세서(1301) 및 메모리(1370)를 포함할 수 있다. 전자 장치(1300)에 포함된 프로세서(1301) 및 메모리(1370)는 도 2의 전자 장치(100)에 포함된 프로세서(110) 및 메모리(130)와 동일한 동작을 수행할 수 있다. Referring to FIG. 13, the
일 실시예에서, 전자 장치(1300)는 프로세서(1301) 및 메모리(1370) 외에, 통신 인터페이스(1320), 센서(1330), 입/출력부(1340), 디스플레이(1350), 및 입력 인터페이스(1360)를 더 포함할 수 있다. 디스플레이(1350)는 도 2의 디스플레이(120)에 대응될 수 있다. 센서(1330)는 도 2의 센서(140)에 대응될 수 있다. In one embodiment, the
일 실시예에서, 통신 인터페이스(1320)는 프로세서(1301)의 제어에 의해 전자 장치(1300)를 주변 기기나 외부 장치, 서버, 이동 단말기 등과 연결할 수 있다. 통신 인터페이스(1320)는 무선 통신을 수행할 수 있는 적어도 하나의 통신 모듈을 포함할 수 있다. 통신 인터페이스(1320)는 전자 장치(1300)의 성능 및 구조에 대응하여 무선랜 모듈, 블루투스 모듈, 유선 이더넷(Ethernet) 중 적어도 하나를 포함할 수 있다.In one embodiment, the
센서(1330)는 사용자의 이미지, 또는 사용자의 인터랙션, 제스쳐, 및 터치 등을 감지하며, 거리 센서(1331), 이미지 센서(1332), 제스쳐 센서, 조도 센서 등을 포함할 수 있다. 거리 센서(1331)는 초음파 센서, IR(Infrared Radiation) 센서, TOF(Time Of Flight) 센서 등 전자 장치(100)와 사용자와의 거리를 감지하는 다양한 센서를 포함할 수 있다. 거리 센서(1331)는 사용자와의 거리를 감지하며, 센싱 데이터를 프로세서(110)로 전달할 수 있다. 이미지 센서(1332)는 카메라 등을 통해 사용자의 제스쳐를 감지하며, 수신한 영상을 전기 신호로 변환하여 프로세서(110)로 전달할 수 있다. 제스쳐 센서는 가속도 센서 또는 자이로 센서를 통해 이동 속도 또는 방향을 감지할 수 있다. 조도 센서는 주변 조도를 감지할 수 있다. The
입/출력부(1340)는 프로세서(1301)의 제어에 의해 외부 기기 등으로부터 비디오(예를 들어, 동적 이미지 신호나 정지 이미지 신호 등), 오디오(예를 들어, 음성 신호나, 음악 신호 등) 및 부가 정보 등을 수신할 수 있다. 입/출력부(1340)는 HDMI 포트(High-Definition Multimedia Interface port), 컴포넌트 잭(component jack), PC 포트(PC port), 및 USB 포트(USB port) 중 하나를 포함할 수 있다. The input/
디스플레이(1350)는 방송국으로부터 수신하거나 외부 서버, 또는 외부 저장 매체 등의 외부 기기로부터 수신하거나, 또는 다양한 앱, 예컨대, OTT 서비스 제공자나 메타버스 콘텐츠 제공자가 제공하는 콘텐츠를 화면에 출력할 수 있다.The
입력 인터페이스(1360)는 전자 장치(1300)를 제어하기 위한 사용자의 입력을 수신하거나, 출력할 수 있다. 입력 인터페이스는, 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치(dome switch), 음성 인식을 위한 마이크, 모션을 센싱하는 모션 감지 센서 등을 포함하는 다양한 형태의 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다. The
일 실시예에서, 메모리(1370)는 렌더링 모듈(1371), 제스쳐 판단 모듈(1372), 및 캡쳐 제어 모듈(1373)을 저장할 수 있다. In one embodiment, the
일 실시예에 따른 프로세서(1301)는 렌더링 모듈(1371), 제스쳐 판단 모듈(1372), 및 캡쳐 제어 모듈(1373) 각각에 저장된 하나 이상의 인스트럭션을 실행하여, 본 개시에 따른 동작을 수행할 수 있다. The
일 실시예에 따른 프로세서(1301)는 렌더링 모듈(1371)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 외부 서버 또는 메타버스 콘텐츠 제공자로부터 수신한 데이터를 기초로 가상 공간을 렌더링할 수 있다. The
일 실시예에 따른 프로세서(1301)는 제스쳐 판단 모듈(1372)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 센서(1330)의 센싱 데이터를 기초로, 공간 상의 손 제스쳐를 식별할 수 있다. 예를 들어, 프로세서(1301)는 센서(1330)의 센싱 데이터를 기초로, 손 제스쳐의 유무, 손 제스쳐의 종류, 손 제스쳐의 위치, 방향 등을 식별할 수 있다. The
일 실시예에 따른 프로세서(1301)는 캡쳐 제어 모듈(1373)에 저장된 하나 이상의 인스트럭션을 실행함으로써, 식별한 손 제스쳐의 속성에 따른 캡쳐 서비스의 동작을 수행할 수 있다. 예를 들어, 프로세서(1301)는 제1 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 서비스를 개시할 수 있다. 예를 들어, 프로세서(1301)는 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 모드를 결정할 수 있다. 예를 들어, 프로세서(1301)는 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐 영역을 결정할 수 있다. The
도 14는 일 실시예에 따른 서버의 구성을 나타내는 블록도이다. Figure 14 is a block diagram showing the configuration of a server according to an embodiment.
도 14를 참조하면, 서버(200)는 가상 공간 콘텐츠를 생성하고, 가상 공간 콘텐츠에 다양한 클라이언트의 사용자가 접속할 수 있도록 가상 공간 콘텐츠를 제공하는 장치이다. 서버(200)는 다양한 클라이언트의 사용자를 반영한 아바타를 생성하고, 제공할 수 있다. 서버(200)는 클라이언트의 일 예시인, 전자 장치(100)에 가상 공간 콘텐츠를 제공하며, 전자 장치(100) 사용자의 입력에 대응하여, 가상 공간 내의 객체(예컨대, 아바타)의 좌표를 관리할 수 있다. 즉, 서버(200)는 현실 공간의 사용자와 가상 공간의 객체가 상호작용할 수 있도록 한다.Referring to FIG. 14, the
일 실시예에 따른 서버(200)는 프로세서(210), 통신 인터페이스(220), 및 메모리(230)를 포함할 수 있다. The
일 실시예에 따른 통신 인터페이스(220)는 전자 장치(100)와 데이터 또는 신호를 송수신할 수 있다. 예를 들어, 통신 인터페이스(220)는 와이-파이(Wi-Fi) 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈, LAN 모듈, 이더넷(Ethernet) 모듈, 유선 통신 모듈 등을 포함할 수 있다. 이때, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.The
일 실시예에 따른 통신 인터페이스(220)는 프로세서(210)의 제어에 의해 아바타를 포함한 가상 공간을 전자 장치(100)에 전송할 수 있다. The
일 실시예에 따른 프로세서(210)는 서버(200)의 전반적인 동작 및 서버(200)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.The
일 실시예에 따른 프로세서(210)는 CPU(Cetral Processing Unit), GPU (Graphic Processing Unit) 및 VPU(Video Processing Unit) 중 적어도 하나를 포함할 수 있다. 또는, 실시예에 따라, CPU, GPU 및 VPU 중 적어도 하나를 통합한 SoC(System On Chip) 형태로 구현될 수 있다. 또는, 프로세서(210)는 NPU(Neural Processing Unit)를 더 포함할 수 있다.The
일 실시예에 따른 메모리(230)는 서버(200)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리(230)에 저장되는 프로그램은 하나 이상의 인스트럭션들을 포함할 수 있다. 메모리(230)에 저장된 프로그램(하나 이상의 인스트럭션들) 또는 어플리케이션은 프로세서(210)에 의해 실행될 수 있다. 일 실시예에 따른 메모리(230)는 메타버스 가상 공간 콘텐츠를 생성하기 위한 하나 이상의 인스트럭션들을 포함할 수 있다. 일 실시예에 따른 메모리(230)는 가상 공간 콘텐츠를 저장할 수 있다.The
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적 저장매체'는 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다. 예로, '비일시적 저장매체'는 데이터가 임시적으로 저장되는 버퍼를 포함할 수 있다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory storage medium' only means that it is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is semi-permanently stored in a storage medium and temporary storage media. It does not distinguish between cases where it is stored as . For example, a 'non-transitory storage medium' may include a buffer where data is temporarily stored.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품(예: 다운로더블 앱(downloadable app))의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. A computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store or between two user devices (e.g. smartphones). It may be distributed in person or online (e.g., downloaded or uploaded). In the case of online distribution, at least a portion of the computer program product (e.g., a downloadable app) is stored on a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server. It can be temporarily stored or created temporarily.
Claims (20)
하나 이상의 인스트럭션을 저장하는 메모리(130); 및
적어도 하나의 프로세서(110)를 포함하고,
상기 적어도 하나의 프로세서(110)는, 상기 하나 이상의 인스트럭션을 실행함으로써,
가상 공간을 표시하도록 상기 디스플레이(120)를 제어하고,
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하고,
캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하고,
상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는, 전자 장치(100). display 120;
a memory 130 that stores one or more instructions; and
Comprising at least one processor 110,
The at least one processor 110 executes the one or more instructions,
Control the display 120 to display a virtual space,
Based on the first gesture for capturing the virtual space, determine an object to capture within the virtual space,
Based on the second gesture for selecting a capture mode, determine the capture mode,
The electronic device 100 generates a capture image capturing the virtual space according to the determined capture mode.
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 상기 객체를 포인팅하는 상기 제1 제스쳐의 존재 여부를 판단하는, 전자 장치(100).According to claim 1,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
The electronic device 100 determines whether the first gesture pointing to the object exists through the at least one sensor 140.
상기 적어도 하나의 센서(140)는, 제1 센서 및 제2 센서를 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 제1 센서를 통해 사용자 손의 위치를 판단하고,
상기 제2 센서를 통해 사용자 손이 가리키는 포인팅 방향을 판단하고,
상기 사용자 손의 위치, 및 상기 포인팅 방향에 기초하여, 상기 사용자 손에 의해 포인팅된 상기 가상 공간 내 상기 객체의 위치를 판단하는, 전자 장치(100).According to clause 2,
The at least one sensor 140 includes a first sensor and a second sensor,
The at least one processor 110,
Determine the position of the user's hand through the first sensor,
Determine the pointing direction of the user's hand through the second sensor,
The electronic device 100 determines the position of the object in the virtual space pointed by the user's hand, based on the position of the user's hand and the pointing direction.
상기 적어도 하나의 프로세서(110)는,
상기 제1 제스쳐에 기초하여, 상기 캡쳐할 객체가 결정되었음을 알리는 강조 아이콘을 표시하도록 상기 디스플레이(120)를 제어하는, 전자 장치(100). According to any one of claims 1 to 3,
The at least one processor 110,
Based on the first gesture, the electronic device 100 controls the display 120 to display a highlight icon indicating that the object to be captured has been determined.
상기 캡쳐 모드는,
현재 시점에 대한 상기 캡쳐 이미지를 생성하는 단시점 캡쳐 모드; 및
상기 객체를 기준으로 회전된 복수의 시점에 대한 상기 캡쳐 이미지를 생성하는 다시점 캡쳐 모드를 포함하는, 전자 장치(100). According to any one of claims 1 to 4,
The capture mode is,
A single view capture mode that generates the captured image for the current view point; and
The electronic device 100 includes a multi-viewpoint capture mode that generates the captured images for a plurality of viewpoints rotated with respect to the object.
상기 캡쳐 모드는,
상기 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드를 더 포함하는, 전자 장치(100).According to clause 5,
The capture mode is,
The electronic device 100 further includes a 3D capture mode for generating a 3D capture image of the object.
상기 적어도 하나의 프로세서(110)는,
상기 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하고,
상기 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100). The method according to any one of claims 1 to 6,
The at least one processor 110,
Based on it being determined that the second gesture exists, generating the capture image according to the determined capture mode,
The electronic device 100 generates the captured image according to a preset capture mode based on determining that the second gesture does not exist.
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는, 전자 장치(100). The method according to any one of claims 1 to 7,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
The electronic device 100 determines whether a second gesture exists based on the movement of the user's hand detected through the at least one sensor 140.
상기 적어도 하나의 프로세서(110)는,
제1 방향으로 움직이는 상기 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하고,
상기 제1 방향과 반대되는 제2 방향으로 움직이는 상기 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100). According to clause 8,
The at least one processor 110,
Based on the user's hand moving in a first direction, generate the captured image according to the next capture mode,
The electronic device 100 generates the captured image according to a previous capture mode based on the user's hand moving in a second direction opposite to the first direction.
상기 적어도 하나의 프로세서(110)는,
캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는, 전자 장치(100). The method according to any one of claims 1 to 9,
The at least one processor 110,
The electronic device 100 determines the range of the virtual space to be captured based on the third gesture for setting the capture area.
상기 적어도 하나의 프로세서(110)는,
상기 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 상기 캡쳐 이미지를 생성하고,
상기 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 상기 캡쳐 이미지를 생성하는, 전자 장치(100).According to claim 10,
The at least one processor 110,
Based on the determination that the third gesture exists, generate the captured image in which the range of the virtual space to be captured is expanded or reduced,
The electronic device 100 generates the captured image according to a preset capture area based on determining that the third gesture does not exist.
상기 전자 장치(100)는, 적어도 하나의 센서(140)를 더 포함하고,
상기 적어도 하나의 프로세서(110)는,
상기 적어도 하나의 센서(140)를 통해 감지한 줌-인(zoom-in) 또는 줌-아웃(zoom-out)하는 사용자 손들에 기초하여, 상기 제3 제스쳐의 존재 여부를 판단하는, 전자 장치(100).According to claim 10,
The electronic device 100 further includes at least one sensor 140,
The at least one processor 110,
An electronic device ( 100).
가상 공간을 표시하도록 디스플레이(120)를 제어하는 단계;
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계;
캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계; 및
상기 결정된 캡쳐 모드에 따라, 상기 가상 공간을 캡쳐한 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법. In a method of operating the electronic device 100,
Controlling the display 120 to display a virtual space;
Based on a first gesture for capturing the virtual space, determining an object to capture within the virtual space;
determining the capture mode based on a second gesture for selecting the capture mode; and
A method of operating the electronic device 100, including generating a capture image capturing the virtual space according to the determined capture mode.
상기 가상 공간을 캡쳐하기 위한 제1 제스쳐에 기초하여, 상기 가상 공간 내에서 캡쳐할 객체를 결정하는 단계는,
적어도 하나의 센서(140)를 통해 상기 객체를 포인팅하는 상기 제1 제스쳐의 존재 여부를 판단하는 단계를 포함하는, 전자 장치(100)의 동작 방법. According to claim 13,
Based on the first gesture for capturing the virtual space, determining an object to be captured in the virtual space includes:
A method of operating an electronic device 100, including determining whether the first gesture pointing to the object exists through at least one sensor 140.
상기 캡쳐 모드는,
현재 시점에 대한 상기 캡쳐 이미지를 생성하는 단시점 캡쳐 모드;
상기 객체를 기준으로 회전된 복수의 시점에 대한 상기 캡쳐 이미지를 생성하는 다시점 캡쳐 모드; 및
상기 객체에 대한 3D 캡쳐 이미지를 생성하는 3D 캡쳐 모드 중 적어도 하나를 포함하는, 전자 장치(100)의 동작 방법. The method of claim 13 or 14,
The capture mode is,
A single view capture mode that generates the captured image for the current view point;
a multi-viewpoint capture mode that generates the captured images for a plurality of viewpoints rotated with respect to the object; and
A method of operating the electronic device 100, including at least one of a 3D capture mode for generating a 3D capture image of the object.
상기 캡쳐 모드를 선택하기 위한 제2 제스쳐에 기초하여, 상기 캡쳐 모드를 결정하는 단계는,
상기 제2 제스쳐가 존재한다고 판단된 것에 기초하여, 결정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제2 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법. The method according to any one of claims 13 to 15,
The step of determining the capture mode based on the second gesture for selecting the capture mode includes:
based on determining that the second gesture exists, generating the captured image according to the determined capture mode; and
A method of operating the electronic device 100, including generating the captured image according to a preset capture mode based on determining that the second gesture does not exist.
적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계를 포함하는, 전자 장치(100)의 동작 방법. The method according to any one of claims 13 to 16,
A method of operating the electronic device 100, including determining whether a second gesture exists based on the movement of the user's hand detected through at least one sensor 140.
상기 적어도 하나의 센서(140)를 통해 감지한 사용자 손의 움직임에 기초하여, 제2 제스쳐의 존재 여부를 판단하는 단계는,
제1 방향으로 움직이는 상기 사용자 손에 기초하여, 다음 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제1 방향과 반대되는 제2 방향으로 움직이는 상기 사용자 손에 기초하여, 이전 캡쳐 모드에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법. According to claim 17,
The step of determining whether a second gesture exists based on the movement of the user's hand detected through the at least one sensor 140 includes:
Based on the user's hand moving in a first direction, generating the captured image according to a next capture mode; and
A method of operating the electronic device 100, including generating the captured image according to a previous capture mode based on the user's hand moving in a second direction opposite to the first direction.
캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계를 더 포함하는, 전자 장치(100)의 동작 방법. The method according to any one of claims 13 to 18,
A method of operating the electronic device 100, further comprising determining the range of the virtual space to be captured based on the third gesture for setting the capture area.
상기 캡쳐 영역을 설정하기 위한 제3 제스쳐에 기초하여, 캡쳐될 가상 공간의 범위를 결정하는 단계는,
상기 제3 제스쳐가 존재한다고 판단된 것에 기초하여, 캡쳐할 가상 공간의 범위가 확장되거나 축소된 상기 캡쳐 이미지를 생성하는 단계; 및
상기 제3 제스쳐가 존재하지 않는다고 판단된 것에 기초하여, 기 설정된 캡쳐 영역에 따른 상기 캡쳐 이미지를 생성하는 단계를 포함하는, 전자 장치(100)의 동작 방법.According to clause 19,
The step of determining the range of the virtual space to be captured based on the third gesture for setting the capture area includes:
generating the captured image in which the range of the virtual space to be captured is expanded or reduced based on determining that the third gesture exists; and
A method of operating the electronic device 100, including generating the captured image according to a preset capture area based on determining that the third gesture does not exist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/012088 WO2024085397A1 (en) | 2022-10-18 | 2023-08-16 | Electronic device and operation method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220134467 | 2022-10-18 | ||
KR20220134467 | 2022-10-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240054140A true KR20240054140A (en) | 2024-04-25 |
Family
ID=90885376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230010227A KR20240054140A (en) | 2022-10-18 | 2023-01-26 | Electronic apparatus, and method of operating the electronic apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240054140A (en) |
-
2023
- 2023-01-26 KR KR1020230010227A patent/KR20240054140A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11262835B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
US10082886B2 (en) | Automatic configuration of an input device based on contextual usage | |
US9911231B2 (en) | Method and computing device for providing augmented reality | |
US11443453B2 (en) | Method and device for detecting planes and/or quadtrees for use as a virtual substrate | |
KR102389185B1 (en) | Electronic device and method for executing function using input interface displayed via at least portion of content | |
KR101784328B1 (en) | Augmented reality surface displaying | |
US20180067572A1 (en) | Method of controlling virtual object or view point on two dimensional interactive display | |
US20140053086A1 (en) | Collaborative data editing and processing system | |
JP6048898B2 (en) | Information display device, information display method, and information display program | |
US20150063785A1 (en) | Method of overlappingly displaying visual object on video, storage medium, and electronic device | |
EP3764200B1 (en) | Traversing photo-augmented information through depth using gesture and ui controlled occlusion planes | |
US9495064B2 (en) | Information processing method and electronic device | |
US10620807B2 (en) | Association of objects in a three-dimensional model with time-related metadata | |
US10474324B2 (en) | Uninterruptable overlay on a display | |
KR20140081840A (en) | Motion controlled list scrolling | |
JP4912377B2 (en) | Display device, display method, and program | |
KR20240084532A (en) | Electronic device for generating object and system | |
US11867495B2 (en) | Electronic device for providing image data using augmented reality and control method for same | |
KR20240054140A (en) | Electronic apparatus, and method of operating the electronic apparatus | |
JP2020046983A (en) | Program, information processing apparatus, and method | |
KR20160114126A (en) | Universal capture | |
JP7289208B2 (en) | Program, Information Processing Apparatus, and Method | |
WO2024085397A1 (en) | Electronic device and operation method thereof | |
US11036287B2 (en) | Electronic device, control method for electronic device, and non-transitory computer readable medium | |
JP2022137023A (en) | Program, Information Processing Apparatus, and Method |