KR102407190B1 - Image capture apparatus and method for operating the image capture apparatus - Google Patents

Image capture apparatus and method for operating the image capture apparatus Download PDF

Info

Publication number
KR102407190B1
KR102407190B1 KR1020160062168A KR20160062168A KR102407190B1 KR 102407190 B1 KR102407190 B1 KR 102407190B1 KR 1020160062168 A KR1020160062168 A KR 1020160062168A KR 20160062168 A KR20160062168 A KR 20160062168A KR 102407190 B1 KR102407190 B1 KR 102407190B1
Authority
KR
South Korea
Prior art keywords
virtual image
photographing
posture
image
dimensional
Prior art date
Application number
KR1020160062168A
Other languages
Korean (ko)
Other versions
KR20170027266A (en
Inventor
쉬 쟝
껑위 마
야 루
후이 쟝
차현희
정문식
배수정
정민효
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2016/009784 priority Critical patent/WO2017039348A1/en
Priority to US15/254,515 priority patent/US10165199B2/en
Publication of KR20170027266A publication Critical patent/KR20170027266A/en
Application granted granted Critical
Publication of KR102407190B1 publication Critical patent/KR102407190B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • H04N5/23222
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/16Special procedures for taking photographs; Apparatus therefor for photographing the track of moving objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • H04N5/23219
    • H04N5/23225

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

실시예들에 따라 영상 촬영 장치 및 영상 촬영 장치의 동작 방법이 개시된다. 영상 촬영 장치는, 이미지를 촬영하는 촬영부; 및 상기 촬영부에 연결된 제어부를 포함하고, 상기 제어부는, 깊이 정보가 있는 배경 이미지를 획득하고, 상기 배경 이미지에 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하고, 상기 배치된 3차원 가상 이미지에 기초하여 상기 오브젝트를 촬영하도록 상기 촬영부를 제어한다. An image photographing apparatus and an operating method of the image photographing apparatus are disclosed according to embodiments. An image photographing apparatus includes: a photographing unit photographing an image; and a control unit connected to the photographing unit, wherein the control unit obtains a background image having depth information, arranges a 3D virtual image used to represent an object in the background image, and adds the 3D virtual image to the arranged 3D virtual image. Controls the photographing unit to photograph the object based on the photographing unit.

Figure R1020160062168
Figure R1020160062168

Description

영상 촬영 장치 및 그 동작 방법{Image capture apparatus and method for operating the image capture apparatus}Image capture apparatus and method for operating the same

다양한 실시예들은 영상 촬영 장치 및 그 동작 방법에 관한 것이다. Various embodiments relate to an image capturing apparatus and an operating method thereof.

최근에는 전자 카메라가 널리 보급되고 있다. 전자 카메라에서는, 피사체 상을 촬영 광학계를 통해서 반도체 촬상 소자, 예를 들어 이미지 센서 위에 결상한다. 이 피사체 상은 전기신호로 변환되고 이에 따라 획득된 정지 화상의 화상 데이터를 반도체 메모리 또는 자기 디스크와 같은 기록 매체에 기록한다. In recent years, electronic cameras have been widely used. In an electronic camera, an image of a subject is formed on a semiconductor imaging device, for example, an image sensor through an imaging optical system. This object image is converted into an electric signal, and the image data of the still image thus obtained is recorded on a recording medium such as a semiconductor memory or a magnetic disk.

촬영 장치(예컨대, 카메라, 스마트폰, 태블릿 컴퓨터, 스마트 웨어러블 디바이스)의 인기가 높아짐에 따라서, 사람들은 자세를 단순히 촬영하는 것에 만족하지 못하고, 다른 시간, 다른 장소, 다른 시나리오에 따라서(예컨대, 장소를 이용한 촬영) 복잡한 촬영 자세나 재미있는 좔영 자세를 잡기 희망한다. As the popularity of photographing devices (eg, cameras, smart phones, tablet computers, smart wearable devices) increases, people are not satisfied with simply photographing postures, and according to different times, different places, different scenarios (eg, places Shooting using )) I hope to have a complicated shooting posture or an interesting joongyeong posture.

도 1은 위치를 이용한 촬영의 예를 나타낸다. 1 shows an example of photographing using a position.

도 1의 101은 태양의 위치를 이용한 오브젝트 촬영 자세를 예시한다. 도 1의 102는 원격 오브젝트의 위치를 이용한 근접 촬영 오브젝트의 자세를 예시한다. 101 of FIG. 1 illustrates an object photographing posture using the position of the sun. 102 of FIG. 1 exemplifies the posture of the close-up object using the location of the remote object.

하지만, 촬영 오브젝트만을 통해서는 복잡한 자세를 촬영하거나 재미있는 자세를 촬영하는 것은 일반적으로 어렵다. 비록 촬영 자세를 조정하여 촬영 오브젝트를 보조할 수 있지만, 촬영 효과를 보장하기 어렵고, 사용자 경험이 나쁘다. 더욱이, 촬영 오브젝트 및/또는 사진사는 효과적인 조정을 위한 최종 촬영 효과를 미리 알기 어렵다.However, it is generally difficult to photograph a complex posture or an interesting posture through only a photographing object. Although it is possible to assist the shooting object by adjusting the shooting posture, it is difficult to guarantee the shooting effect, and the user experience is poor. Moreover, it is difficult for the shooting object and/or the photographer to know in advance the final shooting effect for effective adjustment.

다양한 실시예들은, 오브젝트의 복잡한 촬영 자세나 재미있는 촬영 자세를 효과적으로 촬영할 수 있도록 하는 촬영 장치 및 촬영 방법을 제공하는 것을 목적으로 한다.Various embodiments are directed to providing a photographing apparatus and method for effectively photographing a complex photographing posture or an interesting photographing posture of an object.

일 실시예에 따른 영상 촬영 장치는, 이미지를 촬영하는 촬영부; 및 상기 촬영부에 연결된 제어부를 포함하고, 상기 제어부는, 깊이 정보가 있는 배경 이미지를 획득하고, 상기 배경 이미지에 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하고, 상기 배치된 3차원 가상 이미지에 기초하여 상기 오브젝트를 촬영하도록 상기 촬영부를 제어한다. An image photographing apparatus according to an embodiment includes: a photographing unit photographing an image; and a control unit connected to the photographing unit, wherein the control unit obtains a background image having depth information, arranges a 3D virtual image used to represent an object in the background image, and adds the 3D virtual image to the arranged 3D virtual image. Controls the photographing unit to photograph the object based on the photographing unit.

일 실시예에 따라 제어부는, 상기 3차원 가상 이미지의 3차원 가상 공간 위치 및/또는 3차원 자세(posture)를 결정할 수 있다. According to an embodiment, the controller may determine a 3D virtual space position and/or a 3D posture of the 3D virtual image.

일 실시예에 따라 제어부는, 촬영 부속물을 결정하고, 및 상기 배경 이미지에 상기 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를 더 구성할 수 있다. According to an exemplary embodiment, the controller may determine the photographing accessory and further configure a three-dimensional spatial position and/or a three-dimensional posture of the photographing accessory in the background image.

일 실시예에 따라 제어부는, 상기 3차원 가상 이미지를, 상기 배경 이미지 내 상기 3차원 가상 이미지의 상기 촬영 부속물(shooting appendage)에 기초하여 배치하고, 상기 3차원 가상 이미지와 이 3차원 가상 이미지의 상기 촬영 부속물 사이의 관계는 미리 구성된 촬영 시나리오 템플릿(pre-configured shooting scenario template)에 의해 정의될 수 있다. According to an embodiment, the controller is configured to arrange the three-dimensional virtual image based on the shooting appendage of the three-dimensional virtual image in the background image, the three-dimensional virtual image and the three-dimensional virtual image The relationship between the shooting accessories may be defined by a pre-configured shooting scenario template.

일 실시예에 따라 제어부는, 상기 3차원 가상 이미지의 3차원 자세(posture)를, 상기 3차원 가상 이미지의 결합점(joint point)의 3차원 공간 위치를 배치함으로써 구성할 수 있다. According to an embodiment, the controller may configure a three-dimensional posture of the three-dimensional virtual image by arranging a three-dimensional space position of a joint point of the three-dimensional virtual image.

일 실시예에 따라 제어부는, 상기 오브젝트와 상기 3차원 가상 이미지 사이의 차이를 결정하고, 상기 결정된 차이에 기초하여 촬영 가이드를 상기 촬영 장치 및/또는 웨어러블 디바이스(wearable device)를 통해 출력할 수 있다. According to an embodiment, the controller may determine a difference between the object and the 3D virtual image, and output a photographing guide through the photographing apparatus and/or a wearable device based on the determined difference .

일 실시예에 따라 제어부는, 상기 오브젝트를 상기 3차원 가상 이미지의 3차원 자세에 기초하여 검출하거나, 또는 상기 웨어러블 디바이스가 제공한 3차원 공간 위치 정보에 기초하여 검출하거나, 또는 사용자가 선택한 오브젝트에 대한 타겟 트랙킹(target tracking)에 기초하여 검출할 수 있다. According to an embodiment, the control unit detects the object based on the 3D posture of the 3D virtual image, detects the object based on 3D spatial location information provided by the wearable device, or detects the object based on the object selected by the user. It can be detected based on the target tracking (target tracking).

일 실시예에 따라 상기 오브젝트와 상기 3차원 가상 이미지 사이의 차이는 3차원 공간 위치 차이 및/또는 상기 오브젝트와 상기 3차원 가상 이미지 사이의 3차원 자세 차이를 포함할 수 있다. According to an embodiment, the difference between the object and the 3D virtual image may include a 3D spatial position difference and/or a 3D posture difference between the object and the 3D virtual image.

일 실시예에 따라 제어부는, 상기 오브젝트와 상기 3차원 가상 이미지 사이의 상기 3차원 자세 차이를, 상기 오브젝트의 결합점의 3차원 공간 위치와 상기 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치를 비교함으로써 결정할 수 있다. According to an embodiment, the controller is configured to determine the 3D posture difference between the object and the 3D virtual image in a 3D space between a 3D spatial position of a bonding point of the object and a corresponding bonding point of the 3D virtual image. It can be determined by comparing the positions.

일 실시예에 따라 제어부는, 상기 배경 이미지 내 상기 오브젝트의 자세를 검출하고, 상기 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하고, 상기 검출된 오브젝트의 자세가 상기 포커싱 자세와 일치하면 상기 오브젝트를 포커스하고 촬영하도록 상기 촬영부를 제어할 수 있다. According to an embodiment, the controller detects the posture of the object in the background image, determines whether the posture of the object matches the focusing posture, and when the detected posture of the object matches the focusing posture, the object The photographing unit may be controlled to focus and photograph.

일 실시예에 따라 포커싱 자세는 상기 촬영 오브젝트의 소망하는 촬영 자세를 나타내는데 사용되는 미리-구성된 자세이거나, 미리-구성된 촬영 자세 데이터베이스 내 임의의 촬영 자세일 수 있다. According to an embodiment, the focusing posture may be a pre-configured posture used to indicate a desired photographing posture of the photographing object, or may be any photographing posture in a pre-configured photographing posture database.

일 실시예에 따라 제어부는, 캡처되기 소망되는 상기 오브젝트 자세의 출현을 예상하는데 사용되는 상기 3차원 가상 이미지의 예상 자세를 결정하고, 상기 오브젝트가 상기 예상 자세를 취한다고 검출할 때 상기 오브젝트를 자동적으로 포커스하고 캡처하도록 상기 촬영부를 제어할 수 있다. According to an embodiment, the control unit determines an expected posture of the three-dimensional virtual image used to predict the appearance of the posture of the object desired to be captured, and automatically sets the object when detecting that the object assumes the posture. It is possible to control the photographing unit to focus and capture.

일 실시예에 따라 제어부는, 연속적으로 촬영되기 소망되는 일련의 오브젝트 자세를 나타내는데 사용되는 상기 3차원 가상 이미지의 다중 자세를 결정하고, 상기 오브젝트가 미리 설정된 시간 동안 상기 배경 이미지 내 상기 3차원 가상 이미지와 연속적으로 일치하면, 상기 오브젝트를 자동적으로 포커스하고 연속적으로 촬영하도록 상기 촬영부를 제어할 수 있다. According to an embodiment, the control unit determines multiple postures of the three-dimensional virtual image used to represent a series of object postures desired to be continuously photographed, and the three-dimensional virtual image in the background image for a preset period of time when the object is set in advance and continuously matches, the photographing unit may be controlled to automatically focus the object and continuously photograph the object.

일 실시예에 따라 상기 오브젝트는 다중 오브젝트를 포함하고, 상기 제어부는, 상기 오브젝트가 포커스되고 촬영되기 전 또는 후에, 상기 3차원 가상 이미지와 일치하지 않는 오브젝트를 제거할 수 있다. According to an embodiment, the object includes multiple objects, and the controller may remove an object that does not match the 3D virtual image before or after the object is focused and photographed.

일 실시예에 따라 촬영 장치의 동작 방법은, 깊이 정보가 있는 배경 이미지를 획득하는 동작, 상기 배경 이미지에 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하는 동작, 및 상기 배치된 3차원 가상 이미지에 기초하여 상기 오브젝트를 촬영하는 동작을 포함한다. According to an exemplary embodiment, a method of operating a photographing apparatus includes an operation of acquiring a background image having depth information, an operation of arranging a 3D virtual image used to represent an object on the background image, and an operation of placing the 3D virtual image on the arranged 3D virtual image. and capturing the object based on the image.

일 실시예에 따라 촬영 방법을 실행하는 하는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체가 개시된다. A computer-readable recording medium in which a program for executing a photographing method is recorded according to an embodiment is disclosed.

다양한 실시예들에 따르면, 사용자는 오브젝트의 복잡한 촬영 자세나 재미있는 촬영 자세를 효과적으로 촬영할 수 있다. According to various embodiments, a user may effectively photograph a complex or interesting photographing posture of an object.

도 1은 위치를 이용한 촬영의 예를 나타낸다.
도 2는 일 실시예에 따른 촬영 장치 100의 개략적인 블록도이다.
도 3a는 일 실시예에 따른 촬영 장치의 구성의 세부적인 블록도이다.
도 3b는 일 실시예에 따른 촬영 장치의 동작 방법을 수행하기 위해 도 3a에 도시된 프로그램 저장부 170에 저장될 수 있는 모듈의 구성도이다.
도 4는 일 실시예에 따른 촬영 방법을 설명하는 흐름도이다.
도 5는 실시예에 따른 3차원 가상 이미지를 예시한다.
도 6은 일 실시예에 따라서 3차원 가상 이미지를 선택하는 예를 나타낸다.
도 7은 일 실시예에 따라서 3차원 가상 이미지를 선택하는 다른 예를 나타낸다.
도 8과 9는 일 실시예에 따라서 사용자에게 위치 영역을 통지하는 예를 나타낸다.
도 10은 일 실시예에 따라서 3차원 가상 이미지의 3차원 공간 위치를 자동적으로 구성하는 예를 나타낸다.
도 11은 일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치를 구성하는 예를 나타낸다.
도 12는 일 실시예에 따라 3차원 가상 이미지의 회전각을 구성하는 예를 나타낸다.
도 13은 일 실시예에 따라 3차원 가상 이미지의 결합점을 선택하는 예를 나타낸다.
도 14는 일 실시예에 따라서 3차원 가상 이미지의 결합점의 3차원 공간 위치를 구성하는 예를 나타낸다.
도 15는 일 실시예에 따라서, 결합점의 3차원 공간 위치가 잘못 구성되었음을 사용자에게 알리는 예를 나타낸다.
도 16은 일 실시예에 따라서, 3차원 가상 이미지 및 이 3차원 가상 이미지의 결합점을 함께 선택하고 구성하는 예를 나타낸다.
도 17은 일 실시예에 따라서 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 방법을 나타내는 흐름도이다.
도 18은 일 실시예에 따라, 이미지 가이드를 이용하여 지정된 위치에 도달하도록 촬영 오브젝트를 가이드하는 예를 나타낸다.
도 19는 일 실시예에 따른, 다수의 촬영 오브젝트들이 지정된 위치들에 도달하도록 가이드하는 예를 나타낸다.
도 20은 일 실시예에 따라, 촬영 오브젝트의 자세를 조정하기 위해 촬영 오브젝트를 가이드하는 예를 나타낸다.
도 21은 일 실시예에 따라 다수 촬영 오브젝트의 자세를 조정하기 위하여 다수 촬영 오브젝트를 가이드하는 예를 나타낸다.
도 22는 일 실시예에 따른 접속형 전자 디바이스의 예를 나타낸다.
도 23은 일 실시예에 따라서, 접속형 전자 디바이스 상에 디스플레이하는 다른 예를 나타낸다.
도 24는 다른 실시예에 따라서, 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 방법을 나타내는 흐름도이다.
도 25는 일 실시예에 따라 다수의 오브젝트 각각을 포커스하는 예를 나타낸다.
도 26은 일 실시예에 따라 다수의 촬영 오브젝트 각각을 포커스하는 다른 예를 나타낸다.
도 27은 일 실시예에 따라 촬영 오브젝트를 캡처하는 예를 나타낸다.
도 28은 일 실시예에 따라서 타겟 오브젝트와 비타겟 오브젝트를 인식하는 예를 나타낸다.
도 29는 일 실시예에 따라서 비타겟 오브젝트를 제거하는 예를 나타낸다.
도 30은 일 실시예에 따라서 촬영 부속물을 선택하고, 그 촬영 부속물의 3차원 공간 위치를 구성하는 예를 나타낸다.
도 31은 일 실시예에 따라서 촬영 부속물의 3차원 공간 위치를 구성하는 예를 나타낸다.
도 32는 일 실시예에 따라서 촬영 부속물의 회전각을 구성하는 예를 나타낸다.
도 33은 일 실시예에 따른 촬영 방법의 과정을 흐름도를 나타낸다.
도 34는 다른 실시예에 따른 촬영 방법을 설명하는 흐름도이다.
도 35는 일 실시예에 따라서 촬영 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하는 예를 나타낸다.
도 36은 일 실시예에 따라 촬영 오브젝트를 캡처하는 또 다른 예를 나타낸다.
도 37은 일 실시예에 따라 비타겟 오브젝트를 제거하는 다른 예를 나타낸다.
도 38은 일 실시예에 따른 촬영 방법을 나타내는 흐름도이다. 본 방법은 단일 촬영 오브젝트에 대하여 사용된다.
도 39는 일 실시예에 따른 촬영 방법을 나타내는 흐름도이다.
1 shows an example of photographing using a location.
2 is a schematic block diagram of a photographing apparatus 100 according to an exemplary embodiment.
3A is a detailed block diagram of a configuration of a photographing apparatus according to an exemplary embodiment.
FIG. 3B is a block diagram of a module that may be stored in the program storage unit 170 shown in FIG. 3A to perform a method of operating a photographing apparatus according to an exemplary embodiment.
4 is a flowchart illustrating a photographing method according to an exemplary embodiment.
5 illustrates a three-dimensional virtual image according to an embodiment.
6 illustrates an example of selecting a 3D virtual image according to an exemplary embodiment.
7 illustrates another example of selecting a 3D virtual image according to an exemplary embodiment.
8 and 9 show examples of notifying a user of a location area according to an embodiment.
10 illustrates an example of automatically configuring a 3D spatial position of a 3D virtual image according to an exemplary embodiment.
11 illustrates an example of configuring a 3D spatial position of a 3D virtual image according to an exemplary embodiment .
12 illustrates an example of configuring a rotation angle of a 3D virtual image according to an embodiment.
13 illustrates an example of selecting a joint point of a 3D virtual image according to an exemplary embodiment.
14 illustrates an example of configuring a 3D spatial position of a joining point of a 3D virtual image according to an embodiment.
15 illustrates an example of informing a user that a three-dimensional spatial location of a joining point is incorrectly configured, according to an embodiment.
16 illustrates an example of selecting and configuring a 3D virtual image and a joint point of the 3D virtual image together, according to an embodiment.
17 is a flowchart illustrating a method of performing imaging based on a 3D virtual image constructed according to an exemplary embodiment.
18 illustrates an example of guiding a photographing object to reach a designated position using an image guide, according to an embodiment.
19 illustrates an example of guiding a plurality of photographing objects to reach designated positions, according to an embodiment.
20 illustrates an example of guiding a photographing object to adjust a posture of the photographing object, according to an exemplary embodiment.
21 illustrates an example of guiding a plurality of photographing objects in order to adjust postures of the plurality of photographing objects according to an exemplary embodiment.
22 illustrates an example of a connected electronic device according to an embodiment.
23 illustrates another example of displaying on a connected electronic device, according to an embodiment.
24 is a flowchart illustrating a method of performing imaging based on a configured 3D virtual image, according to another exemplary embodiment.
25 illustrates an example of focusing each of a plurality of objects according to an exemplary embodiment.
26 illustrates another example of focusing each of a plurality of photographing objects according to an exemplary embodiment.
27 illustrates an example of capturing a photographing object according to an exemplary embodiment.
28 illustrates an example of recognizing a target object and a non-target object according to an embodiment.
29 illustrates an example of removing a non-target object according to an embodiment.
30 illustrates an example of selecting an imaging accessory and configuring a three-dimensional spatial position of the imaging accessory according to an embodiment.
31 illustrates an example of configuring a three-dimensional spatial position of an imaging accessory according to an embodiment.
32 illustrates an example of configuring a rotation angle of an imaging accessory according to an embodiment.
33 is a flowchart illustrating a process of a photographing method according to an embodiment.
34 is a flowchart illustrating a photographing method according to another exemplary embodiment.
35 illustrates an example of determining whether a posture of a photographing object matches a focusing posture, according to an exemplary embodiment.
36 illustrates another example of capturing a photographing object according to an embodiment.
37 illustrates another example of removing a non-target object according to an embodiment.
38 is a flowchart illustrating a photographing method according to an exemplary embodiment. This method is used for a single shooting object.
39 is a flowchart illustrating a photographing method according to an exemplary embodiment.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 <포함>한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 <...부>, <모듈> 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part <includes> a certain element, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as <... unit> and <module> described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 2 내지 도 39를 참조하여, 다양한 실시예들에 따른 촬영 방법들이 설명된다. 촬영 방법들은 촬영 장치를 통해 구현되거나, 컴퓨터 프로그램을 통해 구현될 수 있다. 예컨대, 방법은 촬영 장치에 설치된 카메라를 통해 구현되거나, 촬영 장치의 운영 시스템 내 기능 프로그램을 통해 구현될 수 있다. 2 to 39 , photographing methods according to various embodiments will be described. The photographing methods may be implemented through a photographing device or may be implemented through a computer program. For example, the method may be implemented through a camera installed in the photographing apparatus, or may be implemented through a function program in an operating system of the photographing apparatus.

도 2는 일 실시예에 따른 촬영 장치 100의 개략적인 블록도이다. 2 is a schematic block diagram of a photographing apparatus 100 according to an exemplary embodiment.

일 실시예에 따른 촬영 장치 100는 예를 들어, 카메라, 이동통신단말(예컨대, 스마트폰), 스마트 웨어러블 디바이스(예컨대, 스마트 시계, 스마트 팔찌, 스마트 안경 등), 개인용 컴퓨터, 태블릿 컴퓨터와 같이, 촬영 기능이 있는 전자 단말일 수 있다. 촬영 장치에 포함된 모듈은 특정 구성요소(예컨대, 센서)와 함께 구현될 수 있다. 일 예로서, 모듈은 디지털 신호 프로세서, FPGA(field programmable gate array)와 같은 범용 하드웨어 프로세서 또는 전용 칩과 같은 전용 하드웨어 프로세서, 또는 컴퓨터 프로그램과 같은 소프트웨어로 구현될 수 있다. 예를 들어, 컴퓨터 프로그램은 촬영 장치의 카메라 애플리케이션에 인스톨된 모듈로서 구현되거나, 촬영 장치 운영 시스템 내 기능 프로그램으로서 구현된다.The photographing device 100 according to an embodiment is, for example, a camera, a mobile communication terminal (eg, a smartphone), a smart wearable device (eg, a smart watch, a smart bracelet, smart glasses, etc.), a personal computer, a tablet computer, such as, It may be an electronic terminal having a photographing function. A module included in the photographing device may be implemented together with a specific component (eg, a sensor). As an example, the module may be implemented in a digital signal processor, a general-purpose hardware processor such as a field programmable gate array (FPGA), or a dedicated hardware processor such as a dedicated chip, or software such as a computer program. For example, the computer program is implemented as a module installed in the camera application of the photographing device, or is implemented as a function program in the photographing device operating system.

도 2를 참조하면, 촬영 장치 100는 촬영부 110, 제어부 120, 디스플레이부 130을 포함할 수 있다. Referring to FIG. 2 , the photographing apparatus 100 may include a photographing unit 110 , a control unit 120 , and a display unit 130 .

촬영부 110는 적어도 하나의 카메라를 포함할 수 있으며, 적외선(IR) 카메라를 포함할 수 있다. 또한, 촬영부 110는 광학계가 이동하는 경우, 동일한 방향으로 같이 이동할 수 있다. The photographing unit 110 may include at least one camera, and may include an infrared (IR) camera. Also, when the optical system moves, the photographing unit 110 may move in the same direction.

디스플레이부 130는 적어도 하나의 객체를 표시할 수 있다. 디스플레이부 130는 촬영의 대상이 되는 피사체의 구도와 촬영 조건을 확인할 수 있도록 뷰 파인더 영상을 표시할 수 있다. The display 130 may display at least one object. The display unit 130 may display a viewfinder image so that a composition of a subject to be photographed and a photographing condition can be checked.

또한, 디스플레이부 130는 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널 등으로 이루어질 수 있다. In addition, the display unit 130 may be formed of a liquid crystal display panel (LCD), an organic light emitting display panel, or the like.

일 실시예에 따라 디스플레이부 130는 사용자 입력을 수신할 수 있는 터치 센서티브 디스플레이로 구현될 수 있다. According to an embodiment, the display unit 130 may be implemented as a touch sensitive display capable of receiving a user input.

제어부 120는 촬영부 110과 디스플레이부 130 등 촬영 장치 100의 구성요소를 제어한다. The controller 120 controls components of the photographing apparatus 100 such as the photographing unit 110 and the display unit 130 .

일 실시예에 따라 제어부 120는 깊이 정보가 있는 배경 이미지를 획득하고, 상기 배경 이미지에 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하고, 상기 배치된 3차원 가상 이미지에 기초하여 상기 오브젝트를 촬영하도록 촬영부 110을 제어할 수 있다. According to an embodiment, the controller 120 acquires a background image having depth information, arranges a 3D virtual image used to represent an object on the background image, and captures the object based on the arranged 3D virtual image. The photographing unit 110 may be controlled.

일 실시예에 따라 제어부 120는 상기 3차원 가상 이미지의 3차원 가상 공간 위치 및/또는 3차원 자세(posture)를 결정할 수 있다. According to an embodiment, the controller 120 may determine a 3D virtual space location and/or a 3D posture of the 3D virtual image.

일 실시예에 따라 제어부 120는 촬영 부속물을 결정하고, 배경 이미지에 상기 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를 더 구성할 수 있다. According to an exemplary embodiment, the controller 120 may determine a photographing accessory and further configure a three-dimensional spatial position and/or a three-dimensional posture of the photographing accessory in the background image.

일 실시예에 따라 제어부 120는, 상기 3차원 가상 이미지를, 상기 배경 이미지 내 상기 3차원 가상 이미지의 상기 촬영 부속물(shooting appendage)에 기초하여 배치하고, 상기 3차원 가상 이미지와 이 3차원 가상 이미지의 상기 촬영 부속물 사이의 관계는 미리 구성된 촬영 시나리오 템플릿(pre-configured shooting scenario template)에 의해 정의될 수 있다. According to an embodiment, the controller 120 is configured to arrange the three-dimensional virtual image based on the shooting appendage of the three-dimensional virtual image in the background image, the three-dimensional virtual image and the three-dimensional virtual image A relationship between the shooting adjuncts of may be defined by a pre-configured shooting scenario template.

일 실시예에 따라 제어부 120는 상기 3차원 가상 이미지의 3차원 자세(posture)를, 상기 3차원 가상 이미지의 결합점(joint point)의 3차원 공간 위치를 배치함으로써 구성할 수 있다. According to an embodiment, the controller 120 may configure the 3D posture of the 3D virtual image by arranging 3D spatial positions of joint points of the 3D virtual image.

일 실시예에 따라 제어부 120는 상기 오브젝트와 상기 3차원 가상 이미지 사이의 차이를 결정하고, 상기 결정된 차이에 기초하여 촬영 가이드를 상기 촬영 장치 및/또는 웨어러블 디바이스(wearable device)를 통해 출력할 수 있다. According to an embodiment, the controller 120 may determine a difference between the object and the 3D virtual image, and output a photographing guide through the photographing apparatus and/or a wearable device based on the determined difference .

일 실시예에 따라 제어부 120는 상기 오브젝트를 상기 3차원 가상 이미지의 3차원 자세에 기초하여 검출하거나, 또는 상기 웨어러블 디바이스가 제공한 3차원 공간 위치 정보에 기초하여 검출하거나, 또는 사용자가 선택한 오브젝트에 대한 타겟 트랙킹(target tracking)에 기초하여 검출할 수 있다. According to an embodiment, the controller 120 detects the object based on the 3D posture of the 3D virtual image, detects the object based on 3D spatial location information provided by the wearable device, or detects the object based on the object selected by the user. It can be detected based on the target tracking (target tracking).

일 실시예에 따라 제어부 120는, 상기 오브젝트와 상기 3차원 가상 이미지 사이의 상기 3차원 자세 차이를, 상기 오브젝트의 결합점의 3차원 공간 위치와 상기 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치를 비교함으로써 결정할 수 있다. According to an embodiment, the controller 120 is configured to determine the three-dimensional posture difference between the object and the three-dimensional virtual image, a three-dimensional space position of a joint point of the object and a corresponding joint point of the three-dimensional virtual image. It can be determined by comparing spatial positions.

일 실시예에 따라 제어부 120는 상기 배경 이미지 내 상기 오브젝트의 자세를 검출하고, 상기 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하고, 상기 검출된 오브젝트의 자세가 상기 포커싱 자세와 일치하면 상기 오브젝트를 포커스하고 촬영하도록 상기 촬영부 110을 제어할 수 있다. According to an embodiment, the controller 120 detects the posture of the object in the background image, determines whether the posture of the object matches the focusing posture, and when the detected posture of the object matches the focusing posture, the object The photographing unit 110 may be controlled to focus and photograph.

일 실시예에 따라 제어부 120는 캡처되기 소망되는 상기 오브젝트 자세의 출현을 예상하는데 사용되는 상기 3차원 가상 이미지의 예상 자세를 결정하고, 상기 오브젝트가 상기 예상 자세를 취한다고 검출할 때 상기 오브젝트를 자동적으로 포커스하고 캡처하도록 상기 촬영부를 제어할 수 있다. According to an embodiment, the controller 120 determines an expected posture of the three-dimensional virtual image used to predict the appearance of the posture of the object desired to be captured, and automatically sets the object when detecting that the object assumes the posture. It is possible to control the photographing unit to focus and capture.

일 실시예에 따라 제어부 120는 연속적으로 촬영되기 소망되는 일련의 오브젝트 자세를 나타내는데 사용되는 상기 3차원 가상 이미지의 다중 자세를 결정하고, 상기 오브젝트가 미리 설정된 시간 동안 상기 배경 이미지 내 상기 3차원 가상 이미지와 연속적으로 일치하면, 상기 오브젝트를 자동적으로 포커스하고 연속적으로 촬영하도록 상기 촬영부를 제어할 수 있다. According to an embodiment, the controller 120 determines multiple postures of the three-dimensional virtual image used to represent a series of object postures desired to be continuously photographed, and the three-dimensional virtual image in the background image for a preset period of time when the object is set in advance. and continuously matches, the photographing unit may be controlled to automatically focus the object and continuously photograph the object.

일 실시예에 따라 제어부 120는, 상기 오브젝트가 포커스되고 촬영되기 전 또는 후에, 상기 3차원 가상 이미지와 일치하지 않는 오브젝트를 제거할 수 있다. According to an embodiment, the controller 120 may remove an object that does not match the 3D virtual image before or after the object is focused and photographed.

도 3a는 일 실시예에 따른 촬영 장치의 구성의 세부적인 블록도이다. 3A is a detailed block diagram of a configuration of a photographing apparatus according to an exemplary embodiment.

도 3a를 참조하면, 촬영 장치 100는 촬영부 110, 제어부 120, 디스플레이부 130, 디스플레이 구동부 131, 아날로그 신호 처리부 140, 이미지 신호 처리부 141, 메모리 150, 저장/판독 제어부 160, 메모리 카드 161, 프로그램 저장부 170, 조작부 180, 통신부 190를 포함한다. Referring to FIG. 3A , the photographing device 100 includes a photographing unit 110, a control unit 120, a display unit 130, a display driving unit 131, an analog signal processing unit 140, an image signal processing unit 141, a memory 150, a storage/reading control unit 160, a memory card 161, and a program storage. It includes a unit 170, an operation unit 180, and a communication unit 190.

촬영부 110는 입사광으로부터 전기적인 신호의 영상을 생성하는 구성요소로서, 촬영 렌즈 1, 조리개 2, 포커스 렌즈 3, 광분할부 4, 셔터 5, 촬상 센서 6, 촬상 센서 제어부 7, AF 디바이스 8, 포커스 렌즈 구동부 9, 렌즈 구동부 10, 초점거리 검출부 11을 포함한다. The photographing unit 110 is a component that generates an image of an electrical signal from incident light, and includes a photographing lens 1, an iris 2, a focus lens 3, a light splitter 4, a shutter 5, an image sensor 6, an image sensor controller 7, an AF device 8, and a focus. It includes a lens driving unit 9, a lens driving unit 10, and a focal length detecting unit 11.

촬영 렌즈 1는 피사체를 촬영하는 복수 군, 복수 매의 렌즈들을 구비할 수 있다. 렌즈 1은 렌즈 구동부 10에 의해 그 위치가 조절된다. 렌즈 구동부 10는 제어부 120에서 제공된 제어 신호에 따라 렌즈 1의 위치를 조절한다. The photographing lens 1 may include a plurality of groups and a plurality of lenses for photographing a subject. The position of the lens 1 is adjusted by the lens driving unit 10 . The lens driver 10 adjusts the position of the lens 1 according to the control signal provided from the controller 120 .

조리개 2는 조리개 구동부(미도시)에 의해 그 개폐 정도가 조절되며 촬상 센서 6로 입사되는 광량을 조절한다. The opening and closing degree of the diaphragm 2 is controlled by the diaphragm driver (not shown), and the amount of light incident to the image sensor 6 is adjusted.

포커스 렌즈 3는 포커스 렌즈 구동부 9에 의해 그 위치가 조절되며 포커싱 조절을 수행한다. The position of the focus lens 3 is adjusted by the focus lens driver 9 and focusing is performed.

광분할부 4는 촬영 렌즈 및 포커스 렌즈를 통과한 광 빔을 촬영 광 빔과 AF(오토 포커스)계쪽으로의 광 빔으로 분할한다. 예를 들어 광분할부 4는 하프 미러(half-mirror)가 될 수 있다. 광분할부 4에 의해 분할된 광 빔의 하나는 촬상 센서 6으로 입사된다. The light splitter 4 divides the light beam that has passed through the photographing lens and the focusing lens into a photographing light beam and a light beam toward the AF (autofocus) system. For example, the light splitter 4 may be a half-mirror. One of the light beams divided by the light splitter 4 is incident on the image sensor 6 .

광분할부 4를 투과한 광학 신호는 촬상 센서6의 수광면에 이르러 피사체의 상을 결상한다. 촬상 센서6는 광학 신호를 전기 신호로 변환하는 CCD(Charge Coupled Device) 이미지센서 또는 CIS(Complementary Metal Oxide Semiconductor Image Sensor)일 수 있다. 촬상 센서 제어부7는 촬성 센서 6에 포함된 셔터 5를 제어함으로써 촬상 센서 6에 대한 광량을 시간적으로 제한한다. 촬상 센서 6으로부터 데이터를 판독할 때는 셔터 5가 폐쇄된다. 촬상 센서 제어부7는 실시간으로 입력되는 영상 신호에 의해 자동으로 생성되는 제어 신호 또는 사용자의 조작에 의해 수동으로 입력되는 제어 신호에 따라 촬상 센서6를 제어할 수 있다.The optical signal transmitted through the light splitter 4 reaches the light receiving surface of the image sensor 6 to form an image of the subject. The imaging sensor 6 may be a Charge Coupled Device (CCD) image sensor or a Complementary Metal Oxide Semiconductor Image Sensor (CIS) that converts an optical signal into an electrical signal. The imaging sensor controller 7 temporally limits the amount of light to the imaging sensor 6 by controlling the shutter 5 included in the imaging sensor 6 . When data is read from the image sensor 6, the shutter 5 is closed. The imaging sensor controller 7 may control the imaging sensor 6 according to a control signal automatically generated by an image signal input in real time or a control signal manually input by a user's manipulation.

위상차 AF 디바이스 8은 광분할부 4를 투과한 빛을 수신한 후에 피사체까지의 거리를 측정하는 포커스 검출 디바이스로서 기능하는 위상차 타입의 거리 측정 장치를 나타낸다. 위상차 AF 디바이스 8는 AF 광축의 방향을 변경하는 AF 미러, AF 광 빔의 동공을 분할하기 위한 세퍼레이터 렌즈, 위상차 타입의 거리 특정(위상차 AF)을 수행하는 AF 센서를 포함할 수 있다. The phase difference AF device 8 represents a phase difference type distance measuring device that functions as a focus detection device that measures the distance to the subject after receiving the light passing through the light splitter 4 . The phase difference AF device 8 may include an AF mirror for changing the direction of the AF optical axis, a separator lens for dividing the pupil of the AF light beam, and an AF sensor for performing phase difference type distance specification (phase difference AF).

AF 디바이스 8로부터의 출력은 제어부 120에 입력되어 AF 제어부 121에 의해 위상차 AF의 AF 제어에 사용된다. 제어부 120 내의 AF 제어부 121는 촬상소자로부터의 출력에 근거하여 콘트라스트 AF의 AF 제어도 수행할 수 있다. The output from the AF device 8 is input to the control unit 120 and used by the AF control unit 121 for AF control of phase difference AF. The AF control unit 121 in the control unit 120 may also perform AF control of contrast AF based on the output from the image pickup device.

아날로그 신호 처리부 140는 촬상 센서 6으로부터 공급된 아날로그 신호에 대하여, 노이즈 저감 처리, 게인 조정, 파형 정형화, 아날로그-디지털 변환 처리 등을 수행한다.The analog signal processing unit 140 performs noise reduction processing, gain adjustment, waveform shaping, analog-to-digital conversion processing, and the like on the analog signal supplied from the imaging sensor 6 .

이미지 신호 처리부 141는 아날로그 신호 처리부 140에서 처리된 영상 데이터 신호에 대해 특수기능을 처리하기 위한 신호 처리부이다. 예를 들면, 입력된 영상 데이터에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색 보정(color correction), 색 향상(color enhancement) 화이트 밸런스 조절, 휘도의 평활화 및 칼라 쉐이딩(color shading) 등의 화질 개선 및 특수 효과 제공을 위한 영상 신호 처리를 수행할 수 있다. 이미지 신호 처리부 141는 입력된 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. The image signal processing unit 141 is a signal processing unit for processing a special function on the image data signal processed by the analog signal processing unit 140 . For example, noise reduction for input image data, gamma correction, color filter array interpolation, color matrix, color correction, color enhancement ( color enhancement) Image signal processing for improving image quality such as white balance adjustment, luminance smoothing, and color shading and providing special effects may be performed. The image signal processing unit 141 may compress input image data to generate an image file, or may restore image data from the image file.

이미지 신호 처리부141로부터 출력된 이미지 데이터는 메모리150를 통하여 또는 직접 저장/판독 제어부160에 입력되는데, 저장/판독 제어부160는 사용자로부터의 신호에 따라 또는 자동으로 영상 데이터를 메모리 카드161에 저장한다. 또한 저장/판독 제어부160는 메모리 카드161에 저장된 영상 파일로부터 영상에 관한 데이터를 판독하고, 이를 메모리150를 통해 또는 다른 경로를 통해 디스플레이 구동부 131에 입력하여 디스플레이부130에 이미지가 표시되도록 할 수도 있다. 메모리 카드161는 탈착 가능한 것일 수도 있고 촬영 장치 100에 영구 장착된 것일 수 있다. 예를 들면, 메모리 카드161는 SD(Secure Digital)카드 등의 플래시 메모리 카드 일 수 있다. The image data output from the image signal processing unit 141 is input to the storage/reading control unit 160 through the memory 150 or directly, and the storage/reading control unit 160 stores the image data in the memory card 161 according to a signal from a user or automatically. In addition, the storage/reading control unit 160 may read image data from an image file stored in the memory card 161 and input it to the display driver 131 through the memory 150 or another path to display the image on the display unit 130. . The memory card 161 may be removable or permanently installed in the photographing device 100 . For example, the memory card 161 may be a flash memory card such as an SD (Secure Digital) card.

아울러, 이미지 신호 처리부141는 디스플레이부130에 디스플레이하기 위한 표시 영상 신호 처리를 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다. In addition, the image signal processing unit 141 may perform display image signal processing for display on the display unit 130 . For example, luminance level adjustment, color correction, contrast adjustment, outline enhancement adjustment, screen division processing, character image generation, etc., image synthesis processing, etc. can be performed.

일 실시예에 따른 이미지 신호 처리부141는 입력된 이미지 데이터로부터 영상 인식 처리로서 얼굴 인식 등을 수행하여 타겟 오브젝트를 검출할 수 있다. The image signal processing unit 141 according to an embodiment may detect a target object by performing face recognition as image recognition processing from the input image data.

한편, 이미지 신호 처리부141에 의해 처리된 신호는 메모리150를 거쳐 제어부120에 입력될 수 도 있고, 메모리150를 거치지 않고 제어부120에 입력될 수도 있다. 여기서 메모리150는 촬영 장치 100의 메인 메모리로서 동작하고, 이미지 신호 처리부141 또는 제어부120가 동작 중에 필요한 정보를 임시로 저장한다. 프로그램 저장부170는 촬영 장치 100를 구동하는 운영 시스템, 응용 시스템 등의 프로그램을 저장할 수 있다.Meanwhile, the signal processed by the image signal processing unit 141 may be input to the control unit 120 through the memory 150 or may be input to the control unit 120 without going through the memory 150. Here, the memory 150 operates as a main memory of the photographing apparatus 100, and temporarily stores necessary information while the image signal processing unit 141 or the control unit 120 operates. The program storage unit 170 may store programs such as an operating system and an application system for driving the photographing device 100 .

촬영 장치 100는 촬영 장치 100의 동작 상태 또는 촬영 장치 100에서 촬영한 영상 정보를 표시하도록 디스플레이부130를 포함한다. 디스플레이부130는 시각적인 정보를 사용자에게 제공할 수 있다. 시각적인 정보를 제공하기 위해 디스플레이부130는 예를 들면, 액정 디스플레이 패널(LCD), 유기 발광 디스플레이 패널 등으로 이루어질 수 있다. The photographing device 100 includes a display unit 130 to display an operation state of the photographing device 100 or image information captured by the photographing apparatus 100 . The display unit 130 may provide visual information to the user. In order to provide visual information, the display unit 130 may be formed of, for example, a liquid crystal display panel (LCD), an organic light emitting display panel, or the like.

일 실시예에 따라, 디스플레이부130는 터치 입력을 인식할 수 있는 터치스크린일 수 있다. 따라서 촬영 장치 100는 디스플레이부 130를 통해 가상 이미지 선택 등과 같은 메뉴를 디스플레이하고 이러한 디스플레이부 130를 통해 사용자 선택을 수신할 수 있다. According to an embodiment, the display unit 130 may be a touch screen capable of recognizing a touch input. Accordingly, the photographing device 100 may display a menu such as virtual image selection through the display unit 130 and receive a user selection through the display unit 130 .

디스플레이 구동부 131는 디스플레이부130에 구동 신호를 제공한다.The display driving unit 131 provides a driving signal to the display unit 130 .

영상 촬영 장치 100의 전체 동작은 제어부120에 의해 제어될 수 있다. 제어부120는 렌즈 구동부10, 포커스 렌즈 구동부9, 촬상 센서 제어부7 등에 각 구성 요소의 동작을 위한 제어 신호를 제공한다. All operations of the image capturing apparatus 100 may be controlled by the controller 120 . The controller 120 provides control signals for the operation of each component to the lens driver 10 , the focus lens driver 9 , and the imaging sensor controller 7 .

제어부120는 입력되는 영상 신호를 처리하고, 이에 따라 또는 외부 입력 신호에 따라 각 구성 요소들을 제어할 수 있다. 제어부120는 하나 또는 복수개의 프로세서에 해당할 수 있다. 프로세서는 다수의 논리 게이트들의 어레이로 구현될 수도 있고, 범용적인 마이크로 프로세서와 이 마이크로 프로세서에서 실행될 수 있는 프로그램이 저장된 메모리의 조합으로 구현될 수도 있다. 또한, 다른 형태의 하드웨어로 구현될 수도 있음을 본 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.The controller 120 may process an input image signal and control each component according to the input image signal or an external input signal. The controller 120 may correspond to one or a plurality of processors. The processor may be implemented as an array of a plurality of logic gates, or may be implemented as a combination of a general-purpose microprocessor and a memory in which a program executable in the microprocessor is stored. In addition, it can be understood by those of ordinary skill in the art to which this embodiment pertains that it may be implemented in other types of hardware.

제어부120는 프로그램 저장부170에 저장된 프로그램을 실행하거나, 별도의 모듈을 구비하여, 오토 포커싱, 줌 변경, 초점 변경, 자동 노출 보정 등을 제어하기 위한 제어 신호를 생성하여, 렌즈 구동부10, 포커스 렌즈 구동부 9및 촬상 센서 제어부 7에 제공하고, 셔터, 스트로보 등 촬영 장치 100에 구비된 구성 요소들의 동작을 총괄적으로 제어할 수 있다.The control unit 120 executes a program stored in the program storage unit 170 or has a separate module to generate a control signal for controlling auto focusing, zoom change, focus change, automatic exposure compensation, etc. It is provided to the driving unit 9 and the imaging sensor control unit 7, and may collectively control operations of components included in the photographing apparatus 100, such as a shutter and a strobe.

또한 제어부120는 외부 모니터와 연결되어, 이미지 신호 처리부141로부터 입력된 영상 신호에 대해 외부 모니터에 디스플레이 되도록 소정의 영상 신호 처리를 행할 수 있으며, 이렇게 처리된 영상 데이터를 전송하여 상기 외부 모니터에서 해당 영상이 디스플레이 되도록 할 수 있다.In addition, the controller 120 may be connected to an external monitor to perform a predetermined image signal processing on the image signal input from the image signal processing unit 141 to be displayed on the external monitor, and transmit the processed image data to display the image on the external monitor. This can be displayed.

일 실시예에 따라 제어부 120는 프로그램 저장부 170에 저장된 프로그램의 하나 이상의 인스트럭션을 실행함으로써 촬영 장치 100가 가상 이미지를 이용하여 오브젝트를 촬영하게 할 수 있다. 프로그램 저장부 170에 저장된 프로그램은 도 3B를 참조하여 후술한다. According to an embodiment, the controller 120 may cause the photographing device 100 to photograph an object using a virtual image by executing one or more instructions of a program stored in the program storage unit 170 . The program stored in the program storage unit 170 will be described later with reference to FIG. 3B.

조작부 180는 사용자가 제어 신호를 입력할 수 있는 곳이다. 조작부 180는 정해진 시간 동안 촬상 센서 6를 빛에 노출하여 사진을 촬영하도록 하는 셔터-릴리즈 신호를 입력하는 셔터-릴리즈 버튼 181, 입력에 따라 화각을 넓어지게 하거나 화각을 좁아지게 줌 버튼 182, 전원의 온-오프를 제어하기 위한 제어 신호를 입력하는 전원 버튼 183, 그외 모드 선택 버튼, 기타 촬영 설정값 조절 버튼 등 다양한 기능 버튼들을 포함할 수 있다. 조작부 180는 버튼, 키보드, 터치 패드, 터치스크린, 원격 제어기 등과 같이 사용자가 제어 신호를 입력할 수 있는 어떠한 형태로 구현되어도 무방하다.The operation unit 180 is where the user can input a control signal. The control unit 180 includes a shutter-release button 181 that inputs a shutter-release signal to take a picture by exposing the image sensor 6 to light for a set period of time, a zoom button 182 that widens the angle of view or narrows the angle of view according to the input, and a power supply. It may include various function buttons, such as a power button 183 for inputting a control signal for on-off control, other mode selection buttons, and other shooting settings adjustment buttons. The manipulation unit 180 may be implemented in any form through which a user can input a control signal, such as a button, a keyboard, a touch pad, a touch screen, and a remote controller.

릴리즈 버튼 181은 영상 촬영 장치의 촬영 준비 시동용의 스위치 SW1과 촬영 시작용의 스위치 SW2를 가진 2단 스위치 구조를 갖는다. 줌 버튼 182은 촬영 장치의 초점 거리를 변경하기 위한 조작 스위치이다. 그리고, 위상차 AF 및 콘트라스트 AF의 결과에 의거해서, 포커스 렌즈 구동부 9을 통해서 AF 제어부 121에 의해 포커스 렌즈 3을 제어한다. 또한, 줌 버튼의 조작에 따라 제어부 120에 의해 렌즈 구동부 10를 통해서 초점 거리의 변경과 관계되는 촬영 렌즈 1을 제어한다. 이때, 촬영 렌즈 1의 위치는 초점 거리 검출부 11로부터 제어부 120로 전송되므로, 촬영렌즈 1의 초점 거리가 항상 검출될 수 있다. The release button 181 has a two-stage switch structure including a switch SW1 for starting the shooting preparation of the video image pickup device and a switch SW2 for starting shooting. The zoom button 182 is an operation switch for changing the focal length of the photographing apparatus. Then, based on the results of the phase difference AF and contrast AF, the focus lens 3 is controlled by the AF control unit 121 via the focus lens driving unit 9 . In addition, according to the operation of the zoom button, the control unit 120 controls the photographing lens 1 related to the change of the focal length through the lens driving unit 10 . In this case, since the position of the photographing lens 1 is transmitted from the focal length detector 11 to the controller 120, the focal length of the photographing lens 1 may always be detected.

통신부190는 일 실시예에 따라 와이파이, 블루투스, 블루투스 로우 에너지, 적외선 통신, 또는 레이저 빔 통신 중 적어도 하나를 이용하여 외부 디바이스와 페어링을 수행함으로써 스마트 와치 또는 스마트 글래스와 같은 외부 디바이스로 촬영 가이드에 대한 정보를 전송할 수 있다. 또한 일 실시예에 따라 통신부 190은 3G, 3GPP, 4G, 와이파이 중 적어도 하나를 이용하여 컨텐츠를 제공하는 서버에 접속하여 가상 이미지를 수신할 수 있다.The communication unit 190 performs pairing with an external device using at least one of Wi-Fi, Bluetooth, Bluetooth low energy, infrared communication, or laser beam communication, according to an embodiment, so as to use an external device such as a smart watch or smart glasses for a shooting guide. information can be transmitted. Also, according to an embodiment, the communication unit 190 may receive a virtual image by accessing a server providing content using at least one of 3G, 3GPP, 4G, and Wi-Fi.

도 3b는 일 실시예에 따른 촬영 장치의 동작 방법을 수행하기 위해 도 3a에 도시된 프로그램 저장부 170에 저장될 수 있는 모듈의 구성도이다. FIG. 3B is a block diagram of a module that may be stored in the program storage unit 170 shown in FIG. 3A to perform a method of operating a photographing apparatus according to an exemplary embodiment.

도 3b를 참조하면, 프로그램 저장부 170은 가상 이미지 결정 모듈 171, 이미지 획득 모듈 172, 가상 이미지 구성 모듈 173, 촬영 모듈 174, 촬영 부속물 관리 모듈 175, 자세 검출 모듈 176, 결정 모듈 177, 포커싱 및 촬영 모듈 178, 이미지 결합 모듈 179를 포함한다. Referring to FIG. 3B , the program storage unit 170 includes a virtual image determination module 171, an image acquisition module 172, a virtual image configuration module 173, a photographing module 174, a photographing accessory management module 175, a posture detection module 176, a determination module 177, focusing and photographing a module 178; an image combining module 179;

가상 이미지 결정 모듈 171은 선택적이다. The virtual image determination module 171 is optional.

가상 이미지 결정 모듈 1701은 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 결정하는 하나 이상의 인스트럭션을 포함할 수 있다. 가상 이미지 결정 모듈 171은 사용자 입력에 따라서 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 선택하는 하나 이상의 인스트럭션을 포함할 수 있다. 촬영 장치는 디폴트로 구성된 3차원 가상 이미지를 사용하여 촬영 오브젝트를 나타낼 수 있다. 디폴트로 구성된 3차원 가상 이미지를 사용하여 촬영 오브젝트를 나타낼 때, 가상 이미지 결정 모듈 171은 요구되지 않는다. The virtual image determining module 1701 may include one or more instructions for determining a 3D virtual image used to represent a photographed object. The virtual image determining module 171 may include one or more instructions for selecting a 3D virtual image used to represent a photographing object according to a user input. The photographing apparatus may represent the photographing object by using a 3D virtual image configured as a default. When a photographing object is represented using a 3D virtual image configured as a default, the virtual image determining module 171 is not required.

이미지 획득 모듈 172은 깊이 정보가 있는 배경 이미지를 획득하는 하나 이상의 인스트럭션을 포함할 수 있다. The image acquisition module 172 may include one or more instructions for acquiring a background image having depth information.

가상 이미지 구성 모듈 173은 배경 이미지 내 3차원 가상 이미지를 구성하는 하나 이상의 인스트럭션을 포함할 수 있다. The virtual image configuration module 173 may include one or more instructions for configuring a 3D virtual image in the background image.

일 예에서, 가상 이미지 구성 모듈 173은 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세를 구성한다.In one example, the virtual image configuration module 173 configures a three-dimensional space position and/or a three-dimensional posture of the three-dimensional virtual image.

일 예에서, 가상 이미지 구성 모듈 173은 3차원 가상 이미지의 3차원 공간 위치를 배경 이미지 내에 사용자 동작에 따라서 구성한다. 콘텐츠 각각이 위치한 영역이 3차원 가상 이미지를 위치시키기 적절한 영역인지 여부가 사용자에게 통지된다. In one example, the virtual image configuration module 173 configures the 3D spatial position of the 3D virtual image in the background image according to a user action. The user is notified whether the area in which each of the contents is located is a suitable area for placing the three-dimensional virtual image.

일 예에서, 가상 이미지 구성 모듈 173은 3차원 가상 이미지의 촬영 부속물에 기초하여 3차원 가상 이미지를 배경 이미지 내에 구성한다. 3차원 가상 이미지와 그 3차원 가상 이미지의 촬영 부속물 사이의 관계는 미리 구성된 촬영 시나리오 템플릿으로 한정된다. In one example, the virtual image construction module 173 configures a three-dimensional virtual image in the background image based on the photographing appendage of the three-dimensional virtual image. The relationship between the three-dimensional virtual image and the imaging appendage of the three-dimensional virtual image is defined by a pre-configured imaging scenario template.

일 예에서, 가상 이미지 구성 모듈 173은 3차원 가상 이미지의 3차원 자세를, 그 3차원 가상 이미지의 결합점의 3차원 공간 위치를 구성함으로써 구성한다. In one example, the virtual image construction module 173 configures the three-dimensional posture of the three-dimensional virtual image by configuring the three-dimensional space position of the joining point of the three-dimensional virtual image.

촬영 모듈 174은 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 하나 이상의 인스트럭션을 포함할 수 있다. 즉, 촬영 모듈 174은 촬영 구도가 3차원 가상 이미지를 이용해 완성된 후 그 구성된 3차원 가상 이미지에 기초하여 촬영을 수행한다. The imaging module 174 may include one or more instructions for performing imaging based on the configured 3D virtual image. That is, after the photographing composition is completed using the 3D virtual image, the photographing module 174 performs photographing based on the configured 3D virtual image.

바람직하게는, 촬영 모듈 174은 또한 배경 이미지 내 구성된 3차원 가상 이미지에 기초하여 조정을 수행하기 위하여 촬영 오브젝트를 가이드한다. 촬영 모듈 174는 차이 결정 모듈 174-1 및 촬영 가이드 모듈 174-2을 포함한다.차이 결정 모듈 174-1은 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트 사이의 차이를 결정하는 하나 이상의 인스트럭션을 포함할 수 있다. Preferably, the imaging module 174 also guides the imaging object to perform adjustment based on the three-dimensional virtual image configured in the background image. The photographing module 174 includes a difference determining module 174-1 and a photographing guide module 174-2. The difference determining module 174-1 may include one or more instructions for determining a difference between a three-dimensional virtual image in a background image and a photographing object. can

일 예에서, 차이 결정 모듈 174-1은 3차원 가상 이미지의 3차원 자세에 기초하여 촬영 오브젝트를 검출하거나, 웨어러블 디바이스가 제공한 3차원 공간 위치에 기초하여 촬영 오브젝트를 검출하거나, 또는 사용자가 선택한 오브젝트에 대한 타겟 트랙킹에 기초하여 촬영 오브젝트를 결정한다. In an example, the difference determining module 174-1 detects a photographing object based on a 3D posture of the 3D virtual image, detects a photographing object based on a 3D spatial position provided by the wearable device, or a user selected A photographing object is determined based on target tracking for the object.

일 예에서, 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트 사이의 차이는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이 및/또는 3차원 자세 차이를 포함한다.In one example, the difference between the 3D virtual image and the photographing object in the background image includes a 3D spatial position difference and/or 3D posture difference between the 3D virtual image and the photographing object in the background image.

일 예에서, 차이 결정 모듈 174-1은 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이를, 촬영 오브젝트의 결합점의 3차원 공간 위치와 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치를 비교함으로써 결정한다. In one example, the difference determining module 174-1 is configured to determine the 3D posture difference between the imaging object and the 3D virtual image, the 3D space position of the bonding point of the imaging object and the 3D space of the corresponding bonding point of the 3D virtual image Determined by comparing positions.

촬영 가이드 모듈 174-2는 결정된 차이에 기초하여 촬영 가이드를 출력하고, 촬영을 수행하는 하나 이상의 인스트럭션을 포함할 수 있다. The photographing guide module 174-2 may include one or more instructions for outputting a photographing guide based on the determined difference and performing photographing.

일 예에서, 촬영 가이드 모듈 174-2는 촬영 장치 및/또는 웨어러블 디바이스를 통하여 촬영 가이드를 출력한다. In one example, the photographing guide module 174-2 outputs the photographing guide through the photographing apparatus and/or the wearable device.

바람직하게는, 촬영 모듈 174은 적절한 경우에 촬영 오브젝트를 포커스하고 촬영한다. 일 예에서, 촬영 모듈 174은 촬영 오브젝트가 배경 이미지 내 3차원 가상 이미지와 일치할 때 그 촬영 오브젝트를 포커스하고 촬영한다. Preferably, the imaging module 174 focuses and captures a photographing object when appropriate. In one example, the capturing module 174 focuses and captures the capturing object when the capturing object matches the 3D virtual image in the background image.

일 예에서, 3차원 가상 이미지는 캡처하기 소망하는 촬영 오브젝트 자세의 출현을 예측하는데 사용되는 자세를 가지고 있고, 촬영 모듈 174은 자동으로 촬영 오브젝트를 포커스하고 촬영한다. In one example, the three-dimensional virtual image has a posture used to predict the appearance of a posture of a photographing object desired to be captured, and the imaging module 174 automatically focuses and captures the photographing object.

일 예에서, 촬영 오브젝트는 다수의 오브젝트를 포함하고, 각 오브젝트에 대하여, 촬영 모듈 174은 그 오브젝트가 배경 이미지 내 3차원 가상 이미지와 일치할 때 그 오브젝트를 포커스하고 촬영한다. 촬영 장치는 오브젝트들에 상응하는 촬영 이미지들에서 그 오브젝트들을 추출하고, 모든 추출된 오브젝트들과 배경 이미지를 결합하는 이미지 결합 모듈(도시하지 않음)을 더 포함한다. In one example, the photographing object includes a plurality of objects, and for each object, the photographing module 174 focuses and captures the object when the object matches the three-dimensional virtual image in the background image. The photographing apparatus further includes an image combining module (not shown) that extracts the objects from the photographed images corresponding to the objects, and combines all the extracted objects with a background image.

일 예에서, 3차원 가상 이미지는 연속적으로 촬영되기 소망되는 일련의 촬영 오브젝트자세를 나타내는데 사용되는 다중 자세를 가지고, 촬영 오브젝트가 미리 설정된 시간 기간 동안 배경 이미지 내 3차원 가상 이미지와 연속적으로 일치하면, 촬영 모듈 174은 촬영 오브젝트를 자동으로 포커스하고 연속으로 촬영한다.In one example, the three-dimensional virtual image has multiple postures used to represent a series of photographing object postures desired to be continuously photographed, and when the photographing object continuously matches the three-dimensional virtual image in the background image for a preset time period, The photographing module 174 automatically focuses on the photographing object and continuously captures the photographing object.

일 예에서, 촬영 오브젝트는 다수의 오브젝트를 포함하고, 촬영 모듈 174은 촬영 오브젝트가 포커스되고 촬영되기 전에, 3차원 가상 이미지와 일치하지 않는 오브젝트를 촬영 미리보기 이미지에서 제거하거나; 또는 촬영 오브젝트가 포커스되고 촬영된 후에, 3차원 가상 이미지와 일치하지 않는 오브젝트를 촬영 이미지에서 제거한다. In one example, the shooting object includes a plurality of objects, and before the shooting object is focused and captured, the object that does not match the three-dimensional virtual image is removed from the shooting preview image; Alternatively, after a photographing object is focused and photographed, an object that does not match the 3D virtual image is removed from the photographed image.

일 예에서, 프로그램 저장부 170은 촬영 부속물 관리 모듈 175를 더 포함할 수 있다. 촬영 부속물 관리 모듈 17는 촬영 부속물 결정 모듈 175-1 및 촬영 부속물 구성 모듈 175-2를 더 포함한다. 촬영 부속물 결정 모듈 175-1은 촬영 부속물을 결정하는 하나 이상의 인스트럭션을 포함할 수 있다. 촬영 부속물 구성 모듈175-2는 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를 배경 이미지 내에 구성하는 하나 이상의 인스트럭션을 포함할 수 있다. 자세 검출 모듈 176은 배경 이미지 내 촬영 오브젝트의 자세를 검출하는 하나 이상의 인스트럭션을 포함할 수 있다. In one example, the program storage unit 170 may further include a photographing accessory management module 175 . The photographing accessory management module 17 further includes a photographing accessory determining module 175-1 and a photographing accessory configuration module 175-2. The imaging accessory determining module 175 - 1 may include one or more instructions for determining an imaging accessory. The imaging accessory configuration module 175-2 may include one or more instructions for configuring the 3D spatial position and/or the 3D posture of the imaging accessory in the background image. The posture detection module 176 may include one or more instructions for detecting the posture of the photographed object in the background image.

결정 모듈 177은 촬영 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하는 하나 이상의 인스트럭션을 포함할 수 있다. The determination module 177 may include one or more instructions for determining whether the posture of the photographing object matches the focusing posture.

일 예에서, 포커싱 자세는 촬영 오브젝트의 가상 이미지의 소망하는 촬영 자세를 나타내는데 사용되는 미리-구성된 자세이거나, 또는 미리-구성된 촬영 자세 데이터베이스 내 임의의 촬영 자세이거나, 또는 촬영 오브젝트의 최선 촬영 자세이다. In one example, the focusing posture is a pre-configured posture used to indicate a desired shooting posture of the virtual image of the imaging object, or any shooting posture in the pre-configured imaging posture database, or is the best shooting posture of the imaging object.

포커싱 및 촬영 모듈 178은 검출된 촬영 오브젝트의 자세가 포커싱 자세와 일치하면, 그 촬영 오브젝트를 포커스하고 촬영하는 하나 이상의 인스트럭션을 포함할 수 있다. The focusing and photographing module 178 may include one or more instructions for focusing and photographing the photographing object when the detected posture of the photographing object matches the focusing posture.

일 예에서, 포커싱 및 촬영 모듈 178은 촬영 오브젝트를 자동으로 포커스하고 촬영하는 하나 이상의 인스트럭션을 포함할 수 있다. In one example, the focusing and capturing module 178 may include one or more instructions for automatically focusing and capturing a photographing object.

일 예에서, 포커싱 자세는 캡처하기 소망하는 촬영 오브젝트자세의 출현을 예측하는데 사용되는 자세이고, 포커싱 및 촬영 모듈 178은 그 오브젝트를 자동으로 포커스하고 촬영한다. In one example, the focusing posture is a posture used to predict the appearance of a posture of a photographing object desired to be captured, and the focusing and photographing module 178 automatically focuses and captures the object.

일 예에서, 촬영 오브젝트는 다수의 오브젝트를 포함하고, 포커싱 및 촬영 모듈 178은 각 오브젝트에 대하여, 촬영 오브젝트의 자세가 포커싱 자세와 일치할 때, 그 오브젝트를 포커스하고 촬영한다.In one example, the photographing object includes a plurality of objects, and the focusing and photographing module 178 focuses and captures the object when the posture of the photographing object matches the focusing posture with respect to each object.

프로그램 저장부 170는 이미지 결합 모듈 179를 더 포함하고, 이미지 결합 모듈 179는 상응하는 촬영 이미지들에서 오브젝트들을 추출하고, 모든 추출된 오브젝트들과 배경 이미지를 결합하는 하나 이상의 인스트럭션을 포함할 수 있다. The program storage unit 170 may further include an image combining module 179, and the image combining module 179 may include one or more instructions for extracting objects from corresponding captured images and combining all the extracted objects with a background image.

일 예에서, 포커싱 자세는 연속적으로 촬영되기 소망되는 일련의 촬영 오브젝트자세를 나타내는데 사용되는 자세들을 포함하고, 자세 검출 모듈 176은 배경 이미지 내 촬영 오브젝트의 자세를 연속으로 검출하고, 포커싱 및 촬영 모듈 178은 촬영 오브젝트의 자세가 포커싱 자세와 미리 설정된 시간 기간 동안 연속으로 일치한다고 검출되면, 그 촬영 오브젝트를 자동으로 포커스하고 연속으로 촬영한다. In one example, the focusing posture includes postures used to indicate a series of photographing object postures desired to be continuously photographed, the posture detection module 176 continuously detects the posture of the photographing object in the background image, and the focusing and photographing module 178 If it is detected that the posture of the photographing object continuously coincides with the focusing posture for a preset time period, the camera automatically focuses the photographing object and continuously shoots the photographing object.

일 예에서, 촬영 오브젝트는 다수의 오브젝트를 포함하고, 포커싱 및 촬영 모듈 178은 촬영 오브젝트가 포커스되고 촬영되기 전에, 포커싱 자세와 일치하지 않는 오브젝트를 촬영 미리보기 이미지에서 제거하거나, 또는 촬영 오브젝트가 포커스되고 촬영된 후에, 포커싱 자세와 일치하지 않는 오브젝트를 촬영 이미지에서 제거한다. In one example, the photographing object includes a plurality of objects, and the focusing and photographing module 178 removes an object that does not match the focusing posture from the photographing preview image before the photographing object is focused and photographed, or the photographing object is focused After being captured and taken, objects that do not match the focusing posture are removed from the captured image.

<전체적인 동작> <Overall action>

도 4는 일 실시예에 따른 촬영 방법을 설명하는 흐름도이다.4 is a flowchart illustrating a photographing method according to an exemplary embodiment.

도 4를 참조하면, 동작 410에서, 촬영 장치 100는 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 결정할 수 있다. 일 예에 따라 3차원 가상 이미지는 사용자 입력에 따라서 선택될 수 있다. 선택적으로, 촬영 장치 100는 디폴트로 구성된 3차원 가상 이미지를 사용하여 촬영 오브젝트를 나타낼 수 있다. 디폴트로 구성된 3차원 가상 이미지가 촬영 오브젝트를 나타내는데 사용되면, 동작 410의 절차는 수행되지 않을 수 있다.Referring to FIG. 4 , in operation 410 , the photographing device 100 may determine a 3D virtual image used to represent a photographing object. According to an example, the 3D virtual image may be selected according to a user input. Optionally, the photographing device 100 may represent the photographing object using a 3D virtual image configured as a default. If a 3D virtual image configured as a default is used to represent a photographing object, the procedure of operation 410 may not be performed.

동작 420에서, 촬영 장치 100는 깊이 정보가 있는 배경 이미지를 획득할 수 있다. In operation 420, the photographing device 100 may acquire a background image having depth information.

배경 이미지는 촬영이 수행된 시나리오의 실제 이미지, 즉, 촬영이 완료된 시나리오 이미지이거나, 또는 촬영이 수행된 시나리오의 미리보기 이미지 즉, 카메라가 실시간으로 캡처한 미리보기 시나리오 이미지일 수 있다.The background image may be an actual image of a scenario in which shooting is performed, that is, a scenario image in which shooting is completed, or a preview image of a scenario in which shooting is performed, ie, a preview scenario image captured by the camera in real time.

동작 430에서, 촬영 장치 100는 3차원 가상 이미지를 배경 이미지에 배치할 수 있다. 예컨대, 촬영 장치 100는 깊이 정보가 있는 배경 이미지에 3차원 가상 이미지를 구성한다. 촬영 오브젝트의 촬영 효과는, 사진작가 및/또는 촬영 오브젝트가 촬영 수행 전에 미리 촬영 효과를 달성하도록, 시뮬레이션될 수 있다. In operation 430, the photographing device 100 may arrange a 3D virtual image on the background image. For example, the photographing device 100 configures a 3D virtual image on a background image having depth information. The shooting effect of the shooting object may be simulated so that the photographer and/or the shooting object achieve the shooting effect in advance before performing the shooting.

동작 440에서, 촬영 장치 100는 구성된 3차원 가상 이미지에 기초하여 오브젝트 촬영을 수행할 수 있다. 즉, 3차원 가상 이미지를 이용해 촬영 구도 잡기가 미리 수행된 후 촬영은 구성된 3차원 가상 이미지에 기초하여 수행될 수 있다.In operation 440, the photographing device 100 may photograph an object based on the configured 3D virtual image. That is, after composing a photographing composition is performed in advance using the 3D virtual image, the photographing may be performed based on the configured 3D virtual image.

<3차원 가상 이미지 결정><Determination of 3D virtual image>

동작 410에서 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 결정하는 절차는 아래에 상세히 기술된다. A procedure for determining a 3D virtual image used to represent a photographed object in operation 410 will be described in detail below.

일 실시예에 따라, 3차원 가상 이미지는 지정된 자세의 3차원 캐릭터 모델일 수 있다. 예를 들어, 3차원 가상 이미지는 사용자, 카툰, 유명인(star), 연예인, 영화 배역 등의 3차원 가상 이미지일 수 있다. According to an embodiment, the 3D virtual image may be a 3D character model of a specified posture. For example, the 3D virtual image may be a 3D virtual image of a user, a cartoon, a celebrity, a celebrity, a movie cast, and the like.

도 5는실시예에 따른 3차원 가상 이미지를 예시한다. 도 5의 510은 카툰의 3차원 가상 이미지를 예시하고, 도 5의 520은 유명인의 3차원 가상 이미지를 예시하고, 도 5의 530은 영화 배역의 3차원 가상 이미지를 예시한다. 5 illustrates a three-dimensional virtual image according to an embodiment. 510 of FIG. 5 illustrates a 3D virtual image of a cartoon, 520 of FIG. 5 illustrates a 3D virtual image of a celebrity, and 530 of FIG. 5 illustrates a 3D virtual image of a movie cast.

일 실시예에 따라, 3차원 가상 이미지는 미리 저장된 3차원 가상 이미지이거나, 다른 이미지에 따라서 제작된 3차원 가상 이미지일 수 있다. 예를 들어, 사용자가 기 저장된 3차원 가상 이미지들중에서 3차원 가상 이미지를 선택할 수 있도록, 소정 량의 3차원 가상 이미지를 저장하는 데이터베이스가 구축될 수 있다. 선택적으로, 3차원 가상 이미지는 사용자의 조작에 따라서 인터넷 등을 통해서 얻어질 수 있다. 선택적으로, 3차원 가상 이미지는 사용자가 선택한 이미지에 따라서 3D 모델링을 통해 제작될 수 있다. 사용자가 선택한 이미지는 로컬에 저장된 이미지이거나, 인터넷 등을 통해 얻은 이미지이거나, 사용자가 타겟 인물로서 촬영된 이미지이거나, 다른 사람이 타겟 인물로서 촬영된 이미지일 수 있다. 이미지가 다수의 인물을 포함하면, 사용자는 3차원 가상 이미지를 제작하기 위하여 타겟 인물을 선택할 수 있다. 예를 들어, 사용자는 로컬 스토리지에 저장된 이미지로서, 인물 A, 인물 B 및 인물 C를 포함하는 이미지를 선택한 후, 타겟 인물로서 인물 A를 선택하여, 상응하는 3차원 가상 이미지를 제작할 수 있다. 인터넷 등을 통해 얻은 3차원 가상 이미지 및 사용자가 제공한 이미지에 따라서 제작된 3차원 가상 이미지는 촬영 자세 데이터베이스에 저장될 수 있고, 따라서 사용자는 3차원 가상 이미지를 사용해 다음 번 촬영을 수행할 수 있다.According to an embodiment, the 3D virtual image may be a pre-stored 3D virtual image or a 3D virtual image prepared according to another image. For example, a database for storing a predetermined amount of 3D virtual images may be built so that a user can select a 3D virtual image from among previously stored 3D virtual images. Optionally, the three-dimensional virtual image may be obtained through the Internet or the like according to a user's manipulation. Optionally, the 3D virtual image may be produced through 3D modeling according to the image selected by the user. The image selected by the user may be a locally stored image, an image obtained through the Internet, etc., an image photographed by the user as a target person, or an image photographed by another person as a target person. If the image includes a plurality of people, the user may select a target person to create a three-dimensional virtual image. For example, the user may select an image including person A, person B, and person C as an image stored in the local storage, then select person A as a target person to create a corresponding three-dimensional virtual image. The 3D virtual image obtained through the Internet, etc. and the 3D virtual image produced according to the image provided by the user can be stored in the shooting posture database, so that the user can perform the next shooting using the 3D virtual image .

더욱이, 특정 촬영 자세를 취한 촬영 오브젝트의 촬영 이미지는 3차원 가상 이미지로서 촬영 자세 데이터베이스에 자동적으로 저장될 수 있다. 예를 들어, 사용자 승인에 따라서, 촬영 오브젝트의 촬영 이미지가 공통 촬영 자세 데이터베이스에 저장되는지 여부가 결정된다. 촬영 자세 데이터베이스에서, 촬영 오브젝트의 이미지는 외모와 같은 특징이 디스플레이되지 않는 방식으로 디스플레이될 수 있다. Moreover, the photographed image of the photographing object taking a specific photographing posture may be automatically stored in the photographing posture database as a three-dimensional virtual image. For example, according to user approval, it is determined whether the photographed image of the photographing object is stored in the common photographing posture database. In the photographing posture database, the image of the photographing object may be displayed in such a way that features such as appearance are not displayed.

촬영 오브젝트가 단일 오브젝트이면, 단일 3차원 가상 이미지 또는 일련의 자세가 있는 3차원 가상 이미지가 결정될 수 있다. 촬영 오브젝트가 복수개이면, 다수의 3차원 가상 이미지 각각이 결정되거나 또는 다수 3차원 가상 이미지의 조합이 결정될 수 있다. If the photographing object is a single object, a single three-dimensional virtual image or a three-dimensional virtual image with a series of postures may be determined. When there are a plurality of photographing objects, each of a plurality of 3D virtual images may be determined or a combination of a plurality of 3D virtual images may be determined.

일 실시예에 따라, 일련의 촬영 오브젝트 자세가 연속적으로 촬영되는 연속 촬영 상태에서, 일련의 자세가 있는 3차원 가상 이미지가 결정될 수 있다. 예를 들어, 촬영 자세 데이터베이스는 3차원 가상 이미지의 자세 시퀀스를 저장하고, 3차원 가상 이미지 및 이 3차원 가상 이미지의 일련의 자세는 자세 시퀀스를 선택함으로써 결정될 수 있다. 선택적으로3차원 가상 이미지가 먼저 결정된 후 3차원 가상 이미지의 일련의 자세가 3차원 가상 이미지의 여러 다른 자세로부터 선택될 수 있다. 더욱이, 사용자를 캡처링하는 경우(즉, 촬영 오브젝트의 소망하는 자세가 캡처됨), 일련의 자세가 있는 3차원 가상 이미지가 결정될 수 있다. 예를 들어, 3차원 가상 이미지의 자세 시퀀스(posture sequence)가 먼저 결정된 후 캡처되기 소망되는 자세가 그 자세 시퀀스에서 결정될 수 있다. 따라서 자세 시퀀스에서 원하는 자세가 나오기 전에 촬영하기 희망하는 자세의 발생을 예측하는데 소정 자세가 이용됨으로써, 촬영 오브젝트의 자세가 촬영 오브젝트의 소정 자세와 일치한다고 결정될 때, 촬영 오브젝트가 포커스되고 촬영되어, 캡처되기 소망되는 자세에 있는 촬영 오브젝트의 이미지가 캡처될 수 있다.According to an embodiment, in a continuous photographing state in which a series of postures of a photographing object are continuously photographed, a three-dimensional virtual image having a series of postures may be determined. For example, the photographing posture database stores a posture sequence of a three-dimensional virtual image, and the three-dimensional virtual image and a series of postures of the three-dimensional virtual image may be determined by selecting the posture sequence. Optionally, after the three-dimensional virtual image is first determined, a series of postures of the three-dimensional virtual image may be selected from several different postures of the three-dimensional virtual image. Moreover, when capturing the user (ie, the desired pose of the imaging object is captured), a three-dimensional virtual image with a series of poses can be determined. For example, a posture sequence of a three-dimensional virtual image may be first determined and then a posture desired to be captured may be determined from the posture sequence. Therefore, the predetermined posture is used to predict the occurrence of a desired posture to be photographed before the desired posture is obtained in the posture sequence, so that when it is determined that the posture of the photographing object matches the predetermined posture of the photographing object, the photographing object is focused, photographed, and captured An image of the imaging object in the desired posture may be captured.

일 실시예에 따라, 촬영 오브젝트가 다수의 오브젝트를 포함하는 경우, 단일의 3차원 가상 이미지가 각각의 오브젝트에 대하여 연속적으로 결정될 수 있다. 선택적으로, 일련의 자세가 있는 3차원 가상 이미지는 오브젝트들에 대하여 각각 결정된다. 따라서 다수의 3차원 가상 이미지는 다수의 오브젝트에 대하여 각각 결정된다. 다른 예에서, 다수의 3차원 가상 이미지를 포함하는 조합(combination)이 결정된 후 그 조합 내 어느 3차원 가상 이미지가 각 오브젝트에 대하여 결정되었는지 결정된다. 예컨대, 촬영 자세 데이터베이스는 다수의 3차원 가상 이미지를 포함하는 다수의 조합을 저장할 수 있고, 조합 내 다수의 3차원 가상 이미지의 자세들은 서로와 관련될 수 있다(예컨대, 다수의 3차원 가상 이미지의 자세들은 서로 조직화될 수 있다).According to an embodiment, when the photographing object includes a plurality of objects, a single 3D virtual image may be continuously determined for each object. Optionally, a three-dimensional virtual image with a series of poses is determined for each of the objects. Accordingly, a plurality of three-dimensional virtual images are respectively determined for a plurality of objects. In another example, after a combination comprising a plurality of three-dimensional virtual images is determined, it is determined which three-dimensional virtual image in the combination has been determined for each object. For example, the photographing posture database may store a plurality of combinations including a plurality of three-dimensional virtual images, and the postures of the plurality of three-dimensional virtual images in the combination may be related to each other (eg, of the plurality of three-dimensional virtual images). Postures can be organized with each other).

일 실시예에 따라, 촬영 자세 데이터베이스는 촬영 시나리오 템플릿을 더 포함할 수 있다. 촬영 시나리오 템플릿은 한정된 3차원 공간 위치와 한정된 3차원 자세를 갖는 3차원 가상 이미지를 포함한다. 이 촬영 시나리오 템플릿이 선택되면 3차원 공간 위치와 3차원 자세는 추가적으로 구성되지 않고, 촬영 시나리오 템플릿 내 3차원 가상 이미지에 기초하여 촬영이 직접 수행될 수 있다. 예를 들어, 촬영 시나리오 템플릿이 선택된 후, 이 촬영 시나리오 템플릿 내 3차원 가상 이미지는 변경될 수 있고, 변경된 3차원 가상 이미지는 촬영 시나리오 템플릿 내 오리지널 3차원 가상 이미지의 3차원 공간 위치와 3차원 자세를 여전히 가질 수 있다. According to an embodiment, the photographing posture database may further include a photographing scenario template. The shooting scenario template includes a three-dimensional virtual image having a limited three-dimensional spatial position and a limited three-dimensional posture. When the shooting scenario template is selected, the 3D spatial position and 3D posture are not additionally configured, and imaging may be directly performed based on the 3D virtual image in the shooting scenario template. For example, after the shooting scenario template is selected, the 3D virtual image in the shooting scenario template may be changed, and the changed 3D virtual image is the 3D spatial position and 3D posture of the original 3D virtual image in the shooting scenario template can still have

또한, 촬영 시나리오 템플릿은 3차원 가상 이미지 뿐만 아니라 보조 옵션(예컨대, 촬영 관련 오브젝트)을 또한 포함할 수 있다. 따라서 촬영 시나리오 템플릿은 3차원 가상 이미지와 보조 옵션 사이의 여러 관계를 제한함으로써 상응하는(corresponding) 촬영 시나리오를 나타낼 수 있다. 예컨대, 장소의 도움을 받아 촬영한 일부 자세는 특정 환경 또는 특정 오브젝트(예컨대, 태양, 동상, 건물 등)에 의해 지원을 받을 수 있다. 이러한 환경이나 오브젝트는 촬영 관련 오브젝트다. 촬영 시나리오 템플릿은 실제 이미지이거나, 또는 사람 자세 뼈대(person posture skeleton)와 실제 배경의 조합을 나타내는 개략도이거나, 또는 사람 자세 뼈대와 촬영 관련 오브젝트를 나타내는 개략도일 수 있다. 전통적 촬영 자세는 인터넷 등을 통해 얻어질 수 있고, 환경 또는 오브젝트의 지원을 받는 촬영 자세는 이 전통적 촬영 자세에서 결정될 수 있다. 이 환경이나 오브젝트는 촬영 관련 오브젝트로서 마크되고, 촬영 관련 오브젝트의 속성(예컨대, 색, 선명도)은 촬영 자세 데이터베이스에 저장된다. In addition, the shooting scenario template may also include an auxiliary option (eg, a shooting-related object) as well as a three-dimensional virtual image. Therefore, the shooting scenario template can represent a corresponding shooting scenario by limiting several relationships between the three-dimensional virtual image and the auxiliary options. For example, some postures photographed with the help of a location may be supported by a specific environment or a specific object (eg, the sun, a statue, a building, etc.). Such an environment or object is a shooting-related object. The shooting scenario template may be an actual image, a schematic diagram indicating a combination of a person posture skeleton and an actual background, or a schematic diagram indicating a human posture skeleton and a photographing-related object. The traditional photographing posture may be obtained through the Internet or the like, and the photographing posture supported by the environment or object may be determined from the traditional photographing posture. This environment or object is marked as a photographing-related object, and properties (eg, color, sharpness) of the photographing-related object are stored in the photographing posture database.

일 실시예에 따라, 촬영 장치 100는 촬영 오브젝트를 나타내는데 사용된 3차원 가상 이미지가 촬영 장치에서 디폴트로 구성되어, 자동적으로 결정할 수 있거나, 또는 촬영 오브젝트를 나타내는데 사용된 3차원 가상 이미지를 사용자 입력에 따라서 선택할 수 있다.According to an embodiment, the photographing device 100 may automatically determine the 3D virtual image used to represent the photographing object as a default in the photographing device, or may input the 3D virtual image used to represent the photographing object to the user input. So you can choose.

촬영 오브젝트를 나타내는데 사용된 3차원 가상 이미지를 사용자 입력에 따라서 선택하는 예에 있어서, 촬영 오브젝트를 나타내는데 사용된 3차원 가상 이미지는 사용자 음성 동작(user voice operation), 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강-현실 사람-컴퓨터 상호작용 인터페이스용 동작, 외부 컨트롤러용 동작 중 적어도 하나에 따라서 선택될 수 있다.In an example of selecting a three-dimensional virtual image used to represent a photographed object according to a user input, the three-dimensional virtual image used to represent a photographed object is a user voice operation, a physical button operation, a touch screen operation, a gesture It may be selected according to at least one of an action, an action for an augmented-reality human-computer interaction interface, and an action for an external controller.

사용자 음성 동작에 따라 3차원 가상 이미지를 선택하는 예에서, "제1의 3차원 가상 이미지를 선택"하라는 음성 명령이 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되어, 촬영 오브젝트를 나타내는 제1의 3차원 가상 이미지가 선택된다. In an example of selecting a three-dimensional virtual image according to a user's voice operation, when a voice command to "select a first three-dimensional virtual image" is received, voice recognition is performed on the voice command to perform a first A three-dimensional virtual image of

물리 버튼 동작에 따라 3차원 가상 이미지를 선택하는 예에서, 조작되는 물리 버튼은 홈 버튼(메인 스크린 버튼), 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼 등일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼을 통해 선택 박스를 이동시켜서 3차원 가상 이미지를 선택한 후 홈 버튼을 통해 선택할 수 있다.In an example of selecting a 3D virtual image according to a physical button operation, the manipulated physical button may be a home button (a main screen button), a volume adjustment button, a power button, and other newly added buttons. For example, a user may select a 3D virtual image by moving a selection box through a volume adjustment button and then select it through a home button.

터치 스크린 동작에 따라 3차원 가상 이미지를 선택하는 예에서, 사용자는 특정 3차원 가상 이미지 또는 이 특정 3차원 가상 이미지를 선택하는데 사용되는 선택 박스를 미리 정의된 방식으로 클릭할 수 있다. 미리 정의된 방식은 짧게 누르기, 길게 누르기, 미리 설정된 회수만큼 짧게 누르기, 짧게 누르기와 길게 누르기를 교대하기일 수 있다. 선택적으로는, 사용자는 특정 3차원 가상 이미지를 드래그할 수 있다. In the example of selecting a three-dimensional virtual image according to a touch screen operation, the user may click in a predefined manner a specific three-dimensional virtual image or a selection box used to select this particular three-dimensional virtual image. The predefined manner may be a short press, a long press, a short press for a preset number of times, and an alternating short press and a long press. Optionally, the user may drag a specific three-dimensional virtual image.

도 6은 일 실시예에 따라서 3차원 가상 이미지를 선택하는 예를 나타낸다. 6 illustrates an example of selecting a 3D virtual image according to an exemplary embodiment.

도 6을 참조하면, 촬영 장치 100의 일 예로서 스마트폰이 도시되어 있다. 촬영 장치 100의 디스플레이부 130은 디스플레이 영역 130a와 메뉴 영역 130b로 분할될 수 있다. 디스플레이 영역 130a는 획득한 배경 이미지, 결정한 3차원 가상 이미지, 촬영한 오브젝트를 디스플레이하는 데 이용될 수 있다. 메뉴 영역 130b는 실시예들에 따른 촬영 방법에 따른 메뉴를 제공하고 사용자로 하여금 선택할 수 있도록 하는 데 이용될 수 있다. 메뉴 영역 130b는 <3차원 가상 이미지 선택> 메시지 및 사용자가 선택할 수 있는 하나 이상의 3차원 가상 이미지를 표시할 수 있다. 사용자는 메뉴 영역 130b에서 2개의 3차원 가상 이미지를 포함하는 조합 610을 선택할 수 있다. . 따라서 2개의 3차원 가상 이미지의 조합을 선택하여 디스플레이 영역 130a로 드래그하는 사용자 동작에 따라서 2개의 3차원 가상 이미지가 선택될 수 있다. Referring to FIG. 6 , a smartphone is illustrated as an example of the photographing device 100 . The display unit 130 of the photographing apparatus 100 may be divided into a display area 130a and a menu area 130b. The display area 130a may be used to display the acquired background image, the determined 3D virtual image, and the photographed object. The menu area 130b may be used to provide a menu according to a photographing method according to embodiments and to allow a user to select it. The menu area 130b may display a <select 3D virtual image> message and one or more 3D virtual images that the user can select. The user may select a combination 610 including two 3D virtual images in the menu area 130b. . Accordingly, the two 3D virtual images may be selected according to a user action of selecting a combination of the two 3D virtual images and dragging them to the display area 130a.

사용자 제스처 동작에 따라 3차원 가상 이미지를 선택하는 예에서, 제스처 동작은 한손이나 양손으로 수행될 수 있다. 제스처 동작은 손을 흔들거나, 손으로 원을 그리거나, 손으로 사각형을 그리거나, 손으로 삼각형을 그리거나, 위로 손짓하거나, 아래로 손짓하거나, 왼쪽으로 손짓하거나 오른쪽으로 손짓하는 것과 같은 동작일 수 있다. 사용자 제스처는 현재 자세 검출 디바이스를 통해 검출되고 인식될 수 있다. In an example of selecting a 3D virtual image according to a user gesture operation, the gesture operation may be performed with one hand or both hands. A gesture action is an action such as waving a hand, drawing a circle with the hand, drawing a square with the hand, drawing a triangle with the hand, beckoning up, beckoning down, beckoning left, or beckoning right. can The user gesture may be detected and recognized through the current posture detection device.

도 7은 일 실시예에 따라서 3차원 가상 이미지를 선택하는 다른 예를 나타낸다. 7 illustrates another example of selecting a 3D virtual image according to an exemplary embodiment.

도 7을 참조하면, 2개의 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지들이 연속적으로 선택된다. 각각의 촬영 오브젝트에 상응하는 3차원 가상 이미지가 선택되면, 다수의 3차원 가상 이미지는 사용자의 선택을 위해 제시될 수 있고, 선택 박스 710는 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓인 사용자 제스처 동작에 따라서 선택되고(예컨대, 위로 손짓하는 사용자 동작이 검출되면, 선택될 3차원 가상 이미지의 선택 박스 쪽으로 선택 라벨이 이동함), 손으로 원을 그리는 사용자 제스처 동작에 따라서 선택이 된다. 더욱이, 음성 동작 720을 통해 선택이 이루어질 수 있다.Referring to FIG. 7 , 3D virtual images used to represent two photographed objects are continuously selected. When a three-dimensional virtual image corresponding to each photographing object is selected, a plurality of three-dimensional virtual images may be presented for the user's selection, and a selection box 710 may indicate an up gesture, a downward gesture, a left gesture, or a right gesture. is selected according to a user gesture action (e.g., when a user gesture of gesturing upwards is detected, the selection label moves toward the selection box of the three-dimensional virtual image to be selected), and the selection is made according to the user gesture action of drawing a circle with the hand. . Moreover, the selection may be made via voice action 720.

일 실시예에 따라, 3차원 가상 이미지는 외부 컨트롤러용 사용자 동작에 따라 선택될 수 있다(예컨대, 촬영 장치와 연관된 수기펜(handwriting pen)에 대한 동작, 웨어러블 디바이스와 같은 원격 제어 기능을 구비한 디바이스에 대한 동작임). 즉, 3차원 가상 이미지는 외부 컨트롤러로부터의 명령에 따라서 선택된다. 예를 들어, 촬영 장치가 수기펜과 연결되면, 3차원 가상 이미지는 수기펜으로부터의 명령에 따라서 선택된다. 사용자는 3차원 가상 이미지를 선택하기 위한 선택 박스를 수기펜의 버튼을 사용해 이동시키고, 선택된 3차원 가상 이미지를 수기펜으로 클릭함으로써 선택할 수 있다.According to an embodiment, the 3D virtual image may be selected according to a user action for an external controller (eg, an action for a handwriting pen associated with a photographing apparatus, a device having a remote control function, such as a wearable device) action for). That is, the three-dimensional virtual image is selected according to a command from an external controller. For example, when the imaging device is connected to the handwriting pen, a 3D virtual image is selected according to a command from the handwriting pen. The user can select a 3D virtual image by moving a selection box for selecting the 3D virtual image using a button of the handwriting pen, and clicking the selected 3D virtual image with the handwriting pen.

동작 410에서, 결정되는 3차원 가상 이미지의 종류나 3차원 가상 이미지가 결정되는 방법에 상관없이, 이미 선택된 3차원 가상 이미지를 변경하기 위하여 사용자는 후속단계에서 3차원 가상 이미지를 다시 결정할 수 있음을 이해해야 한다. In operation 410, regardless of the type of the determined 3D virtual image or the method in which the 3D virtual image is determined, in order to change the already selected 3D virtual image, the user can determine the 3D virtual image again in a subsequent step have to understand

<배경 이미지 획득><Acquisition of background image>

깊이 정보가 있는 배경 이미지를 얻는 절차는 동작 420에 기재되어 있고, 아래에서 상세히 설명된다.A procedure for obtaining a background image with depth information is described in operation 420 and is described in detail below.

배경 이미지는 촬영이 수행된 시나리오의 실제 촬영 이미지(즉, 촬영된 시나리오 이미지)일 수 있거나, 촬영이 수행된 시나리오의 미리보기 이미지(즉, 카메라가 실시간으로 캡처한 미리보기 시나리오 이미지)일 수 있다.The background image may be an actual shot image of a scenario in which shooting is performed (ie, a shot scenario image), or may be a preview image of a scenario in which shooting is performed (ie, a preview scenario image captured in real time by the camera). .

깊이 정보가 있는 배경 이미지는 촬영 장치의 깊이 카메라를 통해 얻어지거나, 2개 이상의 카메라를 포함하는 카메라 어레이를 통해 얻어질 수 있다. 카메라 어레이 내 2개 이상의 카메라는 깊이 정보를 얻도록 시야각(view angles)이 중첩되어 있다. The background image with depth information may be obtained through a depth camera of a photographing apparatus, or may be obtained through a camera array including two or more cameras. Two or more cameras in the camera array have overlapping view angles to obtain depth information.

동작 410의 절차와 동작 420의 절차는 순서대로 수행되거나, 또는 동작 420에서 절차가 먼저 수행되고 그 후 동작 410에서 절차가 수행되거나, 또는 동작 410과 동작 420에서의 절차가 동시에 수행될 수 있고, 절차의 수행 순서는 본 발명에서 제한되지 않음을 이해해야 한다.The procedure of operation 410 and the procedure of operation 420 may be performed sequentially, or the procedure may be performed first in operation 420 and then the procedure may be performed after that in operation 410, or the procedure in operation 410 and operation 420 may be performed simultaneously, It should be understood that the order of performing the procedures is not limited in the present invention.

일 실시예에서, 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지가 먼저 결정되고, 그 후, 깊이 정보가 있는 배경 이미지가 얻어질 수 있다. 예를 들어, 카메라 애플리케이션이 실행된 후, 3차원 가상 이미지를 선택하는데 사용되는 인터페이스가 사용자에게 제시되고, 따라서 사용자는 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 선택한다. 사용자가 3차원 가상 이미지를 선택한 후, 깊이 정보를 갖는 배경 이미지가 얻어진다. In an embodiment, a three-dimensional virtual image used to represent a photographing object may be first determined, and then, a background image with depth information may be obtained. For example, after the camera application is executed, an interface used to select a three-dimensional virtual image is presented to the user, and thus the user selects a three-dimensional virtual image used to represent a photographing object. After the user selects the 3D virtual image, a background image having depth information is obtained.

다른 실시예에서, 깊이 정보가 있는 배경 이미지가 먼저 결정되고, 그 후 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지가 결정될 수 있다. 예를 들어, 카메라 애플리케이션이 실행된 후, 깊이 정보를 갖는 배경 이미지가 얻어지고, 그 다음, 3차원 가상 이미지를 선택하는데 사용되는 인터페이스가 사용자에게 제시되고, 따라서 사용자는 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 선택할 수 있다. In another embodiment, a background image with depth information may be determined first, and then a three-dimensional virtual image used to represent a photographing object may be determined. For example, after the camera application is executed, a background image with depth information is obtained, and then an interface used to select a three-dimensional virtual image is presented to the user, so that the user can use 3 You can choose a dimensional virtual image.

<3차원 가상 이미지를 배경 이미지에 구성><Composition of 3D virtual image to background image>

이하에서, 3차원 가상 이미지를 배경 이미지에 구성하는 동작 430의 절차를 상세히 설명한다. Hereinafter, the procedure of operation 430 of configuring the 3D virtual image in the background image will be described in detail.

일 실시예에서, 촬영 오브젝트의 촬영 효과는 3차원 가상 이미지를 깊이 정보가 있는 배경 이미지에 구성함으로써 시뮬레이션될 수 있고, 따라서 사진사 및/또는 촬영 오브젝트는 촬영이 수행되기 전에 미리 촬영 효과를 알 수 있다. In one embodiment, the shooting effect of the shooting object can be simulated by composing a three-dimensional virtual image on a background image with depth information, so that the photographer and/or the shooting object can know the shooting effect in advance before shooting is performed .

특히, 촬영 오브젝트를 나타내는데 사용된 3차원 가상 이미지가 결정된 후, 결정된 3차원 가상 이미지는 움직일 수 있는 상태에 있다. 이 3차원 가상 이미지는 사용자 입력에 따라서 배경 이미지에 구성되거나, 또는 배경 이미지에 자동적으로 구성될 수 있다. 일 예에서, 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세가 구성될 수 있다. In particular, after the three-dimensional virtual image used to represent the photographing object is determined, the determined three-dimensional virtual image is in a movable state. This three-dimensional virtual image may be configured in the background image according to user input, or may be automatically configured in the background image. In one example, a three-dimensional spatial position and/or a three-dimensional posture of the three-dimensional virtual image may be configured.

3차원 가상 이미지의 3차원 공간 위치가 배경 이미지에 구성되면, 3차원 가상 이미지의 위치들 각각은 수평 방향, 수직 방향 및 깊이 방향을 따라서 구성될 수 있다. 3차원 가상 이미지의 3차원 공간 위치는 배경 이미지에 대략적으로 구성되거나, 또는 배경 이미지에 정밀하게 구성되거나, 배경 이미지에 대략적으로 구성된 후 정밀하게 조정될 수 있지만, 본 발명은 이에 한정되지 않는다. When the 3D spatial position of the 3D virtual image is configured in the background image, each of the positions of the 3D virtual image may be configured along a horizontal direction, a vertical direction, and a depth direction. The three-dimensional spatial position of the three-dimensional virtual image may be roughly configured on the background image, or precisely configured on the background image, or finely adjusted after being roughly configured on the background image, but the present invention is not limited thereto.

일 실시예에서, 3차원 가상 이미지의 3차원 공간 위치는 배경 이미지에 자동적으로 대략 구성되거나, 사용자 동작에 따라서 배경 이미지에 대략적으로 구성될 수 있다. 3차원 가상 이미지의 3차원 공간 위치가 사용자 동작에 따라서 배경 이미지에 대략적으로 구성되면, 선택된 3차원 가상 이미지는 사용자 동작(예컨대, 드래깅 등)에 따라서 배경 이미지 내 상응하는 위치로 이동될 수 있다. 이 시점에서 3차원 가상 이미지의 자세는 디폴트 자세이고, 후속하여 사용자는 3차원 가상 이미지의 자세를 정밀하게 조정할 수 있다. 도 6에 도시된 바와 같이, 선택된 3차원 가상 이미지를 배경 이미지의 위치에 드래그하는 사용자 동작을 통해서, 3차원 가상 이미지가 배경 이미지의 위치상에 구성된다. 선택적으로, 3차원 가상 이미지는 배경 이미지 내 사용자가 지정한 위치상에 구성된다. 예를 들어, 선택된 3차원 가상 이미지가 위치 지정될 상황에 있을 때, 배경 이미지의 위치를 클릭하는 사용자 동작에 의해, 이 3차원 가상 이미지는 배경 이미지 내 특정 위치에 구성될 수 있다. 더욱이, 3차원 가상 이미지의 3차원 공간 위치는 다른 사용자 동작을 통해서 배경 이미지 내에 대략적으로 구성될 수 있다. In one embodiment, the three-dimensional spatial position of the three-dimensional virtual image may be approximately constructed automatically in the background image, or may be approximately constructed in the background image according to a user action. If the three-dimensional spatial position of the three-dimensional virtual image is roughly configured in the background image according to a user action, the selected three-dimensional virtual image may be moved to a corresponding position in the background image according to the user action (eg, dragging, etc.). At this point, the posture of the 3D virtual image is the default posture, and subsequently, the user can precisely adjust the posture of the 3D virtual image. As shown in FIG. 6 , a 3D virtual image is constructed on the position of the background image through a user operation of dragging the selected 3D virtual image to the position of the background image. Optionally, the three-dimensional virtual image is constructed on a user-specified location within the background image. For example, when the selected three-dimensional virtual image is in a situation to be positioned, by a user action of clicking on the position of the background image, the three-dimensional virtual image may be configured at a specific position in the background image. Moreover, the three-dimensional spatial position of the three-dimensional virtual image can be roughly constructed in the background image through different user actions.

일 실시예에서, 컨텐츠의 각 부분이 위치된 영역이 3차원 가상 이미지를 배치하기 적절한지 여부가 사용자에게 질의될 수 있다. 예를 들어, 사용자가 3차원 가상 이미지의 3차원 공간 위치를 배경 이미지에 구성하기 전에, 컨텐츠의 각 부분이 위치된 영역이 3차원 가상 이미지를 배치하기 적절한지 여부가 사용자에게 질의될 수 있다. 따라서 사용자가 3차원 가상 이미지의 3차원 공간 위치를 배경 이미지에 구성할 때, 사용자는 3차원 가상 이미지를 배치하기 적절한 위치와 적절하지 않은 위치를 알 수 있다. 다른 실시예에서, 사용자가 3차원 가상 이미지를 그 3차원 가상 이미지를 배치하기 적절하지 않은 위치에 배치할 때, 그 영역은 3차원 가상 이미지를 배치하기 적절하지 않다는 알림이 사용자에게 통지되거나, 또는 3차원 가상 이미지를 그 3차원 가상 이미지를 배치하기 적절한 영역에 배치하는 방법이 사용자에게 통지될 수 있다. In one embodiment, the user may be queried whether the region in which each piece of content is located is suitable for placing a three-dimensional virtual image. For example, before the user configures the three-dimensional spatial position of the three-dimensional virtual image in the background image, the user may be queried whether the region in which each part of the content is located is suitable for placing the three-dimensional virtual image. Therefore, when the user configures the 3D spatial position of the 3D virtual image on the background image, the user can know an appropriate position and an inappropriate position for arranging the 3D virtual image. In another embodiment, when the user places the three-dimensional virtual image in an unsuitable location for placing the three-dimensional virtual image, the user is notified that the area is not suitable for placing the three-dimensional virtual image, or The user may be notified of how to place the three-dimensional virtual image in an area suitable for placing the three-dimensional virtual image.

도 8과 9는 일 실시예에 따라서 사용자에게 위치 영역을 통지하는 예를 나타낸다. 8 and 9 show examples of notifying a user of a location area according to an embodiment.

도 8에 도시된 바와 같이, 3차원 가상 이미지를 배치하기 적절한 영역(예컨대, 지면) 810이 마크될 수 있다. 선택적으로, 사용자가 3차원 가상 이미지를 그 3차원 가상 이미지가 배치되기 적절한 영역에 배치할 수 있도록 가이드 하기 위해 "3차원 가상 이미지를 배치하기 적절한 영역에 3차원 가상 이미지를 배치하세요"라고 안내 메시지 820를 사용자에게 통지할 수 있다.As shown in FIG. 8 , a region (eg, the ground) 810 suitable for placing a 3D virtual image may be marked. Optionally, a guiding message "Place the 3D virtual image in an area suitable for placing the 3D virtual image" to guide the user to place the 3D virtual image in an area suitable for placing the 3D virtual image 820 may be notified to the user.

도 9에 도시된 바와 같이, 3차원 가상 이미지를 배치하기 적절하지 않은 영역(예컨대, 물이 있는 영역 또는 방해물이 있는 영역) 910, 930이 마크될 수 있다. 선택적으로는, 사용자가 3차원 가상 이미지를 그 3차원 가상 이미지가 배치되기 적절하지 않은 영역에 배치하면, "그 영역은 3차원 가상 이미지를 배치하기 적절하지 않습니다. 3차원 가상 이미지를 배치하기 적절한 영역에 3차원 가상 이미지를 배치하세요"라고 안내 메시지 920가 사용자에게 통지될 수 있다.As shown in FIG. 9 , regions 910 and 930 that are not suitable for placing a three-dimensional virtual image (eg, a region with water or a region with an obstruction) may be marked. Optionally, when the user places the 3D virtual image in an area where the 3D virtual image is not suitable for placing the 3D virtual image, "The area is not suitable for placing the 3D virtual image. The 3D virtual image is not suitable for placing the 3D virtual image. Place a three-dimensional virtual image on the area." a guidance message 920 may be notified to the user.

일 실시예에서, 배경 이미지 내 콘텐츠의 각 부분은, 콘텐츠의 각 부분이 배치된 영역이 3차원 가상 이미지를 배치하기 적절한 영역인지 여부를 사용자에게 알리기 위하여, 분석될 수 있다. 예를 들어, 콘텐츠 부분이 위치한 영역이 3차원 가상 이미지를 배치하기 적절한지 여부를 결정하기 위하여, 미리 확립된 시나리오 엘리먼트 데이터베이스(pre-established scenario element database)에 따라서, 배경 이미지 내 콘텐츠는 복수의 부분으로 구획되고(segmented), 콘텐츠의 각 부분의 속성은 그 콘텐츠가 물, 방해물, 대지 등인지 결정하기 위하여 분석된다. 또한, 3차원 가상 이미지를 배치하기 적절하지 않은 영역을 배경 이미지에 수동으로 마크할 수 있다. In one embodiment, each piece of content in the background image may be analyzed to inform the user whether the area in which each piece of content is placed is a suitable area for placing a three-dimensional virtual image. For example, according to a pre-established scenario element database, in order to determine whether a region in which the content part is located is suitable for placing a three-dimensional virtual image, the content in the background image is divided into a plurality of parts segmented, and the properties of each part of the content are analyzed to determine whether the content is water, obstructions, land, etc. In addition, it is possible to manually mark an area that is not suitable for placing a three-dimensional virtual image on the background image.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치를 배경 이미지에 자동적으로 대략 구성하는 예에서, 3차원 가상 이미지는 배경 이미지 내 적절한 위치상에 자동적으로 구성될 수 있다. 예를 들어, 적절한 위치는 배경 이미지의 중앙 위치이거나, 전체 3차원 가상 이미지가 배경 이미지 내에 배치될 수 있는 위치일 수 있다. 이 때, 3차원 가상 이미지의 자세는 디폴트 자세일 수 있고, 후속하여 사용자는 3차원 가상 이미지의 자세를 정밀하게 조정할 수 있다. In an example of automatically roughly configuring the three-dimensional spatial position of the three-dimensional virtual image in the background image according to an embodiment, the three-dimensional virtual image may be automatically constructed on an appropriate position in the background image. For example, a suitable location may be a central location of the background image, or a location where the entire three-dimensional virtual image can be placed within the background image. In this case, the posture of the 3D virtual image may be a default posture, and subsequently, the user may precisely adjust the posture of the 3D virtual image.

일 실시예에 따르면, 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 촬영 시나리오 템플릿에 따라 자동적으로 배경 이미지에 구성될 수 있다. 예컨대, 선택된 촬영 시나리오 템플릿이 촬영 관련 오브젝트를 포함하지 않으면, 3차원 가상 이미지는 적절한 위치에 자동적으로 구성되고, 3차원 가상 이미지의 3차원 자세는 그 템플릿 내 사람의 자세에 따라서 자동적으로 구성되고, 그 후에, 사용자는 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세를 정밀하게 조정할 수 있다. 또한, 촬영 시나리오는 인물의 3차원 공간 위치 및 3차원 자세를 제한함으로, 3차원 가상 이미지의 3차원 공간 위치 및 3차원 자세는 촬영 시나리오 템플릿 내 인물의 3차원 공간 위치 및 3차원 자세에 따라서 자동적으로 구성될 수 있다. According to an embodiment, the 3D spatial position and/or 3D posture of the 3D virtual image may be automatically configured in the background image according to the shooting scenario template. For example, if the selected shooting scenario template does not include a shooting-related object, a three-dimensional virtual image is automatically constructed in an appropriate position, and a three-dimensional posture of the three-dimensional virtual image is automatically constructed according to the posture of a person in the template; After that, the user can precisely adjust the three-dimensional spatial position and/or the three-dimensional posture of the three-dimensional virtual image. In addition, since the shooting scenario limits the 3D spatial position and 3D posture of the person, the 3D spatial position and 3D posture of the 3D virtual image are automatically determined according to the 3D spatial position and 3D posture of the person in the shooting scenario template. can be composed of

다른 실시예에서, 선택된 촬영 시나리오 템플릿이 촬영 관련 오브젝트를 포함하면, 3차원 자세는 배경 이미지 내 3차원 가상 이미지의 촬영 관련 오브젝트에 기초하여 구성될 수 있고, 촬영 관련 오브젝트와 3차원 가상 이미지 사이의 관계는 미리-구성된 촬영 시나리오 템플릿으로 제한될 수 있다. 이 상황에서, 사용자는 배경 이미지 내 촬영 관련 오브젝트를 선택하도록 요구받거나, 또는 배경 이미지 내 촬영 관련 오브젝트는 촬영 시나리오 템플릿 내 상응하는 촬영 관련 오브젝트에 따라서 자동적으로 검출될 수 있다. 예를 들어, 이 촬영 시나리오 템플릿 내 촬영 관련 오브젝트의 특성들은 기계 학습 방법에 따라서 연구되거나, 또는 배경 이미지 내 콘텐츠의 여러 부분과 촬영 시나리오 템플릿 내 촬영 관련 오브젝트는, 배경 이미지가 촬영 시나리오 템플릿 내 촬영 관련 오브젝트와 일치하는 촬영 관련 오브젝트를 포함하는지 여부를 결정하기 위하여, 서로 비교될 수 있다. 배경 이미지가 촬영 시나리오 템플릿 내 촬영 관련 오브젝트와 일치하는 촬영 관련 오브젝트를 포함하지 않는다고 결정되면, 배경 이미지가 재-획득되거나, 사용자는 촬영 관련 오브젝트를 수동으로 선택할 것을 요구받을 수 있다. 배경 이미지가 촬영 시나리오 템플릿 내 촬영 관련 오브젝트와 일치하는 촬영 관련 오브젝트를 포함한다고 결정되면, 3차원 가상 이미지의 적절한 3차원 공간 위치 및/또는 3차원 자세가 그 촬영 관련 오브젝트에 따라서 배경 이미지 내에 자동적으로 구성된다. In another embodiment, if the selected shooting scenario template includes a shooting-related object, the three-dimensional posture may be configured based on the shooting-related object of the three-dimensional virtual image in the background image, and between the shooting-related object and the 3D virtual image Relationships may be limited to pre-configured shooting scenario templates. In this situation, the user is asked to select a shooting-related object in the background image, or the shooting-related object in the background image may be automatically detected according to the corresponding shooting-related object in the shooting scenario template. For example, the properties of the shooting-related object in the shooting scenario template are studied according to a machine learning method, or various parts of the content in the background image and shooting-related objects in the shooting scenario template are In order to determine whether a photographing-related object that matches the object is included, they may be compared with each other. If it is determined that the background image does not include a shooting-related object that matches the shooting-related object in the shooting scenario template, the background image is re-acquired, or the user may be required to manually select the shooting-related object. If it is determined that the background image includes a shooting-related object that matches the shooting-related object in the shooting scenario template, an appropriate 3D spatial position and/or 3D posture of the 3D virtual image is automatically set in the background image according to the shooting-related object is composed

예를 들어, 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 그 배경 이미지 내 3차원 가상 이미지에 있는 촬영 관련 오브젝트의 사이즈, 3차원 공간 위치 및/또는 3차원 자세에 기초하여 구성되며, 3차원 가상 이미지의 촬영 관련 오브젝트와 3차원 가상 이미지 사이의 3차원 공간 위치 관계 및/또는 3차원 자세 관계는 미리 설정된 촬영 시나리오 템플릿으로 제한된다. 예를 들어, 배경 이미지 내 3차원 가상 이미지의 사이즈는 촬영 시나리오 템플릿 및 배경 이미지 각각에서 촬영 관련 오브젝트의 사이즈 비율에 따라서 결정될 수 있다. 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 촬영 시나리오 템플릿 내 촬영 관련 오브젝트와 3차원 가상 이미지 사이의 3차원 공간 위치 관계, 배경 이미지 내 촬영 관련 오브젝트의 3차원 공간 위치, 및 배경 이미지 내 3차원 가상 이미지의 사이즈에 따라서 결정될 수 있다.For example, the three-dimensional spatial position and/or three-dimensional posture of the three-dimensional virtual image in the background image is dependent on the size, three-dimensional spatial position and/or three-dimensional posture of the imaging-related object in the three-dimensional virtual image within the background image. Based on the configuration, the 3D spatial positional relationship and/or the 3D posture relationship between the 3D virtual image and the shooting-related object of the 3D virtual image are limited to a preset shooting scenario template. For example, the size of the 3D virtual image in the background image may be determined according to a size ratio of the shooting-related object in each of the shooting scenario template and the background image. The three-dimensional spatial position and/or three-dimensional posture of the three-dimensional virtual image in the background image is the three-dimensional spatial positional relationship between the three-dimensional virtual image and the photographing-related object in the photographing scenario template, and the three-dimensional spatial position of the photographing-related object in the background image , and the size of the 3D virtual image in the background image.

도 10은 일 실시예에 따라서 3차원 가상 이미지의 3차원 공간 위치를 자동적으로 구성하는 예를 나타낸다. 도 10에 도시된 바와 같이, 사용자 동작에 따라서, <손으로 태양 잡기> 촬영 시나리오 템플릿이 선택되고, 사용자는 촬영 관련 오브젝트인 <태양>를 선택하도록 요구받는다. <태양>이 선택된 후 3차원 가상 이미지의 3차원 공간 위치, 3차원 자세 및 사이즈 중 적어도 하나의 항목(item)이 자동적으로 계산되고, 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세가 배경 이미지 내에 구성된다. 배경 이미지 내 <태양>의 위치가 적절하지 않으면, 사용자에게 구성 실패가 통지되고, 이유가 디스플레이된다. 또한, 3차원 가상 이미지의 위치가 자동적으로 구성된 후, 그 구성된 위치는 사용자 수동 동작에 따라 추가로 조정될 수 있다. 10 illustrates an example of automatically configuring a 3D spatial position of a 3D virtual image according to an exemplary embodiment. As shown in FIG. 10 , a <Catch the sun by hand> shooting scenario template is selected according to a user action, and the user is requested to select a <sun>, which is a shooting-related object. After <Sun> is selected, at least one item among the three-dimensional space position, three-dimensional posture, and size of the three-dimensional virtual image is automatically calculated, and the three-dimensional space position and/or three-dimensional posture of the three-dimensional virtual image is constructed within the background image. If the position of the <sun> in the background image is not appropriate, the user is notified of the configuration failure, and the reason is displayed. In addition, after the position of the three-dimensional virtual image is automatically configured, the configured position may be further adjusted according to a user's manual operation.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 정밀하게 구성하는 예에서, 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치는 다양한 사용자 동작에 따라서 정밀하게 구성될 수 있다. 예를 들어, 음성 동작, 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강 현실 사용자-컴퓨터 상호작용 인터페이스, 외부 컨트롤러에 대한 동작 등과 같은 사용자 동작에 따라서 정밀한 구성이 구현될 수 있다. In the example of precisely configuring the 3D spatial position of the 3D virtual image in the background image, the 3D spatial position of the 3D virtual image in the background image may be precisely configured according to various user actions. For example, a precise configuration may be implemented according to a user action, such as a voice action, a physical button action, a touch screen action, a gesture action, an augmented reality user-computer interaction interface, an action on an external controller, and the like.

일 실시예에 따라 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 음성 동작에 따라서 구성할 수 있다.According to an embodiment, the 3D spatial location of the 3D virtual image in the background image may be configured according to a user's voice motion.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 음성 동작에 따라서 구성하는 예에서, <카메라를 기준으로, 3차원 가상 이미지를 왼쪽으로 1미터, 후방으로 3미터 이동>시키라는 사용자의 음성 명령이 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되어, 배경 이미지에서 3차원 가상 이미지를 왼쪽으로 1미터, 후방으로 3미터 이동시키기로 결정된다. 또한, <오른쪽으로 4m 이동>이라는 단순한 사용자 명령이 수신되면, 그 사용자 명령에 대하여 음성 인식이 수행되고, 배경 이미지에서 3차원 가상 이미지를 오른쪽으로 4미터 이동시키기 위해 사용자 음성 명령이 이용된다고 추가로 결정된다. In the example of configuring the 3D spatial position of the 3D virtual image in the background image according to the user's voice motion, the user's voice to move the 3D virtual image 1 meter to the left and 3 meters to the rear with respect to the camera When the command is received, voice recognition is performed on the voice command, and it is decided to move the three-dimensional virtual image from the background image to the left by 1 meter and to the rear by 3 meters. In addition, when a simple user command of <Move 4m to the right> is received, voice recognition is performed for the user command, and the user's voice command is used to move the 3D virtual image to the right 4 meters from the background image. is decided

일 실시예에 따라 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 물리 버튼 동작에 따라서 구성할 수 있다. According to an embodiment, the 3D spatial position of the 3D virtual image in the background image may be configured according to a user's physical button operation.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 물리 버튼 동작에 따라서 구성하는 예에서, 동작되는 물리 버튼은 홈 버튼(메인 스크린 버튼), 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 이동 방향(즉, 수평 방향, 수직 방향 및 깊이 방향 중 하나)을 결정할 수 있다. 예컨대, 초기 디폴트 이동 방향은 수평 방향이다. 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 수직 방향을 이동 방향으로 선택한 후 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 다시 눌러 깊이 방향을 이동 방향으로 선택할 수 있다. 현재 선택된 이동 방향이 문자, 아이콘 등과 같은 방식으로 사용자에게 통지될 수 있다. 이동 방향을 결정한 후, 사용자는 볼륨 증가 버튼 또는 볼륨 감소 버튼을 독립적으로 눌러, 3차원 가상 이미지의 위치를 그 결정된 이동 방향으로 이동시킬 수 있다. 예컨대, 볼륨 증가 버튼을 개별적으로 눌러 3차원 가상 이미지를 왼쪽으로 이동시키고, 볼륨 감소 버튼을 개별적으로 눌러 3차원 가상 이미지를 오른쪽으로 이동시키고, 볼륨 증가 버튼을 개별적으로 눌러 3차원 가상 이미지를 위쪽으로 이동시키고, 볼륨 감소 버튼을 개별적으로 눌러 3차원 가상 이미지를 아래쪽으로 이동시키고, 볼륨 증가 버튼을 개별적으로 눌러 3차원 가상 이미지를 앞으로 이동시키고, 볼륨 감소 버튼을 개별적으로 눌러 3차원 가상 이미지를 뒤쪽으로 이동시킨다. 구성이 완료된 후, 홈 버튼을 눌러 결정을 수행한다.In the example of configuring the 3D spatial position of the 3D virtual image in the background image according to the user's physical button operation, the operating physical button is a home button (main screen button), a volume control button, a power button, and other newly added buttons. can be For example, the user may determine a moving direction (ie, one of a horizontal direction, a vertical direction, and a depth direction) by simultaneously pressing a volume up button and a volume down button in the volume adjustment button. For example, the initial default movement direction is the horizontal direction. The user can select the vertical direction as the movement direction by simultaneously pressing the volume up button and the volume down button in the volume control button, and then press the volume up button and the volume down button again at the same time to select the depth direction as the movement direction. The currently selected moving direction may be notified to the user in a manner such as text, icon, or the like. After determining the moving direction, the user may independently press the volume up button or the volume down button to move the position of the 3D virtual image in the determined moving direction. For example, individually pressing the volume up button moves the 3D virtual image to the left, pressing the volume down button individually to move the 3D virtual image to the right, pressing the volume up button individually to move the 3D virtual image upward press the volume down button individually to move the 3D virtual image down, press the volume up button individually to move the 3D virtual image forward, and individually press the volume down button to move the 3D virtual image backwards move After the configuration is complete, press the Home button to make the decision.

일 실시예에 따라 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 터치스크린 동작에 따라서 구성할 수 있다.According to an embodiment, the 3D spatial position of the 3D virtual image in the background image may be configured according to a user's touch screen operation.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 사용자 터치스크린 동작에 따라서 구성하는 예에서, 사용자는 결정된 3차원 가상 이미지를 단일 손가락으로 드래그함으로써 그 3차원 가상 이미지의 수평 위치와 수직 위치를 이동시킬 수 있거나, 스크린 상에서 수평 방향으로 슬라이딩하고 수직 방향으로 슬라이딩하여 3차원 가상 이미지의 수평 위치와 수직 위치를 구성하거나, 두 손가락 오므리기, 두 손가락 벌리기와 같은 터치 액션을 통해 3차원 가상 이미지의 깊이 위치를 구성할 수 있다. 유사하게, 다른 방향들은, 짧게 누르기, 길게 누르기, 미리 설정된 회수만큼 짧게 누르기, 짧게 누르기와 길게 누르기를 교대하기와 같은 터치 액션으로 조정될 수 있다. 또한, 사용자는 사용자 인터페이스에서 스크롤바를 슬라이딩시키거나, 대응하는 콘텐츠를 텍스트 박스에 입력하여, 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치를 구성할 수 있다In the example of configuring the 3D spatial position of the 3D virtual image in the background image according to the user's touch screen operation, the user moves the horizontal position and the vertical position of the 3D virtual image by dragging the determined 3D virtual image with a single finger. Alternatively, the horizontal and vertical positions of the 3D virtual image can be configured by sliding horizontally and vertically on the screen, or the depth of the 3D virtual image through touch actions such as two-finger pinch and two-finger spread. The location is configurable. Similarly, other directions can be adjusted with a touch action such as short press, long press, short press a preset number of times, alternating short press and long press. In addition, the user can configure the 3D spatial position of the 3D virtual image in the background image by sliding the scroll bar on the user interface or inputting the corresponding content into the text box.

도 11은 일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치를 구성하는 예를 나타낸다. 11 illustrates an example of configuring a 3D spatial position of a 3D virtual image according to an exemplary embodiment .

도 11을 참조하면, 사용자는 배경 이미지 내 선택된 3차원 가상 이미지의 3차원 공간 위치를, 예컨대 단일 손가락으로 그 3차원 가상 이미지 드래그하기 1110, 두 개 손가락을 오므리기거나 및/또는 벌리기 1120, 스크롤바 슬라이딩 1130, 텍스트 박스에 상응하는 콘텐츠를 입력하기 1140, 음성 동작 1150을 통해 구성할 수 있다. 또한, 선택된 3차원 가상 이미지의 현재 3차원 공간 위치에 대한 통지 1160를 사용자에게 출력할 수 있다. Referring to FIG. 11 , the user selects the 3D spatial position of the selected 3D virtual image in the background image, for example, by dragging the 3D virtual image with a single finger 1110 , pinching and/or spreading two fingers 1120 , scroll bar It can be configured through sliding 1130, inputting content corresponding to the text box 1140, and voice operation 1150. Also, a notification 1160 about the current 3D spatial location of the selected 3D virtual image may be output to the user.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치가 사용자 제스처 동작에 따라 구성되면, 제스처 동작은 한 손이나 양손으로 수행될 수 있다. 제스처 동작은 한 손 흔들기, 손으로 원 그리기, 손으로 사각형 그리기, 손으로 삼각형 그리기와 같은 동작일 수 있다. 예컨대, 사용자는 선택된 3차원 가상 이미지를, 손 위로 흔들기, 손 아래로 흔들기, 손 왼쪽으로 흔들기, 손 오른쪽으로 흔들기, 손 우상향으로 흔들기, 손 좌하향으로 흔들기와 같은 제스처 동작을 통해 상응하는 방향으로 이동시킬 수 있다. 그 후, 손으로 원을 그리는 제스처 동작을 통해 이동의 종료가 결정된다. 사용자 제스처 동작은 기존의 제스처 검출 디바이스를 통해 검출되고 인식될 수 있다. If the 3D spatial position of the 3D virtual image in the background image is configured according to a user gesture operation, the gesture operation may be performed with one hand or both hands. The gesture action may be an action such as waving one hand, drawing a circle by hand, drawing a rectangle by hand, or drawing a triangle by hand. For example, the user may move the selected three-dimensional virtual image in a corresponding direction through gesture actions such as hand shaking, hand shaking, hand shaking left, hand shaking right, hand shaking rightward, and hand shaking left down. can be moved After that, the end of the movement is determined through a gesture operation of drawing a circle with the hand. A user gesture action may be detected and recognized through an existing gesture detection device.

배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치는 외부 컨트롤러에 대한 사용자 동작(예를 들어, 촬상 장치와 연관된 수기펜에 대한 동작, 웨어러블 디바이스와 같이 원격 컨트롤 기능을 구비한 디바이스에 대한 동작)에 따라서 구성될 수 있다. 예를 들어, 촬영 장치는 수기펜에 접속되면, 그 수기펜으로부터 명령에 따라서 3차원 가상 이미지가 선택되고, 그 후, 사용자는 수기펜의 버튼을 사용하고 수기펜의 첨두(point)를 슬라이딩시켜서 3차원 가상 이미지를 이동시킬 수 있다. 예컨대, 사용자는 3차원 가상 이미지를 소망하는 위치까지 드래그하기 위하여, 수기펜의 첨두를 사용해 3차원 가상 이미지를 누르고 동시에 수기펜의 버튼을 누른 채로 첨두를 슬라이딩시킬 수 있고, 슬라이딩되는 첨두는 촬영 장치의 스크린에 디스플레이된다.The three-dimensional spatial position of the three-dimensional virtual image in the background image is dependent on a user action for an external controller (eg, an action for a handwriting pen associated with an imaging device, an action for a device having a remote control function, such as a wearable device). Thus, it can be configured. For example, when the photographing device is connected to a handwritten pen, a 3D virtual image is selected according to a command from the handwritten pen, and then, the user uses a button of the handwritten pen and slides the point of the handwritten pen to A 3D virtual image can be moved. For example, in order to drag the 3D virtual image to a desired position, the user may press the 3D virtual image using the tip of the handwriting pen and slide the tip while simultaneously pressing the button of the handwriting pen, and the sliding tip is a photographing device displayed on the screen of

또한, 배경 이미지가 파노라마 이미지인 상황에서는, 파노라마 이미지와 3차원 가상 이미지는 여러 각도에서 사용자에게 디스플레이되어(예컨대, 파노라마 이미지와 3차원 가상 이미지는 90도씩 왼쪽으로 동시에 회전될 수 있음), 사용자는 3차원 가상 이미지의 3차원 공간 위치를 배경 이미지에 편리하게 구성할 수 있다. 예를 들어, 사용자는 3차원 가상 이미지의 깊이 방향 위치를, 파노라마 이미지와 3차원 가상 이미지를 90도씩 왼쪽으로 동시에 회전시켜 얻은 프로파일 이미지(profile image)에 따라서 얻을 수 있다.In addition, in a situation where the background image is a panoramic image, the panoramic image and the three-dimensional virtual image are displayed to the user from various angles (for example, the panoramic image and the three-dimensional virtual image can be rotated to the left by 90 degrees at the same time), and the user can The three-dimensional spatial position of the three-dimensional virtual image can be conveniently configured on the background image. For example, the user may obtain the position in the depth direction of the 3D virtual image according to a profile image obtained by simultaneously rotating the panoramic image and the 3D virtual image to the left by 90 degrees.

배경 이미지 내 3차원 가상 이미지의 3차원 자세를 사용자 동작에 따라서 구성하는 예에서, 3차원 가상 이미지의 3차원 자세는 3차원 가상 이미지의 회전각 및/또는 3차원 가상 이미지 결합점의 3차원 공간 위치를 구성함으로써 구성될 수 있다. 3차원 가상 이미지의 회전각은 3개 방향의 회전축 따라 각각 구성될 수 있다. 예를 들어, 중점, 즉 3차원 가상 이미지의 중심은 회전 원점(origin of rotation)으로 구성되고, 회전은 상응하는 평면에서 수행될 수 있다. 선택적으로는, 회전 원점은 사용자가 구성할 수 있다. In the example of configuring the three-dimensional posture of the three-dimensional virtual image in the background image according to the user's motion, the three-dimensional posture of the three-dimensional virtual image is the rotation angle of the three-dimensional virtual image and/or the three-dimensional space of the three-dimensional virtual image joining point. It can be configured by configuring the location. The rotation angle of the 3D virtual image may be configured along the rotation axis in three directions, respectively. For example, the midpoint, that is, the center of the 3D virtual image is configured as an origin of rotation, and the rotation may be performed in a corresponding plane. Optionally, the origin of rotation is user configurable.

3차원 가상 이미지의 회전각은 다양한 사용자 동작 방식에 따라서 구성될 수 있다. 예를 들어, 회전각은 사용자 음성 동작, 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강-현실 사람-컴퓨터 상호작용 인터페이스용 동작, 외부 컨트롤러용 동작과 같은 사용자 동작에 따라서 구성된다.The rotation angle of the 3D virtual image may be configured according to various user operation methods. For example, the rotation angle is configured according to a user action, such as a user voice action, a physical button action, a touch screen action, a gesture action, an action for an augmented-reality human-computer interaction interface, an action for an external controller.

일 실시예에 따라 3차원 가상 이미지의 회전각을 사용자 음성 동작에 따라서 구성할 수 있다. According to an embodiment, the rotation angle of the 3D virtual image may be configured according to a user's voice motion.

3차원 가상 이미지의 회전각을 사용자 음성 동작에 따라서 구성하는 예에서, <3차원 가상 이미지의 중심을 원점으로, 시계 방향으로 10도 회전>시키라는 음성 명령이 사용자로부터 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되고, 3차원 가상 이미지의 중심을 원점으로, 상응하는 평면에서 시계 방향으로 10도 회전이 이루어진다. In the example of configuring the rotation angle of the 3D virtual image according to the user's voice motion, when a voice command to <rotate the center of the 3D virtual image to the origin by 10 degrees clockwise> is received from the user, the voice command is Speech recognition is performed on the object, and the center of the three-dimensional virtual image is rotated 10 degrees clockwise in the corresponding plane as the origin.

일 실시예에 따라 3차원 가상 이미지의 회전각을 사용자 물리 버튼 동작에 따라서 구성할 수 있다. According to an embodiment, the rotation angle of the 3D virtual image may be configured according to a user's physical button operation.

3차원 가상 이미지의 회전각을 사용자 물리 버튼 동작에 따라서 구성하는 예에서, 동작되는 물리 버튼은 홈 버튼, 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 회전축(즉, 중앙 수평축, 중앙 수직축, 및 중앙 깊이축)을 결정할 수 있다. 이 때, 현재 선택된 회전축은 텍스트, 아이콘 등과 같은 방식으로 사용자에게 통지될 수 있다. 회전축이 결정된 후, 사용자는 볼륨 증가 버튼 또는 볼륨 감소 버튼을 개별로 눌러 회전각을 조정할 수 있다. 예컨대, 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 중앙 중앙 수직축을 따른 회전을 수행하고, 볼륨 증가 버튼을 눌러 3차원 가상 이미지를 시계방향으로 회전시키거나, 볼륨 감소 버튼을 눌러 3차원 가상 이미지를 반시계 방향으로 회전시키기로 결정하고, 마지막으로 홈 버튼을 눌러 이들 결정을 수행한다. In an example in which the rotation angle of the 3D virtual image is configured according to a user's physical button operation, the operated physical button may be a home button, a volume adjustment button, a power button, or other newly added buttons. For example, the user may determine the rotation axis (ie, the central horizontal axis, the central vertical axis, and the central depth axis) by simultaneously pressing the volume up button and the volume down button in the volume adjustment button. In this case, the currently selected rotation axis may be notified to the user in a manner such as text or icon. After the rotation axis is determined, the user can adjust the rotation angle by individually pressing the volume up button or the volume down button. For example, the user performs rotation along the central central vertical axis by pressing the volume up button and the volume down button in the volume control button at the same time, and rotates the 3D virtual image clockwise by pressing the volume up button, or by pressing the volume down button You decide to rotate the 3D virtual image counterclockwise, and finally press the home button to make these decisions.

일 실시예에 따라 3차원 가상 이미지의 회전각을 터치스크린 동작에 따라서 구성할 수 있다. According to an embodiment, the rotation angle of the 3D virtual image may be configured according to the operation of the touch screen.

3차원 가상 이미지의 회전각을 사용자 터치스크린 동작에 따라서 구성하는 예에서, 사용자는 스크롤바를 슬라이딩시키거나 텍스트 박스에 상응하는 콘텐츠를 입력하여 각 회전각을 조정할 수 있다. 또한, 사용자는 3차원 가상 이미지를 드래그하여 각 회전각을 조정할 수 있다. In an example in which the rotation angle of the 3D virtual image is configured according to a user's touch screen operation, the user may adjust each rotation angle by sliding a scroll bar or inputting content corresponding to a text box. In addition, the user can adjust each rotation angle by dragging the 3D virtual image.

도 12는 일 실시예에 따라 3차원 가상 이미지의 회전각을 구성하는 예를 나타낸다. 12 illustrates an example of configuring a rotation angle of a 3D virtual image according to an embodiment.

도 12를 참조하면, 사용자는 스크롤바 슬라이딩 1210, 텍스트 박스에 상응하는 콘텐츠를 입력하기 1220, 음성 동작 1230 등을 통해, 배경 이미지 내 3차원 가상 이미지의 회전각을 구성할 수 있다. 또한, 선택된 3차원 가상 이미지의 현재 회전각을 나타내는 통지 1240을 사용자에게 출력할 수 있다. Referring to FIG. 12 , a user may configure a rotation angle of a 3D virtual image in a background image through sliding a scroll bar 1210, inputting content corresponding to a text box 1220, voice operation 1230, and the like. Also, a notification 1240 indicating the current rotation angle of the selected 3D virtual image may be output to the user.

3차원 가상 이미지의 회전각을 사용자 제스처 동작에 따라서 구성하는 예에서, 제스처 동작은 한 손이나 양손으로 수행될 수 있다. 제스처 동작은 손을 흔들거나, 손으로 원을 그리거나, 손으로 사각형을 그리거나, 손으로 삼각형을 그리는 것과 같은 동작일 수 있다. 예를 들어, 사용자는 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓, 좌상으로 손짓, 좌하로 손짓과 같은 제스처 동작을 통해 3차원 가상 이미지를 회전시킬 수 있다. 그 후, 손으로 원을 그리는 제스처 동작을 통해 회전이 완료되는지 결정된다. 사용자 제스처 동작은 기존의 제스처 검출 디바이스를 통해 검출되고 인식될 수 있다. In an example in which the rotation angle of the 3D virtual image is configured according to a user gesture operation, the gesture operation may be performed with one hand or both hands. The gesture action may be an action such as waving a hand, drawing a circle with the hand, drawing a rectangle with the hand, or drawing a triangle with the hand. For example, the user may rotate the 3D virtual image through gesture actions such as up, down, left or right, up left, and down left. After that, it is determined whether the rotation is completed through a gesture motion of drawing a circle with the hand. A user gesture action may be detected and recognized through an existing gesture detection device.

3차원 가상 이미지의 회전각을 외부 컨트롤러용 사용자 동작(예컨대, 촬영 장치와 연관된 수기펜(handwriting pen)에 대한 동작, 웨어러블 디바이스와 같은 원격 제어 기능을 구비한 디바이스에 대한 동작임)에 따라 구성하는 예에서, 촬영 장치가 수기펜과 연결되면, 3차원 가상 이미지는 수기펜으로부터의 명령에 따라서 선택되고, 그 후, 사용자는 수기펜의 버튼을 사용하고 수기펜의 첨두를 슬라이딩시킴으로써 3차원 가상 이미지를 회전시킬 수 있다. Configuring the rotation angle of the three-dimensional virtual image according to a user action for an external controller (for example, an action for a handwriting pen associated with a photographing apparatus, an action for a device having a remote control function, such as a wearable device) In an example, when the imaging device is connected with the writing pen, a three-dimensional virtual image is selected according to a command from the writing pen, and thereafter, the user uses a button of the writing pen and sliding the tip of the writing pen, thereby making the three-dimensional virtual image can be rotated.

또한, 사용자는 3차원 가상 이미지의 3차원 공간 위치와 회전각을 동시에 구성할 수 있다. 예를 들어, 사용자는 다양한 사용자 동작에 따라서 3차원 공간 위치와 회전각을 동시에 구성할 수 있다. 예컨대, 음성 동작, 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강-현실 사람-컴퓨터 상호작용 인터페이스용 동작, 외부 컨트롤러용 동작과 같은 사용자 동작에 따라서 구성이 수행된다.In addition, the user can configure the 3D spatial position and rotation angle of the 3D virtual image at the same time. For example, a user may simultaneously configure a 3D spatial position and a rotation angle according to various user actions. For example, the configuration is performed according to a user action, such as a voice action, a physical button action, a touch screen action, a gesture action, an action for an augmented-reality human-computer interaction interface, and an action for an external controller.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 음성 동작에 따라서 동시에 구성할 수 있다. According to an embodiment, the 3D spatial position and the rotation angle of the 3D virtual image may be simultaneously configured according to a user's voice motion.

3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 음성 동작에 따라서 동시에 구성하는 예에서, <3차원 가상 이미지를 왼쪽으로 1미터, 후방으로 3미터 이동하고, 3차원 가상 이미지를 원점으로 왼쪽으로 10도 회전>시키라는 음성 명령이 사용자로부터 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되어, 3차원 가상 이미지는 왼쪽으로 1미터, 후방으로 3미터 이동되고, 3차원 가상 이미지를 원점으로 시계 방향을 따라서 10도 회전된다. In the example of simultaneously configuring the 3D spatial position and rotation angle of the 3D virtual image according to the user's voice motion, <Move the 3D virtual image 1 meter to the left and 3 meters to the rear, and When a voice command to rotate > 10 degrees is received from the user, voice recognition is performed for the voice command, and the 3D virtual image is moved 1 meter to the left and 3 meters to the rear, and the 3D virtual image is returned to the origin. It is rotated 10 degrees along the clockwise direction.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 물리 버튼 동작에 따라서 동시에 구성할 수 있다. According to an embodiment, the 3D spatial position and rotation angle of the 3D virtual image may be simultaneously configured according to a user's physical button operation.

3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 물리 버튼 동작에 따라서 동시에 구성하는 예에서, 동작되는 물리 버튼은 홈 버튼, 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 회전축 또는 이동 방향을 결정할 수 있다. 이 때, 현재 선택된 회전축 또는 이동 방향은 텍스트, 아이콘 등과 같은 방식으로 사용자에게 통지될 수 있다. 회전축 또는 이동 방향이 결정된 후, 사용자는 볼륨 증가 버튼 또는 볼륨 감소 버튼을 개별로 눌러, 결정된 방향으로 3차원 가상 이미지의 이동을 조정하거나 결정된 회전축을 따른 3차원 가상 이미지의 회전을 조정할 수 있다. In an example in which the three-dimensional spatial position and rotation angle of the three-dimensional virtual image are simultaneously configured according to a user's physical button operation, the operated physical button may be a home button, a volume adjustment button, a power button, or other newly added buttons. For example, the user may determine a rotation axis or a movement direction by simultaneously pressing a volume up button and a volume down button in the volume control button. In this case, the currently selected rotation axis or movement direction may be notified to the user in a manner such as text or icon. After the rotation axis or movement direction is determined, the user may individually press the volume increase button or the volume decrease button to adjust the movement of the 3D virtual image in the determined direction or the rotation of the 3D virtual image along the determined rotation axis.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 터치 스크린 동작에 따라서 동시에 구성할 수 있다. According to an embodiment, the 3D spatial position and the rotation angle of the 3D virtual image may be simultaneously configured according to a user's touch screen operation.

3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 터치스크린 동작에 따라서 동시에 구성하는 예에서, 사용자는 스크롤바를 슬라이딩시키거나 텍스트 박스에 상응하는 콘텐츠를 입력하여 구성을 수행할 수 있다. 또한, 사용자는 3차원 가상 이미지를 이동 또는 회전시키기 위한 드래그함으로써 구성을 수행할 수 있다. 예컨대, 사용자는 한 손가락으로 3차원 가상 이미지를 드래그하여 3차원 가상 이미지를 이동시키거나, 두 손가락으로 3차원 가상 이미지를 드래그하여 3차원 가상 이미지를 회전시킬 수 있다. In an example of simultaneously configuring the 3D spatial position and rotation angle of the 3D virtual image according to the user's touch screen operation, the user may perform the configuration by sliding a scroll bar or inputting content corresponding to a text box. In addition, the user may perform the configuration by dragging to move or rotate the 3D virtual image. For example, the user may move the 3D virtual image by dragging the 3D virtual image with one finger, or rotate the 3D virtual image by dragging the 3D virtual image with two fingers.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 제스처 동작에 따라서 동시에 구성할 수 있다. According to an embodiment, the 3D spatial position and the rotation angle of the 3D virtual image may be simultaneously configured according to a user gesture action.

3차원 가상 이미지의 3차원 공간 위치와 회전각을 사용자 제스처 동작에 따라서 구성하는 예에서, 제스처 동작은 한손이나 양손으로 수행될 수 있다. 제스처 동작은 손을 흔들거나, 손으로 원을 그리거나, 손으로 사각형을 그리거나, 손으로 삼각형을 그리는 것과 같은 동작일 수 있다. 예를 들어, 사용자는 손으로 삼각형을 그리는 제스처 동작을 통해 3차원 가상 이미지의 회전각을 구성하는 것을 시작하고, 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓, 좌상으로 손짓, 좌하로 손짓과 같은 제스처 동작을 통해 3차원 가상 이미지를 회전시킨다. 사용자는 손으로 사각형을 그리는 제스처 동작을 통해 3차원 가상 이미지의 3차원 공간 위치를 구성하는 것을 시작하고, 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓, 좌상으로 손짓, 좌하로 손짓과 같은 제스처 동작을 통해 3차원 가상 이미지를 이동시킨다. 그 후, 손으로 원을 그리는 제스처 동작을 통해 구성이 종료됨을 결정한다.In an example in which the three-dimensional spatial position and rotation angle of the three-dimensional virtual image are configured according to a user gesture operation, the gesture operation may be performed with one hand or both hands. The gesture action may be an action such as waving a hand, drawing a circle with the hand, drawing a rectangle with the hand, or drawing a triangle with the hand. For example, the user initiates the construction of the rotation angle of the three-dimensional virtual image through a gesture action of drawing a triangle with a hand, beckoning up, beckoning down, beckoning left or beckoning right, beckon to the left, beck to the bottom left. Rotate a three-dimensional virtual image through gestures such as hand gestures. The user starts constructing the three-dimensional spatial position of the three-dimensional virtual image through the gesture action of drawing a rectangle by hand, and then gestures upward, gestures downward, gestures left or gestures right, gestures upward, gestures downward, and The 3D virtual image is moved through the same gesture action. After that, it is determined that the construction is finished through the gesture action of drawing a circle with the hand.

일 실시예에 따라 3차원 가상 이미지의 3차원 공간 위치와 회전각을 외부 컨트롤러용 사용자 동작에 따라서 동시에 구성할 수 있다. According to an exemplary embodiment, the 3D spatial position and the rotation angle of the 3D virtual image may be simultaneously configured according to a user action for an external controller.

3차원 가상 이미지의 3차원 공간 위치와 회전각을 외부 컨트롤러용 사용자 동작(예컨대, 촬영 장치와 연관된 수기펜에 대한 동작, 웨어러블 디바이스와 같은 원격 제어 기능을 구비한 디바이스에 대한 동작임)에 따라 구성하는 예에서, 촬영 장치가 수기펜과 연결되면, 3차원 가상 이미지는 수기펜으로부터의 명령에 따라서 선택되고, 그 후, 사용자는 수기펜의 버튼을 사용하고 수기펜의 첨두를 슬라이딩시킴으로써 3차원 가상 이미지를 이동 및/또는 회전시킬 수 있다. Configure the three-dimensional spatial position and rotation angle of the three-dimensional virtual image according to a user action for an external controller (for example, an action for a handwriting pen associated with an imaging device, an action for a device having a remote control function such as a wearable device) In this example, when the imaging device is connected with the writing pen, a 3D virtual image is selected according to a command from the writing pen, and then the user uses the button of the writing pen and sliding the tip of the writing pen to create a 3D virtual image. The image may be moved and/or rotated.

3차원 가상 이미지의 3차원 자세가 3차원 가상 이미지의 결합점의 3차원 공간 위치를 구성함으로써 구성되면, 3차원 가상 이미지의 결합점은 다양한 사용자 동작에 따라서 선택될 수 있다. 예컨대, 음성 동작, 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강-현실 사람-컴퓨터 상호작용 인터페이스용 동작, 외부 컨트롤러용 동작과 같은 사용자 동작에 따라서 결합점이 선택될 수 있다. When the three-dimensional posture of the three-dimensional virtual image is configured by configuring the three-dimensional spatial position of the joint point of the three-dimensional virtual image, the joint point of the three-dimensional virtual image may be selected according to various user actions. For example, a binding point may be selected according to a user action such as a voice action, a physical button action, a touch screen action, a gesture action, an action for an augmented-reality human-computer interaction interface, or an action for an external controller.

일 실시예에 따라 3차원 가상 이미지의 결합점을 사용자 음성 동작에 따라서 선택할 수 있다. According to an embodiment, a joint point of a 3D virtual image may be selected according to a user's voice operation.

3차원 가상 이미지의 결합점을 사용자 음성 동작에 따라서 선택하는 예에서, <왼손을 선택>하라는 음성 명령이 사용자로부터 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되어, 3차원 가상 이미지 내 왼손의 결합점이 선택된다. In an example of selecting a joint point of a 3D virtual image according to a user's voice operation, when a voice command to <select the left hand> is received from the user, voice recognition is performed for the voice command, and the left hand in the 3D virtual image is A bonding point is selected.

일 실시예에 따라 3차원 가상 이미지의 결합점을 사용자 물리 버튼 동작에 따라서 선택할 수 있다. According to an embodiment, a joint point of a 3D virtual image may be selected according to a user's physical button operation.

3차원 가상 이미지의 결합점을 사용자 물리 버튼 동작에 따라서 선택하는 예에서, 동작되는 물리 버튼은 홈 버튼, 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼을 통해 선택 박스를 이동시켜 3차원 가상 이미지의 결합점을 선택하고, 그 후 홈 버튼을 눌러 선택을 결정한다.In an example of selecting the binding point of the 3D virtual image according to the user's physical button operation, the operated physical button may be a home button, a volume control button, a power button, or other newly added buttons. For example, the user moves a selection box through a volume adjustment button to select a joining point of a three-dimensional virtual image, and then presses the home button to determine the selection.

일 실시예에 따라 3차원 가상 이미지의 결합점을 사용자 터치스크린 동작에 따라서 선택할 수 있다. According to an embodiment, a combination point of a 3D virtual image may be selected according to a user's touch screen operation.

3차원 가상 이미지의 결합점을 사용자 터치스크린 동작에 따라서 선택하는 예에서, 사용자는 3차원 가상 이미지의 결합점을 선택하기 위하여, 그 3차원 가상 이미지의 결합점을 미리 정해진 방식으로 클릭할 수 있다. 미리 정해진 방식은 짧게 누르기, 길게 누르기, 미리 설정된 회수만큼 짧게 누르기, 짧게 누르기와 길게 누르기를 교대로 하기 일 수 있다.In the example of selecting the joining point of the 3D virtual image according to the user's touch screen operation, the user may click the joining point of the 3D virtual image in a predetermined manner to select the joining point of the 3D virtual image . The predetermined method may be a short press, a long press, a short press for a preset number of times, or alternately a short press and a long press.

도 13은 일 실시예에 따라 3차원 가상 이미지의 결합점을 선택하는 예를 나타낸다. 13 illustrates an example of selecting a joint point of a 3D virtual image according to an exemplary embodiment.

도 13을 참조하면, 3차원 가상 이미지의 결합점을 선택하는 어려움을 감소시키기 위하여, 사용자가 쉽게 선택할 수 있는 방식으로 결합점이 디스플레이될 수 있다. 또한, 여러 각도로 찍은 3차원 가상 이미지들 1300이 디스플레이되고, 이미지들은 채색되어 있다. 따라서 사용자는 3차원 가상 이미지의 결합점을 쉽게 선택할 수 있다. 3차원 가상 이미지의 결합점은 3차원 가상 이미지의 결합점을 클릭 동작 1310,선택 박스를 선택하는 동작 1320, 사용자 음성 동작 1330 등의 사용자 동작을 통해 선택될 수 있다.Referring to FIG. 13 , in order to reduce the difficulty of selecting the joint point of the 3D virtual image, the joint point may be displayed in a manner that can be easily selected by the user. In addition, 3D virtual images 1300 taken at various angles are displayed, and the images are colored. Therefore, the user can easily select the joining point of the 3D virtual image. The joint point of the 3D virtual image may be selected through a user operation such as a clicking operation 1310 of the joint point of the 3D virtual image, an operation 1320 of selecting a selection box, and a user voice operation 1330 .

3차원 가상 이미지의 결합점을 사용자 제스처 동작에 따라서 선택하는 경우, 제스처 동작은 한손이나 양손으로 수행될 수 있다. 제스처 동작은 손을 흔들거나, 손으로 원을 그리거나, 손으로 사각형을 그리거나, 손으로 삼각형을 그리거나, 위로 손짓하거나, 아래로 손짓하거나, 왼쪽으로 손을 흔들거나, 오른쪽으로 손을 혼드는 것과 같은 동작일 수 있다. 예를 들어, 사용자는 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓인 사용자 제스처 동작을 통해 3차원 가상 이미지의 결합점을 선택하는데 사용되는 선택 박스를 선택하고, 그 후, 손으로 원을 그리는 제스처 동작을 통해 선택을 결정한다. 사용자 제스처 동작은 기존의 제스처 검출 디바이스를 통해 검출되고 인식될 수 있다.When the joint point of the 3D virtual image is selected according to a user gesture operation, the gesture operation may be performed with one hand or both hands. Gesture actions include waving hand, circle with hand, square hand with hand, triangle with hand, beckon up, hand beckon down, wave left hand, or shake hand with right hand. It may be an action such as lifting. For example, the user selects a selection box used to select a joint point of a three-dimensional virtual image through a user gesture action of up, down, left, or right, and then, by hand The selection is decided through the gesture action of drawing. A user gesture action may be detected and recognized through an existing gesture detection device.

3차원 가상 이미지의 결합점을 외부 컨트롤러용 사용자 동작(예컨대, 촬영 장치와 연관된 수기펜에 대한 동작, 웨어러블 디바이스와 같은 원격 제어 기능을 구비한 디바이스에 대한 동작임)에 따라 선택하는 예에서, 촬영 장치가 수기펜과 연결되면, 3차원 가상 이미지의 결합점은 수기펜으로부터의 명령에 따라서 선택되고, 사용자는 수기펜의 버튼을 사용해 선택 박스를 이동시켜 3차원 가상 이미지를 선택하고, 3차원 가상 이미지의 선택된 결합점을 클릭하여 선택을 결정한다. In an example of selecting the binding point of the three-dimensional virtual image according to a user action for an external controller (eg, an action for a handwriting pen associated with a photographing apparatus, an action for a device having a remote control function, such as a wearable device), shooting When the device is connected with the handwriting pen, the joining point of the 3D virtual image is selected according to the command from the handwriting pen, and the user selects the 3D virtual image by moving the selection box using the button of the handwriting pen, and selects the 3D virtual image Click a selected joint point on the image to determine the selection.

3차원 가상 이미지의 결합점이 선택된 후, 3차원 가상 이미지의 선택된 결합점은 이동가능한 상태에 있다. 3차원 가상 이미지의 사용자가 선택한 결합점의 3차원 공간 위치는 다양한 사용자 동작에 따라서 구성된다. 즉, 선택된 결합점은 배경 이미지에서 수평 방향, 수직 방향 및 깊이 방향을 각각 따른 위치로 구성된다. 예컨대, 사용자 음성 동작, 물리 버튼 동작, 터치 스크린 동작, 제스처 동작, 증강-현실 사람-컴퓨터 상호작용 인터페이스용 동작, 외부 컨트롤러용 동작 등을 통해서 구성이 수행될 수 있다. After the joining point of the three-dimensional virtual image is selected, the selected joining point of the three-dimensional virtual image is in a movable state. The three-dimensional spatial position of the user-selected joint point of the three-dimensional virtual image is configured according to various user actions. That is, the selected bonding point is composed of positions along the horizontal direction, the vertical direction, and the depth direction in the background image, respectively. For example, the configuration may be performed through a user voice operation, a physical button operation, a touch screen operation, a gesture operation, an operation for an augmented-reality human-computer interaction interface, an operation for an external controller, and the like.

일 실시예에 따라 3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 음성 동작에 따라 구성할 수 있다. According to an exemplary embodiment, a 3D spatial location of a joining point of a 3D virtual image may be configured according to a user's voice motion.

3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 음성 동작에 따라서 구성하는 예에서, <왼손을 4cm 위로 올리고, 그 후 3cm 뒤로 이동>시키라는 음성 명령이 사용자로부터 수신되면, 그 음성 명령에 대하여 음성 인식이 수행되어, 3차원 가상 이미지의 결합점의 위치는 4cm 위로 이동되고, 그 후, 결합점의 위치는 뒤로 3cm 이동된다. In the example of configuring the three-dimensional spatial location of the joint point of the three-dimensional virtual image according to the user's voice motion, when a voice command to <raise the left hand 4cm up, and then move it back 3cm> is received from the user, the voice command is Speech recognition is performed for the three-dimensional virtual image, and the position of the joint point of the three-dimensional virtual image is moved up by 4 cm, and then the position of the joint point is moved back by 3 cm.

일 실시예에 따라 3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 물리 버튼 동작에 따라 구성할 수 있다. According to an embodiment, the three-dimensional space position of the joint point of the three-dimensional virtual image may be configured according to a user's physical button operation.

3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 물리 버튼 동작에 따라서 동시에 구성하는 예에서, 동작되는 물리 버튼은 홈 버튼, 볼륨 조정 버튼, 전원 버튼, 기타 신규로 추가된 버튼일 수 있다. 예를 들어, 사용자는 볼륨 조정 버튼 내 볼륨 증가 버튼과 볼륨 감소 버튼을 동시에 눌러 이동 방향(즉, 수평 방향, 수직 방향 및 깊이 방향 중 하나)을 결정할 수 있다. 이 때, 현재 선택된 이동 방향은 텍스트, 아이콘 등과 같은 방식으로 사용자에게 통지될 수 있다. 이동 방향이 결정된 후, 사용자는 볼륨 증가 버튼 또는 볼륨 감소 버튼을 개별로 눌러, 선택된 결합점의 위치를 결정된 방향으로 이동시킬 수 있다. 예컨대, 선택된 결합점은 볼륨 증가 버튼을 개별적으로 눌러 왼쪽으로 이동시킬 수 있고, 볼륨 감소 버튼을 개별적으로 눌러 오른쪽으로 이동시킬 수 있다. 구성이 완료된 후, 홈 버튼을 눌러 결정을 수행한다.In an example in which the three-dimensional spatial position of the joint point of the three-dimensional virtual image is simultaneously configured according to the user's physical button operation, the operated physical button may be a home button, a volume adjustment button, a power button, or other newly added buttons. For example, the user may determine a moving direction (ie, one of a horizontal direction, a vertical direction, and a depth direction) by simultaneously pressing a volume up button and a volume down button in the volume adjustment button. In this case, the currently selected moving direction may be notified to the user in a manner such as text or icon. After the moving direction is determined, the user can individually press the volume up button or the volume down button to move the position of the selected bonding point in the determined direction. For example, the selected bonding point can be moved to the left by individually pressing the volume up button, and can be moved to the right by individually pressing the volume down button. After the configuration is complete, press the Home button to make the decision.

일 실시예에 따라 3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 터치스크린 동작에 따라 구성할 수 있다. According to an embodiment, the three-dimensional space position of the joint point of the three-dimensional virtual image may be configured according to a user's touch screen operation.

3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 터치스크린 동작에 따라서 구성하는 예에서, 사용자는 선택된 3차원 가상 이미지를 한 손가락으로 드래그하여 그 3차원 가상 이미지의 수평 위치와 수직 위치를 이동시키거나, 스크린 상에서 수평 방향을 따라서 슬라이딩시키고 수직 방향을 따라서 슬라이딩시켜서, 3차원 가상 이미지의 수평 위치와 수직 위치를 구성할 수 있다. 인물 모델 결합점의 다른 방향들은 짧게 누르기, 길게 누르기, 미리 설정된 회수만큼 짧게 누르기, 짧게 누르기와 길게 누르기를 교대로 하기 등과 같은 터치 액션을 통해 조정된다. 또한, 사용자는 선택된 결합점의 3차원 공간 위치를, 스크롤바를 슬라이딩시키거나 텍스트 박스에 상응하는 콘텐츠를 입력하여, 배경 이미지에 구성할 수 있다. In the example of configuring the three-dimensional spatial position of the joining point of the three-dimensional virtual image according to the user's touch screen operation, the user drags the selected three-dimensional virtual image with one finger to move the horizontal and vertical positions of the three-dimensional virtual image or by sliding along the horizontal direction and sliding along the vertical direction on the screen, a horizontal position and a vertical position of the 3D virtual image may be configured. The different directions of the character model bonding point are adjusted through touch actions such as short press, long press, short press for a preset number of times, alternate short press and long press, and the like. In addition, the user may configure the 3D spatial position of the selected bonding point in the background image by sliding a scroll bar or inputting content corresponding to a text box.

도 14는 일 실시예에 따라서 3차원 가상 이미지의 결합점의 3차원 공간 위치를 구성하는 예를 나타낸다. 14 illustrates an example of configuring a 3D spatial position of a joining point of a 3D virtual image according to an embodiment.

도 14를 참조하면, 사용자는 3차원 가상 이미지의 선택된 결합점의 3차원 공간 위치를, 결합점을 한 손가락으로 드래그하기 1410, 양 손가락을 붙이거나 및/또는 벌리기 1420, 스크롤바 슬라이딩하기 1430, 텍스트 박스에 상응하는 콘텐츠 입력하기 1440 및 음성 동작 1330 등을 통해, 배경 이미지에 구성할 수 있다. Referring to FIG. 14 , the user selects the three-dimensional spatial location of the selected joint point of the three-dimensional virtual image, dragging the joint point with one finger 1410, sticking and/or spreading both fingers 1420, sliding the scroll bar 1430, text Through input of content corresponding to the box 1440 and voice operation 1330, the background image may be configured.

일 실시예에 따라 3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 제스처 동작에 따라서 구성할 수 있다. According to an exemplary embodiment, a 3D spatial location of a joining point of a 3D virtual image may be configured according to a user gesture operation.

3차원 가상 이미지의 결합점의 3차원 공간 위치를 사용자 제스처 동작에 따라서 구성하는 예에서, 제스처 동작은 한손이나 양손으로 수행될 수 있다. 제스처 동작은 손을 흔들거나, 손으로 원을 그리거나, 손으로 사각형을 그리거나, 손으로 삼각형을 그리는 것과 같은 동작일 수 있다. 예를 들어, 사용자는 선택된 결합점을, 위로 손짓, 아래로 손짓, 왼쪽으로 손짓 또는 오른쪽으로 손짓과 같은 제스처 동작을 통해 상응하는 방향으로 이동시킬 수 있다. 그 후, 손으로 원을 그리는 제스처 동작을 통해 이동의 종료가 결정된다. 사용자 제스처 동작은 기존의 제스처 검출 디바이스를 통해 검출되고 인식될 수 있다. In an example in which the three-dimensional spatial position of the joining point of the three-dimensional virtual image is configured according to a user gesture operation, the gesture operation may be performed with one hand or both hands. The gesture action may be an action such as waving a hand, drawing a circle with the hand, drawing a rectangle with the hand, or drawing a triangle with the hand. For example, the user may move the selected bonding point in a corresponding direction through a gesture operation such as a gesture upward, a downward gesture, a left gesture, or a right gesture. After that, the end of the movement is determined through a gesture operation of drawing a circle with the hand. A user gesture action may be detected and recognized through an existing gesture detection device.

일 실시예에 따라 3차원 가상 이미지의 결합점의 3차원 공간 위치를 외부 컨트롤러용 사용자 동작에 따라서 구성할 수 있다. According to an exemplary embodiment, a 3D spatial position of a joining point of a 3D virtual image may be configured according to a user action for an external controller.

3차원 가상 이미지의 결합점의 3차원 공간 위치를 외부 컨트롤러용 사용자 동작(예컨대, 촬영 장치와 연관된 수기펜에 대한 동작, 웨어러블 디바이스와 같은 원격 제어 기능을 구비한 디바이스에 대한 동작임)에 따라 구성하는 예에서, 촬영 장치가 수기펜과 연결되면, 3차원 가상 이미지의 결합점은 수기펜으로부터의 명령에 따라서 선택되고, 그 후, 사용자는 선택된 결합점을, 수기펜의 버튼을 사용하고 수기펜의 첨두를 슬라이딩시킴으로써 이동시킬 수 있다.The three-dimensional spatial position of the three-dimensional virtual image binding point is configured according to a user action for an external controller (eg, an action for a handwriting pen associated with an imaging device, an action for a device having a remote control function such as a wearable device) In this example, when the photographing device is connected with the writing pen, a binding point of the 3D virtual image is selected according to a command from the writing pen, and then, the user selects the selected binding point by using the button of the writing pen and It can be moved by sliding the tip of

사용자가 구성한 결합점의 3차원 공간 위치를 정확하고 타당한 것으로 만들기 위해, 결합점의 3차원 공간 위치를 사용자 동작에 따라서 구성하는데, 그 구성된 결합점의 속성이 고려될 수 있다. 예를 들어, 사용자 동작에 따라서 구성된 결합점이 모 결합점(mother joint point)이면, 그 모 결합점에 상응하는 자 결합점(child joint point)은 모 결합점의 이동과 함께 이동될 수 있다. 또한, 결합점의 3차원 공간 위치를 구성하는데 사용되는 사용자 동작의 실현성(feasibility)은 결합점의 속성에 따라서 결정되고, 사용자에게 통지된다. 예를 들어, 사용자 동작의 실현성은 결합점의 3차원 공간 위치가 상응하는 골격(skeleton)의 길이로 제한되는 속성에 따라서 결정된다. In order to make the three-dimensional spatial location of the joining point configured by the user accurate and valid, the three-dimensional spatial location of the joining point is configured according to the user's motion, and the properties of the configured joining point may be considered. For example, if a joint point configured according to a user's motion is a mother joint point, a child joint point corresponding to the mother joint point may be moved along with the movement of the mother joint point. In addition, the feasibility of a user action used to construct the three-dimensional spatial position of the joint point is determined according to the attribute of the joint point, and the user is notified. For example, the feasibility of a user action is determined according to the property that the three-dimensional spatial position of the joining point is limited by the length of the corresponding skeleton.

도 15는 일 실시예에 따라서, 결합점의 3차원 공간 위치가 잘못 구성되었음을 사용자에게 알리는 예를 나타낸다. 도 15에 도시된 바와 같이, 사용자가 구성한 결합점의 3차원 공간 위치 1510는 상응하는 골격의 길이 제한을 충족하지 못하고, 따라서 촬영 장치 100는 결합점의 3차원 공간 위치가 잘못 구성되었다는 통지 1510를 사용자에게 출력할 수 있다. 15 illustrates an example of informing a user that a three-dimensional spatial location of a joining point is incorrectly configured, according to an embodiment. 15 , the three-dimensional spatial position 1510 of the joining point configured by the user does not meet the length limit of the corresponding skeleton, so the imaging device 100 sends a notification 1510 that the three-dimensional spatial position of the joining point is configured incorrectly. can be printed to the user.

도 16은 일 실시예에 따라서, 3차원 가상 이미지 및 이 3차원 가상 이미지의 결합점을 함께 선택하고 구성하는 예를 나타낸다. 도 16을 참조하면, 촬영 장치 100는 제1의 3차원 가상 이미지 및 제2의 3차원 가상 이미지를 선택할 수 있는 선택 박스 1610, 각 선택된 3차원 가상 이미지의 결합점을 선택할 수 있는 선택 박스 1620를 디스플레이할 수 있다. 도 16에 도시된 바와 같이, 제2의 3차원 가상 이미지 및 그 제2의 3차원 가상 이미지의 오른손 결합점은 사용자 인터페이스를 통해 함께 선택되고 구성될 수 있으므로, 3차원 가상 이미지 및 그 3차원 가상 이미지의 결합점은 함께 선택되고 구성될 수 있다.16 illustrates an example of selecting and configuring a 3D virtual image and a joint point of the 3D virtual image together, according to an embodiment. Referring to FIG. 16 , the imaging device 100 includes a selection box 1610 for selecting a first 3D virtual image and a second 3D virtual image, and a selection box 1620 for selecting a joint point of each selected 3D virtual image. can be displayed. As shown in FIG. 16 , the second three-dimensional virtual image and the right-hand joint point of the second three-dimensional virtual image can be selected and configured together through a user interface, so that the three-dimensional virtual image and its three-dimensional virtual image The joining points of the images can be selected and configured together.

배경 이미지가 촬영이 수행되는 시나리오의 미리보기 이미지인 경우(즉, 카메라가 시나리오의 미리보기 이미지를 실시간으로 캡처함), 미리보기 이미지는 실시간으로 캡처되므로, 미리보기 이미지는 사용자 손의 액션 변화에 따라서 변화된다(예컨대, 사용자 손이 가볍게 흔들림에 따라서 미리보기 이미지의 흔들림도 일어남). 실시예에서, 미리보기 이미지 내 구성된 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 미리보기 이미지의 변화에 따라서 변화될 수 있다. If the background image is a preview image of the scenario in which the shooting is performed (i.e. the camera captures the preview image of the scenario in real time), the preview image is captured in real time, so the preview image is sensitive to changes in the action of the user's hand. It changes accordingly (eg, the preview image shakes as the user's hand shakes lightly). In an embodiment, the 3D spatial position and/or 3D posture of the 3D virtual image constructed in the preview image may be changed according to the change of the preview image.

또한, 사용자가 3차원 가상 이미지를 구성하는 과정에서, 3차원 가상 이미지의 현재 3차원 공간 위치 및/또는 3차원 자세는 사용자 인터페이스에서 실시간으로 사용자에게 피드백될 수 있고, 사용자 인터페이스 내 미리보기 이미지와 3차원 가상 이미지에 컬러가 적용될 수 있어서, 사용자는 사용자 동작에 따라 발생하는 변화를 실시간으로 획득할 수 있다. In addition, in the process of the user constructing the 3D virtual image, the current 3D spatial position and/or the 3D posture of the 3D virtual image may be fed back to the user in real time on the user interface, and the preview image in the user interface and Since color can be applied to the three-dimensional virtual image, the user can acquire a change that occurs according to a user's motion in real time.

상기한 방법에 따르면, 촬영 오브젝트의 촬영 효과는 배경 이미지 내 3차원 가상 이미지를 구성함으로써 유효하게 시뮬레이션될 수 있고, 따라서 촬영 전에 완전한 구도가 구현될 수 있다.According to the above method, the shooting effect of the shooting object can be effectively simulated by constructing a three-dimensional virtual image in the background image, and thus a complete composition can be implemented before shooting.

<구성된 3차원 가상 이미지에 기초하여 촬영을 수행><Perform shooting based on the configured 3D virtual image>

이하에서, 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 동작 440의 절차를 상세히 설명한다. Hereinafter, the procedure of operation 440 of performing imaging based on the configured 3D virtual image will be described in detail.

즉, 3차원 가상 이미지를 이용하여 미리 촬영 구도를 잡은 후, 구성된 3차원 가상 이미지에 기초하여 촬영이 이루어진다. That is, after composing a photographing composition in advance using the 3D virtual image, the photographing is performed based on the configured 3D virtual image.

바람직하게는, 구성된 3차원 가상 이미지에 기초한 촬영 프로세스에서, 촬영 오브젝트는 배경 이미지에 구성된 3차원 가상 이미지에 기초한 조정을 수행하도록 가이드된다. Preferably, in the photographing process based on the constructed three-dimensional virtual image, the photographing object is guided to perform adjustment based on the three-dimensional virtual image constructed on the background image.

구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 동작 440의 절차가 도 17에 설명된다. A procedure of operation 440 of performing imaging based on the configured 3D virtual image is described in FIG. 17 .

도 17은 일 실시예에 따라서 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 방법을 나타내는 흐름도이다. 17 is a flowchart illustrating a method of performing imaging based on a 3D virtual image constructed according to an exemplary embodiment.

도 17에 도시된 바와 같이, 동작 1710에서, 촬영 장치 100는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 차이를 결정할 수 있다. 17 , in operation 1710, the photographing device 100 may determine a difference between the 3D virtual image in the background image and the photographing object.

촬영 장치 100는 촬영 오브젝트를 자동적으로 검출할 수 있다. 일 실시예에서, 촬영 오브젝트는 배경 이미지 내 3차원 가상 이미지의 3차원 자세에 기초하여 검출된다. 예를 들어, 촬영 오브젝트는 배경 이미지 내 3차원 가상 이미지와 유사하거나 일치하는 3차원 자세를 갖는 오브젝트를 검출함으로써 검출될 수 있다. 예를 들어, 동작 430에서, 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치가 구성되면, 그 구성된 위치는 실시간으로 검출될 수 있다. 배경 이미지 내 3차원 가상 이미지와 유사하거나 일치하는 3차원 자세를 갖는 오브젝트가 검출되면, 그 오브젝트는 촬영 오브젝트로서 결정된다. The photographing apparatus 100 may automatically detect a photographing object. In an embodiment, the imaging object is detected based on a three-dimensional posture of the three-dimensional virtual image in the background image. For example, the photographing object may be detected by detecting an object having a three-dimensional posture similar to or coincident with the three-dimensional virtual image in the background image. For example, in operation 430, if a 3D spatial position of the 3D virtual image in the background image is configured, the configured position may be detected in real time. When an object having a three-dimensional posture similar to or coincident with the three-dimensional virtual image in the background image is detected, the object is determined as a photographing object.

다른 실시예에서, 촬영 오브젝트는 웨어러블 디바이스가 제공하는 3차원 공간 위치 정보에 기초하여 결정될 수 있다. 예를 들어, 3차원 공간 위치 정보에 따라서, 배경 이미지 내 대응하는 위치에 있는 촬영 오브젝트가 검출되며, 이 3차원 공간 위치 정보는 촬영 오브젝트가 착용하고 촬영 장치와 연결된 웨어러블 디바이스가 제공하거나, 촬영 오브젝트가 휴대하고 촬영 장치와 연결된 전자 디바이스가 제공할 수 있다. In another embodiment, the photographing object may be determined based on 3D spatial location information provided by the wearable device. For example, a photographing object at a corresponding position in the background image is detected according to the 3D spatial location information, and the 3D spatial location information is provided by a wearable device worn by the photographing object and connected to the photographing apparatus, or the photographing object An electronic device carried by the user and connected to the photographing apparatus may provide it.

일 실시예에서, 촬영 오브젝트는 사용자가 선택한 오브젝트에 대한 타겟 트래킹을 수행함으로써 결정될 수 있다. 예를 들어, 사용자는 오브젝트를 배경 이미지 내 촬영 오브젝트로서 선택하고, 그 후, 그 선택된 촬영 오브젝트에 대하여 타겟 트래킹이 수행되어, 촬영 오브젝트가 결정될 수 있다. In an embodiment, the photographing object may be determined by performing target tracking on the object selected by the user. For example, the user may select an object as a photographing object in the background image, and thereafter, target tracking may be performed on the selected photographing object to determine the photographing object.

일 실시예에 따라, 촬영 오브젝트는 다른 방법으로 결정될 수 있다. 일 예에서, 촬영 오브젝트는 안면 인식을 통해 검출될 수 있다. 촬영 오브젝트의 이미지는 미리 촬영되거나, 사진 앨범에서 얻어질 수 있다. 촬영 오브젝트는 그 촬영 오브젝트의 이미지에 기초하여 검출될 수 있다. According to an embodiment, the photographing object may be determined by another method. In an example, the photographing object may be detected through facial recognition. The image of the photographing object may be photographed in advance or obtained from a photo album. A photographing object may be detected based on an image of the photographing object.

다른 예에서, 촬영 오브젝트의 액션 궤적(action trajectory)이 트래킹되고, 그 액션 궤적에 따라서 촬영 오브젝트가 검출될 수 있다. 예를 들어, 오브젝트의 액션 궤적이 트래킹되고, 그 오브젝트의 액션 방향이 구성된 3차원 가상 이미지의 위치를 향하는지 여부가 결정된다. 구성된 3차원 가상 이미지의 위치를 액션 방향이 향하고 있으면, 그 오브젝트가 촬영 오브젝트라고 결정된다. 액션 방향이 구성된 3차원 가상 이미지의 위치로 향하고 있지 않으면, 그 오브젝트는 촬영 오브젝트가 아니라고 결정된다. In another example, an action trajectory of the photographing object may be tracked, and the photographing object may be detected according to the action trajectory. For example, the action trajectory of the object is tracked, and it is determined whether the action direction of the object is toward the position of the constructed three-dimensional virtual image. If the action direction points to the position of the constructed 3D virtual image, it is determined that the object is a shooting object. If the action direction is not toward the position of the constructed three-dimensional virtual image, it is determined that the object is not a shooting object.

촬영 오브젝트가 다수의 인물을 포함하면, 각 촬영 오브젝트는 상기한 방법에 따라서 개별적으로 검출될 수 있다. When the photographing object includes a plurality of people, each photographing object may be individually detected according to the above-described method.

일 실시예에서, 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 차이는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이 및/또는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 자세 차이를 포함할 수 있다. In an embodiment, the difference between the 3D virtual image and the shooting object in the background image is the difference in 3D spatial position between the 3D virtual image and the shooting object in the background image and/or between the 3D virtual image and the shooting object in the background image may include a difference in the three-dimensional posture of

일 예에서, 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이는 촬영 오브젝트의 3차원 공간 위치와 3차원 가상 이미지의 3차원 공간 위치를 비교함으로써 결정될 수 있다. 예를 들어, 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이는 촬영 오브젝트의 수평 방향, 수직 방향 및 깊이 방향에서의 3차원 공간 위치를 3차원 가상 이미지의 수평 방향, 수직 방향 및 깊이 방향에서의 3차원 공간 위치와 각각 순서대로 비교함으로써 결정될 수 있다.In one example, the 3D spatial position difference between the 3D virtual image and the photographing object may be determined by comparing the 3D spatial position of the photographing object with the 3D spatial position of the 3D virtual image. For example, the 3D spatial position difference between the 3D virtual image and the shooting object is the 3D spatial position in the horizontal direction, vertical direction, and depth direction of the shooting object in the horizontal direction, vertical direction, and depth direction of the 3D virtual image. It can be determined by sequentially comparing the three-dimensional spatial position in .

일 예에서, 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 자세 차이는 촬영 오브젝트의 결합점의 3차원 공간 위치를 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치와 비교함으로써 결정될 수 있다. 촬영 오브젝트의 결합점의 3차원 공간 위치 각각은 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치와 순서대로 비교된다. 예를 들어, 비교는 루트 노드로부터 시작하고, 루트 노드로부터 차일드 노드로 차례대로 수행될 수 있다. In one example, the 3D posture difference between the 3D virtual image and the photographing object may be determined by comparing the 3D spatial position of the bonding point of the photographing object with the 3D spatial position of the corresponding bonding point of the 3D virtual image. Each of the three-dimensional spatial positions of the joining points of the imaging object is sequentially compared with the three-dimensional space positions of the corresponding joining points of the three-dimensional virtual image. For example, the comparison may be performed starting from the root node and sequentially from the root node to the child node.

오브젝트촬영 오브젝트의 결합점 각각과 3차원 가상 이미지의 상응하는 결합점 사이의 3차원 공간 위치 차이가 미리 설정된 임계값보다 작거나, 또는 촬영 오브젝트의 지정된 결합점과 3차원 가상 이미지의 상응하는 결합점 사이의 3차원 공간 위치 차이가 미리 설정된 임계값보다 작으면, 3차원 가상 이미지와 촬영 오브젝트사이에 3차원 자세 차이가 없다고 결정된다. 또한, 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이는 촬영 오브젝트의 결합점 각각과 3차원 가상 이미지의 상응하는 결합점 사이의 각도차 또는 촬영 오브젝트의 지정된 결합점과 3차원 가상 이미지의 상응하는 결합점 사이의 각도차를 통해서 결정될 수 있다. 예를 들어, 촬영 오브젝트의 몇몇 지정된 결합점들의 연결선이 결정되고, 3차원 가상 이미지의 대응하는 결합점들의 연결선이 결정된다. 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이는 이 두 연결선 사이의 각도차에 따라서 결정된다.The three-dimensional spatial position difference between each joint point of the object photographing object and the corresponding joint point of the three-dimensional virtual image is less than a preset threshold, or the specified joint point of the photographing object and the corresponding joint point of the three-dimensional virtual image If the 3D spatial position difference between the two is smaller than a preset threshold, it is determined that there is no 3D posture difference between the 3D virtual image and the photographing object. In addition, the 3D posture difference between the photographing object and the 3D virtual image is the angular difference between each bonding point of the photographing object and the corresponding bonding point of the 3D virtual image or the correspondence between the specified bonding point of the photographing object and the 3D virtual image It can be determined through the angular difference between the bonding points. For example, a connection line of some designated bonding points of the photographing object is determined, and a connection line of corresponding bonding points of the three-dimensional virtual image is determined. The 3D posture difference between the photographed object and the 3D virtual image is determined according to the angular difference between the two connecting lines.

동작 1720에서, 촬영 장치 100는 결정된 차이에 따라서 촬영 가이드를 출력하고 촬영을 수행한다. 이때 촬영 가이드가 순서에 따라 출력되어, 촬영 오브젝트를 가이드함으로써 자세를 조정할 수 있다.In operation 1720, the photographing device 100 outputs a photographing guide according to the determined difference and performs photographing. At this time, the photographing guide is output according to the order, and the posture can be adjusted by guiding the photographing object.

특히, 촬영 오브젝트는 지정된 위치에 도달하도록 가이드되고, 따라서 촬영 오브젝트의 3차원 공간 위치는 배경 이미지 내 구성된 3차원 가상 이미지의 3차원 공간 위치와 동일 또는 유사하고, 및/또는 촬영 오브젝트는 3차원 자세를 조정하도록 가이드되고, 따라서 촬영 오브젝트의 3차원 자세는 3차원 가상 이미지의 3차원 자세와 동일 또는 유사하다. 촬영 오브젝트가 3차원 공간 위치 및 3차원 자세를 조정하도록 가이드되는 경우, 촬영 오브젝트가 3차원 공간 위치를 조정하도록 가이드된 후(즉, 지정 위치에 도달된 후), 촬영 오브젝트는 3차원 자세를 조정하도록 가이드된다.In particular, the shooting object is guided to arrive at a designated position, so that the three-dimensional spatial position of the shooting object is the same as or similar to the three-dimensional spatial position of the three-dimensional virtual image constructed in the background image, and/or the shooting object has a three-dimensional posture is guided to adjust, so that the three-dimensional posture of the photographing object is the same as or similar to the three-dimensional posture of the three-dimensional virtual image. When the shooting object is guided to adjust the three-dimensional space position and three-dimensional posture, after the shooting object is guided to adjust the three-dimensional space position (that is, after reaching the specified position), the shooting object adjusts the three-dimensional posture guided to do

촬영 오브젝트가 지정된 위치에 도달하도록 가이드되면, 촬영 오브젝트는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이에 기초하여 이동 방향 및 이동 거리에 대하여 가이드된다. When a photographing object is guided to reach a designated position, the photographing object is guided with respect to a movement direction and a movement distance based on a 3D spatial position difference between the three-dimensional virtual image in the background image and the photographing object.

예를 들어, 음성 가이드가 사용되는 경우, 예컨대, <전방으로 거리는 3m>라는 음성 명령이 전송되고, 음성 가이드는 웨어러블 디바이스를 통해 출력될 수 있다. For example, when a voice guide is used, a voice command, for example, <a distance of 3 m to the front> is transmitted, and the voice guide may be output through the wearable device.

예를 들어, 이미지 가이드가 사용되는 경우, 촬영 오브젝트의 이동 궤적, 촬영 오브젝트의 현재 위치와 지정된 위치, 지정된 위치까지의 거리 등과 같은 아이템 중 적어도 하나가 디스플레이될 수 있다:오브젝트오브젝트. 이미지 가이드는 촬영 장치 및/또는 웨어러블 디바이스의 디스플레이 스크린을 통해 출력될 수 있다. For example, when an image guide is used, at least one of items such as a movement trajectory of a photographing object, a current position and a specified position of the photographing object, and a distance to a specified position may be displayed: object. The image guide may be output through the display screen of the photographing apparatus and/or the wearable device.

또한 선택적으로, 촬영 오브젝트는 색깔이 다른 지시등(indicator lights)을 통해 가이드될 수 있다. 예를 들어, 녹색광은 촬영 오브젝트가 전방으로 이동함을 가리키고, 청색광은 촬영 오브젝트가 오른쪽으로 이동함을 가리킨다. 촬영 오브젝트는 촬영 장치 및/또는 웨어러블 디바이스의 지시등을 통해 가이드될 수 있다. Also optionally, the imaging object may be guided via indicator lights of different colors. For example, green light indicates that the photographing object moves forward, and blue light indicates that the photographing object moves to the right. The photographing object may be guided through an indicator light of the photographing apparatus and/or the wearable device.

도 18은 일 실시예에 따라, 이미지 가이드를 이용하여 지정된 위치에 도달하도록 촬영 오브젝트를 가이드하는 예를 나타낸다. 도 18에 도시된 바와 같이, 지정된 위치로의 경로 1810, 현재 위치 1820, 촬영 오브젝트의 지정된 위치 1830, 및 지정된 위치로의 거리에 대한 정보 1840가 그 촬영 오브젝트에 대하여 디스플레이될 수 있다. 18 illustrates an example of guiding a photographing object to reach a designated position using an image guide, according to an embodiment. As illustrated in FIG. 18 , information 1840 about a path 1810 to a designated location, a current location 1820, a designated location 1830 of a photographing object, and a distance to the designated location may be displayed for the photographing object.

다수의 촬영 오브젝트가 존재하면, 촬영 오브젝트 각각은 상응하는 지정된 위치에 도달하도록 상기한 방법에 따라서 가이드될 수 있다. 예를 들어, 촬영 오브젝트 각각은 순서(예컨대, 왼쪽에서 오른쪽으로, 위에서 아래로, 전방에서 후방으로, 어두운 옷색깔에서 밝은 옷색깔로의 촬영 오브젝트순서)에 따라서 가이드될 수 있다. If there are a plurality of shooting objects, each of the shooting objects may be guided according to the above method to reach a corresponding designated position. For example, each of the photographing objects may be guided according to an order (eg, the photographing object order from left to right, top to bottom, front to rear, from dark clothing color to light clothing color).

도 19는 일 실시예에 따른, 다수의 촬영 오브젝트들이 지정된 위치들에 도달하도록 가이드하는 예를 나타낸다. 19 illustrates an example of guiding a plurality of photographing objects to reach designated positions, according to an embodiment.

도 19를 참조하면, 다수 촬영 오브젝트의 이동 궤적들 1910, 1920, 다수 촬영 오브젝트의 현재 위치들 1911, 1921, 상응하는 지정된 위치들 1912, 1922, 상응하는 지정된 위치들로의 각 거리에 대한 정보 1913, 1923 가 디스플레이될 수 있다. 또한, 서로 다른 색깔을 이용하여, 상응하는 지정된 위치들로의 경로들, 다수 촬영 오브젝트의 현재 위치들과 상응하는 지정된 위치들을 마크(mark)할 수 있다. Referring to FIG. 19 , movement trajectories 1910 and 1920 of the plurality of photographing objects, current positions 1911 and 1921 of the plurality of photographing objects, corresponding designated positions 1912 and 1922, information on respective distances to corresponding designated positions 1913 , 1923 may be displayed. In addition, different colors may be used to mark paths to corresponding designated locations and designated locations corresponding to current locations of a plurality of photographing objects.

촬영 오브젝트가 자세를 조정하도록 가이드되는 경우, 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이에 기초하여 가이드가 수행된다. When the photographing object is guided to adjust the posture, the guide is performed based on the 3D posture difference between the photographing object and the 3D virtual image.

예를 들어, 음성 가이드가 사용되면, 예컨대, <왼손을 10cm 올리고, 왼손을 8cm 후방으로 이동하시오>라는 음성 명령이 전송된다. For example, when a voice guide is used, a voice command is transmitted, for example, <Raise your left hand by 10 cm, move your left hand backward by 8 cm>.

예를 들어, 이미지 가이드가 사용되는 경우, 촬영 오브젝트의 현재 자세와 3차원 가상 이미지의 자세가 두 개의 이미지로 각기 디스플레이되거나, 2개의 중첩된 자세를 포함하는 하나의 이미지로 디스플레이되어서, 촬영 오브젝트는 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이를 학습할 수 있다. For example, when an image guide is used, the current posture of the photographing object and the posture of the three-dimensional virtual image are displayed as two images, respectively, or as one image including two overlapping postures, so that the photographing object is It is possible to learn a 3D posture difference between a photographed object and a 3D virtual image.

예를 들어, 정보 출력 방식이 가이드를 위해 사용되는 경우, 각 결합점에 대하여 이동되어야 하는 거리와 방향에 대한 정보가 출력될 수 있다. 예를 들어, 예컨대, <소정 결합점을 10cm 왼쪽으로, 8cm 후방으로 이동하시오>와 같은 텍스트가 출력될 수 있다. For example, when an information output method is used for a guide, information on a distance and a direction to be moved for each bonding point may be output. For example, text such as <Move the predetermined bonding point 10 cm to the left and 8 cm backward> may be output.

예를 들어, 출력에 컬러 마킹 방법이 사용될 수 있다. 예를 들어, 적색은 자세 차이가 크다는 것을 나타내고, 노란색은 촬영 오브젝트의 자세가 3차원 가상 이미지의 자세와 유사하다는 것을 나타내고, 녹색은 촬영 오브젝트의 자세가 3차원 가상 이미지의 자세와 일치한다는 것을 나타내는데 이용될 수 있다. For example, a color marking method may be used on the output. For example, red indicates that the posture difference is large, yellow indicates that the posture of the photographing object is similar to that of the three-dimensional virtual image, and green indicates that the posture of the photographing object matches the posture of the three-dimensional virtual image. can be used

예를 들어, 색이 다른 지시등들 을 사용해, 촬영 오브젝트의 각 결합점의 3차원 공간 위치가 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치와 일치하는지 여부를 표시할 수 있다. For example, the indicator lights of different colors may be used to indicate whether the three-dimensional space position of each joint point of the imaging object coincides with the three-dimensional space position of the corresponding joint point of the three-dimensional virtual image.

도 20은 일 실시예에 따라, 촬영 오브젝트의 자세를 조정하기 위해 촬영 오브젝트를 가이드하는 예를 나타낸다. 도 20에 도시된 바와 같이, 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이는 촬영 오브젝트에 대하여 이미지를 통해 디스플레이되고, 촬영 오브젝트는 텍스트 출력 2010을 통해 가이드될 수 있다. 또한, 촬영 오브젝트의 현재 자세 2020 및 촬영 오브젝트가 다수의 각도 하에서 조정될 자세 2030는 전면 시야 또는 측면 시야로 동시에 디스플레이될 수 있고, 촬영 오브젝트의 현재 자세와 촬영 오브젝트가 조정될 자세에 컬러가 적용된다(예를 들어, 결합점에 기초하여 촬영 오브젝트의 현재 자세와 그 현재 자세가 조정될 자세에 컬러가 적용됨). 따라서 촬영 오브젝트는 자세가 어떻게 조정되는지 편리하게 이해할 수 있다. 예를 들어, 일부 상황에서, 촬영 오브젝트는 단일의 전면 시야 또는 단일의 측면 시야 만으로는 자세가 어떻게 조정되는지 이해하지 못할 수 있다. 예를 들어, 촬영 오브젝트는 왼손을 후방으로 8cm 이동시킬 필요가 있지만, 왼손이 전방 또는 후방으로 이동하는지 여부 및 이동 거리는 얼마나 되는지를 단일 전면 시야에서는 결정되지 않을 수 있지만, 측면 시야에서는 정확히 제공될 수 있다. 20 illustrates an example of guiding a photographing object to adjust a posture of the photographing object, according to an exemplary embodiment. As shown in FIG. 20 , a 3D posture difference between a photographing object and a 3D virtual image may be displayed with respect to the photographing object through an image, and the photographing object may be guided through text output 2010 . In addition, the current posture 2020 of the photographing object and the posture 2030 in which the photographing object is to be adjusted under multiple angles can be simultaneously displayed as a front view or a side view, and colors are applied to the current posture of the photographing object and the posture to be adjusted (eg, For example, a color is applied to the current posture of the object to be captured and the posture to which the current posture is to be adjusted based on the joint point). Accordingly, the photographing object can conveniently understand how the posture is adjusted. For example, in some situations, the imaging object may not understand how posture is adjusted with only a single front view or a single side view. For example, a photographing object may need to move the left hand 8 cm backwards, but it may not be determined whether the left hand is moving forward or backward and how far it will be moved in a single front view, but can be accurately provided in a side view. have.

다수의 촬영 오브젝트가 있으면, 각 촬영 오브젝트는 자세를 조정하도록 가이드됨을 이해해야 한다. 모든 촬영 오브젝트가 상응하는 지정 위치에 도달한 후 각 오브젝트에 대한 가이드가 시작되어 자세를 조정한다. 선택적으로는, 임의의 촬영 오브젝트가 상응하는 지정 위치에 도달한 후 오브젝트에 대한 가이드가 시작되어 자세를 조정한다. It should be understood that if there are multiple shooting objects, each shooting object is guided to adjust its posture. After all the shooting objects have reached their corresponding designated positions, the guide for each object is started to adjust the posture. Optionally, after a certain shooting object reaches a corresponding designated position, a guide for the object is started to adjust the posture.

도 21은 일 실시예에 따라 다수 촬영 오브젝트의 자세를 조정하기 위하여 다수 촬영 오브젝트를 가이드하는 예를 나타낸다. 도 21에 도시된 바와 같이, 촬영 오브젝트들 중 하나와 3차원 가상 이미지 사이의 자세 차이는 이미지를 통해 디스플레이되고, 촬영 오브젝트들은 텍스트 2110을 통해 가이드된다. 또한, 다른 촬영 오브젝트에 상응하는 이미지와 텍스트는 다른 컬러로 마킹된다. 21 illustrates an example of guiding a plurality of photographing objects in order to adjust postures of the plurality of photographing objects according to an exemplary embodiment. As shown in FIG. 21 , the difference in posture between one of the photographing objects and the 3D virtual image is displayed through the image, and the photographing objects are guided through text 2110 . Also, images and text corresponding to different shooting objects are marked with different colors.

일 예에 있어서, 촬영 가이드는 촬영 장치 및/또는 웨어러블 디바이스를 통해 출력되고, 따라서 촬영 오브젝트는 가이드되어 상응하는 조정을 수행한다. 예를 들어, 촬영 오브젝트가 촬영 장치에 근접해 있으면, 촬영 오브젝트는 촬영 장치로부터의 음성 명령을 통하거나 및/또는 회전식 디스플레이 스크린을 통해서 가이드될 수 있다. 촬영 오브젝트가 촬영 장치로부터 멀리 있으면, 촬영 오브젝트는 그 촬영 오브젝트가 착용하고 있고 촬영 장치와 연결된 웨어러블 디바이스(예컨대, 블루투스 헤드폰, 스마트 와치, 스마트 글래스, 스마트 팔찌 등)를 통해 가이드된다. 예를 들어, 촬영 장치는 촬영 오브젝트를 가이드하여 조정을 수행할 필요가 있으면, 사용자에게 가이드를 위해 웨어러블 디바이스를 사용할 것을 통지하고, 근접해 있는 웨어러블 디바이스들의 리스트를 디스플레이할 수 있다. 사용자는 상응하는 웨어러블 디바이스를 선택하여 접속할 수 있다. 또한, 웨어러블 디바이스는 접속 요청을 개시할 수 있다. 예를 들어, 웨어러블 디바이스는 촬영을 하도록 사용자를 가이드하는 앱(APP)을 설치하고 있다. 이 앱은 접속 요청을 촬영 장치에 할 수 있다. 또한, 촬영 오브젝트가 소지한 다른 전자 디바이스(예컨대, 스마트폰, 태블릿 컴퓨터)의 출력이 조정을 수행하도록 촬영 오브젝트를 가이드하는 데 사용될 수 있음을 알아야 한다. In an example, the photographing guide is output through the photographing apparatus and/or the wearable device, and thus the photographing object is guided to perform a corresponding adjustment. For example, if the imaging object is in proximity to the imaging device, the imaging object may be guided through a voice command from the imaging device and/or via a rotating display screen. When the photographing object is far from the photographing device, the photographing object is guided through a wearable device (eg, Bluetooth headphones, smart watch, smart glasses, smart bracelet, etc.) that is worn by the photographing object and is connected to the photographing apparatus. For example, when it is necessary to guide a photographing object to perform adjustment, the photographing apparatus may notify the user to use a wearable device for guiding, and display a list of adjacent wearable devices. A user may select and access a corresponding wearable device. Also, the wearable device may initiate a connection request. For example, the wearable device has installed an APP that guides the user to take a picture. This app can make a connection request to the shooting device. It should also be noted that the output of another electronic device (eg, smartphone, tablet computer) carried by the photographing object may be used to guide the photographing object to perform adjustment.

도 22는 일 실시예에 따른 접속형 전자 디바이스의 예를 나타낸다. 도 22에 도시된 바와 같이, 3차원 가상 이미지와 페어링할 디바이스를 선택하라는 메시지 2210 및 촬영 장치와 접속가능한 전자 디바이스들의 리스트 2220가 사용자에게 디스플레이될 수 있고, 사용자는 상응하는 전자 디바이스를 선택하여 접속을 확립할 수 있고, 촬영 장치는 이 접속을 통해 촬영 오브젝트를 가이드하여 조정을 수행한다.22 illustrates an example of a connected electronic device according to an embodiment. 22 , a message 2210 to select a device to be paired with a three-dimensional virtual image and a list 2220 of electronic devices connectable to the photographing apparatus may be displayed to the user, and the user may select and connect a corresponding electronic device can be established, and the photographing apparatus guides the photographing object through this connection to perform the adjustment.

다수의 촬영 오브젝트가 있으면, 촬영 장치는 각 오브젝트가 착용한 웨어러블 디바이스 또는 각 오브젝트가 소지한 전자 디바이스 각각과 접속을 확립할 수 있고, 따라서 촬영 오브젝트는 조정을 수행하기 위한 가이드를, 상응하는 웨어러블 디바이스 또는 상응하는 휴대용 전자 디바이스를 통해 받을 수 있음을 알아야 한다. If there are a plurality of photographing objects, the photographing apparatus may establish a connection with each of a wearable device worn by each object or an electronic device carried by each object, so that the photographing object provides a guide for performing adjustment, a corresponding wearable device or via a corresponding portable electronic device.

도 23은 일 실시예에 따라서, 접속형 전자 디바이스 상에 디스플레이하는 다른 예를 나타낸다. 도 23에 도시된 바와 같이, 복수의 삼차원 가상 이미지 중 하나를 선택할 수 잇는 선택 박스 2310, 및 각 삼차원 가상 이미지와 매핑될 수 있는, 촬영 장치와 접속가능한 전자 디바이스들의 리스트 2320가 사용자를 위해 디스플레이될 수 있고, 따라서 사용자는 복수의 3차원 가상 이미지 각각에 상응하는 전자 디바이스를 선택하여 접속을 확립함으로써, 다수의 촬영 오브젝트에서 선택된 촬영 오브젝트를 가이드하여 조정을 수행할 수 있다. 예를 들어, 사용자는 제1삼차원 가상 이미지에 대해서는 페어링할 디바이스로서 갤럭시 S6를 선택하고, 제2삼차원 가상 이미지에 대해서는 페어링할 디바이스로서 기어 VR을 선택할 수 있다. 따라서 제1삼차원 가상 이미지에 대응하는 촬영 오브젝트는 갤럭시 S6를 통해서 가이드를 제공받고, 제2삼차원 가상 이미지에 대응하는 촬영 오브젝트는 기어 VR을 통해서 가이드를 제공받을 수 있다. 23 illustrates another example of displaying on a connected electronic device, according to an embodiment. 23 , a selection box 2310 capable of selecting one of a plurality of three-dimensional virtual images, and a list 2320 of electronic devices connectable to the photographing apparatus, which can be mapped to each three-dimensional virtual image, are displayed for the user. Accordingly, the user may select an electronic device corresponding to each of the plurality of three-dimensional virtual images and establish a connection, thereby guiding the selected photographing object from the plurality of photographing objects and performing adjustment. For example, the user may select the Galaxy S6 as the device to be paired for the first 3D virtual image and may select the Gear VR as the device to be paired with for the second 3D virtual image. Accordingly, the photographing object corresponding to the first 3D virtual image may be provided with a guide through the Galaxy S6, and the photographing object corresponding to the second 3D virtual image may be provided with the guide through the Gear VR.

바람직하게는, 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 프로세스에서, 적절한 시간에 촬영 오브젝트가 포커스되고 촬영된다. 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 동작 440의 절차는 도 24를 참조하여 설명된다. Preferably, in the process of performing imaging based on the constructed three-dimensional virtual image, the imaging object is focused and photographed at an appropriate time. A procedure of operation 440 of performing imaging based on the configured 3D virtual image will be described with reference to FIG. 24 .

도 24는 다른 실시예에 따라서, 구성된 3차원 가상 이미지에 기초하여 촬영을 수행하는 방법을 나타내는 흐름도이다. 24 is a flowchart illustrating a method of performing imaging based on a configured 3D virtual image, according to another exemplary embodiment.

도 24를 참조하면, 동작 2410에서, 촬영 오브젝트가 배경 이미지 내 3차원 가상 이미지와 일치하는지 여부가 결정된다. 예를 들어, 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 차이가 미리 설정된 포커싱 임계값보다 작거나, 또는 촬영 오브젝트가 배경 이미지 내 3차원 가상 이미지와 대략적으로 유사하면, 촬영 오브젝트는 3차원 가상 이미지와 일치한다고 결정된다. Referring to FIG. 24 , in operation 2410 , it is determined whether a photographing object matches a 3D virtual image in a background image. For example, if the difference between the 3D virtual image in the background image and the shooting object is less than a preset focusing threshold, or if the shooting object is roughly similar to the 3D virtual image in the background image, the shooting object is a 3D virtual image determined to match the image.

배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 차이는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이 및 3차원 자세 차이를 포함할 수 있다. 비교가 수행될 때, 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이가 미리 설정된 위치 포커싱 임계값보다 작고 또한 3차원 가상 이미지와 촬영 오브젝트사이의 3차원 자세 차이가 미리 설정된 자세 포커싱 임계값보다 작으면, 3차원 가상 이미지와 촬영 오브젝트사이의 차이가 미리 설정된 포커싱 임계값보다 작다고 결정될 수 있다. 선택적으로는, 3차원 공간 위치 차이와 3차원 자세 차이의 가중합이 미리 설정된 토탈 포커싱 임계값보다 작으면, 3차원 가상 이미지와 촬영 오브젝트사이의 차이가 미리 설정된 포커싱 임계값보다 작다고 결정될 수 있다. The difference between the 3D virtual image in the background image and the photographing object may include a 3D spatial position difference and a 3D posture difference between the 3D virtual image in the background image and the photographing object. When the comparison is performed, the three-dimensional spatial position difference between the three-dimensional virtual image and the photographing object is smaller than the preset position focusing threshold, and the three-dimensional position difference between the three-dimensional virtual image and the photographing object is the preset posture focusing threshold If less than, it may be determined that the difference between the three-dimensional virtual image and the photographing object is smaller than a preset focusing threshold. Optionally, if the weighted sum of the 3D spatial position difference and the 3D posture difference is less than a preset total focusing threshold, it may be determined that the difference between the 3D virtual image and the photographed object is smaller than the preset focusing threshold.

동작 2410에서, 촬영 오브젝트가 3차원 가상 이미지와 일치하면, 동작 2420에서 촬영 장치 100는 촬영 오브젝트를 포커스하고 촬영한다. In operation 2410, if the photographing object matches the 3D virtual image, in operation 2420, the photographing device 100 focuses and photographs the photographing object.

일 예에서, 촬영 오브젝트가 3차원 가상 이미지와 일치하면, 촬영 오브젝트는 자동적으로 포커스되고 촬영된다.In one example, when the shooting object matches the three-dimensional virtual image, the shooting object is automatically focused and photographed.

일 예에서, 촬영 오브젝트가 다수의 오브젝트를 포함하면, 동작 2420의 절차는 각 오브젝트에 대하여 수행될 수 있다. In one example, if the photographing object includes a plurality of objects, the procedure of operation 2420 may be performed for each object.

도 25는 일 실시예에 따라 다수의 오브젝트 각각을 포커스하는 예를 나타낸다. 도 25에 도시된 바와 같이, 상응하는 3차원 가상 이미지와 일치하는 오브젝트가 포커스되고, 그 오브젝트를 포함하는 이미지가 촬영된다. 각 오브젝트가 포커스되어 촬영된 후 각 촬영 이미지에서 오브젝트가 추출되고, 모든 추출된 오브젝트와 배경 이미지가 결합된다. 예를 들어, 도 25를 참조하면, 촬영 장치 100는 제1 삼차원 가상 이미지와 대응하는 촬영 오브젝트의 유사도가 90%이고 제2삼차원 가상 이미지와 대응하는 촬영 오브젝트의 유사도가 94% 임을 나타내는 정보 2510를 디스플레이할 수 있다. 이 방식에 따라, 각 오브젝트마다 포커스되고, 서로 다른 오브젝트들이 포커스된 이미지들이 각각 촬영되고, 촬영 이미지들에서 상응하는 오브젝트들이 추출되고, 모든 추출된 오브젝트들과 배경 이미지가 결합되어, 모든 오브젝트가 선명한 이미지가 획득된다. 따라서 다수의 오브젝트가 다른 시나리오 깊이에 있으면 하나의 오브젝트만이 포커스되고 나머지 오브젝트들은 흐릿하게 되는 문제가 해결될 수 있다. 25 illustrates an example of focusing each of a plurality of objects according to an exemplary embodiment. As shown in FIG. 25 , an object matching the corresponding three-dimensional virtual image is focused, and an image including the object is captured. After each object is focused and photographed, the object is extracted from each photographed image, and all extracted objects and background images are combined. For example, referring to FIG. 25 , the photographing device 100 obtains information 2510 indicating that the similarity between the first 3D virtual image and the corresponding photographing object is 90% and the second 3D virtual image and the corresponding photographing object have a similarity of 94% can be displayed. According to this method, each object is focused, images in which different objects are focused are taken respectively, corresponding objects are extracted from the captured images, and all the extracted objects and the background image are combined, so that all objects are clear. An image is acquired. Therefore, if multiple objects are at different scenario depths, the problem that only one object is focused and the other objects are blurred can be solved.

도 26은 일 실시예에 따라 다수의 촬영 오브젝트 각각을 포커스하는 다른 예를 나타낸다. 도 26에 도시된 바와 같이, 근접 촬영 오브젝트와 원격 촬영 오브젝트 각각이 포커스되어 상응하는 이미지가 촬영되고, 그 상응하는 이미지들에서 오브젝트들이 각각 추출되며, 모든 추출된 오브젝트와 배경 이미지가 결합되어, 선명한 근접 촬영 오브젝트들과 선명한 원격 촬영 오브젝트들을 포함하는 이미지가 획득된다. 26 illustrates another example of focusing each of a plurality of photographing objects according to an exemplary embodiment. 26 , each of the close-up object and the remote-photographed object is focused to take a corresponding image, and the objects are extracted from the corresponding images, and all the extracted objects and the background image are combined, An image is obtained that includes close-up objects and sharp remote-photographed objects.

오브젝트는 상응하는 촬영 이미지에서 다양한 방법에 따라 추출될 수 있다. 예를 들어, 골격을 촬영 이미지에 맵핑함으로써 대략적인 사용자 영역(rough user region)이 획득될 수 있다. 오브젝트가 위치한 영역은 그래프 컷 알고리즘(graph cut algorithm) 또는 다른 구획 알고리즘에 따라서 구획된다. 구획되지 않은 포인트들은 배경 이미지를 구성하는 배경 포인트들이다. 예를 들어, 오브젝트가 위치한 영역은 보행자 검출 관련 알고리즘(pedestrian detection related algorithm; 예컨대, DPM 모델 등)을 사용해 검출될 수 있고, 그 후, 유사한 깊이의 영역은 오브젝트가 위치한 검출 영역에서 너비 우선 성장 알고리즘(breadth first growth algorithm)을 사용해 구획된다. 깊이 정보의 정밀도가 충분하지 않으면, 매팅 관련 알고리즘(Matting related algorithm)을 사용해 재-구획이 수행될 수 있다. 또한, 모든 추출된 오브젝트들과 배경 이미지는 다양한 방법(예컨대, 포아송 함수)에 따라 결합된다. The object may be extracted from the corresponding captured image according to various methods. For example, a rough user region may be obtained by mapping the skeleton to the captured image. The area where the object is located is partitioned according to a graph cut algorithm or other partitioning algorithm. The undivided points are background points constituting the background image. For example, an area where the object is located may be detected using a pedestrian detection related algorithm (eg, a DPM model, etc.), and then an area of similar depth is formed using a breadth-first growth algorithm in the detection area where the object is located. It is partitioned using a breadth first growth algorithm. If the precision of the depth information is not sufficient, re-segmentation may be performed using a matting related algorithm. In addition, all extracted objects and background images are combined according to various methods (eg, Poisson function).

또한, 촬영 오브젝트의 특정 결합점들 각각이 포커스되어 이미지들이 촬영되고, 촬영 이미지들이 결합됨으로써, 서로 다른 시나리오 깊이에 위치한 촬영 오브젝트의 선명한 몸체 부분들을 포함하는 이미지가 획득된다. 포커스된 결합점들은 촬영 오브젝트의 자세에 따라서 자동적으로 구성되거나, 사용자 동작에 따라서 선택될 수 있다. 예를 들어, 3차원 가상 이미지가 선택될 때, 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세가 구성될 때, 또는 촬영이 수행될 때, 포커스된 결합점들이 선택된다. In addition, images are captured by focusing each of specific bonding points of the photographing object, and by combining the photographed images, an image including clear body parts of the photographing object located at different scenario depths is obtained. The focused bonding points may be automatically configured according to the posture of the photographing object or may be selected according to a user's motion. For example, when a three-dimensional virtual image is selected, when a three-dimensional spatial position and/or a three-dimensional posture of the three-dimensional virtual image is configured, or when imaging is performed, focused bonding points are selected.

일 실시예에서, 3차원 가상 이미지는 캡처가 소망되는 촬영 오브젝트의 자세가 출현했음을 나타내는데 사용되는 자세를 구비할 수 있다. 따라서 동작 2420에서 촬영 오브젝트가 포커스되면, 촬영 오브젝트는 자동적으로 캡처되어, 촬영 오브젝트가 캡처되기 소망되는 자세에 있는 이미지가 획득된다.In one embodiment, the three-dimensional virtual image may have a posture used to indicate that the posture of the imaging object for which capture is desired has emerged. Accordingly, when the photographing object is focused in operation 2420, the photographing object is automatically captured, and an image in a posture in which the photographing object is desired to be captured is obtained.

일 실시예에서, 촬영 자세 데이터베이스는 일련의 3차원 가상 이미지 자세(즉, 3차원 가상 이미지의 자세 시퀀스)를 미리 저장할 수 있다. 선택적으로는, 3차원 가상 이미지의 자세 시퀀스는 필요에 따라 촬영 자세 데이터베이스에 부가될 수 있다. 사용자는 캡처되기 소망되는 자세를 촬영 자세 데이터베이스에서 선택할 수 있다. 따라서 촬영 오브젝트의 자세가 자세 시퀀스 내 소망되는 자세 앞의 특정 자세(즉, 캡처되기 소망되는 자세의 출현을 예상하는데 사용되는 자세)와 일치한다고 결정될 때, 캡처되기 소망되는 자세의 촬영 오브젝트를 포함하는 이미지를 캡처하기 위하여 촬영 오브젝트가 포커스될 수 있다. In an embodiment, the photographing posture database may pre-store a series of three-dimensional virtual image postures (ie, posture sequences of the three-dimensional virtual image). Optionally, the posture sequence of the three-dimensional virtual image may be added to the photographing posture database as needed. The user may select a posture desired to be captured from the photographing posture database. Thus, when it is determined that the pose of the imaging object matches a particular pose in front of the desired pose in the pose sequence (i.e., the pose used to predict the appearance of the pose desired to be captured), a method comprising the imaging object of the desired pose to be captured is determined. A photographing object may be focused to capture an image.

도 27은 일 실시예에 따라 촬영 오브젝트를 캡처하는 예를 나타낸다. 도 27에 도시된 바와 같이, 촬영 자세 데이터베이스는 농구 슈팅의 3차원 가상 이미지 자세 시퀀스 2710, 2720, 2730, 2740, 2750를 미리 저장할 수 있고, 도 27에서 자세 2740가 사용자가 캡처하기 소망하는 자세이다. 따라서 캡처되기 소망되는 촬영 오브젝트 자세의 출현을 예측할 수 있는 자세가 농구 슈팅 자세 스퀀스 내에서 선택될 수 있다. 예를 들어, 도 27에서 자세 2720가 촬영 속도 및/또는 일반적 농구 슈팅 속도를 고려하여 선택될 수 있다. 따라서 촬영 오브젝트의 자세가 도 27의 자세 2720와 일치할 때 촬영 오브젝트가 포커스되고, 촬영 오브젝트가 도 27의 자세 2730에 있을 때 촬영 오브젝트가 캡처되어서, 도 27의 자세 2740에 있는 촬영 오브젝트를 포함하는 이미지가 캡처될 수 있다. 27 illustrates an example of capturing a photographing object according to an exemplary embodiment. As shown in FIG. 27 , the shooting posture database may pre-store three-dimensional virtual image posture sequences 2710, 2720, 2730, 2740, and 2750 of basketball shooting, and posture 2740 in FIG. 27 is a posture desired by the user to capture. . Accordingly, a posture capable of predicting the appearance of a shooting object posture desired to be captured can be selected in the basketball shooting posture sequence. For example, in FIG. 27 , posture 2720 may be selected in consideration of a shooting speed and/or a general basketball shooting speed. Therefore, when the posture of the photographing object matches the posture 2720 of FIG. 27, the photographing object is focused, and the photographing object is captured when the photographing object is in the posture 2730 of FIG. 27, including the photographing object in the posture 2740 of FIG. An image may be captured.

일 예에서, 촬영 오브젝트가 다수의 오브젝트를 포함하면, 동작 2420의 절차는 각 오브젝트에 대하여 수행되고, 오브젝트들은 상응하는 촬영 이미지에서 추출되고, 모든 추출된 오브젝트와 배경 이미지가 결합되며, 여기서, 3차원 가상 이미지는 캡처가 소망되는 촬영 오브젝트의 자세를 예상하는 자세를 가지고 있다. 따라서 캡처되기 소망되는 각각 다른 자세를 취한 오브젝트들을 포함하는 이미지가 획득된다. In one example, if the photographing object includes a plurality of objects, the procedure of operation 2420 is performed for each object, the objects are extracted from the corresponding photographed image, and all the extracted objects and the background image are combined, where 3 The dimensional virtual image has a posture that predicts the posture of a photographing object for which capture is desired. Thus, an image is obtained that includes objects in different poses that are desired to be captured.

일 예에서, 3차원 가상 이미지는 연속으로 촬영되기 소망되는 다수의 자세를 가질 수 있다. 동작 2420에서, 촬영 오브젝트가 미리 설정된 기간 동안 3차원 가상 이미지와 연속으로 일치할 때, 자동으로 촬영 오브젝트가 포커스되고 연속 촬영이 이루어져, 연속 촬영이 수행될 때 부가적 액션들이 촬영되는 것을 회피할 수 있다. 예를 들어, 현재 연속 촬영 방식으로, 촬영 오브젝트는 동일한 시간 기간 동안 연속으로 촬영되고(예컨대, 촬영 오브젝트는 수초의 시간 기간마다 한번씩 촬영됨), 촬영 자세를 변화시키는데 사용되는 촬영 오브젝트의 액션이 촬영될 수 있다. In one example, the three-dimensional virtual image may have a plurality of postures desired to be continuously captured. In operation 2420, when the shooting object continuously matches the 3D virtual image for a preset period, the shooting object is automatically focused and continuous shooting is performed, so that additional actions can be avoided when the continuous shooting is performed have. For example, with the current continuous shooting method, the shooting object is continuously shot for the same time period (eg, the shooting object is shot once every several seconds of time period), and the action of the shooting object used to change the shooting posture is shot can be

일 예에서, 촬영 오브젝트가 다수의 오브젝트를 포함할 때, 3차원 가상 이미지와 일치하지 않는 오브젝트는 그 오브젝트가 포커스되기 전에 촬영 미리보기 이미지에서 제거될 수 있거나, 또는 3차원 가상 이미지와 일치하지 않는 오브젝트는 그 오브젝트가 포커스되고 촬영된 후 촬영 이미지에서 제거될 수 있다. In one example, when the shooting object includes a plurality of objects, the object that does not match the three-dimensional virtual image may be removed from the shooting preview image before the object is focused, or the object that does not match the three-dimensional virtual image The object may be removed from the captured image after the object is focused and photographed.

특히, 촬영 오브젝트는 타겟 오브젝트(즉, 실제 촬영될 오브젝트)와 비타겟 오브젝트(예컨대, 지나가는 행인)를 포함한다. 타겟 오브젝트와 비타겟 오브젝트는 촬영 오브젝트가 3차원 가상 이미지와 일치하는지 여부에 따라서 자동적으로 인식될 수 있고, 비타겟 오브젝트는 촬영이 수행되기 전 또는 후에 제거될 수 있다. 오브젝트와 3차원 가상 이미지 사이의 차이가 미리설정된 포커싱 임계값보다 작으면, 그 오브젝트는 타겟 오브젝트로 인식된다. 오브젝트와 3차원 가상 이미지 사이의 차이가 미리설정된 포커싱 임계값보다 크면, 그 오브젝트는 비타겟 오브젝트로 인식될 수 있다. 선택적으로, 오브젝트와 3차원 가상 이미지 사이의 차이가 미리설정된 편차 임계값보다 클 때만, 그 오브젝트는 비타겟 오브젝트로 인식되고, 편차 임계값은 포커싱 임계값보다 크거나 또는 포커싱 임계값보다 매우 클 수 있다. In particular, the shooting object includes a target object (ie, an object to be actually photographed) and a non-target object (eg, a passerby). The target object and the non-target object may be automatically recognized according to whether the photographing object matches the 3D virtual image, and the non-target object may be removed before or after photographing is performed. If the difference between the object and the three-dimensional virtual image is smaller than a preset focusing threshold, the object is recognized as a target object. If the difference between the object and the 3D virtual image is greater than a preset focusing threshold, the object may be recognized as a non-target object. Optionally, only when the difference between the object and the three-dimensional virtual image is greater than a preset deviation threshold, the object is recognized as a non-target object, and the deviation threshold is greater than or significantly greater than the focusing threshold. have.

도 28은 일 실시예에 따라서 타겟 오브젝트와 비타겟 오브젝트를 인식하는 예를 나타낸다. 도 28에 도시된 바와 같이, 타겟 오브젝트와 비타겟 오브젝트는 촬영 오브젝트와 3차원 가상 이미지 사이의 차이에 따라서 인식될 수 있다. 타겟 오브젝트와 비타겟 오브젝트는 개별로 마킹된다. 도 28을 참조하면, 촬영 장치 100는 제1 삼차원 가상 이미지와 대응하는 타겟 오브젝트 간의 유사도가 90%이고, 제2 삼차원 가상 이미지와 대응하는 타겟 오브젝트 간의 유사도가 94%이고, 비타겟 오브젝트의 수는 1 임을 나타내는 정보 2810을 디스플레이할 수 있다. 28 illustrates an example of recognizing a target object and a non-target object according to an embodiment. 28 , a target object and a non-target object may be recognized according to a difference between a photographing object and a 3D virtual image. Target objects and non-target objects are marked separately. Referring to FIG. 28 , in the imaging device 100, the similarity between the first 3D virtual image and the corresponding target object is 90%, the similarity between the second 3D virtual image and the corresponding target object is 94%, and the number of non-target objects is Information 2810 indicating '1' may be displayed.

일 실시예에서, 다양한 방법에 따라서, 오브젝트와 3차원 가상 이미지 사이의 차이가 상기 포커싱 임계값보다 작지 않으면, 그 오브젝트는 촬영 미리보기 이미지 또는 촬영 이미지에서 제거된다. 예를 들어, 비타겟 오브젝트가 이동할 때, 그 비타겟 오브젝트가 제거된 후 그 영역을 채울 수 있도록 그 비타겟 오브젝트가 이전에 가린 영역은 기록될 수 있다. 오브젝트비타겟 오브젝트가 크고 긴 시간 기간 동안 움직이지 않으면(즉, 긴 시간 기간 동안 상응하는 픽셀의 회색값(grey value) 또는 깊이값(depth value)가 변화하지 않음), 그 비타겟 오브젝트가 가린 영역은 선택 패치 매칭 방법(a selected path match method)을 사용해 채우거나, 그 비타겟 오브젝트가 가린 영역과 유사하고 인터넷 등에서 얻은 이미지를 사용해 채울 수 있다. 선택적으로, 비타겟 오브젝트가 가린 영역은 처리되지 않을 수 있다. In an embodiment, according to various methods, if the difference between the object and the three-dimensional virtual image is not less than the focusing threshold, the object is removed from the captured preview image or the captured image. For example, when the non-target object moves, the area previously covered by the non-target object may be recorded so that the area can be filled after the non-target object is removed. If a non-target object is large and does not move for a long period of time (i.e., the gray value or depth value of the corresponding pixel does not change for a long period of time), the area covered by the non-target object can be filled using a selected path match method, or using an image that is similar to the area covered by the non-target object and obtained from the Internet, etc. Optionally, the area covered by the non-target object may not be processed.

도 29는 일 실시예에 따라서 비타겟 오브젝트를 제거하는 예를 나타낸다. 도 29에 도시된 바와 같이, 타겟 오브젝트들과 비타겟 오브젝트들 각각이 결정되고, 비타겟 오브젝트들이 제거된다. 도 29를 참조하면, 촬영 장치 100는 촬영 미리보기 이미지 또는 촬영 이미지에서 타겟 오브젝트 2910, 2920, 2930을 추출하고, 배경 이미지 2900에 타겟 오브젝트 2910, 2920, 2930은 더하고 비타겟 오브젝트 2940은 제외시킴으로써 최종 이미지를 획득할 수 있다. 29 illustrates an example of removing a non-target object according to an embodiment. As shown in FIG. 29 , each of target objects and non-target objects is determined, and the non-target objects are removed. Referring to FIG. 29 , the photographing device 100 extracts target objects 2910, 2920, and 2930 from a photographing preview image or a photographed image, adds target objects 2910, 2920, and 2930 to the background image 2900, and excludes the non-target object 2940. image can be obtained.

일 실시예에 따른 촬영 방법은 촬영 부속물을 결정하는 동작; 및 배경 이미지에 이 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를 구성하는 동작을 더 포함할 수 있다. 상기한 절차는 촬영이 수행되기 전에 수행되거나(예컨대, 상기 절차는 동작 410 및/또는 동작 430에서 수행되거나, 또는 동작 430의 절차가 수행되고 동작 440의 절차가 수행되기 전에 수행됨), 또는 촬영이 수행되는 동안 수행되거나(예컨대, 상기 절차는 동작 440에서 수행됨), 또는 촬영이 수행된 후 수행될 수 있으며(예컨대, 상기 절차는 촬영 이미지에 대하여 수행됨), 본 실시예는 이들에 한정되지는 않는다.A photographing method according to an embodiment may include: determining a photographing accessory; and configuring the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory in the background image. The above-described procedure is performed before photographing is performed (eg, the procedure is performed in operation 410 and/or operation 430, or the procedure of operation 430 is performed and the procedure of operation 440 is performed), or the photographing is performed before the procedure of operation 440 is performed. It may be performed while being performed (eg, the procedure is performed in operation 440), or may be performed after photographing is performed (eg, the procedure is performed on a photographed image), but the present embodiment is not limited thereto .

촬영 부속물은 이미지의 촬영 오브젝트를 장식하는 아이템, 예컨대, 모자, 안경, 시계, 가방 등일 수 있다. 촬영 부속물은 리스트, 이미지, 3차원 모델 등의 방식을 통해 사용자에게 디스플레이될 수 있다. 촬영 부속물은 촬영 장치가 자동적으로 결정하거나(예컨대, 촬영 부속물은 촬영 장치에 디폴트로 구성되어 있음), 또는 촬영 부속물은 사용자 입력(예컨대, 선택된 촬영 부속물을 클릭하거나 드래그함)을 통해 선택될 수 있다. The photographing accessory may be an item that decorates the photographing object of the image, for example, a hat, glasses, a watch, a bag, and the like. The imaging accessory may be displayed to the user through a list, image, three-dimensional model, or the like. The imaging accessory may be determined automatically by the imaging device (eg, the imaging accessory is configured by default on the imaging device), or the imaging accessory may be selected via user input (eg, by clicking or dragging the selected imaging accessory). .

일 예에서, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 배경 이미지에 대략적으로 구성되고, 그 후, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 배경 이미지에서 정밀하게 조정된다. 선택적으로, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 배경 이미지에 직접 정밀하게 구성된다. In one example, the three-dimensional spatial position and/or three-dimensional posture of the imaging appendage is roughly constructed in the background image, and then the three-dimensional spatial position and/or the three-dimensional posture of the imaging appendage is precisely adjusted in the background image. . Optionally, the three-dimensional spatial position and/or the three-dimensional pose of the imaging appendage is precisely constructed directly in the background image.

일 예에서, 촬영 부속물의 3차원 공간 위치는 사용자 동작에 따라서 배경 이미지에 대략적으로 구성된다. 예를 들어, 선택된 촬영 부속물은 배경 이미지의 상응하는 위치에 사용자 이동 동작(예컨대, 드래그)에 따라서 이동되거나 또는 촬영 부속물은 배경 이미지 내 사용자가 지정한 곳에 위치된다. In one example, the three-dimensional spatial position of the imaging appendage is roughly constructed in the background image according to the user action. For example, the selected shooting accessory is moved according to a user moving action (eg, dragging) to a corresponding position in the background image, or the shooting accessory is positioned at a location designated by the user in the background image.

일 예에서, 배경 이미지 내 결정된 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 자동적으로 구성된다. 촬영이 수행되기 전, 배경 이미지 내 결정된 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 그 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세에 따라서 구성된다. 예를 들어, 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 촬영 부속물의 속성, 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세에 따라서 구성된다. 촬영 부속물의 속성은 촬영 부속물의 타입, 촬영 부속물과 연관된 본체부(body part), 촬영 부속물과 묶인 결합점을 포함할 수 있다. 예를 들어, 배경 이미지 내 촬영 부속물의 3차원 공간 위치는 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치에 따라서 구성된다. 촬영 부속물과 묶인 3차원 가상 이미지의 소정 또는 일부 결합점은 촬영 부속물의 속성에 따라서 결정되고(예컨대, 촬영 부속물이 모자이면, 촬영 부속물은 3차원 가상 이미지의 머리와 묶이고, 촬영 부속물이 가방이면, 촬영 부속물은 3차원 가상 이미지의 손과 묶임), 그 후, 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 상기 소정 또는 일부 결합점 각각의 3차원 공간 위치에 따라서 추가로 구성된다. 사용자는 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를, 자동적으로 구성된 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세에 기초하여 추가로 조정할 수 있다. In an example, the three-dimensional spatial position and/or the three-dimensional pose of the imaging appendage determined in the background image is configured automatically. Before imaging is performed, the determined three-dimensional spatial position and/or three-dimensional posture of the imaging accessory in the background image is configured according to the three-dimensional spatial position and/or three-dimensional posture of the three-dimensional virtual image in the background image. For example, the three-dimensional spatial position and/or the three-dimensional pose of the imaging accessory in the background image is configured according to the properties of the imaging accessory, the three-dimensional spatial position and/or the three-dimensional pose of the three-dimensional virtual image in the background image. The properties of the imaging accessory may include a type of the imaging accessory, a body part associated with the imaging accessory, and a binding point bound to the imaging accessory. For example, the three-dimensional spatial position of the imaging accessory in the background image is configured according to the three-dimensional spatial position of the three-dimensional virtual image in the background image. A predetermined or partial bonding point of the three-dimensional virtual image bound with the photographing accessory is determined according to the properties of the photographing accessory (for example, if the photographing accessory is a hat, the photographing accessory is tied with the head of the three-dimensional virtual image, and if the photographing accessory is a bag, the imaging appendage is bound with the hand of the three-dimensional virtual image), and then, the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory in the background image is further configured according to the three-dimensional spatial position of each of the predetermined or some joining points do. The user may further adjust the three-dimensional spatial position and/or three-dimensional pose of the imaging accessory based on the automatically configured three-dimensional spatial position and/or three-dimensional pose of the imaging accessory.

도 30은 일 실시예에 따라서 촬영 부속물을 선택하고, 그 촬영 부속물의 3차원 공간 위치를 구성하는 예를 나타낸다. 도 30을 참조하면, 촬영 장치 100의 메뉴 영역 130b는 촬영 부속물을 선택할 수 있는 사용자 인터페이스 3010, 및 선택된 촬영 부속물의 타입을 선택할 수 있는 사용자 인터페이스 3020을 디스플레이할 수 있다. 도 30에 도시된 바와 같이, 사용자가 선택한 가방은 배경 이미지 내 촬영 오브젝트의 손 결합점(a hand joint point)에 상응하는 적절한 위치에 자동적으로 구성된다.30 illustrates an example of selecting an imaging accessory and configuring a three-dimensional spatial position of the imaging accessory according to an embodiment. Referring to FIG. 30 , the menu area 130b of the photographing apparatus 100 may display a user interface 3010 for selecting a photographing accessory and a user interface 3020 for selecting a type of the selected photographing accessory. As shown in FIG. 30 , the bag selected by the user is automatically configured in an appropriate position corresponding to a hand joint point of a shooting object in the background image.

촬영 프로세스 동안 구성이 자동적으로 수행될 때, 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 배경 이미지 내 검출된 촬영 오브젝트의 3차원 공간 위치 및/또는 3차원 자세에 따라서 구성된다. 예를 들어, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 결정된 촬영 부속물의 속성, 촬영 오브젝트의 3차원 공간 위치 및/또는 3차원 자세에 따라서 구성된다. 예를 들어, 촬영 부속물의 3차원 공간 위치는 배경 이미지 내 촬영 오브젝트의 구성된 3차원 공간 위치에 따라서 결정되고, 촬영 부속물과 묶인 특정 또는 일부 결합점들은 그 촬영 부속물의 속성에 따라서 결정되고, 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 촬영 오브젝트의 특정 또는 일부 결합점들 각각의 3차원 공간 위치에 따라 추가적으로 구성된다. When the configuration is performed automatically during the imaging process, the three-dimensional spatial position and/or the three-dimensional pose of the imaging appendage in the background image is configured according to the three-dimensional spatial position and/or the three-dimensional pose of the detected imaging object in the background image . For example, the three-dimensional spatial position and/or the three-dimensional pose of the imaging accessory is configured according to the determined properties of the imaging accessory, the three-dimensional spatial position and/or the three-dimensional pose of the imaging object. For example, the three-dimensional spatial position of the imaging appendage is determined according to the configured three-dimensional spatial position of the imaging object in the background image, and specific or some binding points bound to the imaging accessory are determined according to the properties of the imaging accessory, and the background image The three-dimensional space position and/or the three-dimensional posture of the photographing appendage is additionally configured according to the three-dimensional space position of each of the specific or some bonding points of the photographing object.

일 실시예에서, 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 정밀하게 구성될 수 있다. 촬영 부속물은 수평 방향, 수직 방향 및 깊이 방향의 각 위치로 구성될 수 있고, 또한, 수평 방향, 수직 방향 및 깊이 방향의 회전각으로 추가 구성될 수 있다. 배경 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 3차원 가상 이미지의 3차원 공간 위치 및 3차원 자세를 구성하는 방법(이 방법은 반복적으로 설명하지 않음)에 따라서 구성될 수 있다. In an embodiment, the three-dimensional spatial position and/or the three-dimensional pose of the imaging appendage within the background image may be precisely constructed. The photographing accessory may be configured with angular positions in the horizontal direction, vertical direction, and depth direction, and may further be configured with rotation angles in the horizontal direction, vertical direction and depth direction. The three-dimensional spatial position and/or three-dimensional posture of the imaging appendage in the background image may be constructed according to a method of constructing the three-dimensional spatial position and three-dimensional posture of the three-dimensional virtual image (this method is not repeatedly described). .

도 31은일 실시예에 따라서 촬영 부속물의 3차원 공간 위치를 구성하는 예를 나타낸다. 도 31에 도시된 바와 같이, 사용자는 배경 이미지 내 선택된 촬영 부속물의 3차원 공간 위치를, 한 손가락으로 촬영 부속물을 드래그하기 3110, 양 손가락으로 오므리기 및/또는 벌리기 3120, 스크롤바 슬라이딩하기 3130, 텍스트 박스에 상응하는 콘텐츠 입력하기 3140, 음성 동작 3150 등의 사용자 동작을 통해 구성할 수 있다. 또한, 촬영 장치 100는 선택된 촬영 부속물의 현재 3차원 공간 위치를 나타내는 통지 3160를 디스플레이할 수 있다. . 31 shows an example of configuring a three-dimensional spatial position of an imaging accessory according to an embodiment. As shown in FIG. 31 , the user selects the three-dimensional spatial location of the selected shooting accessory in the background image, dragging the shooting accessory with one finger 3110, pinching and/or spreading with both fingers 3120, sliding the scroll bar 3130, text It can be configured through user actions such as inputting content corresponding to the box 3140 and voice action 3150. Also, the imaging device 100 may display a notification 3160 indicating the current 3D spatial location of the selected imaging accessory. .

도 32는 일 실시예에 따라서 촬영 부속물의 회전각을 구성하는 예를 나타낸다. 도 32에 도시된 바와 같이, 사용자는 배경 이미지 내 선택된 촬영 부속물의 회전각을 스크롤바 슬라이딩하기 3210, 텍스트 박스에 상응하는 콘텐츠 입력하기 3220, 음성 동작 3230 등을 통해서 구성할 수 있다. 또한, 촬영장치 100는 선택된 촬영 부속물의 현재 회전각에 대한 통지 3240을 디스플레이할 수 있다. 32 illustrates an example of configuring a rotation angle of an imaging accessory according to an embodiment. 32 , the user may configure the rotation angle of the photographing accessory selected in the background image by sliding the scroll bar 3210, inputting content corresponding to the text box 3220, voice operation 3230, and the like. Also, the photographing device 100 may display a notification 3240 of the current rotation angle of the selected photographing accessory.

또한, 3차원 가상 이미지 내 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세가 배경에 구성된 후, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세에 따라서 자동적으로 조정될 수 있다. 즉, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 동적으로 업데이트될 수 있다. 따라서 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세의 변화에 따라 변화될 수 있고, 따라서 동적인 실제 감각(dynamic true sense)을 구현할 수 있다. Further, after the three-dimensional spatial position and/or three-dimensional posture of the imaging accessory in the three-dimensional virtual image is configured in the background, the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory is configured in the three-dimensional space of the three-dimensional virtual image in the background image It can be adjusted automatically according to spatial position and/or three-dimensional posture. That is, the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory may be dynamically updated. Thus, the three-dimensional spatial position and/or the three-dimensional posture of the imaging appendage can be changed according to the change of the three-dimensional spatial position and/or the three-dimensional posture of the three-dimensional virtual image, thus giving a dynamic true sense. can be implemented

예를 들어, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세가 결정된 후, 촬영 부속물과 결합점(그 촬영 부속물과 연관된 3차원 가상 이미지의 결합점임)의 상대적 3차원 공간 위치 및/또는 상대적 3차원 자세가 결정될 수 있다. 따라서 3차원 가상 이미지가 조정될 때, 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세는 상대적 3차원 공간 위치 및/또는 상대적 3차원 자세에 따라서 조정된다. For example, after the three-dimensional spatial position and/or the three-dimensional posture of the imaging appendage is determined, the relative three-dimensional spatial position and/or relative A three-dimensional posture may be determined. Accordingly, when the three-dimensional virtual image is adjusted, the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory is adjusted according to the relative three-dimensional space position and/or the relative three-dimensional posture.

또한 배경 이미지 내 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세에 따라서 자동적으로 조정될 수 있다. 즉, 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 동적으로 업데이트될 수 있다. 따라서 3차원 가상 이미지의 3차원 공간 위치 및/또는 3차원 자세는 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세의 변화에 따라서 변화될 수 있고, 결과적으로 동적인 실제 감각이 구현된다. In addition, the three-dimensional spatial position and/or the three-dimensional posture of the three-dimensional virtual image in the background image may be automatically adjusted according to the three-dimensional space position and/or the three-dimensional posture of the imaging accessory. That is, the 3D spatial position and/or 3D posture of the 3D virtual image may be dynamically updated. Accordingly, the three-dimensional spatial position and/or the three-dimensional posture of the three-dimensional virtual image may be changed according to the change of the three-dimensional spatial position and/or the three-dimensional posture of the imaging accessory, and as a result, a dynamic real sense is realized.

또한, 컬러를 촬영 부속물에 적용할 수 있다. 예를 들어, 촬영 부속물의 물리 속성(예컨대, 무게, 표면 장력, 탄성도)이 조정되어, 촬영 부속물을 더욱 실제처럼 만들 수 있다.Also, color can be applied to an imaging accessory. For example, physical properties of the imaging accessory (eg, weight, surface tension, elasticity) may be adjusted to make the imaging accessory more realistic.

일 실시예에 따른 촬영 방법이 도 33에 개시된다. 일 실시예에 따르면, 촬영 오브젝트는 선택된 가상 이미지에 기초하여 조정을 수행하기 위하여 가이드된다. 이 방법은 촬영 장치를 통해 구현되거나 컴퓨터 프로그램을 통해 구현될 수 있다. 예를 들어, 본 방법은 촬영 장치에 설치된 카메라로 구현될 수 있거나 또는 촬영 장치 운영 시스템의 기능 프로그램을 통해 구현될 수 있다. A photographing method according to an embodiment is disclosed in FIG. 33 . According to an embodiment, the shooting object is guided to perform an adjustment based on the selected virtual image. This method may be implemented through a photographing device or may be implemented through a computer program. For example, the method may be implemented with a camera installed in the photographing apparatus or may be implemented through a function program of the photographing apparatus operating system.

도 33에 도시된 바와 같이, 동작 3310에서, 촬영 장치 100는 촬영 오브젝트를 나타내는데 사용되는 가상 이미지를 배경 이미지에 구성할 수 있다. 가상 이미지는 자세가 있는 3차원 또는 2차원 인물 모델일 수 있고, 본 실시예는 이에 한정되지 않는다. 촬영 오브젝트를 나타내는데 사용되는 가상 이미지를 배경 이미지에 구성하는 상세한 방법은, 3차원 가상 이미지를 배경 이미지에 구성하는 동작 430의 상세 구현 방법(반복하여 설명하지 않음)을 참조할 수 있다.As shown in FIG. 33 , in operation 3310 , the photographing device 100 may configure a virtual image used to represent a photographing object in a background image. The virtual image may be a three-dimensional or two-dimensional person model with a posture, and the present embodiment is not limited thereto. For a detailed method of configuring the virtual image used to represent the photographing object in the background image, refer to the detailed implementation method (not repeatedly described) of operation 430 of configuring the 3D virtual image in the background image.

동작 3320에서, 촬영 장치 100는 배경 이미지 내 가상 이미지와 촬영 오브젝트 사이의 차이를 결정할 수 있다. In operation 3320, the photographing device 100 may determine a difference between the virtual image in the background image and the photographing object.

촬영 장치는 촬영 오브젝트를 자동적으로 검출할 수 있다. 상세한 검출 방법은 촬영 오브젝트를 자동적으로 검출하는 상기의 상세 구현 방법을 참조할 수 있다. 예를 들어, 촬영 오브젝트는 배경 이미지 내 가상 이미지의 자세에 기초하여 검출되거나, 또는 웨어러블 디바이스가 제공한 공간 위치 정보에 기초하여 검출될 수 있다. 선택적으로, 배경 이미지 내 사용자가 선택한 오브젝트는 촬영 오브젝트로 간주되고, 그 후, 그 선택된 촬영 오브젝트는 타겟으로서 트랙킹된다. 트랙킹 방법은 반복하여 설명하지 않는다.The photographing apparatus may automatically detect the photographing object. The detailed detection method may refer to the detailed implementation method for automatically detecting a photographed object. For example, the photographing object may be detected based on the posture of the virtual image in the background image, or may be detected based on spatial location information provided by the wearable device. Optionally, the object selected by the user in the background image is regarded as a shooting object, and then the selected shooting object is tracked as a target. The tracking method will not be repeatedly described.

일 예에서, 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 차이는, 그 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 공간 위치 차이 및/또는 자세 차이를 포함할 수 있다. 결정된 가상 이미지가 3차원 가상 이미지이고, 배경 이미지가 깊이 정보를 가지면, 배경 이미지 내 가상 이미지와 촬영 이미지 사이의 차이는 그 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 3차원 공간 위치 차이 및/또는 3차원 자세 차이를 포함할 수 있다.In one example, the difference between the virtual image and the photographing object in the background image may include a spatial position difference and/or posture difference between the virtual image and the photographing object in the background image. If the determined virtual image is a three-dimensional virtual image, and the background image has depth information, the difference between the virtual image in the background image and the photographed image is a three-dimensional spatial position difference between the virtual image and the photographing object in the background image and/or 3 Dimensional posture differences may be included.

특히, 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트사이의 차이를 결정하는 방법은 상술한 방법을 참조할 수 있으며, 상술한 방법은 반복하여 기재하지 않는다. 예를 들어, 촬영 오브젝트와 가상 이미지 사이의 자세 차이는, 촬영 오브젝트의 결합점 공간 위치와 가상 이미지의 상응하는 결합점의 공간 위치를 비교함으로써 결정된다. In particular, the method for determining the difference between the 3D virtual image in the background image and the photographing object may refer to the above-described method, and the above-described method will not be repeatedly described. For example, the posture difference between the photographing object and the virtual image is determined by comparing the spatial position of the bonding point of the photographing object with the spatial position of the corresponding bonding point of the virtual image.

결정된 가상 이미지가 2차원 이미지이면, 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 차이는, 촬영 오브젝트와 가상 이미지 사이의 2차원 공간 위치 차이 및/또는 2차원 자세 차이를 포함할 수 있다. 이미지 인식 방법이 2차원 공간 위치 차이 및/또는 2차원 자세 차이를 결정하기 위하여 사용될 수 있다.When the determined virtual image is a two-dimensional image, the difference between the virtual image and the photographing object in the background image may include a two-dimensional spatial position difference and/or a two-dimensional posture difference between the photographing object and the virtual image. An image recognition method may be used to determine a two-dimensional spatial position difference and/or a two-dimensional posture difference.

동작 3330에서, 촬영 장치 100는 결정된 차이에 기초하여 촬영 가이드를 출력할 수 있다. In operation 3330, the photographing device 100 may output a photographing guide based on the determined difference.

배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 차이는 촬영 오브젝트와 가상 이미지 사이의 공간 위치 차이만을 포함하고, 촬영 오브젝트는 그 결정된 공간 위치 차이에 기초하여 촬영 오브젝트의 공간 위치를 조정하기 위하여 가이드되며, 촬영 오브젝트의 자세를 조정하기 위하여 가이드되는 것은 아님을 알아야 한다. 따라서 촬영 오브젝트의 공간 위치는 배경 이미지 내 가상 이미지의 공간 위치와 동일 또는 유사하다. 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 차이가 촬영 오브젝트와 가상 이미지 사이의 자세 차이만을 포함하면, 촬영 오브젝트는 그 결정된 자세 차이에 기초하여 촬영 오브젝트의 자세를 조정하기 위하여 가이드되며, 촬영 오브젝트의 공간 위치를 조정하기 위하여 가이드되는 것은 아니다. 따라서 촬영 오브젝트의 자세는 가상 이미지의 자세와 동일 또는 유사하다. 배경 이미지 내 가상 이미지와 촬영 오브젝트사이의 차이가 촬영 오브젝트와 가상 이미지 사이의 공간 위치 차이 및 자세 차이를 포함하면, 촬영 오브젝트는 그 결정된 공간 위치 차이에 기초하여 촬영 오브젝트의 공간 위치를 조정하기 위하여 가이드되고, 그 결정된 자세 차이에 기초하여 촬영 오브젝트의 자세를 조정하기 위하여 가이드된다. 따라서 촬영 오브젝트의 공간 위치와 자세 각각은 가상 이미지의 그것과 동일 또는 유사하다. 예를 들어, 촬영 오브젝트는 공간 위치를 조정하도록 먼저 가이드되고, 촬영 오브젝트가 상응하는 공간 위치에 도달한 후 자세를 조정하도록 가이드된다. The difference between the virtual image and the shooting object in the background image includes only the spatial position difference between the shooting object and the virtual image, and the shooting object is guided to adjust the spatial position of the shooting object based on the determined spatial position difference, It should be noted that it is not guided to adjust the posture of the object. Therefore, the spatial position of the photographing object is the same as or similar to the spatial position of the virtual image in the background image. If the difference between the virtual image and the photographing object in the background image includes only the difference in posture between the photographing object and the virtual image, the photographing object is guided to adjust the posture of the photographing object based on the determined difference in posture, and the space of the photographing object It is not guided to adjust the position. Accordingly, the posture of the photographing object is the same as or similar to the posture of the virtual image. If the difference between the virtual image and the photographing object in the background image includes the spatial position difference and the posture difference between the photographing object and the virtual image, the photographing object is guided to adjust the spatial position of the photographing object based on the determined spatial position difference and is guided to adjust the posture of the photographing object based on the determined posture difference. Therefore, each of the spatial position and posture of the photographing object is the same as or similar to that of the virtual image. For example, the shooting object is first guided to adjust the spatial position, and then guided to adjust the posture after the shooting object reaches the corresponding spatial position.

상세한 가이드 방법은 상술한 상세 구현 방식(예컨대, 촬영 가이드가 촬영 장치 및/또는 웨어러블 디바이스를 통해 출력됨)을 참조할 수 있으며, 여기서 반복하여 기재하지 않는다. The detailed guide method may refer to the detailed implementation method described above (eg, a photographing guide is output through a photographing apparatus and/or a wearable device), and will not be repeated herein.

일 실시예에 따른 다른 촬영 방법이 도 34 내지 37에 개시된다. 본 방법에 따르면, 촬영 오브젝트는 그 촬영 오브젝트의 자세에 기초하여 포커스된다. 본 방법은 촬영 장치를 통해 구현되거나 컴퓨터 프로그램을 통해 구현될 수 있다. 예를 들어, 본 방법은 촬영 장치에 설치된 카메라를 통해 구현될 수 있거나 또는 촬영 장치 운영 시스템의 기능 프로그램을 통해 구현될 수 있다.Another photographing method according to an embodiment is disclosed in FIGS. 34 to 37 . According to the method, a photographing object is focused based on the posture of the photographing object. The method may be implemented through a photographing device or may be implemented through a computer program. For example, the method may be implemented through a camera installed in the photographing apparatus or may be implemented through a function program of the photographing apparatus operating system.

도 34는 다른 실시예에 따른 촬영 방법을 설명하는 흐름도이다. 34 is a flowchart illustrating a photographing method according to another exemplary embodiment.

도 34에 도시된 바와 같이, 동작 3410에서, 촬영 장치 100는 배경 이미지 내 촬영 오브젝트의 자세를 검출할 수 있다. 배경 이미지 내 촬영 오브젝트의 자세는 기존의 다양한 이미지 인식 방법(반복을 피하기 위하여 다시 설명하지 않음)을 통해 검출될 수 있다.As shown in FIG. 34 , in operation 3410 , the photographing device 100 may detect the posture of the photographing object in the background image. The posture of the photographing object in the background image may be detected through various existing image recognition methods (not described again to avoid repetition).

동작 3420에서, 촬영 장치 100는 검출된 촬영 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정할 수 있다. 포커싱 자세는 촬영 오브젝트를 나타내는 가상 이미지의 미리-구성되고 소망되는 촬영 자세이거나(예컨대, 사용자가 미리 선택한 가상 이미지의 자세 또는 미리-선택된 가상 이미지의 자세가 구성된 후의 자세) 또는 촬영 자세 데이터베이스 내 미리-구성된 임의의 촬영 자세이거나 또는 상기 촬영 오브젝트의 최선 촬영 자세일 수 있다. In operation 3420, the imaging device 100 may determine whether the detected posture of the photographing object matches the focusing posture. The focusing posture is a pre-configured and desired shooting posture of the virtual image representing the imaging object (eg, the posture of the virtual image pre-selected by the user or the posture after the posture of the pre-selected virtual image is configured) or a pre- in the shooting posture database It may be any configured photographing posture or an optimal photographing posture of the photographing object.

도 35는 일 실시예에 따라서 촬영 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하는 예를 나타낸다. 도 35에 도시된 바와 같이, 포커싱 자세는 촬영 자세 데이터베이스 내 임의의 촬영 자세이다. 촬영 오브젝트가 다수의 오브젝트를 포함하면, 각 오브젝트가 촬영 자세 데이터베이스 내 임의의 촬영 자세와 일치하는지 여부가 결정된다. 오브젝트의 자세가 촬영 자세 데이터베이스 내 임의의 촬영 자세와 일치하면, 그 오브젝트의 자세는 포커싱 자세와 일치하고, 그 오브젝트가 포커스될 오브젝트라고 결정된다. 오브젝트의 자세가 촬영 자세 데이터베이스 내 임의의 촬영 자세와 일치하지 않으면, 그 오브젝트의 자세는 포커싱 자세와 일치하지 않으며, 그 오브젝트는 포커스될 오브젝트가 아니라고 결정된다. 또한, 촬영 장치 100는 포커스될 오브젝트와 포커싱되지 않을 오브젝트를 나타내는 통지 3510을 디스플레이할 수 있다. 35 illustrates an example of determining whether a posture of a photographing object matches a focusing posture, according to an exemplary embodiment. 35 , the focusing posture is an arbitrary photographing posture in the photographing posture database. If the photographing object includes a plurality of objects, it is determined whether each object matches any photographing posture in the photographing posture database. If the posture of the object matches any shooting posture in the photographing posture database, the posture of the object matches the focusing posture, and it is determined that the object is an object to be focused. If the posture of the object does not match any photographing posture in the photographing posture database, the posture of the object does not match the focusing posture, and it is determined that the object is not an object to be focused. Also, the photographing device 100 may display a notification 3510 indicating an object to be focused and an object not to be focused.

검출된 촬영 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하는 방법은 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트 사이의 차이를 결정하는 상술한 상세 구현 방법을 참조할 수 있다. 선택적으로, 촬영 오브젝트의 2차원 또는 3차원 자세와 포커싱 자세 사이의 차이는 다른 방법에 따라 결정될 수 있다. 예를 들어, 촬영 오브젝트의 자세와 포커싱 자세 사이의 차이가 미리 설정된 포커싱 임계값보다 작을 때, 또는 촬영 오브젝트의 자세가 포커싱 자세와 대략적으로 유사할 때, 촬영 오브젝트의 자세가 포커싱 자세와 일치한다고 결정된다. For a method of determining whether the detected posture of the photographing object matches the focusing posture, the detailed implementation method for determining a difference between a three-dimensional virtual image in a background image and a photographing object may be referred to. Optionally, the difference between the two-dimensional or three-dimensional posture of the photographing object and the focusing posture may be determined according to another method. For example, when the difference between the posture of the photographing object and the focusing posture is less than a preset focusing threshold, or when the posture of the photographing object is approximately similar to the focusing posture, it is determined that the posture of the photographing object matches the focusing posture do.

검출된 촬영 오브젝트의 자세와 포커싱 자세 사이의 차이가 제1 포커싱 임계값보다 작으면, 검출된 촬영 오브젝트의 자세는 포커싱 자세와 일치한다고 결정된다. 검출된 촬영 오브젝트의 자세와 포커싱 자세 사이의 차이가 제2 포커싱 임계값보다 크면, 검출된 촬영 오브젝트의 자세는 포커싱 자세와 일치하지 않는다고 결정된다. 제2 포커싱 임계값은 제1 포커싱 임계값과 동일하거나, 제1 포커싱 임계값보다 크거나 또는 작을 수 있다. 예를 들어, 촬영 오브젝트의 각 결합점과 포커싱 자세에 상응하는 결합점 사이의 3차원 공간 위치 차이가 미리 설정된 위치 임계값보다 작거나 또는 촬영 오브젝트의 지정된 결합점과 포커싱 자세에 상응하는 결합점 사이의 3차원 공간 위치 차이가 미리 설정된 위치 임계값보다 작으면, 촬영 오브젝트의 자세는 포커싱 자세와 일치한다고 결정된다. 선택적으로, 촬영 오브젝트의 각 결합점과 포커싱 자세에 상응하는 결합점 사이의 각도 차이가 미리 설정된 각도 임계값보다 작거나 또는 촬영 오브젝트의 지정된 결합점과 포커싱 자세에 상응하는 결합점 사이의 각도 차이가 미리 설정된 각도 임계값보다 작으면, 촬영 오브젝트의 자세는 포커싱 자세와 일치한다고 결정된다. If the difference between the detected posture and the focusing posture of the photographing object is less than the first focusing threshold, it is determined that the detected posture of the photographing object coincides with the focusing posture. If the difference between the detected posture of the photographing object and the focusing posture is greater than the second focusing threshold, it is determined that the detected posture of the photographing object does not coincide with the focusing posture. The second focusing threshold may be equal to, greater than, or less than the first focusing threshold. For example, the three-dimensional spatial position difference between each bonding point of the photographing object and the bonding point corresponding to the focusing posture is less than a preset position threshold, or between the specified bonding point of the photographing object and the bonding point corresponding to the focusing posture. If the three-dimensional spatial position difference of is less than a preset position threshold, it is determined that the posture of the photographing object coincides with the focusing posture. Optionally, an angular difference between each bonding point of the photographing object and a bonding point corresponding to the focusing posture is less than a preset angle threshold, or an angular difference between a designated bonding point of the photographing object and a bonding point corresponding to the focusing posture is If it is smaller than the preset angle threshold, it is determined that the posture of the photographing object coincides with the focusing posture.

다시 도 34로 돌아가서, 동작 3430에서, 촬영 오브젝트의 자세가 포커싱 자세와 일치하면, 촬영 장치 100는 촬영 오브젝트를 포커스하고 촬영할 수 있다. Referring back to FIG. 34 , in operation 3430 , if the posture of the photographing object matches the focusing posture, the photographing device 100 may focus and photograph the photographing object.

일 예에서, 검출된 촬영 오브젝트의 자세가 포커싱 자세와 일치하면, 촬영 오브젝트는 자동적으로 포커스되고 촬영될 수 있다. 즉, 사용자가 어떠한 동작도 수행할 필요가 없는 상황에서, 촬영 오브젝트는 자동적으로 포커스되고 촬영된다.In one example, when the detected posture of the photographing object matches the focusing posture, the photographing object may be automatically focused and photographed. That is, in a situation in which the user does not need to perform any action, the photographing object is automatically focused and photographed.

일 예에서, 촬영 오브젝트가 다수의 오브젝트를 포함할 때, 동작 3430의 절차는 각 오브젝트에 대하여 수행될 수 있다. 동작 3430의 절차가 각 오브젝트에 대하여 수행된 후, 대응하는 촬영 이미지에서 오브젝트가 추출될 수 있고, 모든 추출된 오브젝트와 배경 이미지가 결합된다. 이 방법에 따르면, 각 오브젝트는 개별로 포커스되고, 오브젝트에 포커스가 취해진 이미지가 촬영될 수 있고, 상응하는 오브젝트가 그 촬영 이미지에서 추출되고, 모든 추출된 오브젝트와 배경 이미지가 결합되므로, 모든 오브젝트가 선명한 이미지를 획득할 수 있다. 특히, 상응하는 이미지에서 각 오브젝트를 추출하고 모든 추출된 이미지와 배경 이미지를 결합하는 방법은, 상기한 상세 구현 방법을 참조할 수 있다. 상세 구현 방법은 반복적으로 설명되지 않는다.In one example, when the photographing object includes a plurality of objects, the procedure of operation 3430 may be performed for each object. After the procedure of operation 3430 is performed for each object, an object may be extracted from a corresponding captured image, and all the extracted objects and background images are combined. According to this method, each object is individually focused, an image in which the object is focused can be taken, a corresponding object is extracted from the shot image, and all extracted objects and background images are combined, so that all objects are A clear image can be obtained. In particular, for the method of extracting each object from the corresponding image and combining all the extracted images and the background image, the detailed implementation method may be referred to above. Detailed implementation methods are not repeatedly described.

일 예에서, 포커싱 자세는 캡처하기 소망하는 촬영 오브젝트 자세의 출현을 예상하는데 사용된다. 따라서 동작 3430에서, 촬영 오브젝트는 포커스되고, 자동으로 캡처되며, 따라서 캡처하기 소망하는 자세에 있는 촬영 오브젝트의 이미지가 얻어진다. 예를 들어, 캡처하기 소망하는 자세는 촬영 오브젝트의 최적(best) 촬영 자세일 수 있고, 촬영 오브젝트의 최적 촬영 자세는 최적 위치(best location), 정상(a peak) 등에서 촬영 오브젝트가 찾은 자세일 수 있다. 예를 들어, 캡처되기 소망되는 자세는 사용자가 촬영 자세 데이터베이스에 저장된 여러 자세 시퀀스에서 선택한 소망 자세일 수 있다. 포커싱 자세는 캡처하기 소망하는 촬영 오브젝트 자세의 출현을 예상하는데 사용된 자세(예컨대, 촬영 자세 시퀀스에서 캡처하기 소망하는 자세 전의 특정 촬영 자세)이다. 검출된 촬영 오브젝트의 자세가 캡처하기 소망하는 촬영 오브젝트자세의 출현을 예상하는데 사용된 임의의 자세와 일치하면, 그 촬영 오브젝트는 포커스되고, 캡처하기 소망하는 촬영 오브젝트의 자세를 한 촬영 오브젝트의 이미지가 자동으로 캡처된다. 일 예에서, 촬영 오브젝트가 다수의 오브젝트를 포함하면, 동작 3430의 절차는 각 오브젝트에 대하여 수행되고, 상응하는 촬영 이미지에서 오브젝트가 추출되고, 모든 추출된 오브젝트 이미지와 배경 이미지는 결합되며, 여기서, 포커싱 자세는 캡처하기 소망하는 촬영 오브젝트 자세의 출현을 예상하는데 사용된다. 따라서 각 오브젝트가 캡처하기 소망하는 자세에 있는 이미지가 얻어진다. In one example, the focusing posture is used to predict the appearance of an imaging object posture desired to be captured. Accordingly, in operation 3430 , the imaging object is focused and automatically captured, thus obtaining an image of the imaging object in the desired pose to capture. For example, the desired posture to capture may be the best photographing posture of the photographing object, and the optimal photographing posture of the photographing object may be the posture found by the photographing object at a best location, a peak, etc. have. For example, a posture desired to be captured may be a desired posture selected by a user from several posture sequences stored in a photographing posture database. The focusing posture is a posture used to predict the appearance of a posture of a capturing object desired to be captured (eg, a specific capturing posture before the posture desired to be captured in the capturing posture sequence). When the detected posture of the shooting object matches any posture used for predicting the appearance of the posture of the shooting object desired to be captured, the shooting object is focused, and an image of the shooting object having the posture of the shooting object desired to be captured is displayed. automatically captured. In one example, if the photographing object includes a plurality of objects, the procedure of operation 3430 is performed for each object, an object is extracted from a corresponding photographed image, and all extracted object images and background images are combined, where: The focusing posture is used to predict the appearance of an imaging object posture desired to be captured. Thus, an image is obtained in which each object is in the desired position to be captured.

도 36은 일 실시예에 따라 촬영 오브젝트를 캡처하는 또 다른 예를 나타낸다. 도 36에 도시된 바와 같이, 캡처하기 소망하는 자세는 복수의 오브젝트 각각의 최선 촬영 자세이고, 촬영 오브젝트의 최선 촬영 자세는 촬영 오브젝트가 정상(최고 높이)에 위치한 자세이다. 따라서 각 오브젝트의 자세가 정상에 위치한 촬영 오브젝트가 취한 자세의 출현을 예상하는데 사용된 자세와 일치하면, 그 오브젝트는 포커스된다. 따라서 정상에 위치한 오브젝트의 자세에 있는 오브젝트 이미지가 얻어진다. 도 36을 참조하면, 제1오브젝트 3601가 가장 최고 위치에 있는 자세를 포함하는 이미지 3610에서 제1오브젝트 3601가 포커스되고, 제2오브젝트 3602가 가장 최고 위치에 있는 자세를 포함하는 이미지 3620에서 제2오브젝트 3602가 포커스되고, 제3오브젝트 3603이 가장 최고 위치에 있는 자세를 포함하는 이미지 3630에서 제3오브젝트 3603이 포커스될 수 있다. 36 illustrates another example of capturing a photographed object according to an embodiment. As shown in FIG. 36 , the desired posture to capture is the best photographing posture of each of the plurality of objects, and the best photographing posture of the photographing object is the posture in which the photographing object is located at the normal (highest height). Therefore, when the posture of each object matches the posture used to predict the appearance of the posture taken by the photographing object located at the top, the object is focused. Accordingly, an object image in the posture of the object located at the top is obtained. Referring to FIG. 36 , in an image 3610 including a posture in which the first object 3601 is at the highest position, the first object 3601 is focused, and in an image 3620 including a posture in which the second object 3602 is at the highest position, the second The object 3602 may be focused, and the third object 3603 may be focused in an image 3630 including a posture in which the third object 3603 is at the highest position.

일 예에서, 포커싱 자세는 연속으로 촬영되기 소망되는 촬영 오브젝트의 일련의 자세를 나타내는데 사용될 수 있다. 동작 3410에서, 촬영 오브젝트의 자세는 배경 이미지에서 연속적으로 검출된다. 동작 3430에서, 촬영 오브젝트의 검출된 자세들이 시간 기간 동안 포커싱 자세들과 연속으로 일치하면, 촬영 오브젝트는 연속으로 촬영되어, 촬영이 연속으로 수행될 때 촬영 오브젝트의 부가적 액션이 촬영되는 것을 회피한다. In one example, the focusing posture may be used to indicate a series of postures of a photographing object that is desired to be continuously imaged. In operation 3410, the posture of the photographing object is continuously detected from the background image. In operation 3430, if the detected postures of the shooting object consecutively coincide with the focusing postures for the time period, the shooting object is continuously photographed to avoid additional action of the shooting object being photographed when shooting is continuously performed .

또한, 일 예에서, 동작 3410에서, 촬영 오브젝트가 배경 이미지에서 연속으로 검출되면, 보조 촬영 방법은, 동작 3410의 절차가 수행된 후, 촬영 오브젝트의 자세가 미리 설정된 시간 기간 동안 일치하는지 여부를 결정하고, 촬영 오브젝트의 자세가 미리 설정된 시간 기간 동안 일치하면 그 촬영 오브젝트를 포커스하고 연속으로 촬영하는 동작을 더 포함할 수 있다. 즉, 촬영 오브젝트가 자세를 변경하지 않는다고 결정되면(즉, 촬영 오브젝트의 정지 자세), 촬영 오브젝트는 자동으로 포커스되고 촬영된다. 기존의 연속 촬영 방법(즉, 매 시간 기간마다 촬영이 수행됨)과 비교하여, 본 방법은 부가 액션의 촬영을 감소시킬 수 있다. Also, in one example, if the photographing object is continuously detected in the background image in operation 3410, the auxiliary photographing method determines whether the posture of the photographing object matches for a preset time period after the procedure of operation 3410 is performed and, when the postures of the photographing object match for a preset time period, the method may further include focusing the photographing object and continuously photographing the photographing object. That is, when it is determined that the photographing object does not change its posture (ie, the still posture of the photographing object), the photographing object is automatically focused and photographed. Compared with the existing continuous shooting method (ie, shooting is performed every time period), the present method can reduce shooting of an additional action.

일 예에서, 보조 촬영 방법은 촬영 부속물의 공간 위치 및/또는 자세를 배경 이미지에 구성하는 동작을 더 포함할 수 있다. 촬영 부속물을 결정하고 구성하는 상세한 구현 방법은 상기한 방법(반복적으로 기재하지 않음)을 참조할 수 있다.In an example, the auxiliary imaging method may further include configuring the spatial position and/or posture of the imaging accessory in the background image. For a detailed implementation method for determining and configuring an imaging accessory, reference may be made to the above-described method (not repeatedly described).

일 예에서, 실시예에 따라서 촬영 오브젝트가 다수의 오브젝트를 포함할 때, 동작 3430의 절차는 포커싱 자세와 일치하지 않는 자세의 오브젝트를 그 오브젝트가 포커스되고 촬영되기 전에 촬영 미리보기 이미지에서 제거하는 동작, 또는 포커싱 자세와 일치하지 않는 자세의 오브젝트를 그 오브젝트가 촬영된 후 촬영 이미지에서 제거하는 동작을 포함할 수 있다. 특히, 촬영 오브젝트는 타겟 오브젝트(즉, 실제 촬영될 오브젝트)와 비타겟 오브젝트(예컨대, 지나가는 행인)를 포함한다. 타겟 오브젝트와 비타겟 오브젝트는 촬영 오브젝트가 포커싱 자세와 일치하는지 여부에 따라서 자동적으로 인식될 수 있다. 비타겟 오브젝트는 촬영이 수행되기 전 또는 후에 제거된다. 포커싱 자세와 일치하지 않는 자세의 오브젝트를 제거하는 상세한 구현 방법은 상기한 상세 구현 방법(반복적으로 기재하지 않음)을 참조할 수 있다. In one example, according to an embodiment, when a photographing object includes a plurality of objects, the procedure of operation 3430 includes removing an object having a posture that does not match the focusing posture from the capture preview image before the object is focused and photographed , or removing an object having a posture that does not match the focusing posture from the captured image after the object is captured. In particular, the shooting object includes a target object (ie, an object to be actually photographed) and a non-target object (eg, a passerby). The target object and the non-target object may be automatically recognized according to whether the photographing object matches the focusing posture. Non-target objects are removed before or after imaging is performed. For a detailed implementation method of removing an object having a posture that does not match the focusing posture, the detailed implementation method (not repeatedly described) may be referred to.

도 37은 일 실시예에 따라 비타겟 오브젝트를 제거하는 다른 예를 나타낸다. 도 37에 도시된 바와 같이, 포커싱 자세는 촬영 자세 데이터베이스 내 임의의 촬영 자세이고, 촬영 오브젝트는 다수의 오브젝트를 포함한다. 각 오브젝트가 타겟 오브젝트인지 비타겟 오브젝트인지 여부가 결정되고, 타겟 오브젝트 및 제거될 비타겟 오브젝트가 사용자에게 디스플레이될 수 있다. 37 illustrates another example of removing a non-target object according to an embodiment. 37 , the focusing posture is an arbitrary photographing posture in the photographing posture database, and the photographing object includes a plurality of objects. Whether each object is a target object or a non-target object may be determined, and the target object and the non-target object to be removed may be displayed to the user.

촬영 오브젝트가 단일 오브젝트일 때 촬영 방법이 상세히 설명된다.A photographing method when the photographing object is a single object is described in detail.

도 38은 일 실시예에 따른 촬영 방법을 나타내는 흐름도이다. 본 방법은 단일 촬영 오브젝트에 대하여 사용된다. 38 is a flowchart illustrating a photographing method according to an exemplary embodiment. This method is used for a single shooting object.

도 38에 도시된 바와 같이, 동작 3810에서, 촬영 장치 100는 카메라 애플리케이션의 동작을 개시한다. 카메라 애플리케이션은 카메라 애플리케이션을 시작시키는 사용자 동작에 의해 개시될 수 있다. 예를 들어, 사용자가 카메라 아이콘을 클릭하는 것이 검출되면, 카메라 애플리케이션은 시작된다. 선택적으로, 카메라 애플리케이션을 개시시키는 음성 명령이 검출되면, 카메라 애플리케이션이 개시될 수 있다. As shown in FIG. 38 , in operation 3810 , the photographing device 100 starts an operation of a camera application. The camera application may be initiated by a user action starting the camera application. For example, if it is detected that the user clicks on the camera icon, the camera application is started. Optionally, when a voice command to launch the camera application is detected, the camera application may be launched.

동작 3820에서, 촬영 장치 100는 깊이 정보를 갖는 배경 이미지를 획득할 수 있다. 즉, 깊이 카메라를 통해 실시간으로 캡처한 촬영 미리보기 이미지(깊이 정보를 가짐)가 촬영 장치의 스크린을 통해 사용자에게 디스플레이된다. In operation 3820, the imaging device 100 may acquire a background image having depth information. That is, a shooting preview image (having depth information) captured in real time through the depth camera is displayed to the user through the screen of the imaging device.

동작 3830에서, 촬영 장치 100는 촬영 오브젝트를 나타내는데 사용되는 3차원 가상 이미지를 선택할 수 있다. In operation 3830, the photographing device 100 may select a 3D virtual image used to represent a photographing object.

메뉴 바 내 <3차원 가상 이미지 선택> 메뉴 아이템에 대한 사용자 동작에 따라서, 촬영 자세 데이터베이스 내 3차원 가상 이미지들이 사용자가 선택하도록 스크린의 측면에 디스플레이된다. 사용자는 3차원 가상 이미지를 클릭하여 선택할 수 있다. According to a user action for the <Select 3D Virtual Image> menu item in the menu bar, 3D virtual images in the photographing posture database are displayed on the side of the screen for the user to select. The user can select the three-dimensional virtual image by clicking on it.

또한, 사용자는 3차원 가상 이미지와 촬영 부속물(예컨대, 태양)을 포함하는 촬영 시나리오 템플릿을 추가로 선택할 수 있다. 촬영 부속물과 3차원 가상 이미지 사이의 관계(예컨대, 위치 관계)는 미리-구성된 촬영 시나리오 템플릿으로 한정된다. In addition, the user may additionally select a shooting scenario template including a 3D virtual image and a shooting accessory (eg, the sun). The relationship (eg, positional relationship) between the imaging appendage and the three-dimensional virtual image is defined by a pre-configured imaging scenario template.

동작 3840에서, 촬영 장치 100는 3차원 가상 이미지의 3차원 공간 위치 및 3차원 자세를 배경 이미지에 구성할 수 있다. In operation 3840, the imaging device 100 may configure the 3D spatial position and 3D posture of the 3D virtual image in the background image.

일 예에서, 3차원 가상 이미지의 3차원 공간 위치는 먼저 대략적으로 구성된 후 더욱 조정될 수 있다.In one example, the three-dimensional spatial position of the three-dimensional virtual image may be first roughly constructed and then further adjusted.

예를 들어, 사용자는 선택된 3차원 가상 이미지를 클릭하고, 스크린의 다른 측면에 디스플레이된 배경 이미지 내 상응하는 위치에 그 이미지를 드래그할 수 있다. 따라서 선택된 3차원 가상 이미지는 배경 이미지 내 대략적으로 구성된다. 바람직하게는, 3차원 가상 이미지를 위치시키기 적절한 영역과 적절하지 않은 영역이 배경 이미지 내에 디스플레이될 수 있다. 선택적으로는, 3차원 가상 이미지를 위치시키기 적절하지 않은 영역에 3차원 가상 이미지를 위치시킬 때, 사용자는 이 사항을 통지받을 수 있다. For example, the user may click on the selected three-dimensional virtual image and drag the image to a corresponding position in the background image displayed on the other side of the screen. Accordingly, the selected three-dimensional virtual image is roughly constructed within the background image. Preferably, an area suitable for positioning a three-dimensional virtual image and an area not suitable for positioning the three-dimensional virtual image may be displayed in the background image. Optionally, when positioning the 3D virtual image in an area that is not suitable for positioning the 3D virtual image, the user may be notified of this.

예를 들어, 3차원 가상 이미지와 촬영 부속물을 포함하는 촬영 시나리오 템플릿이 블록 S403에서 선택되면, 3차원 가상 이미지의 3차원 공간 위치 및 3차원 자세는 배경 이미지 내 촬영 부속물에 기초하여 자동으로 구성될 수 있다. For example, if a shooting scenario template comprising a three-dimensional virtual image and an imaging appendage is selected in block S403, the three-dimensional spatial position and the three-dimensional posture of the three-dimensional virtual image may be automatically constructed based on the imaging appendage in the background image. can

3차원 가상 이미지의 3차원 공간 위치가 대략적으로 구성된 후 3차원 가상 이미지의 3차원 공간 위치를 정밀하게 구성하는데 사용되는 인터페이스가 스크린의 다른 측면에 디스플레이된다. 예를 들어, 수평 방향, 수직 방향 및 깊이 방향에서 3차원 가상 이미지의 위치들을 조정하는데 사용되는 스크롤바 또는 텍스트 박스가 인터페이스에 디스플레이된다. 사용자는 스크롤바를 슬라이딩시키거나 또는 텍스트 박스에 상응하는 좌표를 입력함으로써, 3차원 가상 이미지의 3차원 공간 위치를 정밀하게 구성할 수 있다.After the three-dimensional spatial position of the three-dimensional virtual image is roughly constructed, an interface used to precisely construct the three-dimensional space position of the three-dimensional virtual image is displayed on the other side of the screen. For example, a scroll bar or text box used to adjust the positions of the three-dimensional virtual image in the horizontal direction, the vertical direction and the depth direction is displayed on the interface. The user may precisely configure the 3D spatial position of the 3D virtual image by sliding the scroll bar or inputting coordinates corresponding to the text box.

3차원 공간 위치를 구성하는 절차가 종료되었다고 사용자가 결정한 후, 3차원 가상 이미지의 3차원 자세를 구성하는데 사용되는 인터페이스가 스크린의 측면에 디스플레이된다. 예를 들어, 3차원 가상 이미지의 결합점을 통해 표현된 3차원 가상 이미지의 자세를 예시하는 개략도가 인터페이스에 디스플레이될 수 있고, 개략도는 전면도 또는 측면도를 포함할 수 있다. 사용자는 구성될 결합점을 클릭하고 그 결합점을 상응하는 위치로 드래그함으로써, 3차원 가상 이미지의 3차원 자세를 구성할 수 있다. 또한, 사용자는 3차원 가상 이미지를 클릭하고 그 3차원 가상 이미지를 회전시키기 위하여 드래그함으로써, 3차원 가상 이미지의 회전 각도를 추가로 구성할 수 있다.After the user determines that the procedure for constructing the three-dimensional space position is finished, an interface used to construct the three-dimensional posture of the three-dimensional virtual image is displayed on the side of the screen. For example, a schematic diagram illustrating a posture of a three-dimensional virtual image expressed through a joining point of the three-dimensional virtual image may be displayed on the interface, and the schematic diagram may include a front view or a side view. The user can configure the three-dimensional posture of the three-dimensional virtual image by clicking the joint point to be constructed and dragging the joint point to the corresponding position. In addition, the user may further configure the rotation angle of the 3D virtual image by clicking the 3D virtual image and dragging to rotate the 3D virtual image.

바람직하게는, 사용자는 촬영 부속물(예컨대, 모자)을 추가로 선택할 수 있다. 촬영 부속물의 3차원 공간 위치 및 3차원 자세는 촬영 부속물(3차원 가상 이미지의 결합점이 결합됨)의 속성, 3차원 가상 이미지의 구성된 3차원 공간 위치 및 구성된 3차원 자세에 따라서 자동으로 구성된다. 사용자는 촬영 부속물의 3차원 공간 위치 및 3차원 자세를 추가로 조정할 수 있다.Preferably, the user may further select an imaging accessory (eg, a hat). The three-dimensional spatial position and three-dimensional posture of the imaging appendage are automatically configured according to the properties of the imaging appendage (the joining points of the three-dimensional virtual image are combined), the configured three-dimensional space position of the three-dimensional virtual image, and the configured three-dimensional posture. The user may further adjust the three-dimensional spatial position and three-dimensional posture of the imaging accessory.

동작 3850에서, 촬영 장치 100는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트 사이의 차이에 기초하여 촬영 가이드를 출력할 수 있다. 특히, 촬영 가이드는 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 공간 위치 차이 및 3차원 자세 차이에 기초하여 출력된다.In operation 3850, the photographing device 100 may output a photographing guide based on a difference between the 3D virtual image in the background image and the photographing object. In particular, the shooting guide is output based on the 3D spatial position difference and the 3D posture difference between the shooting object and the 3D virtual image.

예를 들어, 촬영 오브젝트는 3차원 가상 이미지가 3차원 공간 위치 차이에 기초하여 위치된 곳에 도달하도록 먼저 가이드되고, 그 후, 3차원 자세 차이에 기초하여 3차원 자세를 조정하도록 가이드될 수 있다. 촬영 장치를 통해 음성 가이드가 출력될 수 있다. 선택적으로, 이미지 가이드는 촬영 오브젝트가 착용하고 촬영 장치와 페어링된 웨어러블 디바이스를 통해 출력될 수 있다. For example, the photographing object may be first guided to arrive at a location where the three-dimensional virtual image is positioned based on the three-dimensional spatial position difference, and then guided to adjust the three-dimensional posture based on the three-dimensional posture difference. A voice guide may be output through the photographing device. Optionally, the image guide may be output through a wearable device worn by the photographing object and paired with the photographing apparatus.

동작 3860에서, 촬영 장치 100는 비타겟 오브젝트를 배경 이미지에서 제거할 수 있다. 즉, 비타겟 오브젝트(즉, 행인)은 촬영 미리보기 이미지에서 제거되어, 촬영 이미지에 디스플레이되지 않는다.In operation 3860, the imaging device 100 may remove the non-target object from the background image. That is, the non-target object (ie, a passerby) is removed from the shot preview image and is not displayed in the shot image.

동작 3850 및 동작 3860의 절차는 동시에 수행될 수 있다. 즉, 촬영 장치는 촬영 오브젝트의 가이드와 비타겟 오브젝트의 제거를 동시에 할 수 있다. The procedures of operation 3850 and operation 3860 may be performed simultaneously. That is, the photographing apparatus may simultaneously guide the photographing object and remove the non-target object.

동작 3870에서, 촬영 오브젝트가 배경 이미지 내 3차원 가상 이미지와 일치할 때, 촬영 장치 100는 촬영 오브젝트를 자동으로 포커스하고 촬영할 수 있다. 예를 들어, 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 공간 위치 차이가 미리 설정된 위치 포커싱 임계값보다 작고, 촬영 오브젝트와 3차원 가상 이미지 사이의 3차원 자세 차이가 미리 설정된 자세 포커싱 임계값보다 작으면, 촬영 오브젝트는 3차원 가상 이미지와 일치한다고 결정되고, 촬영 오브젝트는 자동으로 포커스되고 촬영된다. In operation 3870, when the photographing object matches the 3D virtual image in the background image, the photographing device 100 may automatically focus and photograph the photographing object. For example, the three-dimensional spatial position difference between the imaging object and the three-dimensional virtual image is smaller than a preset position focusing threshold, and the three-dimensional position difference between the imaging object and the three-dimensional virtual image is smaller than the preset posture focusing threshold. , it is determined that the photographing object matches the three-dimensional virtual image, and the photographing object is automatically focused and photographed.

촬영 오브젝트가 다수의 오브젝트를 포함할 때 촬영 방법이 아래에 상세히 설명된다. A photographing method when the photographing object includes a plurality of objects will be described in detail below.

도 39는 일 실시예에 따른 촬영 방법을 나타내는 흐름도이다. 이 방법은 다수의 촬영 오브젝트에 대하여 사용된다. 39 is a flowchart illustrating a photographing method according to an exemplary embodiment. This method is used for multiple shooting objects.

도 39에 도시된 바와 같이, 동작 3910에서, 촬영 장치 100는 카메라 애플리케이션을 개시할 수 있다. 카메라 애플리케이션은 카메라 애플리케이션을 시작시키는 사용자 동작에 의해 개시될 수 있다. 예를 들어, 사용자가 카메라 아이콘을 클릭하는 것이 검출되면, 카메라 애플리케이션은 시작된다. 선택적으로는, 카메라 애플리케이션을 개시시키는 음성 명령이 검출되면, 카메라 애플리케이션이 개시된다. As shown in FIG. 39 , in operation 3910 , the photographing device 100 may initiate a camera application. The camera application may be initiated by a user action starting the camera application. For example, if it is detected that the user clicks on the camera icon, the camera application is started. Optionally, when a voice command to launch the camera application is detected, the camera application is started.

동작 3920에서, 촬영 장치 100는 배경 이미지를 획득할 수 있다. 즉, 깊이 카메라를 통해 실시간으로 캡처한 촬영 미리보기 이미지(깊이 정보를 가짐)가 촬영 장치의 스크린을 통해 사용자에게 디스플레이된다. In operation 3920, the photographing device 100 may acquire a background image. That is, a shooting preview image (having depth information) captured in real time through the depth camera is displayed to the user through the screen of the imaging device.

동작 3930에서, 촬영 장치 100는 다수의 촬영 오브젝트를 나타내는데 사용되는 가상 이미지들을 선택할 수 있다. In operation 3930, the photographing device 100 may select virtual images used to represent a plurality of photographing objects.

메뉴 바 내 <가상 이미지들 선택> 메뉴 아이템에 대한 사용자 동작에 따라서, 촬영 자세 데이터베이스 내 가상 이미지들이 사용자가 선택하도록 스크린의 측면에 디스플레이된다. 사용자는 각 오브젝트에 대하여 가상 이미지를 선택하거나 다수 가상 이미지들의 조합을 선택할 수 있다. According to a user action on the <select virtual images> menu item in the menu bar, virtual images in the photographing posture database are displayed on the side of the screen for the user to select. The user may select a virtual image for each object or a combination of multiple virtual images.

동작 3940에서, 촬영 장치 100는 배경 이미지 내 촬영 오브젝트들에 상응하는 가상 이미지들과 그 촬영 오브젝트들 사이의 차이들에 기초하여 촬영 가이드들을 출력할 수 있다. 즉, 촬영 가이드들 각각은 각 촬영 오브젝트와 그 촬영 오브젝트에 상응하는 가상 이미지 사이의 자세 차이에 기초하여 출력된다. 예를 들어, 촬영 오브젝트들은 음성 명령을 통해 순서대로(왼쪽에서 오른쪽으로) 연속 가이드된다. 선택적으로는, 상응하는 촬영 오브젝트들이 입은 웨어러블 디바이스에 음성 또는 이미지 가이드들 각각이 송신되어서, 각 촬영 오브젝트는 상응하는 웨어러블 디바이스로부터의 가이드에 따라서 조정될 수 있다.In operation 3940, the photographing device 100 may output photographing guides based on virtual images corresponding to photographing objects in the background image and differences between the photographing objects. That is, each of the photographing guides is output based on a difference in posture between each photographing object and a virtual image corresponding to the photographing object. For example, shooting objects are continuously guided in order (from left to right) through voice commands. Optionally, each of the audio or image guides is transmitted to the wearable device worn by the corresponding photographing objects, so that each photographing object can be adjusted according to the guide from the corresponding wearable device.

동작 3950에서, 각 오브젝트에 대하여, 촬영 오브젝트의 자세가 상응하는 가상 이미지의 자세와 일치할 때, 촬영 장치 100는 촬영 오브젝트를 자동적으로 포커스하여 촬영할 수 있다. 즉, 각 오브젝트에 대하여, 촬영 오브젝트의 검출된 자세가 상응하는 가상 이미지의 자세와 일치할 때, 촬영 오브젝트는 자동으로 포커스되고 촬영되므로, 각각의 촬영 오브젝트가 포커스된 이미지를 얻을 수 있다. In operation 3950 , when the posture of the photographing object matches the posture of the corresponding virtual image with respect to each object, the photographing device 100 may automatically focus the photographing object to take a photograph. That is, for each object, when the detected posture of the photographing object matches the posture of the corresponding virtual image, the photographing object is automatically focused and photographed, so that an image in which each photographing object is focused can be obtained.

동작 3960에서, 촬영 장치 100는 촬영 오브젝트에 상응하는 촬영 이미지에서 각 촬영 오브젝트를 추출하고, 모든 추출된 촬영 오브젝트와 배경 이미지를 결합할 수 있다. 따라서 모든 촬영 오브젝트가 선명한 이미지가 얻어진다. In operation 3960, the photographing device 100 may extract each photographing object from a photographed image corresponding to the photographing object, and combine all the extracted photographing objects with a background image. Accordingly, a clear image of all the photographing objects is obtained.

실시예들에 따라 제공된 촬영 방법 및 장치에 의하면, 3차원 가상 이미지는 깊이 정보가 있는 배경 이미지 내에 구성되고, 따라서 사용자는 촬영 효과를 미리 알 수 있다. 또한, 촬영 오브젝트는 배경 이미지 내 3차원 가상 이미지와 촬영 오브젝트 사이의 차이에 따라서 조정을 수행하도록 가이드되므로, 촬영 오브젝트는 가상 이미지와 일치한다. 또한, 촬영 오브젝트는 그 촬영 오브젝트의 자세에 기초하여 포커스되고 촬영될 수 있다. According to the photographing method and apparatus provided according to the embodiments, the 3D virtual image is configured in the background image with depth information, and thus the user can know the photographing effect in advance. In addition, the shooting object is guided to perform adjustment according to the difference between the three-dimensional virtual image and the shooting object in the background image, so that the shooting object matches the virtual image. Also, the photographing object may be focused and photographed based on the posture of the photographing object.

일 실시예에 따른 촬영 장치의 동작 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method of operating a photographing apparatus according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also included in the scope of the present invention. belongs to

Claims (20)

촬영 장치에 있어서,
이미지를 촬영하는 촬영부; 및
상기 촬영부에 연결된 제어부를 포함하고,
상기 제어부는,
깊이 정보가 있는 배경 이미지를 획득하고,
상기 깊이 정보가 있는 배경 이미지에 촬영될 타겟 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하고,
상기 촬영부가 상기 배경 이미지에 대응하는 장면을 캡쳐하도록 위치되는 동안, 상기 배경 이미지의 상기 3차원 가상 이미지와 상기 촬영부의 라이브 프리뷰 이미지에 있는 상기 타겟 오브젝트 사이의 차이를 결정하고,
상기 차이가 미리 정해진 임계값보다 작아질 때 상기 타겟 오브젝트를 자동적으로 촬영하도록 상기 촬영부를 제어하는, 촬영 장치.
In the photographing device,
a photographing unit for photographing an image; and
Including a control unit connected to the photographing unit,
The control unit is
Acquire a background image with depth information,
disposing a three-dimensional virtual image used to represent a target object to be photographed on the background image having the depth information,
while the capturing unit is positioned to capture a scene corresponding to the background image, determining a difference between the three-dimensional virtual image of the background image and the target object in the live preview image of the capturing unit,
and controlling the photographing unit to automatically photograph the target object when the difference becomes smaller than a predetermined threshold.
제1항에 있어서,
상기 제어부는,
상기 3차원 가상 이미지의 3차원 가상 공간 위치 및/또는 3차원 자세(posture)를 결정하는, 촬영 장치.
The method of claim 1,
The control unit is
A photographing apparatus for determining a three-dimensional virtual space position and/or a three-dimensional posture of the three-dimensional virtual image.
제2항에 있어서,
상기 제어부는,
촬영 부속물을 결정하고, 및
상기 배경 이미지에 상기 촬영 부속물의 3차원 공간 위치 및/또는 3차원 자세를 더 구성하는, 촬영 장치.
3. The method of claim 2,
The control unit is
determine a photographic appendage, and
and further configuring a three-dimensional spatial position and/or a three-dimensional posture of the photographing accessory in the background image.
제3항에 있어서,
상기 제어부는,
상기 3차원 가상 이미지를, 상기 배경 이미지 내 상기 3차원 가상 이미지의 상기 촬영 부속물(shooting appendage)에 기초하여 배치하고,
상기 3차원 가상 이미지와 이 3차원 가상 이미지의 상기 촬영 부속물 사이의 관계는 미리 구성된 촬영 시나리오 템플릿(pre-configured shooting scenario template)에 의해 정의되는, 촬영 장치.
4. The method of claim 3,
The control unit is
disposing the three-dimensional virtual image based on the shooting appendage of the three-dimensional virtual image in the background image;
and the relationship between the three-dimensional virtual image and the shooting accessory of the three-dimensional virtual image is defined by a pre-configured shooting scenario template.
제3항에 있어서,
상기 제어부는,
상기 3차원 가상 이미지의 3차원 자세(posture)를, 상기 3차원 가상 이미지의 결합점(joint point)의 3차원 공간 위치를 배치함으로써 구성하는, 촬영 장치.
4. The method of claim 3,
The control unit is
A photographing apparatus for configuring a three-dimensional posture of the three-dimensional virtual image by arranging three-dimensional spatial positions of joint points of the three-dimensional virtual image.
제1항에 있어서,
상기 제어부는,
상기 결정된 차이에 기초하여, 상기 차이를 나타내는 촬영 가이드를 상기 촬영 장치 및/또는 웨어러블 디바이스(wearable device)를 통해 출력하는, 촬영 장치.
According to claim 1,
The control unit is
and outputting a photographing guide indicating the difference through the photographing apparatus and/or a wearable device based on the determined difference.
제6항에 있어서,
상기 제어부는,
상기 타겟 오브젝트를 상기 3차원 가상 이미지의 3차원 자세에 기초하여 검출하거나, 또는 상기 웨어러블 디바이스가 제공한 3차원 공간 위치 정보에 기초하여 검출하거나, 또는 사용자가 선택한 상기 타겟 오브젝트에 대한 타겟 트랙킹(target tracking)에 기초하여 검출하는, 촬영 장치.
7. The method of claim 6,
The control unit is
The target object is detected based on the 3D posture of the 3D virtual image, or based on 3D spatial location information provided by the wearable device, or target tracking for the target object selected by the user (target A photographing device that detects based on tracking).
제6항에 있어서,
상기 타겟 오브젝트와 상기 3차원 가상 이미지 사이의 차이는 3차원 공간 위치 차이 및/또는 상기 타겟 오브젝트와 상기 3차원 가상 이미지 사이의 3차원 자세 차이를 포함하는, 촬영 장치.
7. The method of claim 6,
The difference between the target object and the 3D virtual image includes a 3D spatial position difference and/or a 3D posture difference between the target object and the 3D virtual image.
제8항에 있어서,
상기 제어부는,
상기 타겟 오브젝트와 상기 3차원 가상 이미지 사이의 상기 3차원 자세 차이를, 상기 타겟 오브젝트의 결합점의 3차원 공간 위치와 상기 3차원 가상 이미지의 상응하는 결합점의 3차원 공간 위치를 비교함으로써 결정하는, 촬영 장치.
9. The method of claim 8,
The control unit is
determining the 3D posture difference between the target object and the 3D virtual image by comparing the 3D spatial position of the bonding point of the target object with the 3D spatial position of the corresponding bonding point of the 3D virtual image , shooting device.
제1항에 있어서,
상기 제어부는,
상기 배경 이미지 내 상기 타겟 오브젝트의 자세를 검출하고,
상기 타겟 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하고,
상기 검출된 타겟 오브젝트의 자세가 상기 포커싱 자세와 일치하면 상기 타겟 오브젝트를 포커스하고 촬영하도록 상기 촬영부를 제어하는, 촬영 장치.
According to claim 1,
The control unit is
detecting the posture of the target object in the background image,
determining whether the posture of the target object matches the focusing posture,
When the detected posture of the target object matches the focusing posture, controlling the capturing unit to focus and photograph the target object.
제10항에 있어서,
상기 포커싱 자세는 상기 촬영 오브젝트의 소망하는 촬영 자세를 나타내는데 사용되는 미리-구성된 자세이거나, 미리-구성된 촬영 자세 데이터베이스 내 임의의 촬영 자세인, 촬영 장치.
11. The method of claim 10,
wherein the focusing posture is a pre-configured posture used to indicate a desired shooting posture of the photographing object, or an arbitrary shooting posture in a pre-configured photographing posture database.
제10항에 있어서,
상기 제어부는,
캡처되기 소망되는 상기 타겟 오브젝트 자세의 출현을 예상하는데 사용되는 상기 3차원 가상 이미지의 예상 자세를 결정하고,
상기 타겟 오브젝트가 상기 예상 자세를 취한다고 검출할 때 상기 타겟 오브젝트를 자동적으로 포커스하고 캡처하도록 상기 촬영부를 제어하는, 촬영 장치.
11. The method of claim 10,
The control unit is
determining an expected pose of the three-dimensional virtual image used to predict the appearance of the target object pose that is desired to be captured;
and controlling the photographing unit to automatically focus and capture the target object when detecting that the target object assumes the expected posture.
제10항에 있어서,
상기 제어부는,
연속적으로 촬영되기 소망되는 일련의 타겟 오브젝트 자세를 나타내는데 사용되는 상기 3차원 가상 이미지의 다중 자세를 결정하고,
상기 타겟 오브젝트가 미리 설정된 시간 동안 상기 배경 이미지 내 상기 3차원 가상 이미지와 연속적으로 일치하면, 상기 타겟 오브젝트를 자동적으로 포커스하고 연속적으로 촬영하도록 상기 촬영부를 제어하는, 촬영 장치.
11. The method of claim 10,
The control unit is
determining multiple poses of the three-dimensional virtual image used to represent a series of target object poses that are desired to be imaged successively;
When the target object continuously matches the 3D virtual image in the background image for a preset time, the photographing apparatus controls the photographing unit to automatically focus and continuously photograph the target object.
제1항에 있어서,
상기 타겟 오브젝트는 다중 오브젝트를 포함하고,
상기 제어부는,
상기 타겟 오브젝트가 포커스되고 촬영되기 전 또는 후에, 상기 3차원 가상 이미지와 일치하지 않는 오브젝트를 제거하는, 촬영 장치.
According to claim 1,
The target object includes multiple objects,
The control unit is
Before or after the target object is focused and photographed, an object that does not match the 3D virtual image is removed.
촬영 장치의 동작 방법에 있어서,
깊이 정보가 있는 배경 이미지를 획득하는 동작,
상기 깊이 정보가 있는 배경 이미지에 촬영될 타겟 오브젝트를 나타내는데 이용되는 3차원 가상 이미지를 배치하는 동작,
상기 촬영 장치가 상기 배경 이미지에 대응하는 장면을 캡쳐하도록 위치되는 동안, 상기 배경 이미지의 상기 3차원 가상 이미지와 상기 촬영 장치의 라이브 프리뷰 이미지에 있는 상기 타겟 오브젝트 사이의 차이를 결정하는 동작,
상기 차이가 미리 정해진 임계값보다 작아질 때 상기 타겟 오브젝트를 자동적으로 촬영하는 동작을 포함하는 동작 방법.
In the method of operating a photographing device,
acquiring a background image with depth information;
arranging a three-dimensional virtual image used to represent a target object to be photographed on the background image having the depth information;
while the imaging device is positioned to capture a scene corresponding to the background image, determining a difference between the three-dimensional virtual image of the background image and the target object in a live preview image of the imaging device;
and automatically capturing the target object when the difference becomes smaller than a predetermined threshold.
제15항에 있어서,
상기 3차원 가상 이미지의 3차원 가상 공간 위치 및/또는 3차원 자세(posture)를 결정하는 동작을 더 포함하는 동작 방법.
16. The method of claim 15,
and determining a three-dimensional virtual space position and/or a three-dimensional posture of the three-dimensional virtual image.
제15항에 있어서,
상기 타겟 오브젝트와 상기 3차원 가상 이미지 사이의 차이를 결정하는 동작, 및
상기 결정된 차이에 기초하여 상기 차이를 나타내는 촬영 가이드를 상기 촬영 장치 및/또는 웨어러블 디바이스(wearable device)를 통해 출력하는 동작을 더 포함하는 동작 방법.
16. The method of claim 15,
determining a difference between the target object and the three-dimensional virtual image; and
and outputting a photographing guide indicating the difference based on the determined difference through the photographing apparatus and/or a wearable device.
제15항에 있어서,
상기 배경 이미지 내 상기 타겟 오브젝트의 자세를 검출하는 동작,
상기 타겟 오브젝트의 자세가 포커싱 자세와 일치하는지 여부를 결정하는 동작, 및
상기 검출된 타겟 오브젝트의 자세가 상기 포커싱 자세와 일치하면 상기 타겟 오브젝트를 포커스하고 촬영하는 동작을 더 포함하는 동작 방법.
16. The method of claim 15,
detecting the posture of the target object in the background image;
determining whether the posture of the target object matches the focusing posture, and
and focusing and photographing the target object when the detected posture of the target object matches the focusing posture.
제15항에 있어서,
캡처되기 소망되는 상기 타겟 오브젝트 자세의 출현을 예상하는데 사용되는 상기 3차원 가상 이미지의 예상 자세를 결정하는 동작, 및
상기 타겟 오브젝트가 상기 예상 자세를 취한다고 검출할 때 상기 타겟 오브젝트를 자동적으로 포커스하고 촬영하는 동작을 더 포함하는 동작 방법.
16. The method of claim 15,
determining an expected pose of the three-dimensional virtual image used to predict the appearance of the target object pose that is desired to be captured; and
and automatically focusing and photographing the target object when detecting that the target object assumes the expected posture.
제15항에 기재된 방법을 실행하는 프로그램이 기록된 컴퓨터 판독 가능 기록 매체. A computer-readable recording medium in which a program for executing the method according to claim 15 is recorded.
KR1020160062168A 2015-09-01 2016-05-20 Image capture apparatus and method for operating the image capture apparatus KR102407190B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2016/009784 WO2017039348A1 (en) 2015-09-01 2016-09-01 Image capturing apparatus and operating method thereof
US15/254,515 US10165199B2 (en) 2015-09-01 2016-09-01 Image capturing apparatus for photographing object according to 3D virtual object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510552980.0 2015-09-01
CN201510552980.0A CN106484086B (en) 2015-09-01 2015-09-01 For assisting the method and its capture apparatus of shooting

Publications (2)

Publication Number Publication Date
KR20170027266A KR20170027266A (en) 2017-03-09
KR102407190B1 true KR102407190B1 (en) 2022-06-10

Family

ID=58237641

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160062168A KR102407190B1 (en) 2015-09-01 2016-05-20 Image capture apparatus and method for operating the image capture apparatus

Country Status (2)

Country Link
KR (1) KR102407190B1 (en)
CN (1) CN106484086B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106973224B (en) * 2017-03-09 2020-08-07 Oppo广东移动通信有限公司 Auxiliary composition control method, control device and electronic device
KR102020352B1 (en) * 2018-01-19 2019-09-11 주식회사 팝스라인 Apparatus for providing mixed reality content using three-dimension object and marker and method thereof
CN108921815A (en) * 2018-05-16 2018-11-30 Oppo广东移动通信有限公司 It takes pictures exchange method, device, storage medium and terminal device
CN111466112A (en) * 2018-08-10 2020-07-28 华为技术有限公司 Image shooting method and electronic equipment
CN109600550B (en) * 2018-12-18 2022-05-31 维沃移动通信有限公司 Shooting prompting method and terminal equipment
WO2020218646A1 (en) * 2019-04-25 2020-10-29 주식회사 팝스라인 Mr content providing device using 3d object and marker and method therefor
CN110276840B (en) * 2019-06-21 2022-12-02 腾讯科技(深圳)有限公司 Multi-virtual-role control method, device, equipment and storage medium
CN111147744B (en) * 2019-12-30 2022-01-28 维沃移动通信有限公司 Shooting method, data processing device, electronic equipment and storage medium
WO2024071657A1 (en) * 2022-09-30 2024-04-04 삼성전자 주식회사 Electronic device and operating method of electronic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135295A1 (en) * 2011-11-29 2013-05-30 Institute For Information Industry Method and system for a augmented reality

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3035282A4 (en) * 2013-09-11 2017-07-05 Sony Corporation Image processing device and method
CN104143212A (en) * 2014-07-02 2014-11-12 惠州Tcl移动通信有限公司 Reality augmenting method and system based on wearable device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130135295A1 (en) * 2011-11-29 2013-05-30 Institute For Information Industry Method and system for a augmented reality

Also Published As

Publication number Publication date
CN106484086B (en) 2019-09-20
CN106484086A (en) 2017-03-08
KR20170027266A (en) 2017-03-09

Similar Documents

Publication Publication Date Title
US10165199B2 (en) Image capturing apparatus for photographing object according to 3D virtual object
KR102407190B1 (en) Image capture apparatus and method for operating the image capture apparatus
US9626592B2 (en) Photographing method, photo management method and device
US9838597B2 (en) Imaging device, imaging method, and program
JP6264665B2 (en) Image processing method and image processing apparatus
JP6101397B2 (en) Photo output method and apparatus
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
US20160028948A1 (en) Image capturing apparatus
US10467498B2 (en) Method and device for capturing images using image templates
KR20210133112A (en) Video processing method, apparatus and storage media
US9628700B2 (en) Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program
US11847770B2 (en) Automatic generation of all-in-focus images with a mobile camera
US11024090B2 (en) Virtual frame for guided image composition
US9521329B2 (en) Display device, display method, and computer-readable recording medium
CN111654624A (en) Shooting prompting method and device and electronic equipment
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
CN110326287A (en) Image pickup method and device
JP6270578B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
WO2022061541A1 (en) Control method, handheld gimbal, system, and computer-readable storage medium
JP2014033265A (en) Imaging device, imaging method, and program
TW201421138A (en) Digital camera and image capturing method thereof
JP6061715B2 (en) Imaging apparatus, control method thereof, and program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
CN111279682A (en) Electronic device and shooting control method
TWI502268B (en) Method for photography guiding and electronic device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right