KR20210029905A - Method and computer program for remove photo background and taking composite photograph - Google Patents

Method and computer program for remove photo background and taking composite photograph Download PDF

Info

Publication number
KR20210029905A
KR20210029905A KR1020190111144A KR20190111144A KR20210029905A KR 20210029905 A KR20210029905 A KR 20210029905A KR 1020190111144 A KR1020190111144 A KR 1020190111144A KR 20190111144 A KR20190111144 A KR 20190111144A KR 20210029905 A KR20210029905 A KR 20210029905A
Authority
KR
South Korea
Prior art keywords
image
user
photo
partial
images
Prior art date
Application number
KR1020190111144A
Other languages
Korean (ko)
Inventor
이명호
Original Assignee
이명호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이명호 filed Critical 이명호
Priority to KR1020190111144A priority Critical patent/KR20210029905A/en
Publication of KR20210029905A publication Critical patent/KR20210029905A/en

Links

Images

Classifications

    • H04N5/232933
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/23222
    • H04N5/232935
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is background-removed photographing and method for taking a composite photograph using the same. According to the present invention, the photographing method comprises the steps of: generating a depth map by analyzing a plurality of images photographed by a plurality of cameras when photographing is requested from a user; determining one or more partial images making up an image by using the depth map; displaying a user interface for separating and selecting the one or more partial images as a live-view image over a main image displayed on a screen of a digital photographing device; receiving an input of a user through the user interface; and generating a photograph, from which a partial image selected and excluded from the main image is deleted, in accordance with the input of the user through the user interface as a new main image, and storing the photograph in a storage unit when photograph storage is requested from the user. According to the present invention, a user can easily take a photograph of only an object that the user desires without a background image in real-time.

Description

누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법 및 컴퓨터 프로그램 {Method and computer program for remove photo background and taking composite photograph}[Method and computer program for remove photo background and taking composite photograph}

본 발명은 디지털 촬영장치에서 사진을 촬영하는 방법에 대한 것으로, 더 구체적으로는 디지털 카메라를 통해 획득되는 영상들을 이용하여 누끼 사진(배경이 삭제된 사진)이나 다른 영상과 합성한 사진을 별도 편집 과정 없이 실시간으로 촬영할 수 있도록 하는 영상 촬영 방법 및 컴퓨터 프로그램에 대한 것이다.The present invention relates to a method of taking a picture in a digital photographing apparatus, and more specifically, a separate editing process for a photo (a photo from which the background has been deleted) or a photo synthesized with another image by using images acquired through a digital camera. It is about a video recording method and a computer program that allows you to shoot in real time without the need.

휴대폰에 탑재되는 듀얼 카메라는 카메라 렌즈가 2개로 이루어진 스마트폰용 카메라 모듈이다. 2개의 렌즈를 이용해 촬영을 함으로써 사진의 품질을 개선하거나, 각각 다른 화각의 사진을 획득하거나, 정확한 안면인식(길이 외에 깊이까지 인식)으로 보안이나 AI(Artificial Intelligence)의 사물인식 등에 활용하거나, 3D 이미지를 생성함으로써 가상현실, 증강현실의 효과를 구현할 수 있다.The dual camera mounted on a mobile phone is a camera module for smartphones with two camera lenses. Shooting with two lenses improves the quality of photos, acquires photos with different angles of view, is used for security or object recognition by AI (Artificial Intelligence) with accurate facial recognition (recognizing depth as well as length), or 3D By creating an image, the effects of virtual reality and augmented reality can be realized.

한편, 누끼(ぬき)란 '빼다'라는 뜻의 일본어로 글자에는 색을 빼고 배경에 색을 칠하는 인쇄 방법을 나타내며, 필요치 않은 부분은 빼내고 필요한 피사체만 인쇄되도록 하는 것이다. 그래픽 디자인 작업에서는 '누끼를 딴다'는 표현을 쓰는데, 배경이 있는 이미지에서 필요한 피사체만을 포토샵 등으로 잘라내는 작업, 즉 필요한 오브젝트(object)만 남겨두고 배경 이미지를 없애는 것을 '누끼'라고 한다. 여기서 말하는 '누끼 사진'이란 특정 오브젝트 외의 배경 이미지가 없는 사진을 뜻하며, 이 누끼 이미지는 사진 합성작업이나 그래픽 디자인작업에 주로 사용된다.On the other hand, nouki (ぬき) in Japanese, which means'to subtract', refers to a printing method of subtracting color from text and coloring the background, removing unnecessary parts and printing only necessary subjects. In graphic design work, we use the expression'picking up luck', and cutting out only the necessary subject from an image with a background using Photoshop or the like, that is, removing the background image while leaving only the necessary objects is called ‘lucking’. The term'nuki photo' here refers to a picture without a background image other than a specific object, and this nutty image is mainly used for photo composition work or graphic design work.

그러나 사진 이미지를 포토샵 등의 그래픽 편집 소프트웨어를 이용해 편집하여 누끼를 하는 작업은 전문적인 기술이 필요한 것은 물론, 그래픽 전문가라 하더라도 많은 시간과 노력이 필요한 작업이며, 스마트폰 등의 디지털 촬영장치로 사진을 찍는 일반적인 사용자는 고가의 그래픽 편집 소프트웨어를 가지고 있지도 않고 이를 이용한 그래픽 편집작업 역시 수행하기가 어렵다.However, editing photographic images using graphic editing software such as Photoshop requires professional skills as well as a lot of time and effort even if you are a graphic expert. The general user who shoots does not have expensive graphic editing software, and it is difficult to perform graphic editing using it.

또한, 촬영 영상을 '누끼'로 별도 가공, 편집하지 않고서는 이모티콘이나 아이콘, 디자인 합성작업 등에 디자인 소스로 사용할 수가 없기 때문에 메모장, 워드, 캘린더, 위젯, SNS 등의 어플에서 촬영한 이미지를 다양하게 활용하지 못할뿐더러 핸드폰에서의 사진 합성작업들이 일반화되지 못하고 있다.In addition, since the recorded video cannot be used as a design source for emoticons, icons, and design synthesis without separate processing and editing, it is possible to use various images taken in applications such as notepad, word, calendar, widget, and SNS. Not only is it not available, and photo compositing work on mobile phones is not generalized.

특히 현재 존재하는 사물과 현상을 '있는 그대로 재현'하는 카메라의 속성과 고정관념, 이를 기반으로 발전한 현재의 기술은 이미지를 가공하거나 과거의 이미지와 현재의 이미지를 추가 합성하여 또다른 이미지를 창작하여 사진이 새로운 영역으로 발전하는 데에 저해요인으로 작용하고 있다. 이는 '기록'이라는 한계를 뛰어넘지 못하고 '실사(實寫)' 위주로 발전해온 사진에 상상력을 결합시키지 못하고 있으며, 현재에는 사진 이미지의 칼라만 바꿔주는 정도의 기술에 머물고 있다.In particular, the camera's properties and stereotypes that'reproduce' existing objects and phenomena as they are, and the current technology developed based on this, create another image by processing an image or adding an image of the past and the present. Photography is acting as an impediment to the development of a new area. This does not go beyond the limit of'records' and does not combine imagination with photographs that have been developed mainly for'real-life pictures', and at present, it is limited to a technology that only changes the color of photographic images.

본 발명은 상기와 같은 종래 기술의 문제점을 해소하기 위한 것으로, 디지털 촬영장치에서 사진 촬영 후에 별도의 편집 과정 없이 손쉽게 사용자가 원하는 오브젝트만을 누끼 사진(배경 이미지가 없는 상태의 사진)으로 실시간 촬영할 수 있도록 하는 영상 촬영 방법을 제공하기 위한 것이다.The present invention is to solve the problems of the prior art as described above, so that after taking a picture in a digital photographing device, a user can easily take a picture of an object desired by a user in real time (a picture without a background image) without a separate editing process. It is to provide a video recording method.

또한, 본 발명은 디지털 촬영장치에서 사진 촬영 후에 별도의 편집 과정 없이 각 오브젝트의 윤곽을 손쉽게 파악한 후, 사용자가 원하는 오브젝트들을 선별하여 포함시킨 사진을 실시간으로 촬영할 수 있도록 하는 영상 촬영 방법을 제공하기 위한 것이다.In addition, the present invention is to provide an image capturing method in which a digital photographing apparatus can easily grasp the outline of each object without a separate editing process after taking a picture, and then select and include the desired objects in real time. will be.

또한, 본 발명은 카메라로 촬영되는 영상에서 배경 등 사용자가 원하지 않는 부분 영상을 소거하고, 소거된 배경 부분에 다른 촬영 이미지나 그래픽 이미지, 컬러 배경 등을 합성하여 실시간 영상 촬영하는 방법을 제공하기 위한 것이다.In addition, the present invention is to provide a method of erasing a partial image that the user does not want, such as a background, from an image photographed by a camera, and synthesizing other photographed images, graphic images, and color backgrounds to the erased background portion to take a real-time image will be.

또한, 본 발명은 후방 카메라로 촬영되는 영상에서 배경 등 사용자가 원하지 않는 부분 영상을 소거하고 전방 카메라로 촬영한 이미지에 합성할 수 있는 영상 촬영 방법을 제공하기 위한 것이다.In addition, the present invention is to provide an image capturing method capable of erasing a partial image that a user does not want, such as a background, from an image captured by a rear camera and combining it with an image captured by the front camera.

또한, 본 발명은 기저장되어 있거나 실시간 다운로드 받아 독출한 누끼 이미지와 합성된 사진을 실시간으로 촬영할 수 있는 영상 촬영 방법을 제공하기 위한 것이다.In addition, the present invention is to provide an image capturing method capable of capturing in real time a picture synthesized with an image that is previously stored or downloaded and read out in real time.

상기와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법은, 사용자로부터 사진 촬영이 요청되면, 복수의 카메라를 통해 촬영되는 복수의 영상을 분석하여 깊이맵을 생성하는 단계와; 상기 깊이맵을 이용하여 영상을 구성하는 하나 이상의 부분 영상을 판별하는 단계와; 디지털 촬영장치의 화면에 디스플레이된 주영상 위에, 상기 하나 이상의 부분 영상을 구분하여 선택할 수 있는 사용자 인터페이스를 라이브뷰 영상으로 디스플레이하는 단계와; 상기 사용자 인터페이스를 통한 사용자의 입력을 수신하는 단계와; 상기 사용자로부터 사진 저장이 요청되면, 상기 사용자 인터페이스를 통한 사용자의 입력에 따라 상기 주영상에서 선택 배제된 부분 영상이 삭제된 사진을 새로운 주영상으로 생성하여 저장부에 저장하는 단계;를 포함할 수 있다.In order to achieve the above object, according to an embodiment of the present invention, a method for taking a picture of a nouki and taking a composite picture using the same, when a user requests to take a picture, analyzes a plurality of images taken through a plurality of cameras. Generating a depth map; Determining one or more partial images constituting an image using the depth map; Displaying, as a live view image, a user interface for dividing and selecting the one or more partial images on the main image displayed on the screen of the digital photographing apparatus; Receiving a user's input through the user interface; And when the user requests to store the photo, generating a photo from which the partial image selected and excluded from the main image has been deleted as a new main image and storing it in a storage unit according to the user's input through the user interface. have.

상기 저장 단계는, 상기 선택 배제된 부분 영상이 삭제된 사진과 상기 사용자에 의해 선택된 다른 영상을 합성한 사진을 주영상으로 저장하는 단계;를 포함할 수 있다.The storing may include storing, as a main image, a photo obtained by combining a photo from which the selected-excluded partial image is deleted and another image selected by the user.

상기 저장 단계는, 상기 선택 배제된 부분 영상이 삭제된 사진과 단말의 전방 카메라를 통해 촬영된 영상을 합성한 사진을 주영상으로 저장하는 단계;를 포함할 수 있다.The storing may include storing, as a main image, a photo obtained by combining a photo from which the selected-excluded partial image is deleted and an image captured by a front camera of the terminal.

상기 저장 단계는, 상기 사용자에 의해 선택되지 않은 부분 영상까지 포함하는 오리지널 주영상을 상기 새로운 주영상의 레이어로 함께 저장하는 단계;를 포함할 수 있다.The storing step may include storing an original main image including even a partial image not selected by the user as a layer of the new main image.

상기 깊이맵 생성 단계는, 상기 복수의 카메라가 다른 화각을 가지는 경우, 상기 복수의 카메라를 통해 촬영되는 복수의 영상에 포함되는 동일 오브젝트의 가로 또는 세로 크기가 동일해지도록 광각 카메라에 의해 촬영되는 영상을 크롭한 후에 상기 복수의 영상 내 동일 오브젝트들 간의 이격 거리를 파악하는 단계;를 포함할 수 있다.In the step of generating the depth map, when the plurality of cameras have different angles of view, an image photographed by a wide-angle camera so that the horizontal or vertical size of the same object included in the plurality of images photographed through the plurality of cameras is the same. And determining a separation distance between the same objects in the plurality of images after cropping.

상기 촬영 방법은, 상기 사용자에 의해 선택 배제된 부분 영상이 삭제된 누끼 이미지를 상기 저장부로부터 독출하여 디스플레이하는 단계와; 상기 복수의 카메라 중 하나로 촬영되는 영상을 상기 디스플레이된 누끼 영상의 배경 이미지로 합성한 사진을 획득하는 단계;를 더 포함할 수 있다.The photographing method includes the steps of reading out and displaying a Noki image from the storage unit from which the partial image selected and excluded by the user has been deleted; The method may further include obtaining a photo obtained by synthesizing an image captured by one of the plurality of cameras into a background image of the displayed Nuki image.

상기 촬영 방법은, 상기 사용자로부터 사진 촬영이 요청되면, 촬영이 요청된 장소의 위치 정보와 매칭된 누끼 이미지를 서버로부터 다운로드하여 디스플레이하는 단계와; 상기 복수의 카메라 중 하나로 촬영되는 영상을 상기 디스플레이된 누끼 영상의 배경 이미지로 합성한 사진을 획득하는 단계;를 더 포함할 수 있다.The photographing method includes the steps of, when a photographing is requested from the user, downloading and displaying a noki image matched with location information of a location where photographing is requested from a server; The method may further include obtaining a photo obtained by synthesizing an image captured by one of the plurality of cameras into a background image of the displayed Nuki image.

상기 촬영 방법은, 상기 사용자 인터페이스를 통해 선택된 복수의 부분 영상에서 피사체의 얼굴을 인식하고 인식된 얼굴의 크기와 이미지 정보가 서로 유사하도록 상기 선택된 부분 영상들의 크기와 이미지의 톤과 색상, 명암을 자동으로 조정하는 단계;를 더 포함할 수 있다.The photographing method automatically recognizes a face of a subject from a plurality of partial images selected through the user interface, and automatically adjusts the size of the selected partial images, the tone, color, and contrast of the images so that the size of the recognized face and image information are similar to each other. The step of adjusting to; may further include.

본 발명에 의하면, 디지털 촬영장치에서 사진 촬영 후에 별도의 편집 과정 없이, 사용자가 원하는 오브젝트를 누끼 사진으로 실시간 촬영할 수 있다.According to the present invention, after taking a picture in a digital photographing apparatus, without a separate editing process, an object desired by a user can be photographed in real time.

또한, 본 발명에 의하면 디지털 촬영장치에서 사진 촬영 후에 별도의 편집 과정 없이 각 오브젝트의 윤곽을 파악하고 사용자가 원하는 오브젝트만을 선택하여 포함시킨 사진을 실시간으로 촬영할 수 있다.In addition, according to the present invention, after taking a picture in the digital photographing apparatus, the outline of each object can be grasped without a separate editing process, and a picture including only the object desired by the user can be taken in real time.

또한, 본 발명에 의하면 후방 카메라로 촬영되는 영상에서 배경 등 사용자가 원하지 않는 부분 영상을 소거하고, 소거된 배경 부분에 다른 촬영 이미지나 그래픽 이미지, 컬러 등을 합성하여 실시간으로 촬영할 수 있다.In addition, according to the present invention, a partial image that the user does not want, such as a background, may be erased from an image photographed by a rear camera, and other photographed images, graphic images, and colors may be combined with the erased background portion to take a picture in real time.

또한, 본 발명에 의하면 후방 카메라로 촬영되는 영상에서 배경 등 사용자가 원하지 않는 부분 영상을 소거하고 전방 카메라로 촬영한 이미지에 합성한 사진을 실시간으로 촬영할 수 있다.In addition, according to the present invention, a partial image that the user does not want, such as a background, can be erased from an image captured by the rear camera, and a photo synthesized with an image captured by the front camera can be captured in real time.

또한, 본 발명에 의하면 기저장되어 있거나 실시간 다운로드 받아 독출한 누끼 이미지와 합성된 사진을 손쉽게 촬영할 수 있다.In addition, according to the present invention, it is possible to easily take a picture synthesized with an image that is pre-stored or downloaded and read in real time.

도 1은 본 발명의 일 실시예에 따른 디지털 촬영장치의 구조를 설명하기 위한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 디지털 촬영장치의 카메라 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 디지털 촬영장치에서 실시간으로 영상을 합성하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 디지털 촬영장치의 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따라 화각이 동일한 2개의 카메라로 피사체들을 촬영한 영상을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라 화각이 서로 다른 2개의 카메라로 피사체들을 촬영한 영상을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 사용자 인터페이스와 사용자가 원하는 부분 영상을 선택 또는 배제하는 화면을 예시한 것이다.
도 8은 본 발명의 일 실시예에 따라 촬영 영상을 선편집하는 화면을 예시한 것이다.
도 9는 본 발명의 일 실시예에 따라 전방 카메라를 포함하는 복수의 카메라로 사진을 촬영하는 동작을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따라 전방 카메라로 촬영한 영상과 후방 카메라로 촬영한 영상을 합성하는 화면을 예시한 것이다.
도 11은 본 발명의 일 실시예에 따라 배경이 없는 누끼 이미지를 독출하여 디스플레이한 후 합성 촬영하는 화면을 예시한 것이다.
1 is a block diagram illustrating the structure of a digital photographing apparatus according to an embodiment of the present invention.
2 is a view for explaining a camera configuration of a digital photographing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a method of synthesizing an image in real time in a digital photographing apparatus according to an embodiment of the present invention.
4 is a view for explaining the operation of the digital photographing apparatus according to an embodiment of the present invention.
5 is a view for explaining an image photographed by two cameras having the same angle of view according to an embodiment of the present invention.
6 is a view for explaining an image captured by two cameras having different angles of view according to an embodiment of the present invention.
7 is a diagram illustrating a user interface and a screen for selecting or excluding a partial image desired by a user according to an embodiment of the present invention.
8 illustrates a screen for pre-editing a captured image according to an embodiment of the present invention.
9 is a view for explaining an operation of taking a picture with a plurality of cameras including a front camera according to an embodiment of the present invention.
10 illustrates a screen for synthesizing an image captured by a front camera and an image captured by a rear camera according to an embodiment of the present invention.
FIG. 11 is a diagram illustrating a screen for synthesizing photographing after reading and displaying a nouki image without a background according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in the present specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. Terms used in the present invention have selected general terms that are currently widely used as possible while taking functions of the present invention into consideration, but this may vary according to the intention or precedent of a technician working in the field, the emergence of new technologies, and the like. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning of the terms will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall contents of the present invention, not a simple name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...수단", "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part of the specification is said to "include" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary. In addition, terms such as "...means", "...units", and "modules" described in the specification mean a unit that processes at least one function or operation, which is implemented in hardware or software, or is implemented in hardware and software. It can be implemented by a combination of.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 본 발명의 일 실시예에 따른 디지털 촬영장치의 구조를 설명하기 위한 블록도이다.1 is a block diagram illustrating the structure of a digital photographing apparatus according to an embodiment of the present invention.

도 1을 참조하면, 디지털 촬영장치(100)는 카메라(110), 프로세서(120), 디스플레이(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 1, the digital photographing apparatus 100 may include a camera 110, a processor 120, a display 130, and a memory 140.

디지털 촬영장치(100)는 스마트폰, 태블릿PC, 카메라 및 웨어러블 장치(wearable device) 등을 포함할 수 있다. 그러나 디지털 촬영장치(100)는 이에 한정되지 않고, 렌즈 및 이미지센서를 포함하여 피사체를 촬영하여 이미지를 생성할 수 있는 장치라면 어느 것이든 포함할 수 있다.The digital photographing apparatus 100 may include a smartphone, a tablet PC, a camera, and a wearable device. However, the digital photographing apparatus 100 is not limited thereto, and may include any device including a lens and an image sensor capable of photographing a subject and generating an image.

카메라(110)는 복수의 카메라를 포함할 수 있다. 여기서 카메라는 적어도 하나의 렌즈 및 이미지센서를 포함하고, 이미지센서를 통해 이미지 신호를 획득하는 구성 요소를 말한다. 도 1에서는 3개의 카메라가 구비되는 것으로 도시되어 있으나 이에 한정되는 것은 아니며, 2개 또는 그 이상의 카메라가 구비된 디지털 촬영장치에 본 발명의 영상 촬영 방법이 구현될 수 있다.The camera 110 may include a plurality of cameras. Here, the camera refers to a component that includes at least one lens and an image sensor, and acquires an image signal through the image sensor. In FIG. 1, it is shown that three cameras are provided, but the present invention is not limited thereto, and the image capturing method of the present invention may be implemented in a digital photographing apparatus provided with two or more cameras.

일 실시예에서 카메라(110)는 후방 카메라인 제1 카메라(111) 및 제2 카메라(112)를 포함하며, 다른 실시예에서는 전방 카메라인 제3 카메라(113)를 추가로 포함할 수 있다.In one embodiment, the camera 110 includes a first camera 111 and a second camera 112 as a rear camera, and in another embodiment may additionally include a third camera 113 as a front camera.

일 실시예에서 제1 카메라(111)와 제2 카메라(112)는 화각이 서로 다른 렌즈를 구비한 카메라일 수 있다. 예를 들어, 제1 카메라(111)는 광각렌즈를 구비하여 주피사체를 포함하는 광각 영상을 획득할 수 있는 광각 카메라이고, 제2 카메라는 망원렌즈를 구비한 망원 카메라일 수 있다. 다른 실시예에서 후방 카메라인 제1 카메라(111)와 제2 카메라(112)는 화각이 동일한 렌즈를 구비한 카메라일 수 있다. 또한, 제1 카메라(111)는 컬러 이미지를, 제2 카메라(112)는 흑백 이미지(black and white photo)를 촬영하는 카메라일 수 있다.In an embodiment, the first camera 111 and the second camera 112 may be cameras having lenses having different angles of view. For example, the first camera 111 may be a wide-angle camera having a wide-angle lens to obtain a wide-angle image including a main subject, and the second camera may be a telephoto camera having a telephoto lens. In another embodiment, the first camera 111 and the second camera 112, which are rear cameras, may be cameras having lenses having the same angle of view. Also, the first camera 111 may be a camera that photographs a color image, and the second camera 112 may be a camera that photographs a black and white photo.

프로세서(120)는 프로세서(120)에 연결된 카메라(110), 디스플레이(130) 및 메모리(140) 등을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 예를 들면, SoC(system on chip)로 구현될 수 있다. 프로세서(120)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다.The processor 120 may control the camera 110, the display 130, and the memory 140 connected to the processor 120, and may perform various data processing and operations. The processor 120 may be implemented as, for example, a system on chip (SoC). The processor 120 may further include a graphic processing unit (GPU) and/or an image signal processor.

프로세서(120)는 제1 카메라(111) 및 제2 카메라(112)를 통해 촬영되는 복수의 영상에 기초하여 영상에 포함되는 오브젝트(object; 피사체)들의 깊이 정보를 획득하고 이를 이용해 깊이맵(depth map)을 생성할 수 있다.The processor 120 acquires depth information of objects included in the image based on a plurality of images captured by the first camera 111 and the second camera 112, and uses the depth map. map).

또한, 프로세서(120)는 영상의 글로벌 모션 및 로컬 모션에 대한 정보를 획득할 수 있다. 이에 따라, 프로세서(120)는 영상 내에서 주피사체의 움직임 또는 손떨림에 따른 흔들림(blur)을 보정한 후에 깊이맵을 획득할 수 있다.In addition, the processor 120 may obtain information on a global motion and a local motion of an image. Accordingly, the processor 120 may obtain the depth map after correcting the motion of the main subject in the image or blur due to hand shake.

프로세서(120)는 복수의 카메라(110)를 통해 촬영되는 영상들 중 하나를 주영상으로 결정하거나 복수의 영상들을 이용하여 생성한 영상을 주영상으로 결정하고, 상기에서 획득한 깊이맵에 기초하여 주영상을 구성하는 하나 이상의 부분 영상(각 오브젝트, 배경 등)을 구분하여 판별할 수 있다.The processor 120 determines one of the images captured by the plurality of cameras 110 as the main image, or an image generated by using the plurality of images as the main image, and based on the depth map acquired above. One or more partial images (each object, background, etc.) constituting the main image may be distinguished and identified.

프로세서(120)는 디스플레이(130)를 제어하여 주영상을 라이브뷰(live view) 영상으로 디스플레이할 수 있다. 또한, 프로세서(120)는 주영상을 구성하는 부분 영상들을 구분하고 사용자가 원하는 부분 영상을 선택하거나 삭제할 수 있도록 지원하는 사용자 인터페이스를 주영상 위에 중첩하여 디스플레이할 수 있다.The processor 120 may control the display 130 to display the main image as a live view image. In addition, the processor 120 may display a user interface that divides partial images constituting the main image and allows a user to select or delete a desired partial image by overlapping the user interface on the main image.

메모리(140)는 내장메모리 또는 외장메모리를 포함할 수 있다. 메모리(140)는 프로세서(120)의 제어에 따라 주영상을 저장할 수 있는 저장부이며, 상기 사용자 인터페이스를 통해 선(先)편집된 영상을 촬영버튼 클릭시 주영상으로 저장한다. 또한, 프로세서(120)의 제어에 따라 편집 후의 주영상에 더하여 오리지널 주영상을 레이어로 함께 저장할 수 있다.The memory 140 may include an internal memory or an external memory. The memory 140 is a storage unit capable of storing the main image under the control of the processor 120, and stores the pre-edited image through the user interface as the main image when a photographing button is clicked. In addition, the original main image may be stored as a layer in addition to the edited main image under the control of the processor 120.

프로세서(120)는 본 발명의 다양한 실시예에 따른 이미지 촬영 방법을 수행하기 위해 메모리(140)에 저장된 전용 애플리케이션을 실행할 수 있으며, 아래 도 2 내지 도 11을 참조하여 전용 애플리케이션이 수행하는 이미지 촬영 방법을 설명하기로 한다.The processor 120 may execute a dedicated application stored in the memory 140 to perform an image capturing method according to various embodiments of the present invention, and an image capturing method performed by a dedicated application with reference to FIGS. 2 to 11 below. Let's explain.

도 2는 본 발명의 일 실시예에 따른 디지털 촬영장치의 카메라 구성을 설명하기 위한 도면이다.2 is a view for explaining a camera configuration of a digital photographing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 디지털 촬영장치는 후면부에 2개의 후방 카메라(210, 220)를 구비하고 전면부에 1개의 전방 카메라(230)를 구비할 수 있으며, 프로세서가 실행하는 전용 애플리케이션의 제어에 따라 이들 카메라(210, 220, 230) 중 적어도 2개의 카메라가 촬영한 영상을 이용하여 사용자가 원하는 사진을 획득하도록 한다.Referring to FIG. 2, the digital photographing apparatus may include two rear cameras 210 and 220 on the rear side and one front camera 230 on the front side, according to the control of a dedicated application executed by the processor. At least two of these cameras 210, 220, and 230 are used to obtain a desired photo by using images captured by at least two cameras.

디지털 촬영장치는 복수의 후방 카메라(210, 220)가 촬영한 영상에서 동일 객체의 좌표 차이를 이용하여 깊이(depth)를 판정하고 깊이에 따라 각 오브젝트와 배경을 나눈 다음, 촬영된 영상을 주영상으로 메모리에 저장하기 전에 사용자의 편집 입력을 수신하기 위한 사용자 인터페이스를 디스플레이하고, 사용자의 의도에 따라 수정된 사진을 획득하도록 제어할 수 있다.The digital photographing apparatus determines the depth by using the difference in coordinates of the same object in the images captured by the plurality of rear cameras 210 and 220, divides each object and the background according to the depth, and then converts the captured image to the main image. It is possible to display a user interface for receiving an edit input from a user before storing it in the memory, and control to obtain a photo modified according to the user's intention.

이때 배경이나 일부 오브젝트를 삭제한 이미지나 복수의 영상을 합성한 이미지를 실시간으로 사용자에게 보여준 후에 저장하므로, 별도의 후(後)편집 과정 없이 배경을 없앤 누끼 사진이나 합성사진을 직접 확인하면서 실시간으로 촬영할 수 있다.At this time, the background or the image of which some objects have been deleted, or the combined image of a plurality of videos are saved after showing to the user in real time.Therefore, without a separate post-editing process, you can directly check the noki photo or composite photo with the background removed in real time. You can shoot.

일 실시예에서, 디지털 촬영장치는 후방 카메라(210, 220)를 통해 촬영된 영상에서 사용자 선택에 따라 배경이나 일부 오브젝트를 삭제하거나 기저장된 영상으로 대체할 수 있다. 이에 따라, 사용자는 배경이 없는 누끼 사진을 촬영하거나 자신이 선택한 오브젝트만 남겨놓고 나머지 오브젝트는 제거된 사진을 촬영할 수 있다. 또는, 사용자가 선택한 오브젝트에 기저장된 다른 배경 이미지와 실시간으로 합성한 사진을 획득할 수 있다.In an embodiment, the digital photographing apparatus may delete a background or some objects from an image photographed through the rear cameras 210 and 220 according to a user's selection, or may replace a pre-stored image. Accordingly, the user may take a picture of a nouki without a background, or take a picture from which only the object selected by the user is left and the remaining objects are removed. Alternatively, a photo synthesized in real time with another background image previously stored in the object selected by the user may be obtained.

일 실시예에서, 디지털 촬영장치는 후방 카메라(210, 220)를 통해 촬영된 영상에서 사용자가 선택한 오브젝트만 포함되도록 선편집한 영상을 전방 카메라(230)를 통해 촬영한 영상과 실시간으로 합성할 수 있다.In one embodiment, the digital photographing apparatus may synthesize, in real time, a pre-edited image to include only the object selected by the user from the image photographed through the rear cameras 210 and 220 with the image photographed through the front camera 230. have.

도 3은 본 발명의 일 실시예에 따른 디지털 촬영장치에서 실시간으로 영상을 촬영하는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method of capturing an image in real time in a digital photographing apparatus according to an embodiment of the present invention.

단계 S31에서는 복수의 카메라를 구비하는 디지털 촬영장치의 사용자로부터 사진 촬영 요청이 수신된다. 사진 촬영 요청은 카메라 준비에 대응하며, 사용자가 카메라 아이콘을 선택하거나 전용 애플리케이션을 통해 사진 촬영을 준비하도록 요청하면, 복수의 후방 카메라로부터 각각 영상이 촬영된다. 복수의 후방 카메라를 통해 촬영되는 복수의 영상 중 하나 또는 복수의 영상을 기초로 생성된 영상이 주영상으로 결정되며 사용자의 입력에 따른 영상 합성을 위한 이하의 단계가 수행될 것이다.In step S31, a photo-taking request is received from a user of a digital photographing apparatus having a plurality of cameras. The photo capture request corresponds to camera preparation, and when a user selects a camera icon or requests to prepare a photo through a dedicated application, an image is captured from each of the plurality of rear cameras. An image generated based on one or a plurality of images captured through a plurality of rear cameras is determined as the main image, and the following steps for image synthesis according to a user's input will be performed.

단계 S32에서는, 복수의 카메라를 통해 촬영되는 복수의 영상을 분석하여 깊이맵을 생성한다. 스테레오 영상 및 히스토그램, 픽셀값, 기타 물리적 방법 등을 이용하여 피사체의 거리 정보를 검출하고 이를 이용하여 깊이맵을 생성할 수 있다. 깊이맵 영상은 두 시점 이상의 카메라를 이용해 획득하는 패시브 뎁쓰 센싱(passive depth sensing)과 스테레오 매칭(stereo matching) 등을 통해 획득할 수 있다.In step S32, a depth map is generated by analyzing a plurality of images captured by a plurality of cameras. The distance information of the subject may be detected using a stereo image, histogram, pixel value, and other physical methods, and a depth map may be generated using this. The depth map image may be acquired through passive depth sensing and stereo matching acquired using two or more cameras.

예컨대, 2개의 카메라로부터 획득되는 스테레오 영상을 이용하는 스테레오 매칭은, 제1 카메라로부터 주피사체를 포함하는 광각 영상을 획득하고 제2 카메라로부터 주피사체를 줌(zoom)한 망원 영상을 획득한다. 이들 광각 영상 및 망원 영상에 기초하여 주피사체의 거리 정보를 검출하고 거리 정보에 기초하여 깊이맵을 생성한다.For example, in stereo matching using stereo images obtained from two cameras, a wide-angle image including a main subject is obtained from a first camera and a telephoto image obtained by zooming a main subject from a second camera is obtained. The distance information of the main subject is detected based on these wide-angle and telephoto images, and a depth map is generated based on the distance information.

도 4는 본 발명의 일 실시예에 따른 디지털 촬영장치의 동작을 설명하기 위한 도면이다.4 is a view for explaining the operation of the digital photographing apparatus according to an embodiment of the present invention.

도 4를 참조하면, 복수의 후방 카메라(410, 420)는 일정 간격 이격되어 있기 때문에 이들 카메라의 촬영 영상을 이용해 피사체(430)인 오브젝트들의 위치(거리)를 더 정확히 파악할 수 있게 된다.Referring to FIG. 4, since the plurality of rear cameras 410 and 420 are spaced apart by a predetermined interval, the positions (distances) of the objects, which are the subject 430, can be more accurately identified using images captured by these cameras.

단계 S33에서는, 깊이맵을 이용하여 전체 영상을 구성하는 하나 이상의 부분 영상을 판별한다. 부분 영상은 배경, 오브젝트(피사체) 등을 포함할 수 있다. 각 오브젝트나 배경의 구분은 기본적으로 깊이맵을 이용하여 수행될 수 있으나, 밝기값, 컬러값, 대비(contrast)값, 네거티브 이미지(negative image) 및 흑백 이미지 정보 등을 보조 지표로 사용하여 정밀도를 높일 수 있다. 즉, 피사체들이 일정 거리 이상 서로 근접해 있어 깊이맵만으로는 외곽선 구분이 불분명한 경우, 각 피사체의 색상 정보, 밝기 정보 등을 조합ㆍ이용하여 외곽선을 추출할 수 있으며, 이때 발생되는 피사체 각각의 잡음을 제거(손실 보정)함으로써 각 오브젝트별 영상의 외곽 형태를 더 정확히 구분지을 수 있게 된다.In step S33, one or more partial images constituting the entire image are determined using the depth map. The partial image may include a background, an object (subject), and the like. Classification of each object or background can be basically performed using a depth map, but accuracy is improved by using brightness values, color values, contrast values, negative images, and black and white image information as auxiliary indicators. You can increase it. In other words, when subjects are close to each other by a certain distance or more, and it is not clear to distinguish the outlines using only the depth map, the outlines can be extracted by combining and using the color information and brightness information of each subject, and noise of each subject generated at this time is removed. By (loss correction), it is possible to more accurately distinguish the outer shape of the image for each object.

도 5는 본 발명의 일 실시예에 따라 화각이 동일한 2개의 카메라로 피사체들을 촬영한 영상을 설명하기 위한 도면이다.5 is a view for explaining an image photographed by two cameras having the same angle of view according to an embodiment of the present invention.

좌우 이미지에서의 이격 거리 차이 비교를 통해 동일한 부분은 배경으로, 픽셀 차이가 근소한 것은 멀리 있는 오브젝트로, 픽셀 차이가 큰 것은 가까이 있는 오브젝트로 판정할 수 있다. 이때 픽셀 차이가 임계값 이내로 비슷한 것들은 동일한 오브젝트로 판단할 수 있다.By comparing the distance difference between the left and right images, the same portion may be determined as a background, a small pixel difference may be determined as a distant object, and a large pixel difference may be determined as a nearby object. At this time, those with a similar pixel difference within a threshold value may be determined as the same object.

도 6은 본 발명의 일 실시예에 따라 화각이 서로 다른 2개의 카메라로 피사체들을 촬영한 영상을 설명하기 위한 도면이다.6 is a view for explaining an image captured by two cameras having different angles of view according to an embodiment of the present invention.

카메라들의 화각이 다른 경우는 각각의 영상을 비교하여 깊이맵을 생성하기 전에 광각으로 촬영한 영상을 다른 영상의 크기에 맞도록 크롭(crop)할 수 있다. 도 6을 참조하면, (a)의 영상은 광각 카메라를 통해 촬영한 것이므로 (b) 영상 내의 오브젝트와 크기가 동일해지도록 (a) 영상의 일부(600)를 크롭한 후에 크롭한 부분의 영상(600)과 (b) 영상을 비교 분석하여 깊이맵을 생성한다.When the angles of view of the cameras are different, an image captured at a wide angle may be cropped to fit the size of another image before generating a depth map by comparing each image. Referring to FIG. 6, since the image in (a) was photographed through a wide-angle camera, (b) the image of the cropped part (a) after cropping a part 600 of the image (a) so that the size of the object in the image is the same ( 600) and (b) images are compared and analyzed to generate a depth map.

일 실시예에서, 본 발명의 영상 합성 방법을 수행하는 전용 애플리케이션은 카메라 렌즈의 기본 배열 방향 정보와, 사진 촬영시 가로 그립(grip) 촬영인지 세로 그립 촬영인지에 대한 정보를 수집한다. 카메라 렌즈가 단말에 좌우로 배열되어 있으면 디폴트 값을 좌우 배열로 설정하고, 사진 촬영시 중력센서에 의해 세로로 찍고 있는지 가로로 찍고 있는지에 따라 오브젝트간 이격 픽셀을 가로로 카운트할지, 세로로 카운트할지 결정할 수 있다.In one embodiment, the dedicated application for performing the image synthesis method of the present invention collects information on the basic arrangement direction of camera lenses and information on whether to take a horizontal grip or a vertical grip when taking a picture. If the camera lens is arranged left and right on the terminal, the default value is set to the left and right arrangement, and depending on whether the photo is taken vertically or horizontally by the gravity sensor, whether to count the pixels spaced between objects horizontally or vertically. You can decide.

이와 같은 방법으로, 깊이(depth)에 따라 각 오브젝트의 윤곽을 구분하여 획득할 수 있으며, 배경 부분도 구분하여 획득할 수 있다. 이처럼 영상에서 구분된 각 오브젝트나 배경은 영상의 부분 영상들로서, 사용자에 의해 선택 또는 배제될 수 있다.In this way, it is possible to obtain the outline of each object by dividing it according to the depth, and to obtain a background part by dividing it. As described above, each object or background classified in the image is partial images of the image, and may be selected or excluded by the user.

도 3의 단계 S34에서는, 디지털 촬영장치의 화면에 디스플레이된 주영상 위에, 부분 영상들을 구분하고 선택할 수 있는 사용자 인터페이스를 표시한다. 이때 주영상과 그 위에 오버레이된 사용자 인터페이스는 라이브뷰 영상으로 디스플레이될 수 있다.In step S34 of FIG. 3, a user interface for classifying and selecting partial images is displayed on the main image displayed on the screen of the digital photographing apparatus. In this case, the main image and the user interface overlaid thereon may be displayed as a live view image.

사용자 인터페이스는 각 부분 영상의 윤곽선을 포함하고 사용자가 원하는 부분 영상을 선택(select) 또는 선택 배제(unselect)하였을 경우 사용자가 터치한 지점에 대응하는 오브젝트 또는 배경 전체가 윤곽선을 기준으로 선택 또는 선택 배제되어 소거되는 모습을 보여줄 것이다.The user interface includes the outline of each partial image, and when the user selects or unselects the desired partial image, the entire background or object corresponding to the point touched by the user is selected or excluded based on the outline. It will show the appearance of being erased.

도 3의 단계 S35에서는, 상기 사용자 인터페이스를 통해 사용자로부터 편집 입력을 수신한다. 사용자는 주영상 위에 표시되는 배경과 오브젝트들 가운데 원하는 것을 하나 이상 선택 또는 선택 배제할 수 있으며, 사용자의 입력에 따라 실시간으로 부분 영상의 선택 또는 소거를 반영하여 화면의 이미지를 동적으로 변경한다. 즉, 본 발명에서는 주영상, 깊이맵, 윤곽선 영상, 누끼 영상, 누끼 영상의 합성 영상, 배경 영상 등을 라이브뷰 영상으로 디스플레이할 수 있다.In step S35 of FIG. 3, an edit input is received from a user through the user interface. The user may select or exclude one or more of the background and objects displayed on the main image, and dynamically change the image on the screen by reflecting the selection or deletion of the partial image in real time according to the user's input. That is, in the present invention, the main image, the depth map, the outline image, the noki image, the composite image of the noki image, and the background image may be displayed as a live view image.

한편, 사용자 인터페이스를 통해 선택된 복수의 부분 영상에서 피사체의 얼굴을 인식하고 인식된 얼굴의 크기가 서로 유사하도록 선택된 부분 영상들의 크기를 자동으로 조정하여 디스플레이할 수 있다. 예를 들어, 사용자가 사람의 모습과 레고 인형을 선택했는데 사람의 얼굴 크기와 레고 인형의 얼굴 크기가 다른 경우 레고 인형을 확대하거나 사람의 모습을 축소하여 두 피사체의 비율을 자동으로 맞춰줄 수 있다.Meanwhile, a face of a subject may be recognized from a plurality of partial images selected through the user interface, and the sizes of the selected partial images may be automatically adjusted and displayed so that the recognized face sizes are similar to each other. For example, if the user selects a human figure and a Lego doll, but the human face size and the face size of the Lego doll are different, the ratio of the two subjects can be automatically adjusted by enlarging the Lego doll or reducing the figure of the person. .

도 7은 본 발명의 일 실시예에 따른 사용자 인터페이스와 사용자가 원하는 부분 영상을 선택 또는 배제하는 화면을 예시한 것이다.7 is a diagram illustrating a user interface and a screen for selecting or excluding a partial image desired by a user according to an embodiment of the present invention.

도 7을 참조하면, 각 오브젝트의 윤곽선을 표시하여 사용자로 하여금 선택 가능한 부분 영상들(710, 720, 730, 740)을 구분할 수 있도록 하고 사용자의 터치 입력에 따라 원하는 오브젝트나 배경을 선택하거나 소거할 수 있는 사용자 인터페이스가 주영상 위에 표시된다. 본 예시에서는 사용자 인터페이스의 부분 영상을 각 오브젝트의 윤곽선으로 표시하였지만, 각 오브젝트들을 색상이나 명암, 블러, 텍스츄어 등의 차이로 표시할 수 있다.Referring to FIG. 7, the outline of each object is displayed so that the user can distinguish selectable partial images 710, 720, 730, and 740, and the desired object or background can be selected or deleted according to the user's touch input. The user interface that can be used is displayed above the main image. In this example, a partial image of the user interface is displayed as an outline of each object, but each object may be displayed with a difference in color, contrast, blur, or texture.

전용 애플리케이션은 소정의 오브젝트 위에서 제1 사용자 입력(예: 710 터치)을 수신하면 해당 오브젝트를 선택하여 최종 주영상에 포함되며, 소정의 오브젝트 위에서 제2 사용자 입력(예: 720 터치)을 수신하면 해당 오브젝트가 최종 주영상에 포함되며 나머지 오브젝트 및 배경은 삭제된다. 이때 사용자의 선택 및 선택 배제가 화면의 영상에 실시간으로 반영되어 선편집 상황을 사용자가 직관적으로 알 수 있도록 할 수 있다.When the dedicated application receives a first user input (e.g., 710 touch) on a predetermined object, the object is selected and included in the final main image, and when a second user input (e.g., 720 touch) is received on a predetermined object, the corresponding The object is included in the final main image, and the remaining objects and background are deleted. At this time, the user's selection and selection exclusion are reflected in real time on the image of the screen so that the user can intuitively know the pre-editing situation.

또한, 사용자 인터페이스는 사용자가 선택 배제한 부분 영상의 위치에 대신 합성할 이미지를 선택할 수 있는 리스트 영역(750)을 포함할 수 있다. 예를 들어, 사용자는 배경(740)을 소거하고 리스트 영역(750)에서 기저장된 이미지를 선택하여 배경(740) 부분에 대신 들어가도록 할 수 있다.In addition, the user interface may include a list area 750 through which an image to be combined is selected instead of a position of a partial image that is excluded from selection by the user. For example, the user may erase the background 740 and select a pre-stored image from the list area 750 to enter the background 740 instead.

도 8은 본 발명의 일 실시예에 따라 촬영 영상을 선편집하는 화면을 예시한 것이다.8 illustrates a screen for pre-editing a captured image according to an embodiment of the present invention.

사용자는 주영상에 오버레이되어 표시되는 사용자 인터페이스를 통해 오브젝트를 선택하고 이를 다른 위치에 이동 배치할 수 있다. 도 8의 (a)의 예에서 사용자가 오브젝트를 드래그앤드롭(drag & drop) 입력으로 해당 오브젝트를 이동시켰음을 알 수 있다.The user can select an object through a user interface that is displayed overlaid on the main image and move it to another location. In the example of FIG. 8A, it can be seen that the user moved the object by dragging and dropping the object.

사용자는 도 8의 (b)와 같이 소정의 입력을 통해 오브젝트의 크기를 확대 또는 축소하거나 회전, 반전시킬 수 있다.As shown in (b) of FIG. 8, the user can enlarge or reduce the size of the object, rotate or invert the object through a predetermined input.

사용자는 도 8의 (c)와 같이 배경 리스트에서 새로운 배경 이미지를 선택하여 (d)에 도시된 바와 같이 소거된 배경 대신 주영상에 합성되도록 할 수 있다. 즉, 누끼된 부분 영상을 미리 저장되어 있는 영상과 합성하여 새로운 사진 파일을 생성하고 저장할 수 있다.As shown in (c) of FIG. 8, the user may select a new background image from the background list and combine it with the main image instead of the erased background as shown in (d). That is, a new photo file may be created and stored by synthesizing the spoiled partial image with a previously stored image.

사용자가 배경 이미지 대신 배경색, 그래픽 이미지 또는 패턴을 선택한 경우는 누끼된 부분 영상의 배경에 색을 입히거나, 그래픽 이미지나 패턴이 배경으로 되는 합성사진을 생성하여 저장한다. 또한, 사용자가 선택한 부분 영상에 흐리기(blur) 설정을 할 경우, 해당 부분 영상의 흐리기가 조정된 합성사진을 생성하여 저장함으로써 망원렌즈를 사용한 촬영 영상과 같은 아웃포커싱(Out of focus)이 된 사진 이미지를 획득할 수 있게 된다. 이때 사용자는 선택한 배경 이미지의 블러(blur, 흐리기) 정도와 모션 블러(motion blur), 래디얼 블러(radial blur) 등 블러 효과를 설정하여 사용자가 의도하는 적절한 아웃포커싱을 얻을 수 있으며, 이 블러 효과 외에도 배경의 색깔이나 농담, 채도, 명도 및 픽셀 크기, 텍스츄어 등을 조정하여 사용자의 의도대로 새로운 이미지의 사진을 생성할 수 있다.When a user selects a background color, graphic image, or pattern instead of a background image, a color is applied to the background of the damaged partial image, or a composite picture in which the graphic image or pattern is used as a background is created and saved. In addition, when blurring is set on a partial image selected by the user, a composite picture with the blur of the corresponding partial image adjusted is created and saved, resulting in a picture that is out of focus, similar to a shot using a telephoto lens. It becomes possible to acquire an image. At this time, the user can set the blur level of the selected background image and blur effects such as motion blur and radial blur to obtain the appropriate out-focusing that the user intends. By adjusting the color, shade, saturation, brightness, pixel size, and texture of the background, you can create a photo of a new image according to the user's intention.

도 3의 단계 S36에서는, 사용자의 사진 저장 요청을 수신한다. 사용자가 주영상과 각 부분 영상을 선택 또는 소거할 수 있는 사용자 인터페이스를 라이브뷰 형태로 표시한 화면에서 자신이 원하는 대로 선편집을 마치고 나면, 촬영 버튼을 누를 것이다. 촬영 버튼의 터치 또는 클릭은 사진 저장 요청에 해당한다.In step S36 of FIG. 3, a user's photo storage request is received. On the screen displaying the user interface in which the user can select or delete the main image and each partial image in the form of a live view, after finishing the line editing as desired, the user will press the shoot button. Touching or clicking the photographing button corresponds to a request to save a photo.

도 3의 단계 S37에서는, 촬영 버튼의 선택에 대한 응답으로 촬영된 사진이 저장된다. 이때 저장되는 사진은 화면에 디스플레이되어 있는 영상으로, 단계 S35에서의 사용자의 편집 입력에 따라 주영상으로부터 배경 및 오브젝트들 중 일부 부분 영상이 삭제된 영상이며, 이 영상을 새로운 주영상으로 생성하여 메모리에 저장한다. 피사체의 크기가 자동 조정된 경우에는 조정 후의 영상이 저장될 것이다. 새로운 주영상은 PNG(Portable Network Graphics), PSD(Photoshop Document) 등의 이미지 파일 형식으로 저장될 수 있다. 또한, 편집되기 전의 오리지널 주영상을 레이어 형식으로 새로운 주영상과 함께 저장할 수 있다.In step S37 of FIG. 3, a photograph taken in response to the selection of the photographing button is stored. At this time, the stored photo is an image displayed on the screen, in which some partial images of the background and objects have been deleted from the main image according to the user's editing input in step S35, and this image is created as a new main image and Save it to. When the size of the subject is automatically adjusted, the adjusted image will be saved. The new main image can be saved in an image file format such as PNG (Portable Network Graphics) or PSD (Photoshop Document). In addition, the original main image before being edited can be saved in a layer format together with the new main image.

이와 같이 본 발명의 일 실시예에 따르면 사진 촬영 중 영상을 확인하여 배경을 없애거나 원하지 않는 오브젝트가 삭제된 사진을 실시간으로 촬영하여 저장하는 것이 가능하다.As described above, according to an embodiment of the present invention, it is possible to check an image while taking a picture to remove a background or to take a picture from which an unwanted object has been deleted in real time and store it.

추가적으로, 사진 촬영을 완료하여 저장한 후에도 배경이나 오브젝트를 선택하도록 할 수 있다. 상기와 같이 사용자에 의해 선택 배제된 부분 영상이 삭제된 사진(누끼 영상)을 저장부에 저장했다가, 추후 사용자의 요청이 있을 때 저장부로부터 독출하여 화면에 디스플레이하고, 사용자의 조작에 따라 복수의 카메라 중 하나로 촬영되는 영상을 화면에 디스플레이 중인 누끼 영상의 배경 이미지로 합성한 사진을 획득할 수 있는 것이다.Additionally, it is possible to select a background or an object even after completing and saving the photo. As described above, a photo (Luke image) from which the partial image selected by the user has been deleted is stored in the storage unit, and then read from the storage unit when the user requests it, and displayed on the screen, according to the user's manipulation. It is possible to obtain a photo obtained by synthesizing the image taken with one of the cameras in the background image of the Nuki image being displayed on the screen.

도 9는 본 발명의 일 실시예에 따라 전방 카메라를 포함하는 복수의 카메라로 사진을 촬영하는 동작을 설명하기 위한 도면이다.9 is a view for explaining an operation of taking a picture with a plurality of cameras including a front camera according to an embodiment of the present invention.

도 9를 참조하면, 사용자(910)가 전용 애플리케이션을 실행하고 디지털 촬영장치(900)의 후방 카메라들을 켜서 레고 인형 등을 포함하는 피사체들(920)을 보면서 원하는 오브젝트만 선택하여 촬영하고, 전방 카메라를 켜서 자기 모습을 촬영하면, 후방 카메라로 촬영한 이미지와 전방 카메라로 촬영한 사용자의 이미지를 합성할 수 있다.Referring to FIG. 9, a user 910 executes a dedicated application and turns on the rear cameras of the digital photographing apparatus 900 to select and photograph only desired objects while viewing subjects 920 including a Lego doll, etc. If you turn on and take a picture of yourself, you can combine the image taken with the rear camera and the user's image taken with the front camera.

전용 애플리케이션은 피사체들(920)을 촬영한 영상에서 사용자가 원하는 부분 영상만 선택하고 전방 카메라로 촬영한 자신의 사진을 오버레이한 영상을 화면에 디스플레이하는 사용자 인터페이스를 제공할 것이다. 사용자가 합성되는 이미지를 확인한 후 사진 저장 요청을 하면 합성된 이미지가 주영상으로 생성되어 저장될 것이다. 이에 따라 사용자는 전방 카메라로 촬영한 이미지에 전단계에서 준비한 배경없는 캐릭터 이미지를 합성한 이미지를 완성하여 촬영할 수 있다.The dedicated application will provide a user interface that selects only a partial image desired by the user from the images photographed by the subjects 920 and displays an image overlaid on the image of himself/herself taken by the front camera on the screen. When a user requests to save a photo after checking the image being synthesized, the synthesized image will be created and stored as a main image. Accordingly, the user can complete an image obtained by synthesizing an image taken with the front camera with a character image without a background prepared in the previous step.

도 10은 본 발명의 일 실시예에 따라 전방 카메라로 촬영한 영상과 후방 카메라로 촬영한 영상을 합성하는 화면을 예시한 것이다.10 illustrates a screen for synthesizing an image captured by a front camera and an image captured by a rear camera according to an embodiment of the present invention.

도 10을 참조하면, 전용 애플리케션은 사용자가 후방 카메라로 촬영한 영상에서 사용자가 원하는 오브젝트만을 선택한 후에 전방 카메라를 켜서 자신의 사진을 촬영하도록 하면, (a)와 같이 사용자 이미지(1010)와 선택된 오브젝트 이미지(1020)가 함께 표시되는 라이브뷰를 보여준다. 사용자는 (a)의 화면에서 오브젝트(1020)의 크기를 수정하거나 위치를 이동시키는 편집을 할 수 있다.Referring to FIG. 10, in the dedicated application, if the user selects only the object desired by the user from the image taken with the rear camera and then turns on the front camera to take a picture of himself, as shown in (a), the user image 1010 and the selected object are selected. It shows a live view in which the object image 1020 is displayed together. The user may edit the size of the object 1020 or move the position of the object 1020 on the screen of (a).

도 10의 (b)에서와 같이 오브젝트 이미지(1020)의 크기를 원하는 대로 확대한 후에 촬영 버튼을 터치 또는 클릭하면 사용자 이미지(1010)와 오브젝트 이미지(1020)가 함께 있는 사진이 생성되어 메모리에 저장될 것이다. 이때 전용 애플리케이션은 라이브뷰 방식으로 미리보기를 제공하기 때문에 사용자는 자신의 표정이나 모습을 바꾸면서 촬영할 수 있다.As shown in (b) of FIG. 10, when the size of the object image 1020 is enlarged as desired and then the photographing button is touched or clicked, a photo containing the user image 1010 and the object image 1020 is created and stored in the memory. Will be. At this time, since the dedicated application provides a preview in a live view method, the user can shoot while changing his or her facial expression or appearance.

일 실시예에서, 사용자가 전방 카메라를 켜서 자기 얼굴을 촬영하면 전방 카메라와 후방 카메라가 촬영한 이미지의 방향이 서로 반대가 되므로 전용 애플리케이션이 전방 이미지를 좌우 플립해줌으로써 사용자의 니즈에 맞는 최종 주영상을 획득할 수 있다.In one embodiment, when the user turns on the front camera to photograph his or her face, the directions of the images captured by the front camera and the rear camera are opposite to each other, so a dedicated application flips the front image left and right, so that the final main image suits the user's needs. Can be obtained.

일 실시예에서, 전용 애플리케이션은 전방 카메라로 촬영한 피사체의 얼굴과 후방 카메라로 촬영한 피사체의 얼굴을 인식하고 양자의 비율을 자동으로 맞춰줄 수 있다. 도 10의 예에서와같이 사용자가 레고 인형 이미지(1020)의 크기를 자신의 얼굴 크기에 맞게 확대하지 않아도, 전용 애플리케이션이 사용자(1010)와 레고 인형(1020)의 얼굴을 자동으로 인식하고 크기가 유사하도록 레고 인형 이미지(1020)를 확대할 수 있다. 특히 전ㆍ후방 카메라의 렌즈 종류가 다르고 전ㆍ후방의 피사체 거리가 각각 다르기 때문에 얼굴의 크기가 서로 다르게 포착되지만, 전ㆍ후방으로 동시에 촬영되는 인물의 크기와 비례를 자동 조절하여 줌으로써 자연스러운 합성 촬영 이미지를 획득할 수 있게 된다.In one embodiment, the dedicated application may recognize a face of a subject photographed with a front camera and a face of a subject photographed with a rear camera, and automatically adjust the ratio of both. As in the example of FIG. 10, even if the user does not enlarge the size of the lego doll image 1020 to fit the size of the face of the user, the dedicated application automatically recognizes the faces of the user 1010 and the lego doll 1020, and the size is reduced. The lego doll image 1020 can be enlarged to be similar. In particular, because the front and rear cameras have different lens types and the subject distances of the front and rear are different, the size of the face is captured differently, but a natural composite shot image by automatically adjusting the size and proportion of the person photographed at the same time in front and rear. Can be obtained.

일 실시예에서, 전용 애플리케이션은 전방 이미지와 후방 이미지에 포함된 인물들의 어깨 위치 또는 눈 높이 등을 기준으로 가로 세로 높이를 자동으로 맞춰줄 수 있다. 도 10에 도시된 것과 다르게 전방 카메라로 찍은 사용자(1010)의 얼굴 보다 후방 카메라로 찍은 레고 인형(1020)의 얼굴이 위나 아래에 위치한 경우, 전용 애플리케이션은 레고 인형(1020)의 얼굴이 사용자(1010)의 얼굴 옆에 위치하도록 이동시킬 것이다.In one embodiment, the dedicated application may automatically adjust the horizontal and vertical heights based on the shoulder positions or eye heights of people included in the front image and the rear image. Different from that shown in FIG. 10, when the face of the lego doll 1020 taken with the rear camera is positioned above or below the face of the user 1010 taken with the front camera, the dedicated application is the face of the lego doll 1020 ) To be positioned next to his face.

일 실시예에서, 전용 애플리케이션은 전방 카메라로 촬영한 전방 이미지와 후방 카메라로 촬영한 후방 이미지가 각각 차지할 좌우 면적을 자동으로 조정할 수 있다. 예를 들어, 전방 이미지와 후방 이미지에 포함된 얼굴의 개수를 인식하고 각 이미지가 포함하고 있는 얼굴의 수에 비례하여 가로 방향으로 면적을 차지하도록 자동 조절할 수 있다.In one embodiment, the dedicated application can automatically adjust the left and right areas each occupied by a front image taken with a front camera and a rear image taken with a rear camera. For example, the number of faces included in the front image and the rear image may be recognized and automatically adjusted to occupy an area in the horizontal direction in proportion to the number of faces included in each image.

상기의 실시예들은 둘 이상 결합되어 구현될 수도 있다. 예를 들어, 전용 애플리케이션이 전방 이미지에서 1개의 사용자 얼굴을 인식하고 후방 이미지에서 선택된 오브젝트들에 2개의 얼굴이 포함된다고 판단하는 경우, 전방 이미지에 화면 가로 면적의 1/3을 할당하고 후방 이미지에는 화면 가로 면적의 2/3를 할당하는 식으로 양 이미지를 합성하고, 전방 이미지의 얼굴 높이와 후방 이미지의 얼굴 높이가 유사하도록 후방 이미지의 위치를 수정한 결과를 화면에 보여줄 수 있다.Two or more of the above embodiments may be implemented in combination. For example, if a dedicated application recognizes one user's face in the front image and determines that two faces are included in the selected objects in the rear image, 1/3 of the horizontal area of the screen is allocated to the front image and the rear image is Both images are synthesized by allocating 2/3 of the horizontal area of the screen, and the result of correcting the position of the rear image so that the face height of the front image and the face height of the rear image are similar can be displayed on the screen.

이때, 두 피사체(오브젝트와 배경 이미지) 간의 컬러값, 노출값, 명도 및 대비값 등 이미지 정보를 획득, 유사하게 조정하여 줌으로써 피사체의 크기나 면적뿐만 아니라 밝기 정도나 컬러톤 등도 자연스럽게 조정된 이미지를 얻을 수 있게 된다.At this time, by acquiring image information such as color value, exposure value, brightness and contrast value between two subjects (object and background image) and adjusting similarly, an image that is naturally adjusted not only the size or area of the subject, but also the brightness level and color tone can be obtained. You will be able to.

도 11은 본 발명의 일 실시예에 따라 배경이 없는 누끼 이미지를 독출하여 디스플레이한 후 합성 촬영하는 화면을 예시한 것이다.FIG. 11 is a diagram illustrating a screen for synthesizing photographing after reading and displaying a nouki image without a background according to an embodiment of the present invention.

도 11을 참조하면, 이미 촬영ㆍ저장해 보유하고 있는 배경 없는 오브젝트(레고 인형, 1110)의 누끼 사진 이미지를 디스플레이한 후 전방 카메라나 후방 카메라로 촬영할 경우, 누끼 오브젝트(1110)와 촬영 영상(1120)의 합성 이미지를 자연스럽고 즉각적으로 촬영할 수 있게 된다. 즉, 배경이 없는 누끼 이미지의 오브젝트(예; 인물이나 캐릭터, 기물 등)를 디스플레이한 후 오브젝트의 배경 이미지만을 실시간 촬영함으로써 새로운 배경 이미지가 합성된 영상을 획득할 수 있게 된다. 이를 이용하면, 도 11의 (b), (c), (d)와 같이 오브젝트의 배경을 바꿔가면서 촬영을 할 수 있으므로 동일한 오브젝트에 각각 다른 배경 이미지가 합성된 이미지 사진들을 손쉽게 만들 수 있게 된다.Referring to FIG. 11, when shooting with a front camera or a rear camera after displaying an image of a nouki image of an object without a background (Lego doll, 1110) that has already been photographed and stored, a nouki object 1110 and a photographed image 1120 It will be possible to shoot naturally and instantly composite images. That is, after displaying an object (eg, a person, a character, a piece, etc.) of an image without a background, only the background image of the object is photographed in real time, thereby obtaining an image in which a new background image is synthesized. By using this, since it is possible to shoot while changing the background of the object as shown in (b), (c), and (d) of FIG. 11, it is possible to easily create image photos in which different background images are combined with the same object.

예를 들면, 책상 위에 보관 중인 레고 인형을 바닷가 모래밭에서 촬영하고 싶은 경우 현재에는 레고 인형을 직접 바닷가까지 가지고 가서 촬영을 해야 하지만, 상기의 기술을 적용하면 미리 레고의 누끼 사진(a)을 실내에서 촬영한 후 바닷가에서는 배경만 촬영하면 되는 편리함이 있다. 또한, 모래밭 배경(b)뿐 아니라 바다(c), 수풀(d), 하늘(e) 등 원하는 배경으로 바꿔가면서 촬영할 수 있기 때문에 사용자가 상상하는 새로운 이미지를 손쉽게 획득할 수 있게 된다.For example, if you want to take a picture of a Lego doll stored on a desk in the sand at the seaside, now you have to take the Lego doll directly to the beach to take a picture, but if you apply the above technique, you can take a picture of Lego's nooki (a) indoors. It is convenient to shoot only the background at the beach after shooting. In addition, since it is possible to take a picture while changing to a desired background such as the sea (c), the bush (d), and the sky (e) as well as the sand background (b), a new image that the user imagines can be easily acquired.

이때 합성촬영을 위해 미리 독출하여 디스플레이하는 누끼 이미지는 인물, 인형, 기물 등의 실사 사진뿐 아니라 그리거나 디자인한 캐릭터, 그림, 만화, 로고 및 타이포 폰트, 심볼 마크까지, 배경이 없는 이미지이면 모두 사용이 가능하다.At this time, the Noki image that is read out and displayed in advance for composite photography is not only real photos of people, dolls, objects, etc., but also characters, drawings, cartoons, logos, typographic fonts, and symbol marks that have been drawn or designed, and any images without a background can be used. This is possible.

또한, 도 11과 같이 디스플레이된 누끼 이미지를 터치 및 드래그하여 확대ㆍ축소 이동하거나, 회전하거나 반전할 수도 있어 자유롭게 레이아웃을 한 상태에서 배경 촬영이 가능하므로 사용자가 원하는 합성사진을 확인하면서 쉽게 촬영할 수 있다.In addition, it is also possible to zoom in or out by touching and dragging the displayed Noki image as shown in FIG. 11, or to rotate or reverse it, so that the background can be taken freely in a layout state, so that the user can easily take a picture while checking the desired composite picture. .

일 실시예에서, 촬영 전에 독출하여 디스플레이하는 누끼 이미지는 촬영장치에 기저장되어 있는 누끼 이미지 외에도 서버에서 실시간 다운받아 사용할 수도 있다. 카메라와 연동되어 있는 GPS 등 위치정보를 이용하여 촬영하는 장소의 위치를 파악하여 이 위치 정보와 매칭되어 있는 누끼 이미지가 서버로부터 전송되면 다운로드 받아 디스플레이한 후 촬영을 하게 된다. 이때 각각의 위치 정보와 매칭되는 누끼 이미지들이 촬영장치와 연동 가능한 서버에 사전 준비되어 있어야 함은 물론이며, 사용자가 위치를 이동하여 촬영을 시도할 경우 각각의 바뀐 위치 정보에 따라 디스플레이되는 누끼 이미지도 바뀌어 디스플레이 되게 된다.In one embodiment, the Nuki image that is read and displayed before photographing may be downloaded and used in real time from the server in addition to the Nuki image previously stored in the photographing device. Using location information such as GPS linked to the camera, the location of the shooting location is identified, and when the Noki image matching this location information is transmitted from the server, it is downloaded, displayed, and then photographed. At this time, not only must the Noki images matching each location information have to be prepared in advance in the server that can be linked with the photographing device, but also the Noki images displayed according to the changed location information when the user attempts to shoot by moving the location. It will be changed and displayed.

예를 들어 상기의 기술을 적용하여 촬영을 할 경우, 남이섬에서는 '겨울연가' 주연배우 배용준의 누끼 사진이 디스플레이되어 이 인물 이미지를 띄운 상태에서 배경을 촬영하여 합성사진을 촬영할 수 있으며, 롯데월드에서는 롯데의 캐릭터(1130)를, 디즈니랜드에서는 미키마우스(1150)나 디즈니의 심볼 로고(1160)를 다운로드하여 디스플레이한 상태에서 합성사진 촬영(1170)을 할 수 있게 된다.For example, when shooting with the above technology applied, a photo of Noki of Bae Yong-jun, the lead actor of'Winter Sonata', is displayed on Nami Island, and you can take a composite picture by taking a background with this person image floating. It is possible to take a composite picture 1170 while downloading and displaying the character 1130 of Lotte and the Mickey Mouse 1150 or Disney's symbol logo 1160 in Disneyland.

이를 이용하면 유명 관광지나 테마파크, 축제 장소 등에서 촬영을 할 때, 그 장소에서 실시간 다운로드된 상징 이미지를 사진 한 곳에 넣어 합성촬영이 가능하게 되므로 색다른 기념사진으로 남길 수 있으며, 레스토랑이나 맥도널드, 스타벅스 등 체인점에서 촬영시 이 체인점의 위치에 기반하여 다운로드된 문구나 캐릭터, 이미지를 넣은 합성사진을 촬영할 수 있게 된다.Using this, when shooting at a famous tourist spot, theme park, or festival place, it is possible to take a composite photo by putting the symbol image downloaded in real time from that place in one place, so you can leave a different commemorative photo, etc. When shooting at a chain store, it is possible to take a composite picture containing downloaded phrases, characters, and images based on the location of the chain store.

이처럼 상기의 실시예들은 실제 현상이나 있는 모습 그대로를 재현하는데 그치는 현재의 카메라 속성과 달리, 사용자가 의도하거나 상상한 이미지와 현재의 실사 이미지가 결합된 새로운 이미지를 실시간 획득할 수 있게 해준다. 이는 '기록'의 개념에서 '창작'의 개념으로 사진의 영역이 더 넓어짐은 물론 전문가들의 영역에 머물고 있는 합성사진과 창작사진의 활용도가 일반인으로 더욱 확장될 것이며, 이에 따른 사진 촬영 기법과 응용에 있어서도 또다른 기폭제가 될 것이다.As described above, unlike the current camera property, which only reproduces the actual phenomenon or as it is, the above embodiments enable real-time acquisition of a new image in which an image intended or imagined by a user and a current real image are combined. From the concept of'record' to the concept of'creation', the scope of photography will be wider, and the use of composite photos and creative photos that remain in the realm of experts will be further expanded to the general public. It will also be another detonator.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

100: 디지털 촬영장치
110: 카메라 모듈
111: 제1 카메라(후방 카메라)
112: 제2 카메라(후방 카메라)
113: 제3 카메라(전방 카메라)
120: 프로세서
130: 디스플레이
140: 메모리
100: digital photographing device
110: camera module
111: first camera (rear camera)
112: second camera (rear camera)
113: third camera (front camera)
120: processor
130: display
140: memory

Claims (9)

누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법에 있어서,
사용자로부터 사진 촬영이 요청되면, 복수의 카메라를 통해 촬영되는 복수의 영상을 분석하여 깊이맵을 생성하는 단계와;
상기 깊이맵을 이용하여 영상을 구성하는 하나 이상의 부분 영상을 판별하는 단계와;
디지털 촬영장치의 화면에 디스플레이된 주영상 위에, 상기 하나 이상의 부분 영상을 구분하여 선택할 수 있는 사용자 인터페이스를 라이브뷰 영상으로 디스플레이하는 단계와;
상기 사용자 인터페이스를 통한 사용자의 입력을 수신하는 단계와;
상기 사용자로부터 사진 저장이 요청되면, 상기 사용자 인터페이스를 통한 사용자의 입력에 따라 상기 주영상에서 선택 배제된 부분 영상이 삭제된 사진을 새로운 주영상으로 생성하여 저장부에 저장하는 단계;를 포함하는 것을 특징으로 하는 촬영 방법.
In the method of taking pictures of Nouki and taking a composite picture using the same,
Generating a depth map by analyzing a plurality of images captured through a plurality of cameras when a user requests to take a picture;
Determining one or more partial images constituting an image using the depth map;
Displaying, as a live view image, a user interface for dividing and selecting the one or more partial images on the main image displayed on the screen of the digital photographing apparatus;
Receiving a user's input through the user interface;
When a photo storage is requested from the user, generating a photo from which the partial image selected and excluded from the main image has been deleted as a new main image according to the user's input through the user interface and storing it in a storage unit; including; Photography method characterized by.
제1항에 있어서,
상기 저장 단계는,
상기 선택 배제된 부분 영상이 삭제된 사진과 상기 사용자에 의해 선택된 다른 영상을 합성한 사진을 주영상으로 저장하는 단계;를 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
The storage step,
And storing, as a main image, a photo obtained by combining a photo from which the selected-excluded partial image is deleted and another image selected by the user as a main image.
제1항에 있어서,
상기 저장 단계는,
상기 선택 배제된 부분 영상이 삭제된 사진과 단말의 전방 카메라를 통해 촬영된 영상을 합성한 사진을 주영상으로 저장하는 단계;를 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
The storage step,
And storing, as a main image, a photo obtained by combining a photo from which the selected-excluded partial image is deleted and an image captured by a front camera of the terminal as a main image.
제1항에 있어서,
상기 저장 단계는,
상기 사용자에 의해 선택되지 않은 부분 영상까지 포함하는 오리지널 주영상을 상기 새로운 주영상의 레이어로 함께 저장하는 단계;를 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
The storage step,
And storing an original main image including even a partial image not selected by the user as a layer of the new main image.
제1항에 있어서,
상기 깊이맵 생성 단계는,
상기 복수의 카메라가 다른 화각을 가지는 경우, 상기 복수의 카메라를 통해 촬영되는 복수의 영상에 포함되는 동일 오브젝트의 가로 또는 세로 크기가 동일해지도록 광각 카메라에 의해 촬영되는 영상을 크롭한 후에 상기 복수의 영상 내 동일 오브젝트들 간의 이격 거리를 파악하는 단계;를 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
The depth map generation step,
When the plurality of cameras have different angles of view, after cropping the image captured by the wide-angle camera so that the horizontal or vertical size of the same object included in the plurality of images captured by the plurality of cameras becomes the same, the plurality of And determining a separation distance between the same objects in the image.
제1항에 있어서,
상기 사용자에 의해 선택 배제된 부분 영상이 삭제된 누끼 이미지를 상기 저장부로부터 독출하여 디스플레이하는 단계와;
상기 복수의 카메라 중 하나로 촬영되는 영상을 상기 디스플레이된 누끼 영상의 배경 이미지로 합성한 사진을 획득하는 단계;를 더 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
Reading from the storage unit and displaying a noki image from which the partial image selected-excluded by the user has been deleted;
And obtaining a photo obtained by synthesizing an image captured by one of the plurality of cameras into a background image of the displayed Nouki image.
제1항에 있어서,
상기 사용자로부터 사진 촬영이 요청되면, 촬영이 요청된 장소의 위치 정보와 매칭된 누끼 이미지를 서버로부터 다운로드하여 디스플레이하는 단계와;
상기 복수의 카메라 중 하나로 촬영되는 영상을 상기 디스플레이된 누끼 영상의 배경 이미지로 합성한 사진을 획득하는 단계;를 더 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
When a photographing request is requested from the user, downloading and displaying a Noki image matched with location information of a location where photographing is requested from a server;
And obtaining a photo obtained by synthesizing an image captured by one of the plurality of cameras into a background image of the displayed Nouki image.
제1항에 있어서,
상기 사용자 인터페이스를 통해 선택된 복수의 부분 영상에서 피사체의 얼굴을 인식하고 인식된 얼굴의 크기와 이미지 정보가 서로 유사하도록 상기 선택된 부분 영상들의 크기와 이미지의 톤과 색상, 명암을 자동으로 조정하는 단계;를 더 포함하는 것을 특징으로 하는 촬영 방법.
The method of claim 1,
Recognizing a face of a subject from a plurality of partial images selected through the user interface, and automatically adjusting the size of the selected partial images, the tone, color, and contrast of the images so that the size of the recognized face and image information are similar to each other; A photographing method comprising a further.
제1항 내지 제8항 중 어느 한 항의 누끼 사진 촬영과 이를 이용한 합성사진 촬영 방법을 수행하기 위해 기록매체에 기록된 컴퓨터 프로그램.A computer program recorded on a recording medium to perform the method of taking a picture of a noki according to any one of claims 1 to 8 and a method of taking a composite picture using the same.
KR1020190111144A 2019-09-08 2019-09-08 Method and computer program for remove photo background and taking composite photograph KR20210029905A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190111144A KR20210029905A (en) 2019-09-08 2019-09-08 Method and computer program for remove photo background and taking composite photograph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190111144A KR20210029905A (en) 2019-09-08 2019-09-08 Method and computer program for remove photo background and taking composite photograph

Publications (1)

Publication Number Publication Date
KR20210029905A true KR20210029905A (en) 2021-03-17

Family

ID=75245592

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190111144A KR20210029905A (en) 2019-09-08 2019-09-08 Method and computer program for remove photo background and taking composite photograph

Country Status (1)

Country Link
KR (1) KR20210029905A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244972A1 (en) * 2021-05-18 2022-11-24 삼성전자 주식회사 Electronic device and image processing method based on depth information using same
JP2023515267A (en) * 2020-04-21 2023-04-12 メルセデス・ベンツ グループ アクチェンゲゼルシャフト Method and apparatus for recognizing blooming in lidar measurements

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023515267A (en) * 2020-04-21 2023-04-12 メルセデス・ベンツ グループ アクチェンゲゼルシャフト Method and apparatus for recognizing blooming in lidar measurements
WO2022244972A1 (en) * 2021-05-18 2022-11-24 삼성전자 주식회사 Electronic device and image processing method based on depth information using same

Similar Documents

Publication Publication Date Title
US11094131B2 (en) Augmented reality apparatus and method
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US9942375B2 (en) Portable electronic devices with integrated image/video compositing
US9516214B2 (en) Information processing device and information processing method
US8644644B2 (en) Methods and apparatus for blending images
US11388334B2 (en) Automatic camera guidance and settings adjustment
CN106034206B (en) Electronic device and image display method
JP6401324B2 (en) Dynamic photo shooting method and apparatus
WO2016026466A1 (en) Method and apparatus for optimizing light-painted image
JP2017208073A (en) Composing and realizing viewer's interaction with digital media
JP7477556B2 (en) Photographing device, operating program and operating method for photographing device
KR101744141B1 (en) Method for reconstructing a photograph by object retargeting and the apparatus thereof
KR20210029905A (en) Method and computer program for remove photo background and taking composite photograph
CN110166700B (en) Method and system for creating selective virtual long exposure images
WO2023016214A1 (en) Video processing method and apparatus, and mobile terminal
Chang et al. Panoramic human structure maintenance based on invariant features of video frames
CN114071009B (en) Shooting method and equipment
KR102022559B1 (en) Method and computer program for photographing image without background and taking composite photograph using digital dual-camera
KR20200114170A (en) Method and computer program for photograph without background and taking composite photograph
JP3983623B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
KR20040001300A (en) Image synthesizing and editing system and its method in panorama image of background
CN113056905A (en) System and method for taking tele-like images
KR20200029120A (en) Method and computer program for photographing picture without background using digital dual-camera
JP5509287B2 (en) Reproduction display device, reproduction display program, reproduction display method, and image processing server
JP7428143B2 (en) Photography equipment, photography method, and program