KR20190094040A - A mobile terminal for generating a photographed image and a method for generating a photographed image - Google Patents

A mobile terminal for generating a photographed image and a method for generating a photographed image Download PDF

Info

Publication number
KR20190094040A
KR20190094040A KR1020180013613A KR20180013613A KR20190094040A KR 20190094040 A KR20190094040 A KR 20190094040A KR 1020180013613 A KR1020180013613 A KR 1020180013613A KR 20180013613 A KR20180013613 A KR 20180013613A KR 20190094040 A KR20190094040 A KR 20190094040A
Authority
KR
South Korea
Prior art keywords
image
real world
object image
real
mobile terminal
Prior art date
Application number
KR1020180013613A
Other languages
Korean (ko)
Other versions
KR102514702B1 (en
Inventor
천솔지
Original Assignee
천종윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 천종윤 filed Critical 천종윤
Priority to KR1020180013613A priority Critical patent/KR102514702B1/en
Publication of KR20190094040A publication Critical patent/KR20190094040A/en
Application granted granted Critical
Publication of KR102514702B1 publication Critical patent/KR102514702B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72522
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to a mobile terminal for generating a photographed image, and a method for generating the photographed image. When generating a photographed image in an electronic device such as a mobile terminal or the like, a mobile terminal for generating the photographed image comprises an object image for synthesizing pre-photographed other persons to be overlapped on the rear surface of a real world object image to be photographed and generates the photographed image, thereby providing the same effect that users in different time and space shot together.

Description

사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법{A mobile terminal for generating a photographed image and a method for generating a photographed image}A mobile terminal for generating a photographed image and a method for generating a photographed image}

본 발명은 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법에 관한 것으로, 보다 자세하게는 모바일 단말기 등의 전자기기에서 사진 촬영 이미지를 생성할 때, 기 촬영된 다른 인물에 대한 합성용 객체 이미지를 촬영 대상의 실세계 객체 이미지의 후면에 중첩되도록 함께 포함시켜 사진 촬영 이미지를 생성함으로써, 서로 다른 시공간에 있는 사용자들이 함께 촬영한 것과 같은 효과를 제공할 수 있는 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법에 관한 것이다.The present invention relates to a mobile terminal for generating a photographed image and a method for generating a photographed image. More particularly, when generating a photographed image in an electronic device such as a mobile terminal, a synthesis of another person photographed beforehand. By creating a photographic image by including the dragon object image to overlap the back of the real-world object image of the shooting object, to create a photographic image that can provide the same effect as the users in different time-space A mobile terminal and a method for generating a photographed image.

최근의 모바일 단말기는 기본적으로 카메라 모듈을 포함하고 있으며, 디지털 카메라는 통신모듈을 점차적으로 포함시키고 있다. 이에 따라 사용자는 모바일 단말기 또는 디지털 카메라를 이용하여 촬영한 사진 촬영 이미지를 소셜 네트워크 서비스 등의 온라인 상에 실시간으로 게시하고 다른 사용자들과 공유한다.Recent mobile terminals basically include a camera module, and digital cameras gradually include a communication module. Accordingly, the user posts a photographed image taken using a mobile terminal or a digital camera in real time on-line such as a social network service and shares it with other users.

이러한 카메라 모듈이 포함된 모바일 단말기 및 통신이 가능한 디지털 카메라는 각각의 편의성을 확장시키기 위해 다양한 기능을 추가하고 있는데, 그 중에 하나의 기능이 촬영된 이미지를 편집하는 기능이다. 그러나 이미지 편집 기능은 촬영된 이미지에 대한 필터 적용, 이미지의 단순한 보정, 정해진 아이콘의 합성 등에 불과하다. 이에 따라 모바일 단말기에서 사진 촬영을 수행할 때 같은 모바일 단말기 또는 다른 모바일 단말기에서 기 촬영된 사진 촬영 이미지를 새롭게 촬영되는 실세계 이미지에 포함하여 하나의 사진 촬영 이미지로 생성하는 기능은 제공되지 못하고 있다.The mobile terminal including the camera module and the digital camera capable of communication add various functions to expand the convenience of each, and one of them is a function of editing a photographed image. But image editing is nothing more than applying a filter to a captured image, simply correcting the image, or synthesizing a given icon. Accordingly, a function of generating a single photographing image by including a photographed image previously photographed by the same mobile terminal or another mobile terminal as a newly photographed real world image when the photographing is performed by the mobile terminal is not provided.

IDEO LLC.의 미국공개특허공보 US2015-0281591호(2015.10.01 공개)는 연속되는 이미지인 비디오 데이터를 편집할 수 있는 비디오 편집 시스템을 개시하고 있다. 종래기술 1은 터치스크린을 구비한 모바일 단말기에 비디오 편집 인터페이스를 제공한다. 종래기술 1은 출력된 이미지(비디오 데이터)에 터치(touch) 또는 드래그 앤 드롭(drag & drop) 등의 입력 수단을 이용하여 필터 등을 적용할 수 있는 편집 인터페이스를 제공하여 사용자로 하여금 촬영된 비디오 데이터를 용이하게 편집할 수 있는 효과를 제공한다.US Patent Publication No. US2015-0281591 (published on October 1, 2015) of IDEO LLC. Discloses a video editing system capable of editing video data that is a continuous image. Prior art 1 provides a video editing interface to a mobile terminal having a touch screen. Prior art 1 provides an editing interface that can apply a filter or the like to an output image (video data) using an input means such as touch or drag & drop, thereby allowing a user to take a video. Provides effects that make it easy to edit data.

하지만 종래기술 1은 모바일 단말기 자체 내에 저장된 이미지 또는 비디오 데이터에 대한 필터 기능 적용 등의 편집을 수행할 수 있으나, 각각 촬영된 복수의 이미지 또는 비디오 데이터에 대한 합성 등은 수행할 수 없는 문제점이 있다.However, the prior art 1 may perform editing such as applying a filter function to an image or video data stored in the mobile terminal itself, but there is a problem in that composition of a plurality of captured images or video data cannot be performed.

Hewlett packard의 미국공개특허공보 US2007-0291338호(2007.12.20 공개)는 디지털 카메라를 위한 사진편집 메뉴 시스템에 관한 것으로, 디지털 카메라에서 촬영된 이미지를 사용자가 디지털 카메라의 사진편집 메뉴를 이용하여 편집을 수행하고, 디지털 효과가 부가된 편집 이미지를 PC를 이용하지 않고 원격 전송할 수 있는 특징이 있다. 종래기술 2는 촬영 기기인 디지털 카메라를 통해 사진 촬영뿐만 아니라 편집까지 수행할 수 있다. 때문에 촬영된 사진 파일을 PC에 전송하여 편집 작업을 진행해야 하는 문제점을 해결할 수 있다. 또한, 통신망을 통해 파일을 원격으로 전송할 수 있는 기능을 통해 촬영하고 편집한 사진을 소셜 네트워크 서비스에 용이하게 업로드 할 수 있는 효과도 있다.US Patent Publication No. US2007-0291338 (published Dec. 20, 2007) by Hewlett packard relates to a photo editing menu system for digital cameras, in which a user can edit an image taken with the digital camera using the photo editing menu of the digital camera. It is possible to remotely transmit an edited image added with a digital effect without using a PC. The prior art 2 may perform editing as well as photographing through a digital camera which is a photographing device. This solves the problem of transferring the captured photo files to the PC for editing. In addition, the ability to remotely transfer files through a communication network has the effect of easily uploading photos and edited photos to social network services.

종래기술 2도 디지털 카메라에 포함된 편집 기능을 이용하여 촬영된 이미지를 편집할 수 있는 효과는 있지만, 각각 촬영된 서로 다른 복수의 이미지를 하나의 이미지로 합성하여 같은 장소에서 촬영된 효과를 나타내는 편집을 수행할 수 없는 문제점이 있다.Although there is an effect of editing a photographed image using the editing function included in the prior art 2 digital camera, an edit that represents an effect photographed at the same place by composing a plurality of different images which are photographed into one image. There is a problem that cannot be performed.

Samsung Electronics의 미국등록특허공보 US9,792,883호(2017.10.17 등록)는 사용자가 모바일 단말기를 이용하여 단순히 사진을 촬영하는 것뿐만 아니라 미리 저장된 배경 영상의 정해진 위치에 촬영된 사용자 영상을 합성하는 기술을 제공한다. 종래기술 3은 각각의 이미지를 합성하여 하나의 합성 이미지를 생성함으로써, 사용자에게 촬영된 이미지 이외의 합성 이미지를 제공함으로써 촬영 이미지를 다양하게 활용할 수 있는 효과를 제공한다.US Patent No. 9,792,883 (registered on October 17, 2017) by Samsung Electronics discloses a technology for synthesizing a user image captured at a predetermined position of a pre-stored background image as well as taking a photo using a mobile terminal. to provide. The prior art 3 synthesizes each image to generate one composite image, thereby providing a user with a composite image other than the captured image, thereby providing various effects of the captured image.

그러나 종래기술 3은 모바일 단말기에서 촬영된 각각의 이미지인 배경 이미지에 사용자 이미지를 삽입하는 합성 기능을 제공할 뿐이며, 사용자들이 각각 촬영한 복수의 이미지를 사용자들이 사진 촬영에 적용하지 못하는 문제점이 있다.However, the related art 3 only provides a synthesis function of inserting a user image into a background image, which is each image photographed by a mobile terminal, and has a problem in that a user cannot apply a plurality of images photographed by the user to photographing.

상기의 종래기술들에서 제시된 기술적 특징을 사용하는 경우에도, 모바일 단말기 및 디지털 카메라 등의 전자기기에서는 복수의 촬영된 이미지 내에 포함된 인물들을 선택적으로 실시간 촬영되는 사진 촬영 이미지에 포함시킬 수 있는 방법을 제공하지 못한다.Even in the case of using the technical features suggested in the above-described prior arts, an electronic device such as a mobile terminal and a digital camera provides a method of selectively including a person included in a plurality of captured images in a photographed image that is selectively captured in real time. Can not provide.

특허문헌 001 미국공개특허공보 US2015-0281591(2015.10.01 공개)Patent Document 001 United States Patent Application Publication US2015-0281591 (2015.10.01 publication) 특허문헌 002 미국공개특허공보 US2007-0291338호(2007.12.20 공개)Patent Document 002 United States Patent Application Publication US2007-0291338 (published Dec. 20, 2007) 특허문헌 003 미국등록특허공보 US9,792,883호(2017.10.17 등록)Patent Document 003 United States Patent Publication No. US9,792,883 (registered October 17, 2017)

상기의 문제를 해결하기 위해, 본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 카메라 모듈이 포함된 모바일 단말기 또는 통신이 가능한 디지털 카메라 등의 전자기기에서 촬영된 사진을 하나 이상의 다른 사용자의 전자기기와 공유하고, 공유된 사진을 디스플레이에 실세계 이미지와 함께 출력하여 실시간 촬영함으로써 하나의 사진 촬영 이미지로 생성하기 위한 목적이 있다.In order to solve the above problem, the mobile terminal for generating a photographed image and the method for generating a photographed image according to the present invention, the mobile terminal including a camera module or a digital camera capable of communication, such as a digital camera The purpose of the present invention is to create a single photographing image by sharing the captured photo with the electronic device of one or more other users, and outputting the shared photo together with the real world image on the display to capture in real time.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 사용자가 모바일 단말기 등의 통신 가능한 전자기기를 이용하여 촬영한 사진에서 배경이 제외된 합성용 객체 이미지를 다른 사용자의 전자기기로 전송함에 따라 다른 사용자의 실시간 촬영되는 사진과 합성용 객체 이미지가 용이하게 합성되도록 하기 위한 다른 목적이 있다.According to the present invention, a mobile terminal for generating a photographed image and a method for generating a photographed image are different from the object image for synthesis in which a background is excluded from a photograph photographed by a user using a communicable electronic device such as a mobile terminal. Another object of the present invention is to easily synthesize a real-time photograph of another user and an object image for compositing as they are transmitted to a user's electronic device.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 모바일 단말기 또는 다른 모바일 단말기에서 촬영된 사진을 이용하여 생성된 합성용 객체 이미지를 모바일 단말기에서 수행되는 실시간 사진 촬영에 출력하여 함께 사진 촬영 이미지로 생성되도록 하면서, 합성되는 사진에 다른 배경 이미지를 더 포함하여 사진 촬영 이미지가 생성될 수 있도록 하기 위한 다른 목적이 있다.The mobile terminal for generating a photographed image and the method for generating a photographed image according to the present invention include real-time photographs performed on a mobile terminal by synthesizing an object image generated using a photograph taken on a mobile terminal or another mobile terminal. There is another purpose for generating a photographed image by including another background image in the synthesized photograph while outputting the photographed image to be generated together with the photographed image.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 각각 복수의 사용자들이 각각의 모바일 단말기를 이용하여 사진 촬영 이미지를 생성할 때, 어느 하나의 단말기로부터 순차적으로 전송되는 합성용 객체 이미지를 포함하여 사진 촬영 이미지를 생성한다. 생성된 사진 촬영 이미지가 합성용 객체 이미지로 사용될 수 있도록 다음 모바일 단말기에게 사진 촬영 이미지를 순차적으로 전송함으로써, 각각의 모바일 단말기가 촬영하는 사진에 수신한 합성용 객체 이미지가 순차적으로 합성되어 사진이 업데이트 된다. 이후, 최종 업데이트 된 사진 촬영 이미지가 각각의 사용자가 동일한 시간 및 장소에서 촬영한 것과 같은 효과를 나타낼 수 있도록 하는 다른 목적이 있다.According to the present invention, a mobile terminal for generating a photographed image and a method for generating a photographed image are sequentially generated from any one terminal when a plurality of users generate a photographed image by using each mobile terminal. Create a photographed image including the composition object image to be transmitted. By sequentially transmitting the photographed image to the next mobile terminal so that the generated photographed image can be used as a composition object image, the composition object image received by each mobile terminal is sequentially synthesized to update the photograph. do. Thereafter, there is another purpose for the last updated photo shoot image to have the same effect as each user shot at the same time and place.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 최초 촬영된 사진인 합성용 객체 이미지에 포함된 사용자의 포즈 및 사진 구도에 따라 이후에 디스플레이에 출력된 합성용 객체 이미지를 포함하여 촬영되는 사진에서도 합성용 객체 이미지와 유사한 포즈 및 사진 구도를 유도함으로써, 합성용 객체 이미지를 포함하여 일관성 있게 촬영된 사진 촬영 이미지를 제공받을 수 있도록 하기 위한 다른 목적이 있다.A mobile terminal for generating a photographed image and a method of generating a photographed image according to the present invention are synthesized after being output to a display according to a pose and a composition of a user included in the object image for synthesis, which is the first photographed photograph. Another object of the present invention is to induce a pose and a composition similar to that of a synthetic object image in a picture taken including a dragon object image, so that a consistently taken picture taken image including a synthesis object image can be provided.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 최초 사용자로부터 촬영되고 공유된 사진이 다른 사용자들에 의해 합성용 객체 이미지로 사용되어 각 사용자들에 의해 사진 촬영 이미지로 생성된 후 최초 사용자 및 사진 촬영 이미지로 생성한 사용자들의 모바일 단말기에 최종 사진 촬영 이미지가 수신되도록 함으로써, 각각의 사진 촬영 이미지를 공유한 사용자들이 최종 사진 촬영 이미지를 확인할 수 있도록 하는 다른 목적이 있다.In the mobile terminal for generating a photographed image and a method of generating a photographed image according to the present invention, a photograph taken and shared by the first user is used as a composition object image by other users and photographed by each user. Another purpose is to make the final photographed image received by the mobile terminal of the first user and the user who created the photographed image after being generated as a photographed image, so that users who have shared each photographed image can confirm the final photographed image. There is this.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 이전 사용자의 모바일 단말기로부터 합성용 객체 이미지를 수신하는 경우, 해당 모바일 단말기의 카메라 모듈로부터 입력되는 실세계 이미지와 수신한 합성용 객체 이미지를 디스플레이에 함께 출력함으로써, 사진 촬영 이미지를 생성할 때, 합성용 객체 이미지를 가이드로 사용될 수 있도록 하기 위한 다른 목적이 있다.The mobile terminal for generating a photographed image and the method for generating a photographed image according to the present invention, when receiving a synthesis object image from the mobile terminal of the previous user, and the real world image input from the camera module of the mobile terminal Another object is to output the combined object image on the display so that the composite object image can be used as a guide when generating a photographed image.

상기의 문제를 해결하기 위해 본 발명에 따른 사진 촬영 이미지를 생성하는 방법은, 카메라 모듈, 디스플레이, 통신모듈, 프로세서 및 메모리를 포함하는 모바일 단말기에서 상기 프로세서가 다음의 단계를 수행하여 사진 촬영 이미지를 생성하는 방법은, 실세계 장면을 상기 카메라 모듈이 실시간 연속적으로 촬영하여 생성되는 실세계 객체 이미지가 포함된 실세계 이미지를 상기 디스플레이에서 실시간 연속적으로 출력하는 단계; 상기 메모리에 저장된 합성용 객체 이미지를 상기 디스플레이에 출력하는 단계; 상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하는 단계로서, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실시간 연속적으로 출력되는 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 포함하며; 및 상기 디스플레이에 배치된 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하는 단계를 포함하여 구성되는 것을 특징으로 한다.In order to solve the above problem, a method of generating a photographing image according to the present invention includes performing a following step by the processor in a mobile terminal including a camera module, a display, a communication module, a processor, and a memory. The method may further include outputting, in real time, a real world image including a real world object image generated by the camera module to continuously capture a real world scene in real time; Outputting a synthesis object image stored in the memory to the display; Disposing the composite object image and the real world object image on the display, wherein the composite object image is selected to be superimposed on a rear surface of the real world object image, wherein the real world object image is continuously output in real time. Including the composition object images superimposed on a rear surface; And generating a photographing image including the composition object image and the real world object image disposed on the display.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 실세계 이미지를 상기 디스플레이에 출력하는 단계 이후에, 상기 합성용 객체 이미지와 중첩되어 배치되기 위한 상기 실세계 객체 이미지가 상기 실세계 이미지에서 선택되는 단계;를 더 포함하여 수행되는 것을 특징으로 한다.In the method for generating a photographed image according to an embodiment of the present invention, after the outputting of the real world image to the display, the real world object image to be disposed overlapping with the object image for the synthesis in the real world image The step of selecting; characterized in that it is performed further.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 합성용 객체 이미지를 제 1 레이어(layer)에 위치하도록 제공하며, 상기 실세계 객체 이미지를 제 2 레이어(layer)에 위치하도록 제공하고, 상기 배치하는 단계에서, 상기 제 1 레이어 및 제 2 레이어에 위치하는 상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 위치하는 명령이 수신되는 경우, 상기 제 1 레이어를 상기 제 2 레이어의 후면에 위치시켜 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 특징으로 한다.In the method for generating a photographed image according to an embodiment of the present invention, the composition object image is provided to be located in a first layer, and the real world object image is provided to be located in a second layer. In the disposing step, the synthesizing object image and the real world object image positioned on the first layer and the second layer are disposed on the display, and the synthesizing object image is located behind the real world object image. When the command is received, the first layer may be positioned on the rear surface of the second layer so that the composition object image is superimposed on the rear surface of the real world object image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 실세계 이미지에서 상기 실세계 객체 이미지 만을 추출하고, 추출된 상기 실세계 객체 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, the real world object image is extracted from the real world image, and the extracted real world object image is positioned on the second layer.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 실세계 이미지에서 상기 실세계 객체 이미지를 제외한 나머지 이미지에 투명 처리하고, 상기 실세계 객체 이미지 및 투명 처리된 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, transparent processing is performed on the remaining images other than the real world object image from the real world image, and the real world object image and the transparent processed image are positioned on the second layer. It is characterized by.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 실세계 이미지에서 추출된 상기 실세계 객체 이미지를 제외한 실세계 배경 이미지는 제 3 레이어에 위치시키는 것을 특징으로 한다.In the method for generating a photographed image according to an embodiment of the present invention, the real world background image excluding the real world object image extracted from the real world image is positioned on a third layer.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 제 3 레이어의 상기 실세계 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, the photographed image is generated by further including the real world background image of the third layer.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 사진 촬영 이미지를 생성하는 단계에서, 상기 메모리는 하나 이상의 배경 이미지들을 포함하며, 상기 배경 이미지들 중 선택된 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, in the generating of the photographed image, the memory includes one or more background images, and further comprising a selected background image among the background images. The photographing image is generated.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 모바일 단말기에 입력된 제어명령에 따라 상기 디스플레이에 출력된 상기 합성용 객체 이미지의 크기 또는 위치를 제어하는 것을 특징으로 한다.In the method for generating a photographed image according to an embodiment of the present invention, the size or position of the composition object image output on the display is controlled according to a control command input to the mobile terminal.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 합성용 객체 이미지는 상기 모바일 단말기에서 생성되거나 다른 모바일 단말기에서 생성되어 상기 통신모듈을 통하여 제공받은 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, the composition object image is generated in the mobile terminal or generated in another mobile terminal, characterized in that provided through the communication module.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 합성용 객체 이미지는 배경 이미지가 제외된 객체 이미지 만을 포함하는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, the object image for compositing includes only an object image without a background image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 합성용 객체 이미지가 생성될 때, 상기 합성용 객체 이미지를 제외한 나머지 이미지는 배경 이미지로 생성되는 것을 특징으로 한다.In the method of generating a photographed image according to an embodiment of the present invention, when the synthesis object image is generated, the remaining images except the synthesis object image are generated as a background image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하는 방법에 있어서, 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 배치된 상기 사진 촬영 이미지를 합성용 객체 이미지로써, 상기 통신모듈을 이용하여 다른 모바일 단말기로 전송하는 단계를 더 포함하되, 상기 다른 모바일 단말기는, 각각의 상기 단계와 동일한 단계를 수행하는 프로세서를 이용하여 수신한 상기 합성용 객체 이미지와 상기 다른 모바일 단말기의 실세계 객체 이미지를 포함하는 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In the method for generating a photographing image according to an embodiment of the present invention, the photographing image in which the composition object image and the real world object image are disposed is a composition object image, and another mobile terminal using the communication module. The method may further include transmitting the data to the mobile terminal, wherein the other mobile terminal is configured to take a picture including the composite object image received using the processor performing the same steps as the respective steps and the real world object image of the other mobile terminal. And generating an image.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기는, 카메라 모듈, 디스플레이, 통신모듈, 프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 이용하여 사진 촬영 이미지를 생성하기 위한 모바일 단말기로서, 상기 하나 이상의 프로그램은, 실세계 장면을 상기 카메라 모듈이 실시간 연속적으로 촬영하여 생성되는 실세계 객체 이미지가 포함된 실세계 이미지를 상기 디스플레이에 실시간 연속적으로 출력하고, 상기 메모리에 저장된 합성용 객체 이미지를 상기 디스플레이에 출력하고, 상기 합성용 객체 이미지와 상기 실세계 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실시간 연속적으로 출력되는 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하며, 상기 디스플레이에 배치된 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하기 위한 명령어들을 포함하는 모바일 단말기를 특징으로 한다.A mobile terminal for generating a photographed image according to the present invention generates a photographed image using a camera module, a display, a communication module, a processor, a memory, and one or more programs stored in the memory and configured to be executed by the processor. A mobile terminal for performing the above, The one or more programs, Real-time image containing a real-world object image generated by the camera module in real-time continuous shooting of the real-time image on the display in real-time continuous and for synthesis stored in the memory Outputting an object image to the display and arranging the composition object image and the real world image on the display, wherein the composition object image is selected to be superimposed on a rear surface of the real world object image; Instructions for generating the composite object image is superimposed on the back of the real-world object image that is output continuously, and generating a photographing image including the composite object image and the real-world object image disposed on the display Characterized in that it comprises a mobile terminal.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 하나 이상의 프로그램은, 상기 실세계 이미지를 상기 디스플레이에 출력한 이후에, 상기 합성용 객체 이미지와 중첩되어 배치되기 위한 상기 실세계 객체 이미지를 상기 실세계 이미지에서 선택하는 것을 더 수행하는 명령어를 포함하는 것을 특징으로 한다.In the mobile terminal for generating a photographed image according to an embodiment of the present invention, the one or more programs, after outputting the real-world image on the display, the real world to be disposed overlapping with the composition object image And selecting a further object image from the real world image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 합성용 객체 이미지를 제 1 레이어(layer)에 위치하도록 제공하며, 상기 실세계 객체 이미지를 제 2 레이어에 위치하도록 제공하고, 상기 배치는, 상기 제 1 레이어 및 제 2 레이어에 위치하는 상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 위치하는 명령이 수신되는 경우, 상기 제 1 레이어를 상기 제 2 레이어의 후면에 위치시켜 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, to provide the composition object image to be located on the first layer, and to provide the real world object image to the second layer The arrangement may include placing the composition object image and the real world object image positioned on the first layer and the second layer on the display, wherein the compositing object image is located at the rear of the real world object image. When received, the first layer is positioned on the rear surface of the second layer so that the composition object image is superimposed on the rear surface of the real-world object image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 실세계 이미지에서 상기 실세계 객체 이미지 만을 추출하고, 추출된 상기 실세계 객체 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 한다.In a mobile terminal for generating a photographed image according to an embodiment of the present invention, the mobile terminal extracts only the real-world object image from the real-world image, and places the extracted real-world object image on the second layer.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 실세계 이미지에서 상기 실세계 객체 이미지를 제외한 나머지 이미지에 투명 처리하고, 상기 실세계 객체 이미지 및 투명 처리된 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, transparent processing to the remaining images other than the real-world object image from the real-world image, and the real-world object image and the transparent processed image in the second layer It is characterized in that the position.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 실세계 이미지에서 추출된 상기 실세계 객체 이미지를 제외한 실세계 배경 이미지는 제 3 레이어에 위치시키는 것을 특징으로 한다.In the mobile terminal for generating a photographed image according to an embodiment of the present invention, the real world background image excluding the real world object image extracted from the real world image is located in a third layer.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 사진 촬영 이미지를 생성하는 경우, 상기 제 3 레이어의 상기 실세계 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, when the photographing image is generated, the photographing image is further generated by further including the real world background image of the third layer. It is done.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 사진 촬영 이미지를 생성하는 경우, 상기 메모리는 하나 이상의 배경 이미지들을 포함하며, 상기 배경 이미지들 중 선택된 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In a mobile terminal for generating a photographed image according to an embodiment of the present invention, when generating the photographed image, the memory includes one or more background images, and further includes a selected background image among the background images. To generate the photographing image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 모바일 단말기에 입력된 제어명령에 따라 상기 디스플레이에 출력된 상기 합성용 객체 이미지의 크기 또는 위치를 제어하는 것을 특징으로 한다.In a mobile terminal for generating a photographed image according to an embodiment of the present invention, the size or position of the composition object image output on the display is controlled according to a control command input to the mobile terminal.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 합성용 객체 이미지는 상기 모바일 단말기에서 생성되거나 다른 모바일 단말기에서 생성되어 상기 통신모듈을 통하여 제공받은 것을 특징으로 한다.In the mobile terminal for generating a photographed image according to an embodiment of the present invention, the composition object image is characterized in that generated in the mobile terminal or generated in another mobile terminal and received through the communication module.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 합성용 객체 이미지는 배경 이미지가 제외된 객체 이미지 만을 포함하는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, the composition object image is characterized in that it comprises only the object image, the background image is excluded.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 합성용 객체 이미지가 생성될 때, 상기 합성용 객체 이미지를 제외한 나머지 이미지는 배경 이미지로 생성되는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, when the composition object image is generated, the remaining images other than the composition object image are generated as a background image.

본 발명의 실시예에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기에 있어서, 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 배치된 상기 사진 촬영 이미지가 합성용 객체 이미지로 사용될 수 있도록 상기 통신모듈을 이용하여 다른 모바일 단말기로 전송하되, 상기 다른 모바일 단말기는, 상기 명령어들과 동일한 명령어들을 포함하는 하나 이상의 프로그램을 이용하여 상기 사진 촬영 이미지를 합성용 객체 이미지로 수신한 상기 합성용 객체 이미지와 상기 다른 모바일 단말기의 상기 실세계 객체 이미지를 포함하는 사진 촬영 이미지를 생성하는 것을 특징으로 한다.In the mobile terminal for generating a photographing image according to an embodiment of the present invention, the communication module is used so that the photographing image in which the composition object image and the real world object image are disposed may be used as a composition object image. To another mobile terminal, wherein the other mobile terminal receives the photographed image as a synthesis object image using the one or more programs including the same commands as the instructions, and the other mobile terminal. And generating a photographed image including the real world object image of the terminal.

상기의 구성에 따라, 본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 카메라 모듈이 포함된 모바일 단말기 또는 통신이 가능한 디지털 카메라 등의 전자기기에서 촬영된 사진을 하나 이상의 다른 사용자의 전자기기와 공유하고, 공유된 사진을 디스플레이에 실세계 이미지와 함께 출력하여 실시간 촬영함으로써 하나의 사진 촬영 이미지를 생성시킬 수 있는 효과가 있다.According to the above configuration, a mobile terminal for generating a photographed image and a method for generating a photographed image according to the present invention, a mobile terminal including a camera module or a photograph taken by an electronic device such as a digital camera capable of communication Sharing the electronic device with one or more other users' electronic devices, and outputting the shared picture together with the real world image on the display to generate a single photographed image.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 사용자가 모바일 단말기 등의 통신 가능한 전자기기를 이용하여 촬영한 사진에서 배경이 제외된 합성용 객체 이미지를 다른 사용자의 전자기기로 전송함에 따라 다른 사용자의 실시간 촬영되는 사진에 합성용 객체 이미지가 용이하게 합성될 수 있는 다른 효과가 있다.According to the present invention, a mobile terminal for generating a photographed image and a method for generating a photographed image are different from the object image for synthesis in which a background is excluded from a photograph photographed by a user using a communicable electronic device such as a mobile terminal. According to the transmission to the user's electronic device has a different effect that can easily be synthesized to the object image for synthesis on the real-time picture taken by another user.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 모바일 단말기 또는 다른 모바일 단말기에서 촬영된 사진을 이용하여 생성된 합성용 객체 이미지를 모바일 단말기에서 수행되는 실시간 사진 촬영에 출력하여 함께 사진 촬영 이미지로 생성되도록 하면서, 합성되는 사진에 다른 배경 이미지를 더 포함하여 사진 촬영 이미지가 생성될 수 있도록 하여, 별도의 편집 없이 실시간으로 촬영되는 사진의 배경을 변경할 수 있는 다른 효과가 있다.The mobile terminal for generating a photographed image and the method for generating a photographed image according to the present invention include real-time photographs performed on a mobile terminal by synthesizing an object image generated using a photograph taken on a mobile terminal or another mobile terminal. It is possible to change the background of a photograph taken in real time without any editing by allowing the photographed image to be generated by including another background image in the synthesized photo while outputting it to the photograph to be generated as a photographed image together. It works.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 각각 복수의 사용자들이 각각의 모바일 단말기를 이용하여 사진 촬영 이미지를 생성할 때, 어느 하나의 단말기로부터 순차적으로 전송되는 합성용 객체 이미지를 포함하여 사진 촬영 이미지를 생성한다. 생성된 사진 촬영 이미지가 합성용 객체 이미지로 사용할 수 있도록 다음 모바일 단말기에게 사진 촬영 이미지를 순차적으로 전송함으로써, 각각의 모바일 단말기가 촬영하는 사진에 수신한 합성용 객체 이미지가 순차적으로 합성되어 사진이 업데이트 된다. 이후, 각각의 사용자가 동일한 시간 및 장소에서 촬영한 것과 같은 최종 업데이트 된 사진 촬영 이미지를 생성할 수 있는 다른 효과가 있다.According to the present invention, a mobile terminal for generating a photographed image and a method for generating a photographed image are sequentially generated from any one terminal when a plurality of users generate a photographed image by using each mobile terminal. Create a photographed image including the composition object image to be transmitted. By sequentially sending the photographed image to the next mobile terminal so that the generated photographed image can be used as a composition object image, the composition object image received by each mobile terminal is sequentially synthesized to update the photograph. do. Thereafter, there is another effect that allows each user to create a last updated photo shoot image such as the one shot at the same time and place.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 최초 촬영된 사진의 합성용 객체 이미지에 포함된 사용자의 포즈 및 사진 구도에 따라 이후에 디스플레이에 출력된 합성용 객체 이미지를 포함하여 촬영되는 사진에서도 합성용 객체 이미지와 유사한 포즈 및 사진 구도를 유도함으로써, 합성용 객체 이미지를 포함하여 일관성 있게 촬영된 사진 촬영 이미지를 생성할 수 있는 다른 효과가 있다.A mobile terminal for generating a photographed image and a method for generating a photographed image according to the present invention are synthesized after being output to a display according to a pose and a composition of a user included in an object image for composing the first photographed photograph. In the photograph taken including the object image of the dragon, the composition and the composition of the photo similar to the synthetic object image is induced, and thus there is another effect of generating a consistently photographed photographed image including the object image for synthesis.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 최초 사용자로부터 촬영되고 공유된 사진이 다른 사용자들에 의해 합성용 객체 이미지로 사용되어 각 사용자들에 의해 사진 촬영 이미지로 생성된 후, 최초 사용자 및 사진 촬영 이미지를 생성한 사용자들의 각 모바일 단말기에 최종 사진 촬영 이미지가 수신되도록 함으로써, 각각의 사진 촬영 이미지를 공유한 사용자들이 본인이 제공한 합성용 객체 이미지가 사용된 최종 사진 촬영 이미지를 확인할 수 있도록 하는 다른 효과가 있다.In the mobile terminal for generating a photographed image and a method of generating a photographed image according to the present invention, a photograph taken and shared by the first user is used as a composition object image by other users and photographed by each user. After the image is generated as a photographed image, the final photographed image is received at each mobile terminal of the first user and the user who created the photographed image. There are other effects that allow you to check the final photographed image used.

본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법은, 이전 사용자의 모바일 단말기로부터 합성용 객체 이미지를 수신하는 경우, 해당 모바일 단말기의 카메라 모듈로부터 입력되는 실세계 이미지와 수신한 합성용 객체 이미지를 디스플레이에 함께 출력함으로써, 사진 촬영 이미지를 생성할 때 합성용 객체 이미지를 촬영 가이드로 사용하고 이를 통해 예상되는 합성 형태를 미리 확인하도록 하여 보다 나은 사진 촬영 이미지를 얻을 수 있도록 하는 다른 효과가 있다.The mobile terminal for generating a photographed image and the method for generating a photographed image according to the present invention, when receiving a synthesis object image from the mobile terminal of the previous user, and the real world image input from the camera module of the mobile terminal By outputting the combined object image to the display, you can use the composite object image as a shooting guide when creating a photographed image, and check the expected composite shape in advance so that you can obtain a better photographed image. There is another effect.

도 1은 본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기의 구성도,
도 2는 본 발명에 따른 모바일 단말기를 이용하여 사진 촬영 이미지를 생성하는 방법을 나타내기 위한 순서도,
도 3은 본 발명에 따른 모바일 단말기에서 레이어를 사용하여 사진 촬영 이미지를 생성하는 방법을 나타내기 위한 순서도,
도 4는 본 발명에 따른 모바일 단말기를 이용하여 실세계 장면을 촬영하여 실세계 이미지를 출력하는 일실시예를 나타내는 예시도,
도 5는 본 발명에 따른 모바일 단말기에 출력되는 실세계 이미지의 일실시예를 나타내는 예시도,
도 6은 본 발명에 따라 생성된 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 일실시예를 나타내는 예시도,
도 7은 본 발명에 따라 생성된 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 다른 실시예를 나타내는 예시도,
도 8은 본 발명에 따라 투명 처리된 실세계 객체 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 일실시예를 나타내는 예시도,
도 9는 본 발명에 따라 투명 처리된 실세계 객체 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 다른 실시예를 나타내는 예시도,
도 10은 본 발명에 따른 모바일 단말기의 움직임을 이용하여 실세계 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도,
도 11은 본 발명에 따른 모바일 단말기의 움직임을 이용하여 위치 조정된 실세계 객체 이미지와 합성용 객체 이미지의 중첩을 나타내는 예시도,
도 12는 본 발명에 따른 실세계 객체 이미지와 합성용 객체 이미지가 중첩되어 배치되는 일실시예를 나타내는 예시도,
도 13은 본 발명에 따른 모바일 단말기에서 촬영되는 실세계 인물의 움직임을 이용하여 실세계 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도,
도 14는 본 발명에 따른 실세계 인물의 움직임을 이용하여 위치 조정된 실세계 객체 이미지와 합성용 객체 이미지의 중첩을 나타내는 예시도,
도 15는 본 발명에 따른 모바일 단말기에서 합성용 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도,
도 16은 본 발명에 따른 모바일 단말기에서 위치 조정된 합성용 객체 이미지와 실세계 객체 이미지의 중첩을 나타내는 예시도이다.
1 is a configuration diagram of a mobile terminal for generating a photographed image according to the present invention;
2 is a flowchart illustrating a method of generating a photographed image using a mobile terminal according to the present invention;
3 is a flowchart illustrating a method of generating a photographed image using a layer in a mobile terminal according to the present invention;
4 is an exemplary view illustrating an embodiment of outputting a real world image by photographing a real world scene using a mobile terminal according to the present invention;
5 is an exemplary view illustrating an embodiment of a real world image output to a mobile terminal according to the present invention;
6 is an exemplary diagram illustrating an embodiment of outputting a real world image and a composition object image generated according to the present invention to a display.
7 is an exemplary diagram illustrating another embodiment of outputting a real world image and a composition object image generated in accordance with the present invention to a display.
8 is an exemplary diagram illustrating an embodiment of outputting a transparent-processed real-world object image and a composition object image to a display according to the present invention;
9 is an exemplary diagram illustrating another embodiment of outputting a transparent-processed real-world object image and a composition object image to a display according to the present invention;
10 is an exemplary diagram illustrating an embodiment for adjusting the position of a real-world object image using the movement of a mobile terminal according to the present invention;
11 is an exemplary diagram illustrating superposition of a real-world object image and a composition object image adjusted using a movement of a mobile terminal according to the present invention;
12 is an exemplary view illustrating an embodiment in which a real world object image and a composition object image are overlapped and disposed according to the present invention;
13 is an exemplary view illustrating an embodiment for adjusting the position of a real world object image by using a motion of a real world person photographed by a mobile terminal according to the present invention;
14 is an exemplary diagram illustrating the superposition of a real-world object image and a composition object image adjusted using positions of real-world characters according to the present invention;
15 is an exemplary view showing an embodiment for adjusting the position of the object image for synthesis in a mobile terminal according to the present invention,
16 is an exemplary diagram illustrating superposition of a position-synthesized object image and a real-world object image adjusted in a mobile terminal according to the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안되며, 발명자는 자신의 발명을 최선의 방법으로 설명하기 위해 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.The terms or words used in this specification and claims are not to be construed as limiting in their usual or dictionary meanings, and the inventors shall refer to the principles on which terms and concepts may be defined in order to best explain their inventions. It should be interpreted as meanings and concepts corresponding to the technical spirit of the invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the configuration shown in the embodiments and drawings described in this specification corresponds to a preferred embodiment of the present invention, and does not represent all of the technical spirit of the present invention, the configuration will be replaced at the time of filing of the present invention. There may be various equivalents and variations.

명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..모’', “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.Throughout the specification, the description that a part “includes” an element means that the element may further include other elements, except for the absence of a special objection thereto. In addition, terms such as ".. parent", ".. part", ".. system" described in the specification means a unit for processing at least one function or operation, which is hardware or software or a combination of hardware and software It may be implemented as, may be included in one device or each other device.

이하에서는 도면을 참조하여 본 발명에 따른 사진 업데이트 촬영을 위한 모바일 단말기 및 업데이트 촬영 방법을 설명한다.Hereinafter, with reference to the drawings will be described a mobile terminal and the update shooting method for the picture update shooting according to the present invention.

본 발명은 카메라 모듈(101), 디스플레이(102), 통신모듈(105), 마이크로 프로세서(103, 이하 ‘프로세서’라 함) 및 메모리(104)를 포함하는 모바일 단말기(100)에서 프로세서(103)가 다음의 단계를 수행하여 사진 촬영 이미지를 생성한다.The present invention relates to a processor 103 in a mobile terminal 100 that includes a camera module 101, a display 102, a communication module 105, a microprocessor 103 (hereinafter referred to as a “processor”) and a memory 104. Create a picture taken image by following these steps.

프로세서(103)는 카메라 모듈(101)에서 실세계 장면을 촬영하여, 실세계 객체 이미지가 포함된 실세계 이미지를 디스플레이(102)에 출력하는 단계;와 메모리(104)에 저장된 합성용 객체 이미지를 디스플레이(102)에 출력하는 단계;와 합성용 객체 이미지와 실세계 이미지를 디스플레이(102)에 배치하는 단계로서, 합성용 객체 이미지가 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실세계 이미지에 포함된 상기 실세계 객체 이미지의 후면에 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 포함하며; 및 디스플레이(102)에 배치된 합성용 객체 이미지와 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하는 단계로 이루어진다.The processor 103 captures a real-world scene in the camera module 101 and outputs a real-world image including the real-world object image to the display 102; and displays the synthesis object image stored in the memory 104. And disposing the object image for synthesis and the real world image on the display 102. When the object image for synthesis is selected to be superimposed on the rear surface of the real world object image, the image included in the real world image is included. Including a composition object image superimposed on a rear surface of the real world object image; And generating a photographing image including the composition object image and the real world object image disposed on the display 102.

도 1은 본 발명에 따른 사진 촬영 이미지를 생성하기 위한 모바일 단말기의 구성도이다. 도 1에 도시된 바와 같이, 본 발명은 카메라 모듈(101), 디스플레이(102), 통신모듈(105), 프로세서(103), 메모리(104) 및 메모리(104)에 저장되고 프로세서(103)에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함하는 모바일 단말기(100)에서 하나 이상의 프로그램은 다음과 같은 명령어를 이용하여 사진 촬영 이미지를 생성한다.1 is a block diagram of a mobile terminal for generating a photographed image according to the present invention. As shown in FIG. 1, the present invention is stored in the camera module 101, the display 102, the communication module 105, the processor 103, the memory 104 and the memory 104, and stored in the processor 103. In the mobile terminal 100 including one or more programs configured to be executed by one or more programs, a photographed image is generated using the following command.

하나 이상의 프로그램은, 카메라 모듈(101)에서 실세계 장면을 촬영하여, 실세계 객체 이미지가 포함된 실세계 이미지를 디스플레이(102)에 출력하고, 메모리(104)에 저장된 합성용 객체 이미지를 디스플레이(102)에 출력하고, 합성용 객체 이미지와 실세계 이미지를 디스플레이(102)에 배치하되, 합성용 객체 이미지가 실세계 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실세계 이미지에 포함된 상기 실세계 객체 이미지의 후면에 합성용 객체 이미지가 중첩되어 배치되도록 하며, 디스플레이(102)에 배치된 합성용 객체 이미지와 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하기 위한 명령어를 포함한다.The at least one program captures a real world scene in the camera module 101, outputs a real world image including the real world object image to the display 102, and outputs a synthesis object image stored in the memory 104 to the display 102. Outputting and composing the composition object image and the real world image on the display 102, but when the composition object image is selected to be superimposed on the rear of the real world image, the composition is synthesized on the rear side of the real world object image included in the real world image. The dragon object image is superimposed and disposed, and includes a command for generating a photographing image including a synthetic object image and a real world object image disposed on the display 102.

모바일 단말기(100)는 실세계 장면을 촬영하여 실세계 객체 이미지를 포함하는 실세계 이미지를 생성할 수 있는 카메라 모듈(101), 생성된 실세계 이미지를 출력할 수 있는 디스플레이(102), 카메라 모듈(101)을 구동하고, 실세계 이미지가 디스플레이(102)에 출력되도록 수행하는 프로세서(103), 수신된 또는 생성된 합성용 객체 이미지를 저장하는 메모리(104) 및 합성용 객체 이미지 또는 생성된 사진 촬영 이미지를 외부의 다른 모바일 단말기(미도시)로부터 수신하거나 전송할 수 있는 통신 모듈(105)을 포함한다.The mobile terminal 100 captures a real-world scene and generates a camera module 101 capable of generating a real-world image including a real-world object image, a display 102 capable of outputting the generated real-world image, and a camera module 101. A processor 103 for driving and outputting the real-world image to the display 102, a memory 104 for storing the received or generated object image for synthesis, and an object image for synthesis or the generated photographic image. Communication module 105 that can receive or transmit from another mobile terminal (not shown).

카메라 모듈(101)은 하나 이상으로 구비되며, 프로세서(103)에서 생성되는 명령에 따라 카메라 모듈(101)을 통해 입력되는 실세계 장면을 실세계 이미지로 생성한다. 실세계 이미지에는 하나 이상의 실세계 객체 이미지가 포함되어 있으며, 실세계 객체 이미지는 실세계 장면에 포함된 실세계 객체에 대응하는 이미지이다. 이때, 생성되는 실세계 이미지는 메모리(104)에 저장될 수 있다.The camera module 101 is provided with one or more, and generates a real world scene input through the camera module 101 as a real world image according to a command generated by the processor 103. The real world image includes at least one real world object image, and the real world object image is an image corresponding to the real world object included in the real world scene. In this case, the generated real world image may be stored in the memory 104.

카메라 모듈(101)은 실세계 장면을 실시간 연속적으로 촬영하여 실세계 이미지를 생성한다.The camera module 101 generates a real world image by real-time continuous shooting of a real world scene.

카메라 모듈(101)은 프로세서(103)가 생성하여 전송한 사진 촬영 명령을 이용하여 연속적으로 입력되는 실세계 이미지 중 어느 하나의 프레임을 사진 촬영 이미지로 생성할 수 있다.The camera module 101 may generate one of the real world images continuously input as a photographing image by using a photographing command generated and transmitted by the processor 103.

카메라 모듈(101)은 프로세서(103)가 생성하여 전송한 동영상 촬영 명령을 이용하여 연속적으로 입력되는 실세계 이미지 중 복수의 연속적인 프레임을 동영상 촬영 이미지로 생성할 수 있다.The camera module 101 may generate a plurality of consecutive frames from the real world images continuously input using the moving picture photographing command generated and transmitted by the processor 103 as the moving picture photographing image.

디스플레이(102)는 프로세서(103)에서 전송되는 명령에 의해 사진, 동영상 등의 이미지를 출력한다. 디스플레이(102)는 터치 모듈(미도시)을 포함하는 터치 스크린(미도시)으로 이루어져 있어, 터치 스크린을 통해 입력된 사용자 명령을 전기적 신호로 변환하여 프로세서(103)로 전송하도록 한다. 디스플레이(102)는 터치 스크린이 아닌 디스플레이로 구비될 수 있으며, 모바일 단말기(100)는 키패드 및 포인팅 장치 등의 입력 모듈(미도시)을 더 포함할 수 있다.The display 102 outputs an image such as a picture, a video, or the like by a command transmitted from the processor 103. The display 102 includes a touch screen (not shown) including a touch module (not shown), and converts a user command input through the touch screen into an electrical signal and transmits it to the processor 103. The display 102 may be provided as a display instead of a touch screen, and the mobile terminal 100 may further include an input module (not shown) such as a keypad and a pointing device.

디스플레이(102)의 크기는 한정되지 않으나, 모바일 단말기(100)에서 사용될 수 있는 크기로 이루어지는 것이 바람직하다.The size of the display 102 is not limited, but it is preferably made of a size that can be used in the mobile terminal 100.

프로세서(103)는 디스플레이(102) 또는 입력 모듈을 사용하여 입력된 사용자 명령의 전기적 신호를 해석하여 모바일 단말기(100)에 포함된 구성요소를 제어할 수 있는 제어명령을 생성한다. 프로세서(103)는 생성된 어느 하나 이상의 제어명령을 통해 카메라 모듈(101)을 구동할 수 있다. 또한, 다른 제어명령을 통해 사진 촬영 이미지 또는 동영상 촬영 이미지를 생성할 수 있다. 프로세서(103)는 모바일 단말기(100)를 제어 할 수 있는 다양한 제어명령을 생성한다.The processor 103 interprets an electrical signal of a user command input using the display 102 or an input module to generate a control command for controlling the components included in the mobile terminal 100. The processor 103 may drive the camera module 101 through one or more generated control commands. In addition, other control commands may generate a photographed image or a video captured image. The processor 103 generates various control commands for controlling the mobile terminal 100.

메모리(104)는 하나 이상으로 구성되며, 프로세서(103)에 의해 구동되는 하나 이상의 프로그램을 저장한다. 하나 이상의 프로그램은 카메라 모듈(101)을 구동하고, 통신 모듈(105)을 구동하고, 실세계 이미지에서 실세계 객체 이미지를 추출하고, 합성용 객체 이미지와 실세계 객체 이미지를 이용하여 사진 촬영 이미지를 생성할 수 있다. 또한, 모바일 단말기(100)를 운용하기 위한 운영체제, 어플리케이션, 사용자 정보 등의 기본 데이터를 저장한다.The memory 104 is comprised of one or more and stores one or more programs driven by the processor 103. One or more programs may drive the camera module 101, drive the communication module 105, extract the real world object image from the real world image, and generate a photographic image using the composite object image and the real world object image. have. In addition, it stores basic data such as an operating system, an application, and user information for operating the mobile terminal 100.

통신 모듈(105)은 외부의 다른 모바일 단말기(미도시)와 데이터 통신을 수행한다. 통신 모듈(105)은 다른 단말기에서 생성된 합성용 객체 이미지를 수신하거나, 생성된 사진 촬영 이미지를 다른 단말기로 전송할 수 있다. 통신 모듈(105)은 데이터 통신 이외에 전화 통화 등을 수행할 수도 있다.The communication module 105 performs data communication with another external mobile terminal (not shown). The communication module 105 may receive a composition object image generated by another terminal or transmit the generated photographed image to another terminal. The communication module 105 may perform a telephone call or the like in addition to data communication.

모바일 단말기(100)는 일반적으로 개인이 휴대하는 휴대전화기, 스마트폰, 스마트패드, 노트북, 태블릿 PC, 디지털 카메라, PMP(portable multimedia player) 등이 될 수 있다. 모바일 단말기(100)는 카메라 모듈, 디스플레이, 메모리 및 통신모듈 등을 포함한다.The mobile terminal 100 may generally be a mobile phone, a smart phone, a smart pad, a notebook, a tablet PC, a digital camera, a portable multimedia player (PMP), etc., which an individual carries. The mobile terminal 100 includes a camera module, a display, a memory, a communication module, and the like.

도 2는 본 발명에 따른 모바일 단말기를 이용하여 사진 촬영 이미지를 생성하는 방법을 나타내기 위한 순서도이다. 도 1에 도시된 프로세서(103)가 도 2에 도시된 다음의 단계를 수행하여 사진 촬영 이미지를 생성한다.2 is a flowchart illustrating a method of generating a photographed image using a mobile terminal according to the present invention. The processor 103 shown in FIG. 1 performs the following steps shown in FIG. 2 to generate a photographed image.

프로세서(103)는 카메라 모듈(101)에서 실세계 장면을 촬영하여, 실세계 객체 이미지가 포함된 실세계 이미지를 디스플레이(102)에 출력하는 단계(S110);와 메모리(104)에 저장된 합성용 객체 이미지를 디스플레이(102)에 출력하는 단계(S120);와 합성용 객체 이미지와 실세계 객체 이미지를 상기 디스플레이에 배치하는 단계(S130)로서, 합성용 객체 이미지가 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실세계 객체 이미지 후면에 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 포함하며; 및 디스플레이(102)에 배치된 합성용 객체 이미지와 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하는 단계(S140)로 이루어진다.The processor 103 captures a real-world scene in the camera module 101 and outputs a real-world image including the real-world object image to the display 102 (S110); and synthesizes the object image stored in the memory 104. Outputting to the display 102 (S120); and placing the composition object image and the real world object image on the display (S130), wherein the composition object image is selected to be superimposed on the rear surface of the real world object image. A case where the composition object image is superimposed on the rear of the real world object image; And generating a photographing image including the composition object image and the real world object image disposed on the display 102 (S140).

본 발명에서 “실세계 객체 이미지가 포함된 실세계 이미지를 디스플레이(102)에 출력하는 단계”는 실세계 장면 중 최소한 실세계 객체 이미지가 출력되는 단계를 의미할 수 있다.In the present invention, "outputting the real world image including the real world object image to the display 102" may mean a step of outputting at least the real world object image among the real world scenes.

본 발명에서 “합성용 객체 이미지를 상기 디스플레이에 출력하는 단계”는 최소한 합성용 객체 이미지가 출력이 되는 단계를 의미하며, 합성용 객체 이미지를 포함하여 추가적인 다른 이미지 또는 정보가 함께 출력되는 것을 포함할 수 있다.In the present invention, “outputting a synthesis object image to the display” means at least a step of outputting a synthesis object image, and may include outputting additional other images or information including the synthesis object image. Can be.

합성용 객체 이미지와 실세계 객체 이미지를 상기 디스플레이에 배치하는 단계(S130)는 합성용 객체 이미지가 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택하는 단계를 포함할 수 있다.The step S130 of arranging a composition object image and a real world object image on the display may include selecting the composition object image to be overlapped with a rear surface of the real world object image.

일 구현예에 따르면, 합성용 객체 이미지가 실세계 객체 이미지의 후면에 중첩되어 배치되는 동작의 지시 여부를 확인하는 단계를 포함할 수 있다. 일 구현예에 따르면, 실세계 이미지에서 후면에 중첩되는 실세계 객체 이미지를 선택하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, the method may include determining whether an operation of arranging the object image for synthesis is superimposed on the rear surface of the real world object image. According to an embodiment of the present disclosure, the method may include selecting a real world object image overlapping a rear surface of the real world image.

도 3은 본 발명에 따른 모바일 단말기에서 레이어를 사용하여 사진 촬영 이미지를 생성하는 방법을 나타내기 위한 순서도이다. 도 3에서는 프로세서(103)가 출력되는 각 이미지를 복수의 레이어(layer)에 제공하여 디스플레이(102)에 출력하는 방법에 대한 설명이며, 도 2를 참조하여 설명한다.3 is a flowchart illustrating a method of generating a photographed image using a layer in a mobile terminal according to the present invention. In FIG. 3, a description will be given of a method of outputting each image output by the processor 103 to a plurality of layers and outputting the same to the display 102, which will be described with reference to FIG. 2.

카메라 모듈(101)을 이용하여 실세계 장면을 촬영하고, 이에 따라 생성되는 실세계 객체 이미지가 포함된 실세계 이미지를 디스플레이(102)에 출력하는 단계(S110)에서, 디스플레이(102)에 출력되는 실세계 객체 이미지는 제 2 레이어(layer)에 제공되어 출력된다.Taking a real world scene using the camera module 101 and outputting the real world image including the real world object image generated on the display 102 (S110), the real world object image output to the display 102. Is provided to the second layer and output.

제 2 레이어는 실세계 객체 이미지에 대한 정보만 포함하거나, 실세계 객체 이미지를 포함한 실세계 이미지 전부에 대한 정보를 포함하거나, 실세계 객체 이미지에 대한 정보 및 실세계 객체 이미지를 제외한 나머지 배경은 투명 처리한 정보를 포함할 수 있다.The second layer contains only information about the real-world object image, includes information about all the real-world images including the real-world object image, or includes information about the real-world object image and the background other than the real-world object image. can do.

카메라 모듈(101)을 이용하여 실세계 장면을 촬영되고, 실세계 이미지가 생성되는 것은 도 4에서 설명된다.4, the real world scene is photographed using the camera module 101, and a real world image is generated.

도 4는 본 발명에 따른 모바일 단말기를 이용하여 실세계 장면을 촬영하여 실세계 이미지를 출력하는 일실시예를 나타내는 예시도이다. 도 4에 도시된 바와 같이, 실세계 장면의 실시간 연속적인 촬영은 모바일 단말기(100)의 카메라 모듈(101)을 통해 수행된다. 실세계 장면은 실세계에 위치한 배경(520)과 인물(510) 등의 하나 이상의 객체가 포함되어 있다. 카메라 모듈(101)이 촬영하는 실세계 장면은 이미지 데이터인 실세계 이미지로 실시간 연속적으로 생성된다. 이에 따라, 디스플레이(102)에서 실시간 연속적으로 출력되는 실세계 이미지(110)에는 카메라 모듈(미도시)로부터 촬영되는 인물(510)에 대한 실세계 객체 이미지(객체 A)와 배경에 대한 실세계 배경 이미지가 포함될 수 있다. 4 is an exemplary diagram illustrating an embodiment of outputting a real world image by photographing a real world scene using a mobile terminal according to the present invention. As shown in FIG. 4, real-time continuous shooting of a real-world scene is performed through the camera module 101 of the mobile terminal 100. The real world scene includes one or more objects such as a background 520 and a person 510 located in the real world. The real world scene photographed by the camera module 101 is continuously generated in real time as a real world image which is image data. Accordingly, the real world image 110 continuously output in real time on the display 102 includes a real world object image (object A) of the person 510 photographed from the camera module (not shown) and a real world background image of the background. Can be.

카메라 모듈(101)에 의해 촬영되는 실세계 장면에서 인물(510)의 위치가 이동하면 실세계 이미지 내에서의 객체 A의 실세계 객체 이미지도 인물(510)의 이동되는 위치에 대응하여 위치가 이동되도록 디스플레이(102)에 실시간 출력된다. 또한 객체 A의 실세계 객체 이미지와 실세계 배경 이미지는 카메라 모듈(101)의 회전 또는 이동을 통한 카메라 앵글 변화에 따라 촬영되는 실세계 장면이 변화되어 실세계 이미지(110) 내에서 실세계 객체 이미지 및 실세계 배경 이미지가 위치 이동되어 출력된다.When the position of the person 510 is moved in the real world scene photographed by the camera module 101, the real world object image of the object A in the real world image is also displayed so that the position is moved in correspondence with the position of the person 510. In real time. In addition, the real world object image and the real world background image of the object A is changed according to the camera angle change through the rotation or movement of the camera module 101 changes the real world scene, the real world object image and the real world background image in the real world image 110 The position is shifted and output.

카메라 모듈(101)을 이용하여 실세계 장면이 촬영되고, 촬영된 실세계 장면에 대응하는 실세계 이미지가 디스플레이(102)에 출력되는 일실시예는 도 5에서 설명된다.An embodiment in which a real world scene is photographed using the camera module 101 and a real world image corresponding to the captured real world scene is output to the display 102 is described with reference to FIG. 5.

도 5는 본 발명에 따른 모바일 단말기에 출력되는 실세계 이미지의 일실시예를 나타내는 예시도이다. 도 5의 (a)에 도시된 바와 같이, 실세계 장면이 촬영되어 디스플레이(102)에 출력되는 실세계 이미지(110)는 실세계 객체 이미지(객체 A)와 실세계 배경 이미지를 포함할 수 있다.5 is an exemplary view illustrating an embodiment of a real world image output to a mobile terminal according to the present invention. As illustrated in (a) of FIG. 5, the real world image 110, in which the real world scene is captured and output to the display 102, may include a real world object image (object A) and a real world background image.

(a)의 실세계 이미지는 (c)와 같이 하나의 이미지에 실세계 객체 이미지와 실세계 배경 이미지가 모두 포함되어 구성될 수 있다. 또한, (a)의 실세계 이미지는 (d)와 같이 투명 처리된 나머지 이미지를 포함하는 실세계 객체 이미지와 (e)와 같이 실세계 객체 이미지가 제외된 실세계 배경 이미지가 결합되어 구성될 수 있다. 또한 도시되지 않았으나, 나머지 이미지가 제외된 객체 A만으로 이루어진 실세계 객체 이미지와 (e)와 같이 실세계 객체 이미지가 제외된 실세계 배경 이미지가 결합되어 구성될 수 있다.The real world image of (a) may be configured to include both the real world object image and the real world background image in one image as shown in (c). Also, the real world image of (a) may be configured by combining a real world object image including the remaining transparent image as shown in (d) and a real world background image excluding the real world object image as shown in (e). Also, although not shown, the real world object image including only the object A excluding the remaining image and the real world background image without the real world object image as shown in (e) may be combined.

디스플레이(102)에는 도 5의 (b)에 도시된 바와 같이, 실세계 장면이 촬영되고, (d)와 같이 투명 처리된 나머지 이미지를 포함하는 실세계 이미지(112)만 출력될 수 있으며, 나머지 이미지인 실세계 배경 이미지의 출력은 제외될 수 있다. As shown in (b) of FIG. 5, the display 102 may output only a real world image 112 including a remaining image which is taken as a real world scene and is transparently processed as shown in (d). The output of the real world background image may be excluded.

또한 도시되지 않았으나, 실세계 장면이 촬영되고, 객체 A만으로 이루어진 실세계 객체 이미지만 출력될 수 있으며, 나머지 실세계 배경 이미지의 출력은 제외될 수 있다. Also, although not shown, a real world scene may be photographed, and only a real world object image including only the object A may be output, and the output of the remaining real world background image may be excluded.

실세계 배경 이미지의 출력이 제외된 실세계 이미지(112)의 경우에는 추후 실세계 배경 이미지 또는 다른 배경 이미지 등이 결합될 수 있다.In the case of the real world image 112 in which the output of the real world background image is excluded, a real world background image or another background image may be combined later.

(d)와 같이 투명 처리된 나머지 이미지를 포함하는 실세계 이미지(112)는 (c)와 같이 하나의 이미지로 이루어진 실세계 이미지(110)에서 선택된 실세계 객체 이미지(객체 A)를 제외한 나머지 이미지에 투명 처리를 수행하여 생성할 수 있다.The real world image 112 including the remaining transparent image as shown in (d) is transparent to the remaining images except the real world object image (object A) selected from the real world image 110 composed of one image as shown in (c). Can be generated by

또는 (c)와 같이 하나의 이미지로 이루어진 실세계 이미지(110)에서 선택된 실세계 객체 이미지(객체 A)를 제외한 나머지 이미지의 출력을 제외하거나 삭제하여 생성할 수 있다.Alternatively, as shown in (c), the output of the remaining images except for the selected real world object image (object A) may be excluded or deleted from the real world image 110 including one image.

본 발명에서 용어 “실세계 이미지”는 실세계 장면 중 디스플레이에 결과적으로 출력되는 이미지를 나타내기 위하여 사용될 수 있다.In the present invention, the term “real world image” may be used to indicate an image that is eventually output to a display among real world scenes.

실세계 이미지(110)에서 실세계 객체 이미지(객체 A)를 선택하는 단계는 실세계 이미지(110)를 디스플레이에 출력하기 이전 또는 출력한 이후에 수행할수 있으며, 특히, 출력한 이후에 수행한다. 실세계 객체 이미지(객체 A)의 선택은 프로세서(103)가 실세계 이미지(110)에 포함된 객체 A를 인식하고, 인식된 객체 A를 실세계 객체 이미지(객체 A)로 설정하여 이루어진다.The step of selecting the real world object image (object A) from the real world image 110 may be performed before or after outputting the real world image 110 to the display. In particular, the output may be performed after the output. The selection of the real world object image (object A) is performed by the processor 103 recognizing the object A included in the real world image 110 and setting the recognized object A as the real world object image (object A).

또는, 실세계 객체 이미지(객체 A)의 선택은 사용자로부터 입력되는 객체 선택 신호를 이용하여 디스플레이(102)에 출력된 실세계 이미지(110)에서 객체 선택 신호에 대응하는 객체 A를 인식하고, 인식된 객체 A를 실세계 객체 이미지(객체 A)로 설정하여 이루어진다. 이때, 객체 선택 신호는 사용자가 모바일 단말기(100)에 구비된 입력 모듈(미도시) 또는 디스플레이(102)에 포함된 터치 모듈을 통해 입력할 수 있다. 터치 모듈을 이용한 객체 선택 신호의 입력은 디스플레이(102)에 출력된 실세계 이미지(110)에서 사용자가 객체로 선택하고자 하는 객체의 위치를 터치하는 경우, 터치된 위치의 정보가 객체 선택 신호로 인식되어, 터치 위치의 객체가 실세계 객체 이미지(객체 A)로 설정된다. 또는 디스플레이(102)에 출력된 실세계 이미지(110)에서 사용자가 객체로 선택하고자 하는 객체의 윤곽선을 터치 및 드래그의 입력을 수행하는 경우, 입력된 터치 및 드래그의 입력 정보가 객체 선택 신호로 인식되어, 터치 및 드래그에 대응하는 객체가 실세계 객체 이미지(객체 A)로 설정된다.Alternatively, the selection of the real world object image (object A) recognizes the object A corresponding to the object selection signal in the real world image 110 output to the display 102 using the object selection signal input from the user, and recognizes the recognized object. This is done by setting A to the real world object image (object A). In this case, the object selection signal may be input by the user through an input module (not shown) included in the mobile terminal 100 or a touch module included in the display 102. The input of the object selection signal using the touch module, when the user touches the position of the object to be selected as the object in the real world image 110 output to the display 102, the information of the touched position is recognized as the object selection signal The object at the touch position is set to the real world object image (object A). Alternatively, when the user touches and drags the contour of an object to be selected as an object in the real world image 110 output to the display 102, the input information of the touch and drag input is recognized as an object selection signal. , Objects corresponding to touch and drag are set to the real world object image (Object A).

모바일 단말기(100)에 구비된 입력 모듈(미도시)을 사용하여 객체를 선택하는 경우에도, 입력된 정보에 따른 디스플레이(102)에 출력된 실세계 이미지(110) 내에서 선택된 객체를 실세계 객체 이미지(객체 A)로 설정한다.Even when an object is selected using an input module (not shown) included in the mobile terminal 100, the object selected in the real world image 110 output to the display 102 according to the input information is selected from the real world object image ( Set to object A).

디스플레이(102)는 하나 이상의 레이어를 사용하여 이미지를 출력한다. 도 5에 도시된 (a)의 실세계 이미지(110) 또는 (b)의 실세계 이미지(112)는 제 2 레이어(layer)에 제공되어 디스플레이(102)에 출력된다. 디스플레이(102)에 출력되는 실세계 이미지(110)는 (a)와 같이 실세계 객체 이미지(객체 A)와 실세계 배경 이미지를 모두 포함하는 하나의 이미지로 이루어지거나, (d)의 실세계 객체 이미지와 (e)의 실세계 배경 이미지의 두 개의 이미지가 결합되어 이루어지거나, 객체 A만 존재하는 실세계 객체 이미지와 (e)의 실세계 배경 이미지의 두 개의 이미지가 결합되어 이루어질 수 있다.Display 102 outputs an image using one or more layers. The real world image 110 of (a) or real world image 112 of (b) shown in FIG. 5 is provided to the second layer and output to the display 102. The real world image 110 output to the display 102 is composed of a single image including both the real world object image (Object A) and the real world background image as shown in (a), or the real world object image of (d) and (e) The two images of the real world background image of) may be combined or the two images of the real world object image of which only object A exists and the real world background image of (e) may be combined.

또한, (b)와 같이, 실세계 이미지(112)는 (d)와 같이 실세계 객체 이미지(객체 A)와 나머지 이미지에 투명 처리가 수행된 이미지를 포함하는 이미지이다. 또는, 객체 A만을 포함하는 실세계 이미지(미도시)이다.In addition, as shown in (b), the real world image 112 is an image including a real world object image (object A) and an image in which transparent processing is performed on the remaining images as shown in (d). Alternatively, the image is a real world image (not shown) including only the object A. FIG.

이에 따라, 제 2 레이어(layer)에 배치되는 실세계 이미지(112)는 객체 A를 포함하며, 필요에 따라 나머지 이미지 또는 나머지 이미지에 투명 처리가 수행된 이미지를 포함할 수 있다.Accordingly, the real world image 112 disposed on the second layer may include the object A, and may include the remaining image or the image on which the transparent process is performed on the remaining image as necessary.

한편, 추출된 실세계 객체 이미지와 실세계 배경 이미지가 결합된 실세계 이미지(110)가 디스플레이(102)에 출력되는 경우, 실세계 객체 이미지는 제 2 레이어에 제공되고, 실세계 배경 이미지는 제 3 레이어에 제공될 수 있다.On the other hand, when the real world image 110 combined with the extracted real world object image and the real world background image is output on the display 102, the real world object image is provided to the second layer, and the real world background image is provided to the third layer. Can be.

S110 단계 이후에, 메모리(104)에 저장된 합성용 객체 이미지를 디스플레이(102)에 출력하는 단계(S120)에서, 디스플레이(102)에 출력되는 합성용 객체 이미지는 제 1 레이어에 제공되어 출력된다. S120 단계에서 합성용 객체 이미지는 실세계 이미지가 출력되는 디스플레이(102)에 함께 출력되며, 디스플레이(102)에 출력되는 합성용 객체 이미지는 도 6 및 도 7과 같은 실시예 또는 도 8 및 도 9와 같은 다른 실시예의 형태로 출력될 수 있다.After step S110, in step S120 of outputting the synthesis object image stored in the memory 104 to the display 102, the synthesis object image output to the display 102 is provided and output to the first layer. In operation S120, the object image for synthesis is output together with the display 102 on which the real world image is output, and the object image for synthesis output on the display 102 is the same as the embodiment shown in FIGS. 6 and 7 or FIGS. 8 and 9. It may be output in the form of the same other embodiment.

도 6은 본 발명에 따라 생성된 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 일실시예를 나타내는 예시도이다. 도 6의 (a)에 도시된 바와 같이, 모바일 단말기(100)에 구비된 디스플레이(102)에는 카메라 모듈(101)이 실세계 장면을 촬영하여 생성되는 실세계 이미지(110)가 제 2 레이어에 배치되어 출력된다. 6 is an exemplary diagram illustrating an embodiment of outputting a real world image and a composition object image generated in accordance with the present invention to a display. As shown in FIG. 6A, a real world image 110 generated by the camera module 101 photographing a real world scene is disposed on a second layer in the display 102 of the mobile terminal 100. Is output.

(b)에 도시된 바와 같이, 합성용 객체 이미지(210-1, 객체 B)는 객체 B의 이미지만 존재하는 이미지이다. 합성용 객체 이미지(210-1, 객체 B)는 객체 B에 대한 이미지 정보만을 포함하고 있을 뿐, 객체 B 이외의 배경 정보 등은 포함되지 않는다. 합성용 객체 이미지(210-1, 객체 B)는 제 1 레이어에 배치되어 디스플레이(102)에 출력된다.As shown in (b), the object image 210-1 (object B) for synthesis is an image in which only the image of the object B exists. The object image 210-1 (object B) for synthesis only includes image information about the object B, and does not include background information other than the object B. The object image 210-1 (object B) for synthesis is disposed on the first layer and output to the display 102.

(a)의 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(110)와 (b)의 합성용 객체 이미지(210-1, 객체 B)가 함께 디스플레이(102)에 출력되는 경우, (c)와 같이 제 2 레이어에 제공된 실세계 이미지(110)와 제 2 레이어의 전면에 위치하는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 함께 포함되어 디스플레이(102)에 출력된다.When the real world image 110 including the real world object image (object A) of (a) and the object image 210-1 (object B) for composition of (b) are output together on the display 102, (c) As shown, the real world image 110 provided in the second layer and the composition object image (object B) provided in the first layer positioned in front of the second layer are included together and output to the display 102.

도 7은 본 발명에 따라 생성된 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 다른 실시예를 나타내는 예시도이다. 도 7의 (a)에 도시된 바와 같이, 모바일 단말기(100)에 구비된 디스플레이(102)에는 카메라 모듈(101)이 실세계 장면을 촬영하여 생성되는 실세계 이미지(110)가 제 2 레이어에 배치되어 출력된다. 7 is an exemplary diagram illustrating another embodiment of outputting a real world image and a composition object image generated in accordance with the present invention to a display. As shown in FIG. 7A, a real world image 110 generated by the camera module 101 photographing a real world scene is disposed on a second layer in the display 102 of the mobile terminal 100. Is output.

(b)에 도시된 바와 같이, 합성용 이미지(210-2, 객체 B)는 합성용 객체 이미지(객체 B)와 나머지 이미지에 투명 처리를 수행한 이미지를 포함한다. 합성용 이미지(210-2, 객체 B)는 객체 B에 대한 이미지 정보와 투명 처리된 나머지 이미지에 대한 투명 처리 정보 등도 포함하고 있다. 합성용 이미지(210-2, B)는 제 1 레이어에 배치되어 디스플레이(102)에 출력된다.As shown in (b), the image 210-2 for synthesis (object B) includes a composition object image (object B) and an image obtained by performing transparent processing on the remaining images. The composition image 210-2 (object B) also includes image information on the object B and transparent processing information on the remaining transparent images. The synthesis images 210-2 and B are disposed on the first layer and output to the display 102.

일 구현예에 따르면, 합성용 객체 이미지(객체 B)와 투명 처리된 나머지 이미지를 포함하는 합성용 이미지를 나타내기 위하여 사용하는 용어 "합성용 이미지(210-2)"는 합성용 객체 이미지가 포함되어 있으므로 필요에 따라 "합성용 객체 이미지(210-2)" 또는 "합성용 객체 이미지(210-2, 객체 B)"로 표현할 수 있다.According to one embodiment, the term "synthesis image 210-2" used to represent a composition image including the object image for synthesis (object B) and the remaining transparent image is included in the object image for synthesis. Therefore, it may be expressed as "synthetic object image 210-2" or "synthetic object image 210-2 (object B)" as necessary.

(a)의 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(110)와 (b)의 합성용 이미지(210-2, 객체 B)가 함께 디스플레이(102)에 출력되는 경우, (c)와 같이 제 2 레이어에 제공된 실세계 이미지(110)와 제 2 레이어의 전면에 위치하는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 함께 포함되어 디스플레이(102)에 출력된다. 이때, 합성용 이미지(210-2, 객체 B)의 합성용 객체 이미지 이외의 나머지 이미지에 투명 처리된 이미지는 디스플레이(102)에서 투명하게 출력되므로, 제 2 레이어에 위치한 실세계 이미지(110) 중에서 합성용 객체 이미지(객체 B)가 위치하는 영역은 가려지게 되고, 합성용 객체 이미지(객체 B)를 제외한 실세계 객체 이미지(객체 A) 및 나머지 이미지인 실세계 배경 이미지는 모두 정상적으로 출력된다.When the real world image 110 including the real world object image (object A) of (a) and the composition image 210-2 (object B) of (b) are output together on the display 102, (c) and Similarly, the real world image 110 provided in the second layer and the composition object image (object B) provided in the first layer positioned in front of the second layer are included together and output to the display 102. In this case, since the image processed transparently to the other images other than the object image for synthesis of the image 210-2 for synthesis (B) is transparently output from the display 102, the image is synthesized from the real world image 110 located on the second layer. The area where the dragon object image (object B) is located is covered, and the real world object image (object A) and the real world background image, which are the remaining images except for the synthesis object image (object B), are normally output.

도 6 및 도 7의 (c)와 같이, 실시간 연속적으로 촬영되어 출력되는 실세계 이미지(110)와 합성용 객체 이미지(210-1) 또는 합성용 이미지(210-2)가 함께 디스플레이에(102)에 출력되고, 모바일 단말기(100)는 사진 촬영 이미지의 생성을 요청하는 명령이 입력되는 경우, 또는 자동으로 디스플레이(102)에 실시간 연속적으로 출력되는 실세계 이미지(110)와 합성용 객체 이미지(210-1) 또는 합성용 이미지(210-2)를 결합하여 사진 촬영 이미지(130-1, 130-2)를 생성한다. 결합되는 사진 촬영 이미지(130-1, 130-2)는 실세계 이미지(110)와 합성용 객체 이미지(객체 B)의 각각 어느 하나의 프레임 또는 복수의 프레임인 것을 특징으로 한다.As shown in FIG. 6 and FIG. 7C, the real world image 110 photographed and output in real time and the object image 210-1 for synthesis or the image 210-2 for synthesis are displayed on the display 102 together. Is output to the mobile terminal 100 when a command for requesting generation of a photographed image is input, or the real-world image 110 and the composition object image 210-which are automatically output to the display 102 in real time in real time. 1) Alternatively, the combined image 210-2 is combined to generate the photographed images 130-1 and 130-2. The combined photographed images 130-1 and 130-2 may be any one frame or a plurality of frames of the real world image 110 and the object image for synthesis (object B).

도 6 및 도 7의 실시예에서는 도 5의 (a)에 도시된 실세계 이미지(110)에 합성용 객체 이미지(210-1) 또는 합성용 객체 이미지를 포함하는 합성용 이미지(210-2)가 함께 출력되는 것을 설명하였다.6 and 7, the synthesis image 210-2 including the synthesis object image 210-1 or the synthesis object image is included in the real world image 110 illustrated in FIG. 5A. The output is described together.

본 발명에서 용어 “합성용 객체 이미지를 상기 디스플레이에 출력”은 합성용 이미지를 디스플레이에 출력하여 결과적으로 합성용 객체 이미지가 출력되는 것을 포함한다.In the present invention, the term “outputting a synthesis object image to the display” includes outputting a synthesis image to the display and consequently outputting a synthesis object image.

한편, 합성용 객체 이미지(210-1) 또는 합성용 이미지(210-2)를 생성하는 방법은 다음 세 가지 형태로 수행될 수 있다. 첫 번째, 합성용 객체 이미지(210-1) 또는 합성용 이미지(210-2)를 생성하기 위해서 모바일 단말기(110)는 다른 실세계 장면을 촬영하여 합성용 실세계 이미지를 생성하고, 생성된 합성용 실세계 이미지에서 합성용 객체 이미지를 추출할 수 있다. 추출된 합성용 객체 이미지(객체 B)는 합성용 객체 이미지(객체 B)를 제외한 나머지 이미지가 제외된 합성용 객체 이미지(210-1)만으로 이루어질 수 있다. 또는 합성용 객체 이미지(객체 B)와 나머지 이미지에 투명 처리가 수행된 이미지를 포함하는 합성용 이미지(210-2)로 생성될 수 있다. Meanwhile, the method of generating the synthesis object image 210-1 or the synthesis image 210-2 may be performed in the following three forms. First, in order to generate the synthesis object image 210-1 or the synthesis image 210-2, the mobile terminal 110 generates another real world image by synthesizing another real world scene, and generates the synthesized real world. You can extract the object image for compositing from the image. The extracted object image for synthesis (object B) may be composed of only the object image 210-1 for which the other images except for the object image (object B) for synthesis are excluded. Alternatively, the image may be generated as a synthesis image 210-2 including an object image for synthesis (object B) and an image in which transparent processing is performed on the remaining images.

두 번째, 합성용 객체 이미지를 생성할 수 있는 합성용 실세계 이미지는 다른 모바일 단말기(미도시)에서 촬영되고, 모바일 단말기(100)가 다른 모바일 단말기(미도시)로부터 합성용 실세계 이미지를 수신하여 합성용 객체 이미지를 추출할 수 있다. Second, the real world image for synthesis, which can generate the object image for synthesis, is photographed on another mobile terminal (not shown), and the mobile terminal 100 receives the real world image for synthesis from another mobile terminal (not shown) for synthesis. You can extract the object image.

세 번째, 합성용 객체 이미지를 생성할 수 있는 합성용 실세계 이미지는 다른 모바일 단말기(미도시)에서 촬영된다. 다른 모바일 단말기(미도시)는 합성용 실세계 이미지에서 합성용 객체 이미지를 추출한다. 다른 모바일 단말기(미도시)는 추출한 합성용 객체 이미지를 모바일 단말기(100)에게 전송하고, 모바일 단말기(100)는 합성용 객체 이미지를 수신하여 사용할 수 있다.Third, the real world image for synthesis, which can generate the object image for synthesis, is captured by another mobile terminal (not shown). Another mobile terminal (not shown) extracts the object image for synthesis from the real world image for synthesis. Another mobile terminal (not shown) may transmit the extracted object image for synthesis to the mobile terminal 100, and the mobile terminal 100 may receive and use the object image for synthesis.

도 8은 본 발명에 따라 실세계 객체 이미지와 투명 처리된 배경을 포함하는 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 일실시예를 나타내는 예시도이다. 도 8의 (a)에 도시된 바와 같이, 모바일 단말기(100)에 구비된 디스플레이(102)에는 카메라 모듈(101)이 실세계 장면을 촬영하여 생성되는 실세계 이미지 중 실세계 객체 이미지와 투명 처리된 배경을 포함하는 실세계 이미지(112)가 출력된다. 도 8의 (a)에서 실세계 이미지(112)의 출력은 촬영되어 생성되는 실세계 이미지(110)에서 도 5의 (d)와 같이 실세계 객체 이미지(객체 A)를 제외한 나머지 이미지에 투명 처리를 수행하여 생성된 실세계 이미지(112)만을 디스플레이(102)에 출력함으로써 이루어진다. FIG. 8 is an exemplary diagram illustrating an embodiment of outputting a real world image including a real world object image and a transparent processed background and an object image for synthesis to a display according to the present invention. As shown in (a) of FIG. 8, the display 102 of the mobile terminal 100 includes a real world object image and a transparent background of real world images generated by the camera module 101 photographing a real world scene. The real world image 112 is included. In (a) of FIG. 8, the output of the real-world image 112 is performed by performing transparent processing on the remaining images except for the real-world object image (object A) as shown in FIG. 5 (d). This is done by outputting only the generated real world image 112 to the display 102.

또는, 다른 실시예에서 실세계 이미지(미도시)의 출력은 촬영되어 생성되는 실세계 이미지에서 실세계 객체 이미지(객체 A)를 제외한 나머지 이미지의 출력을 제외시킴으로써, 실세계 객체 이미지(객체 A)만을 디스플레이(102)에 출력함으로써 이루어진다. Alternatively, in another embodiment, the output of the real-world image (not shown) excludes the output of the remaining image except the real-world object image (object A) from the real-world image generated by photographing, thereby displaying only the real-world object image (object A) 102 By outputting

이에 따라, 도 8의 (a)에 도시된 객체 A와 투명 처리가 수행된 나머지 이미지를 포함하는 실세계 이미지(112) 또는 객체 A 만을 포함하는 실세계 이미지(미도시)가 제 2 레이어에 배치되어 디스플레이(102)에 출력된다.Accordingly, the real world image 112 including the object A and the remaining image subjected to the transparent processing shown in FIG. 8A or the real world image (not shown) including only the object A is disposed on the second layer and displayed. Is output to 102.

(b)에 도시된 바와 같이, 합성용 객체 이미지(210-1, B)는 객체 B의 이미지만 존재하는 이미지이다. 합성용 객체 이미지(210-1, B)는 객체 B에 대한 이미지 정보만을 포함하고 있을 뿐, 객체 B 이외의 배경 정보 등은 포함되지 않는다. 합성용 객체 이미지(210-1, 객체 B)는 제 1 레이어에 배치되어 디스플레이(102)에 출력된다.As shown in (b), the synthesis object images 210-1 and B are images in which only the image of the object B exists. The composition object images 210-1 and B only include image information of the object B, but do not include background information other than the object B. The object image 210-1 (object B) for synthesis is disposed on the first layer and output to the display 102.

(a)의 실세계 객체 이미지(객체 A) 만을 포함하는 실세계 이미지(112)와 (b)의 합성용 객체 이미지(210-1, 객체 B)가 함께 디스플레이(102)에 출력되는 경우, (c)와 같이 제 2 레이어에 제공된 실세계 이미지(110)와 제 2 레이어의 전면에 위치하는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 함께 포함되어 디스플레이(102)에 출력된다.When the real-world image 112 including only the real-world object image (object A) of (a) and the composition object image 210-1 (object B) of (b) are output together on the display 102, (c) As shown, the real world image 110 provided in the second layer and the composition object image (object B) provided in the first layer positioned in front of the second layer are included together and output to the display 102.

도 9는 본 발명에 따라 실세계 객체 이미지와 투명 처리된 배경을 포함하는 실세계 이미지와 합성용 객체 이미지를 디스플레이에 출력하는 다른 실시예를 나타내는 예시도이다. 도 9의 (a)에 도시된 바와 같이, 모바일 단말기(100)에 구비된 디스플레이(102)에는 카메라 모듈(101)이 실세계 장면을 촬영하여 생성되는 실세계 이미지 중 실세계 객체 이미지와 투명 처리된 배경을 포함하는 실세계 이미지(112)가 제 2 레이어에 배치되어 출력된다. 도 9의 (a)에서 실세계 이미지(112)의 출력은 촬영되어 생성되는 실세계 이미지에서 도 5의 (d)와 같이 객체 A를 제외한 나머지 이미지에 투명 처리를 수행하여 생성된 실세계 이미지(112)만을 디스플레이(102)에 출력함으로써 이루어진다.9 is an exemplary diagram illustrating another embodiment of outputting a real world image including a real world object image and a transparent processed background and a composition object image to a display according to the present invention. As shown in FIG. 9A, the display 102 of the mobile terminal 100 includes a real world object image and a transparent background of real world images generated by the camera module 101 photographing a real world scene. The real world image 112 including the same is disposed on the second layer and output. In (a) of FIG. 9, the output of the real-world image 112 is only a real-world image 112 generated by performing transparent processing on an image other than the object A as shown in FIG. By outputting to display 102.

또는, 다른 실시예의 실세계 이미지(미도시)의 출력은 촬영되어 생성되는 실세계 이미지에서 실세계 객체 이미지(객체 A)를 제외한 나머지 이미지의 출력을 제외하거나 나머지 이미지를 삭제하여 실세계 객체 이미지(객체 A) 만을 디스플레이(102)에 출력함으로써 이루어진다.Alternatively, the output of the real world image (not shown) according to another embodiment may exclude the output of the remaining images except for the real world object image (object A) from the real world image generated and photographed, or delete only the real world object image (object A). By outputting to display 102.

이에 따라, 도 9의 (a)에 도시된 객체 A와 투명 처리가 수행된 나머지 이미지로 이루어진 실세계 이미지(112) 또는 객체 A 만을 포함하는 실세계 이미지(미도시)가 제 2 레이어에 배치되어 디스플레이(102)에 출력된다.Accordingly, a real world image 112 including only the object A or the real world image 112 including the object A shown in FIG. 9A and the remaining images subjected to the transparent processing is disposed on the second layer to display the display ( 102).

(b)에 도시된 바와 같이, 합성용 이미지(210-2)는 합성용 객체 이미지(객체 B)와 나머지 이미지에 투명 처리를 수행한 이미지를 포함한다. 합성용 이미지(210-2, B)는 합성용 객체 이미지(객체 B)에 대한 이미지 정보와 투명 처리된 나머지 이미지에 대한 투명 처리 정보 등도 포함하고 있다. 합성용 이미지(210-2, B)는 제 1 레이어에 배치되어 디스플레이(102)에 출력된다.As shown in (b), the composition image 210-2 includes a composition object image (object B) and an image obtained by performing transparent processing on the remaining images. The synthesis images 210-2 and B also include image information on the synthesis object image (object B) and transparent processing information on the remaining transparent images. The synthesis images 210-2 and B are disposed on the first layer and output to the display 102.

(a)의 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(112)와 (b)의 합성용 이미지(210-2, 객체 B)가 함께 디스플레이(102)에 출력되는 경우, (c)와 같이 제 2 레이어에 제공된 실세계 이미지(110)와 제 2 레이어의 전면에 위치하는 제 1 레이어에 제공된 합성용 이미지(210-2, 객체 B)가 함께 포함되어 디스플레이(102)에 출력된다.When the real world image 112 including the real world object image (object A) of (a) and the composition image 210-2 (object B) of (b) are output to the display 102 together, (c) and Similarly, the real world image 110 provided in the second layer and the synthesis image 210-2 (object B) provided in the first layer positioned in front of the second layer are included together and output to the display 102.

도 8 및 도 9의 (c)와 같이, 실시간 연속적으로 촬영되어 출력되는 객체 A와 투명 처리가 수행된 나머지 이미지 또는 객체 A 만을 포함하는 실세계 이미지(112)와 합성용 객체 이미지(210-1) 또는 합성용 객체 이미지(객체 B)와 투명 처리된 나머지 이미지를 포함하는 합성용 이미지(210-2)와 함께 디스플레이에(102)에 출력되고, 모바일 단말기(100)는 사진 촬영 이미지의 생성을 요청하는 명령이 입력되는 경우, 또는 자동으로 디스플레이(102)에 실시간 연속적으로 출력되는 실세계 이미지(112)와 합성용 객체 이미지(210-1) 또는 합성용 객체 이미지(객체 B)와 투명 처리된 나머지 이미지를 포함하는 합성용 이미지(210-2)를 결합하여 사진 촬영 이미지(130-3, 130-4)를 생성한다. 결합되는 사진 촬영 이미지(130-1, 130-2)는 실세계 이미지(110)와 합성용 객체 이미지(210-1, 210-2)의 각각 어느 하나의 프레임 또는 복수의 프레임인 것을 특징으로 한다.As shown in (c) of FIG. 8 and FIG. 9, the real world image 112 and the composition object image 210-1 including only the object A which is photographed and output in real time and the remaining image or the object A which has been transparently processed. Alternatively, the image is output to the display 102 together with the composition image 210-2 including the composition object image (object B) and the remaining transparent image, and the mobile terminal 100 requests generation of a photographed image. The real world image 112 and the composition object image 210-1 or the composition object image (object B) which are automatically output in real time continuously on the display 102 when the command is input, The photographing images 130-3 and 130-4 are generated by combining the synthesis image 210-2 including the image. The combined photographed images 130-1 and 130-2 may be any one frame or a plurality of frames of the real world image 110 and the composite object images 210-1 and 210-2, respectively.

도 8 및 도 9의 실시예에서는 도 5의 (b)에 도시된 실세계 이미지(112)에 합성용 객체 이미지(210-1) 또는 합성용 이미지(210-2)가 함께 출력되는 것을 설명하였다.8 and 9, the synthesis object image 210-1 or the synthesis image 210-2 is output together with the real world image 112 illustrated in FIG. 5B.

본 명세서에서 용어 “합성용 이미지” 또는 “합성용 이미지(210-2)”는 합성용 객체 이미지를 포함하고 있으므로, “합성용 이미지(210-2)” 또는 “합성용 이미지(210-2, 객체 B)”로 표현할 수 있다.As used herein, the term “synthetic image” or “synthetic image 210-2” includes an object image for synthesis, and thus, “synthetic image 210-2” or “synthetic image 210-2, Object B) ”.

S120 단계에서 제 1 레이어에 합성용 객체 이미지를 제공하고, 디스플레이(102)에 출력한 이후, 출력된 합성용 객체 이미지가 실세계 객체 이미지의 후면에 배치되는지를 선택받는다(S131).In operation S120, the composition object image is provided to the first layer, and after being output to the display 102, it is selected whether the output composition object image is disposed behind the real-world object image (S131).

S131 단계에서 사용자로부터 모바일 단말기(100)의 입력 모듈(미도시)을 통해 합성용 객체 이미지의 후면 배치 선택을 입력 받고, 프로세서(103)는 입력된 후면 배치 선택에 따라 합성용 객체 이미지를 실세계 객체 이미지의 후면에 배치한다.In step S131, the rear layout selection of the composition object image is received from the user through an input module (not shown) of the mobile terminal 100, and the processor 103 generates the composition object image based on the input rear layout selection. Place it on the back of the image.

이때, S131 단계에서 후면 배치가 선택되기 이전 또는 이후에 디스플레이(102)에 출력된 실세계 이미지에서 후면 배치의 기준이 되는 실세계 객체 이미지가 선택 및 추출되는 과정이 수행된다. In this case, a process of selecting and extracting the real world object image, which is a reference for the rear layout, from the real world image output to the display 102 before or after the rear layout is selected in step S131 is performed.

도 5의 (a)를 참조하여 설명하면, 실세계 이미지(110)에서 실세계 객체 이미지(객체 A)가 추출되기 위해서는 실세계 이미지(110) 내에 존재하는 하나 이상의 객체가 인식되어야 한다. 실세계 이미지(110)에서 객체 A가 존재할 수 있으나, 객체가 둘 이상 존재하는 경우, 실세계 이미지(110)로부터 추출될 객체 A가 선택되어야 한다. 또는 두 개 이상의 객체가 선택될 수 있다.Referring to FIG. 5A, at least one object present in the real world image 110 must be recognized in order to extract the real world object image (object A) from the real world image 110. Object A may exist in the real world image 110, but if more than one object exists, object A to be extracted from the real world image 110 should be selected. Alternatively, two or more objects may be selected.

실세계 이미지(110)에서 선택되는 객체는 프로세서(103)에 의해 객체가 자동 인식되어 선택되거나, 사용자에 의해 지정된 객체를 선택할 수 있다. The object selected from the real world image 110 may be selected by being automatically recognized by the processor 103 or may select an object designated by a user.

실세계 이미지(110)에서 객체가 자동으로 선택되는 방법은, 영상처리(image processing) 방법 중 객체 인식 방법을 이용할 수 있다. 객체 인식은 실세계 이미지(110) 내에서 각 픽셀들의 특징점을 추출한다. 추출된 특징점 집합을 이용하여 객체의 윤곽을 판단한다. 판단된 객체의 윤곽에 대응하는 특징점들의 집합을 객체로 인식하여 추출하는 방법이 있다.A method of automatically selecting an object from the real world image 110 may use an object recognition method among image processing methods. Object recognition extracts feature points of each pixel in the real world image 110. The outline of the object is determined using the extracted feature point set. There is a method of recognizing and extracting a set of feature points corresponding to the contour of the determined object as an object.

또한, 추출하기 위한 객체가 인물일 경우에는 얼굴 인식을 통해 인물의 윤곽을 추출하고, 추출된 인물 윤곽의 이미지를 인물 객체로 인식하여 추출하는 방법이 있다.In addition, when the object to be extracted is a person, there is a method of extracting the outline of a person through face recognition, and recognizing and extracting the extracted image of the person outline as a person object.

또한, 이미지 내에서 자동으로 객체를 인식하는 방법은 공지된 영상처리 알고리즘 중 어떠한 것을 사용할 수 있다.In addition, a method of automatically recognizing an object in an image may use any of known image processing algorithms.

실세계 이미지(110)에서 실세계 객체 이미지(111)를 추출하기 위해 사용자에 의해 객체가 선택되는 방법은 다음과 같다. 사용자는 모바일 단말기(100)의 디스플레이(102)에 출력된 실세계 이미지(110) 내에서 선택하고자 하는 객체를 터치 등의 입력을 통해 선택한다. 프로세서(103)는 선택된 객체를 분석하여 객체의 윤곽선을 인식한다. 다음으로, 인식된 육관석에 대응하는 객체를 실세계 이미지(110)로부터 추출할 수 있다. A method of selecting an object by the user to extract the real world object image 111 from the real world image 110 is as follows. The user selects an object to be selected within the real world image 110 output on the display 102 of the mobile terminal 100 through an input such as a touch. The processor 103 analyzes the selected object to recognize the outline of the object. Next, an object corresponding to the recognized cochlea may be extracted from the real world image 110.

이때, 사용자가 객체를 선택할 때, 디스플레이(102)에 출력된 객체의 위치를 터치함으로써 터치된 위치의 객체가 선택된다. 또는 사용자로부터 선택하고자 하는 객체의 윤곽선을 드래그 앤 드롭(drag and drop) 방식의 연속적인 터치 입력을 이용하여 객체를 선택할 수 있다.At this time, when the user selects the object, the object of the touched position is selected by touching the position of the object output on the display 102. Alternatively, the object may be selected using a continuous touch input of a drag and drop method of the object to be selected from the user.

프로세서(103)는 선택된 객체 또는 객체의 윤곽선을 이용하여 객체를 인식하고, 인식된 객체를 실세계 이미지(110)로부터 추출할 수 있다.The processor 103 may recognize the object by using the selected object or the outline of the object, and extract the recognized object from the real world image 110.

또한, 사용자에 의해 실세계 이미지(110) 내에서 실세계 객체 이미지가 선택되는 방법은 이외의 방법을 사용할 수 있다.In addition, a method other than the method of selecting the real-world object image in the real-world image 110 by the user may be used.

또한, S131 단계에서 후면 배치가 선택되기 이전 또는 이후에 디스플레이(102)에 출력된 실세계 객체 이미지 및 합성용 객체 이미지의 크기 또는 위치가 조정될 수 있다.In addition, the size or position of the real world object image and the composition object image output on the display 102 may be adjusted before or after the rear layout is selected in operation S131.

또한, 도 8 또는 도 9에 도시된 배경 이미지에 투명 처리가 수행된 실세계 객체 이미지 또는 배경 이미지의 출력이 제외된 실세계 객체 이미지 또는 배경 이미지가 삭제된 실세계 객체 이미지 중 어느 하나와 합성용 객체 이미지가 출력되는 경우, S131 단계의 후면 배치가 선택되기 이전 또는 이후에 사진 촬영 이미지에 포함될 배경 이미지를 선택할 수 있다. 선택된 배경 이미지는 제 3 레이어에 배치되어 디스플레이(102)에 출력된다. 디스플레이(102)에 출력된 선택된 배경 이미지는 사진 촬영 이미지에 포함된다.In addition, either the real-world object image subjected to transparent processing to the background image shown in FIG. 8 or 9 or the real-world object image from which the output of the background image is excluded or the real-world object image from which the background image is deleted is combined with the object image for synthesis. If output, the background image to be included in the photographed image may be selected before or after the rear layout of step S131 is selected. The selected background image is disposed on the third layer and output to the display 102. The selected background image output to the display 102 is included in the photographed image.

도 10은 본 발명에 따른 모바일 단말기의 움직임을 이용하여 실세계 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도, 도 11은 본 발명에 따른 모바일 단말기의 움직임을 이용하여 위치 조정된 실세계 객체 이미지와 합성용 객체 이미지의 중첩을 나타내는 예시도이다. 10 is an exemplary view showing an embodiment for adjusting the position of the real-world object image using the movement of the mobile terminal according to the present invention, Figure 11 is a real-world object adjusted using the movement of the mobile terminal according to the present invention It is an example figure which shows the superposition of an image and the object image for compositing.

도 10 및 도 11에 도시된 바와 같이, 합성용 객체 이미지(객체 B)가 배치된 실세계 이미지(121)에서 실세계 객체 이미지(객체 A)가 특정한 위치에 있는 경우, 사용자는 모바일 단말기(100)를 회전(카메라 앵글의 변경)하여 실세계 객체 이미지(객체 A)를 실세계 이미지 내의 특정 위치로 배치시킬 수 있다.As shown in FIG. 10 and FIG. 11, when the real world object image (object A) is located at a specific position in the real world image 121 in which the composition object image (object B) is disposed, the user moves the mobile terminal 100. By rotating (changing the camera angle), the real world object image (Object A) can be placed at a specific position within the real world image.

즉, 도 10의 (a)와 같이, 모바일 단말기(100)의 디스플레이(102)에 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(110)가 출력된다. 실세계 이미지(110) 내의 실세계 객체 이미지(객체 A)가 도로의 중심에 위치할 때, 사용자는 모바일 단말기(100)에 구비된 카메라 모듈(101)의 앵글을 좌측으로 이동시킬 수 있다. 좌측으로 이동한 앵글에 따라 디스플레이(102)에 출력되는 실세계 이미지(110) 내의 실세계 객체 이미지(객체 A) 및 배경 이미지는 도 10의 (b)에서 보이는 바와 같이, 우측으로 이동한 것과 같은 효과를 나타낸다. 합성용 객체 이미지(객체 B)의 움직임은 없다. 따라서 실세계 객체 이미지(객체 A)가 우측으로 이동되어 출력되는 것은 실세계 이미지(110) 내에 배치된 합성용 객체 이미지(객체 B)와의 거리가 이격된 것과 같은 효과를 나타낸다.That is, as shown in FIG. 10A, the real world image 110 including the composition object image (object B) and the real world object image (object A) is output to the display 102 of the mobile terminal 100. When the real world object image (object A) in the real world image 110 is located at the center of the road, the user may move the angle of the camera module 101 included in the mobile terminal 100 to the left. The real world object image (object A) and the background image in the real world image 110 output to the display 102 according to the angle moved to the left have the same effect as the movement to the right as shown in FIG. Indicates. There is no movement of the composition object image (Object B). Therefore, when the real world object image (object A) is moved to the right and outputted, the same effect as the distance from the synthesis object image (object B) disposed in the real world image 110 is separated.

한편, 사용자가 모바일 단말기(100)에 구비된 카메라 모듈(101)의 앵글을 우측으로 이동시킬 수 있다. 우측으로 이동한 앵글에 따라 디스플레이(102)에 출력되는 실세계 이미지(110) 내의 실세계 객체 이미지(객체 A) 및 배경 이미지는 도 10의 (c)에서 보이는 바와 같이, 좌측으로 이동한 것과 같은 효과를 나타낸다. 실세계 객체 이미지(객체 A)가 좌측으로 이동되어 출력되는 것은 실세계 이미지(110) 내에 배치된 합성용 객체 이미지(객체 B)와의 거리가 인접된 것과 같은 효과를 나타낸다.Meanwhile, the user may move the angle of the camera module 101 provided in the mobile terminal 100 to the right. The real world object image (Object A) and the background image in the real world image 110 output to the display 102 according to the angle moved to the right have the same effect as the movement to the left as shown in FIG. Indicates. Moving and outputting the real world object image (object A) to the left has the same effect as the distance from the composition object image (object B) disposed in the real world image 110 is adjacent.

모바일 단말기(100)의 카메라 앵글의 변경에 따라 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 중첩되는 실시예는 도 11에 도시된 바와 같다. 디스플레이(102)에 출력된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)를 중첩시키기 위한 명령이 수신되는 경우, 프로세서(103)는 어느 하나의 객체 이미지를 다른 하나의 객체 이미지보다 전면에 위치시키거나 후면에 위치시킬 수 있다. An embodiment in which the real world object image (object A) and the composition object image (object B) overlap with the camera angle of the mobile terminal 100 is illustrated in FIG. 11. When a command for superimposing the real-world object image (Object A) and the compositing object image (Object B) output on the display 102 is received, the processor 103 displays the image of one object more than the other object image. It can be located at the front or at the rear.

S131 단계에서, 모바일 단말기(100)에 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 후면에 중첩되어 출력되도록 후면 배치 선택이 입력되는 경우, 프로세서(103)는 도 11의 (a)에 도시된 바와 같이 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 중첩되도록 배치한다(S132).In step S131, when the rear layout selection is input to the mobile terminal 100 so that the synthesis object image (object B) is superimposed on the rear surface of the real world object image (object A), the processor 103 may be configured as shown in FIG. As shown in a), the composition object image (object B) provided in the first layer is disposed to overlap the rear surface of the real world object image (object A) provided in the second layer (S132).

이후, S132 단계에서 실세계 객체 이미지와 합성용 객체 이미지의 배치가 완료되고, 실세계 객체 이미지와 합성용 객체 이미지의 크기 및 위치의 조정도 완료된 경우, 모바일 단말기(100)는 디스플레이(102)에 출력되는 합성용 객체 이미지와 실세계 객체 이미지를 포함하여 사진 촬영 이미지를 생성한다(S140).Subsequently, when the arrangement of the real world object image and the composition object image is completed in step S132 and the adjustment of the size and position of the real world object image and the synthesis object image is completed, the mobile terminal 100 is output to the display 102. A photographing image is generated including the composition object image and the real world object image (S140).

도 11의 (a)는 제 2 레이어에 배치된 실세계 이미지(143)에 포함된 실세계 객체 이미지(객체 A)와 제 1 레이어에 배치된 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 후면에 배치되는 실시예이다. FIG. 11A illustrates a composite object while the real world object image (object A) included in the real world image 143 disposed on the second layer and the composition object image (object B) disposed on the first layer overlap each other. In this embodiment, the image (object B) is disposed behind the real world object image (object A).

실세계 이미지(143)가 출력되는 모바일 단말기(100)의 디스플레이(102)에 합성용 객체 이미지(객체 B)가 출력된다. 모바일 단말기(100)가 회전하면 카메라 앵글이 변경되어 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩될 수 있다. 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택된 경우, 프로세서(103)는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다.The composition object image (object B) is output to the display 102 of the mobile terminal 100 on which the real world image 143 is output. When the mobile terminal 100 is rotated, the camera angle is changed to overlap the object image for synthesis (object B) and the real world object image (object A). When the composition object image (Object B) is selected to be positioned behind the real world object image (Object A), the processor 103 may use the real world object provided to the second layer for the composition object image (Object B) provided in the first layer. Position it so that it is located behind the image (Object A).

또는, 먼저 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택하여 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다. 다음으로, 카메라 앵글을 변경하여 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩되도록 할 수 있다.Alternatively, first, the composition object image (object B) is selected to be positioned behind the real world object image (object A), and the composition object image (object B) provided in the first layer is provided in the real world object image (object) provided in the second layer. Place it so that it is located at the back of A). Next, the camera angle may be changed so that the composition object image (object B) and the real world object image (object A) overlap each other.

도 8 또는 도 9의 (c)와 같이, 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)를 중첩하여 디스플레이(102)에 출력하는 경우, 프로세서(103)는 실세계 이미지에 포함된 실세계 배경 이미지를 제 3 레이어에 제공하여 출력할 수 있다. 또는 실세계 배경 이미지를 포함하지 않고, 메모리(104)에 저장된 다른 배경 이미지를 제 3 레이어에 제공하여, 디스플레이(102)에 출력할 수 있다. 또는 실세계 배경 이미지를 포함하지 않고, 합성용 객체 이미지의 배경 이미지를 제 3 레이어에 제공하여 디스플레이(102)에 출력할 수 있다.As illustrated in (c) of FIG. 8 or 9, when the real world object image (object A) and the composition object image (object B) are superimposed and output to the display 102, the processor 103 is included in the real world image. The real world background image may be provided to the third layer and output. Alternatively, another background image stored in the memory 104 may be provided to the third layer without being included in the real world background image, and may be output to the display 102. Alternatively, the background image of the object image for synthesis may be provided to the third layer and output to the display 102 without including the real world background image.

제 3 레이어에 제공되는 실세계 배경 이미지, 메모리(104)에 저장된 다른 배경 이미지 또는 합성용 객체 이미지의 배경 이미지는 디스플레이(102)에 출력되고, 생성되는 사진 촬영 이미지에 포함된다.The background image of the real world background image provided to the third layer, another background image stored in the memory 104, or a composition object image is output to the display 102 and included in the generated photographic image.

이때, 합성용 객체 이미지의 배경 이미지는 합성용 객체 이미지를 생성하기 위해 촬영된 실세계 이미지에서 합성용 객체 이미지가 추출되고 나머지 이미지를 배경 이미지로 설정하여 저장된 이미지이다. 또는 합성용 객체 이미지는 그래픽, 애니메이션 등으로 생성될 수 있다.In this case, the background image of the object image for synthesis is an image stored in the object image for synthesis is extracted from the real-world image photographed to generate the object image for synthesis, and set the remaining image as the background image. Alternatively, the object image for synthesis may be generated by graphics, animation, or the like.

만약, S131 단계에서, 모바일 단말기(100)에 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 후면에 중첩되어 출력되도록 후면 배치 선택이 입력되지 않는 경우, 프로세서(103)는 도 11의 (b)에 도시된 바와 같이, 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 전면에 위치한 제 2 레이어에 제공된 합성용 객체 이미지(객체 B)를 이용하여 사진 촬영 이미지를 생성한다(S140). 사진 촬영 이미지를 생성하기 이전에 실세계 객체 이미지와 합성용 객체 이미지의 크기 및 위치의 조정이 수행될 수 있다.If, in step S131, the rear layout selection is not input such that the composition object image (object B) is superimposed on the rear surface of the real world object image (object A) and outputted to the mobile terminal 100, the processor 103 may perform a diagram. As shown in (b) of FIG. 11, a photographing image is generated by using the composition object image (object B) provided in the second layer located in front of the real world object image (object A) provided in the second layer ( S140). Before generating the photographed image, the size and position of the real-world object image and the composition object image may be adjusted.

도 11의 (b)는 실세계 이미지(144)에 포함된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 배치되는 실시예이다.FIG. 11B illustrates that the composite object image (Object B) overlaps with the real world object image (Object A) and the composition object image (Object B) included in the real world image 144, thereby combining the real world object image (Object A). The embodiment is disposed in the front of the).

실세계 이미지(144)가 출력되는 모바일 단말기(100)의 디스플레이(102)에 합성용 객체 이미지(객체 B)가 출력된다. 모바일 단말기(100)가 회전하면 카메라 앵글이 변경되어 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩될 수 있다. 프로세서(103)는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 전면에 위치하고 있는 경우, 해당 배치된 상태에서 사진 촬영 이미지를 생성할 수 있다.The composition object image (object B) is output to the display 102 of the mobile terminal 100 on which the real world image 144 is output. When the mobile terminal 100 is rotated, the camera angle is changed to overlap the object image for synthesis (object B) and the real world object image (object A). When the synthesis object image (object B) provided in the first layer is located in front of the real world object image (object A) provided in the second layer, the processor 103 may generate a photographed image in the disposed state. have.

만약 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)가 합성용 객체 이미지(객체 B)의 후면에 위치한다면, 각각의 레이어에 제공된 객체 이미지의 배치를 변경하여 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 위치하도록 재배치한다.If the real world object image (Object A) provided in the second layer is located behind the compositing object image (Object B), the composition of the object image provided in each layer (Object B) is changed so that the composite object image (Object B) becomes the real world. Reposition it to be in front of the object image (Object A).

각 객체 이미지의 배치 변경은 사용자에 의해 모바일 단말기(100)에 입력된 명령에 따라 수행된다.Arrangement change of each object image is performed according to a command input to the mobile terminal 100 by the user.

도 12는 본 발명에 따른 실세계 객체 이미지와 합성용 객체 이미지가 중첩되어 배치되는 일실시예를 나타내는 예시도이다. 도 12의 (a)에 도시된 바와 같이, 제 2 레이어에 제공된 실세계 이미지(112)의 후면에 제 1 레이어에 제공된 합성용 객체 이미지(210)가 중첩될 수 있도록 배치하는 경우, (b)에 도시된 바와 같이, 합성용 객체 이미지(210)의 객체 B가 실세계 이미지(112)의 객체 A의 후면에 위치하도록 할 수 있다. 이 경우에 생성되는 사진 촬영 이미지는 객체 B가 객체 A의 뒤쪽에 위치하여 함께 사진 촬영한 것과 같은 효과를 제공할 수 있다.12 is an exemplary view illustrating an embodiment in which a real world object image and a composition object image are overlapped and disposed according to the present invention. As shown in (a) of FIG. 12, when the composition object image 210 provided in the first layer is disposed on the rear surface of the real world image 112 provided in the second layer so as to overlap, (b) As shown, the object B of the synthesis object image 210 may be located behind the object A of the real world image 112. In this case, the generated photographic image may provide the same effect as photographing the object B while the object B is located behind the object A. FIG.

도 12의 (c)에 도시된 바와 같이, 제 2 레이어에 제공된 실세계 이미지(112)의 전면에 제 1 레이어에 제공된 합성용 객체 이미지(210)가 중첩될 수 있도록 배치하는 경우, (d)에 도시된 바와 같이, 합성용 객체 이미지(210)의 객체 B가 실세계 이미지(112)의 객체 A의 전면에 위치하도록 할 수 있다. 이 경우에 생성되는 사진 촬영 이미지는 객체 B가 객체 A의 앞쪽에 위치하여 함께 사진 촬영한 것과 같은 효과를 제공할 수 있다.As shown in FIG. 12C, when the composition object image 210 provided in the first layer is disposed in front of the real world image 112 provided in the second layer, the composition object image 210 may be superimposed on (d). As shown, the object B of the synthesis object image 210 may be positioned in front of the object A of the real world image 112. The photographed image generated in this case may provide the same effect as photographing the object B in front of the object A.

본 발명에서는 각각의 객체 A를 포함하는 실세계 객체 이미지와 객체 B를 포함하는 합성용 객체 이미지를 하나의 사진 촬영 이미지로 합성하면서 각 객체가 배치되는 위치가 중첩되도록 할 때, 배치되는 실세계 객체 이미지 및 합성용 객체 이미지의 크기 및 위치를 조정할 수 있다.According to the present invention, a real-world object image that is disposed when the position where each object is placed is overlapped while composing the real-world object image including each object A and the composition object image including the object B into one photographed image and You can adjust the size and position of the object image for compositing.

실세계 객체 이미지는 모바일 단말기(100)의 카메라 모듈(101)을 통해 촬영되는 실세계 장면을 통해 생성되며, 카메라 모듈(101)의 줌(zoom) 기능의 제어를 통해 생성되는 실세계 이미지를 확대 또는 축소함으로써, 실세계 객체 이미지의 크기를 제어할 수 있다.The real world object image is generated through a real world scene photographed through the camera module 101 of the mobile terminal 100, and by enlarging or reducing the real world image generated through the control of the zoom function of the camera module 101. You can control the size of the real-world object image.

실세계 객체 이미지의 위치 조정은 사용자 또는 모바일 단말기(100)의 움직임을 제어하는 제어장치(미도시)를 통해 카메라 모듈(101)의 카메라 앵글을 변경하고, 이를 통해 실세계 장면에 포함된 실세계 객체 이미지에 해당하는 인물의 위치가 조정되면, 디스플레이(102)에 출력되는 실세계 이미지 내에서 실세계 객체 이미지의 위치가 조정될 수 있다.The position adjustment of the real world object image is performed by changing a camera angle of the camera module 101 through a control device (not shown) that controls the movement of the user or the mobile terminal 100, and thereby changes the real world object image included in the real world scene. When the position of the corresponding person is adjusted, the position of the real world object image may be adjusted within the real world image output to the display 102.

합성용 객체 이미지는 메모리(104)에 저장된 이미지가 디스플레이(102)에 출력되는 것으로, 디스플레이(102)에 터치 모듈이 포함된 경우, 디스플레이(102)에 터치 또는 드래그 입력을 수행하여 출력된 합성용 객체 이미지의 위치를 변경시킬 수 있다.The object image for compositing is an image stored in the memory 104 is output on the display 102. When the touch module is included in the display 102, the composing object image is output by performing a touch or drag input on the display 102. You can change the position of the object image.

합성용 객체 이미지의 확대 및 축소는 디스플레이(102)에 터치 모듈이 포함된 경우, 일반적으로 모바일 단말기(100)에서 사용되는 동시에 터치된 두 점 간의 거리의 변동에 따라 이루어진다. 예를 들어, 디스플레이(102)에 입력된 두 점 간의 거리가 멀어지는 경우, 프로세서(103)는 출력된 합성용 객체 이미지를 확대시킨다. 만약, 두 점 간의 거리가 가까워지는 경우, 프로세서(103)는 출력된 합성용 객체 이미지를 축소시킨다.In the case where the display 102 includes a touch module, enlargement and reduction of the composition object image is generally used in the mobile terminal 100 and is performed according to a change in the distance between two touched points. For example, when the distance between two points input to the display 102 is far, the processor 103 enlarges the output synthesis object image. If the distance between the two points is close, the processor 103 reduces the output synthesis object image.

합성용 객체 이미지의 위치 및 크기 조정은 디스플레이(102)에 구비된 터치 모듈을 통해 수행되는 것으로 기재하였으나, 모바일 단말기(100)에 구비된 별도의 입력 모듈(미도시)을 통해서도 합성용 객체 이미지의 위치 및 크기 조정에 대한 명령을 입력할 수 있다.The position and size adjustment of the object image for compositing has been described as being performed through a touch module provided in the display 102, but the object image for compositing is also available through a separate input module (not shown) provided in the mobile terminal 100. You can enter commands for positioning and scaling.

도 13은 본 발명에 따른 모바일 단말기에서 촬영되는 실세계 인물의 움직임을 이용하여 실세계 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도, 도 14는 본 발명에 따른 실세계 인물의 움직임을 이용하여 위치 조정된 실세계 객체 이미지와 합성용 객체 이미지의 중첩을 나타내는 예시도이다. 13 is an exemplary view showing an embodiment for adjusting the position of the real-world object image using the motion of the real-world person photographed in the mobile terminal according to the present invention, Figure 14 using the motion of the real-world person in accordance with the present invention Exemplary diagrams illustrating superposition of the adjusted real-world object image and the composition object image.

도 13 및 도 14에 도시된 바와 같이, 합성용 객체 이미지(객체 B)가 배치된 실세계 이미지(110)에서 모바일 단말기(100)의 카메라 앵글이 고정된 경우, 객체 A에 대응하는 실세계의 인물(510)이 실세계에서 이동하면, 디스플레이(102)에서 출력되는 실세계 객체 이미지(객체 A)가 디스플레이(102)에 함께 출력된 합성용 객체 이미지(객체 B)의 주변으로 이동할 수 있다. As shown in FIGS. 13 and 14, when the camera angle of the mobile terminal 100 is fixed in the real world image 110 in which the composition object image (object B) is disposed, the person in the real world corresponding to the object A ( When the 510 moves in the real world, the real world object image (object A) output from the display 102 may move around the composite object image (object B) output together with the display 102.

즉, 최초 출력되는 실세계 이미지(110)에서 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 (a)와 같이 출력된다. 이때, 도 4와 같이 실세계 장면에서 실세계 주변 배경(520)의 중심부에 있는 실세계 인물(510)이 인물의 좌측으로 이동하는 경우, 도 13의 (b)와 같이, 실세계 인물(510)에 해당하는 실세계 이미지(151) 내의 객체 A는 실세계 이미지 내에서 우측으로 이동되어 디스플레이(102)의 좌측편에 출력된 합성용 객체 이미지(객체 B)로부터 이격되도록 출력된다.That is, the real-world object image (object A) and the synthesis object image (object B) are output as shown in (a) from the first real-world image 110 to be output. In this case, when the real world person 510 in the center of the real world surroundings 520 moves to the left side of the person in the real world scene as shown in FIG. 4, as shown in FIG. The object A in the real world image 151 is moved to the right in the real world image and is output so as to be spaced apart from the composition object image (object B) output on the left side of the display 102.

또한, (c)와 같이, 객체 A에 해당하는 실세계 인물(510)이 실세계에서 좌측으로 이동하는 경우, 실세계 이미지(152) 내의 객체 A는 출력된 합성용 객체 이미지(객체 B)에 인접하게 출력된다.Also, as shown in (c), when the real world person 510 corresponding to the object A moves to the left in the real world, the object A in the real world image 152 is output adjacent to the output composite object image (object B). do.

실세계에 위치한 실세계 인물(510)의 이동에 따라 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 중첩되는 실시예는 도 14에 도시된 바와 같다. 디스플레이(102)에 출력된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 중첩되는 경우, 어느 하나의 객체 이미지를 다른 하나의 객체 이미지보다 전면에 위치시키거나 후면에 위치시킬 수 있다.An embodiment in which the real world object image (object A) and the synthesis object image (object B) overlap with the movement of the real world person 510 located in the real world is illustrated in FIG. 14. When the real-world object image (object A) and the composition object image (object B) output on the display 102 overlap, one object image may be positioned in front of or behind the other object image. have.

도 14의 (a)는 실세계 이미지(153)에 포함된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 후면에 배치되는 실시예이다.14A illustrates a composite object image (Object B) overlapping a real world object image (Object A) and a composition object image (Object B) included in the real world image 153 so that the composite object image (Object B) is a real world object image (Object A). The embodiment is disposed on the back of the).

모바일 단말기(100)의 디스플레이(102)에 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(153)와 합성용 객체 이미지(객체 B)가 출력된다. 실세계 객체 이미지(객체 A)에 해당하는 실세계 인물(510)이 이동하여, 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩될 수 있다. 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택된 경우, 프로세서(103)는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다.The real world image 153 including the real world object image (object A) and the composition object image (object B) are output to the display 102 of the mobile terminal 100. The real-world person 510 corresponding to the real-world object image (object A) may move, and the composition object image (object B) and the real-world object image (object A) may overlap each other. When the composition object image (Object B) is selected to be positioned behind the real world object image (Object A), the processor 103 may use the real world object provided to the second layer for the composition object image (Object B) provided in the first layer. Position it so that it is located behind the image (Object A).

또는, 먼저 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택하여 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다. 다음으로, 실세계 인물이 이동하여 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩되도록 할 수 있다.Alternatively, first, the composition object image (object B) is selected to be positioned behind the real world object image (object A), and the composition object image (object B) provided in the first layer is provided in the real world object image (object) provided in the second layer. Place it so that it is located at the back of A). Next, the real-world person moves to allow the composition object image (object B) and the real-world object image (object A) to overlap each other.

도 8 또는 도 9의 (c)와 같이, 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)를 중첩하여 디스플레이(102)에 출력하는 경우, 프로세서(103)는 실세계 이미지에 포함된 실세계 배경 이미지를 제 3 레이어에 제공하여 출력할 수 있다. 또는 실세계 배경 이미지를 포함하지 않고, 메모리(104)에 저장된 다른 배경 이미지를 제 3 레이어에 제공하여, 디스플레이(102)에 출력할 수 있다. 또는 실세계 배경 이미지를 포함하지 않고, 합성용 객체 이미지의 합성용 배경 이미지를 제 3 레이어 또는 제 4 레이어에 제공하여 디스플레이(102)에 출력할 수 있다.As illustrated in (c) of FIG. 8 or 9, when the real world object image (object A) and the composition object image (object B) are superimposed and output to the display 102, the processor 103 is included in the real world image. The real world background image may be provided to the third layer and output. Alternatively, another background image stored in the memory 104 may be provided to the third layer without being included in the real world background image, and may be output to the display 102. Alternatively, the background image for synthesis of the object image for synthesis may be provided to the third layer or the fourth layer without being output to the display 102.

도 14의 (b)는 실세계 이미지(154)에 포함된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 배치되는 실시예이다.FIG. 14B illustrates a composite object image (object B) overlapping with each other and the composite object image (object B) included in the real world image 154 and the composite object image (object B). The embodiment is disposed in the front of the).

모바일 단말기(100)의 디스플레이(102)에 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(154)와 합성용 객체 이미지(객체 B)가 출력된다. 실세계 장면에서 실세계 인물(510)이 이동하여 합성용 객체 이미지(객체 B)와 실세계 객체 이미지(객체 A)가 서로 중첩될 수 있다. 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 전면에 위치하고 있는 경우, 해당 배치된 상태에서 사진 촬영 이미지를 생성할 수 있다.The real world image 154 including the real world object image (object A) and the composition object image (object B) are output to the display 102 of the mobile terminal 100. In the real world scene, the real world person 510 may move to overlap the object image for synthesis (object B) and the real world object image (object A). When the composition object image (object B) provided in the first layer is located in front of the real world object image (object A) provided in the second layer, the photographed image may be generated in the disposed state.

만약 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)가 합성용 객체 이미지(객체 B)의 후면에 위치한다면, 각각의 레이어에 제공된 객체 이미지의 배치를 변경하여 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 위치하도록 재배치한다.If the real world object image (Object A) provided in the second layer is located behind the compositing object image (Object B), the composition of the object image provided in each layer (Object B) is changed so that the composite object image (Object B) becomes the real world. Reposition it to be in front of the object image (Object A).

도 15는 본 발명에 따른 모바일 단말기에서 합성용 객체 이미지의 위치를 조정하기 위한 일실시예를 나타내는 예시도, 도 16은 본 발명에 따른 모바일 단말기에서 위치 조정된 합성용 객체 이미지와 실세계 객체 이미지의 중첩을 나타내는 예시도이다. 15 is an exemplary view showing an embodiment for adjusting the position of the synthesis object image in the mobile terminal according to the present invention, Figure 16 is a position of the composite object image and the real-world object image adjusted in the mobile terminal according to the present invention It is an exemplary figure which shows superposition.

도 15 및 도 16에 도시된 바와 같이, 합성용 객체 이미지(객체 B)가 배치된 실세계 이미지(110)에서 모바일 단말기(100)의 카메라 앵글이 고정된 경우, 배치된 합성용 객체 이미지(객체 B)를 출력된 실세계 객체 이미지(객체 A)의 주변으로 이동시킬 수 있다. 도 4의 실세계 장면에서 실세계 주변 배경(520)의 중심부에 위치한 실세계 인물(510)이 고정되어 있는 경우, 도 15의 (a)와 같이, 실세계 이미지(110)가 출력된다.15 and 16, when the camera angle of the mobile terminal 100 is fixed in the real world image 110 in which the object image for synthesis (object B) is disposed, the object image for composition (object B) is arranged. ) Can be moved around the output real-world object image (Object A). In the real world scene of FIG. 4, when the real world person 510 located at the center of the real world surrounding background 520 is fixed, as shown in FIG. 15A, the real world image 110 is output.

이때, 도 15의 (b)와 같이, 합성용 객체 이미지(객체 B)를 실세계 이미지(161) 내에서 실세계 객체 이미지(객체 A)의 우측으로 이동시키거나, (c)와 같이, 실세계 이미지(162) 내에서 합성용 객체 이미지(객체 B)를 실세계 객체 이미지(객체 A)의 좌측으로 이동시킬 수 있다.At this time, as shown in (b) of FIG. 15, the composition object image (object B) is moved to the right side of the real world object image (object A) in the real world image 161, or as shown in (c), the real world image ( In operation 162, the composition object image (object B) may be moved to the left of the real world object image (object A).

디스플레이(102)에 출력되는 합성용 객체 이미지(객체 B)의 이동은 도 12에서 설명된 바와 같이, 디스플레이(102)에 터치 모듈이 포함된 경우, 디스플레이(102)에 터치 또는 드래그 입력을 수행하여 출력된 합성용 객체 이미지의 위치를 변경시킬 수 있다. 또는 모바일 단말기(100)에 구비된 입력 모듈(미도시)을 이용하여 위치를 변경시킬 수 있다.As illustrated in FIG. 12, when the display 102 includes a touch module, the movement of the synthesis object image (object B) output to the display 102 is performed by performing a touch or drag input on the display 102. You can change the position of the output composite object image. Alternatively, the location may be changed by using an input module (not shown) provided in the mobile terminal 100.

합성용 객체 이미지(객체 B)의 위치 이동에 따라 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 중첩되는 실시예는 도 16에 도시된 바와 같다. An embodiment in which the real world object image (object A) and the synthesis object image (object B) overlap with each other as the position of the composition object image (object B) moves is illustrated in FIG. 16.

디스플레이(102)에 출력된 합성용 객체 이미지(객체 B)의 위치 이동에 따라 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 중첩되는 경우, 어느 하나의 객체 이미지를 다른 하나의 객체 이미지보다 전면에 위치시키거나 후면에 위치시킬 수 있다.When the real world object image (object A) and the composition object image (object B) overlap with each other by the positional movement of the composition object image (object B) output on the display 102, one object image is changed to another one. It can be placed on the front or back of the object image.

도 16의 (a)는 실세계 이미지(163)에 포함된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 후면에 배치되는 실시예이다.FIG. 16A illustrates a composite object image (object B) overlapping a real world object image (object A) and a composition object image (object B) included in the real world image 163 so that the composite object image (object B) is a real world object image (object A). The embodiment is disposed on the back of the).

모바일 단말기(100)의 디스플레이(102)에 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(163)와 합성용 객체 이미지(객체 B)가 출력되고, 합성용 객체 이미지(객체 B)를 이동시킴에 따라 실세계 객체 이미지(객체 A)와 서로 중첩되고, 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택된 경우, 프로세서(103)는 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다.The real world image 163 including the real world object image (object A) and the composition object image (object B) are output on the display 102 of the mobile terminal 100, and the composition object image (object B) is moved. If it is selected so as to overlap with the real-world object image (object A) according to, and to place the composition object image (object B) on the back of the real-world object image (object A), the processor 103 is used for compositing provided in the first layer The object image (object B) is disposed to be located behind the real world object image (object A) provided in the second layer.

또는, 먼저 실세계 객체 이미지(객체 A)의 후면에 합성용 객체 이미지(객체 B)가 위치되도록 선택하여 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)를 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 후면에 위치하도록 배치한다. 다음으로, 합성용 객체 이미지(객체 B)를 이동시켜 실세계 객체 이미지(객체 A)와 서로 중첩되도록 할 수 있다.Alternatively, first, the composition object image (object B) is selected to be positioned behind the real world object image (object A), and the composition object image (object B) provided in the first layer is provided in the real world object image (object) provided in the second layer. Place it so that it is located at the back of A). Next, the composition object image (object B) may be moved to overlap the real world object image (object A).

도 8 또는 도 9의 (c)와 같이, 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)를 중첩하여 디스플레이(102)에 출력하는 경우, 프로세서(103)는 실세계 이미지에 포함된 실세계 배경 이미지를 제 3 레이어에 제공하여 출력할 수 있다. 또는, 실세계 배경 이미지를 포함하지 않고, 메모리(104)에 저장된 다른 배경 이미지를 제 3 레이어에 제공하여 디스플레이(102)에 출력할 수 있다. 또는 실세계 배경 이미지를 포함하지 않고, 합성용 객체 이미지의 합성용 배경 이미지를 제 3 레이어 또는 제 4 레이어에 제공하여 디스플레이(102)에 출력한다.As illustrated in (c) of FIG. 8 or 9, when the real world object image (object A) and the composition object image (object B) are superimposed and output to the display 102, the processor 103 is included in the real world image. The real world background image may be provided to the third layer and output. Alternatively, another background image stored in the memory 104 may be provided to the third layer and output to the display 102 without including the real world background image. Alternatively, the synthesized background image of the synthesis object image is provided to the third layer or the fourth layer without being included in the real world background image, and output to the display 102.

도 16의 (b)는 실세계 이미지(164)에 포함된 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)가 서로 중첩되면서 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 배치되는 실시예이다.FIG. 16B illustrates a composite object image (object B) overlapping the real world object image (object A) and the composition object image (object B) included in the real world image 164, and the real world object image (object A). The embodiment is disposed in the front of the).

모바일 단말기(100)의 디스플레이(102)에 실세계 객체 이미지(객체 A)를 포함하는 실세계 이미지(164)와 합성용 객체 이미지(객체 B)가 출력된다. 합성용 객체 이미지(객체 B)를 이동시켜 실세계 객체 이미지(객체 A)와 서로 중첩될 수 있다. 제 1 레이어에 제공된 합성용 객체 이미지(객체 B)가 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)의 전면에 위치하고 있는 경우, 해당 배치된 상태에서 사진 촬영 이미지를 생성할 수 있다.The real world image 164 including the real world object image (object A) and the composition object image (object B) are output to the display 102 of the mobile terminal 100. The composition object image (object B) may be moved to overlap with the real world object image (object A). When the composition object image (object B) provided in the first layer is located in front of the real world object image (object A) provided in the second layer, the photographed image may be generated in the disposed state.

만약 제 2 레이어에 제공된 실세계 객체 이미지(객체 A)가 합성용 객체 이미지(객체 B)의 후면에 위치한다면, 각각의 레이어에 제공된 객체 이미지의 배치를 변경하여 합성용 객체 이미지(객체 B)가 실세계 객체 이미지(객체 A)의 전면에 위치하도록 재배치한다.If the real world object image (Object A) provided in the second layer is located behind the compositing object image (Object B), the composition of the object image provided in each layer (Object B) is changed so that the composite object image (Object B) becomes the real world. Reposition it to be in front of the object image (Object A).

이상 도 10 내지 도 16에서 설명된 바와 같이, 모바일 단말기(100)의 디스플레이(102)에 실시간 연속적으로 출력되는 실세계 객체 이미지를 포함하는 실세계 이미지와 실세계 이미지와 함께 출력되는 합성용 객체 이미지를 이용하여 사진 촬영 이미지를 생성할 수 있다. 이때, 모바일 단말기(100)의 카메라 앵글의 변경, 실세계 객체 이미지에 해당하는 실세계 인물의 이동 또는 실세계 이미지와 함께 출력된 합성용 객체 이미지의 위치 이동에 따라 각기 다른 위치에서의 실세계 객체 이미지와 합성용 객체 이미지를 이용하여 사진 촬영 이미지를 생성할 수 있다.As described above with reference to FIGS. 10 to 16, the real world image including the real world object image which is output in real time continuously to the display 102 of the mobile terminal 100 and the object image for synthesis output together with the real world image are used. A photographic image can be generated. In this case, the real world object image and the synthesis for different locations according to the change of the camera angle of the mobile terminal 100, the movement of the real world person corresponding to the real world object image or the position of the composition object image output together with the real world image The photographing image may be generated using the object image.

도 15의 (c)는 합성용 객체 이미지(객체 B)를 실세계 객체 이미지(객체 A)의 좌측으로 이동시키면서 화면 아래로 추가 이동을 수행한 결과 화면이며, 도 16의 (a)는 합성용 객체 이미지(객체 B)를 실세계 객체 이미지(객체 A)의 후면에 배치하면서 원근감을 부각할 수 있도록 화면 위로 추가 이동을 수행한 결과 화면이다.FIG. 15C is a result screen of performing further movement down the screen while moving the composition object image (object B) to the left side of the real world object image (object A), and FIG. This screen is the result of additional movement on the screen to emphasize perspective while placing the image (object B) on the back of the real object image (object A).

또는 도 11의 (a) 및 (b)에서와 같이 실세계 객체 이미지(객체 A)가 합성용 객체 이미지(객체 B)의 전면 또는 후면 중 어느 하나의 위치에 배치되는 것으로 결정되는 경우, 실세계 인물이 실세계에서 이동을 통해 합성용 객체 이미지(객체 B)의 전면 또는 후면에 위치함에 있어서 입체감 또는 원근감을 부각하도록 이동할 수 있다.Alternatively, when it is determined that the real world object image (object A) is disposed at any one of the front side or the rear side of the synthesis object image (object B) as shown in (a) and (b) of FIG. By moving in the real world, the object may be moved to emphasize three-dimensional or perspective in the front or rear of the object image (object B).

각 실시예에서 도시되지 않았으나, 실세계 객체 이미지와 합성용 객체 이미지가 중첩되어 출력되는 경우, 어느 하나의 객체 이미지가 전면에 배치되고 다른 하나의 이미지가 후면에 배치되는 경우, 각각의 배치 형태에 따라 입체감 또는 원근감이 부각될 수 있도록 각각의 객체 이미지를 확대 또는 축소할 수 있다.Although not illustrated in each embodiment, when the real-world object image and the composition object image are overlapped and output, when one object image is disposed in the front and the other image is disposed in the rear, according to each arrangement type Each object image may be enlarged or reduced so that three-dimensional or perspective may be highlighted.

S140 단계 이후에, 본 발명의 모바일 단말기(100)는 실세계 객체 이미지(객체 A)와 합성용 객체 이미지(객체 B)를 이용하여 생성된 사진 촬영 이미지가 다른 모바일 단말기(미도시)에서 합성용 객체 이미지로 재사용될 수 있도록 사진 촬영 이미지를 다른 모바일 단말기로 전송한다. After the step S140, the mobile terminal 100 of the present invention is a composite object in a mobile terminal (not shown) that is different from the photographed image generated using the real-world object image (Object A) and the composition object image (Object B) Transfer the photographed image to another mobile terminal for reuse as an image.

사진 촬영 이미지를 수신한 다른 모바일 단말기는 수신된 사진 촬영 이미지를 합성용 객체 이미지로 재사용할 수 있다. 다른 모바일 단말기는 출력되는 합성용 객체 이미지인 사진 촬영 이미지와 다른 모바일 단말기의 카메라 모듈이 실세계 장면을 촬영하여 생성하는 실세계 이미지를 이용하여 다른 사진 촬영 이미지를 생성할 수 있다.The other mobile terminal that has received the photographed image may reuse the received photographed image as a composition object image. The other mobile terminal may generate another photographed image by using the photographed image, which is an output object image, and the real world image generated by the camera module of another mobile terminal.

만약, 모바일 단말기(100)에서 다른 모바일 단말기로 전송되는 사진 촬영 이미지에 배경 이미지가 포함된 경우, 다른 모바일 단말기는 배경 이미지를 제외한 사진 촬영 이미지를 합성용 객체 이미지로 사용한다.If the background image is included in the photographed image transmitted from the mobile terminal 100 to another mobile terminal, the other mobile terminal uses the photographed image except for the background image as the object image for synthesis.

또한, 모바일 단말기(100)가 합성용 객체 이미지를 다른 모바일 단말기로부터 수신하여 사진 촬영 이미지를 생성한 경우, 모바일 단말기(100)는 합성용 객체 이미지를 제공한 다른 모바일 단말기에게 생성된 사진 촬영 이미지를 전송함으로써, 생성된 사진 촬영 이미지를 다른 모바일 단말기의 사용자가 확인할 수 있도록 한다. In addition, when the mobile terminal 100 receives the object image for synthesis from another mobile terminal to generate a photographed image, the mobile terminal 100 displays the photographed image generated to another mobile terminal that provides the object image for synthesis. By transmitting, the user of the other mobile terminal can check the generated photographed image.

또한, 모바일 단말기(100)는 복수의 다른 모바일 단말기를 통해 순차적으로 생성된 사진 촬영 이미지가 합성용 객체 이미지로 사용되어 촬영된 최종 사진 촬영 이미지를 생성하는 경우, 각각의 사진 촬영 이미지를 제공한 복수의 다른 모바일 단말기 각각에 생성한 최종 사진 촬영 이미지를 전송하여 각각의 다른 모바일 단말기의 사용자가 최종 사진 촬영 이미지를 확인할 수 있도록 한다.In addition, when the mobile terminal 100 generates a final photographed image photographed by sequentially using photographed images sequentially generated through a plurality of different mobile terminals as a synthesis object image, the mobile terminal 100 provides a plurality of photographed images. The final photographed image generated by each of the other mobile terminals is transmitted to allow the user of each other mobile terminal to confirm the final photographed image.

본 명세서에서의 발명의 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The description of the invention herein describes the preferred embodiment, and the invention is not limited to this embodiment. Those skilled in the art to which the present invention pertains can make various changes and modifications to the above embodiments without departing from the technical spirit of the present invention, the technical idea of the present invention is to make all such various changes and modifications Include.

100 : 모바일 단말기 101 : 카메라 모듈
102 : 디스플레이 103 : 프로세서
104 : 메모리 105 : 통신모듈
110, 112, 141 ~ 144, 151 ~ 154, 161 ~ 164 : 실세계 이미지
113 : 실세계 배경 이미지
130-1, 130-2, 130-3, 130-4 : 사진 촬영 이미지
210-1 : 합성용 객체 이미지 210-2 : 합성용 이미지
510 : 실세계 인물 520 : 실세계 배경
A : 객체 A B : 객체 B
100: mobile terminal 101: camera module
102 display 103 processor
104: memory 105: communication module
110, 112, 141-144, 151-154, 161-164: Real world images
113: Real World Background Images
130-1, 130-2, 130-3, 130-4: Picture taken image
210-1: Synthetic object image 210-2: Synthetic image
510: Real World Figure 520: Real World Background
A: Object AB: Object B

Claims (26)

카메라 모듈, 디스플레이, 통신모듈, 프로세서 및 메모리를 포함하는 모바일 단말기에서 상기 프로세서가 다음의 단계를 수행하여 사진 촬영 이미지를 생성하는 방법:
실세계 장면을 상기 카메라 모듈이 실시간 연속적으로 촬영하여 생성되는 실세계 객체 이미지가 포함된 실세계 이미지를 상기 디스플레이에서 실시간 연속적으로 출력하는 단계;
상기 메모리에 저장된 합성용 객체 이미지를 상기 디스플레이에 출력하는 단계;
상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하는 단계로서, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실시간 연속적으로 출력되는 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 포함하며; 및
상기 디스플레이에 배치된 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하는 단계.
In a mobile terminal including a camera module, a display, a communication module, a processor, and a memory, the processor generates a photographed image by performing the following steps:
Outputting, in real time, a real world image including a real world object image generated by real-time continuous shooting of a real world scene by the camera module;
Outputting a synthesis object image stored in the memory to the display;
Disposing the composite object image and the real world object image on the display, wherein the composite object image is selected to be superimposed on a rear surface of the real world object image, wherein the real world object image is continuously output in real time. Including the composition object images superimposed on a rear surface; And
Generating a photographing image including the composition object image and the real world object image arranged on the display.
제 1 항에 있어서, 상기 실세계 이미지를 상기 디스플레이에 출력하는 단계 이후에,
상기 합성용 객체 이미지와 중첩되어 배치되기 위한 상기 실세계 객체 이미지가 상기 실세계 이미지에서 선택되는 단계;를 더 포함하여 수행되는 것을 특징으로 하는 방법.
The method of claim 1, wherein after outputting the real world image to the display,
And selecting the real world object image from the real world image for overlapping with the synthesis object image.
제 1 항에 있어서,
상기 합성용 객체 이미지를 제 1 레이어(layer)에 위치하도록 제공하며, 상기 실세계 객체 이미지를 제 2 레이어(layer)에 위치하도록 제공하고,
상기 배치하는 단계에서,
상기 제 1 레이어 및 제 2 레이어에 위치하는 상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 위치하는 명령이 수신되는 경우, 상기 제 1 레이어를 상기 제 2 레이어의 후면에 위치시켜 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 특징으로 하는 방법.
The method of claim 1,
Providing the composition object image to be located in a first layer, and providing the real world object image to be located in a second layer,
In the disposing step,
When the composition object image and the real world object image located on the first layer and the second layer are disposed on the display, and a command for receiving the synthesis object image located behind the real world object image is received, Placing a first layer on a rear surface of the second layer such that the composition object image is superimposed on a rear surface of the real-world object image.
제 3 항에 있어서,
상기 실세계 이미지에서 상기 실세계 객체 이미지 만을 추출하고, 추출된 상기 실세계 객체 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 하는 방법.
The method of claim 3, wherein
Extracting only the real-world object image from the real-world image, and placing the extracted real-world object image on the second layer.
제 3 항에 있어서,
상기 실세계 이미지에서 상기 실세계 객체 이미지를 제외한 나머지 이미지에 투명 처리하고, 상기 실세계 객체 이미지 및 투명 처리된 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 하는 방법.
The method of claim 3, wherein
And transparently processing the remaining images except for the real world object image in the real world image, and placing the real world object image and the transparent processed image on the second layer.
제 4 항에 있어서,
상기 실세계 이미지에서 추출된 상기 실세계 객체 이미지를 제외한 실세계 배경 이미지는 제 3 레이어에 위치시키는 것을 특징으로 하는 방법.
The method of claim 4, wherein
The real world background image except for the real world object image extracted from the real world image is located on a third layer.
제 6 항에 있어서, 상기 사진 촬영 이미지를 생성하는 단계에서,
상기 제 3 레이어의 상기 실세계 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 하는 방법.
The method of claim 6, wherein in the generating the photographed image,
And generating the photographed image by further including the real world background image of the third layer.
제 1 항에 있어서, 상기 사진 촬영 이미지를 생성하는 단계에서,
상기 메모리는 하나 이상의 배경 이미지들을 포함하며, 상기 배경 이미지들 중 선택된 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the generating of the photographed image comprises:
Wherein the memory includes one or more background images, the memory further comprising a selected background image of the background images to generate the photographed image.
제 1 항에 있어서,
상기 모바일 단말기에 입력된 제어명령에 따라 상기 디스플레이에 출력된 상기 합성용 객체 이미지의 크기 또는 위치를 제어하는 것을 특징으로 하는 방법.
The method of claim 1,
And controlling the size or position of the composition object image output to the display according to a control command input to the mobile terminal.
제 1 항에 있어서,
상기 합성용 객체 이미지는 상기 모바일 단말기에서 생성되거나 다른 모바일 단말기에서 생성되어 상기 통신모듈을 통하여 제공받은 것을 특징으로 하는 방법.
The method of claim 1,
The composition object image is characterized in that generated in the mobile terminal or generated in another mobile terminal and received through the communication module.
제 10 항에 있어서,
상기 합성용 객체 이미지는 배경 이미지가 제외된 객체 이미지 만을 포함하는 것을 특징으로 하는 방법.
The method of claim 10,
And the object image for compositing includes only an object image without a background image.
제 10 항에 있어서,
상기 합성용 객체 이미지가 생성될 때, 상기 합성용 객체 이미지를 제외한 나머지 이미지는 배경 이미지로 생성되는 것을 특징으로 하는 방법.
The method of claim 10,
When the composition object image is generated, the remaining images other than the composition object image are generated as a background image.
제 1 항에 있어서,
상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 배치된 상기 사진 촬영 이미지를 합성용 객체 이미지로써, 상기 통신모듈을 이용하여 다른 모바일 단말기로 전송하는 단계를 더 포함하되,
상기 다른 모바일 단말기는, 각각의 상기 단계와 동일한 단계를 수행하는 프로세서를 이용하여 수신한 상기 합성용 객체 이미지와 상기 다른 모바일 단말기의 실세계 객체 이미지를 포함하는 사진 촬영 이미지를 생성하는 것을 특징으로 하는 방법.
The method of claim 1,
The method may further include transmitting the photographed image in which the composition object image and the real world object image are disposed as a composition object image to another mobile terminal using the communication module.
The other mobile terminal generates a photographing image including the composite object image received and the real world object image of the other mobile terminal by using a processor performing the same steps as the above steps. .
카메라 모듈, 디스플레이, 통신모듈, 프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 이용하여 사진 촬영 이미지를 생성하기 위한 모바일 단말기로서,
상기 하나 이상의 프로그램은,
실세계 장면을 상기 카메라 모듈이 실시간 연속적으로 촬영하여 생성되는 실세계 객체 이미지가 포함된 실세계 이미지를 상기 디스플레이에 실시간 연속적으로 출력하고,
상기 메모리에 저장된 합성용 객체 이미지를 상기 디스플레이에 출력하고,
상기 합성용 객체 이미지와 상기 실세계 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 중첩되어 배치되도록 선택되는 경우, 실시간 연속적으로 출력되는 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하며,
상기 디스플레이에 배치된 상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 포함되는 사진 촬영 이미지를 생성하기 위한 명령어들을 포함하는, 모바일 단말기.
A mobile terminal for generating a photographed image using a camera module, a display, a communication module, a processor, a memory, and one or more programs stored in the memory and configured to be executed by the processor,
The one or more programs,
Real-time images including real-world object images generated by real-time continuous shooting of real-world scenes on the display are continuously output to the display,
Outputting the synthesis object image stored in the memory to the display,
The composite object image and the real world image are disposed on the display, and when the composition object image is selected to be superimposed on the rear surface of the real world object image, the composite object image is displayed on the rear surface of the real world object image which is continuously output in real time. Allows nested object images to overlap
And instructions for generating a photographing image including the composition object image and the real world object image disposed on the display.
제 14 항에 있어서, 상기 하나 이상의 프로그램은,
상기 실세계 이미지를 상기 디스플레이에 출력한 이후에, 상기 합성용 객체 이미지와 중첩되어 배치되기 위한 상기 실세계 객체 이미지를 상기 실세계 이미지에서 선택하는 것을 더 수행하는 명령어를 포함하는 것을 특징으로 하는 모바일 단말기.
The method of claim 14, wherein the one or more programs,
And after the outputting of the real world image to the display, selecting the real world object image from the real world image to be overlapped with the synthesis object image.
제 14 항에 있어서,
상기 합성용 객체 이미지를 제 1 레이어(layer)에 위치하도록 제공하며, 상기 실세계 객체 이미지를 제 2 레이어에 위치하도록 제공하고,
상기 배치는,
상기 제 1 레이어 및 제 2 레이어에 위치하는 상기 합성용 객체 이미지와 상기 실세계 객체 이미지를 상기 디스플레이에 배치하되, 상기 합성용 객체 이미지가 상기 실세계 객체 이미지의 후면에 위치하는 명령이 수신되는 경우, 상기 제 1 레이어를 상기 제 2 레이어의 후면에 위치시켜 상기 실세계 객체 이미지의 후면에 상기 합성용 객체 이미지가 중첩되어 배치되도록 하는 것을 특징으로 하는 모바일 단말기.
The method of claim 14,
Providing the composition object image to be located in a first layer, and providing the real world object image to be located in a second layer,
The arrangement is
When the composition object image and the real world object image located on the first layer and the second layer are disposed on the display, and a command for receiving the synthesis object image located behind the real world object image is received, And a first layer positioned at a rear surface of the second layer so that the composition object image is superimposed on a rear surface of the real world object image.
제 16 항에 있어서,
상기 실세계 이미지에서 상기 실세계 객체 이미지 만을 추출하고, 추출된 상기 실세계 객체 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 하는 모바일 단말기.
The method of claim 16,
And extracting only the real world object image from the real world image and placing the extracted real world object image on the second layer.
제 16 항에 있어서,
상기 실세계 이미지에서 상기 실세계 객체 이미지를 제외한 나머지 이미지에 투명 처리하고, 상기 실세계 객체 이미지 및 투명 처리된 이미지를 상기 제 2 레이어에 위치시키는 것을 특징으로 하는 모바일 단말기.
The method of claim 16,
And performing a transparent process on the remaining images except for the real world object image in the real world image, and placing the real world object image and the transparent processed image on the second layer.
제 17 항에 있어서,
상기 실세계 이미지에서 추출된 상기 실세계 객체 이미지를 제외한 실세계 배경 이미지는 제 3 레이어에 위치시키는 것을 특징으로 하는 모바일 단말기.
The method of claim 17,
And a real world background image excluding the real world object image extracted from the real world image in a third layer.
제 19 항에 있어서, 상기 사진 촬영 이미지를 생성하는 경우,
상기 제 3 레이어의 상기 실세계 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 하는 방법.
The method of claim 19, wherein when generating the photographed image,
And generating the photographed image by further including the real world background image of the third layer.
제 14 항에 있어서, 상기 사진 촬영 이미지를 생성하는 경우,
상기 메모리는 하나 이상의 배경 이미지들을 포함하며, 상기 배경 이미지들 중 선택된 배경 이미지를 더 포함하여 상기 사진 촬영 이미지를 생성하는 것을 특징으로 하는 모바일 단말기.
The method of claim 14, wherein when generating the photographed image,
And the memory includes one or more background images, and further comprising a selected background image of the background images to generate the photographed image.
제 14 항에 있어서,
상기 모바일 단말기에 입력된 제어명령에 따라 상기 디스플레이에 출력된 상기 합성용 객체 이미지의 크기 또는 위치를 제어하는 것을 특징으로 하는 모바일 단말기.
The method of claim 14,
And controlling the size or position of the composition object image output to the display according to a control command input to the mobile terminal.
제 14 항에 있어서,
상기 합성용 객체 이미지는 상기 모바일 단말기에서 생성되거나 다른 모바일 단말기에서 생성되어 상기 통신모듈을 통하여 제공받은 것을 특징으로 하는 모바일 단말기.
The method of claim 14,
The composition object image is a mobile terminal, characterized in that generated in the mobile terminal or generated in another mobile terminal provided through the communication module.
제 23 항에 있어서,
상기 합성용 객체 이미지는 배경 이미지가 제외된 객체 이미지 만을 포함하는 것을 특징으로 하는 모바일 단말기.
The method of claim 23, wherein
The synthesis object image is a mobile terminal, characterized in that it comprises only the object image, the background image is excluded.
제 23 항에 있어서,
상기 합성용 객체 이미지가 생성될 때, 상기 합성용 객체 이미지를 제외한 나머지 이미지는 배경 이미지로 생성되는 것을 특징으로 하는 모바일 단말기.
The method of claim 23, wherein
And when the synthesis object image is generated, the remaining images other than the synthesis object image are generated as a background image.
제 14 항에 있어서,
상기 합성용 객체 이미지와 상기 실세계 객체 이미지가 배치된 상기 사진 촬영 이미지가 합성용 객체 이미지로 사용될 수 있도록 상기 통신모듈을 이용하여 다른 모바일 단말기로 전송하되,
상기 다른 모바일 단말기는, 상기 명령어들과 동일한 명령어들을 포함하는 하나 이상의 프로그램을 이용하여 상기 사진 촬영 이미지를 합성용 객체 이미지로 수신한 상기 합성용 객체 이미지와 상기 다른 모바일 단말기의 상기 실세계 객체 이미지를 포함하는 사진 촬영 이미지를 생성하는 것을 특징으로 하는 모바일 단말기.
The method of claim 14,
By using the communication module to be transmitted to the other mobile terminal so that the composite image and the photographed image in which the real-world object image is placed, can be used as a composite object image,
The other mobile terminal may include the composition object image received from the photographed image as a composition object image and the real world object image of the other mobile terminal using one or more programs including the same instructions as the instructions. The mobile terminal, characterized in that for generating a photographing image.
KR1020180013613A 2018-02-02 2018-02-02 A mobile terminal for generating a photographed image and a method for generating a photographed image KR102514702B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180013613A KR102514702B1 (en) 2018-02-02 2018-02-02 A mobile terminal for generating a photographed image and a method for generating a photographed image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180013613A KR102514702B1 (en) 2018-02-02 2018-02-02 A mobile terminal for generating a photographed image and a method for generating a photographed image

Publications (2)

Publication Number Publication Date
KR20190094040A true KR20190094040A (en) 2019-08-12
KR102514702B1 KR102514702B1 (en) 2023-03-28

Family

ID=67625057

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180013613A KR102514702B1 (en) 2018-02-02 2018-02-02 A mobile terminal for generating a photographed image and a method for generating a photographed image

Country Status (1)

Country Link
KR (1) KR102514702B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114640805A (en) * 2020-11-30 2022-06-17 华为技术有限公司 Clapping method, electronic equipment and server

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291338A1 (en) 2006-06-20 2007-12-20 Williams Karen E Photo editing menu systems for digital cameras
KR20080044726A (en) * 2006-11-17 2008-05-21 엘지전자 주식회사 Terminal having camera and operating method thereof
KR20100136833A (en) * 2009-06-19 2010-12-29 삼성전자주식회사 Method of creating contents using camera in terminal and apparatus thereof
KR20140094135A (en) * 2013-01-21 2014-07-30 엘지전자 주식회사 Mobile terminal and Operationg method thereof
KR20150049579A (en) * 2013-10-30 2015-05-08 엘지전자 주식회사 Mobile terminal and control method thereof
KR20150057840A (en) * 2013-11-20 2015-05-28 엘지전자 주식회사 Mobile terminal and operation method thereof
US20150281591A1 (en) 2014-04-01 2015-10-01 Ideo Llc Video Editor
US9792883B2 (en) 2011-04-19 2017-10-17 Samsung Electronics Co., Ltd Apparatus and method for compositing image in a portable terminal

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070291338A1 (en) 2006-06-20 2007-12-20 Williams Karen E Photo editing menu systems for digital cameras
KR20080044726A (en) * 2006-11-17 2008-05-21 엘지전자 주식회사 Terminal having camera and operating method thereof
KR20100136833A (en) * 2009-06-19 2010-12-29 삼성전자주식회사 Method of creating contents using camera in terminal and apparatus thereof
US9792883B2 (en) 2011-04-19 2017-10-17 Samsung Electronics Co., Ltd Apparatus and method for compositing image in a portable terminal
KR20140094135A (en) * 2013-01-21 2014-07-30 엘지전자 주식회사 Mobile terminal and Operationg method thereof
KR20150049579A (en) * 2013-10-30 2015-05-08 엘지전자 주식회사 Mobile terminal and control method thereof
KR20150057840A (en) * 2013-11-20 2015-05-28 엘지전자 주식회사 Mobile terminal and operation method thereof
US20150281591A1 (en) 2014-04-01 2015-10-01 Ideo Llc Video Editor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114640805A (en) * 2020-11-30 2022-06-17 华为技术有限公司 Clapping method, electronic equipment and server

Also Published As

Publication number Publication date
KR102514702B1 (en) 2023-03-28

Similar Documents

Publication Publication Date Title
KR102045957B1 (en) Method and apparatus for photographing of a portable terminal
US9253416B2 (en) Modulation of background substitution based on camera attitude and motion
CN104521227B (en) Image processing method and equipment
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
US8717412B2 (en) Panoramic image production
KR102032347B1 (en) Image display positioning using image sensor location
EP2018049B1 (en) Method of assembling a panoramic image and camera therefor
KR20140106779A (en) Apparatus and method for processing a image in device
CN108762501B (en) AR display method, intelligent terminal, AR device and AR system
WO2022100712A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
JP7371264B2 (en) Image processing method, electronic equipment and computer readable storage medium
EP4322520A1 (en) Photographing method and apparatus, and electronic device
CN112887617B (en) Shooting method and device and electronic equipment
JP2022183213A (en) Head-mounted display
WO2024051556A1 (en) Wallpaper display method, electronic device and storage medium
KR102140077B1 (en) Master device, slave device and control method thereof
KR102514702B1 (en) A mobile terminal for generating a photographed image and a method for generating a photographed image
KR102108246B1 (en) Method and apparatus for providing video in potable device
CN109308740B (en) 3D scene data processing method and device and electronic equipment
US20130147980A1 (en) Apparatus and associated method for face tracking in video conference and video chat communications
KR101514346B1 (en) Apparatus and method for making a composite photograph
KR101697163B1 (en) system and method for chroma-key composing for providing three-dimensional structure effect
KR101683130B1 (en) Method for providing user interface capable of allowing a user at local area and a user at remote area to interact each other, terminal, and computer-readable recording medium using the same
KR20150010070A (en) Method and apparatus for dispalying images on portable terminal
EP3599763A2 (en) Method and apparatus for controlling image display

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant