KR20220154556A - Photography system for surpporting to picture for mobile terminal and method thereof - Google Patents

Photography system for surpporting to picture for mobile terminal and method thereof Download PDF

Info

Publication number
KR20220154556A
KR20220154556A KR1020210062278A KR20210062278A KR20220154556A KR 20220154556 A KR20220154556 A KR 20220154556A KR 1020210062278 A KR1020210062278 A KR 1020210062278A KR 20210062278 A KR20210062278 A KR 20210062278A KR 20220154556 A KR20220154556 A KR 20220154556A
Authority
KR
South Korea
Prior art keywords
information
background
mobile terminal
image
original image
Prior art date
Application number
KR1020210062278A
Other languages
Korean (ko)
Other versions
KR102628714B1 (en
Inventor
김왕석
박승하
Original Assignee
주식회사 앤더스팟
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 앤더스팟 filed Critical 주식회사 앤더스팟
Priority to KR1020210062278A priority Critical patent/KR102628714B1/en
Publication of KR20220154556A publication Critical patent/KR20220154556A/en
Application granted granted Critical
Publication of KR102628714B1 publication Critical patent/KR102628714B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • H04N5/23222
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • H04N5/232935
    • H04N5/232945

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

The present invention discloses a camera system. More specifically, the present invention relates to a camera system for supporting photographing for a mobile terminal, which runs in the mobile terminal such as a smart phone and supports photographing with the same background as a background image in an existing picture and the same pose as a person in the picture, and a method thereof. According to an embodiment of the present invention, the camera system and the method thereof analyze an original photo to identify a background and a target object, to specify a scene, and to identify a pose of a person appearing in the scene, and provide matching information on angles and the pose for a place and the person currently displayed on the screen, thereby performing photographing with the same composition and pose in the same place as a celebrity.

Description

모바일 단말용 사진 촬영 지원 카메라 시스템 및 방법{PHOTOGRAPHY SYSTEM FOR SURPPORTING TO PICTURE FOR MOBILE TERMINAL AND METHOD THEREOF}Photo taking support camera system and method for mobile terminal {PHOTOGRAPHY SYSTEM FOR SURPPORTING TO PICTURE FOR MOBILE TERMINAL AND METHOD THEREOF}

본 발명은 카메라 시스템에 관한 것으로, 특히 스마트 폰 등의 모바일 단말에서 구동하며 기존 존재하는 사진 속 배경 이미지와 동일한 배경과, 이에 등장하는 사진속 인물과 동일한 포즈로 촬영을 지원하는 모바일 단말용 사진 촬영 지원 카메라 시스템 및 방법에 관한 것이다.The present invention relates to a camera system, and in particular, to take pictures for a mobile terminal that is driven by a mobile terminal such as a smart phone and supports taking pictures with the same background as a background image in an existing picture and the same pose as a person appearing in the picture. It relates to a supported camera system and method.

스마트폰, 태블릿PC 등, 모바일 단말의 기술적 발전에 따라, 최근에 모바일 단말은 일반적인 전화 기능뿐만 아니라, 영상 재생 기능, 파일 전송 기능 및 사진 촬영 기능 등의 다양한 기능이 탑재되고 있다.With the technological development of mobile terminals such as smart phones and tablet PCs, mobile terminals have recently been equipped with various functions such as a video playback function, a file transfer function, and a photo taking function as well as a general phone function.

특히 스마트폰에 탑재되는 카메라는 성능이 나날이 좋아짐에 따라 현재 1억 화소가 넘어가는 등 전용 디지털 카메라 못지않은 선명한 화질로 촬영이 가능하게 되었다. 또한, 사용자가 쉽게 촬영 장치를 사용할 수 있도록 하기 위해 자동 초점(Auto Focus; AF), 셀프 촬영, 손떨림 방지 등과 같은 다양한 기술들이 적용됨에 따라, 사용자는 어디서나 편리하게 고품질의 사진 및 동영상을 촬영할 수 있게 되었다.In particular, as the performance of cameras mounted on smartphones improves day by day, it is now possible to take pictures with a clear quality comparable to that of dedicated digital cameras, such as over 100 million pixels. In addition, as various technologies such as Auto Focus (AF), self-shooting, and anti-shake are applied to enable users to easily use the recording device, users can conveniently take high-quality photos and videos anywhere. It became.

더 나아가, 사진 편집, 전송 등의 기능을 구현하는 다양한 스마트폰 전용 어플리케이션(Application)들도 보급되고 있다.Furthermore, various smartphone-specific applications that implement functions such as photo editing and transmission are also being spread.

이러한 스마트폰 전용 어플리케이션들에는 사진의 보정을 위한 어플리케이션, 사진의 프레임을 변화하기 위한 어플리케이션 및 사진의 인화 서비스 신청을 위한 어플리케이션 등이 있으며, 사용자들은 특별한 순간뿐만 아니라, 평소에도 스마트폰을 이용하여 다양한 일상을 기록으로 남기고 있다. These smartphone-specific applications include an application for photo correction, an application for changing the frame of a photo, and an application for requesting a photo printing service. I am keeping a record of my daily life.

한편, 연예인을 비롯한 셀럽에 대한 일반인의 관심이 증가하면서 이들 셀럽에 대한 정보 역시 폭발적으로 증가하고 있다. 특히, 인터넷으로 대표되는 정보통신기술이 발달과 함께, 특정 셀럽의 프로필, 관련 뉴스, 진행 작품, 팬클럽 정보 등과 같은 다양한 정보를 제공하는 셀럽 포털 사이트가 등장하여 일반인들로 하여금 여러 정보를 공유할 수 있도록 하고 있다. 이러한 현상은 스마트폰의 보급과 맞물려 셀럽을 길거리나 특정 장소에서 발견할 경우 자신이 직접 근거리에서 셀럽의 사진을 찍어 SNS 등을 통해 지인과 셀럽에 대한 정보를 공유하기도 한다.On the other hand, as the general public's interest in celebrities, including entertainers, increases, information about these celebrities is also explosively increasing. In particular, with the development of information and communication technology represented by the Internet, celebrity portal sites that provide various information such as profiles of specific celebrities, related news, works in progress, fan club information, etc. have appeared, allowing the general public to share various information. making it possible This phenomenon coincides with the spread of smartphones, and when you find a celebrity on the street or in a specific place, you take a picture of the celebrity from a close distance and share information about the celebrity with your acquaintances through SNS.

특히, 유명 셀럽이 특정 장소에서 특정 포즈로 촬영한 사진을 SNS 등에 공유하면, 이를 본 팬들은 해당 장소를 직접 찾아가 셀럽과 같은 포즈를 취하고 사진을 찍는 경우가 많다. 이런 경우에 해당 장소를 찾아 촬영을 위한 정확한 배경을 찾아내고, 셀럽의 포즈를 정확하게 체크하는 것이 중요하다고 할 수 있다.In particular, when a famous celebrity shares a photo taken in a specific pose in a specific place on social media, etc., fans who see it often go to the location and pose in the same pose as the celebrity and take pictures. In this case, it can be said that it is important to find the appropriate location, find the correct background for the photoshoot, and accurately check the pose of the celebrity.

그러나, 현재 스마트폰에 제공되는 어플리케이션들은 사진 속 배경 이미지와 동일한 장소에서, 사진 속 인물과 동일한 포즈로 사진을 촬영할 수 있도록 지원하는 기능을 제공하지는 못하는 한계가 있다.However, applications currently provided for smart phones have a limitation in that they cannot provide a function for taking a picture in the same place as the background image in the picture and in the same pose as the person in the picture.

공개특허공보 제10-2006-0058323호(공개일자: 2006.05.30.)Publication No. 10-2006-0058323 (published date: 2006.05.30.)

본 발명은 전술한 한계를 극복하기 위해 안출된 것으로, 본 발명은 사진 속 배경 이미지와 동일한 배경을 찾고 사진 속 인물과 동일한 포즈를 찾는 과정을 증강현실 서비스를 통해 구현하고, 동일한 배경 및 포즈로 사용자가 사진을 찍을 수 있도록 환경을 제공하는데 과제가 있다.The present invention has been devised to overcome the above-mentioned limitations, the present invention implements a process of finding the same background as the background image in the picture and finding the same pose as the person in the picture through an augmented reality service, and the user with the same background and pose. There is a challenge in providing an environment for people to take pictures.

전술한 과제를 해결하기 위해, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템은, 저장소에 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출하는 이미지 정보 추출부, 상기 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 분리 및 식별하는 배경/인물 분리부, 하나 이상의 피사체 인물 및 상기 피사체 인물의 주변 배경을 촬영하여 3D 뎁스 정보를 포함하는 촬영 이미지를 생성하는 촬영부, 상기 3D 뎁스 정보를 이용하여, 상기 촬영 이미지의 배경에 대응하는 제1 공간 정보 및 상기 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 포함하는 포인트 클라우드를 설정하는 공간 설정부, 상기 배경선 정보와 상기 제1 공간 정보를 비교하여 상기 원본 이미지의 배경과 상기 촬영 이미지의 배경간의 앵글차를 산출하고, 상기 윤곽선 정보와 상기 제2 공간 정보를 비교하여 상기 등장 인물과 피사체 인물간의 포즈차를 산출하는 비교 분석부 및, 상기 앵글차 및 포즈차를 포함하는 매칭 정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩해서 표시하는 매칭 정보 생성부를 포함할 수 있다.In order to solve the above problems, a camera system for supporting taking a picture for a mobile terminal according to an embodiment of the present invention provides a plurality of background line information constituting a background and outline information constituting a character, from an original image stored in a storage. an image information extractor for extracting meta information of an original image; a background/person separator for separating and identifying a background and a character located in the background based on the background line information and outline information; A photographing unit generating a photographed image including 3D depth information by photographing a surrounding background of the subject person, first spatial information corresponding to a background of the photographed image and the subject person of the photographed image by using the 3D depth information A space setting unit for setting a point cloud including second space information corresponding to, calculating an angle difference between the background of the original image and the background of the captured image by comparing the background line information and the first space information; A comparison and analysis unit that compares the contour information and the second space information to calculate a pose difference between the character and the subject person, and overlaps matching information including the angle difference and the pose difference with a captured image on the screen of the mobile terminal. It may include a matching information generation unit for displaying the matching information.

상기 원본 이미지의 배경은 하나 이상의 타겟 객체를 포함하고, 상기 비교 분석부는, 상기 제1 공간 정보의 복수의 포인트와 상기 타겟 객체를 비교하여, 상기 촬영 이미지의 촬영 장소가 상기 원본 이미지의 촬영 장소와 동일한지 판단할 수 있다.The background of the original image includes one or more target objects, and the comparison and analysis unit compares a plurality of points of the first spatial information with the target object so that a capturing location of the captured image is the same as a capturing location of the original image. can be judged to be the same.

또한, 본 발명의 시스템은, 모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받아 촬영 장소의 동일 여부 판단시 참조하도록 상기 비교 분석부에 전달하는 좌표 정보 제공부를 더 포함할 수 있다.In addition, the system of the present invention receives coordinate information including the latitude and longitude at which the photographed image was created from a GPS module installed in the mobile terminal, and transmits the coordinates to the comparison and analysis unit for reference when determining whether the photographed location is the same. An information providing unit may be further included.

상기 앵글차는, 상기 제1 공간 정보의 X, Y, Z 좌표에 대해서, 이하의 수학식,The angle difference is expressed by the following equation for the X, Y, and Z coordinates of the first spatial information;

Figure pat00001
Figure pat00001

로 산출될 수 있다.can be calculated as

상기 이미지 정보 추출부는, 상기 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 더 수행할 수 있다.The image information extraction unit may further perform a preprocessing process including removing noise and segmenting a plurality of images with respect to the original image.

또한, 전술한 과제를 해결하기 위해, 본 발명의 다른 양태의 실시예에 따른 모바일 단말에 설치 및 실행되는 카메라 시스템에 의한 사진 촬영 지원 방법은, (a) 하나 이상의 피사체 인물 및 상기 피사체 인물의 주변 배경을 촬영하여 3D 뎁스 정보를 포함하는 촬영 이미지를 생성하는 단계, (b) 상기 3D 뎁스 정보를 이용하여, 상기 촬영 이미지의 배경에 대응하는 제1 공간 정보 및 상기 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 포함하는 포인트 클라우드를 설정하는 단계, (c) 저장소에 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출하는 단계, (d) 상기 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 식별 및 분리하는 단계, (e) 상기 배경선 정보와 상기 제1 공간 정보를 비교하여 상기 원본 이미지의 배경과 상기 촬영 이미지의 배경간의 앵글차를 산출하고, 상기 윤곽선 정보와 상기 제2 공간 정보를 비교하여 상기 등장 인물과 피사체 인물간의 포즈차를 산출하는 단계 및, (f) 상기 앵글차 및 포즈차를 포함하는 매칭 정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩해서 표시하는 단계를 포함할 수 있다.In addition, in order to solve the above problems, a method for supporting taking pictures by a camera system installed and executed in a mobile terminal according to an embodiment of another aspect of the present invention includes (a) one or more subject persons and surroundings of the subject persons generating a photographed image including 3D depth information by photographing a background; (b) using the 3D depth information, first spatial information corresponding to a background of the photographed image and a subject person of the photographed image; Setting a point cloud including second spatial information; (c) a plurality of background line information constituting a background, contour information constituting a character, and meta information of an original image, from an original image stored in a storage; (d) identifying and separating a background and a character located in the background based on the background line information and the contour line information; (e) comparing the background line information and the first spatial information to Calculating an angle difference between the background of the original image and the background of the photographed image, and calculating a pose difference between the character and the subject by comparing the outline information and the second space information; (f) the angle difference and overlapping and displaying matching information including the pose difference with the photographed image on the screen of the mobile terminal.

상기 (e) 단계 이전에, 상기 제1 공간 정보의 복수의 포인트와 상기 원본 이미지의 배경에 포함되는 타겟 객체를 비교하여, 타겟 객체를 비교하여 상기 촬영 이미지의 촬영 장소가 상기 원본 이미지의 촬영 장소와 동일한지 판단하는 단계를 포함할 수 있다.Prior to the step (e), a target object included in the background of the original image is compared with a plurality of points of the first spatial information, and the target object is compared to determine the capturing location of the captured image as the capturing location of the original image. It may include the step of determining whether it is the same as.

상기 (e) 단계는, 모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받는 단계, 상기 좌표 정보를 참조하여 상기 원본 이미지 및 촬영 이미지의 촬영 장소의 동일 여부를 판단하는 단계를 더 포함할 수 있다.The step (e) may include receiving coordinate information including the latitude and longitude at which the captured image was created from a GPS module installed in the mobile terminal; A step of determining whether they are identical may be further included.

상기 앵글차는, 상기 제1 공간 정보의 X, Y, Z 좌표에 대해서, 이하의 수학식, The angle difference is expressed by the following equation for the X, Y, and Z coordinates of the first spatial information;

Figure pat00002
Figure pat00002

로 산출될 수 있다.can be calculated as

상기 (d) 단계는, 상기 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 수행하는 단계를 더 포함할 수 있다.The step (d) may further include performing a preprocessing process including removing noise and segmenting a plurality of images with respect to the original image.

본 발명의 실시예에 따르면, 원본 사진을 분석하여 배경 및 타겟 객체를 식별하여 장면을 특정 및 장면에 등장하는 인물의 포즈를 식별하고, 현재 화면상에 표시되는 장소 및 인물에 대한 앵글 및 포즈의 매칭 정보를 제공함으로써 셀럽과 동일한 장소에서 동일한 구도 및 포즈로 사진을 촬영할 수 있는 효과가 있다.According to an embodiment of the present invention, a background and a target object are identified by analyzing an original photo, a scene is identified and a pose of a person appearing in the scene is identified, and angles and poses for a place and a person currently displayed on a screen are identified. By providing matching information, there is an effect of taking a picture with the same composition and pose in the same place as the celebrity.

본 발명은 전술한 사용자의 요구를 쉽게 반영할 수 있도록 한다. 또한, 본 발명의 기술적 사상은 영화나 드라마 속 어떤 장면이나 유명 작품 사진에도 적용할 수 있다.The present invention makes it possible to easily reflect the above-mentioned user's needs. In addition, the technical idea of the present invention can be applied to any scene in a movie or drama or a photograph of a famous work.

도 1은 모바일 단말을 이용한 사진 촬영 현장을 예시한 도면이다.
도 2는 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템을 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 방법을 나타낸 도면이다.
도 4 및 도 5는 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템의 영상 처리 방법을 모식화한 도면이다.
도 6은 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템이 제공하는 촬영 화면을 예시한 도면이다.
1 is a diagram illustrating a photo taking site using a mobile terminal.
2 is a diagram illustrating a camera system for supporting taking a picture for a mobile terminal according to an embodiment of the present invention.
3 is a diagram illustrating a method for supporting taking a picture for a mobile terminal according to an embodiment of the present invention.
4 and 5 are diagrams schematically illustrating an image processing method of a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention.
6 is a diagram illustrating a photographing screen provided by a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention.

상기한 바와 같은 본 발명을 첨부된 도면들과 실시예들을 통해 상세히 설명하도록 한다. The present invention as described above will be described in detail through the accompanying drawings and embodiments.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that technical terms used in the present invention are only used to describe specific embodiments and are not intended to limit the present invention. In addition, technical terms used in the present invention should be interpreted in terms commonly understood by those of ordinary skill in the art to which the present invention belongs, unless specifically defined otherwise in the present invention, and are excessively inclusive. It should not be interpreted in a positive sense or in an excessively reduced sense. In addition, when the technical terms used in the present invention are incorrect technical terms that do not accurately express the spirit of the present invention, they should be replaced with technical terms that those skilled in the art can correctly understand. In addition, general terms used in the present invention should be interpreted as defined in advance or according to context, and should not be interpreted in an excessively reduced sense.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서, "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various elements or steps described in the invention, and some of the elements or steps are included. It should be construed that it may not be, or may further include additional components or steps.

또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Also, terms including ordinal numbers such as first and second used in the present invention may be used to describe components, but components should not be limited by the terms. Terms are used only to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.

이하의 설명에서, 본 발명의 "모바일 단말용 사진 촬영 지원 카메라 시스템"의 용어는, 설명의 편의상 "카메라 시스템" 또는 "시스템"으로 약식 표기될 수 있다.In the following description, the term "camera system for supporting picture taking for a mobile terminal" of the present invention may be abbreviated as "camera system" or "system" for convenience of description.

이하, 도면을 참조하여 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템 및 방법을 설명한다.Hereinafter, a camera system and method for supporting taking a picture for a mobile terminal according to an embodiment of the present invention will be described with reference to the drawings.

도 1은 모바일 단말을 이용한 사진 촬영 현장을 예시한 도면이다.1 is a diagram illustrating a photo taking site using a mobile terminal.

도 1을 참조하면, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템은, 스마트폰 등의 모바일 단말(10)에 설치 및 실행되는 어플리케이션 프로그램 형태로 구현될 수 있고, 촬영자인 사용자의 실행에 따라 모바일 단말(10)에 탑재된 카메라와 연동하여 구동될 수 있다.Referring to FIG. 1 , a camera system for supporting taking a picture for a mobile terminal according to an embodiment of the present invention may be implemented in the form of an application program installed and executed in a mobile terminal 10 such as a smartphone, and Depending on execution, it may be driven in conjunction with a camera mounted on the mobile terminal 10 .

그리고, 사용자는 모바일 단말(10)을 이용하여 이전 셀럽 등이 방문한 촬영 장소를 배경으로 하고 셀럽과 동일한 위치 및 포즈의 사진을 남기고자 하는 피사체 인물을 촬영할 수 있다.In addition, the user may use the mobile terminal 10 to take a photograph of a subject person to leave a picture of in the same position and pose as the celebrity, against the background of a photographing location visited by a previous celebrity.

이를 위해, 모바일 단말(10)은 해당 장소에서 셀럽이 촬영하여 공유한 원본 이미지를 다운로드 하거나 저장할 수 있고, 카메라 시스템의 저장소에는 해당 원본 이미지가 저장될 수 있다. 이에 따라, 본 발명의 카메라 시스템은 피사체 인물의 촬영시 그 원본 이미지를 참조하여 현재 촬영 이미지의 구도 및 피사체 인물의 포즈가 동일한지 판단 및 정확도를 산출하여 수치적으로 표현된 매칭 정보를 생성 및 화면상에 제공할 수 있다.To this end, the mobile terminal 10 may download or store an original image taken and shared by a celebrity at a corresponding place, and the corresponding original image may be stored in a storage of the camera system. Accordingly, the camera system of the present invention determines whether the composition of the currently captured image and the pose of the subject are the same by referring to the original image when capturing the subject person, calculates accuracy, and generates numerically expressed matching information and displays the image. can be provided on the

특히, 본 발명의 실시예에 따른 카메라 시스템은 원본 이미지에서, 이미지를 이루는 배경선 및, 등장 인물의 윤곽선에 기초하여 배경과 등장 인물을 식별 및 분리함과 아울러, 모바일 단말(10)에 탑재된 카메라를 통해 피사체 인물 및 피사체 인물의 주변 배경을 촬영하여 3D 뎁스(depth) 정보를 포함하는 촬영 이미지를 생성하고, 그 3D 뎁스 정보를 이용하여 공간 정보를 도출하고, 원본 이미지의 배경 및 등장 인물과의 비교를 통해 현재 촬영중인 장소가 원본 이미지에 등장하는 장소와 일치하는 여부와, 촬영 이미지의 앵글(angle) 및 피사체 인물의 포즈(pose)가 동일한지를 판단할 수 있다. 이러한 영상 분석 방법에 대한 상세한 설명은 후술한다.In particular, the camera system according to an embodiment of the present invention identifies and separates a background and a character based on a background line constituting the image and an outline of a character in an original image, and is mounted on the mobile terminal 10 A photographed image including 3D depth information is generated by photographing the subject person and the surrounding background of the subject person through the camera, deriving spatial information using the 3D depth information, and Through comparison of , it is possible to determine whether the currently photographed place matches the place appearing in the original image, and whether the angle of the photographed image and the pose of the person subject are the same. A detailed description of this image analysis method will be described later.

그리고, 카메라 시스템은 판단결과에 따라, 원본 이미지와 촬영 이미지간의 정확도를 수치화하고, 매칭 정보로서 촬영 이미지와 중첩하여 모바일 단말(10)의 화면상에 표시할 수 있다.Then, the camera system digitizes the accuracy between the original image and the captured image according to the determination result, and displays it on the screen of the mobile terminal 10 by overlapping with the captured image as matching information.

전술한 매칭 정보는 현재 촬영 상태에 따라 실시간으로 화면상에 표시되며, 이에 따라 사용자는 모바일 단말(10)의 화면을 바라보며 피사체 인물과 배경이 원본 이미지에 부합하도록 이동하면서 정확도가 100%에 가깝도록 위치 및 앵글을 변경하여 촬영을 수행할 수 있다.The above-mentioned matching information is displayed on the screen in real time according to the current shooting state, and accordingly, the user looks at the screen of the mobile terminal 10 and moves the subject person and background to match the original image so that the accuracy is close to 100%. Shooting can be performed by changing the location and angle.

또한, 촬영 현장(1)에는 원본 이미지에 등장하는 하나 이상의 타겟 객체(3)가 존재할 수 있고, 카메라 시스템은 원본 이미지와 촬영 이미지의 비교시 타겟 객체(3)를 참조할 수 있다.In addition, one or more target objects 3 appearing in the original image may exist in the shooting site 1, and the camera system may refer to the target object 3 when comparing the original image and the captured image.

이러한 타겟 객체(3)로는 해당 장소에 존재하는 다양한 물체, 간판 및 시설 등일 수 있고, 이러한 타겟 객체(3)는 현재 촬영 이미지의 장소뿐만 아니라, 촬영 각도를 판단하는 지표로 활용될 수 있다.The target object 3 may be various objects, signboards, and facilities existing in the corresponding place, and the target object 3 may be used as an indicator for determining not only the location of the currently captured image but also the shooting angle.

본 발명의 시스템(100)이 적용되는 모바일 단말(10)로는, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 단말과 같은 공지의 다양한 휴대용 컴퓨팅 장치가 이용될 수 있다.As the mobile terminal 10 to which the system 100 of the present invention is applied, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smart phone Various known portable computing devices such as all types of handheld-based terminals such as a smartpad and a tablet PC may be used.

전술한 구조에 따라, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템은, 셀럽 등이 촬영한 사진 속 배경과 동일한 배경을 찾고 사진 속 등장 인물과 동일한 포즈를 찾는 과정을 증강현실 서비스 형태로 구현하고 동일한 배경 및 포즈로 피사체 인물에 대한 사진을 찍을 수 있도록 환경을 제공할 수 있다.According to the above-described structure, the camera system for supporting taking pictures for mobile terminals according to an embodiment of the present invention provides an augmented reality service for finding a background identical to that in a picture taken by a celebrity and finding a pose identical to that of a person in the picture. It can be implemented in a form and provide an environment to take a picture of a subject person with the same background and pose.

이하, 도면을 참조하여 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템을 상세히 설명한다.Hereinafter, a camera system for supporting taking a picture for a mobile terminal according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 2는 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템을 나타낸 도면이다. 이하의 설명에서, 카메라 시스템(100)을 구성하는 각 구성부는, 공지의 마이크로 프로세서에 의해 실행 가능한 어플리케이션 프로그램으로 구현되고, 읽고 쓰기가 가능한 기록매체에 기록되어 모바일 단말에 탑재될 수 있다.2 is a diagram illustrating a camera system for supporting taking a picture for a mobile terminal according to an embodiment of the present invention. In the following description, each component constituting the camera system 100 may be implemented as an application program executable by a known microprocessor, recorded on a readable and writable recording medium, and loaded into a mobile terminal.

도 2를 참조하면, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템(100)은, 저장소(110)에 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출하는 이미지 정보 추출부(120), 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 분리 및 식별하는 배경/인물 분리부(130), 하나 이상의 피사체 인물 및 피사체 인물의 주변 배경을 촬영하여 3D 뎁스 정보를 포함하는 촬영 이미지를 생성하는 촬영부(140), 3D 뎁스 정보를 이용하여, 촬영 이미지의 배경에 대응하는 제1 공간 정보 및 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 포함하는 포인트 클라우드를 설정하는 공간 설정부(150), 배경선 정보와 제1 공간 정보를 비교하여 원본 이미지의 배경과 촬영 이미지의 배경간의 앵글차를 산출하고, 윤곽선 정보와 제2 공간 정보를 비교하여 등장 인물과 피사체 인물간의 포즈차를 산출하는 비교 분석부(160) 및, 앵글차 및 포즈차를 포함하는 매칭 정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩해서 표시하는 매칭 정보 생성부(170) 및, 모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받아 촬영 장소의 동일 여부 판단시 참조하도록 상기 비교 분석부에 전달하는 좌표 정보 제공부(180)를 포함할 수 있다.Referring to FIG. 2 , the camera system 100 for supporting taking a picture for a mobile terminal according to an embodiment of the present invention extracts a plurality of background line information constituting a background and a character from an original image stored in a storage 110. An image information extractor 120 that extracts the constitutive contour information and meta information of the original image, and a background/person separator that separates and identifies a background and a character located in the background based on the background line information and the contour information. 130, a photographing unit 140 for generating a photographed image including 3D depth information by photographing one or more subject persons and a surrounding background of the subject person, and a first image corresponding to the background of the photographed image by using the 3D depth information. A space setting unit 150 for setting a point cloud including spatial information and second spatial information corresponding to a subject person of a photographed image, and comparing the background line information and the first spatial information to a background of the original image and a background of the photographed image. A comparison and analysis unit 160 that calculates an angle difference between the spaces and compares the contour information and the second space information to calculate a pose difference between the character and the subject, and matching information including the angle difference and the pose difference to the mobile terminal. When receiving coordinate information including the latitude and longitude at which the captured image was generated from the matching information generation unit 170 overlapping with the captured image and displayed on the screen and the GPS module installed in the mobile terminal, determining whether the captured location is the same It may include a coordinate information providing unit 180 that is transmitted to the comparison and analysis unit for reference.

저장소(110)는 카메라 시스템(100)에 탑재된 메모리 등에 할당된 파일 저장 공간으로서, 촬영 대상이 되는 셀럽 및 장소가 등장하는 원본 이미지를 저장할 수 있다. 이러한 원본 이미지는 웹 등으로부터 미리 다운로드 되어 저장소(110)에 저장될 수 있고, 이미지 분석시 참조될 수 있다.The storage 110 is a file storage space allocated to a memory mounted in the camera system 100 and may store original images of celebrities and places to be photographed. These original images may be pre-downloaded from the web and stored in the storage 110, and may be referred to when analyzing the images.

이미지 정보 추출부(120)는 카메라 시스템(100)의 실행에 따라 저장소(110)에 저장된 원본 이미지로부터 이미지와 관련된 다양한 정보를 추출할 수 있다. 특히, 원본 이미지에는 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지에 대한 메타 정보가 포함될 수 있고, 이미지 정보 추출부(120)를 이러한 정보를 추출하여 후술하는 비교 분석부(160)에 전달할 수 있다.The image information extractor 120 may extract various information related to the image from the original image stored in the storage 110 according to the execution of the camera system 100 . In particular, the original image may include a plurality of background line information constituting the background, contour information constituting the character, and meta information about the original image, and the image information extractor 120 extracts such information to be described later. It can be transmitted to the comparison and analysis unit 160.

여기서, 배경선 정보는 원본 이미지에서 배경에 해당하는 영역을 식별하는 데 이용될 수 있고, 윤곽선 정보는 등장 인물에 해당하는 영역을 식별하는 데 이용될 수 있다. 또한, 메타정보는 촬영 장소의 위도 및 경도, 데이터 수집시간, 조도, 컬러 등을 식별하는데 이용될 수 있으며, 여기서, 데이터 수집시간, 조도 및 컬러 등의 정보는 분석시 배제될 수 있다.Here, background line information may be used to identify a region corresponding to a background in the original image, and contour information may be used to identify a region corresponding to a character. In addition, meta information can be used to identify the latitude and longitude of a photographing location, data collection time, illumination, color, etc. Here, information such as data collection time, illumination, color, etc. can be excluded during analysis.

또한, 이미지 정보 추출부(120)는 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 더 수행할 수 있으며, 이러한 전처리 과정은 인식의 정확도 향상을 위해 사진 속 이미지의 노이즈 제거나 이미지 분할(Image Segmentation) 등을 적용한 것으로, 인식 속도의 개선을 위해 사진 속 배경과 인물 포즈를 중심으로 증강현실 기반 인식이 가능한 범위에서 복수의 배경선 및 윤곽선을 각각 연결하는 포인트와 포인트간 간격이 촘촘하지 않는 구조로 경량화된 저밀도(Low density) 윤곽 프레임을 구성할 수 있다.In addition, the image information extractor 120 may further perform a pre-processing process including noise removal and segmentation of a plurality of images on the original image, and this pre-processing process removes noise from the image in the picture to improve recognition accuracy. In order to improve the recognition speed, points and intervals between points that connect multiple background lines and outlines in the range where augmented reality-based recognition is possible centered on the background and the pose of the person in the picture to improve the recognition speed With this non-dense structure, a lightweight, low-density contour frame can be constructed.

배경/인물 분리부(130)는 원본 이미지로부터 추출되는 이미지 정보를 이용하여 배경과 인물을 식별 및 분리할 수 있다. 배경/인물 분리부(130)는 추출된 배경선 정보를 통해 원본 이미지에 등장하는 배경 형태 및 배경의 원근비율 등을 식별할 수 있고, 윤곽선 정보를 통해 배경 상에 위치한 하나 이상의 등장 인물을 식별할 수 있다. The background/person separator 130 may identify and separate a background and a person using image information extracted from an original image. The background/person separation unit 130 can identify the shape of the background appearing in the original image and the perspective ratio of the background through the extracted background line information, and can identify one or more characters located on the background through the contour information. can

배경선 정보는 원본 이미지에서 배경을 이루는 복수의 배경선을 포함할 수 있다. 이러한 배경선의 배치 및 연결형태에 의해 배경과, 배경의 원근감을 시뮬레이션 할 수 있고, 배경과 등장인물간의 원근비율을 산출하는 데 이용될 수 있다. Background line information may include a plurality of background lines constituting a background in an original image. The background and perspective of the background can be simulated by the arrangement and connection form of the background lines, and can be used to calculate the perspective ratio between the background and the characters.

또한, 배경선 정보에는 배경 상에 존재하는 하나 이상의 타겟 객체의 형태를 포함할 수 있다. 타겟 객체는 등장 인물을 제외한 배경 상의 건물, 시설, 간판, 물체 등이 될 수 있고, 각 장소에는 해당 장소를 특정할 수 있는 타겟 객체가 하나 이상 존재할 수 있다. 이러한 타겟 객체는 배경 및 등장인물과는 별도의 객체로서 식별될 수 있고, 이후 촬영 이미지의 장소와 원본 이미지의 장소가 동일 장소인지 판단시 그 정확도를 높이는 데 활용될 수 있다.Also, the background line information may include the shape of one or more target objects existing on the background. The target object may be a building, facility, signboard, object, etc. on the background excluding characters, and one or more target objects capable of specifying the corresponding place may exist in each place. The target object may be identified as an object separate from the background and the character, and may be used to increase accuracy when determining whether the location of the captured image and the location of the original image are the same location.

그리고, 원본 이미지 상에 등장 인물은 하나 이상의 셀럽에 대응하며 통상적으로 이미지의 중심에 위치할 수 있다. 또한, 윤곽선 정보는 폐곡선을 이루며 등장 인물의 포즈를 나타내고, 이후 촬영 이미지 상의 피사체 인물에 대한 윤곽선의 비교를 통해 포즈의 정확도를 산출하는 데 이용될 수 있다. Also, a character on the original image corresponds to one or more celebrities and may be generally located at the center of the image. In addition, the outline information may represent a pose of a character forming a closed curve, and may then be used to calculate pose accuracy through comparison of outlines of the subject person in a photographed image.

촬영부(140)는 모바일 단말에 탑재된 카메라로부터 실시간으로 촬영된 촬영 이미지를 생성할 수 있다. 사용자는 모바일 단말을 이용하여 원본 이미지에 대응하는 장소에서 셀럽에 대응하도록 사진을 찍을 수 있고, 촬영부(140)는 모바일 단말의 카메라에서 촬영중인 촬영 이미지를 실시간으로 생성할 수 있다. 여기서, 모바일 단말의 카메라는 피사체에 대한 3D 뎁스 정보를 획득할 수 있는 뎁스 비전(depth vision) 카메라일 수 있고, 이후 공간 관련 정보를 설정하기 위한 3D 뎁스 정보를 획득할 수 있다.The photographing unit 140 may generate a photographed image captured in real time from a camera installed in the mobile terminal. A user may take a picture corresponding to a celebrity at a place corresponding to an original image using a mobile terminal, and the photographing unit 140 may generate a photographed image being photographed by a camera of the mobile terminal in real time. Here, the camera of the mobile terminal may be a depth vision camera capable of obtaining 3D depth information on a subject, and then acquire 3D depth information for setting space-related information.

공간 설정부(150)는 촬영 이미지 분석을 위한 공간과 관련된 정보를 설정할 수 있다. 공간 설정부(150)는 촬영 이미지에 등장하는 배경 및 피사체 인물에 대한 포인트 클라우드(point cloud)를 설정하는 것으로, 이를 위해 촬영 이미지에 포함되는 3D 뎁스 정보를 이용하여 촬영 이미지의 배경에 대응하는 제1 공간 정보와, 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 생성하여 포인트 클라우드를 설정할 수 있다. 이러한 포인트 클라우드를 통해 촬영 이미지상의 배경과 피사체 인물의 형태를 식별하고 원근비율을 산출할 수 있으며, 촬영 앵글을 산출할 수 있다.The space setting unit 150 may set space-related information for analysis of captured images. The space setting unit 150 sets a point cloud for the background and subject person appearing in the captured image. A point cloud may be set by generating first spatial information and second spatial information corresponding to a subject person of a captured image. Through this point cloud, it is possible to identify the shape of the background and subject person on the photographed image, calculate the perspective ratio, and calculate the photographing angle.

비교 분석부(160)는 원본 이미지로부터 도출한 정보와 촬영 이미지로부터 도출한 정보를 비교 분석하여 촬영 이미지가 원본 이미지와 동일한 장소 및 위치에서 동일한 앵글로 촬영되었는지 판단함과 아울러, 등장 인물과 피사체 인물의 포즈가 동일한지를 판단할 수 있다.The comparison and analysis unit 160 compares and analyzes the information derived from the original image and the information derived from the captured image to determine whether the captured image was captured at the same location and location as the original image and at the same angle, as well as the character and the subject person. It can be determined whether the poses of are the same.

상세하게는, 비교 분석부(160)는 원본 이미지의 배경선 정보와 제1 공간 정보에 해당하는 포인트 클라우드의 각 위치를 비교 분석하여 원본 이미지를 이루는 배경의 각 지점과 촬영 이미지의 포인트 클라우드의 포인트를 매핑하고, 원본 이미지의 배경과 대비하여 두 배경의 각도차 즉, 촬영시 앵글차가 얼마인지 산출할 수 있다. In detail, the comparison and analysis unit 160 compares and analyzes each position of the point cloud corresponding to the background line information of the original image and the first space information, and then each point of the background constituting the original image and the point of the point cloud of the captured image. is mapped, and the angle difference between the two backgrounds, that is, the angle difference at the time of shooting, can be calculated in comparison with the background of the original image.

여기서, 전술한 앵글차는 제1 공간정보의 X, Y, Z 좌표에 대해서, 이하의 수학식 1로 산출할 수 있다.Here, the angle difference described above can be calculated by Equation 1 below with respect to the X, Y, and Z coordinates of the first spatial information.

Figure pat00003
Figure pat00003

또한, 비교 분석부(160)는 원본 이미지의 윤곽선 정보와 제2 공간 정보에 해당하는 포인트 클라우드의 각 위치를 비교 분석하여 원본 이미지에 등장하는 등장 인물의 머리위치, 팔, 다리 위치 및 제스처 등과 촬영 이미지의 포인트 클라우드의 각 포인트를 매핑하여 원본 이미지의 등장 인물과 대비하여 피사체 인물의 현재 포즈의 차이가 어느 정도인지 산출할 수 있다.In addition, the comparison and analysis unit 160 compares and analyzes the contour information of the original image and each position of the point cloud corresponding to the second spatial information, and captures the head position, arm, leg position, and gesture of the character appearing in the original image. Each point of the point cloud of the image may be mapped to calculate the degree of difference between the current pose of the person in comparison with the person in the original image.

또한, 비교 분석부(160)는 배경 이미지의 경우 배경과 관련된 정보를 중심으로 다양한 위치에서 촬영한 사진과 비교할 수 있도록 3차원 공간 시뮬레이션 값 비교와 원근값 적용을 통한 대상 이미지 크기 비례 비교 등을 통해 위치 및 거리 보정을 반영함으로써, 원본 이미지와 촬영 이미지간 매칭 정확도를 높일 수 있다. 또한, 등장 인물과 피사체 인물의 포즈는 포즈의 윤곽선 정보를 중심으로 3차원 공간 시뮬레이션과 원근 비율 적용을 통해 포즈의 매칭 정확도를 개선할 수 있다.In addition, in the case of the background image, the comparative analysis unit 160 compares the 3D space simulation value and compares the size of the target image through the application of the perspective value so that the background image can be compared with photos taken at various locations based on background-related information. Matching accuracy between an original image and a photographed image may be increased by reflecting position and distance correction. In addition, the pose matching accuracy of the character and the subject may be improved through 3D space simulation and perspective ratio application based on the outline information of the pose.

매칭정보 생성부(170)는 비교 분석부(160)를 통해 산출한 원본 이미지와 촬영 이미지간의 앵글차 및 포즈차를 수치값으로 모바일 단말의 화면상에 현재 촬영중인 이미지와 중첩하여 표시할 수 있다.The matching information generation unit 170 may display the angle difference and the pose difference between the original image and the photographed image calculated through the comparison and analysis unit 160 as numerical values, overlapping with the currently photographed image on the screen of the mobile terminal. .

원본 이미지와 촬영 이미지간의 비교 분석에 따라, 촬영 이미지와 원본 이미지간의 차이가 산출되고, 매칭정보 생성부(170)는 실시간으로 산출되는 앵글차와 포즈차를 각각 모바일 단말의 화면상에 표시할 수 있다. 이에, 사용자는 자신의 현재 위치를 이용하여 배경 및 피사체 인물의 촬영 거리 및 구도를 수시로 전환하며 원본 이미지와의 정확도가 일정 수준 이상으로 높은 위치를 찾아 촬영을 진행할 수 있고, 아울러 피사체 인물에게 구두로 셀럽과 동일한 포즈를 취하도록 요청함으로써 보다 원본과 유사한 촬영 결과를 획득할 수 있도록 한다.According to the comparative analysis between the original image and the captured image, the difference between the captured image and the original image is calculated, and the matching information generating unit 170 may display the angle difference and pose difference calculated in real time on the screen of the mobile terminal, respectively. have. Therefore, the user can frequently change the shooting distance and composition of the background and the subject person using his or her current location, find a location with a high level of accuracy with the original image or more, and proceed with the photographing. By requesting the same pose as the celebrity, a photographing result similar to the original can be obtained.

전술한 바와 같이, 촬영 이미지의 배경과 피사체 인물의 포즈를 원본 이미지와 매칭하여 보정하는 과정은 정확도 계산에 따른 수치화를 통해 진행될 수 있다. 여기서, 카메라 시스템(100)은 정확도가 일정 수치 이상 나오는 경우에만 사진 촬영이 가능하고 그 이하로 낮아지는 경우 보정을 통해 정확도를 높인 후 사진 촬영을 할 수 있도록 한다.As described above, the process of correcting by matching the background of the captured image and the pose of the subject with the original image may be performed through digitization according to accuracy calculation. Here, the camera system 100 allows taking a picture only when the accuracy is higher than a certain level, and when the accuracy is lower than a certain level, the picture can be taken after increasing the accuracy through correction.

한편, 본 발명의 실시예에 따른 카메라 시스템(100)은 모바일 단말이 현재 촬영중인 장소가 원본 이미지에 등장하는 장소와 일치하는지 판단함에 있어서 그 정확도를 높일 수 있는 수단인 좌표정보 제공부(180)를 더 포함할 수 있다.On the other hand, the camera system 100 according to an embodiment of the present invention includes a coordinate information providing unit 180, which is a means for increasing accuracy in determining whether a place where a mobile terminal is currently photographing matches a place appearing in an original image. may further include.

좌표정보 제공부(180)는 모바일 단말에 탑재되는 GPS 모듈로부터 현재 위치에 대한 GPS 좌표를 입력받고, 원본 이미지로부터 추출된 메타정보에 포함되는 위도와 경도와 비교하여 현재 위치가 메타정보에 기록된 좌표와 일치하는지 확인할 수 있고, 현재 판단된 좌표정보를 보정할 수 있다.The coordinate information providing unit 180 receives the GPS coordinates of the current location from the GPS module installed in the mobile terminal, compares them with the latitude and longitude included in the meta information extracted from the original image, and records the current location in the meta information. It is possible to check whether the coordinates coincide with the coordinates, and the currently determined coordinate information can be corrected.

이하, 도면을 참조하여 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 방법을 상세히 설명한다.Hereinafter, a method for supporting picture taking for a mobile terminal according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 3은 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 방법을 나타낸 도면이다. 이하의 설명에서 각 단계별 실행주체는 별도의 기재가 없더라도 전술한 본 발명의 카메라 시스템 및 이의 구성부가 된다.3 is a diagram illustrating a method for supporting taking a picture for a mobile terminal according to an embodiment of the present invention. In the following description, the subject of execution for each step is the camera system and its components of the present invention described above, even if there is no separate description.

도 3을 참조하면, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 방법에 의하면, 먼저 피사체 인물에 대한 촬영 이미지를 생성하는 단계(S100)로서, 셀럽이 등장하는 원본 이미지와 동일한 사진을 찍고자 하는 사용자가 자신이 소지한 모바일 단말에서 본 발명의 카메라 시스템을 실행하고, 특정 장소에서 포즈를 취하는 피사체 인물을 촬영할 수 있다. 이때, 모바일 단말에는 3D 뎁스 정보를 생성할 수 있는 뎁스 비전이 탑재되어 있고, 이에 촬영 이미지에는 3D 뎁스 정보가 포함될 수 있다. Referring to FIG. 3 , according to the method for supporting taking a picture for a mobile terminal according to an embodiment of the present invention, in step S100 of generating a photographed image of a subject person, a picture identical to the original image in which a celebrity appears is taken, A desired user can execute the camera system of the present invention on a mobile terminal possessed by the user and take a picture of a subject posing in a specific place. In this case, the mobile terminal is equipped with a depth vision capable of generating 3D depth information, and thus the 3D depth information may be included in the captured image.

다음으로, 3D 뎁스 정보를 이용하여 포인트 클라우드를 설정하는 단계(S110)는, 촬영 이미지에 포함되는 3D 뎁스 정보를 이용하여 이미지내 공간 정보를 판단하는 단계로서, 시스템은 촬영 이미지 및 이에 포함되는 3D 뎁스 정보를 이용하여 배경에 대한 제1 공간정보와, 피사체 인물에 대한 제2 공간정보를 포함하는 포인트 클라우드를 설정할 수 있다. 이러한 포인트 클라우드는 촬영 이미지의 공간 정보를 정의하는 것으로, 이미지내 배경 및 객체의 형상, 원근비 등을 판단하는 데 활용될 수 있다.Next, the step of setting a point cloud using the 3D depth information (S110) is a step of determining space information in the image using the 3D depth information included in the captured image, and the system determines the captured image and the 3D included in it A point cloud including first spatial information on a background and second spatial information on a subject may be set using depth information. Such a point cloud defines spatial information of a photographed image, and can be used to determine the shape of a background and an object in an image, a perspective ratio, and the like.

다음으로, 원본 이미지로부터 배경선 정보, 윤곽선 정보 및 메타 정보를 추출하는 단계(S120)는 사용자가 촬영하고자 하는 기준이 되는 소스인 원본 이미지로부터 분석을 위한 다양한 정보를 추출하는 단계이다.Next, the step of extracting background line information, outline information, and meta information from the original image (S120) is a step of extracting various information for analysis from the original image, which is a standard source that the user wants to photograph.

상세하게는, 원본 이미지는 현재 모바일 단말을 통해 촬영하고자 하는 셀럽의 모습이 담긴 이미지로서, 다운로드 등 미리 모바일 단말에 저장될 수 있고, 시스템은 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출할 수 있다.In detail, the original image is an image containing the appearance of a celebrity to be photographed through the current mobile terminal, and may be stored in the mobile terminal in advance, such as downloaded, and the system uses a plurality of background line information constituting the background from the stored original image. And, it is possible to extract outline information constituting the character and meta information of the original image.

다음으로, 배경선 정보 및 윤곽선 정보에 기초하여 배경과 등장인물을 식별 및 분리하는 단계(S130)에서는 상기 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 식별 및 분리할 수 있다. 배경선은 등장 인물의 후방 또는 주변에 위치하는 건물, 시설물 및 간판 등이 선으로 표현된 것으로, 시스템은 배경선의 형태에 따라 배경을 식별함과 아울러, 윤곽선의 형태를 통해 등장 인물 및 그의 포즈를 식별할 수 있다.Next, in the step of identifying and separating the background and the character based on the background line information and the outline information (S130), the background and the character located in the background are identified and separated based on the background line information and the outline information. can The background line is a line representation of buildings, facilities, signboards, etc. located behind or around the character. can be identified.

다음으로, 원본 이미지 및 촬영 이미지의 배경간 앵글차를 산출하고, 등장 인물과 피사체 인물간 포즈차를 산출하는 단계(S140)에서는, 추출한 정보를 활용하여 두 이미지에 대한 비교 분석을 수행하게 한다.Next, in step S140 of calculating the angle difference between the original image and the background of the captured image, and calculating the pose difference between the character and the subject person, a comparative analysis is performed on the two images using the extracted information.

상세하게는, 시스템은 원본 이미지의 배경선 정보와, 이에 대응하는 촬영 이미지의 제1 공간 정보를 비교하여 현재 촬영 장소와 이미지 구도, 특히 촬영 앵글이 원본 대비 얼마나 근접했는지를 판단하고, 원본 이미지의 윤곽선 정보와 촬영 이미지의 제2 공간 정보를 비교하여 피사체 인물의 포즈가 등장 인물의 포즈와 얼마나 유사한지를 판단하게 된다. 그리고, 이러한 앵글 및 포즈의 정확도를 수치값으로 산출하게 된다. 여기서, 앵글에 대한 정확도는 전술한 수학식 1에 의해 산출될 수 있다.Specifically, the system compares the background line information of the original image with the first spatial information of the corresponding captured image to determine how close the current capturing location and image composition, especially the capturing angle, are compared to the original, and It is determined how similar the pose of the subject is to the pose of the character by comparing the contour information with the second spatial information of the photographed image. Then, the accuracy of these angles and poses is calculated as numerical values. Here, the accuracy of the angle can be calculated by Equation 1 above.

그리고, 비교 판단 결과의 정확도를 높이기 위한 절차로서, 상기 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 수행하는 단계를 더 포함할 수 있다.And, as a procedure for increasing the accuracy of the comparison judgment result, the step of performing a preprocessing process including removing noise and segmenting a plurality of images with respect to the original image may be further included.

한편, 본 발명의 실시예에 따르면, 촬영 이미지에 대한 분석에 따라, 현재 촬영중인 장소가 원본 이미지에 등장하는 장소와 일치하는지 확인하는 절차가 더 포함될 수 있다.On the other hand, according to an embodiment of the present invention, according to the analysis of the photographed image, a procedure for confirming whether the place currently being photographed matches the place appearing in the original image may be further included.

상세하게는, S140 단계 이전에, 제1 공간 정보의 복수의 포인트와 상기 원본 이미지의 배경에 포함되는 타겟 객체를 비교하여, 타겟 객체를 비교하여 상기 촬영 이미지의 촬영 장소가 상기 원본 이미지의 촬영 장소와 동일한지 판단하는 단계를 포함할 수 있다.In detail, before step S140, a plurality of points of the first spatial information are compared with a target object included in the background of the original image, and the target object is compared so that the capturing location of the captured image is the capturing location of the original image. It may include the step of determining whether it is the same as.

또한, S140 단계는, 모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받고, 상기 좌표 정보를 참조하여 상기 원본 이미지 및 촬영 이미지의 촬영 장소의 동일 여부를 판단하는 단계를 더 포함할 수 있다.In step S140, coordinate information including the latitude and longitude at which the captured image was created is received from a GPS module mounted in the mobile terminal, and whether the original image and the captured image are the same by referring to the coordinate information. The step of determining may be further included.

다음으로, 매칭정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩하여 표시하는 단계(S150)는, S140 단계에서 산출한 배경에 대한 앵글차 및 피사체 인물에 대한 포즈차를 수치값으로 모바일 단말의 화면상에 표시하는 단계이다.Next, in the step of overlapping and displaying the matching information with the photographed image on the screen of the mobile terminal (S150), the angle difference with respect to the background calculated in step S140 and the pose difference with respect to the subject person are converted into numerical values on the screen of the mobile terminal. This is the step to display in

이러한 앵글차 및 포즈차는 현재 촬영중인 촬영 이미지와 중첩되어 실시간으로 화면상에 표시될 수 있고, 사용자는 해당 값을 참조하여 촬영 위치 및 구도를 조정하거나, 피사체 인물에게 포즈를 변경할 것을 요청할 수 있다. 또한, 시스템은 앵글차 및 포즈차가 일정 수준 이상이 될까지는 사진 생성을 차단할 수 있고, 일정 수준 이상의 정확도가 확정된 이후 현재 화면에 대한 촬영 이미지를 통해 사진 파일을 생성 및 저장할 수 있다.These angle differences and pose differences may be displayed on the screen in real time by overlapping with the currently photographed image, and the user may refer to the corresponding values to adjust the photographing position and composition or request the subject to change the pose. In addition, the system may block photo generation until the angle difference and the pose difference reach a certain level, and after a certain level or higher accuracy is confirmed, a photo file may be created and stored through a captured image of the current screen.

이하, 도면을 참조하여 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템에 의한 이미지 비교 분석 방법을 상세히 설명한다.Hereinafter, a method for comparing and analyzing images by a camera system for supporting taking pictures for a mobile terminal according to an embodiment of the present invention will be described with reference to the drawings.

도 4 및 도 5는 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템의 영상 처리 방법을 모식화한 도면이다.4 and 5 are diagrams schematically illustrating an image processing method of a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention.

도 4은 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템에서 이용하는 원본 이미지 화면(a) 및 영상처리 이미지 화면(b)을 예시한 것으로, 원본 이미지(200)에는 배경(201)이 되는 시설, 타겟 객체(202 ~ 204) 및 등장 인물(205)이 존재할 수 있다. 4 illustrates an original image screen (a) and an image processing image screen (b) used in a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention, and a background 201 is included in the original image 200. There may be a facility, target objects 202 to 204 and a character 205.

여기서, 배경(201)이 되는 시설은 셀럽이 방문한 장소에 대응하며 등장 인물(205)은 셀럽 자신이 될 수 있다. Here, the facility serving as the background 201 corresponds to the place visited by the celebrity, and the character 205 may be the celebrity himself.

프로그램의 실행에 따라 원본 이미지(200)에 대하여, 배경에 대한 외곽선 및 등장 인물에 대한 윤곽선을 추출하고 이를 통해 배경과 등장 인물을 식별 및 분리할 수 있다. According to the execution of the program, the outline of the background and the outline of the character are extracted from the original image 200, and the background and the character can be identified and separated through this.

일반적으로, 원본 이미지(200)에는 이미지가 촬영된 장소의 배경(201) 및 셀럽인 등장 인물(205)이 존재하게 되며, 시스템은 원본 이미지(200)에 대한 영상 처리를 통해 배경(201)에 대한 배경선(211)을 추출할 수 있다. 이러한 배경선(211) 이외에도 전체 원본 이미지(200)에 존재하는 타겟 객체(202 ~ 204)에 대응하는 기타선(212 ~ 214) 또한 추출될 수 있다.In general, in the original image 200, a background 201 of the place where the image was taken and a celebrity character 205 exist, and the system performs image processing on the original image 200 to create a background 201. A background line 211 can be extracted. In addition to these background lines 211 , other lines 212 to 214 corresponding to the target objects 202 to 204 existing in the entire original image 200 may also be extracted.

또한, 시스템은 원본 이미지(200)에서 등장 인물(205)에 대응하는 윤곽선을 추출하여 등장 인물(205)을 식별할 수 있으나, 배경선(211)과는 분리하여 별도로 피사체 인물과의 유사도를 판단하게 된다.In addition, the system can identify the character 205 by extracting the outline corresponding to the character 205 from the original image 200, but separates it from the background line 211 and determines the similarity with the subject person separately. will do

특히, 본 발명의 실시예에 따르면, 원본 이미지(200)의 전체적인 식별을 위한 배경선(211) 이외에도 촬영 장소를 특정할 수 있는 타겟 객체(202 ~ 204)를 더 식별하여 이후 촬영 이미지와의 비교시 동일 장소임을 확정하는데 보조 지표로 이용할 수 있고, 시스템은 타겟 객체에 대한 하나 이상의 기타선(212 ~ 214)을 통해 현재 촬영 이미지가 촬영중인 장소를 특정할 수 있도록 한다.In particular, according to an embodiment of the present invention, in addition to the background line 211 for overall identification of the original image 200, target objects 202 to 204 capable of specifying a photographing location are further identified and compared with subsequent photographed images. It can be used as an auxiliary indicator to determine the same location, and the system can specify the location where the currently captured image is being captured through one or more other lines 212 to 214 for the target object.

도 5를 참조하면, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템에 의해 촬영된 촬영 이미지에 대한 제1 공간정보에 따른 서로 다른 앵글에서 촬영된 두 이미지 화면(a, b)을 예시한 것으로, 사용자가 해당 장소에서 피사체 인물 및 그 배경을 촬영할 때의 앵글에 따라 촬영 이미지(300, 310)에서 배경선(301, 314)이 수평으로부터 일정 각도(θ)로 기울어지게 촬영되는 것을 나타내고 있다.Referring to FIG. 5 , two image screens (a and b) taken at different angles according to first spatial information on a captured image taken by a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention are shown. As an example, the background lines 301 and 314 in the captured images 300 and 310 are photographed inclined at a certain angle θ from the horizontal according to the angle when the user shoots the subject person and the background in the corresponding place. indicates

따라서, 원본 이미지의 배경선(도 4의 201)과 촬영 이미지의 제1 공간정보에 포함되는 포인트들의 연결에 따른 배경선(301)과의 각도차(θ)를 산출하면, 촬영 이미지의 앵글차를 도출할 수 있고, 이에 원근비율을 반영하면 배경에 대한 매칭 정확도를 산출할 수 있다.Therefore, when calculating the angle difference (θ) between the background line (201 in FIG. 4) of the original image and the background line 301 according to the connection of the points included in the first spatial information of the captured image, the angle difference between the captured image can be derived, and the matching accuracy for the background can be calculated by reflecting the perspective ratio.

일례로서, 전술한 수학식 1에 따라, 촬영 이미지(300)의 배경선(301)이 이루는 배경의 X,Y,Z의 좌표값이 각각 45°, 35°, 0°이고 원근비율 1:1이라고 가정하면 매칭 정확도는 79%로 산출될 수 있다. 또한, X,Y,Z의 좌표값이 각각 0°, 0°, 0°이고 원근비율 1:0.75라고 가정하면 매칭 정확도는 75%로 산출될 수 있다.As an example, according to the above-described Equation 1, the X, Y, and Z coordinate values of the background formed by the background line 301 of the captured image 300 are 45°, 35°, and 0°, respectively, and the perspective ratio is 1:1. Assuming that , the matching accuracy can be calculated as 79%. In addition, assuming that the coordinate values of X, Y, and Z are 0°, 0°, and 0°, respectively, and the perspective ratio is 1:0.75, matching accuracy can be calculated as 75%.

또한, 화면 구도에 따라 촬영 이미지(300)의 배경 상의 타겟 객체(302 ~ 304)의 형태 또한 왜곡이 발생할 수 있으나, 각도차(θ)를 고려한 3차원 좌표에 따라, 타겟 객체들(301 ~ 304)이 원본 이미지에 존재하는 대상과 동일한 것으로 판단하고 이를 장소를 특정하는 데 활용할 수 있다.In addition, the shape of the target objects 302 to 304 on the background of the captured image 300 may also be distorted according to the screen composition, but according to the three-dimensional coordinates considering the angle difference θ, the target objects 301 to 304 ) can be determined to be the same as the object existing in the original image and used to specify the place.

이하, 도면을 참조하여 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템이 제공하는 화면의 일례를 통해 본 발명의 기술적 사상을 상세히 설명한다.Hereinafter, the technical concept of the present invention will be described in detail with reference to the drawings through an example of a screen provided by a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention.

도 6은 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템이 제공하는 촬영 화면을 예시한 도면이다. 6 is a diagram illustrating a photographing screen provided by a camera system for supporting picture taking for a mobile terminal according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 모바일 단말용 사진 촬영 지원 카메라 시스템은, 스마트폰 등의 카메라가 탑재된 모바일 단말(10)에 설치 및 실행되는 어플리케이션 프로그램으로서, 사용자가 특정 장소에서 피사체 인물을 촬영하면, 시스템은 등록된 원본 이미지와의 비교 분석을 통해 현재 촬영 중인 촬영 이미지를 화면(a)상에 표시할 수 있다.Referring to FIG. 6 , a camera system for supporting taking pictures for a mobile terminal according to an embodiment of the present invention is an application program installed and executed in a mobile terminal 10 equipped with a camera, such as a smartphone, and allows a user to enter a specific place. When the subject person is photographed, the system may display the photographed image currently being photographed on the screen (a) through comparative analysis with the registered original image.

모바일 단말(10)의 화면상에는 배경(400) 및 타겟 객체(403)와 더불어 피사체 인물(405)이 표시되며, 사용자는 화면을 보면서 원본 이미지와 동일한 구도로 사진을 촬영하도록 시도할 수 있다. On the screen of the mobile terminal 10, a subject person 405 is displayed along with a background 400 and a target object 403, and the user can attempt to take a picture with the same composition as the original image while viewing the screen.

여기서, 배경(400)상에 존재하는 간판과 같은 타겟 객체(403)는 장소를 특정하는 데 활용될 수 있고, 시스템은 동일 장소로 판단되면 원본 이미지와 촬영 이미지와의 실시간 비교 분석을 통해 앵글차와 포즈차를 산출하게 된다. Here, the target object 403, such as a signboard existing on the background 400, can be used to specify a place, and if the system determines that it is the same place, the angle difference through real-time comparative analysis between the original image and the captured image. and the pose difference is calculated.

그리고, 시스템은 화면 일측에 원본 이미지와 촬영 이미지간의 배경에 대한 앵글차(406)와, 등장 인물과 피사체 인물(405)간의 포즈차(407)를 수치로 표시할 수 있다. Further, the system may display an angle difference 406 for the background between the original image and the photographed image and a pose difference 407 between the character and the subject person 405 on one side of the screen as numerical values.

또한, 실시간 촬영 중, 촬영 이미지의 구도, 거리 및 피사체 인물의 자세 변화에 따라, 시스템은 앵글차 및 포즈차를 실시간으로 업데이트한 값(408)을 화면에 반영할 수 있고(b), 사용자를 그 수치를 확인하여 앵글과 포즈를 변경해가면서 의도한 사진을 촬영할 수 있다.In addition, during real-time shooting, according to changes in the composition, distance, and posture of the subject, the system may reflect the updated value 408 of the angle difference and the pose difference on the screen in real time (b), and the user By checking the number, you can take the intended picture while changing the angle and pose.

상기한 설명에 많은 사항이 구체적으로 기재되어 있으나 이것은 발명의 범위를 한정하는 것이라기보다 바람직한 실시예의 예시로서 해석되어야 한다. 따라서, 발명은 설명된 실시예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위에 균등한 것에 의하여 정하여져야 한다.Although many details are specifically described in the above description, this should be interpreted as an example of a preferred embodiment rather than limiting the scope of the invention. Therefore, the invention should not be defined by the described examples, but should be defined by what is equivalent to the claims and claims.

1 : 촬영 현장 3: 타겟 객체
10 : 모바일 단말 100 : 카메라 시스템
110 : 저장소 120 : 이미지 정보 추출부
130 : 배경/인물 분리부 140 : 촬영부
150 : 공간 설정부 160 : 비교 분석부
170 : 매칭 정보 생성부 180 : 좌표 정보 생성부
1: shooting scene 3: target object
10: mobile terminal 100: camera system
110: storage 120: image information extraction unit
130: background / character separation unit 140: shooting unit
150: space setting unit 160: comparison analysis unit
170: matching information generating unit 180: coordinate information generating unit

Claims (10)

저장소에 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출하는 이미지 정보 추출부;
상기 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 분리 및 식별하는 배경/인물 분리부;
하나 이상의 피사체 인물 및 상기 피사체 인물의 주변 배경을 촬영하여 3D 뎁스 정보를 포함하는 촬영 이미지를 생성하는 촬영부;
상기 3D 뎁스 정보를 이용하여, 상기 촬영 이미지의 배경에 대응하는 제1 공간 정보 및 상기 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 포함하는 포인트 클라우드를 설정하는 공간 설정부;
상기 배경선 정보와 상기 제1 공간 정보를 비교하여 상기 원본 이미지의 배경과 상기 촬영 이미지의 배경간의 앵글차를 산출하고, 상기 윤곽선 정보와 상기 제2 공간 정보를 비교하여 상기 등장 인물과 피사체 인물간의 포즈차를 산출하는 비교 분석부; 및
상기 앵글차 및 포즈차를 포함하는 매칭 정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩해서 표시하는 매칭 정보 생성부
를 포함하는 모바일 단말용 사진 촬영 지원 카메라 시스템.
an image information extractor configured to extract a plurality of background line information constituting a background, outline information constituting a character, and meta information of an original image from an original image stored in a storage;
a background/character separator separating and identifying a background and a character located in the background based on the background line information and the outline information;
a photographing unit generating a photographed image including 3D depth information by photographing at least one subject person and a surrounding background of the subject person;
a space setting unit configured to set a point cloud including first spatial information corresponding to a background of the captured image and second spatial information corresponding to a subject of the captured image, using the 3D depth information;
An angle difference between the background of the original image and the background of the photographed image is calculated by comparing the background line information with the first space information, and comparing the contour line information with the second space information to determine the relationship between the character and the subject person. a comparison analysis unit that calculates a pose difference; and
Matching information generation unit for displaying the matching information including the angle difference and the pose difference in an overlapping manner with the captured image on the screen of the mobile terminal
A camera system for taking pictures for a mobile terminal including a camera system.
제 1 항에 있어서,
상기 원본 이미지의 배경은 하나 이상의 타겟 객체를 포함하고,
상기 비교 분석부는,
상기 제1 공간 정보의 복수의 포인트와 상기 타겟 객체를 비교하여, 상기 촬영 이미지의 촬영 장소가 상기 원본 이미지의 촬영 장소와 동일한지 판단하는 것인, 모바일 단말용 사진 촬영 지원 카메라 시스템.
According to claim 1,
The background of the original image includes one or more target objects,
The comparative analysis unit,
and comparing a plurality of points of the first spatial information with the target object to determine whether a capturing location of the captured image is the same as a capturing location of the original image.
제 2 항에 있어서,
모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받아 촬영 장소의 동일 여부 판단시 참조하도록 상기 비교 분석부에 전달하는 좌표 정보 제공부
를 더 포함하는 모바일 단말용 사진 촬영 지원 카메라 시스템.
According to claim 2,
Coordinate information providing unit for receiving coordinate information including the latitude and longitude at which the captured image was created from a GPS module installed in the mobile terminal, and passing it to the comparison and analysis unit for reference when determining whether the photographed location is the same
A camera system for taking a picture for a mobile terminal further comprising a camera system.
제 1 항에 있어서,
상기 앵글차는,
상기 제1 공간 정보의 X, Y, Z 좌표에 대해서, 이하의 수학식,
Figure pat00004

로 산출되는 것인, 모바일 단말용 사진 촬영 지원 카메라 시스템.
According to claim 1,
The angle difference,
For the X, Y, and Z coordinates of the first spatial information, the following equation,
Figure pat00004

A camera system that supports taking pictures for mobile terminals, which is calculated as
제 1 항에 있어서,
상기 이미지 정보 추출부는,
상기 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 더 수행하는 것인, 모바일 단말용 사진 촬영 지원 카메라 시스템.
According to claim 1,
The image information extraction unit,
The camera system for supporting picture taking for a mobile terminal, further performing a pre-processing process including noise removal and segmentation of a plurality of images with respect to the original image.
모바일 단말에 설치 및 실행되는 카메라 시스템에 의한 사진 촬영 지원 방법으로서,
(a) 하나 이상의 피사체 인물 및 상기 피사체 인물의 주변 배경을 촬영하여 3D 뎁스 정보를 포함하는 촬영 이미지를 생성하는 단계;
(b) 상기 3D 뎁스 정보를 이용하여, 상기 촬영 이미지의 배경에 대응하는 제1 공간 정보 및 상기 촬영 이미지의 피사체 인물에 대응하는 제2 공간 정보를 포함하는 포인트 클라우드를 설정하는 단계;
(c) 저장소에 저장된 원본 이미지로부터, 배경을 구성하는 복수의 배경선 정보와, 등장 인물을 구성하는 윤곽선 정보와, 원본 이미지의 메타 정보를 추출하는 단계;
(d) 상기 배경선 정보 및 윤곽선 정보에 기초하여, 배경과 상기 배경에 위치한 등장 인물을 식별 및 분리하는 단계;
(e) 상기 배경선 정보와 상기 제1 공간 정보를 비교하여 상기 원본 이미지의 배경과 상기 촬영 이미지의 배경간의 앵글차를 산출하고, 상기 윤곽선 정보와 상기 제2 공간 정보를 비교하여 상기 등장 인물과 피사체 인물간의 포즈차를 산출하는 단계; 및
(f) 상기 앵글차 및 포즈차를 포함하는 매칭 정보를 모바일 단말의 화면상에서 촬영 이미지와 중첩해서 표시하는 단계
를 포함하는 모바일 단말용 사진 촬영 지원 방법.
As a method of supporting taking a picture by a camera system installed and executed in a mobile terminal,
(a) generating a photographed image including 3D depth information by photographing at least one subject person and a surrounding background of the subject person;
(b) setting a point cloud including first spatial information corresponding to a background of the captured image and second spatial information corresponding to a subject of the captured image, using the 3D depth information;
(c) extracting a plurality of background line information constituting a background, contour information constituting a character, and meta information of an original image from an original image stored in a storage;
(d) identifying and separating a background and a character located in the background based on the background line information and outline information;
(e) an angle difference between the background of the original image and the background of the photographed image is calculated by comparing the background line information with the first spatial information; calculating a pose difference between subjects; and
(f) displaying the matching information including the angle difference and the pose difference overlapping with the captured image on the screen of the mobile terminal
Photo taking support method for a mobile terminal comprising a.
제 6 항에 있어서,
상기 (e) 단계 이전에,
상기 제1 공간 정보의 복수의 포인트와 상기 원본 이미지의 배경에 포함되는 타겟 객체를 비교하여, 타겟 객체를 비교하여 상기 촬영 이미지의 촬영 장소가 상기 원본 이미지의 촬영 장소와 동일한지 판단하는 단계
를 포함하는 모바일 단말용 사진 촬영 지원 방법.
According to claim 6,
Before step (e),
Comparing a plurality of points of the first spatial information with a target object included in the background of the original image and comparing the target object to determine whether a capturing location of the captured image is the same as a capturing location of the original image
Photo taking support method for a mobile terminal comprising a.
제 6 항에 있어서,
상기 (e) 단계는,
모바일 단말에 탑재된 GPS 모듈로부터 상기 촬영 이미지가 생성된 위도 및 경도를 포함하는 좌표 정보를 제공받는 단계;
상기 좌표 정보를 참조하여 상기 원본 이미지 및 촬영 이미지의 촬영 장소의 동일 여부를 판단하는 단계
를 더 포함하는 모바일 단말용 사진 촬영 지원 방법.
According to claim 6,
In step (e),
receiving coordinate information including the latitude and longitude of the captured image from a GPS module installed in the mobile terminal;
Determining whether the original image and the captured image are identical to each other by referring to the coordinate information
A method for supporting taking a picture for a mobile terminal further comprising a.
제 6 항에 있어서,
상기 앵글차는,
상기 제1 공간 정보의 X, Y, Z 좌표에 대해서, 이하의 수학식,
Figure pat00005

로 산출되는 것인, 모바일 단말용 사진 촬영 지원 방법.
According to claim 6,
The angle difference,
For the X, Y, and Z coordinates of the first spatial information, the following equation,
Figure pat00005

A method for supporting photo taking for a mobile terminal, which is calculated as
제 6 항에 있어서,
상기 (d) 단계는,
상기 원본 이미지에 대하여, 노이즈 제거 및 복수의 이미지 분할을 포함하는 전처리 과정을 수행하는 단계
를 더 포함하는 모바일 단말용 사진 촬영 지원 방법.
According to claim 6,
In step (d),
Performing a preprocessing process including noise removal and segmentation of a plurality of images with respect to the original image;
A method for supporting taking a picture for a mobile terminal further comprising a.
KR1020210062278A 2021-05-13 2021-05-13 Photography system for surpporting to picture for mobile terminal and method thereof KR102628714B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210062278A KR102628714B1 (en) 2021-05-13 2021-05-13 Photography system for surpporting to picture for mobile terminal and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210062278A KR102628714B1 (en) 2021-05-13 2021-05-13 Photography system for surpporting to picture for mobile terminal and method thereof

Publications (2)

Publication Number Publication Date
KR20220154556A true KR20220154556A (en) 2022-11-22
KR102628714B1 KR102628714B1 (en) 2024-02-28

Family

ID=84236576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210062278A KR102628714B1 (en) 2021-05-13 2021-05-13 Photography system for surpporting to picture for mobile terminal and method thereof

Country Status (1)

Country Link
KR (1) KR102628714B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060058323A (en) 2004-11-25 2006-05-30 엘지전자 주식회사 A photographing system and the method of the mobile communication terminal to display photographing place
KR20110066610A (en) * 2009-12-11 2011-06-17 한국전자통신연구원 Apparatus and method for detecting similar pose of motion capture data
KR20180058380A (en) * 2016-11-24 2018-06-01 삼성에스디에스 주식회사 Method and apparatus for photographing based on recommended composition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060058323A (en) 2004-11-25 2006-05-30 엘지전자 주식회사 A photographing system and the method of the mobile communication terminal to display photographing place
KR20110066610A (en) * 2009-12-11 2011-06-17 한국전자통신연구원 Apparatus and method for detecting similar pose of motion capture data
KR20180058380A (en) * 2016-11-24 2018-06-01 삼성에스디에스 주식회사 Method and apparatus for photographing based on recommended composition

Also Published As

Publication number Publication date
KR102628714B1 (en) 2024-02-28

Similar Documents

Publication Publication Date Title
US10282856B2 (en) Image registration with device data
US9159169B2 (en) Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program
CN108932051B (en) Augmented reality image processing method, apparatus and storage medium
JP2020523665A (en) Biological detection method and device, electronic device, and storage medium
CN107771391B (en) Method and apparatus for determining exposure time of image frame
WO2017080237A1 (en) Camera imaging method and camera device
JP2017531950A (en) Method and apparatus for constructing a shooting template database and providing shooting recommendation information
KR101923177B1 (en) Appratus and method for providing augmented reality information based on user
CN111382613B (en) Image processing method, device, equipment and medium
KR101165415B1 (en) Method for recognizing human face and recognizing apparatus
US10621730B2 (en) Missing feet recovery of a human object from an image sequence based on ground plane detection
US10594930B2 (en) Image enhancement and repair using sample data from other images
CN108958469B (en) Method for adding hyperlinks in virtual world based on augmented reality
WO2023103377A1 (en) Calibration method and apparatus, electronic device, storage medium, and computer program product
WO2022160857A1 (en) Image processing method and apparatus, and computer-readable storage medium and electronic device
KR102464271B1 (en) Pose acquisition method, apparatus, electronic device, storage medium and program
CN112702521A (en) Image shooting method and device, electronic equipment and computer readable storage medium
EP3531340A2 (en) Human body tracing method, apparatus and device, and storage medium
CN114298902A (en) Image alignment method and device, electronic equipment and storage medium
KR101176743B1 (en) Apparatus and method for recognizing object, information content providing apparatus and information content managing server
CN113538315B (en) Image processing method and device
CN109840885B (en) Image fusion method and related product
US9286707B1 (en) Removing transient objects to synthesize an unobstructed image
KR101598399B1 (en) System for combining images using coordinate information of roadview image
CN116958795A (en) Method and device for identifying flip image, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right