KR101447820B1 - Image processing method and image processing system using the same - Google Patents

Image processing method and image processing system using the same Download PDF

Info

Publication number
KR101447820B1
KR101447820B1 KR1020130051910A KR20130051910A KR101447820B1 KR 101447820 B1 KR101447820 B1 KR 101447820B1 KR 1020130051910 A KR1020130051910 A KR 1020130051910A KR 20130051910 A KR20130051910 A KR 20130051910A KR 101447820 B1 KR101447820 B1 KR 101447820B1
Authority
KR
South Korea
Prior art keywords
image
information
detailed
background
client
Prior art date
Application number
KR1020130051910A
Other languages
Korean (ko)
Inventor
김영수
이승연
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020130051910A priority Critical patent/KR101447820B1/en
Application granted granted Critical
Publication of KR101447820B1 publication Critical patent/KR101447820B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

An image processing method is provided. The image processing method, according to an embodiment of the present invention, comprises the steps of: storing a plurality of first images; extracting detailed information of the first images; indexing the detailed information to generate a data pool; obtaining detailed information of a second image; and detecting an optimal image which matches to the detailed information of the second image from the first images.

Description

이미지 처리방법 및 이를 활용한 이미지 처리시스템{IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to an image processing method and an image processing system using the image processing method.

본 발명은 이미지 처리시스템에 관한 것으로, 보다 자세하게는 이미지 합성에 관한 것이다.The present invention relates to an image processing system, and more particularly to image synthesis.

사진은 1839년 사진술의 공식 발표 이후 지속적인 발전을 이루었다. 그리하여 오늘날 우리의 삶 속에 없어서는 안될 하나의 필수 문화로 자리 잡았다.The photo has been in continuous development since the official announcement of photography in 1839. Thus, it has become an indispensable culture indispensable to our lives today.

사진이 삶의 중요한 순간들을 기념하는 대표적 수단이 되면서 인물사진 분야는 더욱 전문화 및 세분화 되었다. 현재 가족사진과 웨딩사진 그리고 아기사진은 독립적인 하나의 시장을 형성하여 그 규모를 넓혀가고 있다. 급격한 경제성장과 핵가족화에 따른 가치관의 변화는 인물사진 중에서도 아기사진에 지대한 영향을 미쳤다.As photography became a representative means of celebrating important moments of life, the field of portrait photography became more specialized and subdivided. Currently, family photographs, wedding photographs and baby photographs are expanding to form an independent market. The rapid changes in the values of economic growth and the nuclear family have had a profound impact on baby photographs.

사진은 1990년대부터 경제발전과 엔젤산업에 대한 긍정적 전망에 힘입어 빠르게 성장하였다. 출산율이 감소하면서 아기들에게 지출을 아끼지 않는 사회 분위기가 조성되었고 이는 사진 시장 규모의 확대로 이어졌다. 또한 인터넷을 통해 정보에 대한 소비자들의 접근성이 높아지면서 사진의 질적 향상과 다양한 컨셉(Concept)촬영을 요구하는 소비자들이 늘어나고 있다. 사진 스튜디오들은 급변하는 사회 분위기와 소비자들의 다양한 요구에 맞춰 발전하였고 고객의 요구를 만족시키기 위해 자체적으로 다양한 세트를 제작하고 있다. 이로 인해 스튜디오의 대형화가 불가피해지면서 현재 100평이상의 규모를 가진 스튜디오들이 급격하게 증가하고 있다.The picture has grown rapidly since the 1990s thanks to the positive outlook for economic development and the angel industry. With the declining fertility rate, a social atmosphere has been created that spends no cash on babies, leading to an increase in the size of the photographic market. In addition, consumers are increasingly demanding to improve the quality of photographs and to take a variety of concept shots as consumers access information through the Internet. Photo studios have evolved to meet the diverse needs of consumers with a rapidly changing social atmosphere and have created their own diverse sets to satisfy their needs. As a result, the number of studios with a size of over 100 pyeong is rapidly increasing.

이처럼 사진 스튜디오가 고급화되고 대형화되면서 전문 인력 구성, 촬영 장비 구축, 세트 제작 및 관리 등 스튜디오 운영에 많은 노력과 비용이 투자되고 있다. 뿐만 아니라 아기사진 수요가 많은 대형 시장에 스튜디오가 밀집되면서 그에 따른 경쟁도 심화되고 있다.As the photo studio becomes more advanced and larger, the efforts of the studios such as the construction of the professional staff, the construction of the shooting equipment, and the production and management of the set have been made. In addition, studios are concentrated in large markets where there is a lot of demand for baby photographs, and competition for them is intensifying.

이러한 상황은 현재 운영자뿐 아니라 예비 창업자들에게 큰 부담이 되고 있으며 특히, 소자본 창업자와 비전문가에게는 창업이 더욱 어려워지고 있는 실정이다. 또한 사진 스튜디오의 전문화, 고급화는 스튜디오간 가격 경쟁과 상승으로 이어졌고 이는 소비자의 부담으로 연결되었다.This situation is a great burden for not only the operator but also the preliminary founders, and in particular, it is becoming more difficult for the entrepreneur and nonprofessional to start the business. In addition, specialization and upgrading of photo studios led to price competition and price increase among studios, which led to a burden on consumers.

본 발명은 창업 자본과 운영 비용을 줄이고 고객의 요구에 부합할 수 있는 촬영 기술과 효율적인 운영 방안을 제안하여 소자본 창업자와 비전문가를 대상으로 한 성공적인 소규모 스튜디오 창업과 효율적인 운영에 관한 연구를 목적으로 한다.The present invention aims at research on successful start-up and efficient operation of small-scale studios for entrepreneurs and non-entrepreneurs by proposing a photographic technique and an efficient operation method that can reduce the start-up capital and operating costs and meet customer's needs.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.

상기 언급된 기술적 과제들을 해결하기 위한, 본 발명의 일 실시예에 따른 이미지 처리시스템은, 복수의 제1 이미지를 저장하는 단계, 상기 복수의 제1 이미지의 사진상세정보를 추출하는 단계, 상기 사진상세정보를 인덱싱하여 데이터풀을 생성하는 단계, 제2 이미지의 사진상세정보를 획득하는 단계 및 상기 복수의 제1 이미지로부터 상기 제2 이미지의 사진상세정보와 매치되는 최적이미지를 검출하는 단계를 포함한다.In order to solve the above-mentioned technical problems, an image processing system according to an embodiment of the present invention includes a step of storing a plurality of first images, extracting photograph detailed information of the plurality of first images, Indexing the detailed information to generate a data pool, obtaining photo detail information of the second image, and detecting an optimal image from the plurality of first images that matches the photo detail information of the second image do.

상기와 같은 본 발명에 따르면, 이미지 처리방법은 세트 및 스튜디오의 규모를 축소시킴으로써 창업 자본과 운영에 들어가는 비용을 최소화할 수 있으며, 촬영 기술을 간소화하여 촬영에 투자되는 비용을 줄이고 비전문가의 창업 접근을 높일 수 있다.According to the present invention as described above, the image processing method can minimize the cost to start-up capital and operation by reducing the size of sets and studios, reduce the investment cost for shooting by simplifying the shooting technique, .

뿐만 아니라 촬영기술을 간소화시킴으로써 전문인력에 들어가는 비용을 줄일 수 있다.In addition, by streamlining the imaging technology, you can reduce the cost of staffing.

특히, 아기 사진 촬영의 경우, 제안 스튜디오는 촬영 세트간의 이동이 없기 때문에 아기의 컨디션을 유지할 수 있으며, 체력 저하로 인한 사진 촬영의 어려움을 방지할 수 있다.Particularly, in the case of baby photographing, the proposed studio can maintain the condition of the baby since there is no movement between the shooting sets, and it is possible to prevent the difficulty of photographing due to the drop of the physical strength.

또한, 전체적인 촬영 시간의 단축시킴으로써 좋은 상태를 유지할 수 있고 고객의 만족도를 높일 수 있다.In addition, by shortening the overall shooting time, a good state can be maintained and the satisfaction of the customer can be increased.

뿐만 아니라, 본 발명의 이미지 처리방법을 통한 배경합성을 통해 현재 사진 스튜디오가 가지는 세트 제작의 어려움을 해결할 수 있다. 즉, 본 발명은 배경의 합성을 통해 계절과 날씨의 영향을 최소화하는 이미지 처리 시스템을 구축할 수 있다.In addition, it is possible to solve the difficulty of producing a set for a current photo studio through background synthesis through the image processing method of the present invention. That is, the present invention can build an image processing system that minimizes the influence of the season and the weather through the synthesis of the background.

또한, 제안 스튜디오의 운영 방안인 프랜차이즈 가맹점 운영을 통해 창업자는 본사의 일괄적인 영업, 마케팅 지원을 받아 독립적 영업의 어려움을 보완하고 마케팅 비용을 줄일 수 있다.In addition, through the operation of the proposed franchise shop, the founder can supplement the difficulties of independent sales and reduce marketing expenses by collectively marketing and marketing support from the head office.

도 1 내지 도 4 는 본 발명의 실시예들에 따른 이미지 처리방법의 순서도이다.
도 5 는 본 발명의 일 실시예에 따른 이미지 처리시스템의 구성을 나타낸 블럭도이다.
도 6 은 본 발명의 일 실시예에 따른 이미지 처리시스템의 데이터 흐름을 보다 상세하게 나타낸 블록도이다.
도 7 내지 도 9 은 본 발명의 다른 실시예들에 따른 이미지 처리시스템을 설명하기 위한 도면이다.
1 to 4 are flowcharts of an image processing method according to embodiments of the present invention.
5 is a block diagram showing the configuration of an image processing system according to an embodiment of the present invention.
6 is a block diagram illustrating in greater detail the data flow of an image processing system in accordance with an embodiment of the present invention.
7 to 9 are views for explaining an image processing system according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

이하, 도면을 참조하여 본 발명의 일 실시예에 따른 이미지 처리시스템에 대해 설명하기로 한다. 도 1 내지 도 4 는 본 발명의 실시예에 따른 이미지 처리방법에 관한 순서도이다.Hereinafter, an image processing system according to an embodiment of the present invention will be described with reference to the drawings. 1 to 4 are flowcharts of an image processing method according to an embodiment of the present invention.

도 1 내지 도 2 는 본 발명의 실시예에 따른 이미지 처리방법을 나타낸 것으로서, 다음과 같은 단계로 이루어져있다.1 and 2 illustrate an image processing method according to an embodiment of the present invention.

먼저, 복수의 제1 이미지를 저장하는 단계(S110)와First, storing a plurality of first images (S110) and

상기 복수의 제1 이미지의 사진상세정보를 추출하는 단계(S120)와Extracting detailed picture information of the plurality of first images (S120) and

상기 사진상세정보를 인덱싱하여 데이터풀을 생성하는 단계(S130)와A step S130 of generating a data pool by indexing the detailed picture information

제2 이미지의 사진상세정보를 획득하는 단계(S140)와A step S140 of obtaining detailed photo information of the second image

상기 복수의 제1 이미지로부터 상기 제2 이미지의 사진상세정보와 매치되는 최적이미지를 검출하는 단계(S150)와A step (S150) of detecting an optimal image matching the detailed photographic information of the second image from the plurality of first images;

상기 검출된 제1 이미지의 사진상세정보와 상기 제2 이미지의 사진상세정보를 비교하는 단계(S160)와Comparing the detected detailed image information of the first image with the detailed image information of the second image (S160); and

사진상세정보 중 상이한 정보를 추출하는 단계(S170)와A step S170 of extracting different information among the detailed photograph information

상기 추출된 정보의 비교데이터를 기반으로 상기 제2 이미지를 보정하는 단계(S180)와(S180) correcting the second image based on comparison data of the extracted information

상기 보정된 제2 이미지와 상기 제1 이미지를 합성하는 단계(S190)의 순서로 이루어진다.And combining the corrected second image and the first image (S190).

보가 상세하게 설명하면, 복수의 제1 이미지를 저장하는 단계(S110)에서는 제1 이미지를 촬영하기 위해 배경을 단색으로 만들고 배경과 피사체를 쉽게 분리할 수 있도록 촬영하는 방식을 취할 수 있다.In more detail, in the step of storing a plurality of first images (S110), the background may be monochromatic to take a first image, and the background may be easily separated from the subject.

보다 상세한 설명을 위하여 제1 이미지를 아기 사진을 찍기 위한 배경이미지로 예를 든다면, 배경이미지 촬영 시에는 아기 촬영 위치, 즉 합성될 아기의 위치를 고려하여 촬영할 수 있다. 아기 위치를 선정한 후 아기 크기의 곰 인형을 놓고 촬영될 사진을 예측할 수 있다. 촬영 구도를 정한 후에 곰 인형을 빼고 배경을 촬영할 수 있다.For example, if the first image is a background image for taking a baby image, the baby image may be taken in consideration of the baby image position, that is, the position of the baby to be synthesized. After selecting the baby position, a baby-sized bear doll can be used to predict the picture to be taken. After setting the composition, you can remove the teddy bear and shoot the background.

이처럼 위치를 선정하고 촬영하면 합성될 아기의 사진이 예측 가능하고 합성 배경의 자연스러운 데이터를 만들 수 있다. 예를 들어, 도출된 평균 촬영 수치인 조리개 f1.4, 노출시간 s1/160, 감도 250으로 배경을 촬영할 수 있다.This location and shooting will allow the baby's picture to be synthesized to be predictable and create natural data of the composite background. For example, the background can be photographed with a derived average averaging value of f1.4, exposure time s1 / 160, and sensitivity of 250.

복수의 제1 이미지의 사진상세정보를 추출하는 단계(S120)에서 사진상세정보는 위에서 언급한 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량 등이 될 수 있다.In step S120 of extracting the detailed information of the plurality of first images, the details of the photograph may be the above-mentioned sensitivity, exposure time, aperture, color temperature, lens information, background illuminance, casting degree,

또한 사진상세정보는 메타데이터일 수 있다. 메타데이터는 속성정보로 대량의 정보 가운데에서 찾고 있는 정보를 효율적으로 찾아내서 이용하기 위해 일정한 규칙에 따라 콘텐츠에 대하여 부여되는 데이터이며, 메타데이터에는 콘텐츠의 위치와 내용, 작성자에 관한 정보, 권리 조건, 이용 조건, 이용 내력 등이 기록될 수 있다.In addition, the detailed picture information may be metadata. Metadata is attribute information, which is assigned to a content according to a certain rule in order to efficiently find and use the information found in a large amount of information. The metadata includes information on the location and content of the content, information on the creator, , Usage conditions, usage history, and the like can be recorded.

이러한 메타데이터를 포함하는 사진상세정보를 인덱싱하여 데이터풀을 생성(S130)할 수 있다.The detailed image information including such metadata may be indexed to create a data pool (S130).

제2 이미지의 사진정보를 획득하는 단계(S140)에서, 제1 이미지가 배경 이미지일 경우, 제2 이미지는 인물이미지가 될 수 있다.In step S140 of acquiring the photograph information of the second image, if the first image is a background image, the second image may be a portrait image.

제2 이미지는 다양한 배경 합성을 위해, 피사체를 촬영한 후에 다른 배경으로 옮겨갈 수 있도록 원하는 부분만 분리시킬 수 있는 민사진 촬영이 적합할 수 있다.The second image may be suitable for capturing a variety of backgrounds, in which a desired portion can be separated so that the subject can be photographed and then transferred to another background.

상기 민사진 촬영의 일 예로, 민사진 촬영 세트는 굽은 벽체(Coved Wall)로 제작할 수 있으며, 카메라는 현재 사진 스튜디오에서 많이 사용하는 Canon 5D Mark 2로, 렌즈는 Canon 50mm f1.4로 제안할 수 있다. 또한, 민 사진 촬영에 필요한 조명은 주 조명 1개, 배경 조명 2개로 모두 Fomex D400으로 제안할 수 있으며 주 조명에 사용할 소프트박스는 예를 들어 80x100cm 크기로 사용하고 배경 조명은 디퓨저 85cm 엄브렐라를 사용할 수 있다. 보조 조명으로는 반사판을 사용할 수 있다. 또한, 촬영 포즈는 성장 시기별로 50일, 100일, 돌, 주니어, 만삭, 가족으로 구분하여 각 기본 포즈들을 제안할 수 있다. 의상은 배경 합성·성장 시기별로 밝은 색감의 자연스러운 캐주얼 의상을 구성할 수 있다. 민사진 촬영 수치는 조리개 f4, 셔터스피드 s1/125, 감도 100으로 설정하고 배경 조명 50W (조명 Dial 수치1/8), 주 조명 25W (조명 Dial 수치 1/16)로 사용할 수 있다.As an example of the above min photographing, the min photographing set can be made of a coved wall. The camera can be proposed as a Canon 5D Mark 2, which is currently used in a photo studio, and a Canon 50mm f1.4 lens. have. In addition, the lighting required for shooting min photographs can be suggested as one Fomex D400 with one main lighting and two background lights. For example, the soft box for main lighting should be 80x100cm in size and the background lighting should be equipped with a diffuser 85cm umbrella . Reflectors can be used as auxiliary lights. In addition, the shooting pose can be divided into 50 days, 100 days, stone, junior, full term, and family according to the growth period. Costumes can be composed of natural casual clothes with bright colors by background synthesis / growth period. You can set the aperture value f4, shutter speed s1 / 125, sensitivity 100, and use the backlight 50W (1/8 illumination dial) and main illumination 25W (1/16 illumination dial).

보다 상세한 설명을 위하여 제2 이미지를 아기 사진을 찍기 위한 아기 이미지로 예를 든다면, 첫째, 아기에게 시선을 집중시키기 위해 조리개는 f1.4 또는 f2.8의 개방조리개를 사용할 수 있다. 둘째, 아기의 순간적인 표정과 포즈를 촬영하기 위해 노출시간은 s1/125 이상으로 사용할 수 있다. 셋째, 자연광을 이용하여 배경을 밝고 화사하게 촬영하기 위해 감도 250 이상을 사용하고 넷째, 자연스러운 입체감을 나타내기에 좋은 50~85mm의 렌즈를 많이 사용할 수 있다. 이와 같이 아기사진 스튜디오 평균 촬영 데이터를 통해 제안 스튜디오의 배경 촬영 수치는 조리개f1.4, 노출시간 s1/160, 감도 250로 설정할 수 있다.For example, if the second image is a baby image for taking a baby image, first, the diaphragm can use an open diaphragm of f1.4 or f2.8 to focus attention on the baby. Second, the exposure time can be set to s1 / 125 or higher to record the baby 's instant expression and pose. Third, using natural light to make the background brighter and brighter, using the sensitivity of 250 or more, and fourth, it is possible to use a lot of lenses of 50 ~ 85mm which is good for showing a natural three-dimensional feeling. In this way, the background image of the proposed studio can be set to the aperture of f1.4, the exposure time of s1 / 160, and the sensitivity of 250 through the baby photo studio average shooting data.

복수의 제1 이미지 중에서 제2 이미지의 사진상세정보와 매칭이 최적인 이미지를 검출할 수 있다(S150).An image having the best matching with the detailed image information of the second image among the plurality of first images can be detected (S150).

즉, 아기사진과 합성하기 위한 배경이미지의 사진상세정보와, 아기 이미지의 사진상세정보를 기초로 하여 매칭이 가장 좋은 배경이미지를 검출한다.That is, the background image having the best matching is detected based on the detailed image information of the background image for synthesizing the baby image and the detailed image information of the baby image.

이렇게 검출된 제1 이미지의 사진상세정보와 제2 이미지의 사진상세정보를 비교(S160)하여 서로 상이한 사진상세정보를 추출(S170)할 수 있다.The detailed photo information of the first image and the detailed image information of the second image are compared (S160), and the detailed photo information different from each other can be extracted (S170).

이렇게 추출된 비교정보를 가지고 제2 이미지를 보정(S180)하고, 보정된 제2 이미지와 제1 이미지를 합성(S190)할 수 있다.The second image is corrected (S180) with the extracted comparison information, and the corrected second image and the first image are combined (S190).

제1 이미지와 제2 이지미를 합성하는 방법의 일예로, 포토샵, 일러스트 등과 같은 편집툴을 사용할 수도 있으며, 합성 과정을 자동화할 수도 있다.As an example of a method of synthesizing the first image and the second image, an editing tool such as Photoshop, Illustrator, or the like may be used and the synthesis process may be automated.

예를 들어, 작업자가 컴퓨터 툴을 이용하여 수작업으로 이미지를 합성하는 경우, 포토샵을 사용하여 편집하는 방법을 예를 들어 서술하면 다음과 같다.For example, when an operator manually composes an image using a computer tool, a method of editing using Photoshop will be described as an example.

첫째, 포토샵(Photoshop)프로그램을 실행한 뒤 합성할 아기 사진과 배경사진을 가져올 수 있다.First, you can run a Photoshop program to import baby pictures and background pictures for compositing.

둘째, 아기 사진의 흰 배경부분을 마술봉 툴을 이용하여 흰색 배경을 선택한다. 마술봉 툴의 옵션바에서 Add to selection 을 선택하고 Tolerance를 기본값 32로 정할 수 있다. 배경을 모두 선택영역으로 잡아줄 수 있다. 편집 메뉴의 Inverse를 이용하여 아기 이미지를 선택영역으로 만들 수 있다. 전신사진의 경우 촬영 시 생긴 그림자도 배경에서 분리하여 가져와야 자연스러운 합성이 가능할 수 있다. 그림자 분리가 가능하지 않을 경우에는 합성 후 그림자를 빛의 방향에 맞게 만들어 자연스러운 합성을 유도할 수 있다.Second, select a white background using the Magic Bong tool for the white background part of the baby photo. You can select Add to selection from the magic bar tool's option bar and set Tolerance to the default value of 32. You can arrange all the backgrounds as a selection area. You can use the Inverse menu in the Edit menu to make a baby image a selection. In case of telegraphic photographs, the shadows produced at the time of shooting should be taken separately from the background to allow natural synthesis. If the shadow can not be separated, the shadow can be made to match the direction of light after synthesis to induce natural synthesis.

셋째, 합성할 배경 사진에 아기 사진을 드래그(drag)하여 가져올 수 있다.Third, you can drag the baby photo to the background photo to be synthesized.

넷째, 배경과 아기사진 크기를 조절하고 아기 위치를 지정할 수 있다. 다섯째, 커브(Curve)를 사용하여 아기와 배경 색과 밝기를 동일하게 보정할 수 있다. 여섯째, 블러(Blur)를 사용하여 아기 주변부를 흐릿하게 표현하여 배경과의 자연스러운 심도 연출을 할 수 있다. Fourth, you can adjust the size of background and baby pictures and specify baby position. Fifth, you can use the Curve to calibrate the background color and brightness of your baby equally. Sixth, blur is used to blur the perimeter of the baby to create a natural depth with the background.

마지막으로 사진을 저장하여 사진합성 작업을 완성할 수 있다.Finally, you can complete the photo composition task by saving the photo.

도 3 내지 도 4 는 본 발명의 이미지 처리방법의 다른 실시예이다.3 to 4 show another embodiment of the image processing method of the present invention.

먼저, 제1 이미지의 사진상세정보를 획득하는 단계(S210)와First, the steps S210 and S212 of acquiring detailed photo information of the first image

제2 이미지의 사진상세정보를 획득하는 단계(S220)와Acquiring detailed photo information of the second image (S220) and

상기 제1 이미지와 상기 제2 이미지의 사진상세정보를 비교하는 단계(S230)와Comparing the detailed image information of the first image with the detailed image information of the second image (S230)

상기 사진상세정보 중 상이한 정보를 추출하는 단계(S240)와A step S240 of extracting different pieces of information among the photograph detailed information

상기 추출된 정보의 비교데이터를 기반으로 상기 제2 이미지를 보정하는 단계(S250)와A step (S250) of correcting the second image based on the comparison data of the extracted information

상기 보정된 제2 이미지와 상기 제1 이미지를 합성하여 최종이미지를 생성하는 단계(S260)를 포함할 수 있다.And synthesizing the corrected second image and the first image to generate a final image (S260).

제1 이미지와 상기 제2 이미지의 사진상세정보를 비교하는 단계까지는 이전 실시예와 동일하며, 이를 기초로 상이한 정보를 추출하고(S240), 제1 이미지와 제2 이미지가 매치될 수 있도록, 이를 기초로 제2 이미지를 보정할 수 있다. 제1 이미지는 배경이미지가 될 수 있으며, 제2 이미지는 인물이미지가 될 수 있다.The steps up to the step of comparing the detailed information of the first image with the detailed information of the second image are the same as those of the previous embodiment, and different information is extracted based on the extracted information (S240), and the first image and the second image are matched The second image can be corrected based on the second image. The first image may be a background image, and the second image may be a portrait image.

이어서, 추출된 정보의 비교데이터를 기반으로 제2 이미지를 보정할 수 있다(S250). 예를 들어, 합성될 제1 이미지의 노출값이나 밝기값이 다른 경우, 합성 후 최종이미지의 완성도가 낮아질 수 있으므로, 합성하기 전에 미리 제2 이미지의 노출값이나 밝기값을 제1 이미지와 대등하게 보정하는 과정을 거칠 수 있다.Subsequently, the second image may be corrected based on the comparison data of the extracted information (S250). For example, if the exposure value or the brightness value of the first image to be synthesized is different, the completion of the final image after synthesis may be lowered, so that the exposure value or the brightness value of the second image is corrected in advance You can go through the process.

본 실시예에 따른 이미지 합성방법은 추가로, 합성된 제2 이미지의 윤곽부를 감지하는 단계 및 합성된 최종이미지에 제2 이미지의 윤곽부를 편집하는 단계를 더 포함할 수 있다. 예를 들어, 윤곽부를 편집하는 작업은 제2 이미지의 외곽선을 따라 음영을 형성하여 입체감을 부가하는 것일 수 있으나, 이에 한정되는 것은 아니며, 제1 이미지와의 일체성을 향상시키기 위한 모든 작업을 포함할 수 있다.The image combining method according to the present embodiment may further include detecting an outline portion of the synthesized second image and editing the outline portion of the second image in the synthesized final image. For example, the editing of the outline portion may include adding a three-dimensional effect by forming a shadow along the outline of the second image. However, the present invention is not limited to this, and includes all the operations for improving the integrity with the first image can do.

즉, 합성된 이미지를 보다 자연스럽게 보이기 위한 작업이 추가된 것으로서 보다 자세히는 다음과 같다.In other words, the work to make the synthesized image appear more natural is added as follows.

먼저, 합성 전의 제2 이미지의 사진상세정보를 수신하여 최종적으로 합성된 최종이미지의 사진상세정보와 비교하여 보다 자연스러운 이미지를 만드는 작업을 수행할 수 있다.First, the photograph detailed information of the second image before synthesis is received and compared with the detailed image information of the finally synthesized final image, thereby making a more natural image.

이때, 제2 이미지의 사진상세정보 중에서 조도, 반사광량, 윤곽을 비교하여 최종이미지를 보정한다.At this time, the final image is corrected by comparing the illuminance, the reflected light amount, and the outline among the detailed image information of the second image.

예를 들어, 사람 및 사물 윤곽선의 경우에도 사람의 피부색이나, 의상의 색상과 배경 색상이 유사하다면 윤곽선의 모양이 훼손될 수 있다. 이 경우, 주변 에지 정보나, 컬러 정보 및 사람 형태, 위치 등의 사전 지식을 바탕으로 최대한 정밀하게 사람/사물의 윤곽선을 추출할 수 있다.For example, even in the case of human and object contours, if the skin color of a person or the color of the clothes and the background color are similar, the shape of the contour line may be damaged. In this case, contours of people / objects can be extracted with the utmost precision based on prior knowledge such as surrounding edge information, color information, human form, and position.

윤곽선이 추출되면, 추출된 사람 및 사물의 형태를 저장한다. 이때, 동일한 배경에서 배경이 겹치지 않도록 다양한 포즈를 취하고 사진을 찍는 방법을 반복하면, 한 사람 및 사물에 대한 여러 포즈의 사진을 생성할 수 있다.Once the contours are extracted, they store the shapes of the extracted persons and objects. At this time, various poses are taken so that the background does not overlap on the same background, and a method of photographing is repeated, so that a photograph of various poses for a person and an object can be generated.

도 5는 본 발명의 일 실시예에 따른 이미지 처리시스템의 구성을 나타낸 블럭도이고, 도 6 은 본 발명의 일 실시예에 따른 이미지 처리시스템의 데이터 흐름을 보다 상세하게 설명한 블록도이다.FIG. 5 is a block diagram illustrating a configuration of an image processing system according to an embodiment of the present invention, and FIG. 6 is a block diagram illustrating a data flow of an image processing system according to an embodiment of the present invention in more detail.

도 5 내지 도 6을 참조하면, 이미지 처리시스템은 제1 서버(100), 제1 클라이언트(500), 제2 서버(200)로 구성될 수 있다.5 to 6, the image processing system may include a first server 100, a first client 500, and a second server 200.

제1 서버(100)는 복수의 제1 이미지 및 사진상세정보를 관리할 수 있다.The first server 100 may manage a plurality of first images and detailed photo information.

복수의 제1 이미지는 배경이미지일 수 있으며, 액자나 창문의 모양을 그래픽화한 이미지 또는 바다나 산, 유명 관광지 등의 이미지가 될 수 있으나, 이에 한정하지는 않는다.The plurality of first images may be a background image, an image obtained by graphically representing the shape of a frame or a window, or an image of a sea, a mountain, or a famous sightseeing spot, but is not limited thereto.

또한, 촬영장소, 주제, 시간별로 다양하게 포함되는 것이 바람직하다. 예를 들어 겨울과 여름 별로 다른 이미지 또는, 주간 또는 야간에 따른 이미지 등으로 나타내어 후술하는 제1 클라이언트(500)의 선택의 폭을 넓혀준다.Further, it is preferable that the image is variously included in the photographing place, subject, and time. For example, different images for winter and summer, images for daytime or nighttime, etc., and widen the selection range of the first client 500, which will be described later.

사진상세정보는 복수의 제1 이미지의 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량이 될 수 있다.The detailed photograph information may be the sensitivity, the exposure time, the aperture, the color temperature, the lens information, the background illuminance, the casting degree, and the reflected light amount of the plurality of first images.

제1 서버는 제1 클라이언트에게 복수의 제1 이미지 및 복수의 제1 이미지의 상세정보를 제공한다.The first server provides the first client with a plurality of first images and detailed information of the plurality of first images.

제1 클라이언트(500)는 제1 서버(100)로부터 수신한 사진상세정보를 기초로 제2 이미지를 생성하고 이를 관리한다.The first client 500 generates and manages the second image based on the detailed photograph information received from the first server 100.

또한 제1 클라이언트(500)는 상기 제1 서버(100)로부터 상기 복수의 제1 이미지를 수신하고 이를 표시하고, 선택된 제1 이미지를 선택한다.The first client 500 also receives and displays the plurality of first images from the first server 100, and selects the selected first images.

여기서 제2 이미지는 제1 이미지와 합성을 하고자 하는 이미지로서, 보다 자세하게는 인물이미지가 해당 될 수 있다.Here, the second image is an image to be synthesized with the first image, and more specifically, a portrait image may correspond to the second image.

제1 클라이언트(500)는 카메라 모듈을 포함하는 휴대장치 또는 카메라 장치일 수 있으며, 위치정보 모듈을 포함할 수도 있다.The first client 500 may be a portable device or a camera device including a camera module, and may include a location information module.

제2 서버(200)는 제1 클라이언트(500)로부터 선택된 하나의 제1 이미지에 대한 이미지데이터를 추출하고, 마찬가지로 제1 클라이언트(500)로부터 생성된 제2 이미지를 추출하여 합성이미지를 생성한다.The second server 200 extracts image data of the first image selected from the first client 500 and extracts the second image generated from the first client 500 to generate a composite image.

또한 제2 서버(200)는 상기 합성이미지를 제1 클라이언트(500) 및 제1 서버(100)로 전송하는 역할을 한다.The second server 200 also transmits the combined image to the first client 500 and the first server 100.

제1 클라이언트(500)와 제2 서버(600)는 물리적으로 이격되어 배치될 수 있다.The first client 500 and the second server 600 may be physically spaced apart.

아기사진의 합성에 대한 예를 들어 설명하면, 먼저 배경이 되는 사진을 다양하게 촬영한다. As an example of the composition of baby photographs, I take a variety of photographs of the background.

배경사진 촬영 시에는 아기 촬영 위치, 즉 합성될 아기의 위치를 고려하여 촬영한다. 아기 위치를 선정한 후 아기 크기의 곰 인형을 놓고 촬영될 사진을 예측한다. 촬영 구도를 정한 후에 곰 인형을 빼고 배경을 촬영한다.When taking a background picture, take a picture in consideration of the baby photographing position, that is, the position of the baby to be synthesized. After selecting the baby position, place a baby-sized bear doll and predict the picture to be taken. After setting the composition, remove the teddy bear and shoot the background.

이처럼 위치를 선정하고 촬영하면 합성될 아기의 사진이 예측 가능하고 배경사진의 자연스러운 데이터를 만들 수 있다. 이렇게 생성된 데이터는 사진상세정보를 구성할 수 있다.By selecting and taking a position like this, the baby's picture to be synthesized is predictable and the natural data of the background picture can be created. The generated data can constitute detailed image information.

사진상세정보는 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량 등이 될 수 있다. 또한 사진상세정보는 메타데이터 일 수 있다. The detailed image information may be sensitivity, exposure time, aperture, color temperature, lens information, background illuminance, casting degree, reflected light intensity, and the like. In addition, the detailed picture information may be metadata.

메타데이터는 속성정보로 대량의 정보 가운데에서 찾고 있는 정보를 효율적으로 찾아내서 이용하기 위해 일정한 규칙에 따라 콘텐츠에 대하여 부여되는 데이터일 수 있다.The metadata may be data that is attached to the contents according to a certain rule in order to efficiently find and use the information found in a large amount of information as attribute information.

메타데이터에는 콘텐츠의 위치와 내용, 작성자에 관한 정보, 권리 조건, 이용 조건, 이용 내력 등이 기록될 수 있다.In the metadata, the location and content of the content, the information on the creator, the rights condition, the use condition, the usage history, and the like can be recorded.

계속해서 이렇게 생성된 배경사진과 배경사진의 상세정보를 제1 클라이언트 예를 들어, 위치정보 모듈 및 카메라 모듈을 포함하는 장치에 제공할 수 있다. 이 장치를 통하여 유저는 배경사진을 전달받고 선택할 수 있다.The background image and the background image may be provided to the first client, for example, the apparatus including the location information module and the camera module. Through this device, the user can receive and select background pictures.

제1 클라이언트(500)는 선택된 배경사진의 상세정보를 기초로 제1 이미지 예를 들어 아기사진을 생성할 수 있다. 이렇게 생성된 아기사진을 상기에서 선택된 배경사진과 합성하는 제2 서버(200)를 포함할 수 있다.The first client 500 may generate a first image, e.g., a baby photo, based on the detailed information of the selected background photo. And a second server 200 for compositing the generated baby photo with the background photo selected in the above.

이때 제1 서버(100)와 제2 서버(200), 제1 클라이언트(500)는 물리적으로 이격되어 배치될 수 있다.At this time, the first server 100, the second server 200, and the first client 500 may be physically spaced apart from each other.

도 7 은 본 발명의 다른 실시예에 따른 이미지 합성시스템을 설명하기 위한 블럭도이다.7 is a block diagram for explaining an image synthesis system according to another embodiment of the present invention.

도 7을 참조하면, 이미지 처리시스템은 제1 서버(100), 제1 클라이언트(500), 제2 서버(200)로 구성될 수 있다.Referring to FIG. 7, the image processing system may include a first server 100, a first client 500, and a second server 200.

제1 서버(100)는 복수의 제1 이미지 및 사진상세정보를 관리할 수 있다.The first server 100 may manage a plurality of first images and detailed photo information.

복수의 제1 이미지는 배경이미지로서, 액자나 창문의 모양을 그래픽화한 이미지 또는 바다나 산, 유명 관광지 등의 이미지가 될 수 있으나, 이에 한정하지는 않는다.The plurality of first images may be background images, images obtained by graphically representing the shape of a frame or a window, or images such as sea, mountains, and famous sightseeing spots, but the present invention is not limited thereto.

또한, 촬영장소, 주제, 시간별로 다양하게 포함되는 것이 바람직하다. 예를 들어 겨울과 여름 별로 다른 이미지 또는, 주간 또는 야간에 따른 이미지 등으로 나타난다.Further, it is preferable that the image is variously included in the photographing place, subject, and time. For example, different images for winter and summer, or images for daytime or nighttime.

사진상세정보는 복수의 제1 이미지의 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량이 될 수 있다.The detailed photograph information may be the sensitivity, the exposure time, the aperture, the color temperature, the lens information, the background illuminance, the casting degree, and the reflected light amount of the plurality of first images.

제1 서버(100)는 제2 서버(200)에 복수의 제1 이미지 및 복수의 제1 이미지의 상세정보를 제공한다.The first server 100 provides the second server 200 with detailed information of the plurality of first images and the plurality of first images.

제1 클라이언트(500)는 제2 이미지를 생성하여 제2 서버(200)에 제공할 수 있다.The first client 500 may generate a second image and provide the second image to the second server 200.

여기서 제2 이미지는 제1 이미지와 합성을 하고자 하는 이미지로서, 보다 자세하게는 인물이미지가 해당 될 수 있다.Here, the second image is an image to be synthesized with the first image, and more specifically, a portrait image may correspond to the second image.

제1 서버(100)에게는 복수의 제1 이미지를, 제1 클라이언트(500)로부터는 제2 이미지를 제공받은 제2 서버(200)는 제1 서버의 사진상세정보를 기준으로 하여 제1 이미지와 제2 이미지를 합성하여 최종적으로 합성이미지를 생성한다.The second server 200 receiving the first image from the first server 100 and the second image from the first client 500 may receive the first image and the second image from the first server 100, And the second image is finally synthesized to generate a composite image.

이렇게 생성된 합성이미지를 제2 서버(200)는 도 8 과 같이 제1 클라이언트에게 전송할 수 있다.The second server 200 can transmit the generated composite image to the first client as shown in FIG.

제1 서버(100)와 제2 서버(200)는 서로 분리된 구성으로 설명되었으나, 이에 한정되는 것은 아니며, 제1 서버(100)와 제2 서버(200)는 하나의 구성을 의미할 수도 있다.Although the first server 100 and the second server 200 have been described as being separated from each other, the present invention is not limited thereto, and the first server 100 and the second server 200 may have a single configuration .

도 9 는 본 발명의 다른 실시예에 따른 이미지 처리시스템을 나타낸다.9 shows an image processing system according to another embodiment of the present invention.

도 9 를 참조하면, 이미지 처리시스템은 제1 서버(100), 제2 서버(200), 제1 클라이언트(500), 제2 클라이언트(600)를 포함한다.Referring to FIG. 9, the image processing system includes a first server 100, a second server 200, a first client 500, and a second client 600.

제1 서버(100)에서 제1 클라이언트(500)로 사진상세정보 전송하고, 제1 이미지를 제2 서버(200)로 전송한다.Transmits detailed image information from the first server 100 to the first client 500, and transmits the first image to the second server 200.

제1 클라이언트(500)에서 사진 촬영하여 제2 인물이미지 생성한다.The first client 500 photographs and creates a second person image.

제1 클라이언트(500)는 카메라 모듈을 포함하는 휴대장치일 수 있고, 위치정보 모듈을 포함할 수 있다.The first client 500 may be a portable device including a camera module, and may include a location information module.

제1 클라이언트(500)에 의해 생성된 제2 인물이미지를 제2 클라이언트(600)로 전송하여 일괄 관리한다.And transmits the second person image generated by the first client 500 to the second client 600 for batch management.

제2 클라이언트(600)에서 제2 서버(200)로 제2 인물이미지 전송한다.And transmits the second person image from the second client 600 to the second server 200.

제2 서버(200)는 제1 서버(100)로부터 제공받은 제1 이미지와 제2 클라이언트(600)로부터 제공받은 제2 인물이미지를 합성하여 합성이미지 생성한다.The second server 200 combines the first image provided from the first server 100 and the second person image provided from the second client 600 to generate a composite image.

보다 자세하게는 제1 서버(100)로부터 수신한 사진상세정보를 기초로 제1 클라이언트(500)가 제2 인물이미지를 생성하고 이를 관리하는 제2 클라이언트(600)를 더 포함하고, 제1 클라이언트(500)와 상기 제2 클라이언트(600)는 물리적으로 이격되어 배치되는 구성을 포함할 수 있다.The first client 100 further includes a second client 600 that generates and manages a second person image based on detailed photo information received from the first server 100, 500 and the second client 600 may be physically spaced apart from each other.

제2 서버(200)는 상기 제1 이미지와 상기 제2 인물이미지를 기초로 상기 합성이미지를 생성한다.The second server 200 generates the composite image based on the first image and the second person image.

제1 클라이언트(500)와 제2 서버(600)는 물리적으로 이격되어 배치되고, 제1 클라이언트(500)는 카메라 모듈을 포함하는 휴대장치일 수 있고, 위치정보 모듈을 포함할 수 있다.The first client 500 and the second server 600 are physically spaced apart and the first client 500 may be a portable device including a camera module and may include a location information module.

또한 제2 서버(200)는 제1 클라이언트(500)의 위치정보를 기초로 복수의 제1 이미지 중 관련된 제1 이미지를 선택하고, 제2 서버(200)는 제2 이미지의 피사체를 분석하여 피사체 정보를 추출하고, 피사체 정보를 기초로 복수의 제1 이미지 중 관련된 제1 이미지를 선택할 수 있다. 피사체 정보는, 피사체의 연령, 피부, 자세를 포함할 수 있다.Also, the second server 200 selects an associated first image among the plurality of first images based on the position information of the first client 500, and the second server 200 analyzes the subject of the second image, Extract information, and select an associated first image of the plurality of first images based on the subject information. The subject information may include the age, skin, and posture of the subject.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100: 제1 서버
200: 제2 서버
500: 제1 클라이언트
600: 제2 클라이언트
100: first server
200: second server
500: first client
600: second client

Claims (24)

복수의 배경이미지를 저장하는 단계;
상기 복수의 배경이미지의 사진상세정보를 추출하는 단계;
상기 사진상세정보를 인덱싱하여 데이터풀을 생성하는 단계;
인물이미지의 사진상세정보를 획득하는 단계;
상기 복수의 배경이미지로부터 상기 인물이미지의 사진상세정보와 매치되는 최적이미지를 검출하는 단계;
상기 검출된 배경이미지의 사진상세정보와 상기 인물이미지의 사진상세정보를 비교하는 단계;
상기 사진상세정보 중 상이한 비교정보를 추출하는 단계;
상기 비교정보를 기반으로 상기 인물이미지를 보정하는 단계; 및
보정된 상기 인물이미지와 상기 배경이미지를 합성하는 단계
를 포함하고,
상기 사진상세정보는 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량 중 어느 하나 이상인 것인, 이미지 처리방법.
Storing a plurality of background images;
Extracting detailed picture information of the plurality of background images;
Indexing the photo detail information to generate a data pool;
Acquiring detailed photo information of a portrait image;
Detecting an optimal image that matches the photo detail information of the portrait image from the plurality of background images;
Comparing the detailed image information of the detected background image with the detailed image information of the portrait image;
Extracting different comparison information from the detailed picture information;
Correcting the person image based on the comparison information; And
Synthesizing the corrected person image and the background image
Lt; / RTI >
Wherein the photograph detailed information is at least one of a sensitivity, an exposure time, an aperture, a color temperature, lens information, a background illuminance, a casting degree, and a reflected light amount.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 사진상세정보는 메타데이터를 더 포함하는 것을 특징으로 하는 이미지 처리방법
The method according to claim 1,
Wherein the photograph detailed information further includes meta data.
배경이미지의 사진상세정보를 획득하는 단계;
인물이미지의 사진상세정보를 획득하는 단계;
상기 배경이미지와 상기 인물이미지의 사진상세정보를 비교하는 단계;
상기 사진상세정보 중 상이한 비교정보를 추출하는 단계;
상기 비교정보를 기반으로 상기 인물이미지를 보정하는 단계; 및
보정된 상기 인물이미지와 상기 배경이미지를 합성하여 최종이미지를 생성하는 단계
를 포함하고,
상기 사진상세정보는 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량 중 어느 하나 이상인 것인, 이미지 처리방법.
Acquiring detailed photo information of the background image;
Acquiring detailed photo information of a portrait image;
Comparing the background image with detailed photo information of the portrait image;
Extracting different comparison information from the detailed picture information;
Correcting the person image based on the comparison information; And
Synthesizing the corrected person image and the background image to generate a final image
Lt; / RTI >
Wherein the photograph detailed information is at least one of a sensitivity, an exposure time, an aperture, a color temperature, lens information, a background illuminance, a casting degree, and a reflected light amount.
삭제delete 삭제delete 삭제delete 제7항에 있어서,
상기 합성된 인물이미지의 윤곽부를 감지하는 단계 및 상기 합성된 최종이미지에 상기 인물이미지의 윤곽부를 편집하는 단계를 더 포함하는 이미지 처리방법.
8. The method of claim 7,
Detecting an outline portion of the synthesized figure image, and editing the outline portion of the figure image in the synthesized final image.
제7항에 있어서,
상기 사진상세정보는 메타데이터를 더 포함하는 것을 특징으로 하는 이미지 처리방법.
8. The method of claim 7,
Wherein the photograph detailed information further includes metadata.
복수의 배경이미지 및 상기 복수의 배경이미지의 사진상세정보를 관리하는 제1 서버;
상기 제1 서버로부터 수신한 상기 사진상세정보를 기초로 인물이미지를 생성하고 이를 관리하는 제1 클라이언트;
상기 제1 클라이언트로부터 수신한 상기 인물이미지와 상기 복수의 배경이미지 중 하나의 이미지데이터를 추출하여 합성이미지를 생성하는 제2 서버를 포함하고,
상기 사진상세정보는 감도, 노출시간, 조리개, 색온도, 렌즈정보, 배경조도, 주조도, 반사광량 중 어느 하나 이상인 것인, 이미지 처리시스템.
A first server for managing a plurality of background images and detailed photo information of the plurality of background images;
A first client for generating and managing a portrait image based on the detailed photograph information received from the first server;
And a second server for extracting image data of one of the portrait image and the background images received from the first client to generate a composite image,
Wherein the photograph detailed information is at least one of a sensitivity, an exposure time, an aperture, a color temperature, lens information, a background illuminance, a casting degree, and a reflected light quantity.
제13항에 있어서,
상기 제1 클라이언트는 상기 제1 서버로부터 상기 복수의 배경이미지를 수신하고 이를 표시하는, 이미지 처리시스템.
14. The method of claim 13,
Wherein the first client receives and displays the plurality of background images from the first server.
제14항에 있어서,
상기 제2 서버는 상기 복수의 배경이미지로부터 상기 제1 클라이언트에 의해 선택된 하나의 배경이미지에 대한 상기 이미지데이터를 추출하는, 이미지 처리시스템.
15. The method of claim 14,
Wherein the second server extracts the image data for one background image selected by the first client from the plurality of background images.
제13항에 있어서,
상기 제2 서버는 상기 합성이미지를 제1 클라이언트로 전송하는, 이미지 처리시스템.
14. The method of claim 13,
And the second server sends the composite image to the first client.
제13항에 있어서,
상기 제1 서버로부터 수신한 상기 사진상세정보를 기초로 상기 제1 클라이언트에서 생성된 상기 인물이미지를 관리하는 제2 클라이언트를 더 포함하고,
상기 제1 클라이언트와 상기 제2 클라이언트는 물리적으로 이격되어 배치되는, 이미지 처리시스템.
14. The method of claim 13,
And a second client for managing the portrait image generated by the first client based on the detailed photograph information received from the first server,
Wherein the first client and the second client are physically spaced apart.
제17항에 있어서,
상기 제2 서버는 상기 배경이미지와 상기 인물이미지를 기초로 상기 합성이미지를 생성하는, 이미지 처리시스템.
18. The method of claim 17,
And the second server generates the composite image based on the background image and the portrait image.
제13항에 있어서,
상기 제1 클라이언트와 상기 제2 서버는 물리적으로 이격되어 배치되는, 이미지 처리시스템.
14. The method of claim 13,
Wherein the first client and the second server are physically spaced apart.
제13항에 있어서,
상기 제1 클라이언트는 카메라 모듈을 포함하는 휴대장치인, 이미지 처리시스템.
14. The method of claim 13,
Wherein the first client is a portable device comprising a camera module.
제13항에 있어서,
상기 제1 클라이언트는 위치정보를 추출하는 위치정보 모듈을 포함하는, 이미지 처리시스템.
14. The method of claim 13,
Wherein the first client comprises a location information module for extracting location information.
제21항에 있어서,
상기 제2 서버는 상기 제1 클라이언트의 상기 위치정보를 기초로 상기 복수의 배경이미지 중 관련된 배경이미지를 선택하는, 이미지 처리시스템.
22. The method of claim 21,
Wherein the second server selects an associated background image of the plurality of background images based on the location information of the first client.
제13항에 있어서,
상기 제2 서버는 상기 인물이미지의 피사체를 분석하여 피사체 정보를 추출하고, 상기 피사체 정보를 기초로 상기 복수의 배경이미지 중 관련된 배경이미지를 선택하는, 이미지 처리시스템.
14. The method of claim 13,
Wherein the second server analyzes the subject of the portrait image to extract subject information and selects an associated background image of the plurality of background images based on the subject information.
제23항에 있어서,
상기 피사체 정보는, 피사체의 연령, 피부, 자세를 포함하는, 이미지 처리시스템.
24. The method of claim 23,
Wherein the subject information includes an age, a skin, and an attitude of the subject.
KR1020130051910A 2013-05-08 2013-05-08 Image processing method and image processing system using the same KR101447820B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130051910A KR101447820B1 (en) 2013-05-08 2013-05-08 Image processing method and image processing system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130051910A KR101447820B1 (en) 2013-05-08 2013-05-08 Image processing method and image processing system using the same

Publications (1)

Publication Number Publication Date
KR101447820B1 true KR101447820B1 (en) 2014-10-13

Family

ID=51996718

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130051910A KR101447820B1 (en) 2013-05-08 2013-05-08 Image processing method and image processing system using the same

Country Status (1)

Country Link
KR (1) KR101447820B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106067180A (en) * 2015-04-17 2016-11-02 想象技术有限公司 Image synthesizes
KR20190094831A (en) * 2018-02-06 2019-08-14 김경열 User customized frame 3d simulation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163841A (en) * 2004-12-07 2006-06-22 Canon Inc Image searching device, image searching method, program, and storage medium
KR20100050110A (en) * 2008-11-05 2010-05-13 에스케이커뮤니케이션즈 주식회사 Method, terminal, server and system for searching images
JP2011223173A (en) * 2010-04-06 2011-11-04 Olympus Imaging Corp Photographing device, face image synthesizing device, face image synthesizing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006163841A (en) * 2004-12-07 2006-06-22 Canon Inc Image searching device, image searching method, program, and storage medium
KR20100050110A (en) * 2008-11-05 2010-05-13 에스케이커뮤니케이션즈 주식회사 Method, terminal, server and system for searching images
JP2011223173A (en) * 2010-04-06 2011-11-04 Olympus Imaging Corp Photographing device, face image synthesizing device, face image synthesizing method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106067180A (en) * 2015-04-17 2016-11-02 想象技术有限公司 Image synthesizes
CN106067180B (en) * 2015-04-17 2021-10-01 想象技术有限公司 Image synthesis
KR20190094831A (en) * 2018-02-06 2019-08-14 김경열 User customized frame 3d simulation method
KR102077905B1 (en) * 2018-02-06 2020-02-14 김경열 User customized frame 3d simulation method

Similar Documents

Publication Publication Date Title
CN109671137B (en) Picture text matching method, electronic equipment and storage medium
US8849043B2 (en) System for matching artistic attributes of secondary image and template to a primary image
US8538986B2 (en) System for coordinating user images in an artistic design
US8854395B2 (en) Method for producing artistic image template designs
US8849853B2 (en) Method for matching artistic attributes of a template and secondary images to a primary image
US8237819B2 (en) Image capture method with artistic template design
US8730356B2 (en) System and method for automatic flash removal from images
US20110025709A1 (en) Processing digital templates for image display
US20110029914A1 (en) Apparatus for generating artistic image template designs
US20110026839A1 (en) Artistic digital template for image display
US8345057B2 (en) Context coordination for an artistic digital template for image display
US20110029860A1 (en) Artistic digital template for image display
US20110029562A1 (en) Coordinating user images in an artistic design
US8564615B2 (en) Displaying generated changes to an image file
JP5232669B2 (en) camera
US8332427B2 (en) Method of generating artistic template designs
WO2011014233A1 (en) Image capture device with artistic template design
JP2014016817A (en) Image processing apparatus, image processing method, and program
US9558428B1 (en) Inductive image editing based on learned stylistic preferences
JP2008052428A (en) Image processing method, image processor, image processing program and imaging device
JP4090926B2 (en) Image storage method, registered image retrieval method and system, registered image processing method, and program for executing these methods
KR101447820B1 (en) Image processing method and image processing system using the same
JP2008217479A (en) Image arrangement method and device
JP2010021721A (en) Camera
CN108282622B (en) Photo shooting method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170626

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190701

Year of fee payment: 6