KR20210029380A - Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code - Google Patents

Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code Download PDF

Info

Publication number
KR20210029380A
KR20210029380A KR1020190110518A KR20190110518A KR20210029380A KR 20210029380 A KR20210029380 A KR 20210029380A KR 1020190110518 A KR1020190110518 A KR 1020190110518A KR 20190110518 A KR20190110518 A KR 20190110518A KR 20210029380 A KR20210029380 A KR 20210029380A
Authority
KR
South Korea
Prior art keywords
image
content
identification code
photo zone
recognition information
Prior art date
Application number
KR1020190110518A
Other languages
Korean (ko)
Other versions
KR102246754B1 (en
Inventor
박연조
Original Assignee
박연조
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박연조 filed Critical 박연조
Priority to KR1020190110518A priority Critical patent/KR102246754B1/en
Publication of KR20210029380A publication Critical patent/KR20210029380A/en
Application granted granted Critical
Publication of KR102246754B1 publication Critical patent/KR102246754B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

The present invention relates to a compositing method for selecting an image through an identification code, and more specifically, to a compositing method for selecting an image through an identification code realized on a user terminal including at least one processor, and at least one memory storing commands executable by the processor. The method comprises: a code recognition information reading step of reading code recognition information from an identification code when a user is located in a specific area of a photo zone of a dog center and has the identification code recognized in one area of the photo zone through a user terminal; an image content receiving step of transmitting the read code recognition information to a database of a center terminal and receiving image content corresponding to the code recognition information from the database; and an image content output step of capturing an image of an object located in front of an area where a photo zone is installed by using a camera built in the user terminal, compositing the image with the received image content, sending the composited image to the center terminal, and matching and outputting the composited image to the photo zone through an output means of the center terminal.

Description

식별 코드를 통해 영상 선택이 가능한 합성 방법, 장치 및 컴퓨터-판독가능 기록 매체{METHOD, APPARATUS AND COMPUTER-READABLE RECORDING MEDIUM FOR SYNTHESIS WITH SELECTABLE IMAGES THROUGH IDENTIFICATION CODE}Synthesis method, device, and computer-readable recording medium that allows image selection through identification code {METHOD, APPARATUS AND COMPUTER-READABLE RECORDING MEDIUM FOR SYNTHESIS WITH SELECTABLE IMAGES THROUGH IDENTIFICATION CODE}

본 발명은 식별 코드를 통해 영상 선택이 가능한 합성 방법에 관련된 것으로서, 구체적으로는, 유저가 포토존의 한 쪽에 배치된 식별 코드를 유저 단말을 통해 인식하고, 인식된 식별 코드를 통해 데이터베이스로부터 하나 이상의 영상 컨텐츠를 수신하여 유저가 원하는 영상으로 쉽게 선택이 가능하고, 선택된 영상 컨텐츠와 유저 단말의 카메라로 촬영하는 영상을 합성하여 포토존에 합성된 영상을 정합하여 출력하는 것으로, 이때 영상 컨텐츠에 부가된 이벤트 컨텐츠를 함께 출력함으로써 생동감 있는 영상 컨텐츠를 제공하는 식별 코드를 통해 영상 선택이 가능한 합성 방법에 대한 기술과 관련된 것이다. The present invention relates to a synthesis method in which an image can be selected through an identification code. Specifically, a user recognizes an identification code placed on one side of a photo zone through a user terminal, and one or more images from a database through the recognized identification code. The user can easily select the desired video by receiving the content, and the selected video content and the video captured by the user terminal's camera are combined, and the video synthesized in the photo zone is matched and output.At this time, the event content added to the video content It is related to a technology for a synthesis method capable of selecting an image through an identification code that provides lively image content by outputting together.

뉴스나 일기예보에서 자주 사용하는 영상 간의 합성 방법 중 하나로, 크로마키(Chroma Key) 기법이 있다. 이 기법은 두 화면을 합성하여 피사체가 촬영된 화면의 배경을 이루는 지정된 색상 부분에 다른 화면이 삽입되도록 하는 기법이다. 크로마키 기법의 원리는 색(Chroma)의 차이를 키(Key)로 하여 피사체와 배경을 분리하고, 분리된 피사체를 다른 화면에 합성하는 것이다. 예를 들어, A와 B 이렇게 두 개의 영상이 있으면, B 영상으로부터 '좁은 범위의 색'을 제거하거나 투명하게 만들어서 뒤의 A 영상이 비치게 할 수 있는 것이다. 이러한 크로마키 합성 방식은 일기예보, 선거방송뿐만 아니라, 드라마나 영화, 인터넷 방송국, 개인방송국까지 확산되는 추세에 있다.One of the methods of synthesizing images frequently used in news or weather forecasts is the Chroma Key technique. This technique combines two screens so that another screen is inserted in a designated color part that forms the background of the screen in which the subject was photographed. The principle of the chroma key technique is to separate the subject and the background by using the difference in color as a key, and to synthesize the separated subject on another screen. For example, if there are two images such as A and B, the'narrow range color' can be removed from the B image or made transparent so that the rear image A is reflected. Such a chroma key synthesis method has a tendency to spread not only to weather forecasts and election broadcasting, but also to dramas, movies, Internet broadcasting stations, and personal broadcasting stations.

한편, 한국 공개 특허 제10-2000-0063232호에서는, 크로마키 판넬을 배경으로 하여 컴퓨터 이용자가 자신의 모습을 촬영한 후, 선택한 배경화면을 합성할 수 있는 동영상 합성 시스템 및 그 방법 기술이 개시되어 있다.On the other hand, in Korean Patent Laid-Open No. 10-2000-0063232, a video synthesis system and method technology for synthesizing a selected background image after a computer user photographs himself with a chroma key panel as a background is disclosed. have.

그러나, 상술한 선행 기술의 경우, 컴퓨터 이용자가 자신의 모습을 촬영한 후, 관리서버에서 제공하는 배경화면을 다운로드 받아서, 이용자 자신의 모습과 배경화면을 합성하는 기술로, 촬영 당시에는 어떠한 배경화면과 합성하게 될지 알 수 없고, 합성될 배경화면을 동시에 보면서 촬영할 수 없기 때문에 피드백 또한 어려우므로 촬영한 촬영본과 배경화면과의 이질감이 생길 수 밖에 없는 문제점을 가지고 있다. 더욱이 이러한 방식은 인터넷 방송국 등 실시간으로 크로마키 처리를 하여야 하는 경우에는 상술한 선행 기술을 사용할 수 없다.However, in the case of the above-described prior art, a computer user photographs his or her own image, downloads a background image provided from the management server, and combines the user's own image and background image. Since it is not known whether it will be combined with, and feedback is difficult because it is not possible to shoot while watching the background image to be combined at the same time, there is a problem that there is a problem that a sense of difference between the photographed photograph and the background image occurs. Moreover, this method cannot use the above-described prior art when chroma key processing is to be performed in real time, such as an Internet broadcasting station.

이에 본 발명은 포토존의 일 영역에 배치된 식별 코드를 인식하여 데이터베이스로부터 다양한 영상 컨텐츠를 수신하여 유저가 원하는 영상 컨텐츠 중 하나를 자유롭게 택하거나 변경할 수 있도록 하여 유저가 유저 단말을 통해 촬영 중인 영상과 실시간으로 합성하고, 합성된 영상은 포토존의 일 영역에 정합하여 출력하는 것에 제1 목적이 있다.Accordingly, the present invention recognizes the identification code arranged in one area of the photo zone and receives various image contents from the database so that the user can freely select or change one of the image contents desired by the user. The first purpose is to synthesize and output the synthesized image by matching it to one area of the photo zone.

또한 본 발명에서는 먼저 이미지 컨텐츠를 수신하고, 유저가 동영상 촬영 모드로 전환 시, 수신한 이미지 컨텐츠를 포함하는 동영상 컨텐츠를 다시 수신하여 재생함으로써 마치 튀어나오는 듯한 효과를 줄 수 있고, 뿐만 아니라 동영상 컨텐츠에는 인터렉션 효과를 더 포함하여 촬영 대상인 사물의 영상과 합성하였을 때 더욱 생동감을 줄 수 있는 영상을 제작하는 것에 제2 목적이 있다.In addition, in the present invention, when the image content is first received, and when the user switches to the video recording mode, the video content including the received image content is received and played again, thereby giving an effect as if it pops out. A second object is to produce an image that can give more vitality when it is combined with an image of an object to be photographed, including an interaction effect.

상기 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 식별 코드를 통해 영상 선택이 가능한 합성 방법은, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말에서 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 방법에 있어서, 유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출 단계; 독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신 단계; 및 수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력 단계;를 포함하는 것을 특징으로 한다.In order to achieve the above object, a synthesis method capable of selecting an image through an identification code according to an embodiment of the present invention is implemented in a user terminal including at least one processor and at least one memory storing instructions executable by the processor. In the synthesis method in which an image can be selected through an identification code, when a user is located in a specific area of a photo zone of a dog center and recognizes an identification code arranged in one area of the photo zone through a user terminal, the code is recognized from the identification code. A code recognition information reading step of reading information; An image content receiving step of transmitting the read code recognition information to a database of a center terminal and receiving image content corresponding to the code recognition information from the database; And synthesizing the received image content and an object image photographed by a camera mounted on the user terminal of an object located in front of the area in which the photo zone is installed, and transmitting the synthesized image to the center terminal, and transmitting the synthesized image to the center terminal. And an image content output step of matching and outputting the photo zone through an output means of.

상기 식별 코드는, 바코드 또는 2차원 코드를 포함하여 상기 유저 단말을 통해 상기 코드 인식 정보를 독출 가능한 것이 바람직하다.It is preferable that the identification code includes a barcode or a two-dimensional code to read the code recognition information through the user terminal.

상기 코드 인식 정보는, 적어도 하나 이상의 상기 영상 컨텐츠가 대응되어 유저가 하나의 영상 컨텐츠를 선택 가능한 것이 바람직하다.It is preferable that the code recognition information corresponds to at least one of the video content so that the user can select one video content.

상기 영상 컨텐츠 수신 단계는, 상기 영상 컨텐츠로서 이미지 컨텐츠를 수신하고, 상기 영상 컨텐츠 출력 단계는, 수신된 상기 이미지 컨텐츠를 상기 센터 단말에 전송하여 전송된 상기 이미지 컨텐츠를 상기 포토존에 정합하여 출력하고, 유저가 카메라의 동영상 촬영 모드를 시작할 시, 상기 영상 컨텐츠 수신 단계를 통해 상기 이미지 컨텐츠를 하나의 프레임(Frame)으로써 포함하는 동영상 컨텐츠를 수신하고, 상기 영상 컨텐츠 출력 단계를 통해 수신된 상기 동영상 컨텐츠와 상기 동영상 촬영 모드에서 촬영 중인 상기 사물 영상을 함께 합성하고, 상기 센터 단말에 합성된 영상을 전송하여 상기 포토존에 정합하여 출력하는 것이 바람직하다.In the receiving of the video content, the image content is received as the video content, and in the output of the video content, the received image content is transmitted to the center terminal, and the transmitted image content is matched to the photo zone and output, When the user starts the video shooting mode of the camera, the video content receiving step receives the video content including the image content as one frame, and the video content received through the video content output step It is preferable that the object image being photographed in the moving picture photographing mode is synthesized together, the synthesized image is transmitted to the center terminal, and is matched to the photo zone for output.

상기 동영상 컨텐츠는, 상기 포토존에 정합되어 출력된 상기 이미지 컨텐츠를 맨 처음의 프레임으로 포함하고, 상기 영상 컨텐츠의 화면 크기를 상기 이미지 컨텐츠의 화면 크기에 맞추는 것이 바람직하다.It is preferable that the moving picture content includes the image content matched to the photo zone and outputted as the first frame, and matching the screen size of the image content to the screen size of the image content.

상기 영상 컨텐츠 출력 단계는, 상기 포토존에 정합하여 출력 시, 상기 영상 컨텐츠에 부가된 이벤트 효과를 함께 출력하는 것이 바람직하다.In the outputting of the video content, it is preferable to output an event effect added to the video content together when matching to the photo zone and outputting the video content.

상기 영상 컨텐츠 출력 단계는, 상기 사물의 움직임을 감지하는 사물 동작 감지 단계; 움직임이 감지된 상기 사물의 영상 내 위치 좌표를 산출하는 사물 위치 감지 단계; 상기 사물 위치 감지 단계에 의하여 산출된 상기 위치 좌표와 상기 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표가 일치되는 경우, 상기 이벤트 발생 위치 좌표에 매칭된 컨텐츠로서, 상기 사물과의 인터렉션 이벤트 컨텐츠를 포함하며 상기 영상 컨텐츠에 포함된 상기 이벤트 컨텐츠를 선택하는 이벤트 선택 단계; 및 상기 이벤트 선택 단계에 의하여 선택된 상기 이벤트 컨텐츠를 상기 포토존에 정합하여 출력하는 이벤트 출력 단계;를 포함하는 것이 바람직하다.The outputting of the image content may include detecting motion of the object; An object position sensing step of calculating position coordinates in the image of the object in which motion is detected; When the location coordinates calculated by the object location detection step and the event occurrence location coordinates included in the image content match, the content matched with the event occurrence location coordinates, including the interaction event content with the object, and the An event selection step of selecting the event content included in the video content; And an event output step of matching and outputting the event content selected by the event selection step to the photo zone.

한편, 하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말로 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 장치에 있어서, 유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출부; 독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신부; 및 수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력부;를 포함하는 것을 특징으로 한다.On the other hand, in the synthesis device capable of selecting an image through an identification code implemented by a user terminal including at least one processor and at least one memory storing instructions executable by the processor, the user is located in a specific area of the photo zone of the dog center A code recognition information reading unit for reading code recognition information from the identification code when the identification code disposed in the photo zone is recognized through the user terminal; An image content receiver configured to transmit the read code recognition information to a database of a center terminal and receive image content corresponding to the code recognition information from the database; And synthesizing the received image content and an object image photographed by a camera mounted on the user terminal of an object located in front of the area in which the photo zone is installed, and transmitting the synthesized image to the center terminal, and transmitting the synthesized image to the center terminal. And an image content output unit that matches and outputs the photo zone through an output means of.

또 다른 한편, 상술한 컴퓨터-판독가능 기록 매체는 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은: 유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출 단계; 독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신 단계; 및 수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력 단계;를 포함하는 것을 특징으로 한다.On the other hand, the above-described computer-readable recording medium stores instructions for causing the computing device to perform the following steps, the steps of which are: The user is located in a specific area of the photo zone of the dog center and said through the user terminal. A code recognition information reading step of reading code recognition information from the identification code upon recognizing an identification code disposed in an area of the photo zone; An image content receiving step of transmitting the read code recognition information to a database of a center terminal and receiving image content corresponding to the code recognition information from the database; And synthesizing the received image content and an object image photographed by a camera mounted on the user terminal of an object located in front of the area in which the photo zone is installed, and transmitting the synthesized image to the center terminal, and transmitting the synthesized image to the center terminal. And an image content output step of matching and outputting the photo zone through an output means of.

본 발명의 일 실시 예에 따르면, 포토존의 일 영역에 배치된 식별 코드를 인식하여 데이터베이스로부터 다양한 영상 컨텐츠를 수신하여 유저가 원하는 영상 컨텐츠 중 하나를 자유롭게 택하거나 변경할 수 있도록 하여 유저가 유저 단말을 통해 촬영 중인 영상과 실시간으로 합성하고, 합성된 영상은 포토존의 일 영역에 정합하여 출력하도록 함으로써, 제한 없이 영상 컨텐츠를 변경하며 유저가 포토존에 정합된 영상을 확인할 수 있어 유저가 원하는 다양한 컨셉으로 촬영할 수 있는 효과가 있다.According to an embodiment of the present invention, a user can freely select or change one of the desired image contents by recognizing an identification code arranged in an area of the photo zone and receiving various image contents from a database. By combining the video being filmed with the video being shot in real time, and outputting the combined video by matching it to one area of the photo zone, the video content can be changed without limitation, and the user can check the video matched to the photo zone, allowing the user to shoot with various concepts desired by the user. There is an effect.

또한, 본 발명의 일 실시 예에 따르면, 먼저 이미지 컨텐츠를 수신하고 유저가 동영상 촬영 모드로 전환 시, 수신한 이미지 컨텐츠를 포함하는 동영상 컨텐츠를 다시 수신하여 재생함으로써 마치 튀어나오는 듯한 효과를 줄 수 있고, 뿐만 아니라 동영상 컨텐츠에는 인터렉션 효과를 더 포함하여 촬영 대상인 사물의 영상과 합성하였을 때 더욱 생동감을 줄 수 있는 영상을 제작하여 이질감 없이 하나의 영상을 촬영한 것처럼 표현할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, when the image content is first received and the user switches to the video recording mode, the video content including the received image content is received and played again, thereby giving an effect as if it pops out. In addition, there is an effect that the video content further includes an interaction effect to create an image that can give more vitality when synthesized with an image of an object to be photographed, thereby expressing a single image as if photographed without a sense of heterogeneity.

도 1은 본 발명의 일 실시 예에 따른 식별 코드를 통해 영상 선택이 가능한 합성 방법의 흐름도.
도 2는 본 발명의 일 실시 예에 따른 식별 코드를 통해 영상 선택이 가능한 합성 방법의 구성도.
도 3은 본 발명의 일 실시 예에 따른 유저가 하나의 영상 컨텐츠를 선택 가능한 유저 단말에 제공되는 인터페이스의 일 예.
도 4는 본 발명의 일 실시 예에 따른 유저 단말에 수신된 영상 컨텐츠 중 하나의 종류인 이미지 컨텐츠가 선택되고, 동영상 촬영 모드로 전환이 될 시, 이미지 컨텐츠를 포함하는 동영상 컨텐츠가 검색되어 유저 단말에 제공되는 인터페이스의 일 예.
도 5는 본 발명의 일 실시 예에 따른 포토존에 정합되어 출력 중인 선택된 영상 컨텐츠가 유저 단말의 인터페이스로 제공되고, 유저 단말의 카메라를 통해 사물의 움직임을 감지하는 영상을 촬영 중인 일 예와, 산출된 사물의 위치 좌표와 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표와 비교하여 일치되는 경우, 이벤트 발생 위치 좌표에 매칭된 인터렉션 이벤트 컨텐츠를 포함하여 포토존에 정합하여 출력하는 일 예.
도 6은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예.
1 is a flowchart of a synthesis method capable of selecting an image through an identification code according to an embodiment of the present invention.
2 is a block diagram of a synthesis method capable of selecting an image through an identification code according to an embodiment of the present invention.
3 is an example of an interface provided to a user terminal in which a user can select one video content according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating that when an image content, which is one type of image content received by a user terminal according to an embodiment of the present invention, is selected and is switched to a video recording mode, a video content including image content is searched for and a user terminal An example of an interface provided to.
5 is an example in which a selected image content matched to a photo zone and being outputted according to an embodiment of the present invention is provided as an interface of a user terminal, and an image for detecting movement of an object is being photographed through a camera of the user terminal, and calculation An example of comparing the location coordinates of the object and the event occurrence location coordinates included in the video content and matching them to the photo zone including the interaction event content matched with the event occurrence location coordinates and outputting them.
6 is an example of an internal configuration of a computing device according to an embodiment of the present invention.

이하에서는, 다양한 실시 예들 및/또는 양상들이 이제 도면들을 참조하여 개시된다. 하기 설명에서는 설명을 목적으로, 하나이상의 양상들의 전반적 이해를 돕기 위해 다수의 구체적인 세부사항들이 개시된다. 그러나, 이러한 양상(들)은 이러한 구체적인 세부사항들 없이도 실행될 수 있다는 점 또한 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 인식될 수 있을 것이다. 이후의 기재 및 첨부된 도면들은 하나 이상의 양상들의 특정한 예시적인 양상들을 상세하게 기술한다. 하지만, 이러한 양상들은 예시적인 것이고 다양한 양상들의 원리들에서의 다양한 방법들 중 일부가 이용될 수 있으며, 기술되는 설명들은 그러한 양상들 및 그들의 균등물들을 모두 포함하고자 하는 의도이다.In the following, various embodiments and/or aspects are now disclosed with reference to the drawings. In the following description, for illustrative purposes, a number of specific details are disclosed to aid in an overall understanding of one or more aspects. However, it will also be appreciated by those of ordinary skill in the art that this aspect(s) may be practiced without these specific details. The following description and the annexed drawings set forth in detail certain illustrative aspects of the one or more aspects. However, these aspects are illustrative and some of the various methods in the principles of the various aspects may be used, and the descriptions described are intended to include all such aspects and their equivalents.

본 명세서에서 사용되는 "실시 예", "예", "양상", "예시" 등은 기술되는 임의의 양상 또는 설계가 다른 양상 또는 설계들보다 양호하다거나, 이점이 있는 것으로 해석되지 않을 수도 있다.As used herein, "embodiment", "example", "aspect", "example", etc. may not be construed as having any aspect or design described as being better or advantageous than other aspects or designs. .

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다.In addition, the terms "comprising" and/or "comprising" mean that the corresponding feature and/or component is present, but excludes the presence or addition of one or more other features, components, and/or groups thereof. It should be understood as not doing.

또한, 제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as first and second may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 발명의 실시 예들에서, 별도로 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 실시 예에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, in the embodiments of the present invention, unless otherwise defined, all terms used herein, including technical or scientific terms, are those commonly understood by those of ordinary skill in the art to which the present invention belongs. It has the same meaning. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and unless explicitly defined in the embodiments of the present invention, an ideal or excessively formal meaning Is not interpreted as.

이하에서 설명할 본 발명은 유저가 포토존의 한 쪽에 배치된 식별 코드를 유저 단말을 통해 인식하고, 인식된 식별 코드를 통해 데이터베이스로부터 하나 이상의 영상 컨텐츠를 수신하여 유저가 원하는 영상으로 쉽게 선택이 가능하고, 선택된 영상 컨텐츠와 유저 단말의 카메라로 촬영하는 영상을 합성하여 포토존에 합성된 영상을 정합하여 출력하는 것으로, 이때 영상 컨텐츠에 부가된 이벤트 컨텐츠를 함께 출력함으로써 생동감 있는 영상 컨텐츠를 제공하는 식별 코드를 통해 영상 선택이 가능한 합성 방법에 대한 기술과 관련된 것이다. In the present invention, which will be described below, the user recognizes the identification code arranged on one side of the photo zone through the user terminal, and receives one or more image contents from the database through the recognized identification code, so that the user can easily select the desired image. , By synthesizing the selected video content and the video captured by the camera of the user terminal, and outputting the combined video in the photo zone, at this time, an identification code that provides lively video content by outputting the event content added to the video content together is provided. It is related to a technology for a synthesis method that enables image selection through.

이러한 본 발명은 포토존의 일 영역에 배치된 식별 코드를 인식하여 데이터베이스로부터 다양한 영상 컨텐츠를 수신하여 유저가 원하는 영상 컨텐츠 중 하나를 자유롭게 택하거나 변경할 수 있도록 하여 유저가 유저 단말을 통해 촬영 중인 영상과 실시간으로 합성하고, 합성된 영상은 포토존의 일 영역에 정합하여 출력하는 것에 제1 목적이, 먼저 이미지 컨텐츠를 수신하고, 유저가 동영상 촬영 모드로 전환 시, 수신한 이미지 컨텐츠를 포함하는 동영상 컨텐츠를 다시 수신하여 재생함으로써 마치 튀어나오는 듯한 효과를 줄 수 있고, 뿐만 아니라 동영상 컨텐츠에는 인터렉션 효과를 더 포함하여 촬영 대상인 사물의 영상과 합성하였을 때 더욱 생동감을 줄 수 있는 영상을 제작하는 것에 제2 목적이 있다.The present invention recognizes an identification code arranged in an area of the photo zone and receives various image contents from a database so that the user can freely select or change one of the image contents desired by the user. The first purpose is to match and output the synthesized image in one area of the photo zone. First, the image content is received, and when the user switches to the video recording mode, the video content including the received image content is re-created. The second purpose is to produce a video that can give a pop-out effect by receiving and playing it, and to create a video that can give more vitality when it is combined with an image of an object to be photographed by further including an interaction effect in the video content. .

이하에서는 상술한 목적을 달성하기 위한 식별 코드를 통해 영상 선택이 가능한 합성 방법에 대해 첨부된 도면을 참조하여 더욱 구체적으로 설명하기로 한다. Hereinafter, a synthesis method in which an image can be selected through an identification code for achieving the above object will be described in more detail with reference to the accompanying drawings.

추가적으로, 유저 단말 및 센터 단말은 후술하는 도 6의 컴퓨팅 장치와 동일한 작동 원리 및 기능 수행을 위한 각 구성들을 포함하는 것으로 이해되어야 할 것이다.Additionally, it should be understood that the user terminal and the center terminal include components for performing the same operation principle and function as the computing device of FIG. 6 to be described later.

먼저, 식별 코드를 통해 영상 선택이 가능한 합성 방법에 대하여 살펴보기 위해 도 1을 참조하면, 도 1에는 본 발명의 일 실시 예에 따른 식별 코드를 통해 영상 선택이 가능한 합성 방법의 흐름도가 도시되어 있다.First, referring to FIG. 1 for a synthesis method in which an image can be selected through an identification code, FIG. 1 is a flowchart of a synthesis method in which an image can be selected through an identification code according to an embodiment of the present invention. .

더욱 구체적으로 하나 이상의 프로세서 및 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말에서 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 방법은, 도 1에 도시된 바와 같이 유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 포토존의 일 영역에 배치된 식별 코드를 인식 시, 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출 단계(S10)가 수행될 수 있다.More specifically, the synthesis method in which an image can be selected through an identification code implemented in a user terminal including at least one processor and at least one memory storing instructions executable by the processor is provided, as shown in FIG. When an identification code positioned in a specific area of the photo zone and disposed in a portion of the photo zone is recognized through a user terminal, a code recognition information reading step S10 of reading code recognition information from the identification code may be performed.

이때, 상술한 포토존은 이후 크로마키(Chroma Key)를 비롯한 영상 합성 시 색상의 추출이 가능하도록 하기 위해 그린 스크린(Green Screen), 블루 스크린(Blue Screen) 등 합성될 영상과 구분이 가능한 단일의 색상으로 구성된 천 등의 소재를 이용할 수 있다.At this time, the above-described photo zone is a single color that can be distinguished from the image to be synthesized, such as a green screen and a blue screen, in order to extract colors during image synthesis including a chroma key. Materials such as fabrics composed of can be used.

합성 시 사용할 기술 중의 일 예로, 상술한 크로마키는 두 화면을 합성하여 피사체가 촬영된 화면의 배경을 이루는 지정된 색상 부분에 다른 화면이 삽입되도록 하는 기법이다. 크로마키 기법의 원리는 색(Chroma)의 차이를 키(Key)로 하여 피사체와 배경을 분리하고, 분리된 피사체를 다른 화면에 합성하는 것으로, 영화 등에서는 촬영 과정에서 배우가 단색 배경 앞에서 연기를 하고 후편집 과정에서 같은 색으로 찍힌 부분을 다른 배경으로 바꾸면 바꾼 배경에서 연기한 것과 같은 효과를 낼 수 있고, 인터넷 방송에서도 크로마키 기술을 활용하여 그린 스크린 등의 포토존에 영상을 실시간으로 합성할 수 있다.As an example of a technique to be used during synthesis, the above-described chroma key is a technique in which two screens are synthesized so that another screen is inserted in a designated color part forming a background of a screen in which a subject is photographed. The principle of the chroma key technique is to separate the subject and the background using the difference in color as the key, and combine the separated subject on another screen. In the post-editing process, if you change the part with the same color to a different background, you can create the same effect as acting on the changed background, and you can use the chroma key technology to synthesize the video in real-time on a photo zone such as a green screen in Internet broadcasting. have.

또한, 상술한 것처럼 포토존의 일 영역에 배치되거나 포토존과 근접한 곳에 별도로 위치될 수 있는 식별 코드는, 바코드 또는 2차원 코드를 포함하여 유저 단말을 통해 코드 인식 정보를 독출 가능한 것이다.In addition, as described above, the identification code, which may be disposed in one area of the photo zone or separately located in the vicinity of the photo zone, includes a barcode or a two-dimensional code, and can read code recognition information through a user terminal.

우선, 바코드는 1차원 코드로써 문자 또는 숫자로 이루어진 정보를 컴퓨터가 판독할 수 있도록 고안된 굵기가 다른 흑백 막대로 조합시켜 만든 코드로, 주로 제품의 포장지에 인쇄가 되어 사용되고, 제작 시의 비용 또한 저렴하다는 장점을 가지고 있어 어려 분야에서 다양한 형태로 사용되고 있는 것이고, 2차원 코드는 종래의 1차원 코드인 바코드가 많은 정보를 담기 어렵다는 단점이 있어 이를 보완하기 위한 것으로, 흑백 네모 모양을 모자이크식으로 배열하는 방식으로 종류에 따라 약 4천 바이트에 달하는 정보를 코드화할 수 있기 때문에 바코드와 비교하여 더 많은 정보를 담을 수 있는 것으로, QR 코드(Quick Response Code)를 포함한 다양한 형태의 매트릭스 형식의 2차원 코드를 사용할 수 있으며, 상술한 실시 예 이외에도 다양한 정보를 담을 수 있어 유저 단말 등의 기기를 통해 인식 가능하도록 본 발명에서 이용할 수 있는 기술이라면 이용이 가능할 것이다.First of all, a barcode is a one-dimensional code, which is a code made by combining black and white bars of different thicknesses designed to allow a computer to read information consisting of letters or numbers. It has the advantage of being used in various forms in children's fields, and the two-dimensional code has the disadvantage that it is difficult to contain a lot of information in the conventional one-dimensional code. It is possible to code approximately 4,000 bytes of information according to the type in a method, so it can contain more information compared to barcodes.It is possible to use a two-dimensional code in various types of matrix, including a QR code (Quick Response Code). In addition to the above-described embodiments, a variety of information can be stored, and any technology that can be used in the present invention so that it can be recognized through a device such as a user terminal may be used.

물론, 유저가 포토존의 식별 코드를 인식함에 있어 유저 단말을 사용할 시, 유저 단말은 식별 코드를 독출하기 위해 특히 카메라를 포함한 모바일(Mobile) 장치 또는 스마트폰(Smartphone)이라 이해할 수 있고, 이외에도 본 발명에서 바코드 또는 2차원 코드 등을 인식하여 코드 인식 정보를 독출 가능한 기기라면 제한 없이 사용이 가능하다.Of course, when the user uses the user terminal in recognizing the identification code of the photo zone, the user terminal can be understood as a mobile device including a camera or a smartphone in particular to read the identification code. In addition, the present invention Any device capable of reading code recognition information by recognizing a barcode or a two-dimensional code in the device can be used without limitation.

다음, 상술한 코드 인식 정보 독출 단계(S10) 이후, 독출된 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신 단계(S20)가 수행될 수 있다.Next, after the above-described code recognition information reading step (S10), an image content receiving step (S20) of transmitting the read code recognition information to a database of the center terminal and receiving image content corresponding to the code recognition information from the database is performed. I can.

특히 상술한 코드 인식 정보는 자유롭게 유저가 원하는 영상을 선택할 수 있도록 적어도 하나 이상의 영상 컨텐츠가 대응되어 유저가 하나의 영상 컨텐츠를 선택 가능한 것일 수 있다.In particular, the above-described code recognition information may correspond to at least one image content so that the user can freely select a desired image so that the user can select one image content.

이에, 도 3에는 본 발명의 일 실시 예에 따른 유저가 하나의 영상 컨텐츠를 선택 가능한 유저 단말에 제공되는 인터페이스의 일 예가 도시되어 있다. 도 3의 100에는 데이터베이스로부터 수신한 다양한 영상 컨텐츠 중 특히 여러 개의 동영상 중 하나를 유저 단말을 통해 선택할 수 있는 인터페이스로, 110은 여러 개의 동영상 목록을 시각적으로 표현한 일 영역으로, 유저 단말의 입력 수단을 통해 좌우로 드래그(Drag), 수평 또는 수직 방향으로 빠르게 스크롤 하는 제스처인 플릭(Flick) 등 다양한 방식으로 동영상 목록을 좌우로 이동하며 확인할 수 있고, 110의 영역 하단에 위치한 화살표 촉 형태의 기호의 일 영역을 선택하는 방식으로도 동영상을 좌우로 슬라이드 넘기듯 확인하여 다양한 동영상을 유저가 확인할 수 있다. 110의 일 영역 중에서도 중간 부분에는 현재 선택된 영상을 확인할 수 있고, 110의 하단의 "바닷가"는 선택된 영상의 제목임을 알 수 있다. 이후, 100의 맨 하단 영역의 "선택하기" 버튼을 통해 유저가 동영상을 최종적으로 선택할 수 있다.Accordingly, FIG. 3 shows an example of an interface provided to a user terminal in which a user can select one video content according to an embodiment of the present invention. 100 of FIG. 3 shows an interface in which one of a number of videos, in particular, among various video contents received from a database, can be selected through a user terminal, and 110 is an area visually expressing a list of several videos, and an input means of the user terminal is used. Through various methods, such as dragging left and right or flick, a gesture that scrolls quickly in the horizontal or vertical direction, you can check the video list by moving left and right, and it is a symbol in the form of an arrow tip located at the bottom of the area of 110. By selecting the area, the user can check various videos by checking the video as if it is swiping left or right. Among one area of 110, the currently selected image can be checked in the middle part, and "beach" at the bottom of 110 can be seen that the title of the selected image. Thereafter, the user can finally select the video through the "select" button in the bottom area of 100.

물론, 코드 인식 정보에 따라 대응되는 영상 컨텐츠는 영상 컨텐츠를 사용하는 장소에 따라 그 종류 또는 테마를 다르게 할 수 있는 것으로, 본 발명에서는 주로 애견 센터에 이용하는 것이므로 강아지와 관련된 영상 컨텐츠를 다양하게 포함할 수 있는 것이고, 일기예보 등을 방송하는 방송국 등에서는 지도 및 날씨와 관련된 다양한 영상 컨텐츠를 이용할 수 있도록 할 수 있는 것이다.Of course, the video content corresponding to the code recognition information can be different in its type or theme depending on the place where the video content is used.In the present invention, since it is mainly used for dog centers, video content related to dogs may be variously included. It is possible to use various video contents related to maps and weather in broadcasting stations that broadcast weather forecasts and the like.

다시 도 1을 참조하여 살펴보자면, 상술한 영상 컨텐츠 수신 단계(S20) 이후, 수신된 영상 컨텐츠와 포토존이 설치된 영역 앞에 위치한 사물을 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 센터 단말에 합성된 영상을 전송하고, 합성된 영상을 센터 단말의 출력 수단을 통해 포토존에 정합하여 출력하는 영상 컨텐츠 출력 단계(S30)가 수행될 수 있다.Referring back to FIG. 1, after the above-described image content reception step (S20), the received image content and the object image photographed by the camera mounted on the user terminal are synthesized by the object located in front of the area where the photo zone is installed. An image content output step (S30) of transmitting the synthesized image and matching and outputting the synthesized image to a photo zone through an output means of the center terminal may be performed.

영상 컨텐츠와 카메라로 촬영한 사물의 영상을 합성할 시에는, 영상 컨텐츠의 픽셀(Pixel) 해상도와 사물의 영상의 픽셀 해상도를 맞추도록 하여 영상을 합성하고, 이를 센터 단말의 출력 수단을 통해 포토존에 정합하여 출력할 시에는 합성된 영상을 센터 단말과 연결된, 프로젝션 스크린이나 그와 비슷한 평평한 표면 위에 영상임을 확대해서 보여 주기 위한 장치로, 보통 다수의 청중에게 동일한 정보를 제공하기 위해 사용되는 도구인 프로젝터(Projector)를 통해서 넓은 포토존에도 출력이 가능하도록 할 수 있다.When synthesizing the image content and the image of the object captured by the camera, the image is synthesized by matching the pixel resolution of the image content and the pixel resolution of the image, and the image is synthesized in the photo zone through the output means of the center terminal. When matching and outputting, the synthesized image is connected to the center terminal and is a device to enlarge and show that the image is on a projection screen or similar flat surface, and is a tool that is usually used to provide the same information to a large number of audiences. Through (Projector), it is possible to print even in a wide photo zone.

물론, 상술한 사물 영상은 기 촬영된 영상 또는 유저 단말의 카메라를 통해 촬영 중인 영상 모두에 대해 합성이 가능하도록 하는 것이 바람직할 것이다.Of course, it would be desirable to allow the above-described object image to be synthesized with respect to both the previously captured image or the image being photographed through the camera of the user terminal.

뿐만 아니라, 이에 더하여 상술한 합성된 영상을 유저가 별도로 보관할 수 있도록 합성된 영상을 유저 단말에 저장할 수 있거나, 인터넷 상에 자료를 저장해 두어 유저가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 클라우드 서비스(Cloud Service) 및 이메일(E-Mail) 등을 통해 전송하여 주거나 보관할 수 있는 서비스 또한 부가적으로 제공할 수 있다.In addition to this, the synthesized image can be stored in the user terminal so that the user can separately store the synthesized image described above, or the user can store the data on the Internet so that the user does not need to install the necessary data or programs on his or her computer. It can also provide additional services that can be transmitted or stored through a cloud service and e-mail that can be used anytime, anywhere through access.

한편으로 영상 컨텐츠 수신 단계(S20)는 영상 컨텐츠로서 이미지 컨텐츠를 수신하고, 영상 컨텐츠 출력 단계(S30)는 수신된 이미지 컨텐츠를 센터 단말에 전송하여 전송된 이미지 컨텐츠를 포토존에 정합하여 출력하고, 유저가 카메라의 동영상 촬영 모드를 시작할 시, 영상 컨텐츠 수신 단계(S20)를 통해 이미지 컨텐츠를 하나의 프레임(Frame)으로써 포함하는 동영상 컨텐츠를 수신하고, 영상 컨텐츠 출력 단계(S30)를 통해 수신된 동영상 컨텐츠와 동영상 촬영 모드에서 촬영 중인 사물 영상을 함께 합성하고, 센터 단말에 합성된 영상을 전송하여 포토존에 정합하여 출력하는 기능을 수행할 수 있다.On the other hand, the image content receiving step (S20) receives image content as image content, and the image content output step (S30) transmits the received image content to the center terminal, matches the transmitted image content to the photo zone, and outputs the user. When the camera starts the video recording mode, video content including image content as one frame is received through the video content receiving step (S20), and the video content received through the video content output step (S30). And the object image being photographed in the video recording mode may be synthesized together, and the synthesized image may be transmitted to the center terminal to match and output the image in a photo zone.

도 4를 통해 구체적으로 설명하자면, 도 4의 200에는 본 발명의 일 실시 예에 따라 유저 단말에 수신된 영상 컨텐츠 중 하나의 종류인 이미지 컨텐츠가 선택되어 유저 단말에 제공되는 화면이 도시되어 있다. 영상 컨텐츠는 이미지 컨텐츠로써도 제공될 수 있는 것으로, 200은 영상 컨텐츠 출력 단계를 통해 이미지 컨텐츠가 포토존에 정합하여 출력된 경우에 유저 단말에 제공되는 인터페이스라고 이해할 수 있다. 즉, 201은 포토존에 정합되어 출력된 이미지 컨텐츠를 나타내는 일 영역임을 알 수 있다. 또한, 202의 렌즈 모양의 일 영역을 유저 단말의 입력 수단을 통해 선택함으로써, 유저가 카메라의 동영상 촬영 모드를 시작할 수 있고, 유저 단말은 동영상 촬영이 시작되었다는 정보를 인식할 수 있을 것이다.Specifically, referring to FIG. 4, in 200 of FIG. 4, an image content, which is one type of image content received from a user terminal, is selected and provided to a user terminal according to an embodiment of the present invention. The video content may also be provided as image content, and 200 may be understood as an interface provided to the user terminal when the image content is matched to the photo zone and outputted through the video content output step. That is, it can be seen that 201 is an area indicating image content that is matched to the photo zone and outputted. In addition, by selecting a lenticular region of 202 through an input means of the user terminal, the user can start the video recording mode of the camera, and the user terminal can recognize information that video recording has started.

다음, 도 4의 210에는 상술한 202의 영역을 선택함으로써 동영상 촬영 모드로 전환이 될 시, 이미지 컨텐츠를 포함하는 동영상 컨텐츠가 검색되어 유저 단말에 제공되는 인터페이스의 일 예가 도시되어 있다. 210에는 이미지 컨텐츠를 하나의 프레임으로써 포함하는 동영상 컨텐츠로 "공원"이라는 제목의 동영상 컨텐츠만이 유저 단말에 출력되었으나, 이미지 컨텐츠를 하나의 프레임으로 포함하는 동영상 컨텐츠가 하나 이상일 경우, 상술한 도 3의 110처럼 유저가 다양한 동영상 컨텐츠 중 하나를 선택할 수 있도록 시각적으로 나타내도록 하는 것이 바람직할 것이다. 또한, 이미지 컨텐츠가 동영상 컨텐츠의 중간에 위치한 프레임일 경우, 이미지 컨텐츠를 시작 프레임으로 하여 동영상 컨텐츠의 중간부터 재생할 수 있고, 맨 처음부터 동영상 컨텐츠를 재생하도록 할 수 있을 것이다.Next, 210 of FIG. 4 shows an example of an interface provided to a user terminal by searching for video content including image content when switching to the video capture mode by selecting the region 202 described above. In 210, as video content including image content as one frame, only the video content titled "Park" is output to the user terminal, but when there is more than one video content including image content as one frame, the above-described FIG. 3 It would be desirable to visually indicate that the user can select one of various video contents as shown in 110 of FIG. In addition, when the image content is a frame located in the middle of the video content, the image content can be played from the middle of the video content, and the video content can be played from the beginning.

추가하자면, 상술한 동영상 컨텐츠는 포토존에 정합되어 출력된 이미지 컨텐츠를 맨 처음의 프레임으로 포함하고, 영상 컨텐츠의 화면 크기를 이미지 컨텐츠의 화면 크기에 맞추도록 하는 기능을 수행할 수 있다.In addition, the above-described video content may include image content matched to the photo zone and output as the first frame, and may perform a function of matching the screen size of the image content to the screen size of the image content.

특히 동영상 컨텐츠를 포토존에 정합하여 출력된 이미지 컨텐츠를 맨 처음의 프레임으로 포함할 경우, 이미지에서 동영상으로 전환되며 연속된 프레임이 계속해서 출력이 되므로, 이때 마치 튀어나오는 듯한 효과를 줄 수 있다.In particular, when the video content is matched to the photo zone and the output image content is included as the first frame, the image is converted from the image to the video and continuous frames are continuously output, so that the effect as if it pops out may be provided at this time.

뿐만 아니라, 영상 컨텐츠 출력 단계에서는 포토존에 정합하여 출력 시, 영상 컨텐츠에 부가된 이벤트 효과를 함께 출력하는 기능을 더 수행할 수 있다.In addition, in the video content output step, when matching to a photo zone and outputting, a function of outputting an event effect added to the video content may be further performed.

이벤트 효과를 출력하는 기능을 더 구체적으로 설명하자면, 상술한 영상 컨텐츠 출력 단계는 우선, 유저 단말의 카메라를 통해 사물의 움직임을 감지하는 사물 동작 감지 단계를 수행할 수 있다.To describe the function of outputting an event effect in more detail, the above-described video content output step may first perform an object motion detection step of detecting a motion of an object through a camera of a user terminal.

이어서, 움직임이 감지된 사물의 영상 내 위치 좌표를 산출하는 사물 위치 감지 단계를 수행하는데, 이 경우 실시간으로 위치 좌표를 감지할 수 있는 것으로 이해할 수 있다. Subsequently, the object position detection step of calculating the position coordinates in the image of the object in which the motion is detected is performed. In this case, it can be understood that the position coordinates can be detected in real time.

다음, 상술한 사물 위치 감지 단계에 의하여 산출된 위치 좌표와 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표가 일치되는 경우, 이벤트 발생 위치 좌표에 매칭된 컨텐츠로서, 사물과의 인터렉션 이벤트 컨텐츠를 포함하며 영상 컨텐츠에 포함된 이벤트 컨텐츠를 선택하는 이벤트 선택 단계가 수행될 수 있고, 이처럼 이벤트 컨텐츠를 선택함에 있어 도 3의 100처럼 여러 이벤트 컨텐츠 중 하나를 선택할 수 있는 인터페이스가 별도로 제공될 수 있음이 바람직할 것이다.Next, when the location coordinates calculated by the above-described object location detection step and the event occurrence location coordinates included in the image content match, the content matched with the event occurrence location coordinates, including the interaction event content with the object, and video content It would be desirable that the event selection step of selecting the event content included in may be performed, and in selecting the event content as described above, an interface for selecting one of several event contents as shown in FIG. 3 may be separately provided.

이어, 상술한 이벤트 선택 단계에 의하여 선택된 이벤트 컨텐츠를 포토존에 정합하여 출력하는 이벤트 출력 단계를 수행할 수 있다.Subsequently, an event output step of matching and outputting the event content selected by the above-described event selection step to the photo zone may be performed.

구체적으로 상술한 단계들을 예시를 통하여 설명하자면, 도 5는 포토존에 정합되어 출력 중인 선택된 영상 컨텐츠가 유저 단말의 인터페이스로 제공되고, 유저 단말의 카메라를 통해 사물의 움직임을 감지하는 영상을 촬영 중인 일 예와, 산출된 사물의 위치 좌표와 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표와 비교하여 일치되는 경우, 이벤트 발생 위치 좌표에 매칭된 인터렉션 이벤트 컨텐츠를 포함하여 포토존에 정합하여 출력하는 일 예가 도시되어 있다. 즉, 상술한 사물 동작 감지 단계부터 이벤트 출력 단계까지 수행되는 과정이 도시되어 있다. 즉, 310은 이미 하나의 영상 컨텐츠가 선택되어 포토존에 정합되어 출력 중인 영상을 나타내는 인터페이스의 일 예이고, 320은 동영상 촬영 모드 등을 선택하여 유저 단말의 카메라를 통해 사물의 움직임을 감지하는 영상을 촬영 중인 일 예이다. 320에서 강아지를 사물로써 움직임을 감지하는 사물 동작 감지 단계를 수행하고, 다음으로, 강아지의 위치 좌표를 실시간으로 산출하는 사물 위치 감지 단계를 수행하며, 산출된 위치 좌표와 이미 포토존에 출력 중인 310의 영상 컨텐츠가 더 포함하고 있는 이벤트 컨텐츠의 이벤트 발생 위치 좌표와 비교하여 일치할 경우, 330의 포토존에는 310의 영상 컨텐츠와 320의 강아지 영상을 합성한 영상뿐만 아니라, 강아지 주변에 물이 튀는 듯한 인터렉션 이벤트 컨텐츠를 선택하여 이벤트 컨텐츠를 310과 함께 추가적으로 더 포토존에 출력하도록 하는 이벤트 선택 단계 및 이벤트 출력 단계가 수행되는 것이다. 이러한 인터렉션 효과를 더 포함하게 됨으로써, 촬영 대상인 사물의 영상과 합성하였을 때 더욱 생동감을 줄 수 있는 영상을 제작하여 이질감 없이 하나의 영상을 촬영한 것처럼 표현할 수 있고, 더 사실감 있는 영상을 출력할 수 있는 효과가 있다.Specifically, to explain the above-described steps through an example, FIG. 5 shows that the selected video content matched to the photo zone and being output is provided as an interface of the user terminal, and an image that detects the movement of an object through the camera of the user terminal is being photographed. An example of comparing the calculated location coordinates of an object with the event occurrence location coordinates included in the image content and matching the event occurrence location coordinates, including the interaction event content matched with the event occurrence location coordinates, and matching them to the photozone and outputting them is shown. . That is, a process performed from the above-described object motion detection step to the event output step is illustrated. That is, 310 is an example of an interface showing an image that is already being output by selecting one image content and matching it to the photo zone, and 320 is an image that detects the motion of an object through the camera of the user terminal by selecting a video recording mode, etc. This is an example that is being filmed. At 320, the object motion detection step of detecting the movement of the dog as an object is performed, and then, the object position detection step of calculating the position coordinates of the dog in real time is performed. If the video content matches the coordinates of the event occurrence location of the event content that the video content further includes, the photo zone of 330 not only combines the video content of 310 and the dog image of 320, but also an interaction event like splashing water around the dog. An event selection step and an event output step of selecting content and additionally outputting the event content 310 to the photo zone are performed. By including such an interaction effect, an image that can give more vitality when synthesized with the image of the object to be photographed is produced, so that a single image can be expressed without a sense of heterogeneity, and a more realistic image can be output. It works.

물론, 상술한 인터렉션 이벤트 컨텐츠의 기능을 끄거나 켜는 "On", "Off" 기능을 더 제공하여 유저가 필요하지 않은 경우, 이벤트 컨텐츠를 실행하지 않을 수 있고, 인터렉션 이벤트 컨텐츠가 적용된 경우와 적용되지 않는 경우를 분리하여 별도로 유저 단말에 저장되도록 하는 기능을 추가적으로 제공할 수 있을 것이다.Of course, by further providing "On" and "Off" functions that turn off or on the above-described interaction event content function, if the user does not need it, the event content may not be executed, and the interaction event content may not be applied or applied. It will be possible to additionally provide a function of separating the case of not being stored in the user terminal.

한편, 도 2에서는 식별 코드를 통해 영상 선택이 가능한 합성 장치(10)의 구성도가 도시되어 있으며, 이하의 설명에 있어서 상술한 도 1 및 도 3 내지 5에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.Meanwhile, in FIG. 2, a configuration diagram of a synthesizing apparatus 10 capable of selecting an image through an identification code is shown, and in the following description, unnecessary embodiments overlapping with the descriptions of FIGS. 1 and 3 to 5 described above are shown. The description will be omitted.

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말로 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 장치에 있어서, 도 2에 도시된 바와 같이, 상술한 식별 코드를 통해 영상 선택이 가능한 합성 장치는 바람직하게는, 코드 인식 정보 독출부(11), 영상 컨텐츠 수신부(12), 영상 컨텐츠 출력부(13)로 구성될 수 있다.In a synthesizing apparatus capable of selecting an image through an identification code implemented by a user terminal including at least one processor and at least one memory storing instructions executable by the processor, as shown in FIG. 2, the above-described identification code The synthesizing apparatus capable of selecting an image through a code recognition information reader 11, an image content receiving unit 12, and an image content outputting unit 13 may be preferably used.

이때, 상술한 코드 인식 정보 독출부(11)는, 앞서 언급한 도 1의 S10 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다. In this case, the above-described code recognition information reading unit 11 may be understood to be capable of performing all functions performed by step S10 of FIG. 1 described above.

또한, 영상 컨텐츠 수신부(12)는, 데이터베이스(20)와 송수신이 가능하고,앞서 언급한 도 1의 S20 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.In addition, it may be understood that the video content receiving unit 12 can transmit and receive the database 20 and perform all functions performed by step S20 of FIG. 1 mentioned above.

뿐만 아니라, 영상 컨텐츠 출력부(13)는, 센터 단말(30)에 정보 전송이 가능하고, 앞서 언급한 도 1의 S30 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.In addition, it may be understood that the video content output unit 13 can transmit information to the center terminal 30 and perform all functions performed by step S30 of FIG. 1 mentioned above.

또 다른 한편, 도 2에서는 도시하지 않았으나, 상술한 영상 컨텐츠 출력부(13)에는 사물 동작 감지부, 사물 위치 감지부, 이벤트 선택부 및 이벤트 출력부가 더 포함될 수 있다.On the other hand, although not shown in FIG. 2, the above-described image content output unit 13 may further include an object motion detection unit, an object location detection unit, an event selection unit, and an event output unit.

상술한 사물 동작 감지부는, 사물의 움직임을 감지할 수 있어, 앞서 언급한 사물 동작 감지 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.It can be understood that the above-described object motion detection unit can detect the motion of an object, and thus can perform all functions performed by the aforementioned object motion detection step.

또한, 상술한 사물 위치 감지부는, 움직임이 감지된 사물의 영상 내 위치 좌표를 산출할 수 있어, 앞서 언급한 사물 위치 감지 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.In addition, the above-described object position sensing unit may calculate the position coordinates in the image of the object in which the motion is detected, and thus it may be understood that all functions performed by the aforementioned object position sensing step can be performed.

뿐만 아니라, 상술한 이벤트 선택부는, 사물 위치 감지 단계에 의하여 산출된 위치 좌표와 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표가 일치되는 경우, 이벤트 발생 위치 좌표에 매칭된 컨텐츠로서, 사물과의 인터렉션 이벤트 컨텐츠를 포함하며 영상 컨텐츠에 포함된 이벤트 컨텐츠를 선택할 수 있어, 앞서 언급한 이벤트 선택 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.In addition, when the location coordinate calculated by the object location detection step and the event occurrence location coordinate included in the image content match, the event selection unit described above is the content matched with the event occurrence location coordinate, and the interaction event content with the object. Including and being able to select the event content included in the video content, it can be understood that all the functions performed by the aforementioned event selection step can be performed.

마찬가지로, 상술한 이벤트 출력부는, 이벤트 선택 단계에 의하여 선택된 이벤트 컨텐츠를 포토존에 정합하여 출력할 수 있어, 앞서 언급한 이벤트 출력 단계가 수행하는 모든 기능을 수행 가능한 것으로 이해될 수 있다.Likewise, the event output unit described above may match and output the event content selected by the event selection step to the photo zone, so it may be understood that all functions performed by the event output step described above can be performed.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.As described above, although the embodiments have been described with reference to limited embodiments and drawings, various modifications and variations are possible from the above description to those of ordinary skill in the art.

도 6은 본 발명의 일 실시 예에 따른 컴퓨팅 장치의 내부 구성의 일 예를 도시하였으며, 이하의 설명에 있어서, 상술한 도 1 내지 5에 대한 설명과 중복되는 불필요한 실시 예에 대한 설명은 생략하기로 한다.6 illustrates an example of an internal configuration of a computing device according to an embodiment of the present invention, and in the following description, a description of unnecessary embodiments overlapping with the description of FIGS. 1 to 5 will be omitted. It should be.

도 6에 도시한 바와 같이, 컴퓨팅 장치(10000)는 적어도 하나의 프로세서(processor)(11100), 메모리(memory)(11200), 주변장치 인터페이스(peripheral interface)(11300), 입/출력 서브시스템(I/O subsystem)(11400), 전력 회로(11500) 및 통신 회로(11600)를 적어도 포함할 수 있다. 이때, 컴퓨팅 장치(10000)는 촉각 인터페이스 장치에 연결된 유저 단말이기(A) 혹은 전술한 컴퓨팅 장치(B)에 해당될 수 있다.6, the computing device 10000 includes at least one processor 11100, a memory 11200, a peripheral interface 11300, and an input/output subsystem ( I/O subsystem) 11400, a power circuit 11500 and a communication circuit 11600. In this case, the computing device 10000 may be a user terminal connected to a tactile interface device (A) or may correspond to the aforementioned computing device (B).

메모리(11200)는, 일례로 고속 랜덤 액세스 메모리(high-speed random access memory), 자기 디스크, 에스램(SRAM), 디램(DRAM), 롬(ROM), 플래시 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(11200)는 컴퓨팅 장치(10000)의 동작에 필요한 소프트웨어 모듈, 명령어 집합 또는 그밖에 다양한 데이터를 포함할 수 있다. 이때, 프로세서(11100)나 주변장치 인터페이스(11300) 등의 다른 컴포넌트에서 메모리(11200)에 액세스하는 것은 프로세서(11100)에 의해 제어될 수 있다. 주변장치 인터페이스(11300)는 컴퓨팅 장치(10000)의 입력 및/또는 출력 주변장치를 프로세서(11100) 및 메모리 (11200)에 결합시킬 수 있다. 프로세서(11100)는 메모리(11200)에 저장된 소프트웨어 모듈 또는 명령어 집합을 실행하여 컴퓨팅 장치(10000)을 위한 다양한 기능을 수행하고 데이터를 처리할 수 있다.The memory 11200 may include, for example, high-speed random access memory, magnetic disk, SRAM, DRAM, ROM, flash memory, or nonvolatile memory. have. The memory 11200 may include a software module, an instruction set, or other various data necessary for the operation of the computing device 10000. In this case, access to the memory 11200 from another component such as the processor 11100 or the peripheral device interface 11300 may be controlled by the processor 11100. The peripheral device interface 11300 may couple input and/or output peripheral devices of the computing device 10000 to the processor 11100 and the memory 11200. The processor 11100 may execute various functions for the computing device 10000 and process data by executing a software module or instruction set stored in the memory 11200.

입/출력 서브시스템(11400)은 다양한 입/출력 주변장치들을 주변장치 인터페이스(11300)에 결합시킬 수 있다. 예를 들어, 입/출력 서브시스템(11400)은 모니터나 키보드, 마우스, 프린터 또는 필요에 따라 터치스크린이나 센서 등의 주변장치를 주변장치 인터페이스(11300)에 결합시키기 위한 컨트롤러를 포함할 수 있다. 다른 측면에 따르면, 입/출력 주변장치들은 입/출력 서브시스템(11400)을 거치지 않고 주변장치 인터페이스(11300)에 결합될 수도 있다.The input/output subsystem 11400 may couple various input/output peripherals to the peripherals interface 11300. For example, the input/output subsystem 11400 may include a monitor, a keyboard, a mouse, a printer, or a controller for coupling a peripheral device such as a touch screen or a sensor to the peripheral device interface 11300 as needed. According to another aspect, the input/output peripheral devices may be coupled to the peripheral device interface 11300 without going through the input/output subsystem 11400.

전력 회로(11500)는 단말기의 컴포넌트의 전부 또는 일부로 전력을 공급할 수 있다. 예를 들어 전력 회로(11500)는 전력 관리 시스템, 배터리나 교류(AC) 등과 같은 하나 이상의 전원, 충전 시스템, 전력 실패 감지 회로(power failure detection circuit), 전력 변환기나 인버터, 전력 상태 표시자 또는 전력 생성, 관리, 분배를 위한 임의의 다른 컴포넌트들을 포함할 수 있다.The power circuit 11500 may supply power to all or part of the components of the terminal. For example, the power circuit 11500 may include a power management system, one or more power sources such as batteries or alternating current (AC), a charging system, a power failure detection circuit, a power converter or inverter, a power status indicator or power. It may contain any other components for creation, management, and distribution.

통신 회로(11600)는 적어도 하나의 외부 포트를 이용하여 다른 컴퓨팅 장치와 통신을 가능하게 할 수 있다.The communication circuit 11600 may enable communication with another computing device using at least one external port.

또는 상술한 바와 같이 필요에 따라 통신 회로(11600)는 RF 회로를 포함하여 전자기 신호(electromagnetic signal)라고도 알려진 RF 신호를 송수신함으로써, 다른 컴퓨팅 장치와 통신을 가능하게 할 수도 있다.Alternatively, as described above, if necessary, the communication circuit 11600 may enable communication with other computing devices by transmitting and receiving an RF signal, also known as an electromagnetic signal, including an RF circuit.

이러한 도 6의 실시 예는, 컴퓨팅 장치(10000)의 일례일 뿐이고, 컴퓨팅 장치(11000)은 도 6에 도시된 일부 컴포넌트가 생략되거나, 도 6에 도시되지 않은 추가의 컴포넌트를 더 구비하거나, 2개 이상의 컴포넌트를 결합시키는 구성 또는 배치를 가질 수 있다. 예를 들어, 모바일 환경의 통신 단말을 위한 컴퓨팅 장치는 도 6에 도시된 컴포넌트들 외에도, 터치스크린이나 센서 등을 더 포함할 수도 있으며, 통신 회로(1160)에 다양한 통신방식(WiFi, 3G, LTE, Bluetooth, NFC, Zigbee 등)의 RF 통신을 위한 회로가 포함될 수도 있다. 컴퓨팅 장치(10000)에 포함 가능한 컴포넌트들은 하나 이상의 신호 처리 또는 어플리케이션에 특화된 집적 회로를 포함하는 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 양자의 조합으로 구현될 수 있다.The embodiment of FIG. 6 is only an example of the computing device 10000, and the computing device 11000 omits some of the components shown in FIG. 6, further includes additional components not shown in FIG. 6, or 2 It can have a configuration or arrangement that combines two or more components. For example, a computing device for a communication terminal in a mobile environment may further include a touch screen or a sensor in addition to the components shown in FIG. 6, and various communication methods (WiFi, 3G, LTE , Bluetooth, NFC, Zigbee, etc.) may include a circuit for RF communication. Components that may be included in the computing device 10000 may be implemented in hardware, software, or a combination of both hardware and software, including one or more signal processing or application-specific integrated circuits.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨팅 장치를 통하여 수행될 수 있는 프로그램 명령(instruction) 형태로 구현되어 컴퓨터 판독 가능 기록매체에 기록될 수 있다. 특히, 본 실시 예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션으로 구성될 수 있다. 본 발명이 적용되는 애플리케이션은 파일 배포 시스템이 제공하는 파일을 통해 이용자 단말에 설치될 수 있다. 일 예로, 파일 배포 시스템은 이용자 단말이기의 요청에 따라 상기 파일을 전송하는 파일 전송부(미도시)를 포함할 수 있다.Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computing devices and recorded on a computer-readable recording medium. In particular, the program according to the present embodiment may be configured as a PC-based program or an application dedicated to a mobile terminal. An application to which the present invention is applied may be installed on a user terminal through a file provided by the file distribution system. As an example, the file distribution system may include a file transmission unit (not shown) that transmits the file according to the request of the user terminal.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시 예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술 분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), It may be implemented using one or more general purpose computers or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로 (collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨팅 장치상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired, or processing it independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. It can be permanently or temporarily embody. The software may be distributed over networked computing devices and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 기록매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시 예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시 예들이 비록 한정된 실시 예와 도면에 의해 설명되었으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with reference to limited embodiments and drawings, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved. Therefore, other implementations, other embodiments, and those equivalent to the claims also fall within the scope of the claims to be described later.

Claims (9)

하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말에서 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 방법에 있어서,
유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출 단계;
독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신 단계; 및
수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력 단계;를 포함하는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
A synthesis method in which an image can be selected through an identification code implemented in a user terminal including at least one processor and at least one memory storing instructions executable by the processor,
A code recognition information reading step of reading code recognition information from the identification code when the user is located in a specific area of the photo zone of the dog center and recognizes the identification code arranged in the photo zone through the user terminal;
An image content receiving step of transmitting the read code recognition information to a database of a center terminal and receiving image content corresponding to the code recognition information from the database; And
The received image content and the object image photographed by the camera mounted on the user terminal are synthesized by the object located in front of the area where the photo zone is installed, and the synthesized image is transmitted to the center terminal, and the synthesized image is transmitted to the center terminal. And an image content output step of matching and outputting the photozone through an output unit.
제1항에 있어서,
상기 식별 코드는,
바코드 또는 2차원 코드를 포함하여 상기 유저 단말을 통해 상기 코드 인식 정보를 독출 가능한 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 1,
The identification code,
A synthesis method capable of selecting an image through an identification code, characterized in that the code recognition information can be read through the user terminal including a barcode or a two-dimensional code.
제1항에 있어서,
상기 코드 인식 정보는,
적어도 하나 이상의 상기 영상 컨텐츠가 대응되어 유저가 하나의 영상 컨텐츠를 선택 가능한 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 1,
The code recognition information,
A synthesis method capable of selecting an image through an identification code, characterized in that at least one or more of the image contents are correlated so that a user can select one image content.
제1항에 있어서,
상기 영상 컨텐츠 수신 단계는,
상기 영상 컨텐츠로서 이미지 컨텐츠를 수신하고,
상기 영상 컨텐츠 출력 단계는,
수신된 상기 이미지 컨텐츠를 상기 센터 단말에 전송하여 전송된 상기 이미지 컨텐츠를 상기 포토존에 정합하여 출력하고,
유저가 카메라의 동영상 촬영 모드를 시작할 시, 상기 영상 컨텐츠 수신 단계를 통해 상기 이미지 컨텐츠를 하나의 프레임(Frame)으로써 포함하는 동영상 컨텐츠를 수신하고, 상기 영상 컨텐츠 출력 단계를 통해 수신된 상기 동영상 컨텐츠와 상기 동영상 촬영 모드에서 촬영 중인 상기 사물 영상을 함께 합성하고, 상기 센터 단말에 합성된 영상을 전송하여 상기 포토존에 정합하여 출력하는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 1,
The receiving of the video content comprises:
Receiving image content as the video content,
The video content output step,
The received image content is transmitted to the center terminal, and the transmitted image content is matched to the photo zone and output,
When the user starts the video shooting mode of the camera, the video content receiving step receives the video content including the image content as one frame, and the video content received through the video content output step Synthesis method capable of selecting an image through an identification code, characterized in that the object image being photographed in the moving picture photographing mode is synthesized together, and the synthesized image is transmitted to the center terminal, and the synthesized image is matched to the photo zone and output.
제4항에 있어서,
상기 동영상 컨텐츠는,
상기 포토존에 정합되어 출력된 상기 이미지 컨텐츠를 맨 처음의 프레임으로 포함하고, 상기 영상 컨텐츠의 화면 크기를 상기 이미지 컨텐츠의 화면 크기에 맞추는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 4,
The video content,
A synthesis method capable of selecting an image through an identification code, characterized in that the image content matched to the photo zone and outputted is included as an initial frame, and the screen size of the image content is matched to the screen size of the image content.
제4항에 있어서,
상기 영상 컨텐츠 출력 단계는,
상기 포토존에 정합하여 출력 시, 상기 영상 컨텐츠에 부가된 이벤트 효과를 함께 출력하는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 4,
The video content output step,
When matching to the photo zone and outputting, an event effect added to the video content is output together.
제6항에 있어서,
상기 영상 컨텐츠 출력 단계는,
상기 사물의 움직임을 감지하는 사물 동작 감지 단계;
움직임이 감지된 상기 사물의 영상 내 위치 좌표를 산출하는 사물 위치 감지 단계;
상기 사물 위치 감지 단계에 의하여 산출된 상기 위치 좌표와 상기 영상 컨텐츠에 포함된 이벤트 발생 위치 좌표가 일치되는 경우, 상기 이벤트 발생 위치 좌표에 매칭된 컨텐츠로서, 상기 사물과의 인터렉션 이벤트 컨텐츠를 포함하며 상기 영상 컨텐츠에 포함된 상기 이벤트 컨텐츠를 선택하는 이벤트 선택 단계; 및
상기 이벤트 선택 단계에 의하여 선택된 상기 이벤트 컨텐츠를 상기 포토존에 정합하여 출력하는 이벤트 출력 단계;를 포함하는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 방법.
The method of claim 6,
The video content output step,
Object motion detection step of detecting the motion of the object;
An object position sensing step of calculating position coordinates in the image of the object in which motion is detected;
When the location coordinates calculated by the object location detection step and the event occurrence location coordinates included in the image content match, the content matched with the event occurrence location coordinates, including the interaction event content with the object, and the An event selection step of selecting the event content included in the video content; And
And an event output step of matching and outputting the event content selected by the event selection step to the photo zone.
하나 이상의 프로세서 및 상기 프로세서에서 수행 가능한 명령들을 저장하는 하나 이상의 메모리를 포함하는 유저 단말로 구현되는 식별 코드를 통해 영상 선택이 가능한 합성 장치에 있어서,
유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출부;
독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신부; 및
수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력부;를 포함하는 것을 특징으로 하는 식별 코드를 통해 영상 선택이 가능한 합성 장치.
A synthesizing apparatus capable of selecting an image through an identification code implemented by a user terminal including at least one processor and at least one memory storing instructions executable by the processor,
A code recognition information reading unit for reading code recognition information from the identification code when the user is located in a specific area of the photo zone of the dog center and recognizes the identification code disposed in the photo zone through the user terminal;
An image content receiver configured to transmit the read code recognition information to a database of a center terminal and receive image content corresponding to the code recognition information from the database; And
The received image content and the object image photographed by the camera mounted on the user terminal are synthesized by the object located in front of the area where the photo zone is installed, and the synthesized image is transmitted to the center terminal, and the synthesized image is transmitted to the center terminal. And an image content output unit that matches and outputs the photo zone through an output unit.
컴퓨터-판독가능 기록 매체로서,
상기 컴퓨터-판독가능 기록 매체는, 컴퓨팅 장치로 하여금 이하의 단계들을 수행하도록 하는 명령들을 저장하며, 상기 단계들은:
유저가 애견 센터의 포토존의 특정 영역에 위치하여 유저 단말을 통해 상기 포토존의 일 영역에 배치된 식별 코드를 인식 시, 상기 식별 코드로부터 코드 인식 정보를 독출하는 코드 인식 정보 독출 단계;
독출된 상기 코드 인식 정보를 센터 단말의 데이터베이스에 전송하고 데이터베이스로부터 상기 코드 인식 정보에 대응되는 영상 컨텐츠를 수신하는 영상 컨텐츠 수신 단계; 및
수신된 상기 영상 컨텐츠와 상기 포토존이 설치된 영역 앞에 위치한 사물을 상기 유저 단말에 장착된 카메라로 촬영한 사물 영상을 합성하여 상기 센터 단말에 합성된 영상을 전송하고, 상기 합성된 영상을 상기 센터 단말의 출력 수단을 통해 상기 포토존에 정합하여 출력하는 영상 컨텐츠 출력 단계;를 포함하는 것을 특징으로 하는 컴퓨터-판독가능 기록 매체.
As a computer-readable recording medium,
The computer-readable recording medium stores instructions that cause a computing device to perform the following steps, the steps:
A code recognition information reading step of reading code recognition information from the identification code when the user is located in a specific area of the photo zone of the dog center and recognizes the identification code arranged in the photo zone through the user terminal;
An image content receiving step of transmitting the read code recognition information to a database of a center terminal and receiving image content corresponding to the code recognition information from the database; And
The received image content and the object image photographed by the camera mounted on the user terminal are synthesized by the object located in front of the area where the photo zone is installed, and the synthesized image is transmitted to the center terminal, and the synthesized image is transmitted to the center terminal. And an image content output step of matching and outputting the photo zone through an output means.
KR1020190110518A 2019-09-06 2019-09-06 Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code KR102246754B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190110518A KR102246754B1 (en) 2019-09-06 2019-09-06 Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190110518A KR102246754B1 (en) 2019-09-06 2019-09-06 Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code

Publications (2)

Publication Number Publication Date
KR20210029380A true KR20210029380A (en) 2021-03-16
KR102246754B1 KR102246754B1 (en) 2021-04-29

Family

ID=75224100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190110518A KR102246754B1 (en) 2019-09-06 2019-09-06 Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code

Country Status (1)

Country Link
KR (1) KR102246754B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008042700A (en) * 2006-08-09 2008-02-21 System Pro:Kk Print system
KR20120129293A (en) * 2011-05-19 2012-11-28 주식회사 뉴이레디자인 A method and a system for generating interactive contents based on augmented reality
JP2017011461A (en) * 2015-06-22 2017-01-12 株式会社アイ・エム・エス Image providing system and program for portable terminal to be used for the same system
JP3212469U (en) * 2017-06-20 2017-09-14 綿半ソリューションズ株式会社 Vehicle shooting system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3212469B2 (en) * 1995-02-01 2001-09-25 三菱重工業株式会社 High temperature oxidation resistant surface treatment method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008042700A (en) * 2006-08-09 2008-02-21 System Pro:Kk Print system
KR20120129293A (en) * 2011-05-19 2012-11-28 주식회사 뉴이레디자인 A method and a system for generating interactive contents based on augmented reality
JP2017011461A (en) * 2015-06-22 2017-01-12 株式会社アイ・エム・エス Image providing system and program for portable terminal to be used for the same system
JP3212469U (en) * 2017-06-20 2017-09-14 綿半ソリューションズ株式会社 Vehicle shooting system

Also Published As

Publication number Publication date
KR102246754B1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
US9959681B2 (en) Augmented reality contents generation and play system and method using the same
US8766766B2 (en) Information processing apparatus, information processing system, information processing method, and program
CN112954210B (en) Photographing method and device, electronic equipment and medium
US11736792B2 (en) Electronic device including plurality of cameras, and operation method therefor
US11734931B2 (en) Information processing apparatus, information processing method, and storage medium
CN109691080B (en) Image shooting method and device and terminal
WO2016192325A1 (en) Method and device for processing logo on video file
AU2013273829A1 (en) Time constrained augmented reality
CN104427252A (en) Method for synthesizing images and electronic device thereof
CN102196176A (en) Information processing apparatus, information processing method, and program
US11574415B2 (en) Method and apparatus for determining an icon position
CN112437232A (en) Shooting method, shooting device, electronic equipment and readable storage medium
US10216381B2 (en) Image capture
US8244005B2 (en) Electronic apparatus and image display method
US8866953B2 (en) Mobile device and method for controlling the same
CN113794831B (en) Video shooting method, device, electronic equipment and medium
KR102668233B1 (en) Electronic device for obtaining images by controlling frame rate for external object moving through point ofinterest and operating method thereof
CN113194256B (en) Shooting method, shooting device, electronic equipment and storage medium
US11126276B2 (en) Method, device and equipment for launching an application
WO2018129955A1 (en) Electronic device control method and electronic device
KR102246754B1 (en) Method, apparatus and computer-readable recording medium for synthesis with selectable images through identification code
KR101518696B1 (en) System for augmented reality contents and method of the same
US20180091733A1 (en) Capturing images provided by users
US10069984B2 (en) Mobile device and method for controlling the same
KR101414362B1 (en) Method and apparatus for space bezel interface using image recognition

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant