KR102396639B1 - Method for playing images using photo card - Google Patents

Method for playing images using photo card Download PDF

Info

Publication number
KR102396639B1
KR102396639B1 KR1020210019252A KR20210019252A KR102396639B1 KR 102396639 B1 KR102396639 B1 KR 102396639B1 KR 1020210019252 A KR1020210019252 A KR 1020210019252A KR 20210019252 A KR20210019252 A KR 20210019252A KR 102396639 B1 KR102396639 B1 KR 102396639B1
Authority
KR
South Korea
Prior art keywords
image
communication terminal
photo
pieces
information
Prior art date
Application number
KR1020210019252A
Other languages
Korean (ko)
Inventor
박덕선
Original Assignee
주식회사 아라니아
박덕선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아라니아, 박덕선 filed Critical 주식회사 아라니아
Priority to KR1020210019252A priority Critical patent/KR102396639B1/en
Application granted granted Critical
Publication of KR102396639B1 publication Critical patent/KR102396639B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • H04N5/23212

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Disclosed is an image display system capable of displaying an image related to a photo image in augmented reality (AR) when a communication terminal is brought to a photo enhancement card after two photo cards are arranged side by side. According to the present invention, the image display system comprises: a communication terminal capturing two photo images from two photo cards while moving on the surfaces of two photo cards placed side by side at regular intervals to generate information about each of the captured images; and a management server searching for a plurality of pieces of content information matching first feature point information by using first feature point information extracted from each of captured image information and transmitting the plurality of searched content information to the communication terminal.

Description

포토 카드를 이용한 영상 재생 방법{Method for playing images using photo card}{Method for playing images using photo card}

본 발명은 영상 재생 기술에 관한 것으로서, 더 상세하게는 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드에 갖다 대면 포토 이미지와 관련된 영상이 하나의 화면에서 증강 현실로 디스플레이되는 영상 재생 시스템 및 방법에 대한 것이다.The present invention relates to an image reproduction technology, and more particularly, an image in which an image related to a photo image is displayed in augmented reality on a single screen when a communication terminal is brought to the photo augmentation card after arranging two photo cards side by side It relates to a regeneration system and method.

통신 단말기의 기능은 다양화되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다. Functions of communication terminals are diversifying. For example, there are functions for data and voice communication, photo and video shooting through a camera, voice recording, music file playback through a speaker system, and output of images or videos to the display unit.

일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히 최근의 통신 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다.Some terminals add an electronic game play function or perform a multimedia player function. In particular, recent communication terminals can receive multicast signals that provide visual content such as broadcast and video or television programs.

이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.As such terminals are diversified in functions, for example, in the form of a multimedia device (Multimedia player) equipped with complex functions such as taking pictures or videos, playing music or video files, playing games, and receiving broadcasts. is being implemented.

이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다. 이러한 예로서는 증강현실(Augmented Reality : AR) 기술등을 들 수 있다.In order to support and increase the function of the terminal, it may be considered to improve the structural part and/or the software part of the terminal. An example of this is augmented reality (AR) technology.

증강현실은 사용자가 눈으로 보는 실제 환경에 가상 사물을 합성하여 보여주는 그래픽 기법으로, 기본적으로 현실세계를 바탕으로 그 위에 가상정보를 입히는 기술이다.Augmented reality is a graphic technique that shows virtual objects by synthesizing the real environment that the user sees with their eyes.

따라서, 상기 증강현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 상기 증강현실을 응용하려는 연구가 이어져 오고 있다. 최근에는 스마트 폰의 개발로 인하여 증강현실을 이용한 다양한 어플리케이션이 개발되고 있으며, 통신 단말기, PDA(Personal digital Assistants), UMPS(Ultra Mobile Personal Computer)등 모바일 기기의 컴퓨팅 능력 향상과 무선 네트워크장치의 발달로 손안(Handheld)의 증강현실 시스템이 가능하게 되었다.Therefore, since the research on the augmented reality technology started, research to apply the augmented reality in various fields has continued. Recently, due to the development of smart phones, various applications using augmented reality have been developed, and with the improvement of computing power of mobile devices such as communication terminals, PDA (Personal Digital Assistants), UMPS (Ultra Mobile Personal Computer) and the development of wireless network devices, Augmented reality systems in the hand have become possible.

이러한 증강현실을 이용한 응용의 예로는 위치정보를 이용하여 사용자에게 주변 지역(위치)의 건물 정보등을 제공하는 서비스가 있다. 또한, 마커(marker)나 QR 코드등을 활용해 검색, 모바일, 쇼핑, 광고 및 사물도감 등을 제공하는 영상검색 및 위치정보 서비스등과 같은 서비스가 있다.An example of an application using such augmented reality is a service that provides information about buildings in a surrounding area (location) to a user using location information. In addition, there are services such as image search and location information service that provide search, mobile, shopping, advertisement, and object book by using markers or QR codes.

그런데, 종래의 증강현실은 기설정된 마커나 객체에 대한 증강현실만 가능할 뿐 복잡한 패턴, 제스처 및 음성을 복합적으로 사용하여 증강현실을 구현하지는 못하였다.However, in the conventional augmented reality, only augmented reality for preset markers or objects is possible, but augmented reality cannot be realized by using complex patterns, gestures, and voices in combination.

또한, 이미 통신 단말기에 저장된 영상만을 재생하는 정도에 머무르는 수준이여서 통신 단말기의 움직임을 반영하지 못하고 있다는 문제점이 있다.In addition, there is a problem that the movement of the communication terminal is not reflected because it is at a level that only reproduces images already stored in the communication terminal.

또한, 2개의 영상이 재생되더라도 동일한 크기로 재생됨에 따라 영상속의 이미지를 구별하는 것이 어렵다는 단점이 있다. 예를 들어, 다수의 사람이 있는 영상과 소수 또는 한명의 사람이 있는 영상이 동일한 크기로 재생됨에 따라 다수의 사람이 있는 영상에서 여러 사람들을 구별하는 것이 어려워진다.In addition, even if two images are reproduced, there is a disadvantage in that it is difficult to distinguish the images in the images as they are reproduced in the same size. For example, as an image with a large number of people and an image with a few or one person are reproduced at the same size, it becomes difficult to distinguish between several people in an image with a large number of people.

1. 한국등록특허번호 제10-2028139호(등록일자: 2019년09월26일)1. Korean Patent No. 10-2028139 (Registration Date: September 26, 2019)

본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드에 갖다 대면 포토 이미지와 관련된 영상이 증강 현실로 디스플레이가 가능한 영상 재생 시스템 및 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the problem according to the above background art, and after arranging two photo cards side by side, when the communication terminal is brought to the photo augmentation card, the image related to the photo image can be displayed in augmented reality. It is an object to provide a regeneration system and method.

또한, 본 발명은 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드의 위쪽에서 수평 방향으로 이동시키면 포토 이미지와 관련된 영상의 동작 시점이 싱크되어 증강 현실로 디스플레이되는 포토 카드를 이용한 영상의 동작 시점을 싱크하는 영상 재생 시스템 및 방법을 제공하는데 다른 목적이 있다.In addition, in the present invention, after arranging two photo cards side by side, when the communication terminal is moved horizontally from the top of the photo augmentation card, the operation time of the image related to the photo image is synchronized using the photo card displayed in augmented reality. Another object of the present invention is to provide an image reproducing system and method for synchronizing an operation time of an image.

또한, 본 발명은 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드의 위쪽에서 수평 방향으로 이동시키면 포토 이미지와 관련된 영상의 동작 시점이 싱크되어 증강 현실로 디스플레이되는 포토 카드를 이용한 영상의 동작 시점을 싱크하는 영상 재생 시스템 및 방법을 제공하는데 또 다른 목적이 있다.In addition, in the present invention, after arranging two photo cards side by side, when the communication terminal is moved horizontally from the top of the photo augmentation card, the operation time of the image related to the photo image is synchronized using the photo card displayed in augmented reality. Another object of the present invention is to provide an image reproducing system and method for synchronizing an operation time of an image.

또한, 본 발명은 통신 단말기의 움직임을 반영하여 포토 이미지와 관련된 영상이 증강 현실로 디스플레이가 될 수 있는 영상 재생 시스템 및 방법을 제공하는데 또 다른 목적이 있다.Another object of the present invention is to provide an image reproducing system and method in which an image related to a photo image can be displayed in augmented reality by reflecting the movement of a communication terminal.

본 발명은 위에서 제시된 과제를 달성하기 위해, 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드에 갖다 대면 포토 이미지와 관련된 영상이 증강 현실로 디스플레이가 가능한 영상 재생 방법을 제공한다.The present invention provides an image reproduction method in which an image related to a photo image can be displayed in augmented reality by arranging two photo cards side by side and then bringing the communication terminal to the photo augmentation card in order to achieve the above object.

상기 영상 재생 방법은, The video playback method is

(a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 이동함에 따라 2개의 상기 포토 카드로부터 2개의 포토 이미지를 촬영하여 각각의 촬영 이미지 정보를 생성하는 단계;(a) generating respective photographed image information by photographing two photo images from the two photo cards as the communication terminal moves on the surfaces of two photo cards placed side by side at a predetermined interval;

(b) 관리 서버가 각각의 상기 촬영 이미지 정보로부터 추출되는 제 1 특징점 정보를 이용하여 상기 제 1 특징점 정보와 매칭되는 다수개의 컨텐츠 정보를 검색하는 단계;(b) searching, by the management server, a plurality of pieces of content information matching the first feature point information using first feature point information extracted from each of the photographed image information;

(c) 상기 관리 서버가 검색된 다수개의 상기 컨텐츠 정보를 상기 통신 단말기에 전송하는 단계; (c) transmitting, by the management server, a plurality of pieces of searched content information to the communication terminal;

(d) 상기 통신 단말기가 다수개의 상기 컨텐츠 정보를 디스플레이 화면상에 병렬 표시하는 단계; 및(d) displaying, by the communication terminal, a plurality of pieces of content information in parallel on a display screen; and

(e) 상기 통신 단말기가 자체구비된 자이로센서를 이용하여 상기 통신 단말기의 90°회전을 인식함에 따라 다수개의 상기 컨텐츠 정보를 상기 디스플레이 화면상에 상하 표시하는 단계;를 포함하는 것을 특징으로 한다.and (e) displaying, by the communication terminal, a plurality of contents information vertically on the display screen as the communication terminal recognizes the rotation of the communication terminal by 90° using a gyro sensor provided therein.

이때, 상기 상하 표시중 가로폭은 상기 병렬 표시때 상기 디스플레이 화면(300)의 세로폭의 일정 비율로 변경되고, 상기 상하 표시중 세로폭은 미리 설정되는 화면비율에 맞게 변경되는 것을 특징으로 할 수 있다.At this time, the horizontal width during the vertical display is changed to a certain ratio of the vertical width of the display screen 300 during the parallel display, and the vertical width during the vertical display is changed according to a preset aspect ratio. there is.

다른 한편으로, 본 발명의 다른 일실시예는, (a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 수평 이동함에 따라 제 1 이동 시간후 2개의 상기 포토 카드중 먼저 감지되는 2개의 포토 이미지 중 하나를 촬영하여 제 1 촬영 이미지 정보를 생성하는 단계; (b) 상기 제 1 촬영 이미지 정보로부터 추출되는 제 1 특징점 정보를 이용하여 상기 제 1 특징점 정보와 매칭되는 2개의 컨텐츠 정보 중 하나를 검색하는 단계; (c) 상기 관리 서버가 검색된 2개의 상기 컨텐츠 정보 중 하나를 상기 통신 단말기에 전송하는 단계; (d) 상기 통신 단말기가 2개의 상기 컨텐츠 정보 중 하나를 디스플레이 화면의 반에 미리 설정되는 지연시간후 출력을 준비하는 단계; (e) 상기 통신 단말기의 제 2 이동 시간후 2개의 상기 포토 카드 중 나머지의 감지여부에 따라 2개의 상기 포토 카드 중 나머지를 촬영하여 생성되는 제 2 촬영 이미지로부터 추출되는 제 2 특징점 정보와 매칭되는 2개의 상기 컨텐츠 정보 중 나머지를 미리 설정되는 일정시간후 상기 디스플레이 화면의 나머지 반에 출력하여 2개의 상기 컨텐츠 정보를 동시 재생하는 단계;를 포함하는 것을 특징으로 하는 포토 카드를 이용한 영상 재생 방법을 제공할 수 있다.On the other hand, in another embodiment of the present invention, (a) the communication terminal detects the first of the two photo cards after the first movement time as it horizontally moves on the surface of two photo cards placed side by side at regular intervals generating first photographed image information by photographing one of the two photo images; (b) searching for one of two pieces of content information matching the first feature point information using first feature point information extracted from the first captured image information; (c) transmitting, by the management server, one of the found two pieces of content information to the communication terminal; (d) preparing, by the communication terminal, to output one of the two pieces of content information after a preset delay time in half of the display screen; (e) after the second movement time of the communication terminal, the second characteristic point information extracted from the second photographed image generated by photographing the remainder of the two photo cards according to whether the remaining two and outputting the remaining two pieces of the content information to the other half of the display screen after a predetermined time period to simultaneously reproduce the two pieces of content information. can do.

또 다른 한편으로, 본 발명의 또 다른 일실시예는, (a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 이동함에 따라 2개의 상기 포토 카드에 각각 배치되는 2개의 포토 이미지를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계; (b) 관리 서버가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 2개의 컨텐츠 정보를 검색하는 단계; (c) 상기 관리 서버가 검색된 2개의 컨텐츠 정보를 상기 통신 단말기에 전송하는 단계; 및 (d) 상기 통신 단말기가 2개의 상기 컨텐츠 정보에 각각 표시되는 제 1 특정 인물의 제 1 얼굴 크기와 제 2 특정 인물의 제 2 얼굴 크기를 서로 비교하여, 상기 비교 결과에 따라 2개의 상기 컨텐츠 정보 중 어느 하나 또는 둘 다를 확대하여 디스플레이 화면상에 출력하는 단계;를 포함하는 것을 특징으로 하는 포토 카드를 이용한 영상 재생 방법을 제공할 수 있다.On the other hand, another embodiment of the present invention, (a) as the communication terminal moves on the surface of the two photo cards placed side by side at regular intervals, the two photo cards respectively arranged on the two photo cards generating two pieces of photographed image information corresponding to each by photographing an image; (b) searching, by the management server, two pieces of content information matching each of the two pieces of feature point information using two pieces of feature point information extracted from each of the two pieces of captured image information; (c) transmitting, by the management server, two pieces of searched content information to the communication terminal; and (d) the communication terminal compares the first face size of the first specific person and the second face size of the second specific person respectively displayed in the two pieces of the content information with each other, and according to the comparison result, two pieces of the contents It is possible to provide an image reproducing method using a photo card, comprising: enlarging any one or both of the information and outputting it on a display screen.

이때, 상기 (d) 단계는, (d-1) 상기 통신 단말기가 2개의 상기 컨텐츠 정보를 상기 디스플레이 화면상에 분할 화면으로 표시하는 단계; (d-2) 상기 통신 단말기는 상기 제 1 특정 인물 및 상기 제 2 특정 인물이 각각 상기 분할 화면상 상기 분할 화면의 정중앙선으로부터 좌우로 일정 폭을 갖는 특정 위치내에 있는지를 판단하는 단계; (d-3) 상기 판단 결과에 따라, 상기 통신 단말기는 상기 제 1 특정 인물에 대한 제 1 포커싱 영역 및 상기 제 2 특정 객체에 대한 제 2 포커싱 영역을 통해 각각 상기 제 1 얼굴 크기 및 상기 제 2 얼굴 크기를 생성하는 단계; (d-4) 상기 통신 단말기가 상기 제 1 얼굴 크기와 상기 제 2 얼굴 크기를 비교하는 단계; 및 (d-5) 상기 통신 단말기가 상기 비교 결과에 따라 2개의 상기 컨텐츠 정보 중 어느 하나를 확대하여 상기 디스플레이 화면상에 출력하는 단계;를 포함하는 것을 특징으로 할 수 있다.In this case, the step (d) includes: (d-1) displaying, by the communication terminal, two pieces of the content information on the display screen in a split screen; (d-2) determining, by the communication terminal, whether the first specific person and the second specific person are in specific positions having a predetermined width left and right from the center line of the divided screen on the divided screen, respectively; (d-3) according to the determination result, the communication terminal uses the first face size and the second focus area for the first specific person and the second focusing area for the second specific object, respectively generating a face size; (d-4) comparing, by the communication terminal, the first face size and the second face size; and (d-5) outputting, by the communication terminal, on the display screen by enlarging any one of the two pieces of content information according to the comparison result.

본 발명에 따르면, 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드에 갖다 대면 포토 이미지와 관련된 영상이 한 화면에 증강 현실로 디스플레이된다.According to the present invention, after arranging two photo cards side by side, when the communication terminal is brought to the photo augmentation card, an image related to the photo image is displayed in augmented reality on one screen.

또한, 본 발명의 다른 효과로서는 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드의 위쪽에서 수평 방향으로 이동시키면 포토 이미지와 관련된 영상의 동작 시점이 싱크되어 증강 현실로 디스플레이된다는 점을 들 수 있다.In addition, as another effect of the present invention, after arranging two photo cards side by side, if the communication terminal is moved horizontally from the top of the photo augmentation card, the operation time of the image related to the photo image is synchronized and displayed in augmented reality. can be heard

또한, 본 발명의 또 다른 효과로서는 통신 단말기의 움직임을 반영하여 포토 이미지와 관련된 영상이 증강 현실로 디스플레이가 가능하다는 점을 들 수 있다.In addition, as another effect of the present invention, it is possible to display the image related to the photo image in augmented reality by reflecting the movement of the communication terminal.

또한, 본 발명의 또 다른 효과로서는 2개의 포토 카드를 나란히 배열시킨후, 통신 단말기를 이 포토 증강 카드의 표면 위쪽에서 이동시키면 포토 이지미와 관련된 영상속 객체 크기를 포커싱으로 확대하여 통신 단말기에 증강 현실로 디스플레이된다는 점을 들 수 있다.In addition, as another effect of the present invention, after arranging two photo cards side by side, if the communication terminal is moved above the surface of the photo augmentation card, the size of the object in the video related to the photo image is enlarged by focusing, and augmented reality is displayed on the communication terminal. It can be said that it is displayed as

또한, 본 발명의 또 다른 효과로서는 2개의 영상속 객체 크기를 서로 비교하여 객체 크기가 작은 영상을 객체 크기가 큰 영상에 비례확대하여 영상이 증강 현실로 디스플레이될 수 있다는 점을 들 수 있다.In addition, as another effect of the present invention, the image can be displayed in augmented reality by comparing the sizes of objects in two images to proportionally enlarge an image having a small object size to an image having a large object size.

도 1은 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템의 구성 블럭도이다.
도 2는 도 1에 도시된 통신 단말기의 구성 블럭도이다.
도 3은 본 발명의 일실시예에 따른 가로 화면의 예시이다.
도 4는 도 3의 가로 화면에서 통신 단말기가 회전함에 따라 이를 반영한 세로 화면의 예시이다.
도 5는 본 발명의 일실시예에 따른 포토 이미지로부터 특징점을 추출하는 과정을 보여주는 흐름도이다.
도 6은 도 1에 도시된 관리 서버에서 포토 이미지로부터 추출되는 특징점과 컨텐츠 정보를 맵핑하는 데이터베이스의 구조를 보여주는 개념도이다.
도 7은 본 발명의 일실시예에 따른 백그라운드에 재생 영상을 배치하여 생성하는 과정을 보여주는 흐름도이다.
도 8은 본 발명의 다른 일실시예에 따른 통신 단말기가 수평 방향으로 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다.
도 9는 도 8에 도시된 순서이후, 2개의 컨텐츠를 순차적으로 화면에 표시하는 과정을 보여주는 흐름도이다.
도 10은 본 발명의 다른 일실시예에 따른 통신 단말기가 좌에서 우로 이동시 화면의 예시이다.
도 11은 본 발명의 다른 일실시예에 따른 통신 단말기가 우에서 좌로 이동시 화면의 예시이다.
도 12는 본 발명의 또 다른 일실시예에 따른 통신 단말기가 수평 방향으로 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다.
도 13은 도 12에 도시된 순서이후, 2개의 컨텐츠에서 객체 크기를 비교하여 영상의 크기를 조절하여 디스플레이하는 과정을 보여주는 흐름도이다.
도 14는 본 발명의 또 다른 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 디스플레이된 상태에서 2개의 영상속 객체 크기를 포커싱하는 개념을 보여주는 화면의 예시이다.
도 15는 도 14에 도시된 포커싱이후 객체 크기가 상대적으로 작은 재생영상을 확대하여 디스플레이하는 화면의 예시이다.
1 is a block diagram of an image reproducing system using a photo card according to an embodiment of the present invention.
FIG. 2 is a block diagram of the communication terminal shown in FIG. 1 .
3 is an example of a horizontal screen according to an embodiment of the present invention.
4 is an example of a vertical screen reflecting the rotation of the communication terminal on the horizontal screen of FIG. 3 .
5 is a flowchart illustrating a process of extracting feature points from a photo image according to an embodiment of the present invention.
FIG. 6 is a conceptual diagram illustrating a structure of a database in which feature points extracted from a photo image and content information are mapped in the management server shown in FIG. 1 .
7 is a flowchart illustrating a process of generating a playback image by arranging it in a background according to an embodiment of the present invention.
8 is a flowchart illustrating a process of sensing a photo image of a photo card and receiving matching content as the communication terminal moves in the horizontal direction according to another embodiment of the present invention.
9 is a flowchart illustrating a process of sequentially displaying two contents on a screen after the sequence shown in FIG. 8 .
10 is an example of a screen when a communication terminal moves from left to right according to another embodiment of the present invention.
11 is an example of a screen when a communication terminal moves from right to left according to another embodiment of the present invention.
12 is a flowchart illustrating a process of sensing a photo image of a photo card and receiving matching content as the communication terminal moves in the horizontal direction according to another embodiment of the present invention.
13 is a flowchart illustrating a process of adjusting and displaying the size of an image by comparing object sizes in two pieces of content after the sequence shown in FIG. 12 .
14 is an example of a screen illustrating the concept of focusing the size of an object in two images while a reproduced image of the same size is displayed after the communication terminal moves according to another embodiment of the present invention.
FIG. 15 is an example of a screen that enlarges and displays a reproduced image having a relatively small object size after focusing shown in FIG. 14 .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In describing each figure, like reference numerals are used for like elements. Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term “and/or” includes a combination of a plurality of related listed items or any of a plurality of related listed items.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. shouldn't

이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템 및 방법을 상세하게 설명하기로 한다.Hereinafter, an image reproducing system and method using a photo card according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템(1)의 구성 블럭도이다. 도 1을 참조하면, 포토 카드(11,12)의 포토 이미지를 촬영하여 특징점 정보를 추출하는 통신 단말기(20), 특징점 정보와 컨텐츠 정보를 매칭하여 통신 단말기(20)에 전송하는 관리 서버(40), 통신 단말기(20)와 관리 서버(40)를 연결하는 통신망(30) 등을 포함하여 구성될 수 있다.1 is a block diagram of an image reproducing system 1 using a photo card according to an embodiment of the present invention. Referring to FIG. 1 , a communication terminal 20 that captures photo images of photo cards 11 and 12 and extracts key point information, and a management server 40 that matches key point information with content information and transmits it to the communication terminal 20 ), the communication terminal 20 and the communication network 30 for connecting the management server 40 may be configured to include.

포토 카드(11,12)는 제 1 포토 카드(11) 및 제 2 포토 카드(12)로 구성될 수 있다. 제 1 및 제 2 포토 카드(11,12)는 표면에 포토 이미지(11-1,12-1)가 구성된다. 부연하면, 플라스틱, 마분지 등의 표면에 포토를 붙인 것으로 포토 이미지(11-1,12-1)는 연예인의 사진, 공연 장소 사진 등이 될 수 있다. 따라서, 제 1 포토 이미지(11-1)와 제 2 포토 이미지(12-1)는 서로 다른 이미지를 갖는다.The photo cards 11 and 12 may include a first photo card 11 and a second photo card 12 . The first and second photo cards 11 and 12 have photo images 11-1 and 12-1 formed on their surfaces. In other words, the photo images 11-1 and 12-1 may be pictures of entertainers, pictures of performances, etc. as photos are attached to the surface of plastic, cardboard, or the like. Accordingly, the first photo image 11 - 1 and the second photo image 12 - 1 have different images.

통신 단말기(20)는 포토 카드(11,12)의 포토 이미지(11-1,12-1)를 촬영하여 특징점 정보를 추출하는 기능을 수행한다. 또한, 통신 단말기(20)는 관리 서버(40)로부터 특징점 정보에 매칭되며, 포토 카드와 관련되는 콘텐츠 정보를 수신받아 디스플레이하는 기능을 수행한다.The communication terminal 20 performs a function of extracting feature point information by photographing the photo images 11-1 and 12-1 of the photo cards 11 and 12. In addition, the communication terminal 20 matches the feature point information from the management server 40 , and performs a function of receiving and displaying content information related to the photo card.

관리 서버(40)는 통신 단말기(20)로부터 수신한 특징점 정보를 이용하여 콘텐츠 정보를 검색하고 이를 통신 단말기(20)에 제공하는 기능을 수행한다. 물론, 콘텐츠 정보는 미리 제작되어 데이터베이스(41)에 저장되어 있다. 콘텐츠 정보는, 동영상, 정지 영상, 배경화면, 포토 이미지 해설 정보 등을 포함하여 구성될 수 있다. 포토 이미지 해설 정보는 연예인의 경우, 데뷔 날짜, 음반 리스트, 가사 등이 포함될 수 있다.The management server 40 performs a function of searching for content information using the feature point information received from the communication terminal 20 and providing it to the communication terminal 20 . Of course, the content information is prepared in advance and stored in the database 41 . The content information may include moving pictures, still images, background screens, photo image commentary information, and the like. In the case of a celebrity, the photo image commentary information may include a debut date, album list, lyrics, and the like.

통신망(30)은 통신 단말기(20)와 관리 서버(40)를 통신으로 연결하는 기능을 수행한다. 이를 위해, 통신망(30)은 다수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 공중교환 전화망(PSTN), 공중교환 데이터망(PSDN), 종합정보통신망(ISDN: Integrated Services Digital Networks), 광대역 종합 정보 통신망(BISDN: Broadband ISDN), 근거리 통신망(LAN: Local Area Network), 대도시 지역망(MAN: Metropolitan Area Network), 광역 통신망(WLAN: Wide LAN) 등이 될 수 있다, 그러나, 본 발명은 이에 한정되지는 않으며, 무선 통신망인 CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), Wibro(Wireless Broadband), WiFi(Wireless Fidelity), HSDPA(High Speed Downlink Packet Access) 망 , 블루투쓰(bluetooth),NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 될 수 있다. 또는, 이들 유선 통신망 및 무선 통신망의 조합일 수 있다. The communication network 30 performs a function of connecting the communication terminal 20 and the management server 40 by communication. To this end, the communication network 30 refers to a connection structure capable of exchanging information between each node such as a plurality of terminals and servers, and includes a public switched telephone network (PSTN), a public switched data network (PSDN), and a comprehensive information network. (ISDN: Integrated Services Digital Networks), Broadband ISDN (BISDN), Local Area Network (LAN), Metropolitan Area Network (MAN: Metropolitan Area Network), Wide LAN (WLAN), etc. However, the present invention is not limited thereto, and wireless communication networks such as CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), Wibro (Wireless Broadband), WiFi (Wireless Fidelity), HSDPA ( It may be a High Speed Downlink Packet Access) network, a Bluetooth (bluetooth) network, a Near Field Communication (NFC) network, a satellite broadcasting network, an analog broadcasting network, a Digital Multimedia Broadcasting (DMB) network, and the like. Alternatively, it may be a combination of these wired communication networks and wireless communication networks.

도 1에서는 특징점을 추출하는 것을 통신 단말기(20)에서 수행하는 것으로 기술하였으나, 통신 단말기(20)는 촬영된 이미지 정보만을 관리 서버(40)에 전달하고, 관리 서버(40)에서 특징점을 추출하는 것도 가능하다. 이는 특징점을 추출하는 프로그램을 어디에 설치하는 지에 따른 차이에 불과하다.Although it has been described in FIG. 1 that extracting the feature point is performed by the communication terminal 20, the communication terminal 20 transmits only the photographed image information to the management server 40, and extracting the feature point from the management server 40 It is also possible This is only a difference depending on where the program for extracting feature points is installed.

관리 서버(40)는 마이크로프로세서, 통신 모뎀, 메모리 등을 포함하여 구성될 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD(Secure Digital) 또는 XD(eXtreme Digital) 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage), 클라우드 서버와 관련되어 동작할 수도 있다.The management server 40 may be configured to include a microprocessor, a communication modem, a memory, and the like. The memory is a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD (Secure Digital) or XD (eXtreme Digital)). memory, etc.), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read Only Memory (ROM), Electrically Erasable Programmable Read Only Memory (EEPROM), Programmable Read Only Memory (PROM), Magnetic Memory , a magnetic disk, and an optical disk may include at least one type of storage medium. In addition, it may operate in relation to a web storage that performs a storage function on the Internet and a cloud server.

데이터베이스(41)는 관리 서버(40)내에 구성될 수도 있고, 이와 달리 별도의 데이터베이스 서버에 구성될 수 있다. The database 41 may be configured in the management server 40, or alternatively, it may be configured in a separate database server.

도 2는 도 1에 도시된 통신 단말기(20)의 구성 블럭도이다. 도 2를 참조하면, 통신 단말기(20)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 될 수 있다.FIG. 2 is a block diagram of the communication terminal 20 shown in FIG. 1 . Referring to FIG. 2 , the communication terminal 20 may be a mobile phone, a smart phone, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, or the like. can

통신 단말기(20)는, 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190)를 포함할 수 있다. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다.The communication terminal 20 includes a wireless communication unit 110 , an A/V (Audio/Video) input unit 120 , a user input unit 130 , a sensing unit 140 , an output unit 150 , a memory 160 , an interface. It may include a unit 170 , a control unit 180 , and a power supply unit 190 . When these components are implemented in actual applications, two or more components may be combined into one component, or one component may be subdivided into two or more components as needed.

무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 및 GPS 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include a broadcast reception module 111 , a mobile communication module 112 , a wireless Internet module 113 , a short-range communication module 114 , and a GPS module 115 .

방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버(미도시)로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및/또는 방송관련 정보중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.The broadcast receiving module 111 receives at least one of a broadcast signal and broadcast related information from an external broadcast management server (not shown) through a broadcast channel. In this case, the broadcast channel may include a satellite channel, a terrestrial channel, and the like. The broadcast management server may refer to a server that generates and transmits at least one of a broadcast signal and broadcast-related information, or a server that receives at least one of a previously generated broadcast signal and/or broadcast-related information and transmits it to a terminal.

방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈(112)에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, as well as a TV broadcast signal or a broadcast signal in which a data broadcast signal is combined with a radio broadcast signal. Broadcast-related information may be provided through a mobile communication network, and in this case, may be received by the mobile communication module 112 . Broadcast-related information may exist in various forms. For example, it may exist in the form of an Electronic Program Guide (EPG) of Digital Multimedia Broadcasting (DMB) or an Electronic Service Guide (ESG) of Digital Video Broadcast-Handheld (DVB-H).

방송수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈(111)은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives a broadcast signal using various broadcast systems. In particular, Digital Multimedia Broadcasting-Terrestrial (DMB-T), Digital Multimedia Broadcasting-Satellite (DMB-S), Media Forward Link Only (MediaFLO) ), Digital Video Broadcast-Handheld (DVB-H), Integrated Services Digital Broadcast-Terrestrial (ISDB-T), and the like can be used to receive digital broadcast signals. Also, the broadcast reception module 111 may be configured to be suitable for all broadcast systems that provide broadcast signals as well as such digital broadcast systems. A broadcast signal and/or broadcast-related information received through the broadcast reception module 111 may be stored in the memory 160 .

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication module 112 transmits/receives wireless signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include a voice call signal, a video call call signal, or various types of data according to text/multimedia message transmission/reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 통신 단말기(20)에 내장되거나 외장될 수 있다. 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. GPS(Global Position System) 모듈(119)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.The wireless Internet module 113 refers to a module for wireless Internet access, and the wireless Internet module 113 may be built-in or external to the communication terminal 20 . The short-range communication module 114 refers to a module for short-range communication. As short-distance communication technologies, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, etc. may be used. The Global Position System (GPS) module 119 receives location information from a plurality of GPS satellites.

A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The A/V (Audio/Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 , a microphone 122 , and the like. The camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a shooting mode. Then, the processed image frame may be displayed on the display unit 151 .

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 또한, 위치도 상하 및/또는 좌우에 일정간격으로 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110 . Two or more cameras 121 may be provided according to the configuration of the terminal. In addition, the positions may also be provided at regular intervals on the top and bottom and/or left and right.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치 스크린(touch screen)이라 부를 수 있다.The user input unit 130 generates key input data input by the user to control the operation of the terminal. The user input unit 130 may include a key pad, a dome switch, a touch pad (static pressure/capacitance), a jog wheel, a jog switch, a finger mouse, and the like. In particular, when the touch pad forms a layer structure with the display unit 151 to be described later, it may be referred to as a touch screen.

센싱부(140)는 통신 단말기(20)의 개폐 상태, 위치, 사용자 접촉 유무 등과 같이 통신 단말기(20)의 현 상태를 감지하여 통신 단말기(20)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 통신 단말기(20)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수 있다.The sensing unit 140 generates a sensing signal for controlling the operation of the communication terminal 20 by detecting the current state of the communication terminal 20 such as the open/closed state, location, user contact, etc. of the communication terminal 20 . For example, when the communication terminal 20 is in the form of a slide phone, it is possible to sense whether the slide phone is opened or closed. In addition, it may be responsible for sensing functions related to whether the power supply unit 190 supplies power, whether the interface unit 170 is coupled to an external device, and the like.

또한, 센싱부(140)는 근접센서(Proximity Sensor)(141)를 포함할 수 있다. 근접센서(141)는 접근하는 물체나, 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 근접센서(141)는 구성 태양에 따라 2개 이상이 구비될 수 있다.Also, the sensing unit 140 may include a proximity sensor 141 . The proximity sensor 141 can detect an approaching object or the presence or absence of an object existing in the vicinity without mechanical contact. The proximity sensor 141 may detect a proximity object by using a change in an alternating current or static magnetic field, or a rate of change in capacitance, or the like. Proximity sensor 141 may be provided with two or more depending on the configuration aspect.

또한, 센싱부(140)는 자이로센서(Gyro Sensor)(142)를 포함할 수 있다. 자이로센서(142)는 자이로스코프를 이용하여 물체의 움직임을 감지하는 센서, 관성센서, 가속도 센서를 포함하는 개념이다. 자이로스코프에는 기계식 자이로스코프, 고리형 레이저 자이로스코프, 광섬유 자이로스코프 등이 있다. 자이로센서(142)는 통신 단말기의 움직임을 감지하여 통신 단말기의 제어를 위한 신호를 제공한다.Also, the sensing unit 140 may include a gyro sensor 142 . The gyro sensor 142 is a concept including a sensor for detecting the movement of an object using a gyroscope, an inertial sensor, and an acceleration sensor. Gyroscopes include mechanical gyroscopes, ring laser gyroscopes, and fiber optic gyroscopes. The gyro sensor 142 provides a signal for controlling the communication terminal by detecting the movement of the communication terminal.

출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(151)와 음향출력 모듈(153), 알람부(155), 진동모듈(157) 등이 포함될 수 있다. The output unit 150 is for outputting an audio signal, a video signal, or an alarm signal, and includes a display unit 151 , a sound output module 153 , an alarm unit 155 , a vibration module 157 , and the like. may be included.

디스플레이부(151)는 통신 단말기(20)에서 처리되는 정보를 표시 출력한다. 예를 들어 통신 단말기(20)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 통신 단말기(20)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다.The display unit 151 displays and outputs information processed by the communication terminal 20 . For example, when the communication terminal 20 is in a call mode, a user interface (UI) or graphic user interface (GUI) related to a call is displayed. In addition, when the communication terminal 20 is in the video call mode or the shooting mode, the captured or received images may be displayed individually or simultaneously, and a UI and a GUI may be displayed.

또한, 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 통신 단말기(20)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. 예를 들어, 통신 단말기(20)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.In addition, the display unit 151 is a liquid crystal display (liquid crystal display), a thin film transistor-liquid crystal display (thin film transistor-liquid crystal display), an organic light-emitting diode (organic light-emitting diode), a flexible display (flexible display), three-dimensional At least one of a display (3D display) may be included. In addition, two or more display units 151 may exist according to an implementation form of the communication terminal 20 . For example, the communication terminal 20 may be provided with an external display unit (not shown) and an internal display unit (not shown) at the same time.

음향출력 모듈(153)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(153)은 통신 단말기(20)에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 153 outputs audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. In addition, the sound output module 153 outputs a sound signal related to a function performed in the communication terminal 20 , for example, a call signal reception sound, a message reception sound, and the like. The sound output module 153 may include a speaker, a buzzer, and the like.

알람부(155)는 통신 단말기(20)의 이벤트 발생을 알리기 위한 신호를 출력한다. 통신 단말기(20)에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. The alarm unit 155 outputs a signal for notifying the occurrence of an event in the communication terminal 20 . Examples of events occurring in the communication terminal 20 include call signal reception, message reception, and key signal input. The alarm unit 155 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, the signal may be output in the form of vibration.

알람부(155)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위한 신호를 출력할 수 있다. 또한, 알람부(155)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(155)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생알림을 위한 신호는 디스플레이부(151)나 음향출력 모듈(153)을 통해서도 출력될 수 있다. 알람부(155)는 이를 위해 소프트웨어 컴포넌트를 구성할 수 있다.When a call signal is received or a message is received, the alarm unit 155 may output a signal for notifying it. Also, when a key signal is input, the alarm unit 155 may output a signal as feedback to the key signal input. The user may recognize the occurrence of an event through a signal output from the alarm unit 155 . Of course, a signal for notifying of the occurrence of an event may also be output through the display unit 151 or the sound output module 153 . The alarm unit 155 may configure a software component for this purpose.

진동모듈(157)은 제어부(180)가 전송하는 진동신호에 의하여 다양한 세기와 패턴의 진동을 발생할 수 있다. 진동모듈(157)이 발생하는 진동의 세기, 패턴, 주파수, 이동방향, 이동속도 등은 진동신호에 의하여 설정가능하며, 구성 태양에 따라 2개 이상의 진동모듈(157)이 구비될 수 있다. 진동 모듈(157)은 통신 단말기(20)에 진동을 발생시키는 것으로 진동 모터 또는 진동 소자를 포함하여 구성될 수 있다.The vibration module 157 may generate vibrations of various intensities and patterns according to the vibration signal transmitted by the controller 180 . The intensity, pattern, frequency, movement direction, movement speed, etc. of the vibration generated by the vibration module 157 can be set by the vibration signal, and two or more vibration modules 157 may be provided according to the configuration aspect. The vibration module 157 generates vibration in the communication terminal 20 and may include a vibration motor or a vibration element.

메모리(160)는 제어부(180)의 처리 및/또는 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 카메라(121)를 통하여 촬영된 포토 이미지를 처리하여 특징점을 추출하는 알고리즘을 갖는 프로그램, 소프트웨어, 데이터 등을 저장할 수도 있다.The memory 160 may store a program for processing and/or control of the controller 180, and is for temporary storage of input or output data (eg, phonebook, message, still image, video, etc.). function can also be performed. In addition, a program, software, data, etc. having an algorithm for extracting feature points by processing a photo image captured by the camera 121 may be stored.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 통신 단말기(20)는 인터넷(internet) 상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 160 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), RAM , and may include a storage medium of at least one type of ROM. Also, the communication terminal 20 may operate a web storage that performs a storage function of the memory 150 on the Internet.

인터페이스부(170)는 통신 단말기(20)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 통신 단말기(20)에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM/UIM card 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(170)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 통신 단말기(20) 내부의 각 구성 요소에 전달할 수 있고, 통신 단말기(20) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 170 functions as an interface with all external devices connected to the communication terminal 20 . Examples of external devices connected to the communication terminal 20 include a wired/wireless headset, an external charger, a wired/wireless data port, a memory card, a card socket such as a SIM/UIM card, and an audio I/O (Input). /Output) terminal, video I/O (Input/Output) terminal, earphone, etc. The interface unit 170 may receive data or receive power from such an external device and transmit it to each component inside the communication terminal 20, and may allow the data inside the communication terminal 20 to be transmitted to an external device. .

제어부(180)는 통상적으로 상기 각부의 동작을 제어하여 통신 단말기(20)의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(180) 내에 하드웨어로 구성될 수도 있고, 제어부(180)와 별도로 소프트웨어로 구성될 수도 있다. 또한, 제어부(180)는 촬영된 포토 이미지를 처리하여 특징점을 추출하는 알고리즘을 실행하는 기능을 수행할 수 있다.The controller 180 generally controls the overall operation of the communication terminal 20 by controlling the operation of each unit. For example, it performs related control and processing for voice calls, data communications, video calls, and the like. Also, the controller 180 may include a multimedia playback module 181 for multimedia playback. The multimedia playback module 181 may be configured as hardware in the control unit 180 or may be configured as software separately from the control unit 180 . Also, the controller 180 may perform a function of executing an algorithm for extracting feature points by processing the photographed photo image.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the control unit 180 to supply power required for operation of each component.

도 3은 본 발명의 일실시예에 따른 가로 화면의 예시이다. 도 3을 참조하면, 제 1 포토 카드(11)를 우측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 좌측에 일정간격으로 배치한다고 가정한다. 이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 우측에서부터 좌측으로 이동시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 순차적 또는 동시적으로 표시된다. 제 1 재생 영상(311) 및 제 2 재생 영상(312)은 컨텐츠 정보로서 제 1 포토 카드(11) 및 제 2 포토 카드(120)에 구성되는 제 1 및 제 2 포토 이미지(11-1,12-1)와 관련된 정보이다. 즉, 제 1 재생 영상(311)이 먼저 표시되어 재생되고, 이후 제 2 재생 영상(312)이 표시되어 재생된다. 물론, 제 1 재생 영상(311)이 먼저 표시되어 재생되지 않고, 일정 시간 블랙 화면이였다가 제 2 재생 영상(311)과 동시에 재생되는 것도 가능하다.3 is an example of a horizontal screen according to an embodiment of the present invention. Referring to FIG. 3 , it is assumed that the first photo card 11 is disposed on the right side and the second photo card 12 is disposed on the left side of the first photo card 11 at regular intervals. In this arrangement, when the communication terminal 20 is moved from the right to the left at a predetermined height over the surfaces of the first photo card 11 and the second photo card 120, the display screen 300 of the communication terminal 20 is The first reproduced image 311 and the second reproduced image 312 are sequentially or simultaneously displayed on the screen. The first playback image 311 and the second playback image 312 are the first and second photo images 11-1 and 12 configured in the first photo card 11 and the second photo card 120 as content information. It is information related to -1). That is, the first reproduced image 311 is displayed and reproduced first, and then the second reproduced image 312 is displayed and reproduced. Of course, it is also possible that the first reproduced image 311 is first displayed and not reproduced, and after a black screen for a certain period of time, it is reproduced simultaneously with the second reproduced image 311 .

한편, 통신 단말기(20)를 좌측에서부터 우측으로 이동시키면, 통신 단말기(20)의 디스플레이 화면(300)상에는 제 1 재생 영상(311)이 표시되어 재생되고, 이후 제 2 재생 영상(312)이 표시되어 재생된다. 즉, 도 3에 도시된 제 1 재생 영상(311)과 제 2 재생 영상(312)의 위치가 반대가 된다.On the other hand, when the communication terminal 20 is moved from the left to the right, the first reproduced image 311 is displayed and played on the display screen 300 of the communication terminal 20, and then the second reproduced image 312 is displayed. becomes and plays That is, the positions of the first reproduced image 311 and the second reproduced image 312 shown in FIG. 3 are opposite to each other.

도 3에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.In FIG. 3 , it is assumed that the camera 121 is installed in the communication terminal 20 in the longitudinal direction, but when two cameras (121 in FIG. 2 ) are installed at regular intervals on the left and right sides of the communication terminal 20, top and bottom It is possible to move the communication terminal 20 in an upward direction under or under the direction. In this case, the first reproduced image 311 and the second reproduced image 312 may be simultaneously displayed and reproduced.

또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 물체의 표면과 동일한 배경 이미지인 것을 특징으로 한다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 갭쳐하며, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.In addition, it is characterized in that the background 301 displayed on the display screen 300 of the communication terminal 20 is the same background image as the surface of the object on which the photo cards 11 and 12 are placed. For example, when the photo cards 11 and 12 are placed on the surface of a table having a wood pattern, the background 301 becomes a wood pattern image. That is, the communication terminal 20 captures the photo cards 11 and 12 and the background on which the photo cards 11 and 12 are placed at the same time, and separates the photo cards 11 and 12 from the photo card 11, 12) extracts the image extracted from the feature points, and extracts the background image from the background.

도 4는 도 3의 가로 화면에서 통신 단말기(20)가 회전함에 따라 이를 반영한 세로 화면의 예시이다. 도 4를 참조하면, 통신 단말기(20)에 구성되는 자이로 센서(도 2의 142)를 이용하여 사용자가 통신 단말기(20)를 90°회전시키면, 디스플레이 화면(300)상에서 위아래로 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 표시된다. FIG. 4 is an example of a vertical screen reflecting the rotation of the communication terminal 20 on the horizontal screen of FIG. 3 . Referring to FIG. 4 , when the user rotates the communication terminal 20 by 90° using the gyro sensor ( 142 in FIG. 2 ) configured in the communication terminal 20 , the first playback image up and down on the display screen 300 . 311 and a second playback image 312 are displayed.

물론, 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 재생 사이즈는 디스플레이 화면(300)의 세로폭에 맞게 변경된다. 예를 들면, 디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 도 3에서 재생 영상(311)의 가로폭은 약 6cm이고, 세로폭은 약 4cm가 될 수 있다. 이와 달리, 도 4의 경우, 디스플레이 화면(300)의 세로폭의 90%를 재생 영상(311,312)의 재생 화면 사이즈의 가로폭으로 변환하면, 약 6.3cm이다. 즉, 양측 빈공간을 고려하여 90%만을 사용한다. 물론, 90% 내지 95% 사이의 값도 가능하다. 또한, 재생 영상(311,312)의 재생 화면 사이즈의 화면비율을 4:3 비율로 적용한다면, 세로폭은 약 4.7cm가 될 수 있다.Of course, in this case, the reproduction sizes of the first reproduced image 311 and the second reproduced image 312 are changed to fit the vertical width of the display screen 300 . For example, assuming that the horizontal width of the display screen 300 is 15 cm and the vertical width is 7 cm, the width of the reproduced image 311 in FIG. 3 may be about 6 cm and the vertical width may be about 4 cm. On the contrary, in the case of FIG. 4 , when 90% of the vertical width of the display screen 300 is converted into the horizontal width of the reproduced screen size of the reproduced images 311 and 312, it is about 6.3 cm. That is, only 90% is used considering the empty space on both sides. Of course, values between 90% and 95% are also possible. In addition, if the aspect ratio of the reproduction screen size of the reproduction images 311 and 312 is applied to the 4:3 ratio, the vertical width may be about 4.7 cm.

도 5는 본 발명의 일실시예에 따른 포토 이미지(11-1,12-1)로부터 특징점을 추출하는 과정을 보여주는 흐름도이다. 일반적으로 영상 처리 분야에서 입력영상에 대하여 인식 및 처리를 하기 위해서는 입력된 영상에서 특징점을 추출하고, 추출된 특징점을 통하여 서술자를 생성하여 다른 영상과의 매칭을 통해 객체 인식 및 추적 등을 하게 된다. 5 is a flowchart illustrating a process of extracting feature points from photo images 11-1 and 12-1 according to an embodiment of the present invention. In general, in the image processing field, in order to recognize and process an input image, a feature point is extracted from the input image, a descriptor is created through the extracted feature point, and object recognition and tracking are performed through matching with other images.

먼저, 적분 이미지 생성기(미도시)를 통하여 포토 이미지(11-1,12-1)를 촬영하여 생성되는 촬영 이미지 정보에 대해 밝기값을 가진 적분 이미지를 생성한다(단계 S510).First, an integral image having a brightness value is generated with respect to photographed image information generated by photographing the photo images 11-1 and 12-1 through an integral image generator (not shown) (step S510).

이후, 특징점 검출기(미도시)는 생성된 적분 이미지를 이용하여 촬영 이미지 정보에서 특징점이 될만한 특징점 후보군을 필터 사이즈(Filter size)별로 생성하고, 생성된 특징점 후보군을 가지고 상호 비교를 통하여 특징점들을 추출하게 된다(단계 S520). 여기서, 특징점 추출은 해리스 코너 추출기법, SIFT(Scale-Invariant Feature Transform), SURF(Speeded UP Robust Features), ORB(Oriented BRIEF) 알고리즘 등을 이용하여 수행될 수 있다.Thereafter, the feature point detector (not shown) generates a feature point candidate group that can become a feature point in the captured image information by using the generated integral image for each filter size, and extracts the feature points through mutual comparison with the generated feature point candidate group. becomes (step S520). Here, the feature point extraction may be performed using a Harris corner extraction technique, a Scale-Invariant Feature Transform (SIFT), a Speeded UP Robust Features (SURF), or an Oriented BRIEF (ORB) algorithm.

이후, 이렇게 생성된 특징점은 서술자 생성기(미도시)를 통해 특징점 주변의 영상을 가지고 특징점의 주방향이 설정된다(단계 S530).Thereafter, the keypoint generated in this way has an image around the keypoint through a descriptor generator (not shown) and the main direction of the keypoint is set (step S530).

이후, 특징점별로 생성된 주방향을 한 방향으로 회전시켜 고정시킨후, 그 정보를 디스크립터로 저장하여 데이터베이스로 생성한다(단계 S540). 디스크립터(Descriptor)는 검출된 특징점 주의의 밝기, 색상, 그래디언트 방향등의 매칭 정보 등을 포함한다. Thereafter, the main direction generated for each feature point is rotated in one direction and fixed, and the information is stored as a descriptor and generated as a database (step S540). The descriptor includes matching information such as brightness, color, and gradient direction of the detected feature point.

이후, 이 디스크립터를 이용하여 미리 데이터베이스화되어 저장되어 컨텐츠 정보를 나타내는 디스크립터를 매칭한다(단계 S550). 매칭 방식은 동일한 디스크립터를 하나씩 검사하여 찾는 방식이 될 수도 있고, 매칭점의 갯수를 이용하는 것을 들 수 있다.Thereafter, using this descriptor, a descriptor that is stored and stored in a database in advance is matched (step S550). The matching method may be a method of finding the same descriptor by examining them one by one, or using the number of matching points.

따라서, 포토 이미지(11-1,12-1)과 관련되는 컨텐츠 정보를 찾아 통신 단말기(20)에 전송된다. 이러한 실제 이미지로부터 특징점을 검출하는 알고리즘은 널리 알려져 있음으로 더 이상의 설명은 본 발명의 명확한 이해를 위해 생략하기로 한다. 또한, 위 도 5에서 설명한 영상 인식 알고리즘은 일 예시에 불과한 것으로 다른 영상 인식 알고리즘이 사용될 수도 있다.Accordingly, content information related to the photo images 11 - 1 and 12 - 1 is searched and transmitted to the communication terminal 20 . Since an algorithm for detecting a feature point from such an actual image is well known, a further description will be omitted for a clear understanding of the present invention. In addition, the image recognition algorithm described with reference to FIG. 5 is merely an example, and other image recognition algorithms may be used.

한편, 적분 이미지 생성기(미도시), 특징점 검출기(미도시), 서술자 생성기(미도시) 등은 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다. On the other hand, the integral image generator (not shown), the feature point detector (not shown), the descriptor generator (not shown), etc. mean a unit that processes at least one function or operation, which may be implemented in software and/or hardware. . In hardware implementation, application specific integrated circuit (ASIC), digital signal processing (DSP), programmable logic device (PLD), field programmable gate array (FPGA), processor, microprocessor, other It may be implemented as an electronic unit or a combination thereof.

소프트웨어 구현에 있어, 소프트웨어 구성 컴포넌트(요소), 객체 지향 소프트웨어 구성 컴포넌트, 클래스 구성 컴포넌트 및 작업 구성 컴포넌트, 프로세스, 기능, 속성, 절차, 서브 루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로 코드, 데이터, 데이터베이스, 데이터 구조, 테이블, 배열 및 변수를 포함할 수 있다. 소프트웨어, 데이터 등은 메모리에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.In software implementation, software composition component (element), object-oriented software composition component, class composition component and task composition component, process, function, attribute, procedure, subroutine, segment of program code, driver, firmware, microcode, data , databases, data structures, tables, arrays, and variables. Software, data, etc. may be stored in a memory and executed by a processor. The memory or processor may employ various means well known to those skilled in the art.

도 6은 도 1에 도시된 관리 서버에서 포토 이미지로부터 추출되는 특징점과 컨텐츠 정보(예를 들면, 재생 영상)을 맵핑하는 데이터베이스(도 1의 41)의 구조를 보여주는 개념도이다. 도 6을 참조하면, 미리 데이터베이스(41)에는 특징점들과 컨텐츠 정보가 맵핑되어 저장된다. FIG. 6 is a conceptual diagram illustrating a structure of a database (41 of FIG. 1 ) that maps feature points extracted from a photo image and content information (eg, a reproduced image) in the management server shown in FIG. 1 . Referring to FIG. 6 , feature points and content information are mapped and stored in the database 41 in advance.

부연하면, 관리 서버(40)는 미리 포토 이미지와 관련된 컨텐츠 정보에서 특징점을 추출하고 추출된 특징점을 기초로 컨텐츠 정보와 특징점을 매칭한다. 예를 들면, 영상 프레임들(예를 들면, 영상1을 예시한다)에 대해 특징점들을 추출하고, 특징점들 마다 컨텐츠 정보를 매칭한다. In other words, the management server 40 extracts a feature point from content information related to the photo image in advance, and matches the feature point with the content information based on the extracted feature point. For example, feature points are extracted from image frames (eg, image 1 is exemplified), and content information is matched for each feature point.

예를 들면, 도 6에 도시된 바와 같이, 특징점1에 속하는 특징점 1_1, 특징점 1_2, 특징점 1_3 …에 증강 현실 컨텐츠1에 속하는 AR(Augmented Reality) 컨텐츠 1_1, AR 컨텐츠 1_2, AR 컨텐츠 1_3 …이 될 수 있다. 즉, 특징점 1-1은 AR 컨텐츠 1-1에 맵핑되고, 특징점 1-2은 AR 컨텐츠 1-2에 맵핑되고, 특징점 1-3은 AR 컨텐츠 1-3에 맵핑되는 방식이다.For example, as shown in FIG. 6 , the feature point 1_1, the feature point 1_2, the feature point 1_3 belonging to the feature point 1 ... AR (Augmented Reality) content 1_1, AR content 1_2, AR content 1_3 belonging to augmented reality content 1 in … this can be That is, key point 1-1 is mapped to AR content 1-1, key point 1-2 is mapped to AR content 1-2, and key point 1-3 is mapped to AR content 1-3.

물론, 이러한 특징점 추출과정은 도 5에 도시된 단계 S510 내지 S540를 통해 이루어진다. 부연하면, 컨텐츠 정보를 이루는 영상 프레임들에서 적분 이미지를 생성하고, 이 적분 이미지로부터 특징점을 추출한다.Of course, this key point extraction process is performed through steps S510 to S540 shown in FIG. 5 . In other words, an integral image is generated from image frames constituting the content information, and a feature point is extracted from the integral image.

또한, 포토 이미지(11-1,12-1)로부터 추출된 특징점이 1_3에 해당되면, AR 컨텐츠 1_3으로부터 아래 방향에 해당하는 AR 컨텐츠들이 모두 통신 단말기(20)에 전송되며, 통신 단말기(20)가 해당 컨텐츠들을 순차적으로 재생한다. 물론, 포토 이미지(11-1,12-1)로부터 추출된 특징점이 1_1에 해당되면, AR 컨텐츠 1_1로부터 아래 방향에 해당하는 AR 컨텐츠 1_1,1_2,1_3 들이 모두 통신 단말기(20)에 전송되며, 통신 단말기(20)가 해당 컨텐츠들을 순차적으로 재생한다.In addition, when the feature points extracted from the photo images 11-1 and 12-1 correspond to 1_3, all AR contents corresponding to the downward direction from the AR contents 1_3 are transmitted to the communication terminal 20, and the communication terminal 20 plays the corresponding contents sequentially. Of course, when the feature points extracted from the photo images 11-1 and 12-1 correspond to 1_1, the AR contents 1_1, 1_2, and 1_3 corresponding to the downward direction from the AR contents 1_1 are all transmitted to the communication terminal 20, The communication terminal 20 sequentially reproduces the corresponding contents.

도 7은 본 발명의 일실시예에 따른 백그라운드에 재생 영상(컨텐츠 영상)을 배치하여 생성하는 과정을 보여주는 흐름도이다. 도 7을 참조하면, 타겟 오브젝트들(즉 포토 이미지(11-1,12-1))의 이미지가 캡쳐된다(단계 S710). 타겟 오브젝트들은 미리 정의된 물체(예를 들면, 책상, 마루바닥, 의자, 달력, 그림등을 들 수 있음)의 표면상에 위치된다. 따라서, 배경 이미지로 캡쳐된다. 타겟 오브젝트들은 1-D, 2-D, 3-D 오브젝트를 포함할 수 있지만 이들에 제한되지 않는다. 7 is a flowchart illustrating a process of arranging and generating a playback image (content image) in a background according to an embodiment of the present invention. Referring to FIG. 7 , images of target objects (ie, photo images 11-1 and 12-1) are captured (step S710). The target objects are positioned on the surface of a predefined object (eg, a desk, a floor, a chair, a calendar, a picture, etc.). Therefore, it is captured as a background image. Target objects may include, but are not limited to, 1-D, 2-D, and 3-D objects.

이후, 이미지는 타겟 오브젝트들에 대응하는 영역들 및 미리 정의된 백그라운드(도 3의 301)에 대응하는 영역들로 세그먼트될 수도 있다. 이미지를 세그먼트하는 것은 이미지로부터 미리 정의된 백그라운드를 분리하는 것을 포함할 수도 있다(단계 S720).Thereafter, the image may be segmented into regions corresponding to target objects and regions corresponding to a predefined background ( 301 in FIG. 3 ). Segmenting the image may include separating a predefined background from the image (step S720).

이후, 타겟 오브젝트들에 대응하는 영역들은 디지털 정보로 변환한다(단계 S730).Thereafter, regions corresponding to the target objects are converted into digital information (step S730).

이후, AR 오브젝트들(즉, 컨텐츠 정보)이 매칭되며 디스플레이 화면(300)의 백그라운드(301)에 표시된다(단계 S740). AR 오브젝트들은 타겟오브젝트들에 대응할 수도 있고, 디지털 이미지에 적어도 부분적으로 기초하여 생성될 수도 있다. AR 오브젝트들은 캡쳐된 이미지 내에서 2 차원 (2-D) 블랍(blob: binary large object)의 검출에 기초하여 생성되며, 2-D 블랍의 검출은 미리 정의된 백그라운드 상에 위치된 하나 이상의 타겟 오브젝트들과 연관된 표면 반사율에 기초할 수 있다.Thereafter, the AR objects (ie, content information) are matched and displayed on the background 301 of the display screen 300 (step S740). AR objects may correspond to target objects, and may be generated based at least in part on a digital image. AR objects are generated based on detection of two-dimensional (2-D) blobs (binary large objects) within a captured image, wherein detection of 2-D blobs is one or more target objects positioned on a predefined background. may be based on the surface reflectance associated with them.

AR 오브젝트들은 유저 입력에 응답하여 편집될 수도 있다. 편집은 AR 오브젝트들 중 적어도 하나를 복수의 AR 부분들로 분할하는 것을 포함할 수 있다. 유저 입력은 복수의 AR 부분들로부터 소정 AR 부분을 지정할 수도 있다. 그 후, 지정된 AR 부분은 사용자 조작 명령 입력 신호에 기초하여 조작될 수도 있다. AR objects may be edited in response to user input. Editing may include dividing at least one of the AR objects into a plurality of AR portions. The user input may designate a predetermined AR portion from a plurality of AR portions. Then, the designated AR portion may be manipulated based on the user manipulation command input signal.

사용자 조작 명령 입력 신호에 기초하여 지정된 AR 부분을 조작하는 것은 통신 단말기(20)의 디스플레이 화면(300) 상에서의 결정된 손가락 압력에 기초하여 지정된 AR 부분에 깊이를 추가하는 것, 통신 단말기(20)의 디스플레이 화면(300) 상에서 수행된 사용자의 제스쳐에 기초하여 지정된 AR 부분을 회전하는 것, 지정된 AR 부분을 하나 이상의 계층들로 어셈블리하는 것, 지정된 AR 부분을 통신 단말기(20)의 디스플레이 화면(300) 상에 디스플레이가능한 하나 이상의 로케이션들로 이동시키는 것, 또는 지정된 AR 부분을 돌출시키는 것 등이 될 수 있다.Manipulating the AR portion designated on the basis of the user manipulation command input signal is to add depth to the AR portion designated based on the determined finger pressure on the display screen 300 of the communication terminal 20, Rotating the designated AR part based on the user's gesture performed on the display screen 300, assembling the designated AR part into one or more layers, and displaying the designated AR part on the display screen 300 of the communication terminal 20 moving to one or more locations displayable on the image, or projecting a designated AR portion, and the like.

도 8은 본 발명의 다른 일실시예에 따른 통신 단말기(20)가 수평 방향으로 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다. 도 8을 참조하면, 제 1 포토 카드(11)를 좌측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 우측에 일정간격으로 배치한다고 가정한다. 8 is a flowchart illustrating a process of sensing a photo image of a photo card and receiving matching content as the communication terminal 20 moves in a horizontal direction according to another embodiment of the present invention. Referring to FIG. 8 , it is assumed that the first photo card 11 is arranged on the left side and the second photo card 12 is arranged on the right side of the first photo card 11 at regular intervals.

이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 좌측에서부터 우측으로 수평 이동(화살표 방향)시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311)이 표시된다. 부연하면, 통신 단말기(20)의 우측에 설치된 카메라(121)가 제 1 포토 카드(11)의 제 1 포토 이미지(11-1)를 센싱함에 따라 제 1 포토 이미지(11-1)와 관련된 제 1 재생 영상(311)이 디스플레이 화면(300)의 반(즉 좌측반)에 출력된다. In this arrangement, when the communication terminal 20 is horizontally moved from left to right (arrow direction) at a predetermined height above the surfaces of the first photo card 11 and the second photo card 120, the communication terminal 20 is A first playback image 311 is displayed on the display screen 300 . In other words, as the camera 121 installed on the right side of the communication terminal 20 senses the first photo image 11-1 of the first photo card 11, the first photo image 11-1 related to the first photo image 11-1 is 1 The reproduced image 311 is output to half (ie, the left half) of the display screen 300 .

출력은 일정시간이 경과된 후에 이루어질 수 있다. 예를 들면, 카메라(121)가 제 1 포토 이미지(11-1)를 센싱한 약 3~5초후 제 1 재생 영상(311)이 출력을 시작할 수 있다. The output may be made after a certain period of time has elapsed. For example, about 3 to 5 seconds after the camera 121 senses the first photo image 11-1, the first reproduced image 311 may start to be output.

물론, 제 2 재생 영상(미도시)은 카메라(121)가 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)를 센싱하기 전에 까지는 출력되지 않는 상태이다. Of course, the second playback image (not shown) is not output until the camera 121 senses the second photo image 12 - 1 of the second photo card 12 .

제 1 재생 영상(311) 및 제 2 재생 영상은 컨텐츠 정보로서 제 1 포토 카드(11) 및 제 2 포토 카드(12)에 구성되는 제 1 및 제 2 포토 이미지(11-1,12-1)와 관련된 정보이다. The first playback image 311 and the second playback image are the first and second photo images 11-1 and 12-1 configured in the first photo card 11 and the second photo card 12 as content information. is information related to

통신 단말기(20)가 제 1 포토 카드(11)를 센싱한 이후, 계속 우측으로 이동하면, 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)가 센싱되며, 이와 관련된 제 2 재생 영상(미도시)이 디스플레이 화면(300)의 나머지 반에 출력된다.After the communication terminal 20 senses the first photo card 11, if it continues to move to the right, the second photo image 12-1 of the second photo card 12 is sensed, and a second reproduction related thereto is sensed. An image (not shown) is output to the other half of the display screen 300 .

또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 물체의 표면과 동일한 배경 이미지가 될 수도 있다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 갭쳐하며, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.In addition, the background 301 displayed on the display screen 300 of the communication terminal 20 may be the same background image as the surface of the object on which the photo cards 11 and 12 are placed. For example, when the photo cards 11 and 12 are placed on the surface of a table having a wood pattern, the background 301 becomes a wood pattern image. That is, the communication terminal 20 captures the photo cards 11 and 12 and the background on which the photo cards 11 and 12 are placed at the same time, and separates the photo cards 11 and 12 from the photo card 11, 12) extracts the image extracted from the feature points, and extracts the background image from the background.

도 9는 본 발명의 일실시예에 따른 통신 단말기(20)가 우에서 좌로 수평이동시 화면의 예시이다. 도 9는 도 8과 달리, 통신 단말기(20)가 나란히 배열되는 제 1 및 제 2 포토 카드(11,12)의 표면상에서 우에서 좌의 수평 방향으로 이동한다. 따라서, 도 3과 달리, 도 4에서는 통신 단말기(20)가 제 2 포토 카드(12)를 먼저 센싱한다. 9 is an example of a screen when the communication terminal 20 horizontally moves from right to left according to an embodiment of the present invention. In FIG. 9, unlike FIG. 8, the communication terminal 20 moves in the horizontal direction from right to left on the surfaces of the first and second photo cards 11 and 12 arranged side by side. Accordingly, unlike FIG. 3 , in FIG. 4 , the communication terminal 20 senses the second photo card 12 first.

통신 단말기(20)를 우측에서부터 좌측으로 이동시키면, 통신 단말기(20)의 디스플레이 화면(300)상에는 제 2 재생 영상(312)이 표시되고, 이후 제 1 재생 영상(311)이 표시된다. 즉, 도 8에 도시된 제 1 재생 영상(311)과 제 2 재생 영상(312)의 위치가 반대가 된다.When the communication terminal 20 is moved from the right to the left, the second reproduced image 312 is displayed on the display screen 300 of the communication terminal 20 , and then the first reproduced image 311 is displayed. That is, the positions of the first reproduced image 311 and the second reproduced image 312 shown in FIG. 8 are opposite to each other.

부연하면, 통신 단말기(20)의 좌측에 설치된 카메라(121)가 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)를 센싱함에 따라 제 2 포토 이미지(12-1)와 관련된 제 2 재생 영상(312)이 디스플레이 화면(300)의 반(즉 우측반)에 출력된다. In other words, as the camera 121 installed on the left side of the communication terminal 20 senses the second photo image 12-1 of the second photo card 12, the second photo image 12-1 is related to the second photo image 12-1. 2 The reproduced image 312 is output to a half (ie, a right half) of the display screen 300 .

출력은 일정시간이 경과된 후에 이루어질 수 있다. 예를 들면, 카메라(121)가 제 2 포토 이미지(12-1)를 센싱한 약 1~2초후 제 2 재생 영상(312)이 출력을 시작할 수 있다. The output may be made after a certain period of time has elapsed. For example, after about 1 to 2 seconds after the camera 121 senses the second photo image 12 - 1 , the second playback image 312 may start to be output.

부연하면, 도 8의 경우에는, 제 1 재생 영상(311)과 제 2 재생 영상(312)이 동시에 출력될 수 있다. 이를 위해, 제 1 재생 영상(311)의 출력 시간을 제 2 재생 영상(312)의 출력 시간보다 길게 설정한다. 물론, 도 3의 경우에는, 제 2 재생 영상(312)의 출력 시간을 제 1 재생 영상(311)의 출력 시간보다 길게 설정한다. 따라서, 재생 영상의 동작 시점을 싱크(동기화)하는 것이 가능하다.In other words, in the case of FIG. 8 , the first reproduced image 311 and the second reproduced image 312 may be simultaneously output. To this end, the output time of the first reproduced image 311 is set longer than the output time of the second reproduced image 312 . Of course, in the case of FIG. 3 , the output time of the second reproduced image 312 is set longer than the output time of the first reproduced image 311 . Accordingly, it is possible to synchronize (synchronize) the operation time of the reproduced image.

물론, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 동작 시점을 싱크하지 않고, 센싱되는 순차대로 출력하는 것도 가능하다. 부연하면, 제 1 재생 영상(311) 및 제 2 재생 영상(312)중 어느 하나가 먼저 출력될 수도 있다. 예를 들면, 제 1 재생 영상(311)이 먼저 출력되고, 순차로 제 2 재생 영상(312)이 나중에 출력될 수 있다. 물론, 통신 단말기(20)의 이동 방향에 따라 제 2 재생 영상(312)이 먼저 출력되고, 순차로 제 1 재생 영상(311)이 나중에 출력될 수 있다.Of course, it is also possible to output the operation time points of the first reproduced image 311 and the second reproduced image 312 in the order they are sensed, without synchronizing them. In other words, any one of the first reproduced image 311 and the second reproduced image 312 may be output first. For example, the first reproduced image 311 may be output first, and the second reproduced image 312 may be sequentially output later. Of course, according to the moving direction of the communication terminal 20 , the second reproduced image 312 may be output first, and the first reproduced image 311 may be sequentially output later.

또한, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 동작 시점이 싱크되기전에 일정 시간동안 블랙의 정지 영상이 출력될 수 있다. 부연하면, 제 1 재생 영상(311)이 출력되기 전에 블랙의 정지 영상이 출력되고, 이후 제 1 재생 영상(311), 제 2 재생 영상(312)이 순차적으로 출력된다. 물론, 블랙의 정지 영상은 제 1 재생 영상(311)이 출력될 디스플레이 화면(300)의 반에 출력된다.In addition, a black still image may be output for a predetermined period of time before the operation time points of the first reproduced image 311 and the second reproduced image 312 are synchronized. In other words, a black still image is output before the first playback image 311 is output, and then the first playback image 311 and the second playback image 312 are sequentially output. Of course, the black still image is output on the half of the display screen 300 on which the first playback image 311 is output.

예를 들면, 통신 단말기(20)가 가로방향으로 눕혀진 상태에서, 디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 디스플레이 화면(300)의 반은 가로폭이 7.5cm이고, 세로폭은 동일하게 7cm이다. 이 경우, 재생 영상(311,312)의 크기는 가로폭이 7cm이고, 세로폭은 5cm이가 될 수 있다. For example, assuming that the width of the display screen 300 is 15 cm and the vertical width is 7 cm in a state in which the communication terminal 20 is laid down in the horizontal direction, half of the display screen 300 has a width of 7.5 cm, and the vertical width is the same as 7 cm. In this case, the size of the reproduced images 311 and 312 may be 7 cm in width and 5 cm in vertical width.

도 9에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.In FIG. 9 , it is assumed that the camera 121 is installed in the communication terminal 20 in the longitudinal direction, but when two cameras ( 121 in FIG. 2 ) are installed at regular intervals on the left and right sides of the communication terminal 20 , top and bottom It is possible to move the communication terminal 20 in an upward direction under or under the direction. In this case, the first reproduced image 311 and the second reproduced image 312 may be simultaneously displayed and reproduced.

도 10은 본 발명의 다른 일실시예에 따른 통신 단말기가 좌에서 우로 이동시 화면의 예시이다. 도 10을 참조하면, 제 1 포토 카드(11)를 좌측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 우측에 일정간격으로 배치한다고 가정한다. 10 is an example of a screen when a communication terminal moves from left to right according to another embodiment of the present invention. Referring to FIG. 10 , it is assumed that the first photo card 11 is disposed on the left side and the second photo card 12 is disposed on the right side of the first photo card 11 at regular intervals.

이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 좌측에서부터 우측으로 수평 이동(화살표 방향)시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311)이 표시된다. 부연하면, 통신 단말기(20)의 우측에 설치된 카메라(121)가 제 1 포토 카드(11)의 제 1 포토 이미지(11-1)를 센싱함에 따라 제 1 포토 이미지(11-1)와 관련된 제 1 재생 영상(311)이 디스플레이 화면(300)의 반(즉 좌측반)에 출력된다. In this arrangement, when the communication terminal 20 is horizontally moved from left to right (arrow direction) at a predetermined height above the surfaces of the first photo card 11 and the second photo card 120, the communication terminal 20 is A first playback image 311 is displayed on the display screen 300 . In other words, as the camera 121 installed on the right side of the communication terminal 20 senses the first photo image 11-1 of the first photo card 11, the first photo image 11-1 related to the first photo image 11-1 is 1 The reproduced image 311 is output to half (ie, the left half) of the display screen 300 .

제 1 재생 영상(311) 및 제 2 재생 영상은 컨텐츠 정보로서 제 1 포토 카드(11) 및 제 2 포토 카드(12)에 구성되는 제 1 및 제 2 포토 이미지(11-1,12-1)와 관련된 정보이다. The first playback image 311 and the second playback image are the first and second photo images 11-1 and 12-1 configured in the first photo card 11 and the second photo card 12 as content information. is information related to

출력은 일정시간이 경과된 후에 이루어질 수 있다. 예를 들면, 카메라(121)가 제 1 포토 이미지(11-1)를 센싱한 약 3~5초후 제 1 재생 영상(311)이 출력을 시작할 수 있다. The output may be made after a certain period of time has elapsed. For example, about 3 to 5 seconds after the camera 121 senses the first photo image 11-1, the first reproduced image 311 may start to be output.

물론, 제 2 재생 영상(미도시)은 카메라(121)가 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)를 센싱하기 전에 까지는 출력되지 않는 상태이다. 부연하면, 제 1 재생 영상(311)은 일정한 제 1 지연시간까지 출력대기 상태에 있게 된다. 이때, 화면은 통신 단말기(20)의 사용자에게 시각적으로 보이지 않는 상태이다. 부연하면, 첫 프레임부터 인물 이미지가 없을 수 있음으로 인물 이미지가 있는 프레임부터 인물 이미지의 움직임이 있는 프레임까지 걸리는 시간이후에 사용자가 시각적으로 인식할 수 있도록 가시성 뷰(visible view)의 제 1 재생 영상(311)이 출력된다.Of course, the second playback image (not shown) is not output until the camera 121 senses the second photo image 12 - 1 of the second photo card 12 . In other words, the first reproduced image 311 is in the output standby state until a predetermined first delay time. At this time, the screen is not visually visible to the user of the communication terminal 20 . In other words, since there may not be a person image from the first frame, the first playback image of the visible view so that the user can visually recognize it after the time taken from the frame with the person image to the frame with the movement of the person image (311) is output.

또한, 인물 이미지가 있는 프레임으로부터 움직임의 정도가 기준 이상이 발생하는 n번째 프레임까지 소요되는 시간을 갖는 인물 프레임 시간을 포함할 수 있다. Also, it may include a person frame time having a time taken from a frame having a person image to an nth frame in which the degree of motion exceeds a reference level.

또한, 제 2 재생 영상(미도시)의 경우에도 이러한 제 2 지연시간을 갖게 된다. 즉, 화면은 통신 단말기(20)의 사용자에게 시각적으로 보이지 않는 상태이다. 따라서, 제 1 재생 영상(311) 및 제 2 재생 영상은 통신 단말기(20)가 제 1 포토 카드로부터 제 2 포토 카드로 수평이동하는 수평이동시간과 제 2 지연시간의 합 및 제 1 지연시간 중 더 긴시간동안 대기한 뒤, 사용자에게 시각적으로 보이도록 동시 출력된다. 물론, 제 2 지연시간도 인물 이미지가 있는 프레임부터 인물 이미지의 움직임이 일정 수준 이상이 발생하는 n번째 프레임까지 소요되는 시간을 갖는 인물 프레임 시간을 포함한다. Also, the second playback image (not shown) has such a second delay time. That is, the screen is visually invisible to the user of the communication terminal 20 . Accordingly, the first reproduced image 311 and the second reproduced image are selected from the sum of the horizontal movement time and the second delay time during which the communication terminal 20 horizontally moves from the first photo card to the second photo card, and the first delay time. After waiting for a longer time, it is simultaneously output to be visually displayed to the user. Of course, the second delay time also includes a person frame time having a time taken from the frame in which the person image is located to the nth frame in which the movement of the person image occurs at a certain level or more.

통신 단말기(20)가 제 1 포토 카드(11)를 센싱한 이후, 계속 우측으로 이동하면, 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)가 센싱되며, 이와 관련된 제 2 재생 영상(미도시)이 디스플레이 화면(300)의 나머지 반에 출력된다.After the communication terminal 20 senses the first photo card 11, if it continues to move to the right, the second photo image 12-1 of the second photo card 12 is sensed, and a second reproduction related thereto is sensed. An image (not shown) is output to the other half of the display screen 300 .

또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 물체의 표면과 동일한 배경 이미지가 될 수도 있다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 캡쳐하며, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.In addition, the background 301 displayed on the display screen 300 of the communication terminal 20 may be the same background image as the surface of the object on which the photo cards 11 and 12 are placed. For example, when the photo cards 11 and 12 are placed on the surface of a table having a wood pattern, the background 301 becomes a wood pattern image. That is, the communication terminal 20 captures the photo cards 11 and 12 and the background on which the photo cards 11 and 12 are placed at the same time, and separates the photo cards 11 and 12 from the photo card 11, 12) extracts the image extracted from the feature points, and extracts the background image from the background.

도 11은 본 발명의 다른 일실시예에 따른 통신 단말기가 우에서 좌로 이동시 화면의 예시이다. 도 11은 도 10과 달리, 통신 단말기(20)가 나란히 배열되는 제 1 및 제 2 포토 카드(11,12)의 표면상에서 우에서 좌의 수평 방향으로 이동한다. 따라서, 도 10과 달리, 도 11에서는 통신 단말기(20)가 제 2 포토 카드(12)를 먼저 센싱한다. 11 is an example of a screen when a communication terminal moves from right to left according to another embodiment of the present invention. In FIG. 11, unlike FIG. 10, the communication terminal 20 moves in the horizontal direction from right to left on the surfaces of the first and second photo cards 11 and 12 arranged side by side. Accordingly, unlike FIG. 10 , in FIG. 11 , the communication terminal 20 senses the second photo card 12 first.

통신 단말기(20)를 우측에서부터 좌측으로 이동시키면, 통신 단말기(20)의 디스플레이 화면(300)상에는 제 2 재생 영상(312)이 표시되고, 이후 제 1 재생 영상(311)이 표시된다. 즉, 도 3에 도시된 제 1 재생 영상(311)과 제 2 재생 영상(312)의 위치가 반대가 된다.When the communication terminal 20 is moved from the right to the left, the second reproduced image 312 is displayed on the display screen 300 of the communication terminal 20 , and then the first reproduced image 311 is displayed. That is, the positions of the first reproduced image 311 and the second reproduced image 312 shown in FIG. 3 are opposite to each other.

부연하면, 통신 단말기(20)의 좌측에 설치된 카메라(121)가 제 2 포토 카드(12)의 제 2 포토 이미지(12-1)를 센싱함에 따라 제 2 포토 이미지(12-1)와 관련된 제 2 재생 영상(312)이 디스플레이 화면(300)의 반(즉 우측반)에 출력된다. In other words, as the camera 121 installed on the left side of the communication terminal 20 senses the second photo image 12-1 of the second photo card 12, the second photo image 12-1 is related to the second photo image 12-1. 2 The reproduced image 312 is output to a half (ie, a right half) of the display screen 300 .

출력은 일정시간이 경과된 후에 이루어질 수 있다. 예를 들면, 카메라(121)가 제 2 포토 이미지(12-1)를 센싱한 약 1~2초후 제 2 재생 영상(312)이 출력을 시작할 수 있다. The output may be made after a certain period of time has elapsed. For example, after about 1 to 2 seconds after the camera 121 senses the second photo image 12 - 1 , the second playback image 312 may start to be output.

부연하면, 도 10의 경우에는, 제 1 재생 영상(311)과 제 2 재생 영상(312)이 동시에 출력될 수 있다. 이를 위해, 제 1 재생 영상(311)의 출력 시간을 제 2 재생 영상(312)의 출력 시간보다 길게 설정한다. 물론, 도 3의 경우에는, 제 2 재생 영상(312)의 출력 시간을 제 1 재생 영상(311)의 출력 시간보다 길게 설정한다. 따라서, 재생 영상의 동작 시점을 싱크(동기화)하는 것이 가능하다.In other words, in the case of FIG. 10 , the first reproduced image 311 and the second reproduced image 312 may be simultaneously output. To this end, the output time of the first reproduced image 311 is set longer than the output time of the second reproduced image 312 . Of course, in the case of FIG. 3 , the output time of the second reproduced image 312 is set longer than the output time of the first reproduced image 311 . Accordingly, it is possible to synchronize (synchronize) the operation time of the reproduced image.

물론, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 동작 시점을 싱크하지 않고, 센싱되는 순차대로 출력하는 것도 가능하다. 부연하면, 제 1 재생 영상(311) 및 제 2 재생 영상(312)중 어느 하나가 먼저 출력될 수도 있다. 예를 들면, 제 1 재생 영상(311)이 먼저 출력되고, 순차로 제 2 재생 영상(312)이 나중에 출력될 수 있다. 물론, 통신 단말기(20)의 이동 방향에 따라 제 2 재생 영상(312)이 먼저 출력되고, 순차로 제 1 재생 영상(311)이 나중에 출력될 수 있다.Of course, it is also possible to output the operation time points of the first reproduced image 311 and the second reproduced image 312 in the order they are sensed, without synchronizing them. In other words, any one of the first reproduced image 311 and the second reproduced image 312 may be output first. For example, the first reproduced image 311 may be output first, and the second reproduced image 312 may be sequentially output later. Of course, according to the moving direction of the communication terminal 20 , the second reproduced image 312 may be output first, and the first reproduced image 311 may be sequentially output later.

또한, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 동작 시점이 싱크되기전에 일정 시간동안 디스플레이 화면(300)에 시각적(invisible view)으로 보이지 않게 될 수 있다. 부연하면, 제 1 재생 영상(311)이 출력되기 전에 비가시성 뷰(invisible view) 상태로 있고, 이후 제 1 재생 영상(311), 제 2 재생 영상(312)이 순차적으로 출력된다. 물론, 비가시성 뷰는 제 1 재생 영상(311)이 출력될 디스플레이 화면(300)의 반에 표시된다.Also, before the operation time points of the first reproduced image 311 and the second reproduced image 312 are synchronized, it may be invisible on the display screen 300 for a predetermined period of time. In other words, it is in an invisible view state before the first reproduced image 311 is output, and then the first reproduced image 311 and the second reproduced image 312 are sequentially output. Of course, the invisible view is displayed on a half of the display screen 300 on which the first reproduced image 311 is to be output.

예를 들면, 통신 단말기(20)가 가로방향으로 눕혀진 상태에서, 디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 디스플레이 화면(300)의 반은 가로폭이 7.5cm이고, 세로폭은 동일하게 7cm이다. 이 경우, 재생 영상(311,312)의 크기는 가로폭이 7cm이고, 세로폭은 5cm이가 될 수 있다. For example, assuming that the width of the display screen 300 is 15 cm and the vertical width is 7 cm in a state in which the communication terminal 20 is laid down in the horizontal direction, half of the display screen 300 has a width of 7.5 cm, and the vertical width is the same as 7 cm. In this case, the size of the reproduced images 311 and 312 may be 7 cm in width and 5 cm in vertical width.

도 10에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.In FIG. 10 , it is assumed that the camera 121 is installed in the communication terminal 20 in the longitudinal direction, but when two cameras ( 121 in FIG. 2 ) are installed at regular intervals on the left and right sides of the communication terminal 20 , the top and bottom It is possible to move the communication terminal 20 in an upward direction under or under the direction. In this case, the first reproduced image 311 and the second reproduced image 312 may be simultaneously displayed and reproduced.

도 12는 본 발명의 또 다른 일실시예에 따른 통신 단말기(20)가 수평 방향으로 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다. 도 8을 참조하면, 나란히 배열되는 제 1 및 제 2 포토 카드(11,12)의 표면위로 통신 단말기(20)를 수평 방향으로 이동시키면, 카메라(121)에 구성되는 이미지 센서가 순차적으로 제 1 포토 카드(11)의 포토 이미지(11-1) 및 제 2 포토 카드(12)의 포토 이미지(12-1)를 센싱하여 촬영 이미지 정보를 생성한다(단계 S1210,S1220). 12 is a flowchart illustrating a process of sensing a photo image of a photo card and receiving matching content as the communication terminal 20 moves in a horizontal direction according to another embodiment of the present invention. Referring to FIG. 8 , when the communication terminal 20 is moved horizontally on the surfaces of the first and second photo cards 11 and 12 arranged side by side, the image sensor configured in the camera 121 sequentially moves the first The photo image 11-1 of the photo card 11 and the photo image 12-1 of the second photo card 12 are sensed to generate photographed image information (steps S1210 and S1220).

물론, 통신 단말기(20)의 이동 방향이 반대이면, 제 2 포토(120)의 포토 이미지(12-1), 제 1 포토 카드(11)의 포토 이미지(11-1)가 순차적으로 센싱될 수 있다. 이와달리, 통신 단말기(20)를 수직 방향으로 이동시키는 것도 가능하다. 이 경우, 제 1 포토 카드(11)의 포토 이미지(11-1) 및 제 2 포토 카드(12)의 포토 이미지(12-1)가 동시에 센싱될 수 있다.Of course, if the movement direction of the communication terminal 20 is opposite, the photo image 12-1 of the second photo 120 and the photo image 11-1 of the first photo card 11 may be sensed sequentially. there is. Alternatively, it is also possible to move the communication terminal 20 in the vertical direction. In this case, the photo image 11 - 1 of the first photo card 11 and the photo image 12 - 1 of the second photo card 12 may be simultaneously sensed.

통신 단말기(20)가 촬영 이미지 정보들을 관리 서버(40)에 전송하면, 관리 서버(40)는 촬영 이미지 정보들로부터 포토 이미지 관련된 특징점 정보들을 추출한다(단계 S1230).When the communication terminal 20 transmits the photographed image information to the management server 40, the management server 40 extracts photo image-related feature point information from the photographed image information (step S1230).

이후, 관리 서버(40)는 특징점 정보들과 매칭되는 컨텐츠들을 데이터베이스(도 1의 41)에서 검색하여 통신 단말기(20)에 전송한다(단계 S1240).Thereafter, the management server 40 searches the database ( 41 of FIG. 1 ) for contents matching the feature point information and transmits it to the communication terminal 20 (step S1240 ).

물론, 단계 1230은 통신 단말기(20)에서 실행될 수도 있다. 부연하면, 통신 단말기(20)에 특징점 정보를 추출하는 알고리즘을 갖는 소프트웨어를 구성하여, 이 소프트웨어를 이용하여 특징점 정보를 추출하고, 이를 관리 서버(40)에 전송하는 방식이다.Of course, step 1230 may also be executed in the communication terminal 20 . In other words, it is a method of configuring software having an algorithm for extracting key point information in the communication terminal 20 , extracting key point information using this software, and transmitting it to the management server 40 .

도 13은 도 12에 도시된 순서이후, 2개의 컨텐츠에서 객체 크기를 비교하여 영상의 크기를 조절하여 디스플레이하는 과정을 보여주는 흐름도이다. 도 9를 참조하면, 통신 단말기(20)는 관리 서버(40)가 전송한 컨테츠들을 로딩하여 제 1 재생 영상(311) 및 제 2 재생 영상(312)를 디스플레이 화면(도 3의 300)에 출력한다(단계 S1310).13 is a flowchart illustrating a process of adjusting and displaying the size of an image by comparing object sizes in two pieces of content after the sequence shown in FIG. 12 . Referring to FIG. 9 , the communication terminal 20 loads the contents transmitted by the management server 40 and outputs the first playback image 311 and the second playback image 312 on the display screen (300 in FIG. 3 ). do (step S1310).

통신 단말기(20)는 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 화면 중앙 전방(즉 최전방)에 있는 인물을 포커싱으로 검출하여 얼굴 크기를 산출한다(단계 S1320).The communication terminal 20 calculates the size of a face by detecting a person in front of the center of the screen (ie, at the forefront) of the first reproduced image 311 and the second reproduced image 312 by focusing (step S1320).

이후, 산출된 얼굴 크기를 비교하여 동일한 지를 판단한다(단계 S1330). 즉, 제 1 포커싱 영역(311-2)과 제 2 포커싱 영역(312-2)의 크기를 서로 비교한다.Thereafter, it is determined whether the calculated face sizes are the same (step S1330). That is, the sizes of the first focusing area 311 - 2 and the second focusing area 312 - 2 are compared with each other.

비교 결과, 단계 S1330에서, 서로 크기가 동일하면, 통신 단말기(20)는 현재 화면 비율 상태를 유지한다(단계 S1331).As a result of the comparison, if the sizes are the same in step S1330, the communication terminal 20 maintains the current aspect ratio (step S1331).

이와 달리, 단계 S1330에서, 크기가 다르면, 즉, 제 1 재생 영상(311)에 표시된 인물의 얼굴크기가 제 2 재생 영상(312)에 표시된 인물의 얼굴크기보다 크면, 제 1 재생 영상(311)에 표시된 인물의 얼굴크기를 기준으로 제 2 재생 영상(312)의 화면을 확대한다(단계 S1340). On the other hand, in step S1330, if the size is different, that is, if the face size of the person displayed in the first reproduced image 311 is larger than the face size of the person displayed in the second reproduced image 312, the first reproduced image 311 The screen of the second reproduced image 312 is enlarged based on the face size of the person displayed in (step S1340).

물론, 단계 S1330 내지 단계 S1340은 특정 인물(311-1,312-1)의 얼굴 크기가 모두 미리 설정되는 기준값보다 큰 경우를 가정한 것이다.Of course, in steps S1330 to S1340, it is assumed that the face sizes of the specific persons 311-1 and 312-1 are all larger than a preset reference value.

이와 달리, 특정 인물(311-1,312-1)의 얼굴 크기가 모두 미리 설정되는 기준값보다 작은 경우, 2개의 재생 영상(311,312)을 미리 설정되는 비율로 확대하여 출력한다. 물론, 제 1 재생 영상(311)의 확대 비율과 제 2 재생 영상(312)의 확대 비율은 서로 다를 수 있다. 예를 들면, 제 1 재생 영상(311)의 확대 비율은 약 110%이고, 제 2 재생 영상(312)의 확대 비율은 약 125%가 될 수 있다. 물론, 얼굴 크기가 상대적으로 작을수록 확대 비율이 높아진다.Contrary to this, when the face sizes of the specific persons 311-1 and 312-1 are all smaller than a preset reference value, the two reproduced images 311 and 312 are enlarged and output at a preset ratio. Of course, the magnification ratio of the first playback image 311 and the magnification ratio of the second playback image 312 may be different from each other. For example, the magnification ratio of the first playback image 311 may be about 110%, and the magnification ratio of the second playback image 312 may be about 125%. Of course, the smaller the face size, the higher the magnification ratio.

도 14는 본 발명의 또 다른 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 디스플레이된 상태에서 2개의 영상속 객체 크기를 포커싱하는 개념을 보여주는 화면의 예시이다.14 is an example of a screen illustrating the concept of focusing the size of an object in two images while a reproduced image of the same size is displayed after the communication terminal moves according to another embodiment of the present invention.

도 14를 참조하면, 제 1 포토 카드(11)를 우측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 좌측에 일정간격으로 배치한다고 가정한다. Referring to FIG. 14 , it is assumed that the first photo card 11 is arranged on the right side and the second photo card 12 is arranged on the left side of the first photo card 11 at regular intervals.

이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 좌측에서부터 우측으로 또는 우측에서부터 좌측으로 수평 이동시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 표시된다. In this arrangement state, when the communication terminal 20 is horizontally moved from the left to the right or from the right to the left at a predetermined height over the surfaces of the first photo card 11 and the second photo card 120, the communication terminal 20 The first reproduced image 311 and the second reproduced image 312 are displayed on the display screen 300 of .

물론, 통신 단말기(20)는 수직 방향으로 이동시키는 것도 가능하다. 부연하면, 일정간격으로 나란히 배열되어 있는 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위에서 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 위쪽으로부터 아래쪽으로 이동시킬 수 있다. 물론, 이와 달리, 통신 단말기(20)를 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 아래쪽으로부터 위쪽으로 또는 위쪽으로부터 아래쪽으로 이동시킬 수도 있다.Of course, it is also possible to move the communication terminal 20 in the vertical direction. In other words, on the surface of the first photo card 11 and the second photo card 120 that are arranged side by side at regular intervals, the first photo card 11 and the second photo card 120 are moved from the top to the bottom. can Of course, alternatively, the communication terminal 20 may be moved from the bottom to the top or from the top to the bottom of the first photo card 11 and the second photo card 120 .

통신 단말기(20)의 이동후, 통신 단말기(20)의 디스플레이 화면(300)상에 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 표시된다. 제 1 재생 영상(311)은 제 1 포토 이미지(11-1)와 관련된 컨텐츠이고, 제 2 재생 영상(312)은 제 2 포토 이미지(12-1)와 관련된 컨텐츠이다.After the communication terminal 20 moves, the first reproduced image 311 and the second reproduced image 312 are displayed on the display screen 300 of the communication terminal 20 . The first playback image 311 is content related to the first photo image 11-1, and the second playback image 312 is content related to the second photo image 12-1.

통신 단말기(20)의 제어부(180)는 설치된 얼굴인식 알고리즘 프로그램을 이용하여 제 1 재생 영상(311)에서 제 1 객체(311-1)의 포커싱 영역(311-2)을 산출하고, 제 2 재생 영상(312)에서 제 2 객체(312-1)의 포커싱 영역(312-2)을 산출한다. The controller 180 of the communication terminal 20 calculates a focusing area 311-2 of the first object 311-1 in the first reproduced image 311 using the installed face recognition algorithm program, and reproduces the second image. In the image 312 , a focusing area 312-2 of the second object 312-1 is calculated.

제 1 객체(311-1) 및 제 2 객체(312-1)는 인물이 되나, 이에 한정되는 것은 아니며 동물, 물건, 나무 등이 될 수도 있다. 본 발명의 일실시예에서는 인물을 상정하여 설명하기로 한다.The first object 311-1 and the second object 312-1 may be a person, but are not limited thereto, and may be an animal, an object, a tree, or the like. In an embodiment of the present invention, a description will be made assuming a person.

영상속에서 객체 인식 기술, 특히 얼굴 인식 기술은 파이썬(python) 코드를 이용한 알고리즘 등을 포함하여 널리 알려져 있음으로 더 이상의 설명은 생략하기로 한다. 또한, 이러한 얼굴 인식에서 인식률을 향상시키는 기법들이 제안되었다. The object recognition technology in the video, especially the face recognition technology, is widely known including algorithms using Python code, so further explanation will be omitted. In addition, techniques for improving the recognition rate in such face recognition have been proposed.

부연하면, 얼굴 인식은 얼굴 영상에서 특징을 추출하고, 이를 다양한 알고리즘을 통해 학습하여 학습된 데이터와 새로운 얼굴 영상에서의 특징과 비교하여 사람을 인식하는 기술로 인식률을 향상시키기 위해서 다양한 방법들이 요구되는 기술이다 얼굴 인식을 위해 학습 단계에서는 얼굴 영상들로부터 특징 성분을 추출해야하며, 이를 위한 기존 얼굴 특징 성분 추출 방법에는 선형판별분석(Linear Discriminant Analysis, LDA)법을 들 수 있다. 이 방법은 얼굴영상들을 고차원 공간에서 점들로 표현하고, 클래스 정보와 점의 분포를 분석하여 사람을 판별하기 위한 특징들을 추출한다.In other words, face recognition is a technology that recognizes a person by extracting features from a face image, learning it through various algorithms, and comparing the learned data with features in a new face image. Various methods are required to improve the recognition rate. It is a technology For face recognition, it is necessary to extract feature components from face images in the learning stage, and for this purpose, an existing facial feature component extraction method includes a Linear Discriminant Analysis (LDA) method. In this method, facial images are expressed as dots in a high-dimensional space, and features for identifying people are extracted by analyzing class information and the distribution of dots.

물론, 얼굴영역을 검출하고, 검출된 얼굴 영역에서 가보르 필터(Gabor Filter)를 이용하여 계산된 얼굴 외곽선을 통해 불필요한 영역을 제거한 후 일정 크기로 얼굴 영역 크기를 정규화하고, 정규화된 얼굴 영상을 선형 판별 분석을 통해 얼굴 특징 성분을 추출하고, 인공 신경망을 통해 학습하여 얼굴 인식을 수행하여 기존의 불필요 영역을 감소시켜 기존 얼굴 인식 방법보다 약 13% 정도의 인식률 향상이 가능하는 방식도 제안되어 있다.Of course, the face area is detected, and unnecessary areas are removed through the facial outline calculated using a Gabor filter in the detected face area, and then the size of the face area is normalized to a certain size, and the normalized face image is linearized. A method that can improve the recognition rate by about 13% compared to the existing face recognition method by extracting facial feature components through discriminant analysis and performing face recognition by learning through an artificial neural network is also proposed.

도 14를 계속 참조하면, 포커싱 영역(311-2,312-2)은 얼굴을 이루는 픽셀로 이루어진 영역으로 크기가 조정된다. 또한, 포커싱 영역(311-2,312-2)은 원형태가 바람직하나, 사각 형태도 가능하다. 부연하면, 포커싱 영역(311-2,312-2)은 인식되는 얼굴영역의 크기에 따라 확대되거나 감소된다. 즉, 인식된 얼굴영역내 활성화된 픽셀의 갯수가 많이 인식되면 포커싱 영역의 크기는 증가하고, 비활성화된 픽셀의 갯수가 적게 인식되면 포커싱 영역의 크기가 감소한다.14 , the focusing areas 311 - 2 and 312 - 2 are areas made up of pixels constituting the face and are sized. In addition, the focusing areas 311 - 2 and 312 - 2 preferably have a circular shape, but may also have a rectangular shape. In other words, the focusing areas 311 - 2 and 312 - 2 are enlarged or reduced according to the size of the recognized face area. That is, when a large number of activated pixels in the recognized face region is recognized, the size of the focusing region increases, and when a small number of inactive pixels is recognized, the size of the focusing region decreases.

따라서, 제 1 포커싱 영역(311-2)과 제 2 포커싱 영역(312-2)에 따른 얼굴 크기의 차이가 발생하며, 모양이 원형태임으로 중심점으로부터 경계에 이르는 거리의 반지름을 계산할 수 있다. 일반적으로 반지름은 단위가 cm이며, 픽셀을 cm로 환산하는 수학식은 다음과 같다.Accordingly, a difference in face size occurs according to the first focusing area 311 - 2 and the second focusing area 312 - 2 , and the radius of the distance from the center point to the boundary can be calculated because the shape is circular. In general, the unit of radius is cm, and the equation for converting pixels to cm is as follows.

Figure 112021017267921-pat00001
Figure 112021017267921-pat00001

여기서, DIP(Device Independence Pixel)는 1인치(=2.54cm)당 픽셀의 수로 1인치내에 들어가는 픽셀을 나타내는 단위이다. 즉, DIP는 어떤 화면크기에서도 동일한 비율로 출력되도록 하는 단위이다.Here, DIP (Device Independence Pixel) is the number of pixels per inch (=2.54 cm), and is a unit indicating pixels that fit within one inch. That is, DIP is a unit for outputting at the same ratio in any screen size.

이러한 환산 과정을 통해, 제 1 포커싱 영역(311-2)과 제 2 포커싱 영역(312-2)의 크기들이 산출된다. 예를 들어, 제 1 포커싱 영역(311-2)의 반지름(r1)이 1cm로, 제 2 포커싱 영역(312-2)의 반지름(r2)이 0.5cm로 산출될 수 있다.Through this conversion process, sizes of the first focusing area 311 - 2 and the second focusing area 312 - 2 are calculated. For example, the radius r1 of the first focusing area 311 - 2 may be calculated as 1 cm, and the radius r2 of the second focusing area 312 - 2 may be calculated as 0.5 cm.

물론, 제 1 포커싱 영역(311-2) 및 제 2 포커싱 영역(312-2)이 사각형태이면, 가로 세로의 면적 크기로 서로 비교할 수 있다. 예를 들어, 제 1 포커싱 영역(311-2)의 면적크기는 약 1cm x 0.5cm로, 제 2 포커싱 영역(312-2)의 면적크기는 약 0.5cm x 0.25cm로 각각 산출될 수 있다.Of course, when the first focusing area 311 - 2 and the second focusing area 312 - 2 are in a rectangular shape, they can be compared with each other in terms of horizontal and vertical area sizes. For example, the area size of the first focusing area 311 - 2 may be calculated to be about 1 cm x 0.5 cm, and the area size of the second focusing area 312 - 2 may be calculated to be about 0.5 cm x 0.25 cm, respectively.

또한, 제 1 객체(즉, 인물)(311-1) 및 제 2 객체(312-1)는 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 화면 중앙에 있거나 중앙에서 가까운 위치의 객체가 될 수 있다. 부연하면, 통신 단말기(20)가 가로방향으로 눕혀진 상태에서, 디스플레이 화면(300)의 가로폭은 약 15cm이고, 세로폭은 약 7cm라고 가정하면, 경계선(303)을 기준으로 디스플레이 화면(300)의 반(즉 분할 화면)은 가로폭이 7.5cm이고, 세로폭은 동일하게 7cm이다. 이 경우, 재생 영상(311,312)의 크기는 가로폭이 7cm이고, 세로폭은 5cm이가 될 수 있다. 따라서, 화면 중앙은 3.5cm가 되고, 인물이 정중앙에 있지않을 경우도 존재함으로 3.25cm 내지 3.75cm 범위내에 있는 인물도 중앙에 있는 것으로 가정할 수 있다.In addition, the first object (ie, a person) 311-1 and the second object 312-1 are located in the center of the screen of the first playback image 311 and the second playback image 312 or at a position close to the center. can be an object. In other words, assuming that the horizontal width of the display screen 300 is about 15 cm and the vertical width is about 7 cm in a state in which the communication terminal 20 is laid down in the horizontal direction, the display screen 300 based on the boundary line 303 ) half (that is, split screen) has a width of 7.5cm and a height of 7cm. In this case, the size of the reproduced images 311 and 312 may be 7 cm in width and 5 cm in vertical width. Therefore, the center of the screen is 3.5 cm, and there are cases where the person is not in the center, so it can be assumed that the person within the range of 3.25 cm to 3.75 cm is also in the center.

물론, 3.25cm 내지 3.75cm 범위를 벗어나서 인물이 존재할 수도 있다. 즉, 이 범위내 후보 인물이 하나도 없을 수 있다. 이 경우, 미리 정해진 폭으로 범위를 증가시켜 인물을 탐색할 수 있다. 예를 들면, 3.15cm 내지 3.85cm로 폭을 증가시키는 것을 들 수 있다. 물론, 폭을 증가시켜 실행하여도 인물이 탐색되지 않으면, 컨텐츠 정보(311,312)는 현재의 상태를 유지하게 된다.Of course, a person may exist outside the range of 3.25 cm to 3.75 cm. That is, there may be no candidate persons within this range. In this case, the person may be searched for by increasing the range to a predetermined width. For example, increasing the width to 3.15 cm to 3.85 cm is mentioned. Of course, if a person is not searched even when the width is increased, the content information 311 and 312 maintain the current state.

또한, 3.25cm 내지 3.75cm 범위내 여러 명(2개 이상)의 후보 인물이 있을 수 있다. 이 경우, 모든 후보 인물의 얼굴을 인식하여 이를 포커싱을 통해 얼굴 크기로 변환하여 서로 비교하여 가장 작은 하나의 후보 인물을 비교대상의 특정 인물로 정할 수 있다.Also, there may be several (two or more) candidates within the range of 3.25 cm to 3.75 cm. In this case, the faces of all candidate persons are recognized, they are converted into face sizes through focusing, and the single smallest candidate person can be determined as a specific person to be compared by comparing them with each other.

물론, 도 14에 도시된 바와 같이, 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 출력된 인물들의 얼굴 크기가 모두 미리 설정되는 기준값보다 큰 경우, 제 1 재생 영상(311)의 인물의 얼굴크기가 제 2 재생 영상(312)의 인물의 얼굴크기보다 크면, 제 2 재생 영상(312)의 화면크기를 미리 정해진 비율로 확대한다. 이러한 원리는 이와 반대의 경우에도 적용될 수 있다.Of course, as shown in FIG. 14 , when the face sizes of the people output to the first playback image 311 and the second playback image 312 are larger than a preset reference value, the first playback image 311 is If the face size of the person is larger than the face size of the person in the second reproduced image 312 , the screen size of the second reproduced image 312 is enlarged at a predetermined ratio. This principle can also be applied in the opposite case.

한편, 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 출력된 인물들의 얼굴 크기가 모두 미리 설정되는 기준값보다 큰 경우가 있을 수 있다. 이 경우, 제 1 재생 영상(311)의 인물의 얼굴크기가 제 2 재생 영상(312)의 인물의 얼굴크기보다 크면, 제 1 재생 영상(311) 및 제 2 재생 영상(312)의 화면을 모두 확대할 수 있으며, 확대하는 비율은 각 얼굴크기에 따라 다르게 조정될 수 있다. 물론, 이러한 확대 비율은 미리 설정되어 통신 단말기(20)에 저장될 수 있다. On the other hand, there may be a case where both the face sizes of the people output to the first reproduced image 311 and the second reproduced image 312 are larger than a preset reference value. In this case, if the face size of the person in the first reproduced image 311 is larger than the face size of the person in the second reproduced image 312, both the screens of the first reproduced image 311 and the second reproduced image 312 are displayed. It can be enlarged, and the enlargement ratio can be adjusted differently for each face size. Of course, this enlargement ratio may be preset and stored in the communication terminal 20 .

물론, 제 1 재생 영상(311)의 인물의 얼굴크기와 제 2 재생 영상(312)의 인물의 얼굴크기가 같으면, 동일한 비율로 화면이 확대된다.Of course, if the face size of the person in the first reproduced image 311 and the face size of the person in the second reproduced image 312 are the same, the screen is enlarged at the same rate.

또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 객체의 표면과 동일한 배경 이미지가 될 수도 있다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 갭쳐하며, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.In addition, the background 301 displayed on the display screen 300 of the communication terminal 20 may be the same background image as the surface of the object on which the photo cards 11 and 12 are placed. For example, when the photo cards 11 and 12 are placed on the surface of a table having a wood pattern, the background 301 becomes a wood pattern image. That is, the communication terminal 20 captures the photo cards 11 and 12 and the background on which the photo cards 11 and 12 are placed at the same time, and separates the photo cards 11 and 12 from the background to separate the photo cards 11, 12) extracts the image extracted from the feature points, and extracts the background image from the background.

도 15는 도 14에 도시된 포커싱이후 객체 크기가 상대적으로 작은 재생영상을 확대하여 디스플레이하는 화면의 예시이다. 도 15를 참조하면, 제 1 포커싱 영역(311-2)과 제 2 포커싱 영역(312-2)간 크기 비교에 따라 제 1 포커싱 영역(311-2)이 제 2 포커싱 영역(312-2)보다 크다고 판단되면, 통신 단말기(20)의 제어부(180)는 작은쪽에 속하는 제 2 포커싱 영역(312-2)에 해당되는 제 2 재생 영상(312)의 화면을 확대하여 디스플레이 화면(301)에 출력한다.FIG. 15 is an example of a screen for magnifying and displaying a reproduced image having a relatively small object size after focusing shown in FIG. 14 . Referring to FIG. 15 , according to a size comparison between the first focusing area 311 - 2 and the second focusing area 312 - 2 , the first focusing area 311 - 2 is larger than the second focusing area 312 - 2 . If it is determined to be large, the controller 180 of the communication terminal 20 enlarges the screen of the second reproduced image 312 corresponding to the second focusing area 312-2 belonging to the smaller side and outputs it on the display screen 301 . .

예를 들면, 화면 확대전, 디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 도 14에서 제 1 및 제 2 재생 영상(311,312)의 가로폭은 약 6cm이고, 세로폭은 약 4cm가 될 수 있다. For example, before the screen enlargement, assuming that the horizontal width of the display screen 300 is 15 cm and the vertical width is 7 cm, the horizontal width of the first and second reproduced images 311 and 312 in FIG. 14 is about 6 cm, and the vertical width is about 6 cm. The width can be about 4 cm.

화면 확대후, 도 15의 경우, 제 1 재생 영상(311)은 크기를 그대로 유지하고, 제 2 재생 영상(312)의 가로폭은 약 6.89cm이고, 세로폭은 약 5cm가 될 수 있다.After the screen is enlarged, in the case of FIG. 15 , the size of the first reproduced image 311 may be maintained, and the width of the second reproduced image 312 may be about 6.89 cm and the vertical width may be about 5 cm.

물론, 이를 비율로 정할 수도 있다. 예를 들면, 제 1 재생 영상(311)을 100%로 가정한다면, 제 2 재생 영상(312)은 110%가 될 수 있다.Of course, this can also be set as a ratio. For example, if it is assumed that the first reproduced image 311 is 100%, the second reproduced image 312 may be 110%.

또한, 제 1 재생 영상(311)를 90% 축소하고, 제 2 재생 영상(312)은 140%로 확대하는 것도 가능하다. 즉, 제 2 재생 영상(312)에 표시되는 인물들이 다수여서 구별이 힘들경우, 경계선(303)을 넘어서 확대되도록 한 것이다. 물론, 이 경우, 제 1 재생 영상(311)은 축소된다.Also, the first reproduced image 311 may be reduced by 90% and the second reproduced image 312 may be enlarged by 140%. That is, when it is difficult to distinguish because there are a large number of people displayed in the second reproduced image 312 , it is enlarged beyond the boundary line 303 . Of course, in this case, the first reproduced image 311 is reduced.

도 14에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.In FIG. 14 , it is assumed that the camera 121 is installed in the communication terminal 20 in the longitudinal direction, but when two cameras ( 121 in FIG. 2 ) are installed at regular intervals on the left and right sides of the communication terminal 20 , top and bottom It is possible to move the communication terminal 20 in an upward direction under or under the direction. In this case, the first reproduced image 311 and the second reproduced image 312 may be simultaneously displayed and reproduced.

또한, 여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계들은, 마이크로프로세서, 프로세서, CPU(Central Processing Unit) 등과 같은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 (명령) 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. In addition, the steps of the method or algorithm described in relation to the embodiments disclosed herein are implemented in the form of program instructions that can be executed through various computer means such as a microprocessor, a processor, a CPU (Central Processing Unit), etc. It can be recorded on any available medium. The computer-readable medium may include program (instructions) codes, data files, data structures, etc. alone or in combination.

상기 매체에 기록되는 프로그램 (명령) 코드는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프 등과 같은 자기 매체(magnetic media), CD-ROM, DVD, 블루레이 등과 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 (명령) 코드를 저장하고 수행하도록 특별히 구성된 반도체 기억 소자가 포함될 수 있다. The program (instructions) code recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs, DVDs, Blu-rays, and the like, and ROM, RAM ( A semiconductor memory device specially configured to store and execute program (instruction) code such as RAM), flash memory, and the like may be included.

여기서, 프로그램 (명령) 코드의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Here, examples of the program (instruction) code include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

1: 영상 재생 시스템
11,12: 제 1 및 제 2 포토 카드
11-1,12-1: 제 1 및 제 2 포토 이미지
20: 통신 단말기
30: 통신망
40: 관리 서버
41: 데이터베이스
110: 무선 통신부 120: A/V(Audio/Video) 입력부
130: 사용자 입력부 140: 센싱부
160: 메모리 170: 인터페이스부
180: 제어부 190: 전원 공급부
300: 디스플레이 화면
301: 백그라운드
311: 제 1 컨텐츠 정보(재생 영상)
312: 제 2 컨텐츠 정보(재생 영상)
1: Video playback system
11,12: first and second photo cards
11-1,12-1: first and second photo images
20: communication terminal
30: communication network
40: management server
41: database
110: wireless communication unit 120: A/V (Audio/Video) input unit
130: user input unit 140: sensing unit
160: memory 170: interface unit
180: control unit 190: power supply unit
300: display screen
301: background
311: first content information (played video)
312: second content information (played video)

Claims (5)

삭제delete 삭제delete 삭제delete (a) 통신 단말기(20)가 일정 간격으로 나란히 놓여지는 2개의 포토 카드(11,12)의 표면위를 이동함에 따라 2개의 상기 포토 카드(11,12)에 각각 배치되는 2개의 포토 이미지(11-1,12-1)를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계;
(b) 관리 서버(40)가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 2개의 컨텐츠 정보(311,312)를 검색하는 단계;
(c) 상기 관리 서버(40)가 검색된 2개의 컨텐츠 정보(311,312)를 상기 통신 단말기(20)에 전송하는 단계; 및
(d) 상기 통신 단말기(20)가 2개의 상기 컨텐츠 정보(311,312)에 각각 표시되는 제 1 특정 인물(311-1)의 제 1 얼굴 크기와 제 2 특정 인물(312-1)의 제 2 얼굴 크기를 서로 비교하여, 상기 비교 결과에 따라 2개의 상기 컨텐츠 정보(311,312) 중 어느 하나 또는 둘 다를 확대하여 디스플레이 화면(300)상에 출력하는 단계;
상기 (d) 단계는,
(d-1) 상기 통신 단말기(20)가 2개의 상기 컨텐츠 정보(311,312)를 상기 디스플레이 화면(300)상에 분할 화면으로 표시하는 단계;
(d-2) 상기 통신 단말기(20)는 상기 제 1 특정 인물(311-1) 및 상기 제 2 특정 인물(312-1)이 각각 상기 분할 화면상 상기 분할 화면의 정중앙선으로부터 좌우로 일정 폭을 갖는 특정 위치내에 있는지를 판단하는 단계;
(d-3) 상기 판단 결과에 따라, 상기 통신 단말기(20)는 상기 제 1 특정 인물(311-1)에 대한 제 1 포커싱 영역(311-2) 및 상기 제 2 특정 객체(312-1)에 대한 제 2 포커싱 영역(312-2)을 통해 각각 상기 제 1 얼굴 크기 및 상기 제 2 얼굴 크기를 생성하는 단계;
(d-4) 상기 통신 단말기(20)가 상기 제 1 얼굴 크기와 상기 제 2 얼굴 크기를 비교하는 단계; 및
(d-5) 상기 통신 단말기(20)가 상기 비교 결과에 따라 2개의 상기 컨텐츠 정보(311,312) 중 어느 하나를 확대하여 상기 디스플레이 화면(300)상에 출력하는 단계;를 포함하는 것을 특징으로 하는 포토 카드를 이용한 영상 재생 방법.
(a) As the communication terminal 20 moves on the surface of the two photo cards 11 and 12 placed side by side at regular intervals, two photo images disposed on the two photo cards 11 and 12, respectively ( 11-1, 12-1) and generating two pieces of photographed image information corresponding to each;
(b) the management server 40 searching for two pieces of content information 311 and 312 respectively matching the two pieces of feature point information using two pieces of feature point information extracted from each of the two pieces of captured image information;
(c) transmitting, by the management server 40, the two pieces of content information 311 and 312 found to the communication terminal 20; and
(d) the first face size of the first specific person 311-1 and the second face of the second specific person 312-1 that the communication terminal 20 displays in the two pieces of the content information 311 and 312, respectively comparing the sizes with each other, enlarging any one or both of the two pieces of content information 311 and 312 according to the comparison result and outputting them on the display screen 300;
Step (d) is,
(d-1) displaying, by the communication terminal 20, the two pieces of the content information 311 and 312 on the display screen 300 in a split screen;
(d-2) In the communication terminal 20, the first specific person 311-1 and the second specific person 312-1 have a predetermined width on the split screen left and right from the center line of the split screen, respectively. determining whether it is within a specific location with
(d-3) According to the determination result, the communication terminal 20 sets the first focusing area 311-2 and the second specific object 312-1 for the first specific person 311-1. generating the first face size and the second face size through a second focusing area (312-2) for ;
(d-4) comparing the first face size with the second face size by the communication terminal 20; and
(d-5) outputting, by the communication terminal 20, on the display screen 300 by magnifying any one of the two pieces of content information 311 and 312 according to the comparison result How to play video using a photo card.
삭제delete
KR1020210019252A 2021-02-10 2021-02-10 Method for playing images using photo card KR102396639B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019252A KR102396639B1 (en) 2021-02-10 2021-02-10 Method for playing images using photo card

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019252A KR102396639B1 (en) 2021-02-10 2021-02-10 Method for playing images using photo card

Publications (1)

Publication Number Publication Date
KR102396639B1 true KR102396639B1 (en) 2022-05-12

Family

ID=81590518

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019252A KR102396639B1 (en) 2021-02-10 2021-02-10 Method for playing images using photo card

Country Status (1)

Country Link
KR (1) KR102396639B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102545706B1 (en) * 2022-09-06 2023-06-20 주식회사 바이브존 Operating method of electronic device providing digital content based on near field communication

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050714A (en) * 2010-11-11 2012-05-21 한국과학기술원 Augmented reality system and method of a printed matter and video
KR102028139B1 (en) 2019-03-29 2019-10-04 주식회사 스탠스 Method for displaying image using augmented reality
KR20190128586A (en) * 2018-05-08 2019-11-18 주식회사 아이오로라 Personalized photo card system and method of producing the photo card

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050714A (en) * 2010-11-11 2012-05-21 한국과학기술원 Augmented reality system and method of a printed matter and video
KR20190128586A (en) * 2018-05-08 2019-11-18 주식회사 아이오로라 Personalized photo card system and method of producing the photo card
KR102028139B1 (en) 2019-03-29 2019-10-04 주식회사 스탠스 Method for displaying image using augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102545706B1 (en) * 2022-09-06 2023-06-20 주식회사 바이브존 Operating method of electronic device providing digital content based on near field communication

Similar Documents

Publication Publication Date Title
CN111726536B (en) Video generation method, device, storage medium and computer equipment
US11640235B2 (en) Additional object display method and apparatus, computer device, and storage medium
US9721156B2 (en) Gift card recognition using a camera
CN108121816B (en) Picture classification method and device, storage medium and electronic equipment
CN111491187B (en) Video recommendation method, device, equipment and storage medium
CN111506758B (en) Method, device, computer equipment and storage medium for determining article name
KR101545138B1 (en) Method for Providing Advertisement by Using Augmented Reality, System, Apparatus, Server And Terminal Therefor
US20210141826A1 (en) Shape-based graphics search
CN112232260A (en) Subtitle region identification method, device, equipment and storage medium
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
US20140267435A1 (en) Image editing method, machine-readable storage medium, and terminal
CN111242090A (en) Human face recognition method, device, equipment and medium based on artificial intelligence
CN109189879A (en) E-book display methods and device
CN110856048B (en) Video repair method, device, equipment and storage medium
CN106250421A (en) A kind of method shooting process and terminal
CN110290426B (en) Method, device and equipment for displaying resources and storage medium
CN104106078A (en) Ocr cache update
Thabet et al. Image processing on mobile devices: An overview
KR102396639B1 (en) Method for playing images using photo card
CN113709545A (en) Video processing method and device, computer equipment and storage medium
CN117082304A (en) Video generation method, device, computer equipment and storage medium
KR20190101620A (en) Moving trick art implement method using augmented reality technology
Lo et al. Augmediated reality system based on 3D camera selfgesture sensing
KR102396641B1 (en) Image playing method for synchronizing operating start time and object size of images from photo card
KR102396638B1 (en) Method for playing image by adjusting object size among photo card based on it

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant