KR102396642B1 - 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법 - Google Patents

포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법 Download PDF

Info

Publication number
KR102396642B1
KR102396642B1 KR1020210019255A KR20210019255A KR102396642B1 KR 102396642 B1 KR102396642 B1 KR 102396642B1 KR 1020210019255 A KR1020210019255 A KR 1020210019255A KR 20210019255 A KR20210019255 A KR 20210019255A KR 102396642 B1 KR102396642 B1 KR 102396642B1
Authority
KR
South Korea
Prior art keywords
image
communication terminal
content information
photo
reproduced
Prior art date
Application number
KR1020210019255A
Other languages
English (en)
Inventor
박덕선
Original Assignee
주식회사 아라니아
박덕선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아라니아, 박덕선 filed Critical 주식회사 아라니아
Priority to KR1020210019255A priority Critical patent/KR102396642B1/ko
Application granted granted Critical
Publication of KR102396642B1 publication Critical patent/KR102396642B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 확대된 영상의 크기가 조절 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법이 개시된다.

Description

포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법{Image playing method for playing center image based on photo card}
본 발명은 영상 재생 기술에 관한 것으로서, 더 상세하게는 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 확대된 영상의 크기가 조절 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법에 대한 것이다.
또한, 본 발명은 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 좌에서 우로 또는 우에서 좌로 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 유저 특성을 반영하는 확대 영상이 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법에 대한 것이다.
또한, 본 발명은 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 재생되는 2개의 재생 영상의 컨텐츠를 반영하는 확대 영상이 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법에 대한 것이다.
통신 단말기의 기능은 다양화되고 있다. 예를 들면, 데이터와 음성통신, 카메라를 통한 사진촬영 및 비디오 촬영, 음성녹음, 스피커 시스템을 통한 음악파일 재생 그리고 디스플레이부에 이미지나 비디오를 출력하는 기능이 있다.
일부 단말기는 전자게임 플레이 기능이 추가되거나, 멀티미디어 플레이어 기능을 수행한다. 특히, 최근의 통신 단말기는 방송과 비디오나 텔레비전 프로그램과 같은 시각적 컨텐츠를 제공하는 멀티캐스트 신호를 수신할 수 있다.
이와 같은 단말기(terminal)는 기능이 다양화됨에 따라 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.
이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다. 이러한 예로서는 증강현실(Augmented Reality : AR) 기술등을 들 수 있다.
증강현실은 사용자가 눈으로 보는 실제 환경에 가상 사물을 합성하여 보여주는 그래픽 기법으로, 기본적으로 현실세계를 바탕으로 그 위에 가상정보를 입히는 기술이다. 따라서, 상기 증강현실 기술에 대한 연구가 시작된 이래 다양한 분야에서 상기 증강현실을 응용하려는 연구가 이어져 오고 있다.
최근에는 스마트 폰의 개발로 인하여 증강현실을 이용한 다양한 어플리케이션이 개발되고 있으며, 통신 단말기, PDA(Personal digital Assists), UMPS(Ultra Mobile Personal Computer)등 모바일 기기의 컴퓨팅 능력 향상과 무선 네트워크장치의 발달로 손안(Handheld)의 증강현실 시스템이 가능하게 되었다.
이러한 증강현실을 이용한 응용의 예로는 위치정보를 이용하여 사용자에게 주변 지역(위치)의 건물 정보등을 제공하는 서비스가 있다. 또한, 마커(marker)나 QR(Quick Response) 코드등을 활용해 검색, 모바일, 쇼핑, 광고 및 사물도감 등을 제공하는 영상검색 및 위치정보 서비스등과 같은 서비스가 있다.
그런데, 종래의 증강현실은 기설정된 마커나 객체에 대한 증강현실만 가능할 뿐 복잡한 패턴, 제스처 및 음성을 복합적으로 사용하여 증강현실을 구현하지는 못하였다.
또한, 이미 통신 단말기에 저장된 영상만을 재생하는 정도에 머무르는 수준이어서 통신 단말기의 움직임을 반영하지 못하고 있다는 문제점이 있다.
또한, 2개의 영상이 재생되더라도 2개의 영상이 별도로 재생됨에 따라 2개의 재생 영상의 특성을 반영하지 못한다는 단점이 있다. 즉, 2개의 서로 다른 재생 영상이 모두 반영되지 않아 시청 주목도가 떨어질 수 있다.
또한, 2개의 영상이 재생되더라도 서로 관련없는 영상이 재생됨에 따라 시청 주목도가 역시 떨어질 수 있다.
또한, 2개의 영상이 재생되더라도 서로 관련없는 영상이 재생됨에 따라 시청 주목도가 역시 떨어질 수 있다.
또한, 디스플레이되는 영상의 크기를 조절할 수 없어 시청하기에 불편하다는 단점이 있다.
1. 한국등록특허번호 제10-2028139호(등록일자: 2019년09월26일)
본 발명은 위 배경기술에 따른 문제점을 해소하기 위해 제안된 것으로서, 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 확대된 영상의 크기가 조절 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법을 제공하는데 그 목적이 있다.
또한, 본 발명은 통신 단말기를 포토 증강 카드의 표면 위쪽에서 이동시키면 2개의 영상이 재생되면서 중앙에 유저 특성을 반영하는 확대 영상이 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법을 제공하는데 다른 목적이 있다.
또한, 본 발명은 통신 단말기를 포토 증강 카드의 표면 위쪽에서 이동시키면 2개의 영상이 재생되면서 중앙에 2개의 재생 영상의 특성을 반영하는 확대 영상이 별도로 팝업되어 증강 현실로 디스플레이되는 영상 재생을 제공하는데 또 다른 목적이 있다.
또한, 본 발명은 사용자가 팝업된 중앙 확대 영상을 조절하여 확대 또는 축소하여 시청할 수 있는 영상 재생 방법을 제공하는데 또 다른 목적이 있다.
본 발명은 위에서 제시된 과제를 달성하기 위해, 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 확대된 영상의 크기가 조절 팝업되어 증강 현실로 디스플레이되는 영상 재생 방법을 제공한다.
상기 영상 재생 방법은,
(a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 이동함에 따라 2개의 상기 포토 카드에 각각 배치되는 2개의 포토 이미지를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계;
(b) 관리 서버가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 제 1 컨텐츠 정보 및 제 2 컨텐츠 정보를 검색하는 단계;
(c) 상기 관리 서버가 검색된 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 상기 통신 단말기에 전송하는 단계; 및
(d) 상기 통신 단말기가 디스플레이 화면에 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 나란히 출력한 상태에서 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 반영하며 크기 조절이 가능한 제 3 컨텐츠 정보를 출력하는 단계;를 포함하는 것을 특징으로 한다.
이때, 상기 크기 조절은 상기 제 3 컨텐츠 정보와 동시에 출력되는 화면 크기 조절창을 통해 이루어지는 것을 특징으로 한다.
다른 한편으로, 본 발명의 다른 일실시예는, (a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 이동함에 따라 2개의 상기 포토 카드에 각각 배치되는 2개의 포토 이미지를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계; (b) 관리 서버가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 제 1 컨텐츠 정보 및 제 2 컨텐츠 정보를 검색하는 단계; (c) 상기 관리 서버가 검색된 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 상기 통신 단말기에 전송하는 단계; 및 (d) 상기 통신 단말기가 디스플레이 화면에 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 나란히 출력한 상태에서 상기 통신 단말기의 유저 특성을 반영하는 제 3 컨텐츠 정보를 출력하는 단계;를 포함하는 것을 특징으로 하는 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법을 제공할 수 있다.
또 다른 한편으로, 본 발명의 또 다른 일실시예는, (a) 통신 단말기가 일정 간격으로 나란히 놓여지는 2개의 포토 카드의 표면위를 이동함에 따라 2개의 상기 포토 카드에 각각 배치되는 2개의 포토 이미지를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계; (b) 관리 서버가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 제 1 컨텐츠 정보 및 제 2 컨텐츠 정보를 검색하는 단계; (c) 상기 관리 서버가 검색된 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 상기 통신 단말기에 전송하는 단계; 및 (d) 상기 통신 단말기가 디스플레이 화면에 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 나란히 출력한 상태에서 상기 제 1 컨텐츠 정보 및 상기 제 2 컨텐츠 정보를 반영하는 제 3 컨텐츠 정보를 출력하는 단계;를 포함하는 것을 특징으로 하는 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법을 제공할 수 있다.
이때, 상기 디스플레이 화면상에 표시되는 2개의 상기 컨텐츠 정보가 놓이는 백그라운드는 2개의 상기 포토 카드가 놓이는 객체의 표면과 동일한 배경 이미지인 것을 특징으로 할 수 있다.
본 발명에 따르면, 2개의 포토 증강 카드를 나란히 배열시킨후, 통신 단말기를 좌에서 우로 또는 우에서 좌로 또는 위쪽에서 아래쪽으로 또는 아래쪽에서 위쪽으로 이동시키면서 이 포토 증강 카드에 갖다 대면 2개의 영상이 재생되면서 중앙에 확대된 영상의 크기가 조절 팝업되어 증강 현실로 디스플레이될 수 있다.
또한, 본 발명의 다른 효과로서는 2개의 영상이 재생되면서 중앙에 2개의 재생 영상에 관련되는 확대 영상이 팝업되어 증강 현실로 디스플레이됨에 따라 시청 주목도를 높일 수 있다는 점을 들 수 있다.
또한, 본 발명의 또 다른 효과로서는 팝업되는 중앙 확대 영상을 사용자가 조절하여 디스플레이함으로써 시청 주목도를 높일 수 있다는 점을 들 수 있다.
또한, 본 발명의 또 다른 효과로서는 팝업되는 중앙 확대 영상에 사용자 특성을 반영할 수 있다는 점을 들 수 있다.
도 1은 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템의 구성 블럭도이다.
도 2는 도 1에 도시된 통신 단말기의 구성 블럭도이다.
도 3은 본 발명의 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 나란히 디스플레이된 상태를 보여주는 화면의 예시이다.
도 4는 도 3에 나란히 재생영상이 디스플레이된 후, 중앙에 크기 조절이 가능한 확대 영상이 디스플레이되는 화면의 예시이다.
도 5는 본 발명의 일실시예에 따른 포토 이미지로부터 특징점을 추출하는 과정을 보여주는 흐름도이다.
도 6은 도 1에 도시된 관리 서버에서 포토 이미지로부터 추출되는 특징점과 컨텐츠 정보를 맵핑하는 데이터베이스의 구조를 보여주는 개념도이다.
도 7은 본 발명의 일실시예에 따른 백그라운드에 재생 영상을 배치하여 생성하는 과정을 보여주는 흐름도이다.
도 8은 본 발명의 일실시예에 따른 통신 단말기가 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다.
도 9는 본 발명의 일실시예에 따른 2개의 재생 영상 특성을 반영하여 중앙에 크기 조절이 가능한 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다.
도 10은 본 발명의 다른 일실시예에 따른 유저 특성을 반영하여 중앙에 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다.
도 11은 본 발명의 다른 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 나란히 디스플레이된 상태를 보여주는 화면의 예시이다.
도 12는 도 11에 나란히 재생영상이 디스플레이된 후, 중앙에 확대 영상이 디스플레이되는 화면의 예시이다.
도 13은 본 발명의 또 다른 일실시예에 따른 2개의 재생 영상 특성을 반영하여 중앙에 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다.
도 14는 도 3에 나란히 재생영상이 디스플레이된 후, 중앙에 확대 영상이 디스플레이되는 화면의 예시이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 구체적으로 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 제 1, 제 2등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않아야 한다.
이하 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템 및 방법을 상세하게 설명하기로 한다.
도 1은 본 발명의 일실시예에 따른 포토 카드를 이용한 영상 재생 시스템(1)의 구성 블럭도이다. 도 1을 참조하면, 포토 카드(11,12)의 포토 이미지를 촬영하여 특징점 정보를 추출하는 통신 단말기(20), 특징점 정보와 컨텐츠 정보를 매칭하여 통신 단말기(20)에 전송하는 관리 서버(40), 통신 단말기(20)와 관리 서버(40)를 연결하는 통신망(30) 등을 포함하여 구성될 수 있다.
포토 카드(11,12)는 제 1 포토 카드(11) 및 제 2 포토 카드(12)로 구성될 수 있다. 제 1 및 제 2 포토 카드(11,12)는 표면에 각각 제 1 및 제 2 포토 이미지(11-1,12-1)가 구성된다. 부연하면, 플라스틱, 마분지 등의 표면에 포토를 붙인 것으로 제 1 및 제 2 포토 이미지(11-1,12-1)는 연예인의 사진, 공연 장소 사진 등이 될 수 있다. 따라서, 제 1 포토 이미지(11-1)와 제 2 포토 이미지(12-1)는 서로 다른 이미지를 갖는다.
통신 단말기(20)는 포토 카드(11,12)의 포토 이미지(11-1,12-1)를 촬영하여 특징점 정보를 추출하는 기능을 수행한다. 또한, 통신 단말기(20)는 관리 서버(40)로부터 특징점 정보에 매칭되며, 포토 카드와 관련되는 콘텐츠 정보를 수신받아 디스플레이하는 기능을 수행한다.
관리 서버(40)는 통신 단말기(20)로부터 수신한 특징점 정보를 이용하여 콘텐츠 정보를 검색하고 이를 통신 단말기(20)에 제공하는 기능을 수행한다. 물론, 콘텐츠 정보는 미리 제작되어 데이터베이스(41)에 저장되어 있다. 콘텐츠 정보는, 동영상, 정지 영상, 배경화면, 포토 이미지 해설 정보 등을 포함하여 구성될 수 있다. 포토 이미지 해설 정보는 연예인의 경우, 데뷔 날짜, 음반 리스트, 가사 등이 포함될 수 있다.
통신망(30)은 통신 단말기(20)와 관리 서버(40)를 통신으로 연결하는 기능을 수행한다. 이를 위해, 통신망(30)은 다수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 공중교환 전화망(PSTN), 공중교환 데이터망(PSDN), 종합정보통신망(ISDN: Integrated Services Digital Networks), 광대역 종합 정보 통신망(BISDN: Broadband ISDN), 근거리 통신망(LAN: Local Area Network), 대도시 지역망(MAN: Metropolitan Area Network), 광역 통신망(WLAN: Wide LAN) 등이 될 수 있다,
그러나, 본 발명은 이에 한정되지는 않으며, 무선 통신망인 CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), Wibro(Wireless Broadband), WiFi(Wireless Fidelity), HSDPA(High Speed Downlink Packet Access) 망, 블루투스(bluetooth), NFC(Near Field Communication) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 될 수 있다. 또는, 이들 유선 통신망 및 무선 통신망의 조합일 수 있다.
도 1에서는 특징점을 추출하는 것을 통신 단말기(20)에서 수행하는 것으로 기술하였으나, 통신 단말기(20)는 촬영된 이미지 정보만을 관리 서버(40)에 전달하고, 관리 서버(40)에서 특징점을 추출하는 것도 가능하다. 이는 특징점을 추출하는 프로그램을 어디에 설치하는 지에 따른 차이에 불과하다.
관리 서버(40)는 마이크로프로세서, 통신 모뎀, 메모리 등을 포함하여 구성될 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD(Secure Digital) 또는 XD(eXtreme Digital) 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read Only Memory), PROM(Programmable Read Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 인터넷(internet)상에서 저장 기능을 수행하는 웹 스토리지(web storage), 클라우드 서버와 관련되어 동작할 수도 있다.
데이터베이스(41)는 관리 서버(40)내에 구성될 수도 있고, 이와 달리 별도의 데이터베이스 서버에 구성될 수 있다.
도 2는 도 1에 도시된 통신 단말기(20)의 구성 블럭도이다. 도 2를 참조하면, 통신 단말기(20)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 될 수 있다.
통신 단말기(20)는, 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180), 및 전원 공급부(190)를 포함할 수 있다. 이와 같은 구성요소들은 실제 응용에서 구현될 때 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다.
무선 통신부(110)는 방송수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 및 GPS 모듈(115) 등을 포함할 수 있다.
방송수신 모듈(111)은 방송 채널을 통하여 외부의 방송관리 서버(미도시)로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기생성된 방송 신호 및/또는 방송관련 정보중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.
방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈(112)에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
방송수신 모듈(111)은, 각종 방송 시스템을 이용하여 방송 신호를 수신하는데, 특히, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈(111)은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈(113)은 통신 단말기(20)에 내장되거나 외장될 수 있다. 근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. GPS(Global Position System) 모듈(115)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다.
A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고, 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 또한, 위치도 상하 및/또는 좌우에 일정간격으로 구비될 수도 있다.
사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(151)와 상호 레이어 구조를 이룰 경우, 이를 터치 스크린(touch screen)이라 부를 수 있다.
센싱부(140)는 통신 단말기(20)의 개폐 상태, 위치, 사용자 접촉 유무 등과 같이 통신 단말기(20)의 현 상태를 감지하여 통신 단말기(20)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 통신 단말기(20)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등과 관련된 센싱 기능을 담당할 수 있다.
또한, 센싱부(140)는 근접센서(Proximity Sensor)(141)를 포함할 수 있다. 근접센서(141)는 접근하는 객체나, 근방에 존재하는 객체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서(141)는, 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접객체를 검출할 수 있다. 근접센서(141)는 구성 태양에 따라 2개 이상이 구비될 수 있다.
또한, 센싱부(140)는 자이로 센서(Gyro Sensor)(142)를 포함할 수 있다. 자이로 센서(142)는 자이로스코프를 이용하여 객체의 움직임을 감지하는 센서, 관성센서, 가속도 센서를 포함하는 개념이다. 자이로스코프에는 기계식 자이로스코프, 고리형 레이저 자이로스코프, 광섬유 자이로스코프 등이 있다. 자이로 센서(142)는 통신 단말기의 움직임을 감지하여 통신 단말기의 제어를 위한 신호를 제공한다.
출력부(150)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것으로, 이에는 디스플레이부(151)와 음향출력 모듈(153), 알람부(155), 진동모듈(157) 등이 포함될 수 있다.
디스플레이부(151)는 통신 단말기(20)에서 처리되는 정보를 표시 출력한다. 예를 들어 통신 단말기(20)가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 통신 단말기(20)가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다.
또한, 디스플레이부(151)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 통신 단말기(20)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수도 있다. 예를 들어, 통신 단말기(20)에 외부 디스플레이부(미도시)와 내부 디스플레이부(미도시)가 동시에 구비될 수 있다.
음향출력 모듈(153)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(153)은 통신 단말기(20)에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(153)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
알람부(155)는 통신 단말기(20)의 이벤트 발생을 알리기 위한 신호를 출력한다. 통신 단말기(20)에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(155)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다.
알람부(155)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위한 신호를 출력할 수 있다. 또한, 알람부(155)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(155)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 물론 이벤트 발생알림을 위한 신호는 디스플레이부(151)나 음향출력 모듈(153)을 통해서도 출력될 수 있다. 알람부(155)는 이를 위해 소프트웨어 컴포넌트를 구성할 수 있다.
진동모듈(157)은 제어부(180)가 전송하는 진동신호에 의하여 다양한 세기와 패턴의 진동을 발생할 수 있다. 진동모듈(157)이 발생하는 진동의 세기, 패턴, 주파수, 이동방향, 이동속도 등은 진동신호에 의하여 설정가능하며, 구성 태양에 따라 2개 이상의 진동모듈(157)이 구비될 수 있다. 진동 모듈(157)은 통신 단말기(20)에 진동을 발생시키는 것으로 진동 모터 또는 진동 소자를 포함하여 구성될 수 있다.
메모리(160)는 제어부(180)의 처리 및/또는 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 또한, 카메라(121)를 통하여 촬영된 포토 이미지를 처리하여 특징점을 추출하는 알고리즘을 갖는 프로그램, 소프트웨어, 데이터 등을 저장할 수도 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 통신 단말기(20)는 인터넷(internet) 상에서 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.
인터페이스부(170)는 통신 단말기(20)에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 통신 단말기(20)에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리 카드(Memory card), SIM/UIM card 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(170)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 통신 단말기(20) 내부의 각 구성 요소에 전달할 수 있고, 통신 단말기(20) 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.
제어부(180)는 통상적으로 상기 각부의 동작을 제어하여 통신 단말기(20)의 전반적인 동작을 제어한다. 예를 들어, 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 재생 모듈(181)을 구비할 수도 있다. 멀티미디어 재생 모듈(181)은 제어부(180) 내에 하드웨어로 구성될 수도 있고, 제어부(180)와 별도로 소프트웨어로 구성될 수도 있다. 또한, 제어부(180)는 촬영된 포토 이미지를 처리하여 특징점을 추출하는 알고리즘을 실행하는 기능을 수행할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
도 3은 본 발명의 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 나란히 디스플레이된 상태를 보여주는 화면의 예시이다. 도 3을 참조하면, 제 1 포토 카드(11)를 우측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 좌측에 일정간격으로 배치한다고 가정한다.
이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 우측에서부터 좌측으로 이동시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 순차적 또는 동시적으로 표시된다. 부연하면, 디스플레이 화면(300)을 각각 반반으로 분할하는 경계선(303)을 기준으로 오른쪽 반에는 제 1 재생 영상(311)이 출력되고, 경계선(303)을 기준으로 왼쪽 반에는 제 2 재생 영상(312)이 출력된다.
제 1 재생 영상(311) 및 제 2 재생 영상(312)은 컨텐츠 정보로서 제 1 포토 카드(11) 및 제 2 포토 카드(120)에 구성되는 제 1 및 제 2 포토 이미지(11-1,12-1)와 관련된 정보이다. 예를 들면, 제 1 재생 영상(311)에는 눈(snow) 이미지(311-1)가 출력되고, 제 2 재생 영상(312)에는 나무(tree) 이미지(312-1)가 출력된다.
따라서, 제 1 재생 영상(311)에서는 눈 이미지(311-1)를 갖는 보조 객체로 포커싱 영역(311-2)을 정하여 추출되고, 제 2 재생 영상(312)에서는 나무 이미지(312-1)를 갖는 보조 객체로 포커싱 영역(312-2)을 정하여 추출된다. 물론, 제 1 재생 영상(311) 및 제 2 재생 영상(312)을 위한 컨텐츠 정보에서 미리 추출하는 것도 가능하다.
또한, 제 1 재생 영상(311)이 먼저 표시되어 재생되고, 이후 제 2 재생 영상(312)이 표시되어 재생된다. 물론, 제 1 재생 영상(311)이 먼저 표시되어 재생되지 않고, 일정 시간 블랙 화면이었다가 제 2 재생 영상(311)과 동시에 재생되는 것도 가능하다.
한편, 통신 단말기(20)를 좌측에서부터 우측으로 이동시키면, 통신 단말기(20)의 디스플레이 화면(300)상에는 제 2 재생 영상(312)이 표시되어 재생되고, 이후 제 1 재생 영상(311)이 표시되어 재생된다. 즉, 도 3에 도시된 제 1 재생 영상(311)과 제 2 재생 영상(312)의 위치가 반대가 된다.
도 3에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.
또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 물체의 표면과 동일한 배경 이미지인 것을 특징으로 한다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 캡쳐, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.
도 4는 도 3에 나란히 재생영상이 디스플레이된 후, 중앙에 크기 조절이 가능한 확대 영상이 디스플레이되는 화면의 예시이다. 도 4를 참조하면, 제 1 재생 영상(311)과 제 2 재생 영역(312)이 디스플레이 화면(300)에 출력된 상태에서 제 3 재생 영상(410)이 디스플레이 화면(300)의 중앙에 확대되어 출력된다.
또한, 제 3 재생 영상(410)의 크기를 조절하는 화면 크기 조절창(412)이 제 3 재생 영상(410)의 하단에 구성된다. 화면 크기 조절창(412)에는 스크롤바(412-1)가 구성된다. 도 4에서는 화면 크기 조절창(412)이 제 3 재생 영상(410)의 하단에 구성되는 것으로 도시하였으나, 이에 한정되는 것은 아니며, 제 3 재생 영상(410)의 상단 또는 측면에도 구성될 수 있다.
제 3 재생 영상(410)의 재생 화면 크기는 제 1 재생 영상(311)과 제 2 재생 영역(312)의 재생 화면 크기보다 클 수 있다. 특히, 프레임 테두리는 제 1 재생 영상(311)과 제 2 재생 영역(312)를 구별하기 위해 보다 굵을 수 있다.
디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 도 3에서 제 1 및 제 2 재생 영상(311,312)의 가로폭은 약 6cm이고, 세로폭은 약 4cm가 될 수 있다. 이때, 제 3 재생 영상(410)의 가로폭은 약 9cm이고, 세로폭은 약 5.5cm가 될 수 있다. 물론, 제 3 재생 영상(410)의 가로폭과 세로폭은 비율로 정해질 수도 있다. 즉, 제 1 및 제 2 재생 영상(311,312)의 가로폭의 150%, 세로폭의 120% 등이 될 수 있다.
또한, 제 3 재생 영상(410)은 제 1 재생 영상(311)에 디스플레이된 제 1 보조 객체 이미지(311-1)(즉 눈(snow) 이미지)와 제 2 재생 영상(312)에 디스플레이된 제 2 보조 객체 이미지(312-1)(즉 나무(tree) 이미지)를 주객체 이미지(411)(예를 들면, 인물)와 함께 디스플레이한다. 부연하면, 제 3 재생 영상(410)은 제 1 재생 영상(311)과 제 2 재생 영상(312)을 합성하여 생성된다. 주객체 이미지(411)는 제 1 재생 영상(311) 및 제 2 재생 영상(312) 중 어느 하나에 있는 인물 이미지일 수 있다. 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 모두 인물 이미지가 있을 경우, 주객체 이미지(411)는 일정 시간 주기로 교대로 디스플레이될 수 있다.
물론, 이와 달리, 주객체 이미지(411)는 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 존재하는 인물 이미지와 관련된 제 3 인물이 될 수도 있다. 부연하면, 미리 데이터베이스(41)에 제 1 재생 영상(311)의 제 1 인물 이미지 및 제 2 재생 영상(312)의 제 2 인물 이미지에 관련되는 제 2 인물의 이미지 정보가 저장될 수 있다. 물론, 제 3 인물 이미지는 제 1 재생 영상(311)의 제 1 인물 및 제 2 재생 영상(312)의 제 2 인물 모두에 관련될 수도 있고, 제 1 재생 영상(311)의 제 1 인물 및 제 2 재생 영상(312)의 제 2 인물 중 하나에 관련될 수 있다.
보조 객체 이미지(311-1,312-1)는 사물이 될 수 있으며, 주객체 이미지(411)는 인물이 될 수 있다.
제 3 재생 영상(410)이 출력되면, 제 1 및 제 2 재생 영상(311,312)은 계속 화면출력을 유지한다. 물론, 일정 시간이 경과된 이후 오프될 수도 있다. 이는 어떻게 설계하는 차이에 불과하다.
도 3에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.
또한, 제 3 재생 영상(410)은 화면이 투명 상태에서 불투명 상태로 점점 변화하는 페이드 인 효과, 불투명 상태에서 투명 상태로 점점 변화하는 페이드 아웃 효과로 구현될 수 있다. 또한, 제 3 재생 영상(410)은, 화면을 점점 확대하는 줌인 효과, 화면을 점점 축소하는 줌아웃 효과로 구현될 수도 있다.
또한, 제 3 재생 영상(410)은 통신 단말기(20)의 유저 특성을 반영할 수 있다. 예를 들면, 유저가 핑크색을 좋아한다면 제 3 재생 영상(410)의 배경색(420)을 핑크색하고 이 핑크색 배경상에 재생 영상이 출력될 수 있다. 이를 위해, 관리 서버(40)는 통신 단말기(20)로부터 사용자 정보를 획득한다. 부연하면, 통신 단말기(20)를 통해 사용자는 자신의 개인정보(연령, 학생, 주거지 등), 선호하는 컬러(색상), 선호 음악 장르, 선호 계절 등을 데이터로 입력할 수 있다. 이러한 입력 데이터는 데이터베이스(41)에 기록된다. 이러한 입력 데이터의 예시를 보면 다음과 같다.
이름 연령 직업 선호컬러 음악 장르 주거지 선호계절
홍길동 29 공무원 핑크색 클래식 영등포 여름
물론, 관리 서버(40)에서 딥러닝을 이용하여 통신 단말기(20)의 유저 특성을 분석하는 것도 가능하다. 부연하면, 관리 서버(40)가 다른 서버와 연결되어 통신 단말기(20)의 사용자가 통신 단말기(20)를 통해 생성한 빅데이터를 이용하여 유저 특성을 획득하는 것도 가능하다. 부연하면 통신 단말기(20)의 사용자가 방문한 웹사이트 종류, 구매한 음악, 콘서트 구입, 공연 종류, SNS(Social Networking service) 활동 등을 들 수 있다.
도 5는 본 발명의 일실시예에 따른 포토 이미지(11-1,12-1)로부터 특징점을 추출하는 과정을 보여주는 흐름도이다. 일반적으로 영상 처리 분야에서 입력영상에 대하여 인식 및 처리를 하기 위해서는 입력된 영상에서 특징점을 추출하고, 추출된 특징점을 통하여 서술자를 생성하여 다른 영상과의 매칭을 통해 객체 인식 및 추적 등을 하게 된다.
먼저, 적분 이미지 생성기(미도시)를 통하여 포토 이미지(11-1,12-1)를 촬영하여 생성되는 촬영 이미지 정보에 대해 밝기값을 가진 적분 이미지를 생성한다(단계 S510).
이후, 특징점 검출기(미도시)는 생성된 적분 이미지를 이용하여 촬영 이미지 정보에서 특징점이 될만한 특징점 후보군을 필터 사이즈(Filter size)별로 생성하고, 생성된 특징점 후보군을 가지고 상호 비교를 통하여 특징점들을 추출하게 된다(단계 S520). 여기서, 특징점 추출은 해리스 코너 추출기법, SIFT(Scale-Invariant Feature Transform), SURF(Speeded UP Robust Features), ORB(Oriented BRIEF) 알고리즘 등을 이용하여 수행될 수 있다.
이후, 이렇게 생성된 특징점은 서술자 생성기(미도시)를 통해 특징점 주변의 영상을 가지고 특징점의 주방향이 설정된다(단계 S530).
이후, 특징점별로 생성된 주방향을 한 방향으로 회전시켜 고정시킨후, 그 정보를 디스크립터로 저장하여 데이터베이스로 생성한다(단계 S540). 디스크립터(Descriptor)는 검출된 특징점 주의의 밝기, 색상, 그래디언트 방향등의 매칭 정보 등을 포함한다.
이후, 이 디스크립터를 이용하여 미리 데이터베이스화되어 저장되어 컨텐츠 정보를 나타내는 디스크립터를 매칭한다(단계 S550). 매칭 방식은 동일한 디스크립터를 하나씩 검사하여 찾는 방식이 될 수도 있고, 매칭점의 갯수를 이용하는 것을 들 수 있다.
따라서, 포토 이미지(11-1,12-1)와 관련되는 컨텐츠 정보를 찾아 통신 단말기(20)에 전송된다. 이러한 실제 이미지로부터 특징점을 검출하는 알고리즘은 널리 알려져 있음으로 더 이상의 설명은 본 발명의 명확한 이해를 위해 생략하기로 한다. 또한, 위 도 5에서 설명한 영상 인식 알고리즘은 일 예시에 불과한 것으로 다른 영상 인식 알고리즘이 사용될 수도 있다.
한편, 적분 이미지 생성기(미도시), 특징점 검출기(미도시), 서술자 생성기(미도시) 등은 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 소프트웨어 및/또는 하드웨어로 구현될 수 있다. 하드웨어 구현에 있어, 상술한 기능을 수행하기 위해 디자인된 ASIC(application specific integrated circuit), DSP(digital signal processing), PLD(programmable logic device), FPGA(field programmable gate array), 프로세서, 마이크로프로세서, 다른 전자 유닛 또는 이들의 조합으로 구현될 수 있다.
소프트웨어 구현에 있어, 소프트웨어 구성 컴포넌트(요소), 객체 지향 소프트웨어 구성 컴포넌트, 클래스 구성 컴포넌트 및 작업 구성 컴포넌트, 프로세스, 기능, 속성, 절차, 보조 루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로 코드, 데이터, 데이터베이스, 데이터 구조, 테이블, 배열 및 변수를 포함할 수 있다. 소프트웨어, 데이터 등은 메모리에 저장될 수 있고, 프로세서에 의해 실행된다. 메모리나 프로세서는 당업자에게 잘 알려진 다양한 수단을 채용할 수 있다.
도 6은 도 1에 도시된 관리 서버에서 포토 이미지로부터 추출되는 특징점과 컨텐츠 정보(예를 들면, 재생 영상)를 맵핑하는 데이터베이스(도 1의 41)의 구조를 보여주는 개념도이다. 도 6을 참조하면, 미리 데이터베이스(41)에는 특징점들과 컨텐츠 정보가 맵핑되어 저장된다.
부연하면, 관리 서버(40)는 미리 포토 이미지와 관련된 컨텐츠 정보에서 특징점을 추출하고 추출된 특징점을 기초로 컨텐츠 정보와 특징점을 매칭한다. 예를 들면, 영상 프레임들(예를 들면, 영상1을 예시한다)에 대해 특징점들을 추출하고, 특징점들 마다 컨텐츠 정보를 매칭한다.
예를 들면, 도 6에 도시된 바와 같이, 특징점1에 속하는 특징점 1_1, 특징점 1_2, 특징점 1_3 …에 증강 현실 컨텐츠1에 속하는 AR(Augmented Reality) 컨텐츠 1_1, AR 컨텐츠 1_2, AR 컨텐츠 1_3 …이 될 수 있다. 즉, 특징점 1-1은 AR 컨텐츠 1-1에 맵핑되고, 특징점 1-2는 AR 컨텐츠 1-2에 맵핑되고, 특징점 1-3은 AR 컨텐츠 1-3에 맵핑되는 방식이다.
물론, 이러한 특징점 추출과정은 도 5에 도시된 단계 S510 내지 S540를 통해 이루어진다. 부연하면, 컨텐츠 정보를 이루는 영상 프레임들에서 적분 이미지를 생성하고, 이 적분 이미지로부터 특징점을 추출한다.
또한, 포토 이미지(11-1,12-1)로부터 추출된 특징점이 1_3에 해당되면, AR 컨텐츠 1_3으로부터 아래 방향에 해당하는 AR 컨텐츠들이 모두 통신 단말기(20)에 전송되며, 통신 단말기(20)가 해당 컨텐츠들을 순차적으로 재생한다. 물론, 포토 이미지(11-1,12-1)로부터 추출된 특징점이 1_1에 해당되면, AR 컨텐츠 1_1로부터 아래 방향에 해당하는 AR 컨텐츠 1_1,1_2,1_3 들이 모두 통신 단말기(20)에 전송되며, 통신 단말기(20)가 해당 컨텐츠들을 순차적으로 재생한다.
도 7은 본 발명의 일실시예에 따른 백그라운드에 재생 영상(컨텐츠 영상)을 배치하여 생성하는 과정을 보여주는 흐름도이다. 도 7을 참조하면, 타겟 오브젝트들(즉 포토 이미지(11-1,12-1))의 이미지가 캡쳐된다(단계 S710). 타겟 오브젝트들은 미리 정의된 객체(예를 들면, 책상, 마루바닥, 의자, 달력, 그림등을 들 수 있음)의 표면상에 위치된다. 따라서, 배경 이미지로 캡쳐된다. 타겟 오브젝트들은 1-D, 2-D, 3-D 오브젝트를 포함할 수 있지만 이들에 제한되지 않는다.
이후, 이미지는 타겟 오브젝트들에 대응하는 영역들 및 미리 정의된 백그라운드(도 3의 301)에 대응하는 영역들로 세그먼트될 수도 있다. 이미지를 세그먼트하는 것은 이미지로부터 미리 정의된 백그라운드를 분리하는 것을 포함할 수도 있다(단계 S720).
이후, 타겟 오브젝트들에 대응하는 영역들은 디지털 정보로 변환한다(단계 S730).
이후, AR 오브젝트들(즉, 컨텐츠 정보)이 매칭되며 디스플레이 화면(300)의 백그라운드(301)에 표시된다(단계 S740). AR 오브젝트들은 타겟오브젝트들에 대응할 수도 있고, 디지털 이미지에 적어도 부분적으로 기초하여 생성될 수도 있다. AR 오브젝트들은 캡쳐된 이미지 내에서 2 차원 (2-D) 블랍(blob: binary large object)의 검출에 기초하여 생성되며, 2-D 블랍의 검출은 미리 정의된 백그라운드 상에 위치된 하나 이상의 타겟 오브젝트들과 연관된 표면 반사율에 기초할 수 있다.
AR 오브젝트들은 유저 입력에 응답하여 편집될 수도 있다. 편집은 AR 오브젝트들 중 적어도 하나를 복수의 AR 부분들로 분할하는 것을 포함할 수 있다. 유저 입력은 복수의 AR 부분들로부터 소정 AR 부분을 지정할 수도 있다. 그 후, 지정된 AR 부분은 사용자 조작 명령 입력 신호에 기초하여 조작될 수도 있다.
사용자 조작 명령 입력 신호에 기초하여 지정된 AR 부분을 조작하는 것은 통신 단말기(20)의 디스플레이 화면(300) 상에서의 결정된 손가락 압력에 기초하여 지정된 AR 부분에 깊이를 추가하는 것, 통신 단말기(20)의 디스플레이 화면(300) 상에서 수행된 사용자의 제스쳐에 기초하여 지정된 AR 부분을 회전하는 것, 지정된 AR 부분을 하나 이상의 계층들로 어셈블리하는 것, 지정된 AR 부분을 통신 단말기(20)의 디스플레이 화면(300) 상에 디스플레이가능한 하나 이상의 로케이션들로 이동시키는 것, 또는 지정된 AR 부분을 돌출시키는 것 등이 될 수 있다.
도 8은 본 발명의 일실시예에 따른 통신 단말기가 이동됨에 따라 포토 카드의 포토 이미지를 센싱하고 매칭되는 컨텐츠를 전송받는 과정을 보여주는 흐름도이다. 도 8을 참조하면, 나란히 배열되는 제 1 및 제 2 포토 카드(11,12)의 표면위로 통신 단말기(20)를 수평 방향으로 오른쪽에서 왼쪽으로 이동시키면, 카메라(121)에 구성되는 이미지 센서가 순차적으로 제 1 포토 카드(11)의 포토 이미지(11-1) 및 제 2 포토 카드(12)의 포토 이미지(12-1)를 센싱하여 촬영 이미지 정보를 생성한다(단계 S810,S820).
물론, 통신 단말기(20)의 이동 방향이 반대이면, 제 2 포토(120)의 포토 이미지(12-1), 제 1 포토 카드(11)의 포토 이미지(11-1)가 순차적으로 센싱될 수 있다. 이와 달리, 통신 단말기(20)를 수직 방향으로 이동시키는 것도 가능하다. 이 경우, 제 1 포토 카드(11)의 포토 이미지(11-1) 및 제 2 포토 카드(12)의 포토 이미지(12-1)가 동시에 센싱될 수 있다.
이후, 통신 단말기(20)가 촬영 이미지 정보들을 관리 서버(40)에 전송하면, 관리 서버(40)는 촬영 이미지 정보들로부터 포토 이미지 관련된 특징점 정보들을 추출한다(단계 S830).
이후, 관리 서버(40)는 특징점 정보들과 매칭되는 컨텐츠들을 데이터베이스(도 1의 41)에서 검색하여 통신 단말기(20)에 전송한다(단계 S840).
물론, 단계 830은 통신 단말기(20)에서 실행될 수도 있다. 부연하면, 통신 단말기(20)에 특징점 정보를 추출하는 알고리즘을 갖는 소프트웨어를 구성하여, 이 소프트웨어를 이용하여 특징점 정보를 추출하고, 이를 관리 서버(40)에 전송하는 방식이다.
도 9는 본 발명의 일실시예에 따른 2개의 재생 영상 특성을 반영하여 중앙에 크기 조절이 가능한 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다. 도 9를 참조하면, 관리 서버(40)는 검색된 컨텐츠들로부터 일부 보조 객체 정보를 추출한다(단계 S910).
이후, 추출된 일부 보조 객체 정보를 분석하여 보조 객체가 어떤 사물에 해당하는 지를 판별한다(단계 S920). 부연하면, 입력된 영상에서 특징점들을 추출하고, 이를 딥러닝 학습을 통해 어떤 사물에 해당하는지를 분석한다. 부연하면, 컨벌루션 뉴럴 네트워크(CNN)와 같은 딥러닝 모델은 객체를 식별하기 위해 해당 객체 고유의 특징을 자동으로 학습하는 데 사용된다.
예를 들어, CNN에서는 수천 장의 훈련용 이미지를 분석하고 고양이와 개를 구분하는 특징을 학습하여 고양이와 개의 차이점을 식별하는 방법을 학습할 수 있으며, 딥러닝을 사용하여 객체 인식을 실시한다. 물론, 기초부터 딥 네트워크를 훈련시키기 위해서는 레이블이 지정된, 매우 방대한 데이터 세트를 모으고, 네트워크 아키텍처를 설계하여 특징을 학습하고 모델을 완성시킨다. 이를 통해 뛰어난 결과물을 얻을 수 있지만, 이러한 접근 방식을 위해서는 방대한 분량의 훈련 데이터가 필요하고 CNN에 레이어와 가중치를 설정해야 한다.
물론, 사전 훈련된 딥러닝 모델 사용하는 방법으로 대다수 딥러닝 응용 프로그램은 사전 훈련된 모델을 세밀하게 조정하는 방법이 포함된 프로세스인 전이학습 방식을 사용할 수도 있다. 이 방식에서는 AlexNet 또는 GoogLeNet과 같은 기존 네트워크를 사용하여 이전에 알려지지 않은 클래스를 포함하는 새로운 데이터를 주입한다. 이 방법을 사용하면 수천 또는 수백만 장의 이미지로 모델을 미리 훈련한 덕분에 시간 소모가 줄게 되고 결과물을 빠르게 산출할 수 있다.
물론, 머신러닝을 이용하여 객체를 인식하는 것도 가능하다. 이러한 인식 기술에 대해서는 널리 알려져 있으므로 더 이상의 설명은 생략하기로 한다.
한편, 이러한 특징점들을 이용하여 주객체를 인식한다. 주객체는 주로 사람이 될 수 있으나, 이에 한정되는 것은 아니며, 동물 등도 가능하다.
이후, 관리 서버(40)는 보조 객체와 주객체를 합성하여 중앙 확대 화면을 위한 컨텐츠를 생성한다(단계 S930).
이후, 통신 단말기(20)는 관리 서버(40)로부터 컨텐츠들을 전송받아, 제 1 재생 영상(311) 및 제 2 재생 영상(312)을 디스플레이 화면(300)에 출력한다(단계 S950).
이후, 제 1 일정시간이 경과한후, 디스플레이 화면(300)의 중앙에 제 3 재생 영상(312) 및 스크롤바 형식을 갖는 화면 크기 조절창(412)이 팝업 형태로 출력된다(단계 S960).
제 3 재생 영상(410)이 팝업 형태로 출력된 상태에서, 통신 단말기(20)는 화면 크기 조절창(412)에서 스크롤바(412-1)의 조작이 있는지를 확인한다(단계 S970).
확인 결과, 단계 S970에서 스크롤바(412-1)의 조작이 있는 것으로 판단되면, 통신 단말기(20)는 조작에 따른 제 3 재생 영상(410)의 재생 화면을 확대 또는 축소하여 출력한다(단계 S971).
이와 달리, 확인 결과, 단계 S970에서 스크롤바(412-1)의 조작이 없는 것으로 판단되면, 제 3 재생 영상(410)의 현재 재생 화면 크기는 유지된다(단계 S980).
이후, 통신 단말기(20)는, 사용자 조작 또는 미리 설정되는 제 2 일정시간이 경과하였는지를 판단한다(단계 S990). 여기서, 사용자 조작은 스크롤바의 조작이 아니고, 팝업창 끄기 등을 말한다.
판단 결과, 단계 S990에서, 사용자 조작이 없거나 제 2 일정시간이 경과하지 않으면 제 3 재생 영상(410)의 현재 팝업 상태를 유지하며, 단계 S990을 진행한다(단계 S991).
이와 달리, 판단 결과, 단계 S990에서, 사용자 조작이 있거나 제 2 일정시간이 경과하면 제 3 재생 영상(410)이 오프된다(단계 S992). 물론, 이와 동시에 화면 크기 조절창(412)도 오프된다.
도 10은 본 발명의 다른 일실시예에 따른 유저 특성을 반영하여 중앙에 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다. 도 10을 참조하면, 관리 서버(40)는 통신 단말기(20)로부터 사용자 정보를 획득한다(단계 S1010). 부연하면, 통신 단말기(20)를 통해 사용자는 자신의 개인정보(연령, 학생, 주거지 등), 선호하는 컬러(색상), 선호 음악 장르, 선호 계절 등을 데이터로 입력할 수 있다.
물론, 관리 서버(40)에서 딥러닝을 이용하여 통신 단말기(20)의 유저 특성을 분석하는 것도 가능하다. 부연하면, 관리 서버(40)가 다른 서버와 연결되어 통신 단말기(20)의 사용자가 통신 단말기(20)를 통해 생성한 빅데이터를 이용하여 유저 특성을 획득하는 것도 가능하다. 부연하면 통신 단말기(20)의 사용자가 방문한 웹사이트 종류, 구매한 음악, 콘서트 구입, 공연 종류, SNS(Social Networking service) 활동 등을 들 수 있다. 이후, 관리 서버(40)는 사용자 정보를 분석하여 유저 특성을 획득한다(단계 S1020).
이후, 관리 서버(40)는 유저 특성과 매칭되는 중앙 확대 영상에 맞는 컨텐츠를 검색하고 이를 통신 단말기(20)에 전송한다(단계 S1030,S1040).
이후, 통신 단말기(20)는, 제 1 재생 영상(311) 및 제 2 재생 영상(312)을 출력한 후, 미리 설정되는 제 1 일정시간이 경과하면 디스플레이 화면(300)의 중앙에 제 3 재생 영상(410)을 팝업 형태로 출력한다(단계 S1060).
제3 재생 영상(410)이 팝업 형태로 출력된 상태에서, 통신 단말기(20)는 사용자 조작 또는 미리 설정되는 제 2 일정시간이 경과하였는지를 판단한다(단계 S1070).
판단 결과, 단계 S1070에서, 사용자 조작이 없거나 제 2 일정시간이 경과하지 않으면, 제 3 재생 영상(410)의 현재 팝업 상태를 유지하고, 단계 S1070을 계속 진행한다(단계 S1071).
이와 달리, 판단 결과, 단계 S1070에서, 사용자 조작이 있거나 제 2 일정시간이 경과하면 제 3 재생 영상(410)이 오프된다(단계 S1080).
도 11은 본 발명의 다른 일실시예에 따른 통신 단말기가 이동후 동일한 크기의 재생영상이 나란히 디스플레이된 상태를 보여주는 화면의 예시이다. 도 11을 참조하면, 제 1 포토 카드(11)를 우측에 배치하고, 제 2 포토 카드(12)를 상기 제 1 포토 카드(11)의 좌측에 일정간격으로 배치한다고 가정한다.
이러한 배치 상태에서, 제 1 포토 카드(11) 및 제 2 포토 카드(120)의 표면위를 일정높이로 통신 단말기(20)를 우측에서부터 좌측으로 이동시키면 통신 단말기(20)의 디스플레이 화면(300) 상에 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 순차적 또는 동시적으로 표시된다. 부연하면, 디스플레이 화면(300)을 각각 반반으로 분할하는 경계선(303)을 기준으로 오른쪽 반에는 제 1 재생 영상(311)이 출력되고, 경계선(303)을 기준으로 왼쪽 반에는 제 2 재생 영상(312)이 출력된다.
제 1 재생 영상(311) 및 제 2 재생 영상(312)은 컨텐츠 정보로서 제 1 포토 카드(11) 및 제 2 포토 카드(120)에 구성되는 제 1 및 제 2 포토 이미지(11-1,12-1)와 관련된 정보이다. 즉, 제 1 재생 영상(311)이 먼저 표시되어 재생되고, 이후 제 2 재생 영상(312)이 표시되어 재생된다. 물론, 제 1 재생 영상(311)이 먼저 표시되어 재생되지 않고, 일정 시간 블랙 화면이었다가 제 2 재생 영상(311)과 동시에 재생되는 것도 가능하다.
한편, 통신 단말기(20)를 좌측에서부터 우측으로 이동시키면, 통신 단말기(20)의 디스플레이 화면(300)상에는 제 2 재생 영상(312)이 표시되어 재생되고, 이후 제 1 재생 영상(311)이 표시되어 재생된다. 즉, 도 11에 도시된 제 1 재생 영상(311)과 제 2 재생 영상(312)의 위치가 반대가 된다.
도 11에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.
또한, 통신 단말기(20)의 디스플레이 화면(300)상에 표시되는 백그라운드(301)는 포토 카드(11,12)가 놓이는 물체의 표면과 동일한 배경 이미지인 것을 특징으로 한다. 예를 들면, 나무 무늬를 갖는 탁자의 표면상에 포토 카드(11,12)가 놓이면 백그라운드(301)는 나무 무늬 이미지가 된다. 즉, 통신 단말기(20)는 포토 카드(11,12)와 동시에 포토 카드(11,12)가 놓이는 배경도 동시에 갭쳐하며, 포토 카드(11,12)와 배경을 별도로 분리하여 포토 카드(11,12)로부터 특징점 추출한 이미지를 추출하고, 배경으로부터는 배경 이미지를 추출한다.
도 12는 도 11에 나란히 재생영상이 디스플레이된 후, 중앙에 확대 영상이 디스플레이되는 화면의 예시이다. 부연하면, 도 12는 도 10에 도시된 과정을 통해 중앙에 확대 영상이 디스플레이되는 화면의 예시이다. 도 12를 참조하면, 제 1 재생 영상(311)과 제 2 재생 영역(312)이 디스플레이 화면(300)에 출력된 상태에서 제 3 재생 영상(410)이 디스플레이 화면(300)의 중앙에 확대되어 출력된다.
제 3 재생 영상(410)의 재생 화면 크기는 제 1 재생 영상(311)과 제 2 재생 영역(312)의 재생 화면 크기보다 클 수 있다. 특히, 프레임 테두리는 제 1 재생 영상(311)과 제 2 재생 영역(312)를 구별하기 위해 보다 굵을 수 있다.
디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 도 3에서 제 1 및 제 2 재생 영상(311,312)의 가로폭은 약 6cm이고, 세로폭은 약 4cm가 될 수 있다. 이때, 제 3 재생 영상(410)의 가로폭은 약 9cm이고, 세로폭은 약 5.5cm가 될 수 있다. 물론, 제 3 재생 영상(410)의 가로폭과 세로폭은 비율로 정해질 수도 있다. 즉, 제 1 및 제 2 재생 영상(311,312)의 가로폭의 150%, 세로폭의 120% 등이 될 수 있다.
또한, 제 3 재생 영상(410)은 통신 단말기(20)의 유저 특성을 반영할 수 있다. 예를 들면, 유저가 핑크색을 좋아한다면 제 3 재생 영상(410)의 배경색(420)을 핑크색으로하고 이 핑크색 배경상에 재생 영상이 출력될 수 있다.
제 3 재생 영상(410)이 출력되면, 제 1 및 제 2 재생 영상(311,312)은 계속 화면출력을 유지한다. 물론, 일정 시간이 경과된 이후 오프될 수도 있다. 이는 어떻게 설계하는 차이에 불과하다.
또한, 제 3 재생 영상(410)은 제 1 재생 영상(311) 및/또는 제 2 재생 영상(312)에 관련되어 합성될 수 있다. 부연하면, 제 1 재생 영상(311)에는 눈이 내리는 상태를 출력하고, 제 2 재생 영상(312)에는 나무가 출력된다며, 제 3 재생 영상(410)은 제 1 재생 영상(311)으로부터의 눈과 제 2 재생 영상(312)으로부터의 나무가 합성되어 출력된다. 물론, 유저 특성과 함께 적용될 수도 있다.
도 12에서는 통신 단말기(20)에 길이방향으로 카메라(121)가 설치되는 경우를 가정하였으나, 통신 단말기(20)의 좌우에 일정 간격으로 카메라(도 2의 121)가 2대가 설치되면, 상에서 하방향 또는 하에서 상방향으로 통신 단말기(20)를 이동시킬 수 있다. 이 경우, 제 1 재생 영상(311) 및 제 2 재생 영상(312)이 동시에 표시되어 재생될 수도 있다.
또한, 제 3 재생 영상(410)은 화면이 투명 상태에서 불투명 상태로 점점 변화하는 페이드 인 효과, 불투명 상태에서 투명 상태로 점점 변화하는 페이드 아웃 효과로 구현될 수 있다. 또한, 제 3 재생 영상(410)은, 화면을 점점 확대하는 줌인 효과, 화면을 점점 축소하는 줌아웃 효과로 구현될 수도 있다.
도 13은 본 발명의 또 다른 일실시예에 따른 2개의 재생 영상 특성을 반영하여 중앙에 확대 영상을 디스플레이하는 과정을 보여주는 흐름도이다. 도 13을 참조하면, 도 8에 도시된 포토 카드의 이미지 정보와 관련된 컨텐츠가 검색된후, 관리 서버(40)는 검색된 컨텐츠들로부터 일부 보조 객체 정보를 추출한다(단계 S1310).
이후, 추출된 일부 보조 객체 정보를 분석하여 보조 객체가 어떤 사물에 해당하는 지를 판별한다(단계 S1320). 부연하면, 입력된 영상에서 특징점들을 추출하고, 이를 딥러닝 학습을 통해 어떤 사물에 해당하는지를 분석한다.
부연하면, 컨벌루션 뉴럴 네트워크(CNN)와 같은 딥러닝 모델은 객체를 식별하기 위해 해당 객체 고유의 특징을 자동으로 학습하는 데 사용된다. 예를 들어, CNN에서는 수천 장의 훈련용 이미지를 분석하고 고양이와 개를 구분하는 특징을 학습하여 고양이와 개의 차이점을 식별하는 방법을 학습할 수 있으며, 딥러닝을 사용하여 객체 인식을 실시한다. 물론, 기초부터 딥 네트워크를 훈련시키기 위해서는 레이블이 지정된, 매우 방대한 데이터 세트를 모으고, 네트워크 아키텍처를 설계하여 특징을 학습하고 모델을 완성시킨다. 이를 통해 뛰어난 결과물을 얻을 수 있지만, 이러한 접근 방식을 위해서는 방대한 분량의 훈련 데이터가 필요하고 CNN에 레이어와 가중치를 설정해야 한다.
물론, 사전 훈련된 딥러닝 모델 사용하는 방법으로 대다수 딥러닝 응용 프로그램은 사전 훈련된 모델을 세밀하게 조정하는 방법이 포함된 프로세스인 전이학습 방식을 사용할 수도 있다. 이 방식에서는 AlexNet 또는 GoogLeNet과 같은 기존 네트워크를 사용하여 이전에 알려지지 않은 클래스를 포함하는 새로운 데이터를 주입한다. 이 방법을 사용하면 수천 또는 수백만 장의 이미지로 모델을 미리 훈련한 덕분에 시간 소모가 줄게 되고 결과물을 빠르게 산출할 수 있다.
물론, 머신러닝을 이용하여 객체를 인식하는 것도 가능하다. 이러한 인식 기술에 대해서는 널리 알려져 있으므로 더 이상의 설명은 생략하기로 한다.
한편, 이러한 특징점들을 이용하여 주객체를 인식한다. 주객체는 주로 사람이 될 수 있으나, 이에 한정되는 것은 아니며, 동물 등도 가능하다.
이후, 관리 서버(40)는 보조 객체와 주객체를 합성하여 중앙 확대 화면을 위한 컨텐츠를 생성한다.(단계 S1330).
이후, 통신 단말기(20)는 관리 서버(40)로부터 컨텐츠들을 전송받아, 제 1 재생 영상(311) 및 제 2 재생 영상(312)을 디스플레이 화면(300)에 출력한다(단계 S1350).
이후, 제 1 일정시간이 경과한후, 디스플레이 화면(300)의 중앙에 제 3 재생 영상(312)이 팝업 형태로 출력된다(단계 S1360).
제 3 재생 영상(410)이 팝업 형태로 출력된 상태에서, 통신 단말기(20)는 사용자 조작 또는 미리 설정되는 제 2 일정시간이 경과하였는지를 판단한다(단계 S1370).
판단 결과, 단계 S1370에서, 사용자 조작이 없거나 제 2 일정시간이 경과하지 않으면 제 3 재생 영상(410)의 현재 팝업 상태를 유지하며, 단계 S1370을 진행한다(단계 S1371).
이와 달리, 판단 결과, 단계 S1370에서, 사용자 조작이 있거나 제 2 일정시간이 경과하면 제 3 재생 영상(410)이 오프된다(단계 S1380).
도 14는 도 3에 나란히 재생영상이 디스플레이된 후, 중앙에 확대 영상이 디스플레이되는 화면의 예시이다. 도 14를 참조하면, 제 1 재생 영상(311)과 제 2 재생 영역(312)이 디스플레이 화면(300)에 출력된 상태에서 제 3 재생 영상(410)이 디스플레이 화면(300)의 중앙에 확대되어 출력된다.
제 3 재생 영상(410)의 재생 화면 크기는 제 1 재생 영상(311)과 제 2 재생 영역(312)의 재생 화면 크기보다 클 수 있다. 특히, 프레임 테두리는 제 1 재생 영상(311)과 제 2 재생 영역(312)를 구별하기 위해 보다 굵을 수 있다.
디스플레이 화면(300)의 가로폭은 15cm이고, 세로폭은 7cm라고 가정하면, 도 3에서 제 1 및 제 2 재생 영상(311,312)의 가로폭은 약 6cm이고, 세로폭은 약 4cm가 될 수 있다. 이때, 제 3 재생 영상(410)의 가로폭은 약 9cm이고, 세로폭은 약 5.5cm가 될 수 있다. 물론, 제 3 재생 영상(410)의 가로폭과 세로폭은 비율로 정해질 수도 있다. 즉, 제 1 및 제 2 재생 영상(311,312)의 가로폭의 150%, 세로폭의 120% 등이 될 수 있다.
또한, 제 3 재생 영상(410)은 제 1 재생 영상(311)에 디스플레이된 제 1 보조 객체 이미지(311-1)(즉 눈(snow) 이미지)와 제 2 재생 영상(312)에 디스플레이된 제 2 보조 객체 이미지(312-1)(즉 나무(tree) 이미지)를 주객체 이미지(411)(예를 들면, 인물)와 함께 디스플레이한다. 부연하면, 제 3 재생 영상(410)은 제 1 재생 영상(311)과 제 2 재생 영상(312)을 합성하여 생성된다. 주객체 이미지(411)는 제 1 재생 영상(311) 및 제 2 재생 영상(312) 중 어느 하나에 있는 인물 이미지일 수 있다. 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 모두 인물 이미지가 있을 경우, 주객체 이미지(411)는 일정 시간 주기로 교대로 디스플레이될 수 있다.
물론, 이와 달리, 주객체 이미지(411)는 제 1 재생 영상(311) 및 제 2 재생 영상(312)에 존재하는 인물 이미지와 관련된 제 3 인물이 될 수도 있다. 부연하면, 미리 데이터베이스(41)에 제 1 재생 영상(311)의 제 1 인물 이미지 및 제 2 재생 영상(312)의 제 2 인물 이미지에 관련되는 제 2 인물의 이미지 정보가 저장될 수 있다. 물론, 제 3 인물 이미지는 제 1 재생 영상(311)의 제 1 인물 및 제 2 재생 영상(312)의 제 2 인물 모두에 관련될 수도 있고, 제 1 재생 영상(311)의 제 1 인물 및 제 2 재생 영상(312)의 제 2 인물 중 하나에 관련될 수 있다.
보조 객체 이미지(311-1,312-1)는 사물이 될 수 있으며, 주객체 이미지(411)는 인물이 될 수 있다.
제 3 재생 영상(410)이 출력되면, 제 1 및 제 2 재생 영상(311,312)은 계속 화면출력을 유지한다. 물론, 일정 시간이 경과된 이후 오프될 수도 있다. 이는 어떻게 설계하는 차이에 불과하다.
또한, 여기에 개시된 실시형태들과 관련하여 설명된 방법 또는 알고리즘의 단계들은, 마이크로프로세서, 프로세서, CPU(Central Processing Unit) 등과 같은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 (명령) 코드, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 매체에 기록되는 프로그램 (명령) 코드는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프 등과 같은 자기 매체(magnetic media), CD-ROM, DVD, 블루레이 등과 같은 광기록 매체(optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 (명령) 코드를 저장하고 수행하도록 특별히 구성된 반도체 기억 소자가 포함될 수 있다.
여기서, 프로그램 (명령) 코드의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
1: 영상 재생 시스템
11,12: 제 1 및 제 2 포토 카드
11-1,12-1: 제 1 및 제 2 포토 이미지
20: 통신 단말기
30: 통신망
40: 관리 서버
41: 데이터베이스
110: 무선 통신부 120: A/V(Audio/Video) 입력부
130: 사용자 입력부 140: 센싱부
160: 메모리 170: 인터페이스부
180: 제어부 190: 전원 공급부
300: 디스플레이 화면
301: 백그라운드
303: 경계선
311: 제 1 컨텐츠 정보(재생 영상)
311-1: 제 1 보조 객체 311-2: 제 1 포커싱 영역
312: 제 2 컨텐츠 정보(재생 영상)
312-1: 제 2 보조 객체 312-2: 제 2 포커싱 영역
410: 제 3 컨텐츠 정보(재생 영상)
411: 주객체 412: 화면 크기 조절창
412-1: 스크롤바
420: 배경색

Claims (5)

  1. 삭제
  2. 삭제
  3. (a) 통신 단말기(20)가 일정 간격으로 나란히 놓여지는 2개의 포토 카드(11,12)의 표면위를 이동함에 따라 2개의 상기 포토 카드(11,12)에 각각 배치되는 2개의 포토 이미지(11-1,12-1)를 촬영하여 각각에 해당하는 2개의 촬영 이미지 정보를 생성하는 단계;
    (b) 관리 서버(40)가 2개의 상기 촬영 이미지 정보 각각으로부터 추출되는 2개의 특징점 정보를 이용하여 2개의 상기 특징점 정보와 각각 매칭되는 제 1 컨텐츠 정보(311) 및 제 2 컨텐츠 정보(312)를 검색하는 단계;
    (c) 상기 관리 서버(40)가 검색된 상기 제 1 컨텐츠 정보(311) 및 상기 제 2 컨텐츠 정보(312)를 상기 통신 단말기(20)에 전송하는 단계; 및
    (d) 상기 통신 단말기(20)가 디스플레이 화면(300)에 상기 제 1 컨텐츠 정보(311) 및 상기 제 2 컨텐츠 정보(312)를 나란히 출력한 상태에서 상기 제 1 컨텐츠 정보(311) 및 상기 제 2 컨텐츠 정보(312)를 반영하며 크기 조절이 가능한 제 3 컨텐츠 정보(410)를 출력하는 단계;
    상기 제 3 컨텐츠 정보(410)의 크기 조절은 상기 제 3 컨텐츠 정보(410)와 동시에 출력되는 화면 크기 조절창(412)을 통해 이루어지며, 상기 통신 단말기(20)의 유저가 선호하는 색상 특성을 분석해, 상기 제 3 컨텐츠 정보(410)의 배경색으로 출력하는 것을 특징으로 하는
    포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법.

  4. 삭제
  5. 삭제
KR1020210019255A 2021-02-10 2021-02-10 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법 KR102396642B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210019255A KR102396642B1 (ko) 2021-02-10 2021-02-10 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019255A KR102396642B1 (ko) 2021-02-10 2021-02-10 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법

Publications (1)

Publication Number Publication Date
KR102396642B1 true KR102396642B1 (ko) 2022-05-12

Family

ID=81590620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019255A KR102396642B1 (ko) 2021-02-10 2021-02-10 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법

Country Status (1)

Country Link
KR (1) KR102396642B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050714A (ko) * 2010-11-11 2012-05-21 한국과학기술원 인쇄물과 동영상의 증강현실 시스템 및 방법
KR20180093456A (ko) * 2017-02-13 2018-08-22 (주)필링크 가상 객체를 이용한 증강현실 콘텐츠 제공 방법 및 이를 위한 장치
KR102028139B1 (ko) 2019-03-29 2019-10-04 주식회사 스탠스 증강현실 기반의 영상 표시방법
KR20190128586A (ko) * 2018-05-08 2019-11-18 주식회사 아이오로라 개인화된 포토 카드 시스템 및 이에 있어서 포토 카드 제작 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120050714A (ko) * 2010-11-11 2012-05-21 한국과학기술원 인쇄물과 동영상의 증강현실 시스템 및 방법
KR20180093456A (ko) * 2017-02-13 2018-08-22 (주)필링크 가상 객체를 이용한 증강현실 콘텐츠 제공 방법 및 이를 위한 장치
KR20190128586A (ko) * 2018-05-08 2019-11-18 주식회사 아이오로라 개인화된 포토 카드 시스템 및 이에 있어서 포토 카드 제작 방법
KR102028139B1 (ko) 2019-03-29 2019-10-04 주식회사 스탠스 증강현실 기반의 영상 표시방법

Similar Documents

Publication Publication Date Title
CN111726536B (zh) 视频生成方法、装置、存储介质及计算机设备
US11640235B2 (en) Additional object display method and apparatus, computer device, and storage medium
CN105474207B (zh) 用于搜索多媒体内容的用户界面方法和设备
KR102290419B1 (ko) 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치
US10739958B2 (en) Method and device for executing application using icon associated with application metadata
KR101780034B1 (ko) 증강 현실 표본 생성
CN109618222A (zh) 一种拼接视频生成方法、装置、终端设备及存储介质
CN111465918B (zh) 在预览界面中显示业务信息的方法及电子设备
CN108270794B (zh) 内容发布方法、装置及可读介质
CN111491187B (zh) 视频的推荐方法、装置、设备及存储介质
US20220174237A1 (en) Video special effect generation method and terminal
CN112752121B (zh) 一种视频封面生成方法及装置
US11343577B2 (en) Electronic device and method of providing content therefor
CN106055624A (zh) 一种基于图片聚类的照片整理方法和移动终端
WO2013113985A1 (en) Method, apparatus and computer program product for generation of motion images
CN106250421A (zh) 一种拍摄处理的方法及终端
US20140218370A1 (en) Method, apparatus and computer program product for generation of animated image associated with multimedia content
CN105025378A (zh) 字幕添加系统和方法
Nazri et al. Current limitations and opportunities in mobile augmented reality applications
CN108255917B (zh) 图像管理方法、设备及电子设备
JP2012004747A (ja) 電子機器および画像表示方法
KR102396639B1 (ko) 포토 카드를 이용한 영상 재생 방법
CN117082304A (zh) 视频生成方法、装置、计算机设备及存储介质
KR102396642B1 (ko) 포토 카드를 기반하여 중앙 영상을 재생하는 영상 재생 방법
WO2012110689A1 (en) Method, apparatus and computer program product for summarizing media content

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant