KR20160016574A - Method and device for providing image - Google Patents
Method and device for providing image Download PDFInfo
- Publication number
- KR20160016574A KR20160016574A KR1020150078777A KR20150078777A KR20160016574A KR 20160016574 A KR20160016574 A KR 20160016574A KR 1020150078777 A KR1020150078777 A KR 1020150078777A KR 20150078777 A KR20150078777 A KR 20150078777A KR 20160016574 A KR20160016574 A KR 20160016574A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- effect
- identification information
- interest
- information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
Abstract
Description
본 개시는 영상을 제공하는 방법 및 이를 위한 장치에 관한 것이다. The present disclosure relates to a method for providing an image and an apparatus therefor.
전자 기기들이 다양화되고 있으며, 1인당 소지하는 전자 기기들의 종류도 다양해 지고 있다. 또한, 사용자는 자신이 소지한 복수의 전자 기기들 각각을 이용하여, 다양한 영상, 애플리케이션, 서비스를 소비하고 있으며, 사용자가 이용할 수 있는 영상들도 증가하고 있다. Electronic devices have been diversified, and the kinds of electronic devices possessed per person are also diversifying. In addition, a user consumes various images, applications, and services using each of a plurality of electronic apparatuses owned by the user, and the number of images available to the user is also increasing.
이에 따라, 사용자는 많은 종류의 영상을 접할 수 있으나, 사용자마다 선호하는 영상이 다를 수 있다. 또한, 사용자는 동일한 영상에서도 특정한 부분에 관심을 기울일 수 있다. 따라서, 사용자가 관심 있는 부분을 효율적으로 제공할 필요성이 대두되고 있다. Accordingly, the user can access many types of images, but the preferred images may be different for each user. Further, the user can pay attention to a specific portion even in the same image. Therefore, there is a need to efficiently provide a part that the user is interested in.
본 개시는 영상을 기저장 또는 기촬영된 영상과 다르게 제공하는 방법 및 그 장치를 제공한다. The present disclosure provides a method and apparatus for providing images differently than previously stored or previously captured images.
일 유형에 따른 따르는 영상 제공 방법은, 객체와 배경을 포함하는 제1 영상을 표시하는 단계; 상기 객체와 상기 배경 중 어느 하나를 관심 영역으로 선택하는 사용자 입력을 수신하는 단계; 상기 제1 영상의 속성 정보를 이용하여 상기 관심 영역을 식별하는 식별 정보를 획득하는 단계; 타겟 영상으로부터 상기 식별 정보를 갖는 상기 제2 영상을 획득하는 단계; 및 상기 제1 영상과 상기 제2 영상 중 적어도 하나를 이용하여 효과 영상을 생성하는 단계;를 포함한다.According to one aspect of the present invention, there is provided a method of providing a following image, comprising: displaying a first image including an object and a background; Receiving a user input that selects either the object or the background as a region of interest; Obtaining identification information for identifying the ROI using the attribute information of the first image; Obtaining the second image having the identification information from the target image; And generating an effect image using at least one of the first image and the second image.
그리고, 상기 속성 정보는, 상기 제1 영상 생성시의 컨텍스트 정보 및 사용자에 의해 추가된 상기 제1 영상에 대한 주석(annotation) 정보 중 적어도 하나를 포함할 수 있다.The attribute information may include at least one of context information at the time of generating the first image and annotation information about the first image added by the user.
또한, 상기 타겟 영상의 식별 정보는, 상기 속성 정보를 워드넷에 기반하여 일반화함으로써 획득될 수 있다.In addition, the identification information of the target image can be obtained by generalizing the attribute information based on WordNet.
그리고, 상기 타겟 영상의 식별 정보는, 상기 제1 영상의 속성 정보 및 상기 제1 영상의 영상 분석 정보 중 적어도 하나를 이용하여 획득될 수 있다.The identification information of the target image may be acquired using at least one of attribute information of the first image and image analysis information of the first image.
또한, 상기 제1 영상의 식별 정보는, 복수 개의 속성 정보로부터 획득될 수 있다.Further, the identification information of the first image may be obtained from a plurality of attribute information.
그리고, 획득된 상기 식별 정보에 대한 리스트를 표시하는 단계;를 더 포함할 수 있다.And displaying a list of the obtained identification information.
또한, 상기 리스트 중 적어도 일부를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하고, 상기 제2 영상을 획득하는 단계는, 상기 선택된 식별 정보와 상기 타겟 영상의 식별 정보를 비교하는 단계;를 포함할 수 있다.The method may further include receiving a user input for selecting at least a portion of the list, wherein the acquiring of the second image includes comparing the selected identification information with identification information of the target video can do.
그리고, 상기 효과 영상을 생성하는 단계는, 상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 기표시되었던 부분 영상과 다르게 표시하는 단계;를 포함할 수 있다.The generating of the effect image may include displaying the partial image corresponding to the identification information of the second image differently from the displayed partial image.
또한, 상기 효과 영상은, 상기 부분 영상을 하이라이트시키는 후광 효과, 상기 부분 영상의 픽셀값들의 차를 작게 하는 흐림 효과, 상기 부분 영상의 크기를 변경시키는 크기 효과, 상기 부분 영상의 깊이 정보를 변경시키는 깊이 효과 중 적어도 하나를 이용하는 생성될 수 있다.The effect image may include at least one of a halo effect for highlighting the partial image, a blur effect for reducing a difference between pixel values of the partial image, a size effect for changing the size of the partial image, Depth effect, < / RTI >
그리고, 상기 효과 영상은, 상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합한 영상일 수 있다.The effect image may be an image in which a partial image corresponding to the identification information of the second image is combined with a region of interest of the first image.
또한, 상기 제1 영상은 라이브 뷰 영상일 수 있다.Also, the first image may be a live view image.
그리고, 상기 제2 영상은, 영상 저장을 위한 사용자 입력이 수신되기 전에 상기 라이브 뷰 영상으로부터 임시로 생성된 임시 영상일 수 있다.The second image may be a temporary image temporarily generated from the live view image before a user input for storing the image is received.
또한, 상기 임시 영상은, 상기 라이브 뷰 영상 중 상기 식별 정보에 대응하는 부분 영상의 변화가 기준값 이상일 때마다 생성될 수 있다.The temporary image may be generated every time a change in the partial image corresponding to the identification information in the live view image is equal to or greater than a reference value.
그리고, 상기 효과 영상은, 상기 제1 영상과 상기 제2 영상을 포함할 수 있다. The effect image may include the first image and the second image.
한편, 일 실시예에 따른 모바일 디바이스는, 객체와 배경을 포함하는 제1 영상을 표시하는 디스플레이부; 상기 객체와 상기 배경 중 어느 하나를 관심 영역으로 선택하는 사용자 입력을 수신하는 사용자 입력부; 및 상기 제1 영상의 속성 정보를 이용하여 상기 관심 영역을 식별하는 식별 정보를 획득하고, 타겟 영상의 속성 정보를 이용하여 상기 타겟 영상으로부터 상기 식별 정보를 갖는 상기 제2 영상을 획득하는 제어부;를 포함할 수 있다.According to another aspect of the present invention, there is provided a mobile device including: a display unit displaying a first image including an object and a background; A user input for receiving a user input for selecting either the object or the background as a region of interest; And a controller for acquiring identification information for identifying the ROI using the attribute information of the first image and acquiring the second image having the identification information from the target image using attribute information of the target image, .
그리고, 상기 제어부는, 상기 제1 영상과 상기 제2 영상 중 적어도 하나를 이용하여 효과 영상을 생성할 수 있다.The control unit may generate an effect image using at least one of the first image and the second image.
또한, 상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합함으로써 상기 효과 영상을 생성할 수 있다.In addition, the effect image may be generated by combining a partial image corresponding to the identification information in the second image to a region of interest of the first image.
그리고, 상기 속성 정보는, 상기 제1 영상 생성시의 컨텍스트 정보 및 사용자에 의해 추가된 상기 제1 영상에 대한 주석(annotation) 정보 중 적어도 하나를 포함할 수 있다.The attribute information may include at least one of context information at the time of generating the first image and annotation information about the first image added by the user.
또한, 상기 제어부는, 상기 속성 정보를 워드넷에 기반하여 일반화함으로써 상기 제1 영상의 식별정보를 획득할 수 있다.In addition, the control unit may obtain the identification information of the first image by generalizing the attribute information based on WordNet.
그리고, 상기 제어부는, 상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합함으로써 상기 효과 영상을 생성할 수 있다. The control unit may generate the effect image by combining the partial image corresponding to the identification information of the second image with the region of interest of the first image.
본 개시의 영상 제공 방법 및 장치는 기저장 또는 기촬영된 영상과 다른 영상을 제공함으로써 사용자에게 유용하다. The image providing method and apparatus of the present disclosure are useful to a user by providing an image different from the original image stored or photographed.
도 1은 일 실시예에 따른 영상에 효과를 제공하는 방법을 설명하는 흐름도이다.
도 2는 일 실시예에 따른 효과 제공을 위한 GUI(Graphical User Interface)의 일 예를 나타내는 도면이다.
도 3은 일 실시예에 따른 객체에 후광 효과를 제공하는 방법을 설명하는 참조도면이다.
도 4는 일 실시예에 따른 객체에 흐림 효과를 제공하는 방법을 설명하는 참조도면이다.
도 5 및 도 6은 일 실시예에 따른 객체에 크기 효과를 제공하는 방법을 설명하는 참조도면이다.
도 7 및 8은 일 실시예에 따른 객체의 깊이 효과를 제공하는 방법을 설명하는 참조도면이다.
도 9는 일 실시예에 따른 효과 리스트를 표시하는 방법을 설명하는 참조도면이다.
도 10는 일 실시예에 따른 하나의 영상 중 복수 개의 객체에 효과를 제공하는 방법을 설명하는 참조도면이다.
도 11은 일 실시예에 따른 배경에 효과를 제공하는 방법을 설명하는 참조도면이다.
도 12a는 일 실시예에 따른 객체 및 배경에 효과를 제공하는 방법을 설명하는 참조도면이다.
도 12b는 일 실시예에 따른 복수 개의 사용자 입력으로 효과를 제공하는 방법을 설명하는 참조도면이다.
도 13은 일 실시예에 따른 복수 개의 영상에 효과를 제공하는 GUI(Graphical User Interface)를 나타내는 도면이다.
도 14는 일 실시예에 따른 디바이스가 제1 영상의 식별 정보를 이용하여 제2 영상에 효과를 제공하는 방법을 설명하는 순서도이다.
도 15는 일 실시예에 따른 디바이스가 식별 정보를 생성하는 방법을 설명하는 순서도이다.
도 16은 일 실시예에 따른 영상에 대한 속성 정보의 일례를 나타내는 도면이다.
도 17은 디바이스에서 영상의 속성 정보를 이용하여 식별 정보를 생성하는 일례를 설명하는 참조도면이다.
도 18은 디바이스에서 영상 분석 정보를 이용하여 식별 정보를 생성하는 일 예를 나타내는 참조도면이다.
도 19는 일 실시예에 따른 디바이스가 식별 정보 리스트를 표시하는 일례를 나타내는 도면이다.
도 20는 디바이스에서 효과 폴더를 표시하는 일례를 나타내는 도면이다.
도 21은 일 실시예에 따른 외부 장치에 저장된 영상을 이용하여, 디바이스가 영상에 효과를 제공하는 방법을 설명하는 순서도이다.
도 22는 본 발명의 일 실시예에 따르는, 디바이스가 효과 영상을 외부 장치와 공유하는 방법을 설명하기 위한 순서도이다.
도 23은 디바이스가 효과 영상을 외부 장치와 공유하는 일례를 설명하기 위한 도면이다.
도 24는 본 발명의 일 실시예에 따르는, 영상 관리 시스템을 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 복수 개의 영상을 결합하여 효과 영상을 제공하는 방법을 설명하는 순서도이다.
도 26a 내지 도 26c는 일 실시예에 따른 복수 개의 영상을 이용하여 객체에 효과를 제공하는 일예를 나타내는 도면이다.
도 27은 일 실시예에 따른 복수 개의 영상을 결합하는 방법을 설명하는 참조도면이다.
도 28a 내지 도 28c는 일 실시예에 따른 복수 개의 영상을 이용하여 배경에 효과를 제공하는 일 예를 나타내는 도면이다.
도 29은 다른 실시예에 따른 복수 개의 영상을 결합하는 방법을 설명하는 참조도면이다.
도 30은 일 실시예에 따른 라이브 뷰 영상을 이용하여 효과 영상을 제공하는 방법을 설명하는 흐름도이다.
도 31은 일 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다.
도 32는 다른 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다.
도 33은 다른 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다.
도 34는 다른 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 순서도이다.
도 35는 일 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다.
도 36은 일 실시예에 따른 라이브 뷰 영상에서 동영상을 생성하는 방법을 설명하는 흐름도이다.
도 37은 일 실시예에 따른 동영상을 재생하는 방법을 설명하는 흐름도이다.
도 38은 일 실시예에 따른 메뉴 영상에서 효과를 표시하는 방법을 설명하는 참조도면이다.
도 40은 일 실시예에 따른 실행 빈도에 따른 메뉴 항목에 효과를 제공된 메뉴 영상을 표시한 일 예를 도시한 도면이다.
도 41 내지 도 45는 일 실시예에 따르는, 디바이스(100)를 설명하는 블록도이다.
도 46은 본 발명의 일 실시예에 따르는, 클라우드 서버를 설명하기 위한 블록 구성도이다.FIG. 1 is a flow chart illustrating a method for providing an effect on an image according to an embodiment.
2 is a diagram illustrating an example of a GUI (Graphical User Interface) for providing an effect according to an embodiment.
3 is a reference diagram illustrating a method for providing a halo effect to an object in accordance with one embodiment.
4 is a reference diagram illustrating a method for providing a blur effect to an object in accordance with one embodiment.
5 and 6 are reference diagrams illustrating a method for providing size effects to objects in accordance with one embodiment.
7 and 8 are reference diagrams illustrating a method of providing depth effects of an object in accordance with one embodiment.
9 is a reference diagram illustrating a method of displaying an effect list according to an embodiment.
FIG. 10 is a reference diagram illustrating a method of providing an effect to a plurality of objects in one image according to an embodiment.
11 is a reference diagram illustrating a method for providing effects on a background in accordance with one embodiment.
12A is a reference diagram illustrating a method for providing an effect on an object and background in accordance with one embodiment.
FIG. 12B is a reference diagram illustrating a method for providing a plurality of user input effects in accordance with one embodiment.
13 is a diagram illustrating a GUI (Graphical User Interface) for providing effects to a plurality of images according to an exemplary embodiment.
14 is a flowchart illustrating a method in which a device according to an exemplary embodiment provides an effect to a second image using identification information of a first image.
15 is a flowchart illustrating a method by which a device according to an embodiment generates identification information.
16 is a diagram illustrating an example of attribute information for an image according to an embodiment.
17 is a reference diagram for explaining an example of generating identification information by using attribute information of a video in a device.
18 is a reference diagram showing an example of generating identification information using image analysis information in a device.
19 is a diagram showing an example in which a device according to an embodiment displays an identification information list.
20 is a diagram showing an example of displaying an effect folder in a device.
21 is a flowchart illustrating a method of providing a device with an effect using an image stored in an external device according to an exemplary embodiment.
22 is a flowchart for explaining a method in which a device shares an effect image with an external device, according to an embodiment of the present invention.
23 is a diagram for explaining an example in which a device shares an effect video with an external device.
24 is a view for explaining a video management system according to an embodiment of the present invention.
25 is a flowchart illustrating a method of providing an effect image by combining a plurality of images according to an exemplary embodiment.
26A to 26C are views illustrating an example of providing an effect to an object using a plurality of images according to an exemplary embodiment.
27 is a reference diagram illustrating a method of combining a plurality of images according to an exemplary embodiment.
28A to 28C are diagrams illustrating an example of providing an effect on a background using a plurality of images according to an embodiment.
29 is a reference diagram illustrating a method of combining a plurality of images according to another embodiment.
30 is a flowchart illustrating a method of providing an effect image using a live view image according to an exemplary embodiment.
31 is a reference diagram for explaining a method of generating an effect image in a live view image according to an embodiment.
32 is a reference diagram for explaining a method of generating an effect image in a live view image according to another embodiment.
33 is a reference diagram for explaining a method of generating an effect image in a live view image according to another embodiment.
FIG. 34 is a flowchart illustrating a method of generating an effect image in a live view image according to another embodiment.
35 is a reference diagram for explaining a method of generating an effect image in a live view image according to an embodiment.
FIG. 36 is a flowchart illustrating a method of generating a moving image in a live view image according to an embodiment.
37 is a flowchart illustrating a method of reproducing a moving image according to an embodiment.
FIG. 38 is a reference diagram illustrating a method of displaying an effect in a menu image according to an embodiment.
FIG. 40 is a view illustrating an example of displaying a menu image provided with an effect on a menu item according to an execution frequency according to an exemplary embodiment.
41-45 are block
46 is a block diagram illustrating a cloud server according to an embodiment of the present invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .
명세서 전체에서 "영상"이란 객체와 배경을 포함할 수 있다. 여기서 객체는 영상 처리 등을 통해 외곽선으로 구분될 수 있는 부분 영상으로, 예를 들어, 사람, 동물, 건물, 자동차 등이 될 수 있으며, 배경은 객체를 제외한 부분 영상이다. 객체와 배경이 될 수 있는 부분 영상은 반드시 고정되지 않고 상대적일 수 있다. 예를 들어, 사람, 자동차 및 하늘을 포함하는 영상에서 사람 및 자동차는 객체가 될 수 있고, 하늘을 배경이 될 수 있다. 또는 사람 및 자동차를 포함하는 영상에서 사람은 객체가 될 수 있고, 자동차는 배경이 될 수 있다. 다만, 객체에 대한 부분 영상의 크기는 배경에 대한 부분 영상의 크기보다 작은 경우가 일반적이다. 디바이스(100)마다 객체와 배경을 구분하는 기준이 기정의되어 있을 수 있다. Throughout the specification, an "image" may include an object and a background. Here, the object is a partial image that can be divided into outlines through image processing or the like, and can be, for example, a person, an animal, a building, a car, and the background is a partial image excluding an object. Partial images that can be objects and backgrounds are not necessarily fixed but can be relative. For example, in images that include people, cars, and sky, people and cars can become objects, and can become the background of the sky. Or in a video that includes people and cars, a person can be an object, and a car can be a background. However, the size of the partial image for the object is generally smaller than the size of the partial image for the background. A criterion for distinguishing the object and the background from each
명세서 전체에서 영상은 정지 영상(예컨대, 사진, 그림 등), 동영상(예컨대, TV 프로그램 영상, VOD(Video On Demand), 개인 영상(UCC: User-Created Contents), 뮤직비디오, 유투브 영상 등), 라이브 뷰 영상, 메뉴 영상 등일 수 있다. In the entire specification, an image may include still images (e.g., pictures, pictures, etc.), video (e.g., TV program video, VOD, A live view image, a menu image, and the like.
명세서 전체에서 관심 영역(effect portion)이라 함은 영상의 부분 영상으로서, 객체 또는 배경이 될 수 있다. 그리고, 영상에 효과를 제공한다는 것은 영상 편집의 일종으로, 관심 영역을 기제공되었던 관심 영역과 전체적으로 다르게 제공하는 것을 의미한다. 영상을 제공한다는 것은 영상을 표시, 재생, 저장 등을 한다는 것을 의미한다.
Throughout the specification, an effect portion is a partial image of an image, which may be an object or a background. And providing the effect to the image is a kind of image editing, which means providing the area of interest differently from the area of interest that was previously provided. Providing an image means displaying, reproducing, storing, etc. the image.
이하에서는 영상에 효과를 제공하는 영상 시스템에 대해 설명한다. 영상 시스템은 영상을 재생, 저장할 수 있는 디바이스(100) 이외에도 영상이 저장된 서버를 더 포함할 수 있다. 영상 시스템이 서버를 포함하는 경우에 대해서는 후에 자세히 살펴보기로 한다.Hereinafter, a video system for providing an effect on a video will be described. The image system may further include a server in which images are stored in addition to the
일 실시예에 따른 디바이스(100)는 영상을 표시하고 영상에 효과를 제공할 수 있는 장치일 수 있다. 일 실시예에 따른 디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 디바이스(100)는, 데스크톱 컴퓨터, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 디지털 카메라(160), IPTV(Internet Protocol Television), DTV(Digital Television), CE 기기(예컨대, 디스플레이 장치를 갖는 냉장고, 에이컨 등) 등이 있을 수 있으나, 이에 한정되는 것은 아니다. 본 명세서에서 기술되는 디바이스(100)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 디바이스(100)는 손목 시계, 안경, 반지, 팔찌, 목걸이 등일 수 있다.
The
도 1은 일 실시예에 따른 영상에 효과를 제공하는 방법을 설명하는 흐름도이다. FIG. 1 is a flow chart illustrating a method for providing an effect on an image according to an embodiment.
단계 S110에서, 디바이스(100)는 영상을 표시할 수 있다. 영상은 객체와 배경을 포함할 수 있으며, 정지 영상, 동영상, 라이브 뷰 영상, 메뉴 영상 등일 수 있다. In step S110, the
본 발명의 일 실시예에 의하면, 디바이스(100)가 표시하는 영상은, 디바이스(100)에 내장된 메모리에 저장된 정지 영상, 동영상, 메뉴 영상일 수도 있고, 디바이스(100)에 내장된 카메라(160)에 의해 촬영된 라이브 뷰 영상일 수 도 있으며, 외부 장치, 예를 들어, 다른 사용자가 사용하는 휴대 단말기, SNS(Social Networking Service) 서버, 클라우드 서버, 웹서버 등에 저장된 정지 영상, 동영상, 메뉴 영상일 수도 있으며, 외부 장치에서 촬영된 라이브 뷰 영상일 수도 있다. According to an embodiment of the present invention, an image displayed by the
단계 S120에서, 디바이스(100)는, 관심 영역을 선택할 수 있다. 관심 영역(region of interest)의 부분 영상으로서, 객체 또는 배경이 될 수 있다. 예를 들어, 디바이스(100)는, 복수의 객체 중 하나의 객체를 관심 영역으로 선택할 수도 있고, 복수의 객체 중 적어도 둘 이상의 객체를 관심 영역으로 선택할 수도 있다. 또는 디바이스(100)는 영상 중 배경을 관심 영역으로 선택할 수 있다. In step S120, the
일 실시예에 의하면, 디바이스(100)는, 사용자 입력에 기초하여 관심 영역을 선택할 수 있다. 예를 들어, 디바이스(100)는 영상 중 일부 영역을 선택하는 사용자 입력을 수신할 수 있고, 선택된 일부 영역을 포함하는 객체 또는 배경을 관심 영역으로 결정할 수 있다. According to one embodiment,
본 발명의 일 실시예에 의하면, 관심 영역을 선택하는 사용자 입력은 다양할 수 있다. 본 명세서에서 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 등을 포함할 수 있다. According to an embodiment of the present invention, the user input for selecting the region of interest may vary. The user input may include key input, touch input, motion input, bending input, voice input, multiple input, and the like.
명세서 전체에서 "터치 입력"이란 사용자가 디바이스(100)를 제어하기 위해 터치 스크린에 행하는 제스처 등을 의미한다. 예를 들어, 본 명세서에서 기술되는 터치 입력에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭 등이 있을 수 있다.Throughout the specification, "touch input" means a gesture or the like that the user makes on the touch screen to control the
"탭(tap)"은 사용자가 손가락 또는 터치 도구(예컨대, 전자 펜)를 이용하여 화면을 터치한 후 움직이지 않은 채 화면에서 즉시 들어올리는 동작을 나타낸다. "Tap" indicates an operation in which the user immediately touches the screen using a finger or a touch tool (e.g., an electronic pen) and immediately lifts it from the screen without moving.
"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 화면을 터치한 후 임계 시간(예컨대, 2초) 이상 터치 입력을 유지하는 동작을 나타낸다. 예를 들어, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간(예컨대, 2초) 이상인 경우를 의미한다. 터치 입력이 탭인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적 또는 촉각적으로 피드백 신호를 제공할 수도 있다. 상기 임계 시간은 구현 예에 따라서 변경될 수 있다. "Touch & hold" represents an operation for the user to touch the screen using a finger or a touch tool (e.g., an electronic pen) and then maintain the touch input for a critical time (e.g., 2 seconds) or more. For example, the time difference between the touch-in and touch-out times is equal to or greater than a threshold time (e.g., 2 seconds). In order to allow the user to recognize whether the touch input is a tap or a touch & hold, the feedback signal may be provided visually, audibly or tactually when the touch input is maintained for a predetermined time or more. The threshold time may vary depending on the implementation.
"더블 탭(double tap)"은 사용자가 손가락이나 터치 도구(예컨대, 전자펜)를 이용하여 화면을 두 번 터치하는 동작을 나타낸다. "Double tap" indicates an operation in which the user touches the screen twice with a finger or a touch tool (e.g., an electronic pen).
"드래그(drag)"는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. 드래그 동작으로 인하여 오브젝트가 이동되거나 후술할 패닝 동작이 수행된다."Drag" means an operation of moving a finger or a touch tool to another position in the screen while the user holds the touch after touching the finger or the touch tool on the screen. The object is moved due to the drag operation or a panning operation to be described later is performed.
"패닝(panning)"은 사용자가 오브젝트를 선택하지 않고 드래그 동작을 수행하는 경우를 나타낸다. 패닝은 특정 오브젝트를 선택하지 않기 때문에 오브젝트가 페이지 내에서 이동되는 것이 아니라 페이지 자체가 화면 내에서 이동하거나, 오브젝트의 그룹이 페이지 내에서 이동한다. "Panning" indicates a case where a user performs a drag operation without selecting an object. Since panning does not select a specific object, the object is not moved within the page, but the page itself moves within the screen, or the group of objects moves within the page.
"플릭(flick)"은 사용자가 손가락이나 터치 도구를 이용하여 임계 속도(예컨대, 100 pixel/s) 이상으로 드래그하는 동작을 나타낸다. 손가락이나 터치 도구의 이동 속도가 임계 속도(예컨대, 100 pixel/s) 이상인지에 기초하여 드래그(또는 패닝)와 플릭을 구별할 수 있다. A "flick" represents an operation in which a user drags a finger or touch tool to a critical velocity (e.g., 100 pixel / s) or more. It is possible to distinguish the drag (or panning) from the flick based on whether the moving speed of the finger or the touch tool is equal to or greater than a critical speed (for example, 100 pixel / s).
"드래그 앤드 드롭(drag & drop)"은 사용자가 손가락이나 터치 도구를 이용해 오브젝트를 화면 내 소정 위치에 드래그한 후 놓는 동작을 의미한다. "Drag & drop" means an operation in which a user drags an object to a predetermined position on the screen using a finger or a touch tool, and then releases the object.
“핀치(pinch)”는 핀치(pinch)는 사용자가 복수 개의 손가락이나 터치 도구를 화면에 터치한 후 손가락 또는 터치 도구들간의 간격을 넓히거나 좁히는 동작을 나타낸다. 사용자가 엄지와 검지를 화면에 접촉한 후 이들 사이의 간격을 넓히는 동작을 언핀칭(unpinching)이라 칭하고, 이들 사이의 간격을 좁히는 동작을 핀칭 (pinching)이라 칭할 수 있다. 두 손가락의 거기에 따라 확대 값이나 축소 값이 결정된다.&Quot; Pinch " indicates a pinch operation in which a user touches a screen with a plurality of fingers or a touch tool, and then widens or narrows the gap between the finger or touch tools. The operation of widening the gap between the thumb and index finger after the finger touches the screen is referred to as un-pinching, and the operation of narrowing the gap therebetween can be referred to as pinching. The magnification or reduction value is determined by the two fingers.
“스와이프(swipe)”는 손가락이나 터치 도구로 화면 위의 오브젝트를 터치한 상태에서 일정 거리를 움직이는 동작이다. A "swipe" is a movement of a certain distance while touching an object on the screen with a finger or a touch tool.
명세서 전체에서 "모션 입력"은, 사용자가 디바이스(100)를 제어하기 위해 디바이스(100)에 가하는 모션을 의미한다. 예를 들어, 모션 입력은, 사용자가 디바이스(100)를 회전시키거나, 디바이스(100)를 기울이거나, 디바이스(100)를 상하좌우로 이동시키는 입력을 포함할 수 있다. 디바이스(100)는, 가속도 센서(Acceleration sensor), 기울기 센서(tilt sensor), 자이로 센서(Gyro sensor), 자기장 센서(3-axis Magnetic sensor) 등을 이용하여, 사용자에 의해 기 설정된 모션 입력을 감지할 수 있다. Throughout the specification, "motion input" refers to the motion that a user applies to the
명세서 전체에서 "벤딩 입력"은, 디바이스(100)가 플렉서블 디스플레이 장치인 경우, 사용자가 디바이스(100)를 제어하기 위해 디바이스(100)의 전체 또는 일부 영역을 구부리는 입력을 의미한다. 본 발명의 일 실시예에 의하면, 디바이스(100)는 벤딩 센서를 이용하여, 벤딩 위치(좌표 값), 벤딩 방향, 벤딩 각도, 벤딩 속도, 벤딩 횟수, 벤딩 동작 발생 시점, 벤딩 동작 유지 시간 등을 감지할 수 있다. Throughout the specification, "bending input" refers to an input by which a user bends all or a portion of a
명세서 전체에서 "키 입력"은 사용자가 디바이스(100)에 부착된 물리적인 키를 이용하여, 디바이스(100)를 제어하는 입력을 의미한다. Throughout the specification, "keystroke" means an input that controls the
명세서 전체에서 "다중 입력"은, 적어도 둘 이상의 입력 방식이 결합된 것을 의미한다. 예를 들어, 디바이스(100)는, 사용자의 터치 입력 및 모션 입력을 수신할 수도 있고, 사용자의 터치 입력 및 음성 입력을 수신할 수도 있다. 또한, 디바이스(100)는 사용자의 터치 입력 및 안구 입력을 수신할 수도 있다. 안구 입력은 디바이스(100)를 제어하기 위해 사용자가 눈의 깜빡임, 응시 위치, 안구의 이동 속도 등을 조절하는 입력을 의미한다.Throughout the specification, "multiple input" means that at least two input methods are combined. For example, the
이하에서는 설명의 편의상 사용자 입력이 키 입력 또는 터치 입력인 경우를 예로 들어 설명하기로 한다.Hereinafter, the case where the user input is a key input or a touch input will be described as an example for convenience of explanation.
본 발명의 일 실시예에 의하면, 디바이스(100)는, 기 설정된 버튼을 선택하는 사용자 입력을 수신할 수 있다. 기 설정된 버튼은, 디바이스(100)에 부착된 물리적인 버튼일 수도 있고, GUI(Graphical User Interface) 형태의 가상의 버튼일 수도 있다. 예를 들어, 사용자가 제 1 버튼(예컨대, 홈 버튼) 및 제 2 버튼(예컨대, 음량 조절 버튼)을 함께 선택하는 경우, 디바이스(100)는 화면에 표시되는 일부 영역을 선택할 수 있다. According to one embodiment of the present invention, the
디바이스(100)는, 화면에 표시된 영상 일부 영역을 터치하는 사용자 입력을 수신할 수 있다. 예를 들어, 디바이스(100)는, 일부 영역을 소정 시간 이상(예컨대, 2초 이상) 터치하거나 소정 횟수 이상 터치하는 입력(예컨대, 더블 탭)을 수신할 수 있다. 그러면, 디바이스(100)는 터치된 일부 영역을 포함하는 객체 또는 배경을 관심 영역으로 결정할 수 있다. 즉, 디바이스(100)는 관심 영역을 선택할 수 있다. The
그리고, 디바이스(100)는 영상으로부터 관심 영역을 결정할 수 있다. 디바이스(100)는 영상 분석 정보를 이용하여 영상으로부터 관심 영역을 결정할 수 있다. 예를 들어, 디바이스(100)는 터치된 영역에 표시된 객체의 외곽선을 검출할 수 있다. 디바이스(100)는 영상에 포함된 객체의 외곽선을 기 정의된 템플릿(template)과 비교하여, 객체의 종류, 객체의 명칭 등을 검출할 수 있다. 예를 들어, 디바이스(100)는 객체의 외곽선이 차량의 템플릿과 유사한 경우, 영상에 포함된 객체를 차량으로 인식하고 차량 영상을 관심 영역으로 결정할 수 있다. Then, the
본 발명의 일 실시예에 의하면, 디바이스(100)는, 영상에 포함된 객체에 대한 얼굴 인식을 수행할 수도 있다. 얼굴을 검출하는 방법에는, 지식 기반 방법(Knowledge-based Methods), 특징 기반 방법 (Feature-based Methods), 템플릿 매칭 방법(Template-matching Methods) 및 외형 기반 방법(Appearance-based Methods) 등이 있을 수 있으나, 이에 한정되는 것은 아니다..According to an embodiment of the present invention, the
검출된 얼굴로부터 얼굴의 특징(예컨대, 얼굴의 주요 부분인 눈, 코, 입의 모양 등)을 추출할 수 있다. 얼굴에서 얼굴의 특징을 추출하는 방법은 가버 필터 또는 LBP(Local Binary Pattern)등 다양한 방법이 사용될 수 있으나, 이에 한정되는 것은 아니다. (E.g., eye, nose, mouth shape, etc., which are main parts of the face) from the detected face. Various methods such as a Gabor filter or LBP (Local Binary Pattern) can be used as a method of extracting facial features from a face, but the present invention is not limited thereto.
또는, 디바이스(100)는, 영상의 일정 영역을 컬러 맵(컬러 히스토그램)과 비교하여, 영상의 색상 배치, 무늬, 분위기 등의 시각적 특징을 영상 분석 정보로 추출할 수 있다. Alternatively, the
단계 S130에서, 디바이스(100)는 영상에 효과를 제공한다. 디바이스(100)는 영상 중 관심 영역을 기표시되었던 관심 영역에 비해 전체적으로 다르게 제공하도록 영상 중 관심 영역에 효과를 제공할 수 있다. 효과 제공 방법은 다양할 수 있다.
In step S130, the
도 2는 일 실시예에 따른 효과 제공을 위한 GUI(Graphical User Interface)의 일 예를 나타내는 도면이다. 2 is a diagram illustrating an example of a GUI (Graphical User Interface) for providing an effect according to an embodiment.
도 2의 200-1에 도시된 바와 같이, 디바이스(100)는 임의의 화면을 표시할 수 있다. 임의의 화면은 사진 앨범 어플리케이션이 실행되어 정지 영상이 표시된 화면, 촬영 어플리케이션이 실행되어 라이브 뷰 영상이 표시된 화면, 동영상 앨범 어플리케이션이 실행되어 동영상의 내 동영상 프레임이 표시된 화면, 어플리케이션의 실행을 위한 메뉴 항목을 포함하는 메뉴 영상이 표시된 화면 등이 있을 수 있다. 디바이스(100)는 임의의 화면에서 이용할 수 있는 기능에 대한 기능 창(210)을 제공할 수 있다.As shown in 200-1 of Fig. 2, the
상기한 기능 창(210)에는 화면에서 이용할 수 있는 기능을 나타내는 다양한 항목을 제공할 수 있다. 사용자는 기능 창(210)에서 '편집' 항목을 선택할 수 있다. 사용자가 메뉴 창(210)에서 '편집' 항목(212)을 선택하는 경우, 디바이스(100)는, 도 2의 200-2에 도시된 바와 같이, 다양한 편집 항목을 포함된 편집 창(220)을 제공할 수 있다. 기능 창 및 편집 창은 GUI(Graphical User Interface)의 일종일 수 있다. The
도 2의 200-2를 참조하면, 디바이스(100)는 편집 방법을 결정할 수 있는 편집 창(220)을 화면에 표시할 수 있다. 사용자가 편집 창(220)에서 효과 편집(222) 항목을 선택하는 경우, 디바이스(100)는, 영상 중 부분 영상을 기존의 부분 영상과 전체적으로 다르게 표시하는 효과를 제공할 수 있다.
Referring to 200-2 of FIG. 2, the
이하에서는 영상에 효과를 제공하는 예를 구체적으로 설명한다.Hereinafter, an example of providing an effect on a video will be described in detail.
도 3은 일 실시예에 따른 객체에 후광 효과를 제공하는 방법을 설명하는 참조도면이다. 도 3의 300-1에 도시된 바와 같이, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(310)를 관심 영역으로 선택하는 사용자 입력을 수신할 수 있다. 사용자는 객체가 표시된 일부 영역을 터치한 후 움직이지 않은 채 즉시 들어 올리는 탭 동작을 수행함으로써 객체가 표시된 일부 영역은 선택할 수 있다. 디바이스(100)는 그래프 컷(graph cut) 방법 및 레벨 셋(level set) 방법 등을 이용하여 영상으로부터 터치된 영역에 포함하는 영역에 표시된 객체를 구분할 수 있다. 그리고, 디바이스(100)는 객체는 관심 영역을 결정할 수 있다. 3 is a reference diagram illustrating a method for providing a halo effect to an object in accordance with one embodiment. As shown in 300-1 of Fig. 3, the
그리고, 도 3의 300-2에 도시된 바와 같이, 디바이스(100)는 사용자의 선택에 응답하여 객체를 전체적으로 하이라이트시켜, 도 3의 300-1에 표시되었던 객체(310)와 전체적으로 다른 객체(320)을 표시할 수 있다. 관심 영역을 기표시되었던 관심 영역에 비해 전체적으로 하이라이트시키는 영상 처리를 후광 효과라고 할 수 있다. 관심 영역의 외곽선을 하이라이트시킬 수도 있고, 관심 영역 전체를 하이라이트시킬 수도 있다.
3, the
도 4는 일 실시예에 따른 객체에 흐림 효과를 제공하는 방법을 설명하는 참조도면이다. 도 4의 400-1에 도시된 바와 같이, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(410)를 선택하는 입력을 수신할 수 있다. 사용자는 관심 영역인 객체(410)가 표시된 일부 영역을 터치한 후 일정 거리 좌우로 이동하는 스와이프 동작을 수행함으로써 객체(410)를 선택할 수 있다. 그러면, 도 4의 400-2에 도시된 바와 같이, 디바이스(100)는 사용자의 선택에 응답하여 객체내 픽셀 값간의 차가 작아짐으로써 흐릿하게 표시되는 흐림 효과가 제공된 객체(420)을 표시할 수 있다. 디바이스(100)는 스와이프하는 시간 또는 횟수에 따라 흐림(blur) 효과의 정도를 다르게 할 수 있다. 예를 들어, 스와이프하는 시간 또는 횟수가 많아질수록 흐림 효과의 정도가 클 수 있다.
4 is a reference diagram illustrating a method for providing a blur effect to an object in accordance with one embodiment. As shown in 400-1 of FIG. 4, the
도 5 및 도 6은 일 실시예에 따른 객체에 크기 효과를 제공하는 방법을 설명하는 참조도면이다. 5 and 6 are reference diagrams illustrating a method for providing size effects to objects in accordance with one embodiment.
도 5의 500-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(510)를 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자는 관심 영역인 객체(510)가 표시된 일부 영역을 두 손가락으로 터치한 상태에서 두 손가락의 거리가 커지는 제스처인 언핀치 동작을 수행함으로써 객체(510)를 선택할 수 있다. 그러면, 디바이스(100)는 객체의 선택에 응답하여, 도 5의 500-2에 도시된 바와 같이, 크기가 확대된 객체(520)를 표시할 수 있다. 선택된 객체의 크기가 커진 반면 선택되지 않는 다른 객체 및 배경의 크기는 변경되지 않는다. 크기 증가는 두 손가락간 거리의 변화량에 의해 결정될 수 있다.
Referring to 500-1 of FIG. 5, the
또는, 도 6의 600-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(610)를 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자는 관심 영역인 객체(610)가 표시된 일부 영역을 두 손가락으로 터치한 상태에서 두 손가락의 거리가 작아지는 핀치 동작을 수행함으로써 객체(610)를 선택할 수 있다. 그러면, 디바이스(100)는 객체의 선택에 응답하여, 도 6의 600-2에 도시된 바와 같이, 크기가 축소된 객체(620)를 제공할 수 있다. 선택된 객체의 크기가 축소된 반면 선택되지 않는 다른 객체 및 배경의 크기는 변경되지 않는다. 다만, 선택된 객체의 크기가 축소됨으로써 선택된 객체와 다른 영역 사이에 공간은 미러링 기법 등을 이용하여 선택되지 않은 다른 객체 및 배경에 의해 채워질 수 있다. 크기 축소는 두 손가락간 거리의 변화량에 의해 결정될 수 있다.
Alternatively, referring to 600-1 of FIG. 6, the
효과 제공은 관심 영역의 깊이를 조절 또는 생성하는 것도 포함될 수 있다. 도 7 및 8은 일 실시예에 따른 객체의 깊이 효과를 제공하는 방법을 설명하는 참조도면이다. 도 7의 700-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(710)를 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자는 객체(710)가 표시된 일부 영역을 터치한 상태에서 디바이스(100)를 위로 올리는 동작을 수행함으로써 객체(710)를 관심 영역으로 선택할 수 있다. 그러면, 디바이스(100)는 객체의 선택에 응답하여, 도 7의 700-2에 도시된 바와 같이, 선택된 객체(720)가 선택되기 전의 객체(710)보다 앞에 표시되도록 즉, 사용자로 하여금 선택된 객체(720)가 가깝게 보이게 느껴지도록 하는 깊이 감소 효과가 제공된 객체(720)를 표시할 수 있다.
Providing effects may also include adjusting or creating a depth of interest region. 7 and 8 are reference diagrams illustrating a method of providing depth effects of an object in accordance with one embodiment. Referring to 700-1 of FIG. 7, the
또는, 도 8의 800-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 객체(810)를 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자는 객체(810)가 표시된 일부 영역을 터치한 상태에서 디바이스(100)를 아래로 움직이는 동작을 수행함으로써 객체(810)를 관심 영역으로 선택할 수 있다. 그러면, 디바이스(100)는 객체(810)의 선택에 응답하여, 도 8의 800-2에 도시된 바와 같이, 선택된 객체(820)가 선택되기 전의 객체(810)보다 뒤에 표시되도록, 즉, 사용자로 하여금 선택된 객체(820)가 멀리 보이게 느껴지도록 하는 깊이 증가 효과가 제공된 객체(820)를 표시할 수 있다.
Alternatively, with reference to 800-1 of FIG. 8, the
디바이스(100)는 효과 종류를 사용자의 제스처에 기반하여 결정할 수도 있지만, 디바이스(100)는 효과 리스트를 제공하고, 사용자의 선택한 항목에 기반하여 효과 종류를 결정할 수도 있다. 도 9는 일 실시예에 따른 효과 리스트를 표시하는 방법을 설명하는 참조도면이다. The
도 9의 900-1에 도시된 바와 같이 디바이스(100)의 모드가 효과 모드로 설정된 상태에서, 디바이스(100)는 영상을 표시할 수 있다. 사용자는 객체(910)가 표시된 일부 영역을 선택할 수 있다. 그러면, 디바이스(100)는 선택된 영역에 표시된 객체 또는 배경을 관심 영역으로 결정하고, 관심 영역에 적용할 수 있는 효과에 대한 효과 리스트(920)를, 도 9의 900-2에 도시된 바와 같이, 표시할 수 있다. With the mode of the
상기한 효과 리스트(920)는 팝업창으로 표시될 수 있으며, 효과 항목은 텍스트로 표시될 수 있다. 효과 항목으로, 관심 영역을 하이라이트시키는 후광 효과, 관심 영역의 픽셀값 차를 줄이는 흐림 효과, 관심 영역의 크기를 조절하는 크기 효과, 관심 영역의 깊이를 조절하는 깊이 효과 등이 있을 수 있다. 사용자는 효과 항목 중 어느 하나를 선택할 수 있고, 디바이스(100)는 사용자 입력에 대응하여 관심 영역에 효과를 제공할 수 있다.
The
지금까지 하나의 객체를 선택하고, 선택된 객체에 대해 효과를 제공하는 방법을 설명하였다. 복수 개의 객체에 동일한 효과를 제공할 수도 있고, 복수 개의 객체 중 적어도 두 개는 서로 다른 효과를 제공할 수도 있다. So far, we have shown how to select an object and provide effects for the selected object. The same effect may be provided to a plurality of objects, and at least two of the plurality of objects may provide different effects.
도 10는 일 실시예에 따른 하나의 영상 중 복수 개의 객체에 효과를 제공하는 방법을 설명하는 참조도면이다. 도 10의 1000-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 제1 객체(1010)를 관심 영역으로 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자는 제1 객체(1010)가 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 제1 객체(1010)를 관심 영역으로 선택하는 사용자 입력이 수신된 것으로 결정하고, 도 10의 1000-2에 도시된 바와 같이, 후광 효과가 제공된 제1 객체(1012)를 표시할 수 있다. 또한, 디바이스(100)는 영상 중에서 제2 객체(1020)를 관심 영역으로 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자는 제2 객체(1020)가 표시된 일부 영역을 두 손가락으로 터치한 상태에서 두 손가락의 거리가 커지는 언핀치 동작을 수행함으로써 제2 객체(1020)를 선택하는 명령을 입력할 수 있다. 그러면, 디바이스(100)는 제2 객체(1020)의 선택에 응답하여, 도 9의 900-3에 도시된 바와 같이, 제2 객체에 크기를 증가시켜, 크기가 증가된 제2 객체(1022)를 표시할 수 있다.
FIG. 10 is a reference diagram illustrating a method of providing an effect to a plurality of objects in one image according to an embodiment. Referring to 1000-1 in FIG. 10, the
효과 제공은 영상 중 객체뿐만 아니라 배경에도 적용될 수 있다. 도 11은 일 실시예에 따른 배경에 효과를 제공하는 방법을 설명하는 참조도면이다. 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는, 도 11의 1100-1에 도시된 바와 같이, 영상 중에서 배경(1110)을 관심 영역으로 선택하는 사용자 입력을 수신할 수 있다. 사용자는 배경(1110)이 표시된 일부 영역을 터치한 후 스와이프함으로써 배경을 선택할 수 있다. 그러면, 디바이스(100)는 배경(1110)의 선택에 응답하여 배경 내 픽셀 값간의 차가 작아짐으로써 흐릿해지는 흐림 효과를 제공하고, 도 11의 1100-2에 도시된 바와 같이, 흐림 효과가 제공된 배경(1120)을 표시할 수 있다. 흐림 효과 이외에도 배경을 이전 배경에 비해 전체적으로 다르게 표시되도록 하는 다른 종류의 효과도 적용될 수 있음은 물론이다.Effects can be applied to backgrounds as well as objects in the image. 11 is a reference diagram illustrating a method for providing effects on a background in accordance with one embodiment. The
또한, 효과 제공은 배경과 객체에 대해 효과가 제공될 수도 있다. 도 12a는 일 실시예에 따른 객체 및 배경에 효과를 제공하는 방법을 설명하는 참조도면이다. 도 12a의 1200-1를 참조하면, 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는 영상 중에서 제1 객체(1210)를 관심 영역으로 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자는 제1 객체(1210)가 표시된 일부 영역을 터치함으로써 제1 객체(1210)를 선택할 수 있다. 그러면, 디바이스(100)는 제1 객체(1210)의 선택에 응답하여 제1 객체(1210)에 후광 효과를 제공할 수 있다. 상기한 후광 효과는 사용자가 선택한 객체를 강조하기 위한 표시이다.Also, effects may be provided for backgrounds and objects. 12A is a reference diagram illustrating a method for providing an effect on an object and background in accordance with one embodiment. Referring to 1200-1 of FIG. 12A, the
그리고, 디바이스(100)는, 도 12a의 1200-2에 도시된 바와 같이, 후광 효과가 제공된 제1 객체(1212)를 표시할 수 있다. 또한, 디바이스(100)는 영상 중에서 배경(1220)을 관심 영역으로 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자는 배경(1220)이 표시된 일부 영역을 터치한 후 스와이프함으로써 배경(1220)을 선택할 수 있다. 그러면, 도12a의 1200-2에 도시된 바와 같이, 디바이스(100)는 배경(1220)의 선택에 응답하여 배경 내 픽셀 값간의 차가 작아짐으로써 흐릿하게 표시되는 흐림 효과가 제공된 배경(1222)를 표시할 수 있다.
Then, the
지금까지 하나의 사용자 입력으로 관심 영역이 선택되면 기설정된 효과가 제공된다고 설명하였다. 그러나, 이에 한정되지 않는다. 관심 영역을 선택하는 사용자 입력과 효과를 제공하기 위한 사용자 입력이 분리될 수 있다. 복수 개의 사용자 입력은 연속적으로 수신될 수 있고, 시간차를 두고 수신될 수도 있다. 또한, 관심 영역을 선택하는 사용자 입력과 효과 제공을 위한 사용자 입력이 동일할 수 있다. So far, we have explained that when a region of interest is selected as a single user input, a predetermined effect is provided. However, it is not limited thereto. The user input for selecting the region of interest and the user input for providing the effect can be separated. A plurality of user inputs may be received continuously, and may be received at a time difference. In addition, the user input for selecting the region of interest and the user input for providing the effect may be the same.
도 12b는 일 실시예에 따른 복수 개의 사용자 입력으로 효과를 제공하는 방법을 설명하는 참조도면이다. 디바이스(100)는 특정 어플리케이션, 예를 들어, 사진 앨범 어플리케이션이 실행된 상태에서, 하나 이상의 영상을 표시할 수 있다. 디바이스(100)는, 도 12b의 1200-4에 도시된 바와 같이, 영상 중에서 배경(1260)을 관심 영역으로 선택하는 제1 사용자 입력을 수신할 수 있다. 사용자는 배경(1260)이 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 상기한 터치를 제1 사용자 입력으로써 수신하고, 배경(1260)을 관심 영역으로 결정할 수 있다. 디바이스(100)는 영상에서 객체의 외곽선을 검출하여 객체와 배경을 분리할 수 있다. 그리고, 디바이스(100)는 터치된 영역이 객체가 표시된 영역인지 배경이 표시된 영역인지 결정할 수 있다. 도 12b의 1200-4에서 디바이스는 배경이 표시된 영역에서 터치가 수신되었는 바, 배경(1260)을 관심 영역으로 결정할 수 있다.FIG. 12B is a reference diagram illustrating a method for providing a plurality of user input effects in accordance with one embodiment. The
한편, 디바이스(100)는, 도 12b의 1200-5에 도시된 바와 같이, 배경의 경계선을 하이라이트시키는 인디케이터(1270)를 제공할 수 있다. 사용자는 상기한 인디케이터(1270)를 보고 관심 영역이 잘 선택되었는지 확인할 수 있다. 디바이스(100)는 상기한 인디케이터(1270)를 사용자의 설정에 따라 선택적으로 표시할 수 있다. 그리고, 디바이스(100)는 배경에 효과를 제공하기 위한 제2 사용자 입력을 수신할 수 있다. 예를 들어, 사용자는 배경이 표시된 영역에서 특정 방향으로 드래그하는 동작을 수행할 수 있다. 제1 사용자 입력과 제2 사용자 입력은 연속적으로 수신될 수 있다. 예를 들어, 사용자는 배경을 터치(제1 사용자 입력)한 후 바로 드래그(제2 사용자 입력)할 수 있다. On the other hand, the
그러면, 디바이스(100)는 상기한 드래그를 제2 사용자 입력으로 수신하고, 배경을 드래그하는 방향으로 흘러내는 흘림(flow) 효과를 제공하고, 도 12b의 1200-6에 도시된 바와 같이, 흘림 효과가 제공된 배경(1262)을 표시할 수 있다. 상기한 흘림 효과는 영상이 흘려내리게 표시되는 효과로서, 픽셀값이 이웃하는 픽셀들 중 드래그하는 방향을 기준으로 이전에 배치된 픽셀의 픽셀값을 기초로 보정되는 것이다.
The
하나의 영상을 편집함으로써 다른 영상도 동일한 효과를 제공할 수 있다. 도 13은 일 실시예에 따른 복수 개의 영상에 효과를 제공하는 GUI(Graphical User Interface)를 나타내는 도면이다. 도 13의 1300-1을 참조하면, 디바이스(100)는 사용자 입력에 대응하여 객체에 효과를 제공하였다. 디바이스(100)는 다른 영상에도 동일한 효과를 적용할 것인지를 문의하는 문의 창(1310)을 표시할 수 있다. 다른 영상 이용By editing one image, other images can provide the same effect. 13 is a diagram illustrating a GUI (Graphical User Interface) for providing effects to a plurality of images according to an exemplary embodiment. Referring to 1300-1 in Fig. 13, the
그리고, 디바이스(100)는 동일한 효과를 적용할 것을 요청하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자는 문의 창(1310) 중 ??가 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 사용자 입력에 응답하여, 도 13의 1300-2에 도시된 바와 같이, 효과 적용이 가능한 영상에 대한 리스트(1320)를 표시할 수 있다. 사용자가 리스트(1320) 중 특정 영상의 종류를 선택하면, 디바이스(100)는 선택된 영상에 동일한 효과를 제공할 수 있다.
The
이하에서는 설명의 편의를 도모하기 위해, 효과 제공이 가능한 영상인지 여부를 판단하기 위해 검토하는 영상을 타겟 영상이라고 한다. 관심 영역으로 선택하기 위해 이용된 영상을 제1 영상이라고 하고, 타겟 영상 중 효과를 제공하거나 효과 제공에 이용되는 영상을 제2 영상이라고 한다. Hereinafter, in order to facilitate the description, an image to be reviewed is referred to as a target image in order to determine whether or not the image can be provided with an effect. An image used to select an area of interest is referred to as a first image, and an image used to provide an effect or provide an effect is referred to as a second image.
디바이스(100)가 제2 영상에 효과를 제공하기 위해 타겟 영상으로부터 제2 영상을 검색 또는 획득할 수 있다. 디바이스(100)는 제1 영상의 관심 영역 즉, 객체 또는 배경을 식별하는 식별 정보를 이용하여 제2 영상을 검색할 수 있다. The
본 명세서에서 '식별 정보'는 식별하는 핵심적인 단어, 문구 등을 의하며, 식별 정보는 객체 및 배경 별로 정의될 수 있다. 객체 및 배경은 하나 이상의 식별 정보를 가질 수 있다. 본 발명의 일 실시예에 의하면, 식별 정보는, 영상의 속성 정보 또는 영상에 대한 영상 분석 정보를 이용하여 획득될 수 있다.
In the present specification, 'identification information' refers to key words, phrases, etc. to be identified, and identification information can be defined by objects and backgrounds. The object and the background may have more than one identification information. According to an embodiment of the present invention, the identification information may be acquired using attribute information of the image or image analysis information on the image.
도 14는 일 실시예에 따른 디바이스(100)가 제1 영상의 식별 정보를 이용하여 제2 영상에 효과를 제공하는 방법을 설명하는 순서도이다. FIG. 14 is a flowchart illustrating a method in which a
단계 S1410에서, 디바이스(100)는, 제1 영상에서 관심 영역을 선택할 수 있다. 예를 들어, 위에서 살펴본 바와 같이, 디바이스(100)는 제1 영상을 표시하고, 사용자 입력에 의해 제1 영상 중 객체 또는 배경을 관심 영역으로 선택할 수 있다. 디바이스(100)는 제1 영상의 관심 영역에 효과를 제공할 수도 있고, 추후 제2 영상과 함께 제1 영상의 관심 영역에 효과를 제공할 수도 있다. 제1 영상은 정지 영상, 동영상의 일부인 동영상 프레임(즉, 동영상의 정지 영상), 라이브 뷰 영상일 수 있다. 제1 영상이 정지 영상 또는 동영상 프레임인 경우, 상기한 정지 영상 또는 동영상은 디바이스(100)에 기저장된 영상일 수도 있고, 외부 장치에 저장되어 전송된 영상일 수도 있다. 또는 제1 영상이 라이브 뷰 영상인 경우, 상기한 라이브 뷰 영상은 디바이스(100)에 내장된 카메라(160)가 촬영한 영상일 수도 있고 외부 장치인 카메라(160)가 촬영되어 전송된 영상일 수도 있다. In step S1410, the
단계 S1420에서, 디바이스(100)는, 선택된 관심 영역에 식별 정보가 정의되어 있는지 판단할 수 있다. 예를 들어, 영상이 저장될 때 영상에 포함된 객체 및 배경 각각을 설명하는 식별 정보가 매칭되어 저장될 수 있다. 이 경우, 디바이스(100)는 선택된 관심 영역에 식별 정보가 정의되어 있다고 판단할 수 있다. 본 발명의 일 실시예에 의하면, 객체 및 배경 각각에 대응하는 식별 정보는, 영상 각각에 대한 메타데이터 형태로 저장될 수 있다. In step S1420, the
단계 S1430에서, 디바이스(100)는, 선택된 관심 영역에 식별 정보가 정의되어 있지 않은 경우, 식별 정보를 생성할 수 있다. 예를 들어, 디바이스(100)는, 메타데이터 형태로 저장된 속성 정보를 이용하여, 식별 정보를 생성하거나, 영상에 대한 영상 처리를 통해 획득되는 영상 분석 정보를 이용하여 식별 정보를 생성할 수 있다. 단계 S1430에 대해서 도 15를 참조하여 좀 더 자세히 살펴보기로 한다. In step S1430, the
단계 S1440에서, 디바이스(100)는 타겟 영상으로부터 식별 정보를 갖는 제2 영상을 검색할 수 있다. 타겟 영상은 사용자 입력에 따라 디바이스(100)에 저장된 정지 영상, 동영상, 외부 장치에 저장된 정지 영상, 동영상 등일 수 있다. 동영상에서 제2 영상을 검색할 때, 디바이스(100)는 식별 정보를 갖는 동영상 프레임을 검색할 수 있다. In step S1440, the
타겟 영상에도 식별 정보가 기정의되어 있을 수도 있고, 식별 정보가 정의되어 있지 않을 수도 있다. 타겟 영상에 식별 정보가 기정의되어 있는 경우, 디바이스(100)는 타겟 영상의 식별 정보와 관심 영역의 식별 정보간의 동일성 여부를 기준으로 제2 영상을 검색할 수 있다. 타겟 영상에 식별 정보가 정의되어 있지 않는 경우, 단계 S1430에서와 같이, 디바이스(100)는 타겟 영상의 식별 정보를 생성할 수 있다. 그리고, 생성된 타겟 영상의 식별 정보와 관심 영역의 식별 정보간의 동일성 여부를 기준으로 제2 영상을 검색할 수 있다. The identification information may be predefined in the target image, or the identification information may not be defined. If the identification information is set to the target video, the
제1 영상의 관심 영역에 대한 식별 정보가 복수 개인 경우, 디바이스(100)는 적어도 일부의 식별 정보를 이용하여 영상을 검색할 수도 있다. 또는 디바이스(100)는 식별 정보 리스트를 사용자에게 제공하여 사용자가 식별 정보를 선택할 수 있다. 디바이스(100)는, 식별 정보 리스트에서 하나 이상의 식별 정보를 선택하는 입력을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 디바이스(100)는 식별 정보 전체를 선택하는 입력을 수신할 수도 있고, 일부 식별 정보들을 선택하는 입력을 수신할 수 있다. When there are a plurality of pieces of identification information for a region of interest of the first image, the
본 발명의 일 실시예에 의하면, 식별 정보를 선택하는 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 중 적어도 하나일 수 있다.According to one embodiment of the present invention, the user input for selecting the identification information may vary. For example, the user input may be at least one of a key input, a touch input, a motion input, a bending input, a voice input, and a multiplex input.
단계 S1450에서, 디바이스(100)는 검색된 제2 영상에 효과를 제공할 수 있다. 디바이스(100)는 식별 정보를 이용하여 제2 영상 중 관심 영역에 대응하는 부분 영상을 구분하고, 구분된 부분 영상에 제1 영상의 관심 영역에 적용되는 효과와 동일한 효과를 제공할 수 있다. 단계 S1410에서, 디바이스(100)는 사용자의 선택에 대응하여 제1 영상으로부터 관심 영역을 구분하고, 단계 S1450에서, 디바이스(100)는 식별 정보를 이용하여 제2 영상으로부터 관심 영역에 대응하는 부분 영상을 구분할 수 있다.
In step S1450, the
도 15는 일 실시예에 따른 디바이스(100)가 식별 정보를 생성하는 방법을 설명하는 순서도이다. 도 15에서는 제1 영상 내 관심 영역의 식별 정보가 기 정의되어 있지 않은 경우를 예로 들어 설명하기로 한다. 도 15의 식별 정보를 생성하는 방법은 타겟 영상의 식별 정보를 생성할 때도 적용될 수 있음은 물론이다. 15 is a flowchart illustrating a method by which a
단계 S1510에서, 디바이스(100)는, 관심 영역에 대응하는 속성 정보가 존재하는지 판단할 수 있다. 예를 들어, 디바이스(100)는, 관심 영역에 대응하는 메타데이터를 확인할 수 있다. 디바이스(100)는, 메타데이터로부터 관심 영역의 속성 정보를 추출할 수 있다. In step S1510, the
일 실시예에 의하면, 속성 정보는 영상의 특성을 나타내는 정보로서, 영상 생성시의 컨텍스트 정보, 사용자에 의해 추가된 주석(annotation) 정보를 포함할 수 있다. According to an exemplary embodiment, the attribute information may include information indicating a characteristic of an image, context information at the time of image generation, and annotation information added by a user.
컨텍스트 정보는 영상 생성시의 영상과 관련된 환경 정보로서, 예를 들어, 영상의 형식에 관한 정보, 영상의 크기에 관한 정보, 영상이 생성된 디바이스(100)에 관한 정보, 영상 생성시의 시간 정보, 영상 생성시의 시간 정보, 영상 생성시의 온도 정보, 영상의 출처 정보 중 적어도 하나를 포함할 수 있다. 컨텍스트 정보는 디바이스가 자동으로 획득하여 저장할 수 있다. The context information is environment information related to an image at the time of image generation. For example, the context information includes information on the format of the image, information on the size of the image, information on the
주석 정보는 사용자가 영상에 대해 기록한 정보로서, 영상에 포함된 객체에 관한 정보, 예를 들어, 객체의 종류, 명칭, 상태 뿐만 아니라, 배경에 대한 정보, 예를 들어, 장소 정보, 시간 정보, 날씨 정보 등을 포함할 수 있다. The annotation information is information recorded by the user on the image, and includes information on the object included in the image, for example, the type, name, and status of the object, as well as background information such as place information, Weather information, and the like.
단계 S1520 및 단계 S1540에서, 디바이스(100)는 영상에 대한 속성 정보를 일반화하여, 식별 정보를 생성할 수 있다. In steps S1520 and S1540, the
본 명세서에서, 속성 정보를 일반화한다는 것은, 워드넷(계층적 어휘 참조 체계)에 기반하여 속성 정보를 상위 계층 언어로 표현하는 것을 의미할 수 있다. In the present specification, generalizing attribute information may mean expressing attribute information in a higher layer language based on WordNet (hierarchical lexical reference system).
‘워드넷(Wordnet)’은 단어 사이의 의미나 사용 패턴에 관한 정보로 단어 간의 연관성을 구축한 데이터베이스이다. 워드넷의 기본적 구조는 의미적으로 동일한 단어 리스트를 가진 신세(synset)이라는 논리적 그룹들과 이러한 신셋들 사이의 관계를 정의한 의미적 관계로 구성된다. 의미적 관계로는 상위어(hypernym)과 하위어(hyponym), 부분어(meronym)와 전체어(holonym)가 있다. 워드넷의 명사 부분에서는 최상위어로 개체(entity)를 가지며 의미에 따라 이를 확장함으로써 하위어를 형성할 수 있다. 그러므로 워드넷도 개념 어휘를 분류하고 정의하여 계층적 구조를 이룬 일종의 온톨로지라고 할 수 있다. 'Wordnet' is a database in which words are related to each other by information about the meanings and usage patterns between words. The basic structure of WordNet consists of logical groups called syncs with semantically equivalent word lists and semantic relations that define the relationship between these sets. There are hypernyms, hyponyms, meronyms and holonyms in semantic relations. In the noun part of WordNet, it has the most upper level entity and can form a lower word by expanding it according to meaning. Therefore, WordNet is a kind of ontology that classifies and defines concept vocabularies and constructs hierarchical structure.
‘온톨로지(ontology)’는 공유된 개념화(shared conceptualization)에 대한 정형화되고 명시적인 명세(formal and explicit specification)를 의미한다. 온톨로지는 단어와 관계들로 구성된 일종의 사전으로서 볼 수 있으며, 그 속에는 특정 도메인에 관련된 단어들이 계층적으로 표현되어 있고, 추가적으로 이를 확장할 수 있는 추론 규칙이 포함되어 있다.'Ontology' means a formal and explicit specification for shared conceptualization. The ontology can be seen as a kind of dictionary composed of words and relations, in which words related to a specific domain are hierarchically represented, and in addition, an inference rule for expanding them is included.
예를 들어, 관심 영역이 배경인 경우, 디바이스(100)는, 속성 정보에 포함된 위치 정보를 상위 계층 정보로 일반화하여, 식별 정보를 생성할 수 있다. 예를 들어, 디바이스(100)는, GPS 좌표 값(위도: 37.4872222 경도: 127.0530792)을 존(zone), 빌딩, 주소, 지역 명, 도시명, 국가 명 등의 상위 개념으로 표현할 수 있다. 이때, 빌딩, 지역 명, 도시명, 국가 명 등이, 배경에 대한 식별 정보로 생성할 수 있다. For example, when the ROI is background, the
단계 S1530 및 단계 S1540에서, 디바이스(100)는, 관심 영역에 대응하는 속성 정보가 존재하는지 않는 경우, 관심 영역에 대한 영상 분석 정보를 획득하고, 영상 분석 정보를 이용하여 관심 영역에 대한 식별 정보를 생성할 수 있다. In step S1530 and step S1540, if the attribute information corresponding to the ROI does not exist, the
본 발명의 일 실시예에 의하면, 영상 분석 정보는, 영상 프로세싱을 통해 획득되는 데이터를 분석한 정보로서, 예를 들어, 영상에 나타나는 객체에 관한 정보(예컨대, 객체의 종류, 상태, 명칭 등), 영상에 나타나는 장소에 관한 정보, 영상에 나타나는 계절이나 시간에 관한 정보, 영상에 나타나는 분위기나 감정에 관한 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. According to an embodiment of the present invention, the image analysis information is information obtained by analyzing data obtained through image processing. For example, the image analysis information includes information about an object (e.g., an object type, a status, Information about a place appearing in the image, information about the season and time appearing on the image, information about the atmosphere and feelings appearing on the image, and the like. However, the present invention is not limited thereto.
예를 들어, 관심 영역이 객체인 경우, 디바이스(100)는, 영상에 포함된 객체의 외곽선을 검출할 수 있다. 본 발명의 일 실시예에 의하면, 디바이스(100)는, 영상에 포함된 객체의 외곽선을 기 정의된 템플릿(template)과 비교하여, 객체의 종류, 객체의 명칭 등을 획득할 수 있다. 예를 들어, 디바이스(100)는, 객체의 외곽선이 차량의 템플릿과 유사한 경우, 영상에 포함된 객체를 차량으로 인식할 수 있다. 이 경우, 디바이스(100)는 영상에 포함된 객체의 정보를 이용하여, ‘차’라는 식별 정보를 생성할 수 있다. For example, when the region of interest is an object, the
또는, 디바이스(100)는 영상에 포함된 객체에 대한 얼굴 인식을 수행할 수도 있다. 예를 들어, 디바이스(100)는, 영상에서 사람의 얼굴 영역을 검출할 수 있다. 얼굴 영역을 검출하는 방법에는, 지식 기반 방법(Knowledge-based Methods), 특징 기반 방법 (Feature-based Methods), 템플릿 매칭 방법(Template-matching Methods) 및 외형 기반 방법(Appearance-based Methods) 등이 있을 수 있으나, 이에 한정되는 것은 아니다..Alternatively, the
디바이스(100)는, 검출된 얼굴 영역으로부터 얼굴의 특징(예컨대, 얼굴의 주요 부분인 눈, 코, 입의 모양 등)을 추출할 수 있다. 얼굴 영역에서 얼굴의 특징을 추출하는 방법은 가버(Gabor) 필터 또는 LBP(Local Binary Pattern)등 다양한 방법이 사용될 수 있으나, 이에 한정되는 것은 아니다. The
디바이스(100)는, 영상 내 얼굴 영역으로부터 추출된 얼굴의 특징을 기 등록된 사용자들의 얼굴의 특징과 비교할 수 있다. 예를 들어, 추출된 얼굴의 특징이 기 등록된 제 1 사용자의 얼굴의 특징과 유사한 경우, 디바이스(100)는, 선택된 영상에 제 1 사용자가 부분 영상으로 포함되어 있다고 판단할 수 있다. 이때, 디바이스(100)는 얼굴 인식 결과에 기반하여, '제1 사용자'라는 식별 정보를 생성할 수 있다. The
본 발명의 일 실시예에 의하면, 디바이스(100)는, 영상의 일정 영역을 컬러 맵(컬러 히스토그램)과 비교하여, 영상의 색상 배치, 무늬, 분위기 등의 시각적 특징을 영상 분석 정보로 추출할 수 있다. 디바이스(100)는 영상의 시각적 특징을 이용하여 식별 정보를 생성할 수 있다. 예를 들어, 영상이 하늘 배경을 포함하는 경우, 디바이스(100)는, 하늘 배경에 대한 시각적 특징을 이용하여, ‘하늘’ 라는 식별 정보를 생성할 수 있다.According to an embodiment of the present invention, the
또한, 본 발명의 일 실시예에 의하면, 디바이스(100)는, 영상을 영역 단위로 나눈 후, 각 영역과 가장 유사한 클러스터를 찾아서 그 클러스터에 연결된 식별 정보를 생성할 수도 있다. In addition, according to an embodiment of the present invention, the
영상에 대응하는 속성 정보가 존재하는지 않는 경우, 영상에 대한 영상 분석 정보를 획득하고, 영상 분석 정보를 이용하여 영상에 대한 식별 정보를 생성할 수 있다.If the attribute information corresponding to the image does not exist, the image analysis information for the image may be acquired and the identification information for the image may be generated using the image analysis information.
한편, 도 15에서는, 영상의 속성 정보가 존재하지 않는 경우에 디바이스(100)에서 영상 분석 정보를 획득하는 실시예를 설명하였으나, 이에 한정되는 것은 아니다. Meanwhile, in FIG. 15, an embodiment has been described in which the
예를 들어, 디바이스(100)는 영상 분석 정도 또는 속성 정보 중 어느 하나만을 이용하여 식별 정보를 생성할 수도 있다. 또는, 디바이스(100)는, 속성 정보가 존재하더라도 영상 분석 정보를 추가로 획득할 수도 있다. 이때, 디바이스(100)는 속성 정보와 영상 분석 정보를 함께 이용하여, 식별 정보를 생성할 수 있다. For example, the
본 발명의 일 실시예에 의하면, 디바이스(100)는, 속성 정보로부터 생성된 식별 정보들과 영상 분석 정보로부터 생성된 식별 정보들을 비교하여, 공통되는 식별 정보를 최종 식별 정보로 결정할 수 있다. 공통되지 않는 식별 정보들에 비해 공통되는 식별 정보들의 신뢰도는 높을 수 있다. 신뢰도는, 영상으로부터 추출되는 식별 정보들이 적합한 식별 정보라고 믿을 수 있는 정도를 의미한다.
According to an embodiment of the present invention, the
도 16은 일 실시예에 따른 영상에 대한 속성 정보의 일례를 나타내는 도면이다. 도 16에 도시된 바와 같이, 영상의 속성 정보가 메타데이터 형태로 저장될 수 있다. 예를 들어, 영상 별로 종류(1610), 시간(1611), 위치(GPS)(1612), 해상도(1613), 크기(1614), 수집 디바이스(1617) 등의 정보가 속성 정보로 저장될 수 있다. 16 is a diagram illustrating an example of attribute information for an image according to an embodiment. As shown in FIG. 16, the attribute information of the image may be stored in a meta data format. For example, information such as a type 1610, a time 1611, a position 1612, a resolution 1613, a size 1614, and a collection device 1617 may be stored as attribute information for each image .
본 발명의 일 실시예에 의하면, 영상 생성 시의 컨텍스트 정보도 메타데이터 형태로 저장될 수 있다. 예를 들어, 디바이스(100)에서 영상 1(1601)이 생성되는 경우, 디바이스(100)는, 영상 1(1601) 생성 시점에 날씨 애플리케이션으로부터 날씨 정보(예컨대, cloudy), 기온 정보(예컨대, 20℃) 등을 수집할 수 있다. 그리고 디바이스(100)는 영상 1(1601)에 대한 속성 정보로서 날씨 정보(1615) 및 기온 정보(816)를 저장할 수 있다. 또한, 디바이스(100)는, 영상 1(1601) 생성 시점에 일정 애플리케이션으로부터 이벤트 정보를 수집할 수도 있다. 이 경우, 디바이스(100)는, 영상 1(1601)에 대한 속성 정보로서 이벤트 정보(미도시)를 저장할 수 있다. According to an embodiment of the present invention, context information at the time of image generation can also be stored in the form of metadata. For example, when the
본 발명의 일 실시예에 의하면, 사용자에 의해 입력된 사용자 추가 정보(818)가 메타데이터 형태로 저장될 수도 있다. 예를 들어, 사용자 추가 정보(818)에는, 사용자가 영상을 설명하기 위해 입력한 주석(annotation) 정보, 사용자에 의해 설명되는 객체에 대한 정보 등이 포함될 수 있다. According to an embodiment of the present invention, the user additional information 818 input by the user may be stored in the form of metadata. For example, the user addition information 818 may include annotation information input by the user to describe the image, information on the object described by the user, and the like.
본 발명의 일 실시예에 의하면, 영상에 대한 영상 프로세싱 결과 획득된 영상 분석 정보(예컨대, 객체 정보 등)를 메타데이터 형태로 저장할 수도 있다. 예를 들어, 디바이스(100)는 영상 1(1601)에 포함된 객체들에 관한 정보(예컨대, 사용자 1, 사용자 2. 나, 의자)를 영상 1(1601)에 대한 속성 정보로 저장할 수 있다.
According to an embodiment of the present invention, image analysis information (e.g., object information, etc.) obtained as a result of image processing on an image may be stored in a meta data format. For example, the
도 17은 디바이스에서 영상의 속성 정보를 이용하여 식별 정보를 생성하는 일례를 설명하는 참조도면이다. 17 is a reference diagram for explaining an example of generating identification information by using attribute information of a video in a device.
본 발명의 일 실시예에 의하면, 디바이스(100)는 사용자 입력에 기초하여 영상(1710) 중 배경(1712)을 관심 영역으로 선택할 수 있다. 이때, 디바이스(100)는 영상의 속성 정보(1720) 중 선택된 배경(1712)의 속성 정보를 확인할 수 있다. 디바이스(100)는, 배경(1712)의 속성 정보를 이용하여, 식별 정보(1730)를 검출할 수 있다. According to one embodiment of the present invention,
예를 들어, 디바이스(100)는, 관심 영역으로 선택된 영역이 배경인 경우, 속성 정보로부터 배경과 관련된 정보를 검출할 수 있다. 그리고, 디바이스(100)는, 속성 정보 중, 위치 정보(예컨대, 위도: 37; 25; 26.928…, 경도: 126; 35; 31.235…)를 이용하여, '공원'이라는 식별 정보를 생성하거나 날씨(예를 들어, 구름)를 이용하여 '흐림'이라는 식별 정보를 생성할 수 있다. 속성 정보들을 조합하여 새로운 식별 정보를 생성할 수 있다. 예를 들어, 상기 속성 정보 중 시간 정보가 2012.5.3.15:13이고 위치 정보가 위도: 37; 25; 26.928…, 경도: 126; 35; 31.235…이라면 상기 위치 정보를 이용하여 해당 지역을 판단하고 상기 시간 정보를 추가로 이용하여 해당 지역에서의 계절을 판단할 수 있다. 예를 들어 상기 위치 정보가 '한국'에 해당하면 상기 시간 정보를 이용하여 '봄'이라는 계절에 관한 식별 정보를 생성할 수 있다. 다른 예로 상기 위치 정보와 시간정보로 생성된 계절 정보에 관한 식별 정보와 상기 날씨 정보를 이용함으로써 '봄비'라는 식별 정보를 생성할 수도 있다. For example, the
또는, 디바이스(100)는 사용자에 의해 추가된 주석 정보로부터 객체에 대한 정보인 '스마일', '사용자 1' 등의 식별 정보를 생성할 수 있다. Alternatively, the
한편, 컨텍스트 정보와 주석 정보가 상반된 경우, 디바이스(100)는 영상 분석 정보를 이용하여 식별 정보를 생성할 수 있다. 예를 들어, 컨텍스트 정보 중 날씨 정보가 비이나, 주석 정보 중 날씨 정보가 흐림인 경우, 디바이스는 영상 분석 정보를 이용하여 날씨 정보가 비인지 흐름인지 결정할 수 있다. 그러나, 이에 한정되지 않는다. 컨텍스트 정보와 주석 정보가 상반된 경우, 디바이스(100)는 주석 정보에 우선 순위를 두어 주석 정보로부터 식별 정보를 생성할 수 있다.On the other hand, when the context information and the annotation information are inconsistent, the
도 18은 디바이스에서 영상 분석 정보를 이용하여 식별 정보를 생성하는 일 예를 나타내는 참조도면이다. 본 발명의 일 실시예에 의하면, 디바이스(100)는 사용자 입력에 기초하여 영상(1810) 중 제1 객체(1812)를 관심 영역으로 선택할 수 있다. 이때, 디바이스(100)는 제1 객체(1812)에 대한 영상 분석을 통해 제1 객체(1812)를 설명하는 식별 정보(예를 들어, 사람, 웃는 얼굴)를 생성할 수 있다. 18 is a reference diagram showing an example of generating identification information using image analysis information in a device. According to one embodiment of the present invention, the
예를 들어, 디바이스(100)는, 관심 영역에서 사람의 얼굴 영역을 검출할 수 있다. 그리고 디바이스(100)는, 검출된 얼굴 영역으로부터 얼굴의 특징을 추출할 수 있다. 디바이스(100)는, 추출된 얼굴의 특징과 기 등록된 사용자들의 얼굴의 특징을 비교하여, 선택된 제1 객체가 '사용자 1'이라는 식별 정보를 생성할 수 있다. 또한, 디바이스(100)는 검출된 얼굴 영역 중 입술 모양으로부터 '스마일'는 식별 정보를 생성할 수 있다. 그리하여, 디바이스(100)는 식별 정보(1820)으로부터 '사용자 1' 및 '스마일'을 획득할 수 있다.
For example, the
한편, 관심 영역에 대한 식별 정보가 복수 개인 경우, 디바이스(100)는 식별 정보 리스트를 표시하여 사용자가 식별 정보를 선택할 수 있는 기회를 제공할 수 있다. 도 19는 일 실시예에 따른 디바이스가 식별 정보 리스트를 표시하는 일례를 나타내는 도면이다. On the other hand, when there are a plurality of pieces of identification information for the region of interest, the
도 19의 1900-1을 참조하면, 디바이스(100)는 사용자 입력에 기초하여 제1 영상(1910) 중 제1 객체(1912)를 관심 영역으로 선택할 수 있다. 본 발명의 일 실시예에 의하면, 디바이스(100)는 제1 객체(1912)를 설명하는 식별 정보를 획득할 수 있다. 예를 들어, 디바이스(100)는 스마일, 엄마, 윙크 등의 식별 정보를 획득할 수 있다. Referring to 1900-1 in FIG. 19, the
도 19의 1900-2를 참조하면, 디바이스(100)는, 획득된 식별 정보 리스트(1920)을 표시할 수 있다. 이때, 디바이스(100)는, 식별 정보 리스트(1920) 중에서 적어도 일부의 식별 정보를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 디바이스(100)는, 엄마(1922)를 선택하는 사용자 입력을 수신할 수 있다. 디바이스(100)는 타겟 영상 (예를 들어, 사진 앨범)로부터 사용자에 의해 선택된 식별 정보(예를 들어, 엄마)를 갖는 제2 영상을 검색하고, 제2 영상 중 엄마에 해당하는 부분 영상에 효과를 제공한 후, 도 19의 1900-3에 도시된 바와 같이, 엄마라는 부분 영상에 효과가 제공된 제2 영상(1930)을 표시할 수 있다.
Referring to 1900-2 in Fig. 19, the
효과가 제공된 제2 영상이 복수 개인 경우, 디바이스(100)는 폴더(이하 '효과 폴더'라고 한다)를 생성하여, 효과가 제공된 영상(이하 '효과 영상'이라고 한다.)을 저장할 수 있다. 상기한 효과 영상은 앞서 기술한 제1 영상 및 제2 영상 중 적어도 하나를 포함할 수 있다. 디바이스(100)는 효과 영상을 효과 폴더 내에 저장할 수도 있지만, 효과 영상의 링크 정보를 효과 폴더에 저장할 수도 있다.
When there are a plurality of second images provided with the effect, the
도 20는 디바이스에서 효과 폴더를 표시하는 일례를 나타내는 도면이다. 디바이스(100)는, 제2 영상에 대한 검색이 완료되면, 제2 영상에 효과를 제공할 수 있다. 그리고, 도 20의 2000-1에 도시된 바와 같이, 효과 폴더(2010)를 표시할 수 있다. 상기한 효과 폴더(2010)에는 효과 영상이 저장되어 있다. 효과 영상 자체가 효과 폴더(2010)에 저장되어 있을 수도 있지만, 효과 영상의 링크 정보가 효과 폴더(2010)에 저장도 수도 있다. 20 is a diagram showing an example of displaying an effect folder in a device. The
사용자는 효과 폴더(2010)를 선택하는 명령을 입력할 수 있다. 디바이스(100)는, 사용자 입력에 대응하여, 도 20의 2000-2에 도시된 바와 같이, 적어도 하나의 효과 영상(2020)을 표시할 수 있다. The user can input a command to select the
본 발명의 일 실시예에 의하면, 디바이스(100)는, 영상 생성 시간 정보, 영상 생성 위치 정보, 영상의 용량 정보, 및 영상의 해상도 정보 중 적어도 하나에 기초하여, 효과 폴더(1300)에 포함된 적어도 하나의 효과 영상을 배열할 수 있다. According to an embodiment of the present invention, the
또는 효과 영상의 종류가 다른 경우, 디바이스(100)는 종류별로 효과 폴더를 생성할 수 있고, 동일한 종류의 효과 영상을 하나의 효과 폴더에 저장할 수도 있다. 디바이스(100)는 효과 폴더 내에 있는 영상에 새 관심 영역을 선택하고, 선택된 관심 영역에 새 효과를 제공할 수도 있다. 효과 폴더 내에 새 효과가 적용된 효과 영상이 많은 경우, 효과 폴더 내에 새 효과 폴더를 생성할 수 있음도 물론이다.
Or the type of the effect image is different, the
앞서 기술한 바와 같이, 효과를 제공하는 영상은 디바이스(100)에 저장된 영상 뿐만 아니라, 외부 장치에 저장된 영상에도 적용될 수 있다. 상기한 외부 장치는 SNS 서버, 클라우드 서버, 다른 사용자가 사용하는 디바이스(100) 등일 수 있다. 도 21은 일 실시예에 따른 외부 장치에 저장된 영상을 이용하여, 디바이스가 영상에 효과를 제공하는 방법을 설명하는 순서도이다. As described above, the image providing the effect can be applied not only to the image stored in the
단계 S2100에서, 외부 장치는, 하나 이상의 영상이 저장되어 있다. 여기서, 외부 장치에 저장된 영상 중 어느 하나가 제1 영상이 될 수 있다. 외부 장치는, 네트워크로 연결되는 디바이스(100)에 소셜 네트워킹 서비스를 제공하는 서버일 수도 있고, 네트워크로 연결된 다른 휴대 단말기일수도 있으며, 클라우도 서버일 수도 있다. 소셜 네트워킹 서비스는, 온라인상에서 이용자들이 인맥을 새롭게 쌓거나 기존 인맥과의 관계를 강화할 수 있게 하는 서비스를 의미한다. In step S2100, the external apparatus stores one or more images. Here, any one of the images stored in the external device may be the first image. The external device may be a server for providing a social networking service to the network-connected
본 발명의 일 실시예에 의하면, 외부 장치는, 여러 사용자의 디바이스(100)들로부터 업로드되는 영상을 저장할 수 있다. According to an embodiment of the present invention, an external device can store images uploaded from
단계 S2120에서, 디바이스(100)는, 외부 장치에 접속할 수 있다. 디바이스(100)는 로그인을 수행하여 외부 장치와 접속할 수 있다. 로그인은, 외부 장치에 저장된 영상에 대한 접근 권한을 획득하는 절차일 수 있다. 예를 들어, 디바이스(100)는, 사용자의 식별 정보(예컨대, 계정 정보) 및 사용자의 인증 정보(예컨대, 비밀번호)를 외부 장치에 전송하면서 인증을 요청을 할 수 있다. 인증에 성공한 경우, 디바이스(100)는 외부 장치에 접속 가능한 상태가 되고 외부 장치에 저장된 영상에 접근할 수 있다. In step S2120, the
단계 S2130에서, 디바이스(100)는 외부 장치에 저장된 영상 중 제1 영상을 수신할 수 있다. 디바이스(100)는 외부 장치에 저장된 영상 중 어느 하나를 제1 영상으로 요청할 수 있고, 그에 대한 응답으로 외부 장치는 제1 영상을 디바이스(100)에 전송할 수 있다. 제1 영상은 객체와 배경을 포함할 수 있다. 상기한 제1 영상은 정지 영상, 동영상 프레임 또는 라이브 뷰 영상일 수 있다. In step S2130, the
단계 S2140에서, 디바이스(100)는, 제1 영상 중 관심 영역을 선택할 수 있다. 예를 들어, 디바이스(100)는 제1 영상 중 일부 영역을 선택하는 사용자 입력을 수신하고, 일부 영역을 포함하는 외곽선을 검출하고, 외곽선 내의 영역을 관심 영역을 선택할 수 있다. 상기한 외곽선 내의 영역을 객체 또는 배경일 수 있다. In step S2140, the
본 발명의 일 실시예에 의하면, 관심 영역을 선택하는 사용자 입력은 다양할 수 있다. 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 등을 포함할 수 있다. 예를 들어, 디바이스(100)는, 외부 장치에 저장된 복수의 영상 중 특정 컨텐트를 소정 시간 이상(예컨대, 2초 이상) 터치하거나 소정 횟수 이상 터치하는 입력(예컨대, 더블 탭)을 수신할 수 있다.According to an embodiment of the present invention, the user input for selecting the region of interest may vary. The user input may include key input, touch input, motion input, bending input, voice input, multiple input, and the like. For example, the
단계 S2150에서, 디바이스(100)는, 선택된 관심 영역을 식별하는 식별 정보에 대해 외부 장치에 문의한다. 그리고, 단계 S2160에서, 디바이스(100)는 외부 장치로부터 식별 정보에 대한 응답을 수신한다. 디바이스(100)는 관심 영역에 대응하는 객체 또는 배경에 대한 식별 정보가 기정의되어 있는지 문의할 수 있다. 식별 정보가 기정의되어 있으면, 외부 장치는 그에 대한 응답으로 관심 영역에 대한 식별 정보를 디바이스(100)에게 전송할 수 있다. In step S2150, the
그러나, 외부 장치에 객체 또는 배경에 대한 식별 정보가 기정의되어 있지 않으면, 외부 장치는 자신이 식별 정보를 생성할 수 있는지 여부를 판단하고, 자신이 식별 정보를 생성할 수 있으면 관심 영역에 대한 식별 정보를 생성하여 디바이스(100)에 전송할 수 있다. 식별 정보를 생성할 때, 외부 장치는 관심 영역의 속성 정보 및 영상 분석 정보 중 적어도 하나를 이용할 수 있다. 그러나, 외부 장치가 식별 정보를 생성할 수 없는 경우에는 관심 영역에 대해 자신이 갖고 있는 정보만을 디바이스(100)에 전송할 수 있다. 또는, 외부 장치는 식별 정보를 생성할 수 없다는 응답을 디바이스(100)에 전송할 수 있다. However, if the external device does not have an identification of the object or the background, the external device determines whether or not it can generate identification information. If the identification information can be generated by the external device, Information can be generated and transmitted to the
단계 S2170 에서, 디바이스(100)는 외부 장치의 응답에 기초하여 관심 영역의 식별 정보를 획득할 수 있다. 디바이스(100)는 외부 장치로부터 식별 정보를 수신할 수도 있고, 디바이스(100)가 관심 영역의 속성 정보 및 영상 분석 정보 중 적어도 하나를 이용하여 관심 영역의 식별 정보를 생성할 수도 있다. In step S2170, the
단계 S2180에서, 디바이스(100)는 식별 정보를 갖는 제2 영상을 검색할 수 있다. 디바이스(100)는 타겟 영상으로부터 식별 정보를 갖는 제2 영상을 검색할 수 있다. 여기서 타겟 영상은 디바이스(100)에 저장된 영상일 수 있다. 또는 외부 장치에 저장된 영상일 수도 있다. 또는 도 21에 도시된 외부 장치 이외의 다른 외부 장치에 저장된 영상일 수도 있다. 제2 영상을 검색할 때, 디바이스(100)는 타겟 영상에 저장된 식별 정보를 이용할 수 있으며, 식별 정보가 기정의 되어 있지 않는 경우, 타겟 영상의 속성 정보 또는 영상 분석 정보를 이용하여 식별 정보를 생성한 후, 공통의 식별 정보를 갖는 제2 영상을 검색할 수 있다. In step S2180, the
또한, 식별 정보가 복수 개의 경우, 디바이스(100)는 사용자 입력에 대응하여 식별 정보 중 적어도 일부를 이용하여 제2 영상을 검색할 수도 있다. In addition, when there are a plurality of pieces of identification information, the
단계 S2190 에서, 디바이스(100)는 검색된 제2 영상에 효과를 제공할 수 있다. In step S2190, the
도 21에서는 외부 장치에 저장된 제1 영상의 관심 영역을 이용하여 디바이스(100) 또는 외부 장치에 저장된 제2 영상에 효과를 제공한다고 하였으나, 이에 한정되지 않는다. 디바이스(100)에 저장된 제1 영상의 관심 영역을 이용하여 외부 장치에 저장된 제2 영상에 효과를 제공할 수 있음도 물론이다.
21, the effect is provided to the second image stored in the
디바이스(100)는 효과 영상을 외부 장치와 공유할 수도 있다. 도 22는 본 발명의 일 실시예에 따르는, 디바이스가 효과 영상을 외부 장치와 공유하는 방법을 설명하기 위한 순서도이다. The
단계 S2210에서, 디바이스(100)는, 효과 영상을 표시할 수 있다. 예를 들어, 디바이스(100)는, 제1 영상 중 사용자에 의해 선택된 관심 영역에 효과를 제공하여 효과 영상을 생성할 수 있다. 그리고, 디바이스(100)는 상기한 효과 영상을 표시할 수 있다. 또한, 제1 영상의 관심 영역을 이용하여 제2 영상에 효과를 제공함으로써 효과 영상을 생성할 수 있다. In step S2210, the
단계 S2220에서, 디바이스(100)는, 효과 영상에 대한 공유를 요청하는 사용자 입력을 수신할 수 있다. In step S2220, the
본 발명의 일 실시예에 의하면, 효과 영상에 대한 공유를 요청하는 사용자 입력은 다양할 수 있다. 예를 들어, 상기한 사용자 입력은 키 입력, 음성 입력, 터치 입력, 밴딩 입력 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. According to an embodiment of the present invention, the user input for requesting sharing of an effect image may be various. For example, the user input may include key input, voice input, touch input, banding input, and the like, but is not limited thereto.
본 발명의 일 실시예에 의하면, 디바이스(100)는, 사용자 입력에 대응하여, 효과 영상을 공유하기 위한 외부 장치에 대한 정보를 수신할 수 있다. 여기서, 외부 장치는 디바이스(100)와 연결된 클라우드 서버, SNS 서버, 동일 사용자의 다른 디바이스(100), 타 사용자의 디바이스(100), 및 웨어러블 디바이스 중 적어도 하나일 수 있으나, 이에 한정되는 것은 아니다. According to one embodiment of the present invention, the
예를 들어, 사용자는, 클라우드 스토리지의 계정 정보, 사용자의 SNS 계정 정보, 제 1 폴더에 포함된 전체 영상을 전송하기 위한 친구 디바이스(100)의 식별 정보(예컨대, 전화 번호 정보, MAC 주소 정보 등), 친구의 이메일 계정 정보 등을 입력할 수 있다. For example, the user may store the cloud storage account information, the user's SNS account information, the
단계 S2230에서, 디바이스(100)는, 효과 영상을 외부 장치와 공유할 수 있다. In step S2230, the
예를 들어, 디바이스(100)는, 효과 영상의 링크 정보(예컨대, 저장 위치 정보, URL 등)를 외부 장치로 전송할 수 있다. 또한, 디바이스(100)는, 효과 영상 자체를 외부 장치로 전송할 수도 있다. 본 발명의 일 실시예에 의하면, 디바이스(100)는, 효과 영상을 특정 서버에 업로드하고, 특정 서버에 접근할 수 있는 권한을 외부 장치에 부여할 수도 있다. For example, the
도 22에서는 효과 영상을 외부 장치와 공유한다고 하였으나, 이에 한정되지 않는다. 효과 폴더를 외부 장치와 공유할 수도 있다. 또한, 상기한 효과 영상은 하나 이상일 수 있다.
In FIG. 22, the effect image is shared with the external device, but the present invention is not limited thereto. You can also share effect folders with external devices. In addition, the effect image may be one or more.
도 23은 디바이스가 효과 영상을 외부 장치와 공유하는 일례를 설명하기 위한 도면이다. 도 23의 2300-1을 참조하면, 디바이스(100)는, 사용자 입력에 의해 효과 폴더(2310)를 생성하여 표시할 수 있다. 상기한 효과 폴더(2310)에는 하나 이상의 효과 영상이 저장되어 있을 수 있다. 상기한 효과 폴더(2310)에는 효과 영상 자체가 저장되어 있거나, 효과 영상의 링크 정보가 저장되어 있을 수 있다. 23 is a diagram for explaining an example in which a device shares an effect video with an external device. Referring to 2300-1 in Fig. 23, the
이때, 디바이스(100)는 효과 폴더(2310)를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 디바이스(100)는, 효과 폴더(2310)를 소정 시간(예컨대, 2초) 이상 터치하는 입력을 수신할 수 있다. 디바이스(100)는 사용자 입력에 응답하여, 폴더 탐색, 즐겨 찾기 추가, 전송(2322)이라는 항목을 포함하는 메뉴 창(2320)을 제공할 수 있다. At this time, the
사용자가 메뉴 창(2320)에서 전송(2322)를 선택하는 경우, 디바이스(100)는, 도 23의 2300-2에 도시된 바와 같이, 수신 장치를 선택할 수 있는 선택창(2330)을 제공할 수 있다. 디바이스(100)는, 선택창(2330)에서 연락처(Contact)(2332)를 선택하는 사용자 입력을 수신할 수 있다. 사용자는 연락처(Contact)에서 특정 친구를 선택할 수 있다. 이때, 디바이스(100)는, 특정 친구의 디바이스(100)와 효과 폴더(2310)를 공유할 수 있다.When the user selects
예를 들어, 디바이스(100)는 특정 친구의 디바이스(100)로 효과 폴더(2310)에 포함된 효과 영상을 전송할 수 있다. 또는, 디바이스(100)는 특정 친구의 디바이스(100)로 효과 폴더(2310)에 포함된 효과 영상의 링크 정보를 전송할 수도 있다. For example, the
본 발명의 일 실시예에 의하면, 디바이스(100)는, 이메일 또는 문자 메시지를 통해 특정 친구의 디바이스(100)로 효과 폴더(2310)에 포함된 효과 영상(또는 효과 영상의 링크 정보)를 전송할 수 있다.
According to one embodiment of the present invention, the
도 24는 본 발명의 일 실시예에 따르는, 영상 관리 시스템을 설명하기 위한 도면이다.24 is a view for explaining a video management system according to an embodiment of the present invention.
도 24에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 관리 시스템은 디바이스(100) 및 클라우드 서버(200)를 포함할 수 있다. 그러나 도시된 구성 요소보다 많은 구성 요소에 의해 영상 관리 시스템이 구현될 수도 있고, 도시된 구성 요소보다 적은 구성 요소에 의해 영상 관리 시스템이 구현될 수도 있다.As shown in FIG. 24, the image management system according to an embodiment of the present invention may include a
본 발명의 일 실시예에 따른 디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 디바이스(100)는, 데스크톱 컴퓨터, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 디지털 카메라(160), IPTV(Internet Protocol Television), DTV(Digital Television), CE 기기(예컨대, 디스플레이 장치를 갖는 냉장고, 에이컨 등) 중 하나일 수 있으나, 이에 한정되는 것은 아니다. 본 명세서에서 기술되는 디바이스(100)는 사용자에 의해 착용될 수 있는 장치(wearable device)일 수도 있다. 예를 들어, 본 발명의 일 실시예에 따른 디바이스(100)는 손목 시계, 안경, 반지, 팔찌, 목걸이 중 적어도 하나일 수 있다.The
디바이스(100)은 앞서 기술한 디바이스(100)와 동일하므로, 구체적인 설명은 생략한다. 이하에서는 설명의 편의상 디바이스(100)가 제 1 디바이스, 제 2 디바이스, …, 및 제 N 디바이스 중 하나인 경우를 예로 들어 설명하기로 한다. Since the
클라우드 서버(200)는, 디바이스(100)와 통신 연결될 수 있다. 예를 들어, 클라우드 서버(200)는, 디바이스(100)와 계정 정보를 통해 연결될 수 있다. The
본 발명의 일 실시예에 의하면, 클라우드 서버(200)는, 디바이스(100)와 데이터를 송수신할 수 있다. 예를 들어, 디바이스(100)는, 클라우드 서버(200)에 적어도 하나의 영상을 업로드할 수 있다. 또한, 디바이스(100)는, 클라우드 서버(200)로부터 영상에 대한 속성 정보, 영상 분석 정보, 식별 정보 등을 수신할 수도 있다. According to an embodiment of the present invention, the
본 발명의 일 실시예에 따른 클라우드 서버(200)는 인텔리젼스 엔진을 포함할 수 있으며, 클라우드 서버(200)는, 디바이스(100)에서 수집되는 영상을 인텔리젼스 엔진을 통하여 분석할 수 있다. 예를 들어, 클라우드 서버(200)는, 영상에 대한 속성 정보로부터 식별 정보를 생성할 수도 있고, 영상에 대한 영상 처리를 통해 영상 분석 정보를 획득할 수도 있다. 또한, 클라우드 서버(200)는, 디바이스(100)에서 발생하는 이벤트 정보를 분석하여 사용자의 상태, 디바이스(100)의 상황 등을 추론할 수도 있다. 클라우드 서버(200)도 앞서 기술한 디바이스(100)와 같이, 사용자의 입력에 대응하여 효과 영상 및 효과 폴더 중 적어도 하나를 생성할 수 있다.
The
지금까지 효과 영상은 하나의 영상에서 객체 또는 배경에 효과를 제공한다고 하였다. 효과 제공시 관심 영역의 영상 데이터를 이용한 것이다. 즉, 후광 효과, 흐림 효과 등은 관심 영역의 픽셀 값을 조절하는 것이고, 크기 효과는 관심 영역의 픽셀 값을 보다 넓은 영역에 적용하거나, 보다 좁은 영역에 적용하는 것이다. 또한, 깊이 효과는 관심 영역의 픽셀 값을 이용하여 3차원 영상(예를 들어, 좌안 영상 및 우안 영상)을 생성하는 것이다.So far, effect images are said to provide effects on objects or backgrounds in a single image. The effect is to use the image data of the area of interest. That is, the halo effect, the blur effect, and the like adjust the pixel value of the ROI, and the size effect applies the pixel value of the ROI to a wider area or a narrower area. In addition, the depth effect is to generate a three-dimensional image (e.g., a left eye image and a right eye image) using pixel values of the region of interest.
효과 제공시 다른 영상의 영상 데이터를 이용할 수 도 있다. 즉, 제2 영상의 영상 데이터를 이용하여 제1 영상에 효과를 제공할 수 있다. 이하, 다른 영상의 영상 데이터를 이용하여 관심 영역에 효과를 제공하는 것을 복수 개의 영상을 결합하여 효과를 제공한다고 기재한다. 도 25는 일 실시예에 따른 복수 개의 영상을 결합하여 효과 영상을 제공하는 방법을 설명하는 순서도이다. When providing effects, image data of other images may be used. That is, an effect can be provided to the first image using the image data of the second image. Hereinafter, it is described that effects are provided to a region of interest using image data of other images by combining a plurality of images. 25 is a flowchart illustrating a method of providing an effect image by combining a plurality of images according to an exemplary embodiment.
단계 S2510에서, 디바이스(100)는, 제1 영상에서 관심 영역을 선택할 수 있다. 예를 들어, 위에서 살펴본 바와 같이, 디바이스(100)는 디바이스(100) 또는 외부 장치에 저장된 정지 영상 또는 동영상 프레임을 제1 영상으로 표시할 수 있다. 또는 디바이스(100)는 디바이스(100) 또는 외부 장치에서 촬영된 라이브 뷰 영상을 제1 영상으로 표시할 수 있다. 사용자의 입력에 대응하여, 디바이스(100)는 제1 영상의 객체 또는 배경을 관심 영역으로 선택할 수 있다. In step S2510, the
단계 S2520에서, 디바이스(100)는, 선택된 관심 영역의 식별 정보를 획득한다. 예를 들어, 제1 영상이 저장될 때 제1 영상에 포함된 객체 및 배경 각각을 식별하는 식별 정보가 매칭되어 저장될 수 있다. 본 발명의 일 실시예에 의하면, 객체 및 배경 각각에 대응하는 식별 정보는, 메타데이터 형태로 저장될 수 있다. 이 경우, 디바이스(100)는 선택된 관심 영역에 식별 정보가 정의되어 있다고 판단할 수 있다. 디바이스(100)는 기저장된 식별 정보를 독출함으로서 식별 정보를 획득할 수 있다. In step S2520, the
선택된 관심 영역의 식별 정보가 정의되어 있지 않은 경우, 디바이스(100)는 식별 정보를 생성함으로써 식별 정보를 획득할 수 있다. 예를 들어, 디바이스(100)는, 메타데이터 형태로 저장된 속성 정보를 이용하여 식별 정보를 생성하거나, 영상에 대한 영상 처리를 통해 획득되는 영상 분석 정보를 이용하여 식별 정보를 생성할 수 있다.If the identification information of the selected region of interest is not defined, the
그리고, 단계 S2530에서, 디바이스(100)는 타겟 영상으로부터 관심 영역과 동일한 식별 정보를 갖는 제2 영상을 검색할 수 있다. 타겟 영상은 검색 대상이 되는 하나 이상의 영상으로서, 디바이스(100) 또는 외부 장치에 저장된 정지 영상, 동영상일 수 있다. Then, in step S2530, the
관심 영역이 하나의 식별 정보를 갖는 경우, 디바이스(100)는 타겟 영상으로부터 상기한 식별 정보를 갖는 제2 영상을 검색할 수 있다. 관심 영역이 복수 개의 식별 정보를 갖는 경우, 디바이스(100)는 모든 식별 정보를 갖는 영상을 검색할 수 있다. 그러나, 이에 한정되지 않는다. 디바이스(100)는 일부의 식별 정보를 갖는 영상을 검색할 수도 있다. 디바이스(100)는 식별 정보 리스트를 사용자에게 제공하며, 식별 정보 리스트에서 하나 이상의 식별 정보를 선택하는 사용자 입력을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 디바이스(100)는 식별 정보 전체를 선택하는 사용자 입력을 수신할 수도 있고, 일부 식별 정보들을 선택하는 사용자 입력을 수신할 수 있다. When the region of interest has one identification information, the
본 발명의 일 실시예에 의하면, 식별 정보를 선택하는 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 중 적어도 하나일 수 있다.According to one embodiment of the present invention, the user input for selecting the identification information may vary. For example, the user input may be at least one of a key input, a touch input, a motion input, a bending input, a voice input, and a multiplex input.
단계 S2540에서, 디바이스(100)는 검색된 하나 이상의 제2 영상 중 어느 하나를 선택할 수 있다. 디바이스(100)는 검색된 하나 이상의 제2 영상을 표시할 수 있다. 제2 영상은 썸네일 형식으로 표시할 수 있다. 검색된 제2 영상이 복수 개인 경우, 디바이스(100)는 검색 순서에 따라 제2 영상을 표시할 수도 있고, 제2 영상의 생성 순서를 기준으로 제2 영상을 표시할 수도 있다. 제2 영상의 표시 순서는 사용자의 입력에 따라 설정될 수도 있다. 제2 영상이 표시된 상태에서 사용자의 입력에 대응하여 디바이스(100)는 하나 이상의 제2 영상 중 어느 하나를 선택할 수 있다. 검색된 영상이 하나인 경우, 디바이스(100)는 사용자의 입력과 무관하게 검색된 제2 영상을 선택할 수 있음도 물론이다. In step S2540, the
단계 S2550에서, 디바이스(100)는 제1 영상과 제2 영상을 결합하여 효과 영상을 생성한다. 디바이스(100)는 제1 및 제2 영상으로부터 관심 영역을 분리하고, 분리된 제2 영상 중 관심 영역에 대응하는 부분 영상을 제1 영상의 관심 영역이 위치하는 영역에 결합함으로써 효과 영상을 생성할 수 있다. 또는 디바이스(100)는 관심 영역의 영상 데이터를 제2 영상의 관심 영역에 대응하는 부분 영상의 영상 데이터로 교체함으로써 효과 영상을 생성할 수도 있다.
In step S2550, the
도 26a 내지 도 26c는 일 실시예에 따른 복수 개의 영상을 이용하여 객체에 효과를 제공하는 일예를 나타내는 도면이다. 디바이스(100)의 모드가 효과 모드로 설정된 상태에서, 도 26a의 2600-1에 도시된 바와 같이, 디바이스(100)는 임의의 제1 영상(2610)을 표시할 수 있다. 상기한 제1 영상(2610)은 정지 영상, 동영상 프레임, 라이브 뷰 영상 등일 수 있다. 디바이스(100)는 제1 영상(2610) 중 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 제1 영상(2610) 중 객체(2612)가 표시된 일부 영역을 터치할 수 있고, 디바이스(100)는 사용자의 입력에 대응하여, 터치된 영역을 중심으로 영상 처리를 하여 터치된 영역을 포함하는 객체(2612)를 관심 영역으로 선택할 수 있다. 26A to 26C are views illustrating an example of providing an effect to an object using a plurality of images according to an exemplary embodiment. With the mode of the
그리고, 도 26a의 2600-2에 도시된 바와 같이, 디바이스(100)는 객체에 제공할 수 있는 효과에 대한 정보인 효과 리스트(2620)를 표시할 수 있다. 효과 리스트(2620)는 제1 영상(2610)과 중첩되게 표시될 수 있다. 사용자는 효과 리스트(2620) 중 어느 하나는 선택하는 입력을 수행할 수 있다. 예를 들어, 사용자는 '다른 영상 이용'이라는 항목이 표시된 일부 영역은 터치함으로써 입력을 수행할 수 있다.And, as shown in 2600-2 in Fig. 26A, the
디바이스(100)는 관심 영역인 객체(2612)를 식별하는 식별 정보를 획득할 수 있다. 식별 정보가 기저장되어 있으면, 디바이스(100)는 기저장된 식별 정보를 독출함으로씨 식별 정보를 획득할 수 있다. 식별 정보가 기저장되어 있는 않으면, 디바이스(100)는 객체의 속성 정보 및 영상 분석 정보 중 적어도 하나를 이용하여 식별 정보를 생성함으로써 식별 정보를 획득할 수 있다. 그리고, 도 26b의 2600-3에 도시된 바와 같이, 식별 정보 리스트(2630)를 표시할 수 있다. 상기한 식별 정보 리스트(2630)도 제1 영상(2610)과 중첩되게 표시될 수 있다. 식별 정보 리스트(2630) 중 적어도 일부를 선택하는 사용자 입력을 통해, 디바이스(100)는 적어도 일부의 식별 정보를 검색용 식별 정보로 결정할 수 있다. The
또한, 도 26b의 2600-4에 도시된 바와 같이, 디바이스(100)는 타겟 영상에 대한 정보를 나타내는 타겟 영상 리스트(2640)를 표시할 수 있다. 타겟 영상 리스트(2640) 중 적어도 일부를 선택하는 사용자 입력을 통해, 디바이스(100)는 타겟 영상을 결정할 수 있다. Further, as shown in 2600-4 in Fig. 26B, the
디바이스(100)는 타겟 영상에서 선택된 식별 정보를 포함하는 제2 영상을 검색할 수 있다. 타겟 영상이 정지 영상인 경우, 디바이스(100)는 정지 영상 단위로 제2 영상을 검색할 수 있다. 타겟 영상이 동영상인 경우, 디바이스(100)는 동영상 프레임 단위로 제2 영상을 검색할 수 있다. The
검색된 제2 영상(2650)을, 도 26c의 2600-5에 도시된 바와 같이, 표시할 수 있다. 제1 영상(2610)과 제2 영상(2650)은 표시 영역의 영역을 나누어 표시될 수 있다. 제2 영상(2650)이 복수 개인 경우, 디바이스(100)는 검색 순서 등을 기준으로 복수 개의 제2 영상(2650)을 순차적으로 나열할 수 있다. The retrieved
그리고, 하나 이상의 제2 영상 중 어느 하나의 영상(2660)을 선택하는 사용자 입력을 수신하면, 도 2600c의 2600-6에 도시된 바와 같이, 제1 영상(2610)과 선택된 제2 영상(2660)이 결합한 효과 영상(2670)을 표시할 수 있다. 디바이스(100)는 제1 영상(2610)의 선택된 객체(2612) 대신 제2 영상(2660)의 객체(2662)를 결합하여 효과 영상(2670)을 생성할 수 있다.
When a user input for selecting one of the one or more
제2 영상(2660)의 객체(2662)의 크기 및 형상이 제1 영상(2610)의 객체(2612)와 다소 상이할 수 있다. 디바이스(100)는 영상 결합시 복원 기법을 이용할 수 있다. 도 27은 일 실시예에 따른 복수 개의 영상을 결합하는 방법을 설명하는 참조도면이다. 디바이스(100)는 제1 영상(2710)으로부터 관심 영역인 객체(2712)를 제외한 영상(이하 '제1 부분 영상'이라 한다.)(2714)을 분리할 수 있다. 디바이스(100)는 영상 에지 특성 등을 이용하여 제1 영상으로부터 제1 부분 영상(2714)를 분리할 수 있다. 또한, 디바이스(100)는 제2 영상(2720)으로부터 영상 에지 특성 등을 관심 영역에 대응하는 객체(이하 '제2 부분 영상'이라 한다)(2722)를 분리할 수 있다. The size and shape of the
그리고, 디바이스(100)는 제1 부분 영상(2714)과 제2 부분 영상(2722)간의 중첩이 최소가 되도록 제1 부분 영상(2714)과 제2 부분 영상(2722)을 결합한다. 디바이스(100)는 제1 부분 영상(2714)과 제2 부분 영상(2722)이 중첩된 영역(2732)에서 제1 부분 영상(2714)의 일부를 삭제하고, 제1 부분 영상(2714)과 제2 부분 영상(2722) 모두 표시되지 않은 영역(2734)은 제1 부분 영상(2714)을 이용하여 복원시킴으로써 효과 영상(2730)을 생성할 수 있다.
The
도 28a 내지 도 28c는 일 실시예에 따른 복수 개의 영상을 이용하여 배경에 효과를 제공하는 일 예를 나타내는 도면이다. 디바이스(100)의 모드가 효과 모드로 설정된 상태에서, 도 28a의 2800-1에 도시된 바와 같이, 디바이스(100)는 임의의 제1 영상(2810)을 표시할 수 있다. 상기한 제1 영상(2810)은 정지 영상, 동영상 프레임, 라이브 뷰 영상 등일 수 있다. 디바이스(100)는 제1 영상(2810) 중 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 제1 영상(2810) 중 배경(2814)이 표시된 알뷰 영역을 터치하는 입력을 수행할 수 있고, 디바이스(100)는 사용자의 입력에 대응하여, 터치된 영역을 중심으로 영상 처리를 하여 배경(2814)을 관심 영역으로 선택할 수 있다. 28A to 28C are diagrams illustrating an example of providing an effect on a background using a plurality of images according to an embodiment. With the mode of the
그리고, 도 28a의 2800-2에 도시된 바와 같이, 디바이스(100)는 배경(2814)에 제공할 수 있는 효과에 대한 정보인 효과 리스트(2820)를 표시할 수 있다. 효과 리스트(2820)는 제1 영상(2810)과 중첩되게 표시될 수 있다. 사용자는 효과 리스트(2820) 중 어느 하나를 선택하는 입력을 수행할 수 있다. 예를 들어, 사용자는 '다른 영상 이용'이라는 항목이 표시된 일부 영역은 터치함으로써 입력을 수행할 수 있다.And, as shown in 2800-2 in Fig. 28A, the
디바이스(100)는 관심 영역인 배경(2814)을 식별하는 식별 정보를 획득할 수 있다. 식별 정보가 기저장되어 있으면, 디바이스(100)는 기저장된 식별 정보를 독출함으로씨 식별 정보를 획득할 수 있다. 식별 정보가 기저장되어 있는 않으면, 디바이스(100)는 객체의 속성 정보 및 영상 분석 정보 중 적어도 하나를 이용하여 식별 정보를 생성함으로써 식별 정보를 획득할 수 있다. 그리고, 도 28b의 2800-3에 도시된 바와 같이, 식별 정보 리스트(2830)를 표시할 수 있다. 상기한 식별 정보 리스트(2830)도 제1 영상(2810)과 중첩되게 표시될 수 있다. 식별 정보 리스트(2830) 중 적어도 일부를 선택하는 사용자 입력을 통해, 디바이스(100)는 적어도 일부의 식별 정보를 검색용 식별 정보로 결정할 수 있다.
또한, 도 28b의 2800-4에 도시된 바와 같이, 디바이스(100)는 타겟 영상에 대한 정보를 나타내는 타겟 영상 리스트(2840)를 표시할 수 있다. 타겟 영상 리스트(2840) 중 적어도 일부를 선택하는 사용자 입력을 통해, 디바이스(100)는 타겟 영상을 결정할 수 있다. Further, as shown in 2800-4 in Fig. 28B, the
디바이스(100)는 타겟 영상에서 검색용 식별 정보를 포함하는 제2 영상을 검색할 수 있다. 타겟 영상이 정지 영상인 경우, 디바이스(100)는 정지 영상 단위로 제2 영상을 검색할 수 있다. 타겟 영상이 동영상인 경우, 디바이스(100)는 동영상 프레임 단위로 제2 영상을 검색할 수 있다. The
검색된 제2 영상(2850)을, 도 28c의 2800-5에 도시된 바와 같이, 표시할 수 있다. 제1 영상(2810)과 제2 영상(2850)은 영역이 구분되어 표시될 수 있다. 제2 영상(2850)이 복수 개인 경우, 디바이스(100)는 검색 순서 등을 기준으로 복수 개의 제2 영상(2850)을 순차적으로 나열할 수 있다. The retrieved
그리고, 하나 이상의 제2 영상(2850) 중 어느 하나의 영상(2860)을 선택하는 사용자 입력을 수신하면, 도 28의 2800-6에 도시된 바와 같이, 제1 영상(2810)과 선택된 제2 영상(2860)이 결합한 효과 영상(2870)을 표시할 수 있다. 디바이스(100)는 제1 영상의 관심 영역에 제2 영상(2860)의 배경(2864)을 결합하여 효과 영상(2870)을 생성할 수 있다.
28, when a user input for selecting one of the one or more
제2 영상(2860)의 배경(2864)의 크기 및 형상이 제1 영상(2810)의 배경(2814)와 다소 상이할 수 있다. 디바이스(100)는 영상 결합시 영상 복원 기법을 이용할 수 있다. 도 29은 다른 실시예에 따른 복수 개의 영상을 결합하는 방법을 설명하는 참조도면이다. 디바이스(100)는 제1 영상(2910)으로부터 관심 영역인 배경을 제외한 영상(이하 '제3 부분 영상'이라 한다.)(2912)을 분리할 수 있다. 디바이스(100)는 영상 에지 특성 등을 이용하여 제1 영상(2910)으로부터 제1 부분 영상(2912)를 분리할 수 있다. 또한, 디바이스(100)는 제2 영상(2920)으로부터 영상 에지 특성 등을 관심 영역에 대응하는 부분 영상(이하 '제4 부분 영상'이라 한다)(2924)를 분리할 수 있다. The size and shape of the
그리고, 디바이스(100)는 제4 부분 영상(2924)으로부터 픽셀 정보가 없는 영역(2932)을 소정 픽셀 값으로 채움으로써 배경 영상(2930)을 생성할 수 있다. 배경 영상(2930) 생성시, 디바이스(100)는 주변 영역의 픽셀값을 이용하는 미러링 기법을 이용하여 픽셀 정보가 없는 영역(2932)의 픽셀 값을 결정할 수 있다. 그리고. 디바이스(100)는 배경 영상(2930)에 제3 부분 영상(2912)을 결합함으로써 효과 영상(2940)을 생성할 수 있다. 디바이스(100)는 제1 영상(2910)에서 제3 부분 영상(2912)의 위치 정보를 이용하여 제3 부분 영상(2912)을 배경 영상에 결합할 수 있다. 제3 부분 영상(2912)과 중첩되는 배경 영상(2930)의 부분은 삭제될 수 있다.
The
라이브 뷰 영상으로 효과 영상을 제공할 수 있다. 라이브 뷰 영상은 카메라(160)에 의해 촬영되어 표시되는 영상으로서 저장 명령이 수신되기 전의 영상이다. 상기한 카메라(160)는 디바이스(100)에 내장된 카메라(160)일 수도 있고, 외부 장치일 수도 있다. 앞서 기술한 바와 같이, 디바이스(100)는 사용자의 입력에 대응하여 라이브 뷰 영상 중 객체 또는 배경을 관심 영역으로 선택할 수 있고, 선택된 관심 영역을 선택되기 전의 관심 영역과 전체적으로 다르게 표시할 수 있다. 예를 들어, 디바이스(100)는 관심 영역에 후광 효과, 흐림 효과, 크기 효과, 깊이 효과 등을 제공할 수 있다. 그리고, 저장 명령을 수신하면, 디바이스(100)는 효과가 제공된 라이브 뷰 영상을 저장할 수 있다. 디바이스(100)는 디바이스(100)의 촬영 모드에 따라 효과가 제공된 라이브 뷰 영상을 정지 영상 또는 동영상으로 저장할 수 있다.
It is possible to provide an effect image with a live view image. The live view image is an image captured and displayed by the
뿐만 아니라, 디바이스(100)는 라이브 뷰 영상으로부터 복수 개의 영상을 추출하여 효과 영상을 제공할 수 있다. 도 30은 일 실시예에 따른 라이브 뷰 영상을 이용하여 효과 영상을 제공하는 방법을 설명하는 흐름도이다. 단계 S3010 단계에서, 디바이스(100)는 라이브 뷰 영상을 표시할 수 있다. 라이브 뷰 영상은 카메라(160)에 의해 촬영되어 표시되는 영상으로서 저장 명령이 수신되기 전의 영상이다. 상기한 카메라(160)는 디바이스(100)에 내장된 카메라(160)일 수도 있고, 외부 장치일 수도 있다. 이하 설명의 편의를 도모하기 위해 저장 입력이 수신된 후 생성된 영상을 촬영된 영상이라고 한다. In addition, the
단계 S3010 단계에서, 디바이스(100)는 관심 영역을 선택한다. 사용자는 라이브 뷰 영상 중 일부 영역을 선택하는 명령을 입력할 수 있고, 디바이스(100)는 선택된 일부 영역을 포함하는 객체 또는 배경을 관심 영역을 결정할 수 있다. In step S3010, the
일부 영역을 선택하는 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 중 적어도 하나일 수 있다.The user input to select some areas may vary. For example, the user input may be at least one of a key input, a touch input, a motion input, a bending input, a voice input, and a multiplex input.
단계 S3030 및 단계 S3040 단계에서, 디바이스(100)는 라이브 뷰 영상으로부터 임시 영상을 생성할 수 있다. 임시 영상은 관심 영역을 포함하는 영상으로서 사용자의 저장 입력을 수신하기 전에 임시로 생성된 영상이다. In steps S3030 and S3040, the
상기한 임시 영상은 관심 영역에 대한 부분 영상일 수 있다. 예를 들어, 임시 영상은 관심 영역으로 선택된 객체 또는 배경만으로 구성된 부분 영상일 수 있다. 또는 임시 영상은 관심 영역을 포함하는 라이브 뷰 영상에 대한 프레임 영상일 수도 있다. The temporal image may be a partial image of the region of interest. For example, the temporary image may be a partial image composed only of the object or the background selected as the region of interest. Alternatively, the temporary image may be a frame image for a live view image including an area of interest.
또한, 상기한 임시 영상으로 임시로 버퍼에 생성되어 저장될 수도 있지만, 임시로 생성되어 표시 영역에 표시될 수 도 있다. In addition, the temporary image may be temporarily generated and stored in the buffer, but may be temporarily generated and displayed in the display area.
임시 영상은 관심 영역이 선택된 시점에서부터 저장 입력이 수신될 때까지 생성될 수 있다. 예를 들어, 관심 영역이 선택된 시점에 임시 영상이 하나 생성되고 저장 입력이 수신된 시점에 임시 영상이 하나 생성되어 총 두 개의 임시 영상이 생성될 수 있다. 또는 임시 영상은 관심 영역이 선택된 시점부터 저장 입력이 수신되기 전까지 일정 시간 단위 (예를 들어, 3초)로 생성될 수 있다. 또는 임시 영상은 임시 영상은 관심 영역이 선택된 시점부터 저장 입력이 수신되기 전까지 관심 영역의 변화가 기준값 이상일때마다 생성될 수 있다. Temporary images may be generated from the point in time when the region of interest is selected until a storage input is received. For example, a temporary image may be generated at a point of time when a region of interest is selected, and a temporary image may be generated at a point of time when a storage input is received, thereby generating a total of two temporary images. Alternatively, the temporary image may be generated in a predetermined time unit (for example, 3 seconds) from when the region of interest is selected until the storage input is received. Alternatively, the temporary image may be generated every time when the change of the region of interest is greater than or equal to the reference value, from when the region of interest is selected until when the storage input is received.
임시 영상 중 관심 영역이 선택된 시점에 생성된 임시 영상을 최초 임시 영상이라고 하고, 저장 명령이 수신된 시점에 생성된 임시 영상을 최종 임시 영상이라고 한다. 디바이스(100)는 저장 입력이 수신되면, 최초 임시 영상과 최종 임시 영상을 포함하는 복수 개의 임시 영상을 획득할 수 있다. 그리고, 임시 영상 중 관심 영역만으로 구성된 임시 영상을 관심 영상일 수 있다. 디바이스(100)는 최초 임시 영상과 최종 임시 영상을 포함하는 복수 개의 임시 영상 중 어느 하나로부터 관심 영상을 생성할 수 있다. A temporal image generated at a point of time when a region of interest is selected from among the temporal images is referred to as an initial temporal image, and a temporal image generated at the time a storing command is received is referred to as a final temporal image. When the storage input is received, the
저장을 위한 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 중 적어도 하나일 수 있다.The user input for storage may vary. For example, the user input may be at least one of a key input, a touch input, a motion input, a bending input, a voice input, and a multiplex input.
저장 입력을 수신하면, 단계 S3050에서, 디바이스(100)는 복수 개의 임시 영상을 이용하여 효과 영상을 생성할 수 있다. 즉 버퍼에 임시 저장된 복수 개의 임시 영상을 독출하여 결합함으로써 효과 영상을 생성할 수 있다. 그리고, 생성된 효과 영상을 저장할 수 있다. 또한, 버퍼에 저장된 임시 영상은 삭제될 수 있다. 효과 영상 생성시, 디바이스(100)는 최초 임시 영상 중 관심 영역인 객체 또는 배경을 최종 임시 영상에 결합함으로써 효과 영상을 생성할 수 있다. 또는 복수 개의 임시 영상 중 관심 영역에 대응하는 부분 영상을 최종 임시 영상에 결합함으로써 효과 영상을 생성할 수 있다.
Upon receiving the storage input, in step S3050, the
도 31은 일 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다. 도 31의 3100-1에 도시된 바와 같이, 디바이스(100)의 모드가 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상(3110)을 표시할 수 있다. 디바이스(100)는 라이브 뷰 영상(3110) 중에서 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 라이브 뷰 영상(3110) 중 객체(3112)가 표시된 일부 영역을 터치할 수 있다. 그러면, 다비이스는 객체(3112)를 관심 영역으로 선택할 수 있다. 객체(3112)가 관심 영역으로 선택되면, 디바이스(100)는 객체를 포함하는 최초 임시 영상을 생성할 수 있다. 그리고, 디바이스(100)는 최초 임시 영상 중 관심 영역만으로 구성된 관심 영상(3120)을 생성할 수 있다. 그리고, 디바이스(100)는, 도 31의 3100-2에 도시된 바와 같이, 다른 라이브 뷰 영상(3130)를 표시할 수 있다. 사용자로부터 저장을 위한 사용자 입력을 수신하면, 도 31의 3100-2에 도시된 바와 같이, 최종 임시 영상(3130)에 관심 영상(3120)이 결합된 영상(3140)을 생성하여 저장할 수 있다. 관심 영상(3130)의 위치는 임시 영상 생성 시점의 표시 영역에 고정될 수 있다.
31 is a reference diagram for explaining a method of generating an effect image in a live view image according to an embodiment. 31, the
임시 영상이 표시 영역에 고정되어 있는 상태에서 디바이스(100)는 다양한 형태의 영상을 생성할 수 있다. 도 32는 일 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다. 도 32의 3200-1에 도시된 바와 같이, 디바이스(100)의 모드가 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상(3210)을 표시할 수 있다. 디바이스(100)는 라이브 뷰 영상(3210) 중에서 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 라이브 뷰 영상(3210) 중 제1 객체(3212)가 표시된 일부 영역을 터치할 수 있다. 그러면, 다비이스는 제1 객체(3212)를 관심 영역으로 선택할 수 있다. 제1 객체가 관심 영역으로 선택되면, 디바이스(100)는 제1 객체를 포함하는 최초 임시 영상을 생성하고, 최초 임시 영상으로부터 관심 영상(3220)을 생성할 수 있다. 생성된 관심 영상(3220)을 라이브 뷰 영상(3210)과 중첩하여 표시할 수 있다. The
한편, 관심 영상(3220)의 위치는 임시 영상 생성 시점에 고정되기 때문에 카메라(160)의 촬영 각도 또는 위치가 변경된다 하더라도 표시 영역에 표시되는 관심 영상(3220)은 고정되어 있다. 그리하여, 사용자가 카메라(160)를 90도 회전하면, 도 31의 3100-2에 도시된 바와 같이, 표시 영역에 고정된 관심 영상(3220)도 함께 90도 회전한다. 하지만, 라이브 뷰 영상(3230)은 회전되지 않는다. 그리고, 저장 명령을 수신하면, 도 31의 3100-3에 도시된 바와 같이, 디바이스(100)는 관심 영상(3220)과 최종 임시 영상(3230)을 결합한 효과 영상(3240)을 생성하여 저장할 수 있다. 여기서 최종 임시 영상(3230)은 저장 입력이 수신된 후 생성된 임시 영상이다. 최종 임시 영상(3230)에도 제1 객체(3232)가 포함될 수 있다. 디바이스(100)는 최종 임시 영상(3230)에 포함된 제1 객체(3232)를 삭제하고, 관심 영상(3220)을 결합하여 효과 영상(3240)을 생성할 수 있다. 효과 영상 중 픽셀 정보가 없는 영역은 영상 복원 기법에 의해 복원될 수 있음은 물론이다.
Since the position of the
관심 영상이 표시 영역에 고정된다고 하였으나, 이에 한정되지 않는다. 관심 영상의 위치는 사용자 입력에 대응하여 변경될 수 있다. 예를 들어, 관심 영상과 라이브 뷰 영상이 중첩되어 표시된 상태에서, 사용자는 관심 영상이 표시된 일부 영역을 터치한 후 드래그하는 동작을 수행할 수 있다. 그러면, 디바이스(100)는 사용자 입력에 대응하여 관심 영상의 위치를 드래그가 종료되는 지점으로 변경시킬 수 있다. 디바이스(100)는 관심 영상의 크기 등도 사용자 입력에 대응하여 변경시킬 수 있다.
The image of interest is fixed to the display area, but the present invention is not limited thereto. The position of the image of interest may be changed corresponding to the user input. For example, in a state in which the video of interest and the live-view video are superimposed and displayed, the user can perform an operation of touching and dragging a part of the area displaying the video of interest. The
뿐만 아니라, 라이브 뷰 영상의 관심 영역의 위치에 대응하여 관심 영상의 위치가 변경될 수도 있다. 도 33은 다른 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다. 도 33의 3300-1에 도시된 바와 같이, 디바이스(100)의 모드가 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상(3310)을 표시할 수 있다. 디바이스(100)는 라이브 뷰 영상(3310) 중에서 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 라이브 뷰 영상(3310) 중 제1 객체(3312)가 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 제1 객체(3312)를 관심 영역으로 선택할 수 있다. 제1 객체(3312)가 관심 영역으로 선택되면, 디바이스(100)는 제1 객체(3312)를 포함하는 관심 영상(3320)을 생성할 수 있다. In addition, the position of the image of interest may be changed corresponding to the position of the region of interest of the live view image. 33 is a reference diagram for explaining a method of generating an effect image in a live view image according to another embodiment. The
도 33의 3300-2에 도시된 바와 같이, 디바이스(100)는 표시 영역 중 관심 영상(3320)을 기설정된 위치에 표시할 수 있다. 즉, 디바이스(100)는 관심 영상을 생성시점의 위치가 아닌 디바이스(100)가 기설정한 위치에 표시할 수 있다. 디바이스(100)는 생성된 관심 영상(3320)을 라이브 뷰 영상(3330)과 중첩하여 표시할 수 있다. 도 33의 3300-2의 라이브 뷰 영상(3330)과 도 33의 3300-1의 라이브 뷰 영상(3310)은 다를 수 있다. As shown in 3300-2 in Fig. 33, the
그리고, 저장 입력을 수신하면, 디바이스(100)는 도 33의 3300-3에 도시된 바와 같이, 효과 영상(3340)을 생성할 수 있다. 디바이스(100)는 효과 영상 생성시, 최종 임시 영상 중 관심 영역에 대응하는 제1 객체(3332)의 위치로 관심 영상(3320)을 이동시켜 결합 함으로써 효과 영상(3340)을 생성할 수 있다. 도 33에서는 저장 입력을 수신하면 관심 영상을 제1 객체의 위치로 이동시켜 최종 임시 영상과 결합한다고 하였으나, 이에 한정되지 않는다. 디바이스(100)는 라이브 뷰 영상을 표시할 때, 관심 영상에 대응하는 영역, 즉, 제1 객체가 표시된 영역으로 관심 영상을 이동시켜 실시간으로 표시할 수 있음도 물론이다.
Then, upon receiving the storage input, the
지금까지 라이브 뷰 영상에 관심 영역을 선택된 시점의 최초 임시 영상과 최종 임시 영상을 이용하여 효과 영상을 생성한다고 하였다. 그러나, 이에 한정되지 않는다. 디바이스(100)는 최초 임시 영상과 최종 임시 영상 이외에도 하나 이상의 임시 영상을 생성할 수도 있다. 그리고 하나 이상의 임시 영상을 이용하여 효과 영상을 생성할 수도 있다. 도 34는 다른 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 순서도이다. The effect image is generated by using the first temporary image and the last temporary image at the point of time when the region of interest is selected in the live view image. However, it is not limited thereto. The
단계 S3410에서, 디바이스(100)는 라이브 뷰 영상 중에서 관심 영역을 선택할 수 있다. 디바이스(100)의 모드가 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상(3410)을 표시할 수 있다. 사용자는 라이브 뷰 영상 중 객체 또는 배경이 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 터치된 영역을 포함하는 영역에 표시된 객체 또는 배경을 관심 영역으로 선택할 수 있다. In step S3410, the
단계 S3420 및 단계 S3430에서, 디바이스(100)는 관심 영역의 변화가 기준값 이상일 때, 임시 영상을 생성할 수 있다. In steps S3420 and S3430, the
임시 영상(3420)은 라이브 뷰 영상으로 표시되었던 화면일 수도 있고, 관심 영역만으로 구성된 관심 영상일 수도 있다. 디바이스(100)는 관심 영역 선택시 최초 임시 영상을 생성한다. 그리고, 기생성된 임시 영상의 관심 영역과 라이브 뷰 영상에 포함된 관심 영역에 대한 픽셀 값 차를 산출한 후 산출된 차가 기준 값 이상인 라이브 뷰 영상을 임시 영상으로 생성할 수 있다. The temporary image 3420 may be a screen that has been displayed as a live view image, or may be an image of interest composed of only a region of interest. The
관심 영역의 변화는 관심 영역에 대응하는 객체 또는 배경이 움직임으로써 발생할 수도 잇고, 객체 또는 배경의 크기가 변경됨으로써 발생할 수도 있으며, 객체 또는 배경의 픽셀값 자체 즉, 광량의 변화로 인해 발생할 수도 있다. The change of the region of interest may occur by moving the object or the background corresponding to the region of interest, or by changing the size of the object or the background, or by the pixel value of the object or the background itself, that is, by a change in the amount of light.
디바이스(100)는 저장 입력이 수신될 때가지 임시 영상을 생성할 수 있다. 즉, 디바이스(100)는 저장 입력이 수신될 때가지 관심 영역의 변화가 기준값 이상인 영상을 임시 영상으로 저장할 수 있다. 상기한 임시 영상은 최초 임시 영상 및 최종 임시 영상을 포함할 수 있다. The
그리고, 단계 S3450에서, 저장 입력을 수신하면, 디바이스(100)는 효과 영상을 생성할 수 있다. 디바이스(100)는 복수 개의 임시 영상을 결합함으로써 효과 영상을 생성할 수 있다. 또는 디바이스(100)는 복수 개의 임시 영상 중 어느 하나를 선택하는 사용자 입력에 대응하여 효과 영상을 생성할 수도 있다. 복수 개의 임시 영상 중 어느 하나를 선택하는 사용자 입력에 대응한 효과 영상은 엄밀한 의미에서 효과 영상이라고 할 수 없다. 그러나, 디바이스(100)는 사용자가 선택할 수 있도록 복수 개의 임시 영상을 표시하고, 그 중 어느 하나의 임시 영상을 선택하는 사용자 입력이 수신된 이후에 비로서 선택된 임시 영상이 정지 영상 등으로 저장될 수 있다는 점에서 설명의 편의상 효과 영상이라고 한다.
Then, in step S3450, upon receiving the storage input, the
도 35는 일 실시예에 따른 라이브 뷰 영상에서 효과 영상을 생성하는 방법을 설명하는 참조도면이다. 도 35의 3500-1에 도시된 바와 같이, 디바이스(100)의 모드가 정지 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상(3510)을 표시할 수 있다. 디바이스(100)는 라이브 뷰 영상(3510) 중에서 관심 영역을 선택할 수 있다. 예를 들어, 사용자는 라이브 뷰 영상(3510) 중 제1 객체(3512)가 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 제1 객체(3512)를 관심 영역으로 선택할 수 있다. 제1 객체(3512)가 관심 영역으로 선택되면, 디바이스(100)는 제1 객체(3512)를 포함하는 임시 영상을 생성할 수 있다. 35 is a reference diagram for explaining a method of generating an effect image in a live view image according to an embodiment. 35, the
디바이스(100)는 임시 영상(3520)을 일정 시간 간격으로 저장 입력을 수신하기 전까지 생성할 수 있다. 또는 디바이스(100)는 제1 개체(3512)의 변화가 기준 값 이상인 경우 임시 영상(3520)을 생성할 수도 있다. 임시 영상(3520)은 라이브 뷰 영상으로 표시되었던 화면일 수도 있고, 제1 객체(3512)만으로 구성된 관심 영상일 수도 있다. 도면에는 라이브 뷰 영상으로 표시되었던 화면으로 설명한다. The
그리고, 저장 입력을 수신하면, 디바이스(100)는 도 35의 3500-2에 도시된 바와 같이, 최종 임시 영상(3530)과 그외의 임시 영상(3520)을 표시할 수 있다. 최종 임시 영상(3530)과 임시 영상(3520)은 표시 영역이 구분되어 표시될 수 있다. 임시 영상(3520)이 복수 개인 경우, 디바이스(100)는 생성된 순서를 기준으로 복수 개의 임시 영상(3520)을 순차적으로 배열할 수 있다. Then, upon receiving the storage input, the
그리고, 하나 이상의 임시 영상(3520) 중 어느 하나(3540)를 선택하는 사용자 입력을 수신하면, 도 35의 3500-3에 도시된 바와 같이, 최종 임시 영상(3530)과 선택된 임시 영상(3540)의 관심 영역이 결합한 효과 영상(3550)을 표시할 수 있다. 디바이스(100)는 최종 임시 영상(3530)의 제1 객체(3532) 대신 선택된 임시 영상(3540)의 제1 객체(3542)를 결합하여 효과 영상(3550)을 생성할 수 있다. 라이브 뷰 영상 중 관심 영역으로서 객체를 이용하여 효과 영상을 생성하는 방법에 대해 설명하였다. 이는 설명의 편의를 위해 객체를 이용하였을 뿐이며 배경에도 동일하게 적용될 수 있음은 물론이다.
When a user input for selecting one of the one or more
관심 영역의 변화로 동영상을 생성할 수 있음도 물론이다. 도 36은 일 실시예에 따른 라이브 뷰 영상에서 동영상을 생성하는 방법을 설명하는 흐름도이다. Of course, the video can be generated by the change of the area of interest. FIG. 36 is a flowchart illustrating a method of generating a moving image in a live view image according to an embodiment.
단계 S3610에서, 디바이스(100)는 라이브 뷰 영상 중에서 관심 영역을 선택할 수 있다. 디바이스(100)의 모드가 동영상 촬영 모드로 설정된 상태에서, 디바이스(100)는 라이브 뷰 영상을 표시할 수 있다. 사용자는 라이브 뷰 영상(3410) 중 객체 또는 배경이 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 터치된 영역을 포함하는 영역에 표시된 객체 또는 배경을 관심 영역으로 선택할 수 있다. In step S3610, the
단계 S3620에서, 디바이스(100)는 동영상을 생성하기 위한 사용자 입력을 수신할 수 있다. 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 중 적어도 하나일 수 있다.In step S3620, the
단계 S3630, 단계 S3640 및 단계 S3650에서, 디바이스(100)는 관심 영역의 변화가 기준값 이상인지 여부를 판단한다. 관심 영역의 변화가 기준값 이상인 경우, 동영상 프레임을 생성할 수 있다. 디바이스(100)는 동영상을 생성하기 위한 사용자 입력을 수신한 시점의 라이브 뷰 영상을 동영상 프레임으로 생성한다. 그리고, 관심 영역의 변화가 기준값 이상일 때마다 디바이스(100)는 동영상 프레임을 생성할 수 있다. 동영상 프레임은 라이브 뷰 영상으로 표시되었던 화면일 수도 있고, 이전에 생성된 동영상 프레임의 변화값을 나타내는 정보일 수도 있다. 동영상 프레임의 생성은 동영상의 생성을 종료하는 사용자 입력이 수신때까지 수행될 수 있다. In steps S3630, S3640, and S3650, the
관심 영역이 객체인 경우, 관심 영역의 변화는 객체의 움직임, 객체의 크기, 객체를 나타내는 픽셀값 등의 변화일 수 있다. 또한, 관심 영역이 배경인 경우, 관심 영역의 변화는 배경의 변경, 배경을 나타내는 픽셀값 등의 변화일 수 있다. If the region of interest is an object, the change of the region of interest may be a change of the motion of the object, the size of the object, a pixel value representing the object, and the like. In addition, when the ROI is background, the ROI may be a change of the background, a pixel value representing the background, or the like.
그리고, 단계 S3660에서, 동영상의 생성을 종료하는 사용자 입력이 수신되면, 디바이스(100)는 생성된 동영상 프레임으로 동영상 파일을 생성할 수 있다.
In step S3660, when the user input for terminating the generation of the moving image is received, the
관심 영역의 변화가 기준값 이상인 동영상 프레임으로 동영상을 재생할 수 있음도 물론이다. 도 37은 일 실시예에 따른 동영상을 재생하는 방법을 설명하는 흐름도이다. Of course, it is also possible to reproduce a moving picture with a video frame whose change in the region of interest is not less than the reference value. 37 is a flowchart illustrating a method of reproducing a moving image according to an embodiment.
단계 S3710에서, 디바이스(100)는 동영상 프레임에서 관심 영역을 선택할 수 있다. 디바이스(100)의 모드가 동영상 재생 모드로 설정된 상태에서, 디바이스(100)는 동영상을 재생할 수 있다. 사용자는 동영상을 정지하는 명령을 입력할 수 있다. 사용자 입력에 대응하여 동영상의 정지 화면인 하나의 동영상 프레임을 표시할 수 있다. 사용자는 동영상 프레임 중 객체 또는 배경이 표시된 일부 영역을 터치할 수 있다. 그러면, 디바이스(100)는 터치된 영역을 포함하는 영역에 표시된 객체 또는 배경을 관심 영역으로 선택할 수 있다. In step S3710, the
단계 S3720, 단계 S3730 및 단계 S3740에서, 디바이스(100)는 관심 영역의 변화가 기준값 이상인지 여부를 판단한다. 관심 영역의 변화가 기준값 이상인 경우, 동영상 프레임을 표시할 수 있다. 디바이스(100)는 표시된 동영상 프레임(이하 '현재 프레임'이라도 한다.)과 현재 프레임의 다음으로 재생될 동영상 프레임(이하 '제1 다음 프레임'이라고도 한다. )임을 비교한다. 두 프레임간의 관심 영역에 대한 변화를 산출하고, 산출된 변화가 기준값 이상인 경우, 제1 다음 프레임을 재생하여 표시할 수 있다. In steps S3720, S3730, and S3740, the
그러나, 두 프레임간의 관심 영역에 대한 변화가 기준값 미만인 경우, 디바이스(100)는 제1 다음 프레임을 표시하지 않는다. 그리고, 다시 디바이스(100)는 현재 프레임과 제1 다음 프레임의 다음으로 재생될 동영상 프레임(이하 '제2 다음 프레임'라고도 한다.)간의 관심 영역에 대한 변화를 산출할 수 있다. 두 프레임간의 관심 영역에 대한 변화를 산출하고, 산출된 변화가 기준값 이상인 경우 제2 다음 프레임을 재생하여 표시하고, 두 프레임간의 관심 영역에 대한 변화가 기준값 미만인 경우, 디바이스(100)는 제2 다음 프레임을 표시하지 않는다. 단계 S3720 및 단계 S3730는 동영상 재생이 종료될때가지 반복될 수 있다. 즉, 디바이스(100)는 동영상 재생을 종료하는 사용자 입력을 수신하거나 동영상 재생이 완료될 때까지 단계 S3720 및 단계 S3730을 반복적으로 수행할 수 있다. 도 37에서는 동영상을 재생하는 방법에 대해 설명하였다. 그러나, 이에 한정되지 않는다. 정지 영상을 슬라이드쇼 방식으로 재생하는 경우에도 적용될 수 있다.
However, if the change for the region of interest between two frames is less than the reference value, the
지금까지 영상 중 일부 영역인 관심 영역을 이용하여 영상을 생성, 재생, 표시하는 방법에 대해 설명하였다. 디바이스(100)는 관심 영역을 이용하여 메뉴 영상을 다양하게 제공할 수도 있다. 메뉴 영상은 특정 어플리케이션의 실행을 위한 메뉴 항목을 포함할 수 있다. 상기한 메뉴 항목은 객체일 수 있고, 메뉴 영상 중 메뉴 항목이 아닌 영역은 배경으로 정의될 수 있다.
A method of generating, reproducing, and displaying an image using an area of interest, which is a part of an image, has been described so far. The
도 38은 일 실시예에 따른 메뉴 영상에서 효과를 표시하는 방법을 설명하는 참조도면이다. 먼저, 디바이스(100)의 모드가 메뉴 영상에 대한 효과 모드로 설정된 상태에서, 도 38의 3800-1에 도시된 바와 같이, 메뉴 영상(3810)을 표시할 수 있다. 사용자는 관심 영역인 메뉴 항목(3812)을 선택할 수 있다. 메뉴 항목(3812)을 선택하면, 도 38의 3800-2에 도시된 바와 같이, 디바이스(100)는 메뉴 항목(3812)에 적용될 수 있는 효과 리스트(3820)를 표시될 수 있다. 사용자는 효과 리스트(3820) 중 어느 하나의 효과 항목(3822)을 선택하면, 도 38의 3800-3에 도시된 바와 같이, 효과가 제공된 메뉴 항목(3830)을 표시할 수 있다.
FIG. 38 is a reference diagram illustrating a method of displaying an effect in a menu image according to an embodiment. First, when the mode of the
메뉴 항목의 효과 제공은 메뉴 항목에 대응하는 어플리케이션의 실행 빈도에 따라 제공될 수도 있다. 도 39는 일 실시예에 따른 실행 빈도에 따른 메뉴 항목에 효과를 제공하는 방법을 설명하는 흐름도이다. The provision of the effect of the menu item may be provided according to the frequency of execution of the application corresponding to the menu item. 39 is a flowchart illustrating a method of providing an effect on a menu item according to an execution frequency according to an embodiment.
단계 S3910에서, 디바이스(100)는 메뉴 항목에 대응하는 어플리케이션의 실행 횟수를 결정할 수 있다. 디바이스(100)는 기설정된 시간내에 실행된 메뉴 항목에 대응하는 어플리케이션의 실행의 실행 횟수를 결정할 수 있다.
In step S3910, the
단계 S3920 및 단계 S3940에서, 메뉴 항목에 대응하는 어플리케이션의 실행 횟수가 제1 값 이상인 경우, 디바이스(100)는 상기한 메뉴 항목에 포지티브 효과를 제공할 수 있다. 포지티브 효과는 메뉴 항목의 식별력을 강화시키는 효과로서, 후광 효과, 크기 확대 효과, 깊이 감소 효과 등일 수 있다.In step S3920 and step S3940, when the execution count of the application corresponding to the menu item is equal to or greater than the first value, the
단계 S3920, 단계 S3930 및 단계 S3950에서, 메뉴 항목에 대응하는 어플리케이션의 실행 횟수가 제1 값미만 및 제2 값 이상인 경우, 디바이스(100)는 상기한 메뉴 항목에 효과를 제공하지 않는다. 즉, 디바이스(100)는 기설된 상태로 메뉴 항목을 표시할 수 있다. 여기서 제2 값은 제1 값보다 작다. In step S3920, step S3930, and step S3950, when the execution count of the application corresponding to the menu item is less than the first value and equal to or greater than the second value, the
단계 S3930 및 단계 S3960에서, 메뉴 항목에 대응하는 어플리케이션의 실행 횟수가 제1 값미만 및 제2 값 미만인 경우, 디바이스(100)는 상기한 메뉴 항목에 네거티브 효과를 제공할 수 있다. 네거티브 효과는 메뉴 항목의 식별력을 약화시키는 효과로서, 흐림 효과, 크기 축소 효과, 깊이 증가 효과 등일 수 있다. 또한, 메뉴 항목에 대응하는 어플리케이션의 실행 횟수가 제3 값 미만인 경우. 디바이스(100)느 메뉴 항목을 메뉴 영상에서 삭제할 수도 있다.
In steps S3930 and S3960, when the number of executions of the application corresponding to the menu item is less than the first value and less than the second value, the
도 40은 일 실시예에 따른 실행 빈도에 따른 메뉴 항목에 효과를 제공된 메뉴 영상을 표시한 일 예를 도시한 도면이다. 도 40에 도시된 바와 같이, 디바이스(100)는 메뉴 영상(4010)을 표시할 수 있다. 디바이스(100)는 제1 메뉴 항목(4012)의 크기를 다른 메뉴 항목보다 크게 표시할 수 있다. 이는 제1 메뉴 항목(4012)의 실행 횟수가 다른 메뉴 항목보다 많았음을 의미한다. 사용자는 앞으로도 다른 메뉴 항목보다 제1 메뉴 항목(4012)을 선택할 확률이 높으며, 제1 메뉴 항목(4012)이 크게 표시되어 식별력이 있기 때문에 사용자는 제1 메뉴 항목(4012)을 다른 메뉴 항목보다 쉽게 찾을 수 있다. 디바이스(100)는 제2 메뉴 항목(4014)의 크기를 다른 메뉴 항목보다 작게 표시할 수 있다. 이는 제2 메뉴 항목(4014)의 실행 횟수가 다른 메뉴 항목보다 작음을 의미한다. 사용자는 앞으로도 다른 메뉴 항목보다 제2 메뉴 항목(4014)을 선택할 확률이 낮다.
FIG. 40 is a view illustrating an example of displaying a menu image provided with an effect on a menu item according to an execution frequency according to an exemplary embodiment. As shown in FIG. 40, the
도 41 내지 도 45는 일 실시예에 따르는, 디바이스(100)를 설명하는 블록도이다. 41-45 are block
도 41에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 사용자 입력부(110), 제어부(120) 및 디스플레이부(130)를 포함할 수 있다. 디바이스(100)는 디스플레이부(130)에 표시된 정지 영상, 동영상 프레임, 라이브 뷰 영상, 화면 영상등에 효과를 제공할 수 있다. 41, the
도 42에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 용자 입력부(110), 제어부(120), 디스플레이부(130) 및 메모리(140)를 포함할 수 있다. 디바이스(100)는 내장된 메모리에 저장된 정지 영상(140) 또는 동영상에 효과를 제공할 수 있다. 42, the
또는, 도 43에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 사용자 입력부(110), 제어부(120), 디스플레이부(130) 및 통신부(150)를 포함할 수 있다. 디바이스(100)는 외부 장치에 저장된 정지 영상 또는 동영상, 또는 외부 장치에서 촬영된 라이브 뷰 영상에 효과를 제공할 수 있다. 43, the
또는, 도 44에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 사용자 입력부(110), 제어부(120), 디스플레이부(130) 및 카메라(160)를 포함할 수 있다. 디바이스(100)는 내장된 카메라에서 촬영되는 라이브 뷰 영상에 효과를 제공할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디바이스가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스는 구현될 수 있다.44, the
예를 들어, 도 45에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 앞서 기술한 디바이스의 구성 이외에도 출력부(170), 통신부(150), 센싱부(180), 마이크로 폰(190) 등을 더 포함할 수도 있다. 45, the
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
사용자 입력부(110)는, 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(110)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The
사용자 입력부(110)는, 영상 중 관심 영역을 선택하는 입력을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 관심 영역을 선택하는 사용자 입력은 다양할 수 있다. 예를 들어, 사용자 입력은, 키 입력, 터치 입력, 모션 입력, 벤딩 입력, 음성 입력, 다중 입력 등을 포함할 수 있다.The
본 발명의 일 실시예에 의하면, 사용자 입력부(110)는, 복수의 영상 중 제 1 영상 및 제 2 영상을 선택하는 입력을 수신할 수도 있다. According to an embodiment of the present invention, the
사용자 입력부(110)는, 식별 정보 리스트 중 적어도 하나를 선택하는 입력을 수신할 수도 있다. The
제어부(120)는, 통상적으로 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(120)는, 메모리(140)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(110), 출력부(170), 통신부(150), 센싱부(180), A/V 입력부(190) 등을 전반적으로 제어할 수 있다. The
제어부(120)는, 선택된 관심 영역을 식별하는 하나 이상의 식별 정보를 획득할 수 있다. 예를 들어, 제어부(120)는, 선택된 관심 영역의 속성 정보를 확인하고, 속성 정보를 일반화하여 식별 정보를 생성할 수 있다. 제어부(120)는, 선택된 관심 영역에 대한 영상 분석 정보를 이용하여 식별 정보를 검출할 수 있다. 제어부(120)는 관심 영역이외에 제2 영상의 식별 정보를 획득할 수도 있다. The
제어부(120)는 관심 영역에 대응하는 객체 또는 배경을 기표시되었던 객체 또는 배경에 비해 전체적으로 다르게 표시되도록 관심 영역에 효과를 제공할 수 있다. 상기한 효과는 상기 관심 영역을 하이라이트시키는 후광 효과, 상기 관심 영역의 픽셀값들의 차를 작게 하는 흐림 효과, 상기 관심 영역의 크기를 변경시키는 크기 효과, 상기 관심 영역의 깊이 정보를 변경시키는 깊이 효과 등이 있을 수 있다. The
또한, 제어부(120)는 제2 영상 중 제1 영상의 관심 영역에 대응하는 부분 영상을 분리하여 제1 영상의 관심 영역에 결합함으로써 제1 영상에 효과를 제공할 수도 있다. In addition, the
디스플레이부(130)는 디바이스(100)에서 처리되는 정보를 표시할 수 있다. 예를 들어, 디스플레이부(130)는, 정지 영상, 동영상, 라이브 뷰 영상등을 표시할 수 있다. 또한, 디시플레이부는 관심 영역을 식별하는 식별 정보를 표시할 수도 있다. 또한, 효과 영상을 표시할 수도 있고, 효과 영상을 포함하는 효과 폴더를 표시할 수도 있다. The
한편, 디스플레이부(130)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(130)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이부(130)를 2개 이상 포함할 수도 있다. Meanwhile, when the
메모리(140)는, 제어부(120)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 영상, 복수의 폴더, 선호 폴더 목록 등)을 저장할 수도 있다. The
메모리(140)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(100)는 인터넷(internet)상에서 메모리(140)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The
메모리(140)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(141), 알림 모듈(142), 영상 처리 모듈(143) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(141)은, 애플리케이션 별로 디바이스(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 알림 모듈(142)은 디바이스(100)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 알림 모듈(142)은 디스플레이부(130)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(172)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(173)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The
영상 처리 모듈(143)은, 캡쳐된 영상에 대한 분석을 통해 캡쳐된 영상에 포함된 객체 정보, 에지 정보, 분위기 정보, 색상 정보 등을 획득할 수 있다.The
본 발명의 일 실시예에 의하면, 영상 처리 모듈(143)은, 영상에 포함된 객체의 외곽선을 검출할 수 있다. 본 발명의 일 실시예에 의하면, 영상 처리 모듈(143)은, 영상에 포함된 객체의 외곽선을 기 정의된 템플릿(template)과 비교하여, 객체의 종류, 객체의 명칭 등을 검출할 수 있다. 예를 들어, 영상 처리 모듈(143)은, 객체의 외곽선이 차량의 템플릿과 유사한 경우, 영상에 포함된 객체를 차량으로 인식할 수 있다.According to an embodiment of the present invention, the
본 발명의 일 실시예에 의하면, 영상 처리 모듈(143)은 영상에 포함된 객체에 대한 얼굴 인식을 수행할 수도 있다. 예를 들어, 영상 처리 모듈(143)은 영상에서 사람의 얼굴 영역을 검출할 수 있다. 얼굴 영역을 검출하는 방법에는, 지식 기반 방법(Knowledge-based Methods), 특징 기반 방법 (Feature-based Methods), 템플릿 매칭 방법(Template-matching Methods) 및 외형 기반 방법(Appearance-based Methods) 등이 있을 수 있으나, 이에 한정되는 것은 아니다..According to an embodiment of the present invention, the
영상 처리 모듈(143)은, 검출된 얼굴 영역으로부터 얼굴의 특징(예컨대, 얼굴의 주요 부분인 눈, 코, 입의 모양 등)을 추출할 수 있다. 얼굴 영역에서 얼굴의 특징을 추출하는 방법은 Gabor 필터 또는 LBP(Local Binary Pattern)등 다양한 방법이 사용될 수 있으나, 이에 한정되는 것은 아니다.The
영상 처리 모듈(143)은, 영상의 얼굴 영역으로부터 추출된 얼굴의 특징을 기 등록된 사용자들의 얼굴의 특징과 비교할 수 있다. 예를 들어, 추출된 얼굴의 특징이 기 등록된 제 1 사용자(예컨대, Tom)의 얼굴의 특징과 유사한 경우, 영상 처리 모듈(143)은, 영상에 제 1 사용자(예컨대, Tom)의 영상이 포함되어 있다고 판단할 수 있다.The
본 발명의 일 실시예에 의하면, 영상 처리 모듈(143)은, 영상의 일정 영역을 컬러 맵(컬러 히스토그램)과 비교하여, 영상의 색상 배치, 무늬, 분위기 등의 시각적 특징을 영상 분석 정보로 추출할 수 있다.According to an embodiment of the present invention, the
통신부(150)는, 디바이스(100)와 클라우드 서버, 디바이스(100)와 외부 장치, 디바이스(100)와 SNS 서버 또는 디바이스(100)와 외부 웨어러블 디바이스 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(150)는, 근거리 통신부(151), 이동 통신부(152), 방송 수신부(153)를 포함할 수 있다. The
근거리 통신부 (short-range wireless communication unit)(141)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부 (Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range
이동 통신부(152)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(153)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(100)가 방송 수신부(153)를 포함하지 않을 수도 있다.The
통신부(150)는, 제1 영상 및 제2 영상, 효과 영상, 효과 폴더, 식별 정보 중 적어도 하나를 외부 장치와 공유할 수 있다. 여기서, 외부 장치는 디바이스(100)와 연결된 클라우드 서버, SNS 서버, 동일 사용자의 다른 디바이스(100), 및 타 사용자의 디바이스(100) 중 적어도 하나일 수 있으나, 이에 한정되는 것은 아니다.The
예를 들어, 통신부(150)는, 효과 영상, 또는 효과 폴더를 외부 장치로 전송할 수 있다. 또한, 통신부(150)는, 외부 장치로부터 외부 장치에 저장된 정지 영상, 또는 동영상 프레임, 외부 장치에서 촬영된 라이브 뷰 영상을 수신할 수 있다. For example, the
카메라(160)에서 처리된 화상 프레임은 메모리(140)에 저장되거나 통신부(150)를 통하여 외부로 전송될 수 있다. 카메라(160)는 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the
출력부(170)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 디스플레이부(130) 이외에도 음향 출력부(172), 진동 모터(173) 등이 포함될 수 있다.The
음향 출력부(172)는 통신부(150)로부터 수신되거나 메모리(140)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(172)는 디바이스(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(172)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
진동 모터(173)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(173)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(173)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The
센싱부(180)는, 디바이스(100)의 상태, 디바이스(100) 주변의 상태, 디바이스(100)를 착용한 사용자의 상태 등을 감지하고, 감지된 정보를 제어부(120)로 전달할 수 있다. The
센싱부(180)는, 지자기 센서(Magnetic sensor)(181), 가속도 센서(Acceleration sensor)(182), 기울기 센서(183), 적외선 센서(184), 자이로스코프 센서(185), 위치 센서(예컨대, GPS)(186), 기압 센서(187), 근접 센서(188), 및 광 센서(189) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 센싱부(180)는, 온도 센서, 조도 센서, 압력 센서, 홍채 인식 센서 등을 포함할 수도 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The
A/V(Audio/Video) 입력부로서 마이크로폰(190)을 포함할 수 있다. And a
마이크로폰(190)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(190)은 외부 디바이스(100) 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(190)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
The
도 46은 본 발명의 일 실시예에 따르는, 클라우드 서버를 설명하기 위한 블록 구성도이다.46 is a block diagram illustrating a cloud server according to an embodiment of the present invention.
도 46에 도시된 바와 같이, 본 발명의 일 실시예에 따른 클라우드 서버(200)는 통신부(210), 제어부(220), 저장부(230)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 클라우드 서버(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 클라우드 서버(200)는 구현될 수 있다.46, the
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.
통신부(210)는, 클라우드 서버(200)와 디바이스(100) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부(210)는, 수신부 및 전송부를 포함할 수 있다. The
통신부(210)는, 클라우드 서버(200)에 저장된 영상 또는 영상 목록을 디바이스(100)로 전송할 수 있다. 예를 들어, 통신부(210)는, 특정 계정을 통해 연결된 디바이스(100)로부터 영상의 목록 요청을 수신하는 경우, 클라우드 서버(200)에 저장된 영상 목록을 디바이스(100)로 전송할 수 있다.The
통신부(210)는, 클라우드 서버(200)에 저장된 또는 클라이드 서버가 생성한 식별 정보를 디바이스(100)에 전송할 수 도 있다.The
제어부(220)는, 클라우드 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 제어부(220)는, 영상을 식별하는 복수의 식별 정보를 획득할 수 있다. 본 발명의 일 실시예에 의하면, 복수의 식별 정보는, 영상을 식별하는 적어도 둘 이상의 핵심적인 단어나 문구일 수 있다.The
예를 들어, 제어부(220)는, 영상의 메타데이터에 복수의 식별 정보가 기 정의되어 있는 경우, 영상의 메타데이터에서 복수의 식별 정보를 획득할 수 있다. 또한, 클라우드 서버(200)는, 영상의 속성 정보 및 영상에 대한 영상 분석 정보 중 적어도 하나를 이용하여, 영상을 식별하는 복수의 식별 정보를 생성할 수 있다. For example, when a plurality of identification information is predefined in the metadata of the image, the
저장부(230)는 제어부(220)의 처리를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. 예를 들어, 클라우드 서버(200)는, 영상 DB, 디바이스(100) DB, 사용자들의 얼굴의 특징 정보 DB, 객체 템플릿 DB 등을 구축할 수 있다. The
저장부(230)는 복수의 영상을 저장할 수 있다. 예를 들어, 저장부(230)는, 디바이스(100)에서 업로드된 영상을 저장할 수 있다. 이때, 저장부(230)는 디바이스(100)의 식별 정보와 영상을 매핑하여 저장할 수 있다. The
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.
Claims (20)
상기 객체와 상기 배경 중 어느 하나를 관심 영역으로 선택하는 사용자 입력을 수신하는 단계;
상기 제1 영상의 속성 정보를 이용하여 상기 관심 영역을 식별하는 식별 정보를 획득하는 단계;
타겟 영상으로부터 상기 식별 정보를 갖는 상기 제2 영상을 획득하는 단계; 및
상기 제1 영상과 상기 제2 영상 중 적어도 하나를 이용하여 효과 영상을 생성하는 단계;를 포함하는 영상 제공 방법. Displaying a first image including an object and a background;
Receiving a user input that selects either the object or the background as a region of interest;
Obtaining identification information for identifying the ROI using the attribute information of the first image;
Obtaining the second image having the identification information from the target image; And
And generating an effect image using at least one of the first image and the second image.
상기 속성 정보는,
상기 제1 영상 생성시의 컨텍스트 정보 및 사용자에 의해 추가된 상기 제1 영상에 대한 주석(annotation) 정보 중 적어도 하나를 포함하는 영상 제공 방법. The method according to claim 1,
Wherein,
And at least one of context information at the time of generating the first image and annotation information about the first image added by the user.
상기 타겟 영상의 식별 정보는,
상기 속성 정보를 워드넷에 기반하여 일반화함으로써 획득되는 영상 제공 방법. The method according to claim 1,
Wherein the identification information of the target video includes:
And generalizing the attribute information based on WordNet.
상기 타겟 영상의 식별 정보는,
상기 제1 영상의 속성 정보 및 상기 제1 영상의 영상 분석 정보 중 적어도 하나를 이용하여 획득되는 영상 제공 방법. The method according to claim 1,
Wherein the identification information of the target video includes:
The attribute information of the first image, and the image analysis information of the first image.
상기 제1 영상의 식별 정보는,
복수 개의 속성 정보로부터 획득되는 영상 제공 방법. The method according to claim 1,
Wherein the identification information of the first image includes:
Wherein the attribute information is obtained from a plurality of attribute information.
획득된 상기 식별 정보에 대한 리스트를 표시하는 단계;를 더 포함하는 영상 제공 방법. The method according to claim 1,
And displaying a list of the obtained identification information.
상기 리스트 중 적어도 일부를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하고,
상기 제2 영상을 획득하는 단계는,
상기 선택된 식별 정보와 상기 타겟 영상의 식별 정보를 비교하는 단계;를 포함하는 영상 제공 방법.The method according to claim 6,
Receiving a user input for selecting at least a portion of the list,
Wherein the acquiring of the second image comprises:
And comparing the selected identification information with identification information of the target video.
상기 효과 영상을 생성하는 단계는,
상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 기표시되었던 부분 영상과 다르게 표시하는 단계;를 포함하는 영상 제공 방법. The method according to claim 1,
Wherein the generating the effect image comprises:
Displaying the partial image corresponding to the identification information of the second image differently from the displayed partial image.
상기 효과 영상은,
상기 부분 영상을 하이라이트시키는 후광 효과, 상기 부분 영상의 픽셀값들의 차를 작게 하는 흐림 효과, 상기 부분 영상의 크기를 변경시키는 크기 효과, 상기 부분 영상의 깊이 정보를 변경시키는 깊이 효과 중 적어도 하나를 이용하는 생성되는 영상 제공 방법. 9. The method of claim 8,
In the effect image,
At least one of a backlight effect for highlighting the partial image, a blur effect for reducing a difference between pixel values of the partial image, a size effect for changing the size of the partial image, and a depth effect for changing depth information of the partial image A method of providing a generated image.
상기 효과 영상은,
상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합한 영상인 영상 제공 방법. The method according to claim 1,
In the effect image,
Wherein the partial image corresponding to the identification information of the second image is combined with the region of interest of the first image.
상기 제1 영상은 라이브 뷰 영상인 영상 제공 방법. The method according to claim 1,
Wherein the first image is a live view image.
상기 제2 영상은,
영상 저장을 위한 사용자 입력이 수신되기 전에 상기 라이브 뷰 영상으로부터 임시로 생성된 임시 영상인 영상 제공 방법. 12. The method of claim 11,
The second image may include:
Wherein the live view image is temporarily generated from the live view image before a user input for storing the image is received.
상기 임시 영상은,
상기 라이브 뷰 영상 중 상기 식별 정보에 대응하는 부분 영상의 변화가 기준값 이상일 때마다 생성되는 영상 제공 방법. 13. The method of claim 12,
The temporary image may be,
Wherein each time a change in the partial image corresponding to the identification information in the live view image is equal to or greater than a reference value.
상기 효과 영상은,
상기 제1 영상과 상기 제2 영상을 포함하는 동영상인 영상 제공 방법. 14. The method of claim 13,
In the effect image,
Wherein the moving image includes the first image and the second image.
상기 객체와 상기 배경 중 어느 하나를 관심 영역으로 선택하는 사용자 입력을 수신하는 사용자 입력부; 및
상기 제1 영상의 속성 정보를 이용하여 상기 관심 영역을 식별하는 식별 정보를 획득하고, 타겟 영상의 속성 정보를 이용하여 상기 타겟 영상으로부터 상기 식별 정보를 갖는 상기 제2 영상을 획득하는 제어부;를 포함하는 모바일 디바이스. A display unit for displaying a first image including an object and a background;
A user input for receiving a user input for selecting either the object or the background as a region of interest; And
And a controller for acquiring identification information for identifying the ROI using the attribute information of the first image and acquiring the second image having the identification information from the target image using attribute information of the target image Mobile devices.
상기 제어부는,
상기 제1 영상과 상기 제2 영상 중 적어도 하나를 이용하여 효과 영상을 생성하는 모바일 디바이스. 16. The method of claim 15,
Wherein,
And generates an effect image using at least one of the first image and the second image.
상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합함으로써 상기 효과 영상을 생성하는 영상 제공 방법. 17. The method of claim 16,
And combining the partial image corresponding to the identification information of the second image with the region of interest of the first image to generate the effect image.
상기 속성 정보는,
상기 제1 영상 생성시의 컨텍스트 정보 및 사용자에 의해 추가된 상기 제1 영상에 대한 주석(annotation) 정보 중 적어도 하나를 포함하는 모바일 디바이스. 17. The method of claim 16,
Wherein,
And at least one of context information at the time of generating the first image and annotation information about the first image added by the user.
상기 제어부는,
상기 속성 정보를 워드넷에 기반하여 일반화함으로써 상기 제1 영상의 식별정보를 획득하는 모바일 디바이스. 16. The method of claim 15,
Wherein,
And acquires the identification information of the first image by generalizing the attribute information based on WordNet.
상기 제어부는,
상기 제2 영상 중 상기 식별 정보에 대응하는 부분 영상을 상기 제1 영상의 관심 영역에 결합함으로써 상기 효과 영상을 생성하는 영상 제공 방법.
16. The method of claim 15,
Wherein,
And combining the partial image corresponding to the identification information of the second image with the region of interest of the first image to generate the effect image.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2015/007624 WO2016017987A1 (en) | 2014-07-31 | 2015-07-22 | Method and device for providing image |
EP15178662.1A EP2980758B1 (en) | 2014-07-31 | 2015-07-28 | Method and device for providing image |
EP19201222.7A EP3614343B1 (en) | 2014-07-31 | 2015-07-28 | Method and device for providing image |
TW104124634A TWI637347B (en) | 2014-07-31 | 2015-07-30 | Method and device for providing image |
US14/814,727 US10157455B2 (en) | 2014-07-31 | 2015-07-31 | Method and device for providing image |
CN201510463421.2A CN105320428B (en) | 2014-07-31 | 2015-07-31 | Method and apparatus for providing image |
US16/222,514 US10733716B2 (en) | 2014-07-31 | 2018-12-17 | Method and device for providing image |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140098589 | 2014-07-31 | ||
KR1020140098589 | 2014-07-31 | ||
KR20140111628 | 2014-08-26 | ||
KR1020140111628 | 2014-08-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160016574A true KR20160016574A (en) | 2016-02-15 |
KR102301231B1 KR102301231B1 (en) | 2021-09-13 |
Family
ID=55357252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150078777A KR102301231B1 (en) | 2014-07-31 | 2015-06-03 | Method and device for providing image |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102301231B1 (en) |
TW (1) | TWI637347B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180049645A (en) * | 2016-11-03 | 2018-05-11 | 한화테크윈 주식회사 | Apparatus for Providing Image and Method Thereof |
WO2022030855A1 (en) * | 2020-08-04 | 2022-02-10 | 삼성전자 주식회사 | Electronic device and method for generating image by applying effect to subject and background |
WO2022154166A1 (en) * | 2021-01-12 | 2022-07-21 | 삼성전자 주식회사 | Method for providing content creation function and electronic device supporting same |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10007974B2 (en) * | 2016-06-10 | 2018-06-26 | Sensors Unlimited, Inc. | Enhancing images |
TWI751571B (en) * | 2020-06-02 | 2022-01-01 | 仁寶電腦工業股份有限公司 | Video playback system and environment atmosphere adjusting method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040076342A1 (en) * | 2001-12-20 | 2004-04-22 | Ricoh Company, Ltd. | Automatic image placement and linking |
KR20110052247A (en) * | 2009-11-12 | 2011-05-18 | 삼성전자주식회사 | Camera apparatus for providing photograph image, display apparatus for displaying the photograph image and relating image, and methods thereof |
US20110167081A1 (en) * | 2010-01-05 | 2011-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US20120299958A1 (en) * | 2007-12-21 | 2012-11-29 | Sony Corporation | Image processing apparatus, dynamic picture reproduction apparatus, and processing method and program for the same |
US20130182901A1 (en) * | 2012-01-16 | 2013-07-18 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US20140043655A1 (en) * | 2012-08-10 | 2014-02-13 | Canon Kabushiki Kaisha | Image processing apparatus, method, and program |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005094741A (en) * | 2003-08-14 | 2005-04-07 | Fuji Photo Film Co Ltd | Image pickup device and image synthesizing method |
US20070008321A1 (en) * | 2005-07-11 | 2007-01-11 | Eastman Kodak Company | Identifying collection images with special events |
US8775474B2 (en) * | 2007-06-29 | 2014-07-08 | Microsoft Corporation | Exposing common metadata in digital images |
WO2011149961A2 (en) * | 2010-05-24 | 2011-12-01 | Intersect Ptp, Inc. | Systems and methods for identifying intersections using content metadata |
US8699821B2 (en) * | 2010-07-05 | 2014-04-15 | Apple Inc. | Aligning images |
US20120092357A1 (en) * | 2010-10-14 | 2012-04-19 | Microsoft Corporation | Region-Based Image Manipulation |
JP2012247840A (en) * | 2011-05-25 | 2012-12-13 | Sony Corp | Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system |
US8854491B2 (en) * | 2011-06-05 | 2014-10-07 | Apple Inc. | Metadata-assisted image filters |
US9521315B2 (en) * | 2011-11-01 | 2016-12-13 | Nokia Technologies Oy | Apparatus and method for forming new images by determining stylistic settings of existing images |
US9166810B2 (en) * | 2012-05-24 | 2015-10-20 | Panasonic Intellectual Property Corporation Of America | Information communication device of obtaining information by demodulating a bright line pattern included in an image |
JP6031278B2 (en) * | 2012-07-09 | 2016-11-24 | キヤノン株式会社 | Information processing apparatus, control method thereof, and program |
US20140075393A1 (en) * | 2012-09-11 | 2014-03-13 | Microsoft Corporation | Gesture-Based Search Queries |
US9436382B2 (en) * | 2012-09-18 | 2016-09-06 | Adobe Systems Incorporated | Natural language image editing |
US20140164988A1 (en) * | 2012-12-06 | 2014-06-12 | Microsoft Corporation | Immersive view navigation |
-
2015
- 2015-06-03 KR KR1020150078777A patent/KR102301231B1/en active IP Right Grant
- 2015-07-30 TW TW104124634A patent/TWI637347B/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040076342A1 (en) * | 2001-12-20 | 2004-04-22 | Ricoh Company, Ltd. | Automatic image placement and linking |
US20120299958A1 (en) * | 2007-12-21 | 2012-11-29 | Sony Corporation | Image processing apparatus, dynamic picture reproduction apparatus, and processing method and program for the same |
KR20110052247A (en) * | 2009-11-12 | 2011-05-18 | 삼성전자주식회사 | Camera apparatus for providing photograph image, display apparatus for displaying the photograph image and relating image, and methods thereof |
US20110167081A1 (en) * | 2010-01-05 | 2011-07-07 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method |
US20130182901A1 (en) * | 2012-01-16 | 2013-07-18 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
US20140043655A1 (en) * | 2012-08-10 | 2014-02-13 | Canon Kabushiki Kaisha | Image processing apparatus, method, and program |
Non-Patent Citations (1)
Title |
---|
Xiaoyan Li, et al., "Modeling Image Data for Effective Indexing and Retrieval in Large General Image Databases", 2008.11.01.* * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180049645A (en) * | 2016-11-03 | 2018-05-11 | 한화테크윈 주식회사 | Apparatus for Providing Image and Method Thereof |
WO2022030855A1 (en) * | 2020-08-04 | 2022-02-10 | 삼성전자 주식회사 | Electronic device and method for generating image by applying effect to subject and background |
WO2022154166A1 (en) * | 2021-01-12 | 2022-07-21 | 삼성전자 주식회사 | Method for providing content creation function and electronic device supporting same |
Also Published As
Publication number | Publication date |
---|---|
TW201618038A (en) | 2016-05-16 |
KR102301231B1 (en) | 2021-09-13 |
TWI637347B (en) | 2018-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10733716B2 (en) | Method and device for providing image | |
US20190385266A1 (en) | Image retrieval for computing devices | |
KR102402511B1 (en) | Method and device for searching image | |
US20180005040A1 (en) | Event-based image classification and scoring | |
CN106575361B (en) | Method for providing visual sound image and electronic equipment for implementing the method | |
CN105451846B (en) | Method and apparatus for classifying to content | |
US10191920B1 (en) | Graphical image retrieval based on emotional state of a user of a computing device | |
US10175863B2 (en) | Video content providing scheme | |
KR102301231B1 (en) | Method and device for providing image | |
US11900683B2 (en) | Setting ad breakpoints in a video within a messaging system | |
CN116235505B (en) | Inserting advertisements into video within a messaging system | |
US11856255B2 (en) | Selecting ads for a video within a messaging system | |
CN117396849A (en) | Combining functionality into shortcuts within a messaging system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |