KR20180115449A - Display apparatus and Method for controlling the display apparatus thereof - Google Patents

Display apparatus and Method for controlling the display apparatus thereof Download PDF

Info

Publication number
KR20180115449A
KR20180115449A KR1020170047775A KR20170047775A KR20180115449A KR 20180115449 A KR20180115449 A KR 20180115449A KR 1020170047775 A KR1020170047775 A KR 1020170047775A KR 20170047775 A KR20170047775 A KR 20170047775A KR 20180115449 A KR20180115449 A KR 20180115449A
Authority
KR
South Korea
Prior art keywords
interaction
electronic device
layer
background image
user interaction
Prior art date
Application number
KR1020170047775A
Other languages
Korean (ko)
Inventor
김하나
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170047775A priority Critical patent/KR20180115449A/en
Priority to US15/797,353 priority patent/US10950206B2/en
Priority to PCT/KR2018/002723 priority patent/WO2018190517A1/en
Priority to EP18784158.0A priority patent/EP3552087A4/en
Priority to CN201880020502.7A priority patent/CN110476147B/en
Publication of KR20180115449A publication Critical patent/KR20180115449A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

Provided are an electronic apparatus and a control method thereof. According to the present invention, the electronic apparatus comprises: a communication portion; a memory storing a rear background image of the electronic apparatus; and a processor for generating content screens including an object layer including at least one graphic object and a background image layer including the rear background image. In the processor, when the communication portion receives a signal corresponding to a user interaction inputted in a user terminal apparatus, an interaction layer including an interaction object corresponding to the user interaction is added to generate the content screens.

Description

전자 장치 및 그의 제어 방법{Display apparatus and Method for controlling the display apparatus thereof}[0001] DESCRIPTION [0002] ELECTRONIC DEVICE AND METHOD FOR CONTROLLING THE SAME [0002]

본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 보다 상세하게는 컨텐츠 화면이 표시되는 동안 사용자 인터랙션을 수신한 경우, 사용자 인터랙션에 대응하여 컨텐츠 화면의 그래픽 오브젝트가 변경되는 전자 장치 및 이의 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an electronic device and a control method thereof, and more particularly to an electronic device and a control method thereof, in which, when a user interaction is received while a content screen is being displayed, .

근래에는 전자 장치를 이용하여 다양한 사용자 경험을 제공하는 기능이 개발되고 있다. 특히, 도 1에 도시된 바와 같이, 전자 장치의 후방의 배경에 배경 영상을 획득하여 전자 장치가 배경 영상을 표시함으로써, 사용자는 디스플레이가 투명한 유리창이 된 것과 같은 시각적 효과를 제공 받을 수 있다.In recent years, functions for providing various user experiences using electronic devices have been developed. Particularly, as shown in FIG. 1, by acquiring a background image on the background behind the electronic device and displaying the background image by the electronic device, the user can be provided with a visual effect such that the display becomes a transparent window.

나아가, 전자 장치는 배경 영상과 함께 다양한 그래픽 오브젝트들을 함께 표시할 수 있다. 이를 통해 전자 장치는 사용자에게 심미적 효과를 제공할 수 있다.Further, the electronic device can display various graphic objects together with the background image. This allows the electronic device to provide an aesthetic effect to the user.

그러나, 단순히 배경 영상에 다양한 그래픽 오브젝트가 표시되는 것을 넘어, 사용자와 직접 교감하는 듯한 감성을 느끼게 할 수 있는 전자 장치 및 그의 제어 방법에 대한 필요성이 모색된다.However, there is a need for an electronic device and a control method thereof that can feel emotions that directly communicate with a user, beyond simply displaying various graphic objects on a background image.

본 개시는 디스플레이 주변의 사용자 인터랙션을 수신하여 사용자 인터랙션에 따라 디스플레이에 표시된 그래픽 오브젝트가 변경될 수 있는 전자 장치 및 이의 제어 방법에 관한 것이다.The present disclosure relates to an electronic device receiving a user interaction around a display and capable of changing graphic objects displayed on the display according to user interaction and a control method thereof.

상술한 목적을 달성하기 위한 본 개시의 일 실시예에 따른 전자 장치는, 통신부; 상기 전자 장치의 후방 배경 영상을 저장하는 메모리; 및 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어 및 상기 후방 배경 영상을 포함하는 배경 영상 레이어를 포함하는 컨텐츠 화면을 생성하는 프로세서;를 포함하고, 상기 프로세서는, 사용자 단말 장치에서 입력되는 사용자 인터랙션에 대응되는 신호를 상기 통신부를 통해 수신하면, 상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터렉션 레이어를 추가하여 상기 컨텐츠 화면을 생성한다.According to an aspect of the present invention, there is provided an electronic device comprising: a communication unit; A memory for storing a background background image of the electronic device; And a processor for generating a content screen including an object layer including at least one graphic object and a background image layer including the background image, wherein the processor is adapted to correspond to a user interaction input from a user terminal The communication unit adds the interaction layer including the interaction object corresponding to the user interaction to generate the content screen.

이때, 상기 컨텐츠 화면은 상기 오브젝트 레이어 및 상기 배경 영상 레이어 사이에 그림자 레이어를 더 포함하고, 상기 프로세서는, 상기 그래픽 오브젝트에 대응되는 그림자를 상기 그림자 레이어에 생성할 수 있다.In this case, the content screen may further include a shadow layer between the object layer and the background image layer, and the processor may generate a shadow corresponding to the graphic object in the shadow layer.

이때, 상기 그림자 레이어는, 상기 인터랙션 오브젝트에 대응되는 그림자를 더 포함할 수 있다.At this time, the shadow layer may further include a shadow corresponding to the interaction object.

이때, 상기 프로세서는, 상기 사용자 인터랙션을 기초로 상기 그래픽 오브젝트의 크기, 개수, 위치, 색, 밝기 중 적어도 하나를 변경할 수 있다.At this time, the processor may change at least one of the size, number, position, color, and brightness of the graphic object based on the user interaction.

이때, 상기 그래픽 오브젝트가 변경되는 경우, 상기 변경된 그래픽 오브젝트에 대응되는 그림자가 변경될 수 있다.At this time, when the graphic object is changed, the shadow corresponding to the changed graphic object can be changed.

이때, 상기 메모리는, 상기 사용자 인터랙션에 대응되는 상기 적어도 하나의 그래픽 오브젝트의 변경에 대한 데이터를 저장할 수 있다.At this time, the memory may store data on a change of the at least one graphic object corresponding to the user interaction.

이때, 상기 전자 장치는 디스플레이; 를 더 포함하고, 상기 프로세서는, 상기 생성된 컨텐츠 화면을 표시하기 위해 상기 디스플레이를 제어할 수 있다.At this time, the electronic device includes a display; And the processor may control the display to display the generated content screen.

한편, 본 개시의 일 실시예에 따른 전자 장치의 제어 방법은, 상기 전자 장치에 저장된 후방 배경 영상을 포함하는 컨텐츠 화면을 표시하는 단계; 사용자 단말 장치에 입력된 사용자 인터랙션을 수신하는 단계; 및 상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 추가하여 상기 컨텐츠 화면을 생성하는 단계; 를 포함하고, 상기 컨텐츠 화면은, 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 상기 후방 배경 영상을 포함하는 배경 영상 레이어 및 상기 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 포함한다.Meanwhile, a method of controlling an electronic device according to an embodiment of the present disclosure includes: displaying a content screen including a background background image stored in the electronic device; Receiving a user interaction input to a user terminal device; And adding an interaction layer including an interaction object corresponding to the user interaction to generate the content screen; The content screen includes an object layer including at least one graphic object, a background image layer including the background image, and an interaction layer including the interaction object.

이때, 상기 컨텐츠 화면은 상기 오브젝트 레이어 및 상기 배경 영상 레이어 사이에 그림자 레이어를 더 포함하고, 상기 생성하는 단계는, 상기 그래픽 오브젝트에 대응되는 그림자를 상기 그림자 레이어에 생성할 수 있다.In this case, the content screen may further include a shadow layer between the object layer and the background image layer, and the generating step may generate a shadow corresponding to the graphic object in the shadow layer.

이때, 상기 그림자 레이어는, 상기 인터랙션 오브젝트에 대응되는 그림자를 더 포함할 수 있다.At this time, the shadow layer may further include a shadow corresponding to the interaction object.

이때, 상기 생성하는 단계는, 상기 사용자 인터랙션을 기초로 상기 그래픽 오브젝트의 크기, 개수, 위치, 색, 밝기 중 적어도 하나를 변경할 수 있다.At this time, the creating step may change at least one of the size, number, position, color, and brightness of the graphic object based on the user interaction.

이때, 상기 그래픽 오브젝트가 변경되는 경우, 상기 변경된 그래픽 오브젝트에 대응되는 그림자가 변경될 수 있다.At this time, when the graphic object is changed, the shadow corresponding to the changed graphic object can be changed.

이때, 상기 저장하는 단계는, 상기 사용자 인터랙션에 대응되는 상기 그래픽 오브젝트의 변경에 대한 데이터를 저장할 수 있다.In this case, the storing step may store data on a change of the graphic object corresponding to the user interaction.

이때, 상기 제어 방법은 상기 컨텐츠 화면을 표시하는 단계; 를 더 포함할 수 있다.In this case, the control method may include displaying the content screen; As shown in FIG.

한편, 본 개시의 일 실시예에 따른 전자 장치를 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록 매체에 있어서, 상기 전자 장치의 제어 방법은, 상기 전자 장치에 저장된 후방 배경 영상을 포함하는 컨텐츠 화면을 표시하는 단계; 사용자 단말 장치에 입력된 사용자 인터랙션을 수신하는 단계; 및 상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 추가하여 상기 컨텐츠 화면을 생성하는 단계; 를 포함하고, 상기 컨텐츠 화면은, 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 상기 후방 배경 영상을 포함하는 배경 영상 레이어 및 상기 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 포함한다.On the other hand, in a computer-readable recording medium including a program for executing an electronic device according to an embodiment of the present disclosure, a control method of the electronic device displays a content screen including a background background image stored in the electronic device ; Receiving a user interaction input to a user terminal device; And adding an interaction layer including an interaction object corresponding to the user interaction to generate the content screen; The content screen includes an object layer including at least one graphic object, a background image layer including the background image, and an interaction layer including the interaction object.

상술한 바와 같이 본 개시의 다양한 실시예에 따라, 사용자는 전자 장치에 표시된 그래픽 오브젝트에 대하여 사용자 인터랙션을 입력함으로써, 그래픽 오브젝트를 변경시킬 수 있다.As described above, according to various embodiments of the present disclosure, a user can change a graphic object by inputting a user interaction with the graphic object displayed on the electronic device.

도 1은 본 개시의 일 실시예에 따른, 디스플레이가 투명한 유리창이 된 것과 같은 이미지 효과를 제공하는 실시예를 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른, 전자 장치의 간략한 구성을 나타내는 블록도이다.
도 3은 본 개시의 일 실시 예에 따른, 전자 장치의 구체적인 구성을 나타내는 블록도이다.
도 4a 및 도 4b는 본 개시의 일 실시예에 따른, 전자 장치의 제1 동작 모드(노멀 모드) 및 제2 동작 모드(배경 모드)를 설명하기 위한 도면이다
도 5a 내지 도 5c는 본 개시의 일 실시예에 따른, 프로세서에 의해 생성되는 다양한 레이어에 대해 설명한 예시도이다.
도 6a 및 도 6b는 본 개시의 일 실시예에 따른 사용자 인터랙션을 설명하기 위한 도면이다.
도 7a 내지 도 9b는 사용자 인터랙션에 대응하여 그래픽 오브젝트가 변경되는 여러 실시예를 설명하기 위한 예시도이다.
도 10은 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram for illustrating an embodiment in which the display provides an image effect such as a transparent window made according to an embodiment of the present disclosure;
2 is a block diagram illustrating a simplified configuration of an electronic device, in accordance with one embodiment of the present disclosure;
3 is a block diagram illustrating a specific configuration of an electronic device according to an embodiment of the present disclosure;
4A and 4B are diagrams for explaining a first operation mode (normal mode) and a second operation mode (background mode) of the electronic device according to an embodiment of the present disclosure
Figures 5A-5C illustrate various layers created by a processor, in accordance with one embodiment of the present disclosure.
6A and 6B are diagrams for explaining user interaction according to an embodiment of the present disclosure.
FIGS. 7A and 9B are diagrams for explaining various embodiments in which a graphic object is changed corresponding to a user interaction.
10 is a flow chart for explaining a control method of an electronic device according to an embodiment of the present disclosure;

본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. These embodiments are capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the description. It is to be understood, however, that it is not intended to limit the scope of the specific embodiments but includes all transformations, equivalents, and alternatives falling within the spirit and scope of the disclosure disclosed. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the embodiments of the present invention,

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the claims. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the term "includes" Or "configured." , Etc. are intended to designate the presence of stated features, integers, steps, operations, components, parts, or combinations thereof, may be combined with one or more other features, steps, operations, components, It should be understood that they do not preclude the presence or addition of combinations thereof.

실시예에 있어서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수의 '부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the embodiment, 'module' or 'sub' performs at least one function or operation, and may be implemented in hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'parts' may be integrated into at least one module except for 'module' or 'module' which need to be implemented by specific hardware, and implemented by at least one processor (not shown) .

한편, 본 개시에서는 전자 장치가 디스플레이를 포함하여 다양한 컨텐츠 화면을 표시하는 방법에 대하여 서술하나, 이에 한정되는 것은 아니다. 즉, 전자 장치(100)는 셋톱 박스(Settop-Box), OTT 장치(Over the Top device)로 구성될 수 있다. 이러한 경우, 전자 장치(100)는 외부 디스플레이 장치로 영상신호를 전송할 수 있으며, 영상 신호를 수신한 외부 디스플레이 장치가 다양한 컨텐츠 화면을 표시할 수 있음은 물론이다. 이하, 본 개시에서는 설명의 편의 및 이해를 위해 전자 장치(100)가 디스플레이를 포함하는 경우에 대하여 설명하나, 상술한 바와 같이, 전자 장치(100)가 디스플레이를 포함하지 않는 경우에도 본 개시의 기술적 사상이 적용될 수 있음은 물론이다. Meanwhile, the present disclosure describes a method of displaying various content screens including a display, but is not limited thereto. That is, the electronic device 100 may be configured as a settop-box or an OTT device (Over the Top device). In this case, the electronic device 100 may transmit an image signal to the external display device, and the external display device receiving the image signal may display various content screens. Hereinafter, although the present disclosure describes the case where the electronic device 100 includes a display for convenience and understanding of the description, even when the electronic device 100 does not include a display, as described above, It goes without saying that ideas can be applied.

이하에서, 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다.In the following, the present disclosure will be described in detail with reference to the accompanying drawings.

본 개시의 일 실시 예에 따른 전자 장치(100)는 두 개의 동작 모드를 갖는다. 먼저, 제1 동작 모드(예를 들어, 노멀 모드)는 일반 영상을 표시하는 모드이다. 구체적으로, 제1 동작 모드는 전자 장치(100)에 기 저장된 컨텐츠 또는 외부로부터 수신된 방송을 전자 장치의 전체 화면을 이용하여 표시하는 모드이다. The electronic device 100 according to one embodiment of the present disclosure has two modes of operation. First, a first operation mode (for example, a normal mode) is a mode for displaying a general image. Specifically, the first operation mode is a mode for displaying contents previously stored in the electronic device 100 or broadcast received from the outside using the full screen of the electronic device.

그리고, 제2 동작 모드(예를 들어, 배경 모드)는 전자 장치가 전자 장치의 후방 배경 영상(이하에서는 "배경 영상"이라고 함.)을 포함하는 컨텐츠 화면을 표시하여, 전자 장치가 마치 유리창이 된 것과 같은 시각적 효과를 제공하는 모드이다. 여기서 컨텐츠 화면은 전자 장치(100)가 위치하는 후방의 배경 영상을 포함하며, 적어도 하나의 오브젝트 및 적어도 하나의 오브젝트의 그림자를 포함할 수 있다.In the second operation mode (for example, the background mode), the electronic device displays a content screen including a background background image (hereinafter referred to as a background image) of the electronic device, Is a mode that provides the same visual effect. Here, the content screen includes a background image behind which the electronic device 100 is located, and may include at least one object and a shadow of at least one object.

제2 동작 모드로 표시되는 경우, 전자 장치(100)는 전자 장치(100) 후방의 배경 영역을 배경 영상으로 표시하는 바, 사용자는 전자 장치(100)가 투명한 유리창이 된 것과 같은 착각을 받을 수 있다. In the second mode of operation, the electronic device 100 displays the background area behind the electronic device 100 as a background image, which allows the user to receive an illusion that the electronic device 100 has become a transparent window have.

한편, 제2 동작 모드 시에는 배경 화면만을 표시하는 것뿐만 아니라, 특정의 그래픽 오브젝트를 함께 표시할 수 있다. 여기서 특정의 그래픽 오브젝트는 시계 오브젝트 또는 덩굴 오브젝트일 수 있으나, 일반적인 벽에 부착될 수 있는 것들이라면 다양한 그래픽 오브젝트(예를 들어, 그림, 사진, 어항, 메모 등)들이 표시될 수 있다. On the other hand, in the second operation mode, not only the background screen but also specific graphic objects can be displayed together. Here, a specific graphic object may be a clock object or a vine object, but various graphic objects (for example, pictures, photographs, fisheries, memos, etc.) may be displayed if they can be attached to a general wall.

또한, 제2 동작 모드 시에는 배경화면, 그래픽 오브젝트뿐만 아니라, 인터랙션 오브젝트를 표시할 수 있다. 여기서 인터랙션 오브젝트는 사용자 인터랙션과 일치하거나 대응되는 오브젝트일 수 있다. In addition, in the second operation mode, it is possible to display an interaction object as well as a background screen and a graphic object. Here, the interaction object may be an object that matches or corresponds to a user interaction.

이하에서는 전자 장치(100)의 구체적인 구성들을 이용하여 상술한 동작을 자세히 설명한다. Hereinafter, the above-described operation will be described in detail using specific configurations of the electronic device 100. FIG.

도 2는 본 개시의 일 실시 예에 따른 전자 장치(100)의 간략한 구성을 나타내는 블럭도이다. 도 2에 도시된 바와 같이, 전자 장치(100)는 통신부(110), 디스플레이(120), 메모리(130) 및 프로세서(140)를 포함할 수 있다.2 is a block diagram illustrating a simplified configuration of an electronic device 100 according to one embodiment of the present disclosure. 2, the electronic device 100 may include a communication unit 110, a display 120, a memory 130, and a processor 140.

통신부(110)는 외부로부터의 사용자 인터랙션을 수신할 수 있다. 또한, 통신부(110)는 외부로부터 날씨 정보를 수신할 수 있다. 수신된 날씨 정보는 배경화면에 적용될 수 있다. The communication unit 110 can receive a user interaction from the outside. In addition, the communication unit 110 can receive weather information from the outside. The received weather information can be applied to the background screen.

디스플레이(120)는 영상 데이터를 표시한다. 특히, 전자 장치(100)가 제1 동작 모드로 동작되는 동안 디스플레이(120)는 외부 소스(예를 들어, 방송국, 서버, DVD 등)로부터 획득된 영상 컨텐츠를 표시할 수 있다. 또한, 제2 동작 모드로 동작되는 동안 디스플레이(120)는 기 저장된 배경 영상을 포함하는 컨텐츠 화면을 표시할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트와 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함할 수 있다.The display 120 displays image data. Particularly, while the electronic device 100 is operating in the first mode of operation, the display 120 may display image content obtained from an external source (e.g., a broadcast station, a server, a DVD, etc.). Also, while operating in the second operation mode, the display 120 may display a content screen including the pre-stored background image. At this time, the content screen may include at least one graphics object on the background image and a shadow for at least one graphics object.

메모리(130)는 전자 장치(100)를 제어하기 위한 프로그램 및 데이터가 저장될 수 있다. 특히, 메모리(130)는 전자 장치(100) 후방의 배경 영상에 대한 데이터를 저장할 수 있다. 이때, 배경 영상에 대한 데이터는 외부 장치(예를 들어, 스마트 폰 등)로부터 획득될 수 있으나, 이는 일 실시예에 불과할 뿐, 전자 장치(100)와 연결된 카메라로부터 획득될 수 있다.The memory 130 may store programs and data for controlling the electronic device 100. In particular, the memory 130 may store data for a background image behind the electronic device 100. At this time, the data for the background image may be obtained from an external device (e.g., a smart phone or the like), but this may be obtained from a camera connected to the electronic device 100 only by way of example.

또한, 메모리(130)는 사용자 인터랙션에 대응되는 적어도 하나의 그래픽 오브젝트의 변경에 대한 데이터를 저장할 수 있다. 예를 들어, 메모리(130)는 제1 사용자 인터랙션이 입력되면 그래픽 오브젝트의 개수가 증가하도록 설정된 데이터를 저장하고, 제2 사용자 인터랙션이 입력되면 그래픽 오브젝트의 개수가 증가하도록 설정된 데이터를 저장할 수 있다. 즉, 메모리(130)는 기 설정된 사용자 인터랙션에 대응되는 결과(오브젝트의 변경)를 저장할 수 있다.In addition, the memory 130 may store data about changes in at least one graphical object corresponding to a user interaction. For example, the memory 130 may store data set to increase the number of graphic objects when the first user interaction is input, and may store data set to increase the number of graphic objects when the second user interaction is input. That is, the memory 130 may store a result (change of object) corresponding to a predetermined user interaction.

프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 특히, 프로세서(140)는 메모리(130)에 저장된 배경 영상에 대한 데이터와 통신부(110)를 통해 수신한 사용자 인터랙션을 바탕으로 컨텐츠 화면을 생성하여 디스플레이(120)에 표시되도록 제어할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트와 적어도 하나의 그래픽 오브젝트에 대응되는 그림자를 포함할 수 있다.Processor 140 controls the overall operation of electronic device 100. In particular, the processor 140 may generate a content screen based on the data of the background image stored in the memory 130 and the user interaction received through the communication unit 110, and control the content screen to be displayed on the display 120. At this time, the content screen may include at least one graphic object on the background image and a shadow corresponding to at least one graphic object.

또한, 전자 장치(100)의 가장자리에 베젤과 베젤을 덮는 외곽 프레임이 포함되는 경우, 프로세서(140)는 컨텐츠 화면의 가장자리에 외곽 프레임에 대응되는 영역에 외곽 프레임 그림자를 더 표시하도록 디스플레이(120)를 제어할 수 있다.In addition, when the edge of the electronic device 100 includes an outer frame that covers the bezel and the bezel, the processor 140 displays the outer frame on the display 120 to further display an outer frame shadow in an area corresponding to the outer frame, Can be controlled.

이때, 프로세서(140)는 컨텐츠 화면을 생성하기 위하여 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 그림자를 포함하는 그림자 레이어 및 배경 영상을 포함하는 배경 영상 레이어를 생성할 수 있다. 이때, 오브젝트 레이어는 외부로부터 획득되거나 기 저장된 데이터로부터 생성될 수 있으며, 그림자 레이어는 오브젝트 레이어를 바탕으로 생성될 수 있으며, 배경 영상 레이어는 메모리(130)에 저장된 배경 영상에 대한 데이터로부터 생성될 수 있다. 한편, 오브젝트 레이어 또는 배경 영상 레이어는 복수 개 생성될 수 있다. 또한, 외곽 프레임 그림자를 포함하는 외곽 프레임 그림자 레이어가 더 생성될 수 있다.At this time, the processor 140 may generate an object layer including at least one graphics object, a shadow layer including a shadow, and a background image layer including a background image to create a content screen. The shadow layer may be generated based on the object layer, and the background image layer may be generated from data on the background image stored in the memory 130 have. On the other hand, a plurality of object layers or background image layers can be generated. Further, an outer frame shadow layer including an outer frame shadow can be further generated.

특히, 프로세서(140)는 오브젝트 레이어, 그림자 레이어, 배경 영상 레이어 순서로 앞에 배치되어 표시되도록 디스플레이(120)를 제어할 수 있다. 또한, 외곽 프레임 그림자 레이어가 생성된 경우, 프로세서(140)는 오브젝트 레이어보다 앞에 배치되어 표시되도록 디스플레이(120)를 제어할 수 있다.In particular, the processor 140 may control the display 120 to be displayed in the order of the object layer, the shadow layer, and the background image layer. In addition, when an outer frame shadow layer is generated, the processor 140 may control the display 120 to be displayed in front of the object layer.

이때, 프로세서(140)는 인터랙션 레이어를 더 생성할 수 있다. 인터랙션 레이어는 사용자 인터랙션을 바탕으로 생성된 인터랙션 오브젝트를 표시할 수 있다. 즉, 프로세서(140)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 표시하기 위해 인터랙션 레이어를 생성할 수 있다.At this time, the processor 140 may further generate an interaction layer. The interaction layer can display interaction objects created based on user interaction. That is, the processor 140 may generate the interaction layer to display the interaction object corresponding to the user interaction.

다만, 상술한 예에 한정되는 것은 아니며 프로세서(140)는, 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 오브젝트 레이어에 표시할 수 있다. 예를 들어, 사용자의 제1 인터랙션이 입력된 경우, 프로세서(140)는 제1 인터랙션에 대응되는 제1 인터랙션 오브젝트를 오브젝트 레이어에 표시할 수 있다. 즉, 인터랙션 오브젝트가 오브젝트 레이어에 표시되는 경우, 그래픽 오브젝트는 인터랙션 오브젝트를 포함할 수 있으며, 인터랙션 오브젝트가 인터랙션 레이어에 표시되는 경우, 그래픽 오브젝트와 인터랙션 오브젝트는 상이한 오브젝트일 수 있다.However, the present invention is not limited to the above-described example, and the processor 140 can display the interaction object corresponding to the user interaction on the object layer. For example, when the user's first interaction is input, the processor 140 may display the first interaction object corresponding to the first interaction on the object layer. That is, when the interaction object is displayed on the object layer, the graphic object may include an interaction object, and when the interaction object is displayed on the interaction layer, the graphic object and the interaction object may be different objects.

한편, 프로세서(140)는 사용자 인터랙션에 대응하여, 그래픽 오브젝트의 크기, 개수, 위치, 색, 밝기 중, 적어도 하나를 변경시키도록 디스플레이(110)를 제어할 수 있다. 이때, 그래픽 오브젝트가 변경되는 경우, 프로세서(140)는 변경된 그래픽 오브젝트에 대응되는 그림자를 변경할 수 있다.Meanwhile, the processor 140 may control the display 110 to change at least one of the size, number, position, color, and brightness of the graphic object in response to the user interaction. At this time, when the graphic object is changed, the processor 140 may change the shadow corresponding to the changed graphic object.

즉, 프로세서(140)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 생성할 수 있고, 사용자 인터랙션에 대응하여 그래픽 오브젝트를 변경할 수 있다. 그러나 이에 한정되는 것은 아니며, 프로세서(140)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 생성하고, 인터랙션 오브젝트에 대응하여 그래픽 오브젝트를 변경할 수 있음은 물론이다. That is, the processor 140 can generate the interaction object corresponding to the user interaction, and can change the graphic object corresponding to the user interaction. However, the present invention is not limited to this, and it goes without saying that the processor 140 may generate the interaction object corresponding to the user interaction and change the graphic object corresponding to the interaction object.

도 3은 본 개시의 일 실시예에 따른, 전자 장치의 구체적인 구성을 나타내는 블럭도이다. 도 3을 참조하면, 본 실시 예에 따른 전자 장치(100)는, 통신부(110), 디스플레이(120), 메모리(130), 프로세서(140), 방송 수신부(150), 신호 분리부(155), A/V 처리부(160), 오디오 출력부(165), 영상 신호 생성부(170), 센서(175), 조작부(180)를 포함할 수 있다. 3 is a block diagram illustrating a specific configuration of an electronic device according to an embodiment of the present disclosure; 3, the electronic device 100 according to the present embodiment includes a communication unit 110, a display 120, a memory 130, a processor 140, a broadcast receiver 150, a signal separator 155, An A / V processing unit 160, an audio output unit 165, a video signal generating unit 170, a sensor 175, and an operation unit 180.

그러나 상술한 구성에 한정되는 것은 아니며, 필요에 따라 일부구성이 추가, 생략, 병합될 수 있다. 예를 들어, 프로세서(140)는 A/V 처리부(160), 영상 신호 생성부(170)을 포함하는 구성일 수 있다. 이 경우, 프로세서(140)는 후술하는 A/V 처리부(160), 영상 신호 생성부(170)의 기능 및 동작을 수행할 수 있다.However, the present invention is not limited to the above-described configuration, and some configurations may be added, omitted, or merged as necessary. For example, the processor 140 may include an A / V processing unit 160 and a video signal generating unit 170. In this case, the processor 140 may perform functions and operations of the A / V processing unit 160 and the video signal generating unit 170, which will be described later.

통신부(110)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(110)는 와이파이칩, 블루투스 칩을 포함할 수 있다. 프로세서(140)는 통신부(110)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다. 구체적으로, 통신부(110)는 전자 장치(100)를 제어할 수 있는 제어 단말 장치(예를 들어, 스마트 폰, 리모컨)로부터 제어 명령 또는 사용자 인터랙션을 수신할 수 있다. The communication unit 110 is configured to perform communication with various types of external devices according to various types of communication methods. The communication unit 110 may include a Wi-Fi chip and a Bluetooth chip. The processor 140 can communicate with various external devices using the communication unit 110. [ Specifically, the communication unit 110 may receive a control command or a user interaction from a control terminal device (for example, a smart phone or a remote control) capable of controlling the electronic device 100. [

이때, 사용자 인터랙션은 외부 장치에 의해 입력될 수 있다. 예를 들어, 사용자 인터랙션은 스마트폰과 같은 외부 전자 장치를 통해 입력될 수 있다.At this time, the user interaction can be input by the external device. For example, user interaction may be entered via an external electronic device such as a smart phone.

즉, 외부 장치가 사용자 인터랙션을 감지하고, 감지된 사용자 인터랙션에 대한 데이터를 전자 장치(100)로 전송할 수 있다. 다만, 이에 한정되는 것은 아니고, 전자 장치(100)가 직접 사용자 인터랙션을 감지할 수 있음은 물론이다. 이때, 사용자 인터랙션은 다양한 형태를 가지며, 다양한 방법에 의해 감지될 수 있다. 예를 들어, 사용자 인터랙션은 낙서 인터랙션일 수 있다. 낙서 인터랙션이란 사용자가 그림판에 그림을 그리는 것과 같은 인터랙션을 의미한다. 그러나 낙서라는 용어에 한정되는 것은 아니며, 그림 인터랙션, 필기 인터랙션 등 다양하게 표현될 수 있음은 물론이다. 또 다른 실시예로 사용자 인터랙션은 사용자의 모션일 수 있다. 외부 전자 장치 또는 전자 장치(100)는 카메라 센서 등을 통해 사용자 모션을 인식할 수 있다. 또 다른 실시예로, 사용자 인터랙션은 음성 명령일 수 있다. 외부 전자 장치 또는 전자 장치(100)는 마이크를 통해 사용자 음성을 인식할 수 있다. 상술한 바와 같이 사용자 인터랙션은 다양한 형태일 수 있으나, 본 개시에서는 사용자 인터랙션이 낙서 인터랙션인 경우를 한정하여 설명한다. 그러나, 사용자 인터랙션이 낙서 인터랙션 이외의 다양한 인터랙션인 경우에도 본 개시의 기술적 사상이 적용될 수 있음은 물론이다.That is, an external device may sense the user interaction and send data for the detected user interaction to the electronic device 100. However, the present invention is not limited to this, and it goes without saying that the electronic device 100 can directly sense the user interaction. At this time, the user interaction has various forms and can be detected by various methods. For example, the user interaction may be a graffiti interaction. A graffiti interaction is an interaction in which a user draws a picture on a paint board. However, it is not limited to the term graffiti, but may be expressed in various ways such as a painting interaction and a handwriting interaction. In another embodiment, the user interaction may be a motion of the user. The external electronic device or electronic device 100 can recognize the user's motion through a camera sensor or the like. In another embodiment, the user interaction may be a voice command. The external electronic device or electronic device 100 can recognize the user's voice through the microphone. As described above, the user interaction may be in various forms, but in the present disclosure, the case where the user interaction is the graffiti interaction will be limited. However, it is needless to say that the technical idea of the present disclosure can be applied even when the user interaction is various interactions other than the graffiti interaction.

전자 장치(100)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 생성하며, 그래픽 오브젝트를 변경할 수 있다. 이때, 인터랙션 오브젝트는 도 7b, 도 8b, 도 9b등에 도시된 바와 같은 낙서 이미지 일 수 있다.  The electronic device 100 generates an interaction object corresponding to the user interaction, and can change the graphic object. At this time, the interaction object may be a graffiti image as shown in FIG. 7B, FIG. 8B, FIG. 9B, and the like.

또한, 통신부(110)는 외부 서버와의 통신을 통하여 날씨 정보를 취득할 수 있다. 프로세서(140)는 통신부(110)를 통해 취득한 날씨 정보를 이용하여 배경 영상을 생성할 수 있다.In addition, the communication unit 110 can acquire weather information through communication with an external server. The processor 140 may generate a background image using the weather information acquired through the communication unit 110. [

디스플레이(120)는 영상을 표시한다. 이러한 디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 감지 센서와 결합하여 터치 스크린으로 구현될 수 있다. The display 120 displays an image. The display 120 may be implemented as various types of displays such as a liquid crystal display (LCD), a plasma display panel (PDP), and the like. The display 120 may include a driving circuit, a backlight unit, and the like that may be implemented in the form of an a-si TFT, a low temperature poly silicon (LTPS) TFT, an OTFT (organic TFT) Meanwhile, the display 120 may be implemented as a touch screen in combination with a touch sensing sensor.

방송 수신부(150)는 방송국 또는 위성으로부터 유선 또는 무선으로 방송을 수신하여 복조한다. 구체적으로, 방송 수신부(150)는 안테나 또는 케이블을 통하여 전송 스트림을 수신하고 복조하여 디지털 전송 스트림 신호를 출력할 수 있다. The broadcast receiving unit 150 receives and demodulates broadcasts from a broadcasting station or satellite by wire or wirelessly. Specifically, the broadcast receiver 150 may receive and demodulate the transport stream through an antenna or a cable to output a digital transport stream signal.

신호 분리부(155)는 방송 수신부(150)에서 제공된 전송 스트림 신호를 영상 신호, 오디오 신호, 부가정보 신호로 분리한다. 그리고 신호 분리부(155)는 영상 신호 및 오디오 신호를 A/V 처리부(160)로 전송한다.The signal separator 155 separates the transport stream signal provided from the broadcast receiver 150 into a video signal, an audio signal, and an additional information signal. The signal separation unit 155 transmits the video signal and the audio signal to the A / V processing unit 160.

A/V 처리부(160)는 방송 수신부(150) 및 메모리(130)로부터 입력된 영상 신호 및 오디오 신호에 대해 비디오 디코딩, 비디오 스케일링, 오디오 디코딩 등의 신호처리를 수행한다. 그리고 A/V 처리부(160)는 영상 신호를 영상 신호 생성부(170)로 출력하고, 오디오 신호를 오디오 출력부(165)로 출력한다. 이때, 영상 신호 생성부(170)을 통해 출력되는 영상은 제1 동작 모드(즉, 노멀 모드)에 의한 컨텐츠 영상일 수 있다.The A / V processing unit 160 performs signal processing such as video decoding, video scaling, and audio decoding on the video signals and audio signals input from the broadcast receiving unit 150 and the memory 130. The A / V processing unit 160 outputs the video signal to the video signal generating unit 170 and the audio signal to the audio output unit 165. At this time, the image output through the image signal generator 170 may be a content image according to the first operation mode (i.e., the normal mode).

반면, 수신된 영상 및 오디오 신호를 메모리(130)에 저장하는 경우, A/V 처리부(160)는 영상과 오디오를 압축된 형태로 메모리(130)에 출력할 수 있다. On the other hand, when the received video and audio signals are stored in the memory 130, the A / V processing unit 160 can output the video and audio to the memory 130 in a compressed form.

오디오 출력부(165)는 A/V 처리부(160)에서 출력되는 오디오 신호를 사운드로 변환하여 스피커(미도시)를 통해 출력시키거나, 외부 출력단자(미도시)를 통해 연결된 외부기기로 출력한다.The audio output unit 165 converts the audio signal output from the A / V processing unit 160 into sound and outputs the sound through a speaker (not shown) or an external device connected through an external output terminal (not shown) .

영상 신호 생성부(170)는 사용자에게 제공하기 위한 GUI(Graphic User Interface)를 생성한다. 그리고 영상 신호 생성부(170)는 생성된 GUI를 A/V 처리부(160)에서 출력된 영상에 부가한다. 그리고 영상 신호 생성부(170)는 GUI가 부가된 영상에 대응되는 영상 신호를 디스플레이(120)에 제공한다. 이에 따라, 디스플레이(120)는 전자 장치(100)에서 제공하는 각종 정보 및 영상 신호 생성부(170)에서 전달된 영상을 표시한다. The video signal generator 170 generates a GUI (Graphic User Interface) for providing to the user. Then, the image signal generator 170 adds the generated GUI to the image output from the A / V processor 160. The video signal generation unit 170 provides the display 120 with a video signal corresponding to the video to which the GUI is added. Accordingly, the display 120 displays various information provided by the electronic device 100 and an image transmitted from the image signal generating unit 170.

그리고 영상 신호 생성부(170)는 프로세서(140)에 의해 생성된 컨텐츠 화면을 처리하여 출력할 수 있다. 구체적으로, 영상 신호 생성부(170)는 복수의 레이어를 그대로 출력하거나 복수의 레이어를 합성(또는 머징)하여 디스플레이(120)에 제공할 수 있다. The video signal generator 170 may process the content screen generated by the processor 140 and output the content screen. Specifically, the video signal generator 170 may output a plurality of layers as they are, or may synthesize (or merge) a plurality of layers and provide them to the display 120.

메모리(130)는 전자 장치(100)를 제어하기 위한 다양한 데이터 및 프로그램을 저장한다. 또한, 메모리(130)는 A/V 처리부(160)로부터 영상과 오디오가 압축된 영상 컨텐츠를 제공받아 저장할 수 있으며, 프로세서(140)의 제어에 따라 저장된 영상 컨텐츠를 A/V 처리부(160)에 출력할 수 있다. 특히, 메모리(130)는 배경 영상에 대한 데이터를 저장할 수 있다. The memory 130 stores various data and programs for controlling the electronic device 100. The memory 130 can receive and store video and audio compressed image contents from the A / V processing unit 160 and can store the stored image contents under the control of the processor 140 to the A / V processing unit 160 Can be output. In particular, the memory 130 may store data for a background image.

한편, 메모리(130)는 하드디스크, 비휘발성 메모리, 휘발성 메모리 등으로 구현될 수 있다. Meanwhile, the memory 130 may be implemented as a hard disk, a nonvolatile memory, a volatile memory, or the like.

조작부(180)는 터치 스크린, 터치패드, 키 버튼, 키패드 등으로 구현되어, 전자 장치(100)의 사용자 조작을 제공한다. 본 실시 예에서는 전자 장치(100)에 구비된 조작부(180)를 통하여 제어 명령을 입력받는 예를 설명하였지만, 조작부(180)는 외부 제어 장치(예를 들어, 리모컨)로부터 사용자 조작을 입력받을 수도 있다. The operation unit 180 is implemented by a touch screen, a touch pad, a key button, a keypad, or the like, and provides a user operation of the electronic device 100. The control unit 180 may receive the user's operation from the external control device (for example, a remote control) have.

센서(175)는 사용자 인터랙션을 감지할 수 있다. 즉, 사용자 인터랙션은 상술한 바와 같이 외부 장치로부터 수신될 수 있을 뿐만 아니라, 센서(175)로부터 감지될 수도 있다.The sensor 175 may sense user interaction. That is, the user interaction may not only be received from an external device as described above, but may also be sensed by the sensor 175.

구체적으로, 본 개시의 일 실시예로서, 센서(175)는 사용자의 모션을 감지하기 위한 카메라 센서일 수 있다. 사용자의 모션이 카메라 센서를 통해 감지된 경우, 프로세서(140)은 감지된 사용자 모션에 대응되는 인터랙션 오브젝트를 생성하고, 그래픽 오브젝트를 변경할 수 있다.Specifically, in one embodiment of the present disclosure, the sensor 175 may be a camera sensor for sensing the motion of the user. When the motion of the user is detected through the camera sensor, the processor 140 can generate an interaction object corresponding to the detected user motion, and change the graphic object.

본 개시의 또다른 실시예로서, 센서(175)는 사용자의 터치 입력을 감지하는 터치 센서일 수 있다. 상술한 바와 같이, 터치 센서는 디스플레이(120)과 결합하여 터치패널을 구성할 수 있다. 터치 패널을 통해 사용자 인터랙션이 입력된 경우, 프로세서(140)는 감지된 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 생성하고, 그래픽 오브젝트를 변경할 수 있다. As another embodiment of the present disclosure, the sensor 175 may be a touch sensor that senses the user's touch input. As described above, the touch sensor can be combined with the display 120 to configure a touch panel. When a user interaction is input through the touch panel, the processor 140 can generate an interaction object corresponding to the sensed user interaction, and change the graphic object.

그 밖에, 도 2에 도시하지는 않았으나, 실시 예에 따라서는, 통신부(175)는 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩 등을 더 포함할 수 있음은 물론이다. 2, the communication unit 175 may include a USB port to which a USB connector can be connected, various external input ports for connecting to various external terminals such as a headset, a mouse, a LAN, and the like, A DMB chip for receiving and processing a DMB (Digital Multimedia Broadcasting) signal, and the like.

프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(140)는 제1 동작 모드 시에는 조작부(180)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 영상 신호 생성부(170), 디스플레이(120)를 제어할 수 있다. Processor 140 controls the overall operation of electronic device 100. Specifically, the processor 140 may control the image signal generator 170 and the display 120 to display an image according to the control command received through the operation unit 180 in the first operation mode.

프로세서(140)는 ROM(141), RAM(142), GPU(Graphic Processing Unit)(143), CPU(134) 및 버스를 포함하는 SoC(System on Chip) 형태로 구현될 수도 있다. 이 경우, ROM(141), RAM(142), GPU(Graphic Processing Unit)(143), CPU(144) 등은 버스를 통해 서로 연결될 수 있다. The processor 140 may be implemented as a system on chip (SoC) including a ROM 141, a RAM 142, a GPU (Graphic Processing Unit) 143, a CPU 134 and a bus. In this case, the ROM 141, the RAM 142, the GPU (Graphic Processing Unit) 143, the CPU 144, and the like may be connected to each other via a bus.

CPU(144)는 메모리(130)에 액세스하여, 메모리(130)에 저장된 운영체제(O/S)를 이용하여 부팅을 수행한다. 그리고 CPU(144)는 메모리(130)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. The CPU 144 accesses the memory 130 and performs booting using an operating system (O / S) stored in the memory 130. The CPU 144 can perform various operations using various programs, contents, data stored in the memory 130, and the like.

ROM(141)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(144)는 ROM(141)에 저장된 명령어에 따라 메모리(130)에 저장된 O/S를 RAM(142)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(144)는 메모리(130)에 저장된 각종 프로그램을 RAM(142)에 복사하고, RAM(142)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 141 stores a command set for booting the system and the like. The CPU 144 copies the O / S stored in the memory 130 to the RAM 142 in accordance with the command stored in the ROM 141, executes the O / S, Boot up. When the booting is completed, the CPU 144 copies various programs stored in the memory 130 to the RAM 142, executes the program copied to the RAM 142, and performs various operations.

GPU(143)는 전자 장치(100)의 부팅이 완료되면, 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 구체적으로, GPU(143)는 전자 장치(100)가 제2 동작 모드로 동작하는 경우, 배경 영상에 그래픽 오브젝트 및 그래픽 오브젝트의 그림자를 포함하는 컨텐츠 화면을 생성할 수 있다. 이때, 상술한 바와 같이 GPU(143)에서 생성된 다양한 객체를 포함하는 화면은 영상신호 생성부(170)을 통해 출력 될 수 있다.When the booting of the electronic device 100 is completed, the GPU 143 can generate a screen including various objects such as an icon, an image, a text, and the like. Specifically, when the electronic device 100 operates in the second operation mode, the GPU 143 may generate a content screen including graphics objects and shadow of graphic objects in the background image. At this time, the screen including various objects generated by the GPU 143 as described above may be outputted through the video signal generation unit 170. FIG.

한편, 이러한, GPU 구성은 영상 신호 생성부(170)와 같은 별도의 구성으로 구성될 수 있으며, 프로세서(140) 내의 CPU와 결합된 SoC와 같은 구성으로 구현될 수도 있다. The GPU configuration may be a separate configuration such as the video signal generation unit 170 or may be implemented in a configuration such as SoC combined with a CPU in the processor 140. [

또한, 프로세서(140)는 롬, 램, GPU 등과 구분되는 별개의 부품으로 구현되어, 다른 프로세서 및 메모리들과 연동할 수도 있다. In addition, the processor 140 may be implemented as a separate component different from a ROM, a RAM, a GPU, or the like, and may be interworked with other processors and memories.

특히, 프로세서(140)는 제2 동작 모드로 동작하는 동안 메모리(130)에 저장된 배경 영상에 대한 데이터와 통신부(110)를 통해 수신한 사용자 인터랙션을 바탕으로 컨텐츠 화면을 생성하여 디스플레이(120)에 표시되도록 제어할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트와 적어도 하나의 그래픽 오브젝트에 대응되는 그림자를 포함할 수 있으며, 이때, 그림자의 위치 및 음영은 그래픽 오브젝트의 변화에 대응하여 변경될 수 있다.In particular, the processor 140 generates a content screen based on the data of the background image stored in the memory 130 and the user interaction received through the communication unit 110 during the operation in the second operation mode, So that the display can be controlled. At this time, the content screen may include at least one graphic object on the background image and a shadow corresponding to at least one graphic object, and the position and the shadow of the shadow may be changed corresponding to the change of the graphic object.

이하에서는 도면을 참조하여 프로세서(140)의 동작에 대해 더욱 상세히 설명하기로 한다.Hereinafter, the operation of the processor 140 will be described in more detail with reference to the drawings.

도 4a 및 도 4b는 제1 동작 모드 및 제2 동작모드로 동작할 때의 전자 장치를 나타낸 예시도이다.4A and 4B are exemplary diagrams showing an electronic apparatus when operating in the first operation mode and the second operation mode.

구체적으로, 제1 동작 모드(즉, 노멀 모드)로 동작하는 동안 프로세서(140)는 외부로부터 수신된 영상 컨텐츠 또는 기 저장된 영상 컨텐츠를 표시하도록 디스플레이(120)를 제어할 수 있다, 예를 들어, 프로세서(140)는 도 4a에 도시된 바와 같이, 튜너를 통해 수신되는 방송 컨텐츠(410)를 표시하도록 디스플레이(120)를 제어할 수 있다.Specifically, while operating in the first mode of operation (i.e., the normal mode), the processor 140 may control the display 120 to display externally received image content or pre-stored image content. For example, The processor 140 may control the display 120 to display the broadcast content 410 received via the tuner, as shown in FIG. 4A.

노멀 모드로 동작하는 동안 기 설정된 사용자 명령(예를 들어, 리모컨의 특정 버튼을 선택하는 명령)이 입력되거나 기 설정된 이벤트(예를 들어, 디스플레이(120)가 오프된 상태에서 사용자를 감지하는 이벤트)가 감지된 경우, 프로세서(140)는 전자 장치(100)의 동작 모드를 제1 동작 모드에서 제2 동작 모드(즉, 배경 모드)로 전환할 수 있다.A predetermined user command (for example, a command for selecting a specific button on the remote controller) is input while operating in the normal mode, or a predetermined event (for example, an event for detecting the user with the display 120 turned off) The processor 140 may switch the operating mode of the electronic device 100 from the first operating mode to the second operating mode (i.e., the background mode).

제2 동작 모드로 동작하는 동안, 프로세서(140)는 기 저장된 배경 영상에 대한 데이터 및 통신부(110)를 통해 수신한 사용자 인터랙션을 바탕으로 배경 영상을 포함하는 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 컨텐츠 화면은 도 4b에 도시된 바와 같이, 배경 영상(420) 상에 덩굴 오브젝트와 덩굴 오브젝트에 대응되는 그림자, 시계 오브젝트(430) 와 시계 오브젝트(430)에 대응되는 그림자(440)를 포함할 수 있다. 그러나, 이에 한정되는 것은 아니고, 배경 영상(420) 상에는 나무 오브젝트, 어항 오브젝트, 메모 오브젝트 등 다양한 오브젝트 및 이에 대응하는 그림자를 포함할 수 있음은 물론이다.During the operation in the second operation mode, the processor 140 displays the data on the pre-stored background image and the display 120 including the background image on the basis of the user interaction received through the communication unit 110 Can be controlled. 4B, the content screen includes a shadow object corresponding to the vine object and the vine object, a clock object 430 and a shadow 440 corresponding to the clock object 430 on the background image 420 can do. However, the present invention is not limited to this, and it goes without saying that the background image 420 may include various objects such as a tree object, a fishery object, a memo object, and corresponding shadows.

도 5a 내지 도 5c는 본 개시의 일 실시예에 따른, 프로세서에 의해 생성되는 다양한 레이어에 대해 설명한 예시도이다.Figures 5A-5C illustrate various layers created by a processor, in accordance with one embodiment of the present disclosure.

구체적으로, 프로세서(140)는 배경 영상 레이어(510), 그림자 레이어(520) 및 오브젝트 레이어(530)를 생성할 수 있다. 이때, 프로세서(140)는 도 5a에 도시된 바와 같이, 배경 영상 레이어(510), 그림자 레이어(520), 오브젝트 레이어(530) 순으로 앞으로 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다.Specifically, the processor 140 may generate a background image layer 510, a shadow layer 520, and an object layer 530. At this time, the processor 140 may control the display 120 to display the background image layer 510, the shadow layer 520, and the object layer 530 in the forward order as shown in FIG. 5A.

한편, 도 5a에서는 오브젝트 레이어(530)가 1개, 그림자 레이어(520)가 1개 생성되는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 복수 개의 오브젝트 레이어 및 복수의 그림자 레이어가 생성될 수 있다. 5A, one object layer 530 and one shadow layer 520 are generated. However, this is only an example, and a plurality of object layers and a plurality of shadow layers may be generated .

예를 들어, 프로세서(130)는 시계 오브젝트를 포함하는 오브젝트 레이어 및 덩굴 오브젝트를 포함하는 오브젝트 레이어를 생성할 수 있으며, 각각의 오브젝트에 대응되는 그림자 레이어들을 생성할 수 있다. 복수의 오브젝트 레이어가 생성되는 경우, 프로세서(130)는 더욱 앞에 보이고자 하는 오브젝트를 포함하는 오브젝트 레이어를 앞에 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 시계 오브젝트를 포함하는 오브젝트 레이어 및 덩굴 오브젝트를 포함하는 오브젝트 레이어가 생성된 경우, 프로세서(130)는 시계 오브젝트를 포함하는 오브젝트 레이어를 덩굴 오브젝트를 포함하는 오브젝트 레이어보다 앞에 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다. For example, the processor 130 may generate an object layer including a clock object and an object layer including a vine object, and may generate shadow layers corresponding to each object. When a plurality of object layers are generated, the processor 130 may control the display 120 to arrange and display an object layer including an object to be displayed earlier. For example, when an object layer including a clock object and an object layer including a vine object are generated, the processor 130 arranges the object layer including the clock object in front of the object layer including the vine object, The display 120 can be controlled.

마찬가지로, 도 5b에 도시된 바와 같이, 프로세서(140)는 인터랙션 레이어(540)를 더 생성할 수 있다. 인터랙션 레이어(540)에는 도 5b에 도시된 바와 같이, 사용자 인터랙션에 대응하는 인터랙션 오브젝트(450)가 표시될 수 있다. 이때, 프로세서(140)는 인터랙션 레이어(540)를 오브젝트 레이어(530)보다 앞에 배치하여 시계 오브젝트 및 덩굴 오브젝트보다 앞쪽에 인터랙션 오브젝트(450)을 표시하도록 디스플레이(120)를 제어할 수 있다. 다만, 이는 일 실시예에 불과할 뿐, 인터랙션 레이어(540)는 오브젝트 레이어(530) 뒤쪽에 생성될 수 있음은 물론이다.Similarly, as shown in FIG. 5B, the processor 140 may further generate an interaction layer 540. FIG. In the interaction layer 540, as shown in FIG. 5B, an interaction object 450 corresponding to a user interaction may be displayed. At this time, the processor 140 may control the display 120 to arrange the interaction layer 540 in front of the object layer 530 to display the interaction object 450 ahead of the clock object and the vine object. Of course, this is only an example, and the interaction layer 540 may be generated behind the object layer 530. [

그러나 인터랙션 오브젝트는 하나의 오브젝트레이어에 표시될 수도 있음은 물론이다. 즉, 도 5c에 도시된 바와 같이 오브젝트 레이어는 덩굴 오브젝트, 시계 오브젝트 및 인터랙션 오브젝트를 모두 포함할 수 있다.However, it goes without saying that the interaction object may be displayed in one object layer. That is, as shown in FIG. 5C, the object layer may include both a vine object, a clock object, and an interaction object.

한편, 전자 장치(100)가 디스플레이(120)의 가장 자리에 배치되는 베젤 및 외곽 프레임을 포함하는 경우, 프로세서(140)는 외곽 프레임에 대한 그림자에 대한 외곽 프레임 그림자 레이어를 더 포함할 수 있다.Meanwhile, when the electronic device 100 includes a bezel and an outer frame disposed at the edge of the display 120, the processor 140 may further include an outer frame shadow layer for the shadow for the outer frame.

도 6a 및 도 6b는 본 개시의 일 실시예에 따른 사용자 인터랙션을 설명하기 위한 도면이다.6A and 6B are diagrams for explaining user interaction according to an embodiment of the present disclosure.

도 6a에 도시된 바와 같이, 전자 장치(100)의 오브젝트 레이어에는 덩굴 오브젝트가 표시될 수 있다. 전자 장치(100)는 외부 전자 장치(600)으로부터 사용자 인터랙션을 수신할 수 있다.As shown in Fig. 6A, a vine object may be displayed on the object layer of the electronic device 100. Fig. The electronic device 100 may receive user interaction from the external electronic device 600.

구체적으로, 외부 전자 장치(600)이 스마트 폰인 경우, 외부 전자 장치(600)는 전자 장치(100)가 디스플레이 하고 있는 컨텐츠 영상(620)에 관한 정보를 수신할 수 있다. 컨텐츠 영상(620)을 수신한 외부 전자 장치(600)는 전자 장치(100)와 동일한 컨텐츠 영상(610)을 디스플레이 할 수 있다.Specifically, when the external electronic device 600 is a smart phone, the external electronic device 600 may receive information about the content image 620 that the electronic device 100 is displaying. The external electronic device 600 receiving the content image 620 can display the same content image 610 as the electronic device 100. [

전자 장치(100)는 외부 전자 장치(610)를 통해 감지된 사용자 인터랙션을 입력 받을 수 있다. 예를 들어, 사용자는 외부 전자 장치(600)에 표시된 컨텐츠 영상(610)에 그림을 그리는 듯한 낙서(612)를 할 수 있다. 이때 사용자 인터랙션은 낙서 인터랙션일 수 있다. 외부 전자 장치(610)는 수신한 사용자 인터랙션에 대응되는 인터랙션 오브젝트(612)를 디스플레이에 표시함과 동시에, 인터랙션 오브젝트(612)에 대응되는 데이터를 전자 장치(100)로 전송할 수 있다. 전자 장치(100)는 외부 전자 장치(600)로부터 수신한 데이터에 대응되는 인터랙션 오브젝트(622)를 디스플레이(120)에 표시할 수 있다. 이때, 전자 장치(100)는 인터랙션 오브젝트(620)를 포함하는 인터랙션 레이어를 생성할 수 있으나, 이는 일 실시예에 불과할 뿐, 오브젝트 레이어에 인터랙션 오브젝트(620)를 생성할 수 있다.The electronic device 100 may receive the user interaction sensed through the external electronic device 610. For example, the user can graffitize the content image 610 displayed on the external electronic device 600 as if drawing the image 610. At this time, the user interaction may be a graffiti interaction. The external electronic device 610 can display the interaction object 612 corresponding to the received user interaction on the display and transmit the data corresponding to the interaction object 612 to the electronic device 100. [ The electronic device 100 can display the interaction object 622 corresponding to the data received from the external electronic device 600 on the display 120. [ At this time, the electronic device 100 may generate an interaction layer including the interaction object 620, but this is merely an example, and the interaction object 620 can be generated in the object layer.

한편, 도 6b에 도시된 바와 같이, 사용자 인터랙션은 리모컨(605)를 통해 입력될 수 있다. 이때, 리모컨(605)은 포인팅 디바이스로 구현되며, 전자 장치(100)는 리모컨(605)이 포인팅하는 지점을 감지하여 사용자 인터랙션을 입력받을 수 있다. 그리고, 전자 장치(100)는 리모컨(605)을 이용한 사용자 인터랙션에 대응되는 인터랙션 오브젝트(622)를 인터랙션 레이어에 표시할 수 있다.On the other hand, as shown in FIG. 6B, the user interaction may be input through the remote controller 605. [ At this time, the remote controller 605 is implemented as a pointing device, and the electronic device 100 can receive a user interaction by detecting a point where the remote controller 605 points. Then, the electronic device 100 can display the interaction object 622 corresponding to the user interaction using the remote controller 605 on the interaction layer.

상술한 실시예에서는 스마트폰(600) 또는 리모컨(605)를 이용하여 인터랙션 오브젝트를 표시하는 방법에 대하여 설명하였으나, 이에 한정되는 것은 아니다. 즉, 상술한 바와 같이, 사용자 인터랙션은 다양한 방식에 의해 전자 장치(100)에서 감지될 수 있다. 예를 들어, 사용자 인터랙션은 전자 장치(100)에 구비된 터치패널에 의해 감지될 수도 있으며, 그외 상술한 다양한 센서등에 의해 감지될 수도 있음은 물론이다.In the above-described embodiment, a method of displaying an interaction object using the smartphone 600 or the remote controller 605 has been described, but the present invention is not limited thereto. That is, as described above, the user interaction can be sensed in the electronic device 100 in a variety of ways. For example, the user interaction may be sensed by a touch panel provided on the electronic device 100, or may be sensed by the various sensors described above.

도 7a 내지 도 9b는 사용자 인터랙션에 대응하여 그래픽 오브젝트가 변경되는 여러 실시예를 설명하기 위한 예시도이다.FIGS. 7A and 9B are diagrams for explaining various embodiments in which a graphic object is changed corresponding to a user interaction.

도 7a 내지 도 7c는 전자 장치(100)에 덩굴 오브젝트가 표시된 경우 사용자 인터랙션에 대응되는 덩굴 오브젝트의 변경을 설명하기 위한 예시도이다.7A to 7C are diagrams for explaining a change of a vine object corresponding to a user interaction when a vine object is displayed on the electronic device 100. Fig.

도 7a에 도시된 바와 같이, 전자 장치(100)의 오브젝트 레이어에는 덩굴 오브젝트가 표시될 수 있다. 사용자 인터랙션이 수신된 경우, 전자 장치(100)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 인터랙션 레이어에 디스플레이 할 수 있다. 구체적으로, 도 7b에 도시된 바와 같이, 인터랙션 오브젝트는 川의 형태일 수 있다.As shown in Fig. 7A, a vine object may be displayed in the object layer of the electronic device 100. Fig. When the user interaction is received, the electronic device 100 can display the interaction object corresponding to the user interaction on the interaction layer. Specifically, as shown in FIG. 7B, the interaction object may be in the form of a river.

한편, 전자 장치(100)는 사용자 인터랙션에 대응되는 오브젝트 레이어의 오브젝트를 변경시킬 수 있다. 구체적으로, 도 7c에 도시된 바와 같이, 전자 장치(100)에 표시된 인터랙션 오브젝트가 사라지면서, 디스플레이(120)상에 비가 내리는 효과를 표시하기 위하여 오브젝트 레이어에는 복수개의 빗방울 오브젝트가 추가될 수 있다. 이때, 전자 장치(100)는 복수개의 빗방울 오브젝트가 추가됨과 동시에, 인터랙션 오브젝트가 사라지도록 디스플레이(120)를 제어할 수 있다. 그러나 이에 한정되는 것은 아니고, 복수개의 빗방울 오브젝트와 인터랙션 오브젝트가 동시에 표시될 수 있다. 또한, 인터랙션 오브젝트가 먼저 사라지고, 기 설정된 시간이 지난 후, 복수개의 빗방울 이미지가 표시될 수도 있다.On the other hand, the electronic device 100 can change the object of the object layer corresponding to the user interaction. Specifically, as shown in FIG. 7C, a plurality of raindrop objects may be added to the object layer to display the effect of rain on the display 120, as the interaction objects displayed on the electronic device 100 disappear. At this time, the electronic device 100 can control the display 120 such that a plurality of raindrop objects are added and the interaction objects disappear. However, the present invention is not limited to this, and a plurality of raindrop objects and interaction objects can be simultaneously displayed. In addition, a plurality of raindrop images may be displayed after the interaction object disappears first and a predetermined time elapses.

도 8a 내지 도 8c는 전자 장치(100)에 복수의 물고기 오브젝트가 표시된 경우 사용자 인터랙션에 대응되는 복수의 물고기 오브젝트의 변경을 설명하기 위한 예시도이다.Figs. 8A to 8C are diagrams for explaining a change of a plurality of fish objects corresponding to a user interaction when a plurality of fish objects are displayed on the electronic device 100. Fig.

도 8a에 도시된 바와 같이, 전자 장치(100)의 오브젝트 레이어에는 복수의 오브젝트가 표시될 수 있다. 사용자 인터랙션을 수신한 경우, 전자 장치(100)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 인터랙션 레이어에 디스플레이 할 수 있다. 구체적으로, 도 8b에 도시된 바와 같이, 인터랙션 오브젝트는 하트 형태의 낙서일 수 있다.As shown in FIG. 8A, a plurality of objects can be displayed in the object layer of the electronic device 100. FIG. When receiving the user interaction, the electronic device 100 can display the interaction object corresponding to the user interaction on the interaction layer. Specifically, as shown in FIG. 8B, the interaction object may be a heart-shaped graffiti.

전자 장치(100)는 사용자 인터랙션에 대응하여 오브젝트 레이어의 오브젝트를 변경시킬 수 있다. 구체적으로, 도 8c에 도시된 바와 같이, 전자 장치(100)에 표시된 인터랙션 오브젝트가 사라지면서, 복수의 물고기가 새끼 물고기를 낳는 것을 표현하기 위해 오브젝트 레이어에는 복수의 새끼 물고기를 추가할 수 있다.The electronic device 100 can change the object of the object layer in response to the user interaction. Specifically, as shown in FIG. 8C, as the interaction objects displayed on the electronic device 100 disappear, a plurality of young fish can be added to the object layer to express that a plurality of fish give birth to a young fish.

한편, 상술한 실시예에서는 사용자 인터랙션에 대응하여 오브젝트가 추가되는 경우에 대하여 설명하였으나 오브젝트가 삭제, 변경, 이동 될 수도 있음은 물론이다. 다른 실시예로, 사용자 인터랙션에 대응하여 오브젝트의 크기, 개수, 위치, 색, 밝기 중 적어도 하나가 변경될 수도 있다.Meanwhile, in the above-described embodiment, the case where the object is added in response to the user interaction has been described, but it goes without saying that the object may be deleted, changed, or moved. In another embodiment, at least one of the size, number, position, color, and brightness of the object may be changed corresponding to the user interaction.

한편, 사용자 인터랙션에 대응되는 오브젝트의 변경은 이미 프로그램되어 메모리(130)에 저장된 것일 수 있다. 즉, 덩굴 오브젝트를 표시하는 컨텐츠 화면에 대해 제1 사용자 인터랙션이 감지되면 복수의 빗방울 오브젝트를 추가하여 표시하고, 물고기 오브젝트를 표시하는 컨텐츠 화면에 대해 제2 사용자 인터랙션이 감지되면 새끼 물고기 오브젝트를 추가하여 표시하는 특징은 미리 프로그램되어 저장될 수 있다. 그러나 이에 한정되는 것은 아니고, 다양한 기계 학습을 통해 감지된 인터랙션에 대한 오브젝트의 변경을 결정할 수 있음은 물론이다. 이를 위해 딥러닝과 같은 인공지능 알고리즘이 이용될 수 있다.On the other hand, the change of the object corresponding to the user interaction may be already programmed and stored in the memory 130. That is, when a first user interaction is detected on a content screen displaying a vine object, a plurality of raindrop objects are additionally displayed, and when a second user interaction is detected on a content screen displaying a fish object, The features to be displayed can be pre-programmed and stored. However, the present invention is not limited to this, and it is needless to say that the change of the object for the interaction detected through various machine learning can be determined. An artificial intelligence algorithm such as deep learning can be used for this purpose.

예를 들어, 제2 사용자 인터랙션이 하트를 그리는 낙서 인터랙션인 경우, 사용자에 따라서 하트의 모양이 상이할 수 있다. 즉, 사용자가 하트 모양의 낙서를 의도한 경우에도, 전자 장치(100)는 사용자의 낙서를 하트 모양으로 인식하지 못할 수 있다. 이러한 경우, 전자 장치(100)는 학습을 통해 사용자의 낙서를 판단할 수 있다. 예를 들어, 제1 사용자가 하트를 굴곡지고, 개곡선이 되도록 그리는 경우, 전자 장치(100)는 둥글고 폐곡선인 낙서를 하트로 인식하지 않을 수 있다. 또는, 제2 사용자가 하트를 둥글고 폐곡선이 되도록 그리는 경우, 전자 장치(100)는 굴곡지고 개곡선인 낙서를 하트로 인식하지 않을 수 있다. 결론적으로, 전자 장치(100)는 기계 학습을 통해 사용자가 의도한 낙서(예를 들어, 하트인지, 별인지)를 판단할 수 있다.For example, if the second user interaction is a graffiti interaction that draws a heart, the shape of the heart may be different depending on the user. That is, even if the user intends to perform heart-shaped graffiti, the electronic device 100 may not recognize the user's graffiti as a heart. In this case, the electronic device 100 can determine the user's graffiti through learning. For example, if the first user draws the heart to be curved and open, the electronic device 100 may not recognize the graffiti, which is a round, closed curve, as a heart. Alternatively, when the second user draws the heart to be round and closed, the electronic device 100 may not recognize the curved, open-faced graffiti as a heart. Consequently, the electronic device 100 can determine a user's intended graffiti (e. G., Heart or star) through machine learning.

도 9는 본 개시의 일 실시예에 따른, 사용자 인터랙션에 대응되는 오브젝트의 변경이 불가능한 경우를 설명하기 위한 예시도이다.9 is an exemplary diagram for explaining a case where it is impossible to change an object corresponding to a user interaction according to an embodiment of the present disclosure.

사용자 인터랙션에 대응하는 기능이 메모리(130)에 저장되어 있지 않은 경우, 전자 장치는 오브젝트 이미지를 변경하지 않을 수 있다. 예를 들어 도 9a 및 도 9b에 도시된 바와 같이, 오브젝트 레이어에 덩굴 오브젝트가 표시된 상태에서 사용자 인터랙션이 입력된 경우, 전자 장치(100)는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 인터랙션 레이어에 표시할 수 있다. 이때, 사용자 인터랙션에 대응되는 명령이 저장되어 있지 않은 경우, 전자 장치(100)는 오브젝트 레이어에 표시된 레이어를 유지할 수 있다. 이때, 인터랙션 오브젝트는 기 설정된 시간이 경과한 후 소멸할 수 있다. 그러나 이에 한정되는 것은 아니고, 인터랙션 오브젝트를 소멸시키기 위한 사용자 명령에 대응하여 소멸될 수도 있음은 물론이다. If the function corresponding to the user interaction is not stored in the memory 130, the electronic device may not change the object image. For example, as shown in FIGS. 9A and 9B, when a user interaction is input while a vine object is displayed on an object layer, the electronic device 100 can display an interaction object corresponding to a user interaction on an interaction layer have. At this time, if the command corresponding to the user interaction is not stored, the electronic device 100 can maintain the layer displayed on the object layer. At this time, the interaction object may disappear after a predetermined time elapses. However, the present invention is not limited to this, and it goes without saying that it may be canceled corresponding to a user command for destroying an interaction object.

도 10은 본 개시의 일 실시예에 따른, 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.10 is a flow chart for explaining a control method of an electronic device according to an embodiment of the present disclosure;

먼저, 전자 장치(100)는 배경 영상 레이어에 표시하기 위한 데이터를 저장 할 수 있다(S1010). 이때, 배경 영상은 전자 장치(100) 후방의 배경 영상일 수 있다.First, the electronic device 100 may store data for display on a background image layer (S1010). At this time, the background image may be a background image behind the electronic device 100.

다음으로, 전자 장치(100)는 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어 및 후방 배경 영상을 포함하는 배경 영상 레이어를 포함하는 컨텐츠 화면을 생성할 수 있다(S1020). 즉, 전자 장치(100)는 배경 영상 레이어에 후방 배경 영상을, 오브젝트 레이어에 그래픽 오브젝트를 디스플레이 할 수 있다. 이때, 생성된 컨텐츠 화면은 디스플레이(120)를 통해 표시될 수도 있고, 외부 디스플레이 장치로 전송될 수도 있다.Next, the electronic device 100 may generate a content screen including an object layer including at least one graphic object and a background image layer including a background image (S1020). That is, the electronic device 100 can display a background image in a background image layer and a graphic object in an object layer. At this time, the generated content screen may be displayed on the display 120 or may be transmitted to an external display device.

다음으로, 전자 장치(100)는 디스플레이(120) 주변의 사용자 인터랙션에 대응되는 신호를 통신부를 통해 수신할 수 있다(S1030). 상술한 바와 같이, 사용자 인터랙션은 스마트폰, 리모컨과 같은 외부 전자 장치로부터 획득될 수도 있으며, 카메라 센서를 통해 사용자 모션을 감지하여 획득될 수도 있다.Next, the electronic device 100 can receive a signal corresponding to user interaction around the display 120 through the communication unit (S1030). As described above, the user interaction may be obtained from an external electronic device such as a smart phone or a remote control, and may be obtained by sensing user motion through a camera sensor.

사용자 인터랙션을 수신한 경우, 전자 장치는 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 추가하여 컨텐츠 화면을 생성할 수 있다.(S1040). When the user interaction is received, the electronic device can generate the content screen by adding an interaction layer including the interaction object corresponding to the user interaction (S1040).

상술한 다양한 실시예에서는 사용자 인터랙션에 대응되는 그래픽 오브젝트의 변경이 투명 전자 장치에서 수행되는 경우에 대하여 설명하였다. 그러나 이에 한정되는 것은 아니며, 상술한 바와 같이 디스플레이를 포함하는 다양한 전자 장치 또는 디스플레이를 포함하지 않는 전자 장치에도 본 개시의 기술적 사상이 적용될 수 있음은 물론이다.In the above-described various embodiments, the case where the change of the graphic object corresponding to the user interaction is performed in the transparent electronic device has been described. However, it is needless to say that the technical idea of the present disclosure can be applied to various electronic apparatuses or electronic apparatuses not including a display as described above.

한편, 상술한 다양한 실시 예에 따른 제어 방법은 프로그램으로 구현되어 전자 장치에 제공될 수 있다. 특히, 제어 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. Meanwhile, the control method according to the various embodiments described above can be implemented by a program and provided to an electronic device. In particular, a program including a control method may be stored in a non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

또한, 이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of this disclosure.

100: 전자 장치 110: 통신부
120: 디스플레이 130: 메모리
140: 프로세서 150: 방송 수신부
155: 신호 분리부 160: A/V 처리부
165: 오디오 출력부 170: 영상 신호 생성부
175: 센서 180: 조작부
100: electronic device 110: communication unit
120: display 130: memory
140: Processor 150: Broadcast receiver
155: Signal separator 160: A / V processor
165: audio output unit 170:
175: sensor 180:

Claims (15)

전자 장치에 있어서,
통신부;
상기 전자 장치의 후방 배경 영상을 저장하는 메모리; 및
적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어 및 상기 후방 배경 영상을 포함하는 배경 영상 레이어를 포함하는 컨텐츠 화면을 생성하는 프로세서;를 포함하고,
상기 프로세서는, 사용자 단말 장치에서 입력되는 사용자 인터랙션에 대응되는 신호를 상기 통신부를 통해 수신하면, 상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터렉션 레이어를 추가하여 상기 컨텐츠 화면을 생성하는 것을 특징으로 하는 전자 장치.
In an electronic device,
A communication unit;
A memory for storing a background background image of the electronic device; And
A processor for generating a content screen including an object layer including at least one graphic object and a background image layer including the background image,
Wherein the processor generates the content screen by adding an interaction layer including an interaction object corresponding to the user interaction when receiving a signal corresponding to the user interaction input from the user terminal through the communication unit Electronic device.
제1항에 있어서,
상기 컨텐츠 화면은 상기 오브젝트 레이어 및 상기 배경 영상 레이어 사이에 그림자 레이어를 더 포함하고,
상기 프로세서는,
상기 그래픽 오브젝트에 대응되는 그림자를 상기 그림자 레이어에 생성하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
Wherein the content screen further comprises a shadow layer between the object layer and the background image layer,
The processor comprising:
And generates a shadow corresponding to the graphics object in the shadow layer.
제2항에 있어서,
상기 그림자 레이어는,
상기 인터랙션 오브젝트에 대응되는 그림자를 더 포함하는 것을 특징으로 하는 전자 장치.
3. The method of claim 2,
The shadow layer,
Further comprising a shadow corresponding to the interaction object.
제1항에 있어서,
상기 프로세서는,
상기 사용자 인터랙션을 기초로 상기 그래픽 오브젝트의 크기, 개수, 위치, 색, 밝기 중 적어도 하나를 변경하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
And changes at least one of size, number, position, color, and brightness of the graphic object based on the user interaction.
제4항에 있어서,
상기 그래픽 오브젝트가 변경되는 경우, 상기 변경된 그래픽 오브젝트에 대응되는 그림자가 변경되는 것을 특징으로 하는 전자 장치.
5. The method of claim 4,
Wherein when the graphic object is changed, a shadow corresponding to the changed graphic object is changed.
제1항에 있어서,
상기 메모리는,
상기 사용자 인터랙션에 대응되는 상기 적어도 하나의 그래픽 오브젝트의 변경에 대한 데이터를 저장하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The memory comprising:
And stores data on the change of the at least one graphical object corresponding to the user interaction.
제1항에 있어서, 디스플레이; 를 더 포함하고,
상기 프로세서는, 상기 생성된 컨텐츠 화면을 표시하기 위해 상기 디스플레이를 제어하는 것을 특징으로 하는 전자 장치.
2. The apparatus of claim 1, further comprising: a display; Further comprising:
Wherein the processor controls the display to display the generated content screen.
전자 장치의 제어 방법에 있어서,
상기 전자 장치에 저장된 후방 배경 영상을 포함하는 컨텐츠 화면을 표시하는 단계;
사용자 단말 장치에서 입력되는 사용자 인터랙션을 수신하는 단계; 및
상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 추가하여 상기 컨텐츠 화면을 생성하는 단계; 를 포함하고,
상기 컨텐츠 화면은, 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 상기 후방 배경 영상을 포함하는 배경 영상 레이어 및 상기 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 포함하는 제어 방법.
A method of controlling an electronic device,
Displaying a content screen including a background background image stored in the electronic device;
Receiving a user interaction input from a user terminal; And
Adding an interaction layer including an interaction object corresponding to the user interaction to generate the content screen; Lt; / RTI >
Wherein the content screen includes an object layer including at least one graphic object, a background image layer including the background image, and an interaction layer including the interaction object.
제8항에 있어서,
상기 컨텐츠 화면은 상기 오브젝트 레이어 및 상기 배경 영상 레이어 사이에 그림자 레이어를 더 포함하고,
상기 생성하는 단계는,
상기 그래픽 오브젝트에 대응되는 그림자를 상기 그림자 레이어에 생성하는 것을 특징으로 하는 제어 방법.
9. The method of claim 8,
Wherein the content screen further comprises a shadow layer between the object layer and the background image layer,
Wherein the generating comprises:
And a shadow corresponding to the graphic object is generated in the shadow layer.
제8항에 있어서,
상기 그림자 레이어는,
상기 인터랙션 오브젝트에 대응되는 그림자를 더 포함하는 것을 특징으로 하는 제어 방법.

9. The method of claim 8,
The shadow layer,
Further comprising a shadow corresponding to the interaction object.

제8항에 있어서,
상기 생성하는 단계는,
상기 사용자 인터랙션을 기초로 상기 그래픽 오브젝트의 크기, 개수, 위치, 색, 밝기 중 적어도 하나를 변경하는 것을 특징으로 하는 제어 방법.
9. The method of claim 8,
Wherein the generating comprises:
Wherein at least one of size, number, position, color, and brightness of the graphic object is changed based on the user interaction.
제9항에 있어서,
상기 그래픽 오브젝트가 변경되는 경우, 상기 변경된 그래픽 오브젝트에 대응되는 그림자가 변경되는 것을 특징으로 하는 제어 방법.
10. The method of claim 9,
Wherein when the graphic object is changed, the shadow corresponding to the changed graphic object is changed.
제8항에 있어서,
상기 저장하는 단계는,
상기 사용자 인터랙션에 대응되는 상기 그래픽 오브젝트의 변경에 대한 데이터를 저장하는 것을 특징으로 하는 제어 방법.
9. The method of claim 8,
Wherein the storing step comprises:
Wherein the data for the change of the graphic object corresponding to the user interaction is stored.
제8항에 있어서,
상기 컨텐츠 화면을 표시하는 단계; 를 더 포함하는 제어 방법.
9. The method of claim 8,
Displaying the content screen; ≪ / RTI >
전자 장치를 실행하는 프로그램을 포함하는 컴퓨터 판독 가능 기록 매체에 있어서,
상기 전자 장치의 제어 방법은,
상기 전자 장치에 저장된 후방 배경 영상을 포함하는 컨텐츠 화면을 표시하는 단계;
사용자 단말 장치에서 입력되는 사용자 인터랙션을 수신하는 단계; 및
상기 사용자 인터랙션에 대응되는 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 추가하여 상기 컨텐츠 화면을 생성하는 단계; 를 포함하고,
상기 컨텐츠 화면은, 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 상기 후방 배경 영상을 포함하는 배경 영상 레이어 및 상기 인터랙션 오브젝트를 포함하는 인터랙션 레이어를 포함하는 제어 방법.
A computer-readable recording medium containing a program for executing an electronic device,
The control method of the electronic device includes:
Displaying a content screen including a background background image stored in the electronic device;
Receiving a user interaction input from a user terminal; And
Adding an interaction layer including an interaction object corresponding to the user interaction to generate the content screen; Lt; / RTI >
Wherein the content screen includes an object layer including at least one graphic object, a background image layer including the background image, and an interaction layer including the interaction object.
KR1020170047775A 2017-04-13 2017-04-13 Display apparatus and Method for controlling the display apparatus thereof KR20180115449A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020170047775A KR20180115449A (en) 2017-04-13 2017-04-13 Display apparatus and Method for controlling the display apparatus thereof
US15/797,353 US10950206B2 (en) 2017-04-13 2017-10-30 Electronic apparatus and method for displaying contents thereof
PCT/KR2018/002723 WO2018190517A1 (en) 2017-04-13 2018-03-07 Electronic apparatus and method for displaying contents thereof
EP18784158.0A EP3552087A4 (en) 2017-04-13 2018-03-07 Electronic apparatus and method for displaying contents thereof
CN201880020502.7A CN110476147B (en) 2017-04-13 2018-03-07 Electronic device and method for displaying content thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170047775A KR20180115449A (en) 2017-04-13 2017-04-13 Display apparatus and Method for controlling the display apparatus thereof

Publications (1)

Publication Number Publication Date
KR20180115449A true KR20180115449A (en) 2018-10-23

Family

ID=64101738

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170047775A KR20180115449A (en) 2017-04-13 2017-04-13 Display apparatus and Method for controlling the display apparatus thereof

Country Status (1)

Country Link
KR (1) KR20180115449A (en)

Similar Documents

Publication Publication Date Title
US10629167B2 (en) Display apparatus and control method thereof
CN104408385A (en) Equipment and method for hiding privacy content in terminal
US11094105B2 (en) Display apparatus and control method thereof
JP7181375B2 (en) Target object motion recognition method, device and electronic device
US10319345B2 (en) Portable terminal and method for partially obfuscating an object displayed thereon
CN109448050B (en) Method for determining position of target point and terminal
US20180174555A1 (en) Display apparatus and display method thereof
WO2023000677A1 (en) Content item display method and apparatus
KR20200061279A (en) Electronic apparatus and control method thereof
US20190012129A1 (en) Display apparatus and method for controlling display apparatus
EP4343580A1 (en) Media file processing method and apparatus, device, readable storage medium, and product
US10950206B2 (en) Electronic apparatus and method for displaying contents thereof
KR20180072337A (en) Display apparatus, electronic apparatus, display system comprising display appartus and electronic apparatus, and control methods thereof
CN114365504A (en) Electronic device and control method thereof
KR20160060385A (en) Apparatus and method for inputting korean based on a motion of users fingers
US11810336B2 (en) Object display method and apparatus, electronic device, and computer readable storage medium
KR20180115449A (en) Display apparatus and Method for controlling the display apparatus thereof
CN116801027A (en) Display device and screen projection method
US10949704B2 (en) Electronic apparatus and control method thereof
US20220345787A1 (en) Voice processing method and apparatus, electronic device, and computer readable storage medium
KR20180071619A (en) Display apparatus and method for displaying
KR102604170B1 (en) Electronic apparatus and the control method thereof
CN113110903A (en) Content display method and device
CN107924276B (en) Electronic equipment and text input method thereof
KR20210049582A (en) Electronic apparatus and controlling method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application