KR20140102386A - 디스플레이장치 및 그 제어방법 - Google Patents

디스플레이장치 및 그 제어방법 Download PDF

Info

Publication number
KR20140102386A
KR20140102386A KR1020130015457A KR20130015457A KR20140102386A KR 20140102386 A KR20140102386 A KR 20140102386A KR 1020130015457 A KR1020130015457 A KR 1020130015457A KR 20130015457 A KR20130015457 A KR 20130015457A KR 20140102386 A KR20140102386 A KR 20140102386A
Authority
KR
South Korea
Prior art keywords
content
edition
image
display device
original content
Prior art date
Application number
KR1020130015457A
Other languages
English (en)
Inventor
조성현
김준걸
박희선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130015457A priority Critical patent/KR20140102386A/ko
Priority to PCT/KR2013/011566 priority patent/WO2014126331A1/en
Priority to US14/178,760 priority patent/US20140229823A1/en
Publication of KR20140102386A publication Critical patent/KR20140102386A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/02Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators
    • G06F15/025Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application
    • G06F15/0291Digital computers in general; Data processing equipment in general manually operated with input through keyboard and computation using a built-in program, e.g. pocket calculators adapted to a specific application for reading, e.g. e-books
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)

Abstract

본 발명의 실시예에 따른 디스플레이장치는, 디스플레이부와; 소정의 오리지널(original) 컨텐츠를 제공하는 외부장치와 통신하는 통신부와; 통신부를 통해 외부장치로부터 제공되는 오리지널 컨텐츠를 디스플레이부에 영상으로 표시되게 실행 및 처리하는 컨텐츠처리부와; 오리지널 컨텐츠에 대한 사용자의 편집 및 이 편집 결과가 오리지널 컨텐츠에 다이렉트로 업데이트되지 않고 오리지널 컨텐츠와 별도의 에디션(edition) 컨텐츠로 생성될 수 있도록 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

디스플레이장치 및 그 제어방법 {DISPLAY APPARATUS AND CONTROL METHOD THEREOF}
본 발명은 다양한 형태의 컨텐츠 데이터를 처리하여 컨텐츠 영상을 표시할 수 있는 디스플레이장치 및 그 제어방법에 관한 것으로서, 상세하게는 원본 컨텐츠을 다양한 방법으로 편집함으로써 생성된 에디션(edition) 컨텐츠를 제공받아 실행시키는 구조의 디스플레이장치 및 그 제어방법에 관한 것이다.
디스플레이장치는 자체적으로 영상을 표시하기 위한 디스플레이 패널을 구비하고, 외부로부터 수신되거나 또는 자체적으로 내장된 컨텐츠 데이터를 처리함으로써 컨텐츠 영상을 표시할 수 있는 장치이다. 디스플레이장치는 기본적으로 영상을 제공하기 위한 목적을 위해 다양한 방식으로 구현되는 바, 일반 사용자를 대상으로 예를 들면 TV, 컴퓨터 모니터, 휴대용 멀티미디어 플레이어, 태블릿 컴퓨터, 모바일 폰 등이 있다.
디스플레이장치가 처리 및 표시할 수 있는 컨텐츠 데이터로는 동영상, 게임, 웹 페이지, 어플리케이션 등이 있으며, 근래에는 서적을 데이터화하여 디스플레이장치 상에 영상으로 표시하도록 구현된 이북(e-book)이 사용자에게 제공되고 있다.
통상적으로 이북은 출판인이 출판한 상태 그대로 사용자에게 제공된다. 예를 들면, 이북은 각 페이지의 텍스트 및 삽화에 대한 내용, 형태, 폰트, 스타일, 배치관계 등이 출판인에 의해 결정된 상태대로 디스플레이장치에 표시된다. 따라서, 사용자는 출판인이 제공하는 상태대로 이북을 실행 및 표시할 수 있을 뿐이며, 사용자가 어떠한 이북에 대한 수정/보완 등의 사항을 반영하는 것과, 해당 이북을 수정/보완한 에디션 버전(edition version)을 타 사용자와 공유를 하는 것은 용이하지 않다.
또한, 컨텐츠 제공자가 어떠한 이북의 오리지널 버전을 편집하여 생성한 에디션 버전을 제공한다고 하더라도, 사용자는 오리지널 버전의 데이터량과 유사하거나 그 이상의 데이터량을 다운로드해야 하는 불편함이 있을 수 있다.
본 발명의 실시예에 따른 디스플레이장치는, 디스플레이부와; 소정의 오리지널(original) 컨텐츠를 제공하는 외부장치와 통신하는 통신부와; 상기 통신부를 통해 상기 외부장치로부터 제공되는 상기 오리지널 컨텐츠를 상기 디스플레이부에 영상으로 표시되게 실행 및 처리하는 컨텐츠처리부와; 상기 오리지널 컨텐츠에 대한 사용자의 편집 및 상기 편집 결과가 상기 오리지널 컨텐츠에 다이렉트로 업데이트되지 않고 상기 오리지널 컨텐츠와 별도의 에디션(edition) 컨텐츠로 생성될 수 있도록 제어하는 제어부를 포함하는 것을 특징으로 한다.
또한, 상기 제어부는 소정의 제1디스플레이장치가 상기 외부장치에 통신 접속할 때에 상기 제1디스플레이장치가 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되었는지 여부에 따라서 상기 외부장치가 선택적으로 상기 에디션 컨텐츠를 상기 제1디스플레이장치에 제공할 수 있도록, 상기 생성한 에디션 컨텐츠를 상기 외부장치에 전송할 수 있다.
여기서, 상기 에디션 컨텐츠는, 상기 오리지널 컨텐츠의 소정 오브젝트에 대응하여 사용자에 의해 발생하는 이벤트 및 상기 이벤트 발생에 따른 기 설정된 액션에 관한 데이터를 포함하며, 상기 제어부는, 상기 에디션 컨텐츠의 실행 시 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출하여 표시하고, 상기 오브젝트가 표시된 상태에서 상기 이벤트가 발생하면 상기 오브젝트가 상기 액션을 수행하도록 제어할 수 있다.
여기서, 상기 오브젝트는 상기 디스플레이부에 표시되는 컨텐츠 영상과, 상기 컨텐츠 영상 내의 텍스트, 이미지 및 멀티미디어 컴포넌트 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 이벤트는 상기 디스플레이장치에 대하여 사용자의 입력 조작에 의해 발생할 수 있다.
여기서, 상기 디스플레이부는 터치스크린을 포함하며, 상기 이벤트는 상기 디스플레이부 상에서의 사용자의 터치, 드래그, 탭 동작과, 사용자에 의한 제스쳐와, 음성 명령 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 액션은 상기 오브젝트에 대한 변형 동작, 비쥬얼 이펙트, 멀티미디어 이펙트, 3차원 렌더링 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 에디션 컨텐츠는 상기 오브젝트를 포함하는 대신, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출 가능하도록 상기 오리지널 컨텐츠 내에서 상기 오브젝트의 주소 정보를 포함할 수 있다.
또한, 상기 제어부는, 상기 오리지널 컨텐츠의 실행 이미지를 포함하는 유아이 영상을 표시하며, 상기 유아이 영상 상에서 상기 실행 이미지를 통해 상기 에디션 컨텐츠의 수신이 선택되면 상기 서버로부터 상기 에디션 컨텐츠를 수신할 수 있다.
또한, 상기 제1디스플레이장치가 상기 외부장치로부터 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되어 있지 않은 경우에, 상기 제1디스플레이장치는 상기 외부장치로부터 상기 에디션 컨텐츠를 제공받지 않을 수 있다.
또한, 상기 외부장치는 서버를 포함할 수 있다.
또한, 본 발명의 실시예에 따른 디스플레이장치의 제어방법은, 외부장치로부터 제공되는 소정의 오리지널 컨텐츠를 수신하는 단계; 및 상기 오리지널 컨텐츠에 대한 사용자의 편집 및 상기 편집 결과가 상기 오리지널 컨텐츠에 다이렉트로 업데이트되지 않고 상기 오리지널 컨텐츠와 별도의 에디션 컨텐츠로 생성될 수 있도록 제어하는 단계를 포함하는 것을 특징으로 한다.
여기서, 소정의 제1디스플레이장치가 상기 외부장치에 통신 접속할 때에 상기 제1디스플레이장치가 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되었는지 여부에 따라서 상기 외부장치가 선택적으로 상기 에디션 컨텐츠를 상기 제1디스플레이장치에 제공할 수 있도록, 상기 생성한 에디션 컨텐츠를 상기 외부장치에 전송하는 단계를 더 포함할 수 있다.
여기서, 상기 에디션 컨텐츠는, 상기 오리지널 컨텐츠의 소정 오브젝트에 대응하여 사용자에 의해 발생하는 이벤트 및 상기 이벤트 발생에 따른 기 설정된 액션에 관한 데이터를 포함하며, 상기 에디션 컨텐츠의 실행 시에, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출하여 표시하는 단계와; 상기 오브젝트가 표시된 상태에서 상기 이벤트가 발생하면 상기 오브젝트가 상기 액션을 수행하도록 제어하는 단계를 더 포함할 수 있다.
여기서, 상기 오브젝트는 컨텐츠 영상과, 상기 컨텐츠 영상 내의 텍스트, 이미지 및 멀티미디어 컴포넌트 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 액션은 상기 오브젝트에 대한 변형 동작, 비쥬얼 이펙트, 멀티미디어 이펙트, 3차원 렌더링 중 적어도 어느 하나를 포함할 수 있다.
또한, 상기 에디션 컨텐츠는 상기 오브젝트를 포함하는 대신, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출 가능하도록 상기 오리지널 컨텐츠 내에서 상기 오브젝트의 주소 정보를 포함할 수 있다.
도 1은 본 발명의 실시예에 따른 디스플레이장치의 예시도,
도 2는 도 1의 디스플레이장치의 구성 블록도,
도 3은 도 1의 디스플레이장치에서 어플리케이션 및 컨텐츠 영상이 실행되는 모습을 나타내는 예시도,
도 4 내지 도 6은 도 1의 디스플레이장치가 서버로부터 에디션 컨텐츠를 제공받기 위해 디스플레이장치가 표시하는 유아이 영상의 예시도,
도 7은 오리지널 컨텐츠의 특정 오브젝트를 편집함으로써 에디션 컨텐츠를 생성하는 원리를 설명하는 예시도,
도 8은 도 1의 디스플레이장치가 도 7과 같이 생성된 에디션 컨텐츠를 실행할 때에 오브젝트를 표시하는 과정을 나타내는 제어 흐름도,
도 9는 도 1의 디스플레이장치에 표시되는 초기 상태의 에디션 컨텐츠의 영상을 나타내는 예시도,
도 10 내지 도 14는 도 1의 디스플레이장치에서 에디션 컨텐츠의 실행 시, 초기 상태의 에디션 컨텐츠 영상 내의 오브젝트에 대해 액션이 반영된 모습을 각기 나타내는 예시도이다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 이하 실시예에서는 본 발명의 사상과 직접적인 관련이 있는 구성들에 관해서만 설명하며, 그 외의 구성에 관해서는 설명을 생략한다. 그러나, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 설명이 생략된 구성이 불필요함을 의미하는 것이 아님을 밝힌다.
도 1은 본 발명의 실시예에 따른 디스플레이장치(100)의 예시도이다.
도 1에 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(100)는 사용자에 의해 파지됨으로써 휴대가 가능한 태블릿 컴퓨터 또는 모바일 폰과 같은 모바일 멀티미디어 재생장치로 구현된다. 그러나, 디스플레이장치(100)의 이러한 구현 방식은 하나의 예시에 불과할 뿐이며, 다양한 컨텐츠 데이터에 기초하는 컨텐츠 영상을 표시 가능한 범위 내에서 디스플레이장치(100)는 상기한 예시 이외의 다양한 방식으로 구현이 가능하다.
디스플레이장치(100)는 영상을 표시하는 디스플레이부(130)를 가진다. 디스플레이부(130)는 터치스크린으로 구현됨으로써 사용자가 유아이(UI, user interface) 영상이 표시된 디스플레이부(130)를 터치(touch), 드래그(drag), 탭(tap)함으로써 디스플레이장치(100)에 사용자의 의도에 맞는 입력을 수행할 수 있다.
또한, 사용자의 조작에 따라서 디스플레이장치(100)에 대해 기 설정된 입력을 수행하는 방식은 상기한 예시 이외에도 다양한 방법이 가능한 바, 사용자의 발화에 따른 음성 명령의 입력이나, 사용자의 제스쳐(gesture)나, 사용자에 의한 디스플레이장치(100)의 이동 등이 가능하다.
본 실시예에서는 이러한 예시들과 같이 디스플레이장치(100)의 여러 인터페이스를 통해 사용자의 의도가 디스플레이장치(100)에 입력되는 것을 이벤트(event)라고 지칭한다. 즉, 본 실시예에서의 이벤트는 사용자에 의해 발생한다.
이하, 디스플레이장치(100)의 구체적인 구성에 관해 도 2를 참조하여 설명한다.
도 2는 디스플레이장치(100)의 구성 블록도이다.
도 2에 도시된 바와 같이, 디스플레이장치(100)는 서버(10)와 통신하는 통신부(110)와, 데이터를 처리하는 데이터처리부(120)와, 데이터처리부(120)에 의해 처리되는 데이터가 영상으로 표시되는 디스플레이부(130)와, 데이터가 저장되는 저장부(140)와, 디스플레이장치(100)의 제반 구성의 동작을 제어하는 제어부(150)를 포함한다.
또한, 디스플레이장치(100)는 사용자로부터의 입력에 대응하여 이벤트를 발생시키기 위한 인터페이스로서, 사용자의 발화가 입력되는 음성입력부(160)와, 사용자를 포함한 디스플레이장치(100)의 외부 환경을 촬영/촬상하는 카메라(170)와, 디스플레이장치(100)의 모션을 감지하는 동작센서(180)를 포함한다. 인터페이스의 구성은 이 외에도 다양한 방식이 적용될 수 있는 바, 디스플레이부(130)가 터치스크린으로 구현되거나 또는 디스플레이장치(100) 외측에 사용자가 조작 가능한 버튼(미도시)이 설치될 수 있다.
통신부(110)는 로컬/광역 네트워크에 통신 접속함으로써 서버(10)를 비롯한 다양한 외부장치(미도시)와 양방향 통신을 수행한다. 통신부(110)는 다양한 유선/무선 통신 프로토콜에 따라서 통신을 수행한다. 예를 들면, 통신부(110)는 와이파이(Wi-Fi) 등의 무선 통신 프로토콜에 따라서 억세스 포인트(access point, AP)를 통해 서버(10)에 통신 접속하고, 서버(10)와의 사이에 데이터를 교환한다.
데이터처리부(120)는 통신부(110)를 통해 수신되거나 또는 저장부(140)에 저장되어 있는 데이터를 다양한 기 설정된 프로세스에 따라서 처리한다. 데이터처리부(120)는 각 프로세스 관련 기능을 통합시킨 SOC(system-on-chip), 또는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적인 칩셋 등의 구성들이 인쇄회로기판 상에 장착된 처리보드(미도시)로 구현되어 디스플레이장치(100)에 내장된다.
데이터처리부(120)의 동작방법에 대한 예를 들면, 데이터처리부(120)는 저장부(140)에 저장되어 있는 어플리케이션(application)이 실행되게 처리하며, 해당 어플리케이션의 영상이 디스플레이부(130)에 표시되도록 어플리케이션 관련 영상신호를 디스플레이부(130)에 출력한다. 또한, 데이터처리부(120)는 인터페이스를 통해 발생하는 이벤트에 따라서 어플리케이션이 동작하고, 어플리케이션의 동작에 따라서 영상이 표시되도록 처리한다.
디스플레이부(130)는 데이터처리부(120)로부터 출력되는 영상신호/영상데이터에 기초하여 영상을 표시한다. 디스플레이부(130)의 구현 방식은 한정되지 않는 바, 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.
디스플레이부(130)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 디스플레이부(130)가 액정 방식인 경우, 디스플레이부(130)는 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시)을 포함한다.
또한, 본 실시예에 따른 디스플레이부(130)는 터치스크린을 포함할 수 있는 바, 이 경우에 사용자는 디스플레이부(130)에 표시된 유아이 영상(미도시)를 터치함으로써 기 설정된 커맨드를 제어부(150)에 전달할 수 있다.
저장부(140)는 제어부(150)의 제어에 따라서 다양한 데이터가 저장된다. 저장부(140)는 플래시메모리(flash-memory), 하드디스크 드라이브(hard-disc drive)와 같은 비휘발성 메모리로 구현된다. 저장부(140)는 제어부(150), 데이터처리부(120) 등에 의해 억세스되며, 데이터의 독취/기록/수정/삭제/갱신 등이 이루어진다.
제어부(150)는 데이터처리부(120)를 구성하는 처리보드(미도시) 상에 장착된 CPU를 포함하며, 데이터처리부(120)를 비롯한 디스플레이장치(100) 내의 각 구성요소들의 동작을 제어한다. 제어부(150)는 사용자에 의해 이벤트가 발생하면 이 이벤트에 대응하는 디스플레이장치(100)의 동작을 판단 또는 산출하고, 판단한 동작이 실행되도록 디스플레이장치(100)의 각 구성요소들에 대해 제어신호 또는 제어 커맨드를 출력한다.
음성입력부(160)는 마이크로 구현되며, 디스플레이장치(100)의 외부 환경에서 발생하는 다양한 소리를 감지한다. 음성입력부(160)가 감지하는 소리는 사용자에 의한 발화와, 사용자 이외에 다양한 요인에 의해 발생하는 소리를 포함한다.
카메라(170)는 디스플레이장치(100)의 외부 환경을 감지 및 촬영한다. 카메라(170)는 소정 시점의 외부 환경을 촬상하여 정지화상을 생성하거나, 또는 기 설정된 시간 동안에 외부 환경을 촬영하여 동영상을 생성할 수 있다. 예를 들면, 카메라(170)는 사용자가 카메라(170) 전방에서 손을 흔드는 동작을 감지하여 제어부(150)에게 알림으로써, 제어부(150)가 감지 결과에 대응하는 동작을 수행하도록 할 수 있다.
동작센서(180)는 사용자가 파지하고 있는 디스플레이장치(100)의 모션, 예를 들면 디스플레이장치(100)의 현재 자세를 기준으로 디스플레이장치(100)의 기울기 또는 이동을 감지한다. 동작센서(180)는 기 설정된 3축 좌표계, 즉 가로, 세로 및 높이 또는 X 축, Y축 및 Z축에 의한 공간 좌표계 상에서 디스플레이장치(100)의 움직임을 감지한다. 이를 위하여, 동작센서(180)는 자이로 센서, 관성 센서, 가속도 센서 등으로 구현될 수 있다.
이러한 구조 하에서, 제어부(150)는 서버(10)로부터 제공되는 컨텐츠 데이터를 저장부(140)에 저장하고, 저장된 컨텐츠 데이터를 실행시킴으로써 해당 컨텐츠 데이터의 영상을 디스플레이부(130)에 표시되도록 제어할 수 있다.
도 3은 디스플레이장치(100)에서 어플리케이션 및 컨텐츠 영상(210, 220)이 실행되는 모습을 나타내는 예시도이다. 본 실시예에서는 서적을 데이터화시킨 컨텐츠 데이터인 이북(e-book)의 영상을 표시하도록, 이북 실행 어플리케이션이 실행되는 경우에 관해 설명하도록 한다. 다만, 이는 하나의 예시일 뿐, 본 발명의 사상이 적용되는 대상을 한정하는 것이 아님을 밝힌다.
도 3에 도시된 바와 같이, 제어부(150)가 이북 실행 어플리케이션을 실행시키면, 해당 어플리케이션의 실행 영상(210)이 디스플레이부(130)에 표시된다. 어플리케이션은 하나 이상의 이북 컨텐츠가 임포팅(importing)됨으로써, 임포팅된 이북 컨텐츠를 실행시킬 수 있다. 여기서, 임포팅된 이북 컨텐츠는 저장부(140)에 저장되거나, 또는 사용자가 구매를 완료함으로써 서버(10)로부터 제공받을 수 있는 권한을 획득한 컨텐츠임을 의미한다. 본 실시예에서의 임포팅된 이북 컨텐츠는 저장부(140)에 저장되어 있는 상태인 경우로 설명하나, 서버(10)로부터 자유로이 수신함으로써 저장부(140)에 저장할 수 있는 상태인 경우도 가능하다.
어플리케이션 영상(210)은 현재 시점에서 임포팅된 하나 이상의 이북 컨텐츠를 선택할 수 있는 선택용 이미지(211)가 표시된다. 선택용 이미지(211)는 각 이북 컨텐츠에 대응하는 아이콘이나, 표지 등의 이미지일 수 있다.
사용자가 어플리케이션 영상(210)에서 어느 하나의 선택용 이미지(211)를 클릭하면, 제어부(150)는 해당 선택용 이미지(211)의 이북 컨텐츠의 영상(220)을 디스플레이부(130)에 표시한다.
이북 컨텐츠는 페이지(page) 단위로 텍스트, 이미지, 멀티미디어 컴포넌트 중 적어도 어느 하나의 데이터를 포함한다. 여기서, 멀티미디어 컴포넌트는 동영상이나 소리 요소 등을 포함할 수 있다. 이에, 이북 컨텐츠 영상(220)은 현재 표시되고 있는 이북 컨텐츠의 페이지에서, 해당 페이지의 텍스트(221) 또는 이미지(222)가 시각적으로 표시된다. 이러한 텍스트(221) 또는 이미지(222)와 같이, 현재 표시되어 있는 이북 컨텐츠 영상(220)을 구성하는 시각적인 구성요소를 오브젝트(object)(221, 222)라고 지칭한다.
이러한 이북 컨텐츠 영상(220)는 기본적으로 출판인 또는 컨텐츠 제공자가 제공하는 상태 그대로 오브젝트(221, 222)가 표시된다. 그러나, 데이터화된 이북 컨텐츠는 사용자의 의도에 따라서 다양한 형태로 수정 및 보완되어 타 사용자에게 제공될 수 있다. 여기서, 출판인 또는 컨텐츠 제공자에 의해 원래대로 제공되는 이북 컨텐츠를 오리지널 컨텐츠, 이 오리지널 컨텐츠가 다양한 사용자 또는 컨텐츠 제공자에 의해 수정, 보완, 편집됨을써 생성된 컨텐츠를 에디션(edition) 컨텐츠로 지칭한다.
이러한 에디션 컨텐츠는 오리지널 컨텐츠를 제공하는 컨텐츠 제공자에 의해 생성될 수 있으며, 오리지널 컨텐츠를 사용하는 사용자나 타 컨텐츠 제공자 등의 한정되지 않은 제공자에 의해 생성될 수 있다. 에디션 컨텐츠는 오리지널 컨텐츠를 제공하는 서버(10)에 의해 제공되거나, 서버(10)와 연계된 별도의 서버(미도시)에 의해 제공될 수도 있다.
도 4 내지 도 6은 디스플레이장치(100)가 서버(10)로부터 에디션 컨텐츠를 제공받기 위해 디스플레이장치(100)가 표시하는 유아이 영상의 예시도이다.
도 4에 도시된 바와 같이, 어플리케이션 영상(210)이 표시된 상태에서, 사용자는 원하는 오리지널 컨텐츠의 선택 이미지(211)를 터치함으로써 해당 오리지널 컨텐츠 관련 팝업메뉴(212)를 표시되도록 한다. 팝업메뉴(212)에서 선택할 수 있는 옵션은 한정되지 않으며, 예를 들면 오리지널 컨텐츠의 표시, 오리지널 컨텐츠의 관련 정보 등을 포함할 수 있다.
사용자는 팝업메뉴(212)에서 "search edition"을, 즉 오리지널 컨텐츠의 에디션 컨텐츠를 검색하는 옵션을 선택한다.
사용자에 의해 에디션 컨텐츠의 검색이 선택 및 결정되면, 디스플레이장치(100)는 서버(10)에 통신 접속하여 해당 오리지널 컨텐츠와 관련된 에디션 컨텐츠의 리스트를 요청한다.
도 5에 도시된 바와 같이, 서버(10)는 디스플레이장치(100)의 요청에 따라서, 예를 들면 오리지널 컨텐츠 "Book1"의 에디션 컨텐츠의 리스트를 디스플레이장치(100)에 제공한다. 디스플레이장치(100)는 서버(10)로부터 제공받은 에디션 컨텐츠의 리스트 영상(230)을 표시한다.
리스트 영상(230)은 오리지널 컨텐츠와 관련하여 서버(10)가 제공할 수 있는 에디션 컨텐츠를 선택 가능하게 제공한다. 사용자는 리스트 영상(230) 내에서, 원하는 에디션 컨텐츠를 선택할 수 있다.
디스플레이장치(100)는 리스트 영상(230)에서 선택된 에디션 컨텐츠를 서버(10)로부터 수신하여 저장한다.
도 6에 도시된 바와 같이, 디스플레이장치(100)는 서버(10)로부터 수신한 에디션 컨텐츠를 어플리케이션에 의해 실행시킬 수 있도록, 어플리케이션에 임포팅한다. 어플리케이션에 에디션 컨텐츠가 임포팅되면, 어플리케이션 영상(210) 내에서 오리지널 컨텐츠인 "Book1"과는 별도로, 에디션 컨텐츠인 "Book1-edition"의 선택용 이미지(213)가 표시된다.
사용자는 이 선택용 이미지(213)를 클릭하면, 디스플레이장치(100)는 오리지널 컨텐츠인 "Book1" 대신에 에디션 컨텐츠인 "Book1-edition"이 표시한다.
물론, 디스플레이장치(100)가 에디션 컨텐츠를 제공받는 방법은 상기한 예시에 한정되지 않는다. 다만, 본 실시예에 따르면, 디스플레이장치(100)는 디스플레이장치(100)에 오리지널 컨텐츠가 저장되어 있다고 판단한 경우에, 서버(10)로부터 에디션 컨텐츠를 제공받아 실행시킬 수 있다. 만일 디스플레이장치(100)는 오리지널 컨텐츠가 디스플레이장치(100)에 저장되어 있지 않다고 판단하면, 해당 오리지널 컨텐츠의 에디션 컨텐츠를 서버(10)로부터 제공받아서 실행시킬 수 없다. 이는 다음과 같은 두 가지 측면에 기인한다.
첫 번째 측면은, 오리지널 컨텐츠가 유료로 제공되는 것을 전제로 한다면, 에디션 컨텐츠가 무료로 제공되는 경우에는 문제가 될 수 있다. 또한, 에디션 컨텐츠가 유료로 제공된다고 하더라도, 오리지널 컨텐츠 대신 에디션 컨텐츠가 유통되는 것은 오리지널 컨텐츠의 제공자 입장에서 바람직하지 않다.
두 번째 측면은, 본 실시예에 따른 에디션 컨텐츠는 오리지널 컨텐츠를 베이스로 하여 생성되지만, 오리지널 컨텐츠의 모든 데이터나 내용을 포함하지 않고, 오리지널 컨텐츠로부터 필요한 데이터를 호출하는 방식을 사용한다. 따라서, 에디션 컨텐츠를 실행하기 위해서는 오리지널 컨텐츠를 필요로 한다.
또는, 디스플레이장치(100)가 디스플레이장치(100)에 오리지널 컨텐츠가 저장되어 있지 않더라도, 해당 오리지널 컨텐츠를 서버(10)로부터 제공받을 수 있도록 인증된 경우에도 서버(10)로부터 해당 오리지널 컨텐츠의 에디션 컨텐츠를 제공받을 수도 있다. 물론, 이 경우에는 디스플레이장치(100)가 오리지널 컨텐츠 및 에디션 컨텐츠를 함께 서버(10)로부터 수신할 수 있다.
반면, 디스플레이장치(100)가 특정 오리지널 컨텐츠를 서버(10)로부터 제공받을 수 있도록 인증되어 있지 않은 경우에는, 디스플레이장치(100)는 해당 오리지널 컨텐츠의 에디션 컨텐츠를 서버(10)로부터 수신할 수 없다. 에디션 컨텐츠를 서버(10)로부터 수신하기 위해서는, 디스플레이장치(100)는 우선 오리지널 컨텐츠에 대한 인증을 획득하여야 한다.
이하, 디스플레이장치(100)가 에디션 컨텐츠를 실행시키고 해당 에디션 컨텐츠의 특정 페이지 영상을 표시할 때에, 에디션 컨텐츠의 오브젝트가 표시되는 원리에 관해 설명한다.
도 7은 오리지널 컨텐츠(310)의 특정 오브젝트(311)를 편집함으로써 에디션 컨텐츠(320)를 생성하는 원리를 설명하는 예시도이다.
도 7에 도시된 바와 같이, 오리지널 컨텐츠(310)에 포함된 다양한 오브젝트 중에서 어느 하나의 특정 오브젝트(311)를 편집함으로써 에디션 컨텐츠(320)를 생성할 수 있다.
컨텐츠 생성자는 오리지널 컨텐츠(310) 내에서 편집 대상이 되는 오브젝트(311)를 특정할 수 있도록, 오브젝트(311)의 오리지널 컨텐츠(310) 내의 주소(321) 정보를 독취한다. 오브젝트 주소(321)는 오리지널 컨텐츠(310)에서 오브젝트(311)를 찾을 수 있는 모든 형태의 정보가 가능하며, 예를 들면 오리지널 컨텐츠(310) 내의 오브젝트(311)의 ID 정보일 수 있다.
컨텐츠 생성자는 기 설정된 이벤트 라이브러리(330)로부터 이벤트(322)를 특정한다. 이벤트(322)는 디스플레이장치(100)에 대하여 사용자의 입력 조작에 의해 발생하는 모든 동작을 의미한다. 예를 들면, 이벤트 라이브러리(330)는 디스플레이부(130) 상에서의 사용자의 터치, 드래그, 탭 등의 동작과, 음성입력부(160)를 통한 사용자의 발화에 따른 음성 명령과, 카메라(170)에 의해 감지되는 사용자의 특정 제스쳐와, 사용자에 의해 발생하는 디스플레이장치(100)의 이동 등의 이벤트(322)를 포함할 수 있다.
또한, 컨텐츠 생성자는 기 설정된 액션 라이브러리(340)로부터 액션(323)을 특정한다. 액션(323)은 이벤트(322) 발생에 따른 오브젝트(311)의 동작을 의미한다. 예를 들면, 액션 라이브러리(340)는 오브젝트(311)의 크기, 형태 등의 변화나, 컬러, 프레임, 휘도, 콘트라스트, 노이즈 등의 비쥬얼 이펙트의 변화나, 동영상의 재생, 오디오의 추가 등의 멀티미디어 이펙트의 변화나, 2차원 이미지의 3차원 렌더링 등과 같은 액션(323)을 포함할 수 있다.
컨텐츠 생성자는 이와 같이 선택된 오브젝트 주소(321), 이벤트(322) 및 액션(323)을 바인딩(binding)함으로써, 오리지널 컨텐츠(310)의 특정 오브젝트(311)에 대한 에디션 컨텐츠(320)를 생성한다. 컨텐츠 생성자는 이러한 원리로 오리지널 컨텐츠(310)의 다양한 오브젝트(311)에 대해 편집을 수행하고 이 편집 결과를 하나의 에디션 컨텐츠(320)로 생성함으로써, 컨텐츠 생성자의 의도가 반영된 새로운 에디션 컨텐츠(320)를 생성하여 사용자에게 제공할 수 있다.
도 8은 디스플레이장치(100)가 도 7과 같이 생성된 에디션 컨텐츠를 실행할 때에 오브젝트를 표시하는 과정을 나타내는 제어 흐름도이다.
도 8에 도시된 바와 같이, 디스플레이장치(100)는 에디션 컨텐츠의 실행 명령을 수신하면(S100), 표시하고자 하는 에디션 컨텐츠의 페이지를 특정한다(S110).
디스플레이장치(100)는 특정한 페이지에서 표시될 오브젝트의 오브젝트 주소를 확인하고(S120), 오브젝트 주소에 따라서 오리지널 컨텐츠로부터 오브젝트를 호출한다(S130). 디스플레이장치(100)는 호출된 오브젝트를 표시한다(S140).
오브젝트가 표시된 상태에서 기 설정된 이벤트가 발생하면, 디스플레이장치(100)는 발생한 이벤트가 에디션 컨텐츠에서 해당 오브젝트에 대응하게 설정된 이벤트인지 판단한다(S150).
만일 발생한 이벤트가 해당 오브젝트에 대응하게 설정된 이벤트가 아니면, 디스플레이장치(100)는 오브젝트의 현 표시 상태를 유지한다(S160).
반면, 발생한 이벤트가 해당 오브젝트에 대응하게 설정된 이벤트이면, 디스플레이장치(100)는 해당 오브젝트 및 이벤트에 대응하게 설정된 액션을 판단한다(S170). 그리고, 디스플레이장치(100)는 해당 오브젝트가 판단한 액션을 수행하도록 한다.
이와 같이, 에디션 컨텐츠는 오리지널 컨텐츠와 상이하게 오브젝트 자체를 포함하지 않는다. 만일 에디션 컨텐츠가 오브젝트를 포함한다면, 에디션 컨텐츠의 데이터량은 오리지널 컨텐츠와 유사하거나 보다 많을 것이다. 반면, 본 실시예에 따른 에디션 컨텐츠는 오브젝트 자체를 포함하는 대신, 오리지널 컨텐츠에서 오브젝트를 호출할 수 있는 오브젝트의 주소 정보를 포함한다.
따라서, 에디션 컨텐츠가 실행되기 위해서는 오리지널 컨텐츠를 필요로 한다. 그러나, 이와 같이 구현된 에디션 컨텐츠는 오리지널 컨텐츠에 비해 데이터량을 현저히 줄일 수 있으므로, 오리지널 컨텐츠에 비해 서버(10)로부터 상대적으로 빠른 속도로 수신할 수 있다.
이상 설명한 바와 같이, 본 실시예에 따르면 오리지널 컨텐츠를 직접 수정하지 않고도, 사용자가 오리지널 컨텐츠를 편집한 에디션 컨텐츠를 생성하여 타 사용자에게 제공할 수 있다. 또한, 정적(static)인 컨텐츠를 인터랙티브(interactive) 또는 동적(dynamic)인 컨텐츠로 활용할 수 있으며, 사용자나 컨텐츠 제공자가 수정/보완/편집한 내용을 타 사용자와 공유하고 콜라보레이션(collaboration)이 가능하게 함으로써, 오리지널 컨텐츠를 기반으로 보완적이고 새로운 컨텐츠를 생성하여 제공될 수 있도록 한다.
또한, 오리지널 컨텐츠의 제공자 이외에도, 일반 사용자나 별도의 컨텐츠 제공자가 서버(10)가 제공하는 컨텐츠 쇼핑몰 내에서 독자적인 스토어(store)/샵(shop)을 운영하여 이러한 에디션 컨텐츠를 타 사용자에게 제공할 수도 있다. 또한, 쇼핑몰/스토어/샵 등과 같은 판매 방식 이외에도, 소셜 네트워킹 서비스(social networking service, SNS), 메일 등을 통하여 사용자들 사이에 에디션 컨텐츠를 파일이나 웹 페이지의 링크(link) 등의 형태로 공유할 수 있다. 또는, 네트워크 상의 클라우드(cloud)의 공유 영역에 에디션 컨텐츠를 저장함으로써, 복수의 사용자가 공동으로 편집하여 업데이트하도록 할 수도 있다.
이하, 디스플레이장치(100)에서 에디션 컨텐츠의 실행 시, 사용자에 의한 이벤트 발생에 따라서 오브젝트의 액션이 수행되는 예시에 관해 설명한다. 본 발명의 사상은 이하 설명하는 예시들에 의해 한정되지 않으며, 본 발명의 구체적인 구현 방식은 본 발명의 사상 범위 내에서 다양한 형태로 표현될 수 있음을 밝힌다.
도 9는 초기 상태의 에디션 컨텐츠의 영상(410)을 나타내는 예시도이며, 도 10 내지 도 14는 디스플레이장치(100)에서 에디션 컨텐츠의 실행 시, 초기 상태의 에디션 컨텐츠 영상 내의 오브젝트에 대해 액션이 반영된 모습을 나타내는 예시도이다.
도 9에 도시된 바와 같이, 에디션 컨텐츠의 영상(410)은 일 페이지 상에서 하나 이상의 오브젝트(411, 412)에 의해 구성되며, 예를 들면 오브젝트(411, 412)는 텍스트(411) 및 이미지(412)를 포함한다. 오브젝트(411, 412)의 이러한 구현 방식은 하나의 예시일 뿐이며, 에디션 컨텐츠 영상(410)을 구성하는 오브젝트(411, 412)의 종류, 배치위치, 수량 등은 다양하게 결정될 수 있다.
어떠한 액션이 수행되지 않는 초기 상태의 에디션 컨텐츠 영상(410)은 오리지널 컨텐츠의 영상과 동일하다.
만일 에디션 컨텐츠 영상(410)의 오브젝트(411, 412)에 대해 사용자의 터치가 이벤트로 설정된 경우에, 사용자가 터치를 수행하면 해당 오브젝트(411, 412)는 다양한 액션을 수행한다. 또는, 이벤트가 에디션 컨텐츠 영상(410)의 표시시점으로 설정된 경우에, 디스플레이장치(100)에 에디션 컨텐츠 영상(410)이 표시되는 시점에 기 설정된 액션을 반영한 영상이 자동으로 표시될 수도 있다.
액션이 반영된 영상은 오브젝트(411, 412)에 대해 다양한 비쥬얼 효과를 반영한다.
도 10에 도시된 바와 같이, 예를 들면 대상이 되는 오브젝트가 텍스트(411a)인 경우, 해당 텍스트(411a)에 대해 다양한 액션이 반영된 텍스트 영상(411b, 411c, 411d)으로 디스플레이장치(100)에서 표시될 수 있다. 본 도면에서는 텍스트 영상(411b, 411c, 411d)에 대한 비쥬얼 효과를 보다 명확히 나타내기 위해, 도 9와 같은 에디션 컨텐츠 영상(410)의 전체 모습을 표현하지 않고 오브젝트(411)의 일부 모습만을 표현한 것임을 밝힌다.
일 텍스트 영상(411b)은 텍스트(411a)가 배경에 대해 부각되어 보이도록, 드롭 쉐도우(drop-shadow)와 같은 3차원 효과의 액션이 반영되어 있다.
또한, 일 텍스트 영상(411c)은 텍스트(411a)에 대해 네온(neon) 또는 글로잉(glowing) 효과가 반영되어 있다. 네온 효과는 텍스트(411a) 주위에 광이 번지는 효과를 의미한다.
또한, 일 텍스트 영상(411d)은 텍스트(411a)에 대해 드롭 쉐도우 및 네온 효과가 함께 반영되어 있다. 즉, 텍스트(411a)에 대해 반영되는 액션은 복수의 기 설정된 액션 중에서 어느 하나만이 아닌, 복수 개의 액션이 중첩될 수도 있다.
도 11에 도시된 바와 같이, 대상이 되는 오브젝트가 하나의 텍스트 문단(411e)인 경우, 액션이 반영된 텍스트 영상(411f)은 텍스트 문단(411e)이 포함하는 텍스트 중에서 첫 번째 알파벳이 상대적으로 크게 조정되거나 또는 장식적인 효과가 반영될 수 있다. 이로써, 사용자가 해당 문단의 구별을 용이하게 하도록 할 수 있다.
도 12에 도시된 바와 같이, 대상이 되는 오브젝트는 이미지(412a)일 수도 있다. 만일, 에디션 컨텐츠 영상(410, 도 9 참조)이 표시된 상태에서 기 설정된 이벤트가 발생하면, 이미지(412a)는 다음과 같이 다양한 액션이 반영되어 표시된다.
이미지(412a)는 예를 들면, 이벤트 발생에 따라서 새로운 동영상(412b)으로 대체되어 표시될 수 있다. 디스플레이장치(100)는 동영상(412b)을 표시함에 있어서, 동영상(412b)의 데이터를 재생하기 위한 다양한 컨트롤 UI를 함께 표시할 수 있다.
또는, 이미지(412a)는 오디오 데이터와 같은 추가 데이터가 링크됨으로써, 이벤트 발생에 따라서 이미지(412a)에 링크된 오디오 데이터가 재생될 수 있다.
또는, 이벤트 발생에 따라서 2차원인 이미지(412a)가 3차원 모델(412c)로 대체되어 렌더링 표시될 수도 있다. 3차원 모델(412c)은 디스플레이장치(100)가 이미지(412a)를 분석함으로써 렌더링을 위한 모델이 생성되거나, 서버(10)로부터 디스플레이장치(100)에 제공될 수도 있다.
도 13에 도시된 바와 같이, 이미지(412a)에 대해, 다양한 형태의 프레임을 적용하는 액션이 반영될 수 있다. 예를 들면, 이미지(412a)에 대해 간단한 모습의 프레임이 적용되거나(413d), 보다 복잡한 모습의 프레임이 적용되어 디스플레이장치(100)에 표시될 수 있다(413e).
도 14에 도시된 바와 같이, 텍스트인 오브젝트(411a)는 백색 바탕에 검은 글씨로 표시되어 있는 상태이다. 이에, 액션이 반영된 오브젝트(411g)는 흑백이 반전됨으로써 검은색 바탕에 흰색 글씨로 표시될 수 있다. 이는, 밤과 같이 주위 상황이 어두울 때에 텍스트(411a)가 사용자에게 보다 명확히 보이도록 기여한다.
또는, 액션이 반영된 오브젝트(411h)는 배경에서 백색을 상대적으로 줄이고, 전체적으로 회색 톤으로 표시될 수 있다. 이는, 영상의 휘도를 저감시킴으로써, 영상을 표시하는 디스플레이장치(100)의 전원 소모를 절감시키는 효과가 있다.
이상 설명한 바와 같이, 오브젝트에 반영되는 액션은 다양한 예시가 구현될 수 있다.
상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.
10 : 서버
100 : 디스플레이장치
110 : 통신부
120 : 데이터처리부
130 : 디스플레이부
140 : 저장부
150 : 제어부
160 : 음성입력부
170 : 카메라
180 : 동작센서

Claims (17)

  1. 디스플레이장치에 있어서,
    디스플레이부와;
    소정의 오리지널(original) 컨텐츠를 제공하는 외부장치와 통신하는 통신부와;
    상기 통신부를 통해 상기 외부장치로부터 제공되는 상기 오리지널 컨텐츠를 상기 디스플레이부에 영상으로 표시되게 실행 및 처리하는 컨텐츠처리부와;
    상기 오리지널 컨텐츠에 대한 사용자의 편집 및 상기 편집 결과가 상기 오리지널 컨텐츠에 다이렉트로 업데이트되지 않고 상기 오리지널 컨텐츠와 별도의 에디션(edition) 컨텐츠로 생성될 수 있도록 제어하는 제어부를 포함하는 것을 특징으로 하는 디스플레이장치.
  2. 제1항에 있어서,
    상기 제어부는, 소정의 제1디스플레이장치가 상기 외부장치에 통신 접속할 때에 상기 제1디스플레이장치가 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되었는지 여부에 따라서 상기 외부장치가 선택적으로 상기 에디션 컨텐츠를 상기 제1디스플레이장치에 제공할 수 있도록, 상기 생성한 에디션 컨텐츠를 상기 외부장치에 전송하는 것을 특징으로 하는 디스플레이장치.
  3. 제2항에 있어서,
    상기 에디션 컨텐츠는, 상기 오리지널 컨텐츠의 소정 오브젝트에 대응하여 사용자에 의해 발생하는 이벤트 및 상기 이벤트 발생에 따른 기 설정된 액션에 관한 데이터를 포함하며,
    상기 제어부는, 상기 에디션 컨텐츠의 실행 시 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출하여 표시하고, 상기 오브젝트가 표시된 상태에서 상기 이벤트가 발생하면 상기 오브젝트가 상기 액션을 수행하도록 제어하는 것을 특징으로 하는 디스플레이장치.
  4. 제3항에 있어서,
    상기 오브젝트는 상기 디스플레이부에 표시되는 컨텐츠 영상과, 상기 컨텐츠 영상 내의 텍스트, 이미지 및 멀티미디어 컴포넌트 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
  5. 제3항에 있어서,
    상기 이벤트는 상기 디스플레이장치에 대하여 사용자의 입력 조작에 의해 발생하는 것을 특징으로 하는 디스플레이장치.
  6. 제5항에 있어서,
    상기 디스플레이부는 터치스크린을 포함하며,
    상기 이벤트는 상기 디스플레이부 상에서의 사용자의 터치, 드래그, 탭 동작과, 사용자에 의한 제스쳐와, 음성 명령 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
  7. 제3항에 있어서,
    상기 액션은 상기 오브젝트에 대한 변형 동작, 비쥬얼 이펙트, 멀티미디어 이펙트, 3차원 렌더링 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 디스플레이장치.
  8. 제3항에 있어서,
    상기 에디션 컨텐츠는 상기 오브젝트를 포함하는 대신, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출 가능하도록 상기 오리지널 컨텐츠 내에서 상기 오브젝트의 주소 정보를 포함하는 것을 특징으로 하는 디스플레이장치.
  9. 제2항에 있어서,
    상기 제어부는, 상기 오리지널 컨텐츠의 실행 이미지를 포함하는 유아이 영상을 표시하며, 상기 유아이 영상 상에서 상기 실행 이미지를 통해 상기 에디션 컨텐츠의 수신이 선택되면 상기 서버로부터 상기 에디션 컨텐츠를 수신하는 것을 특징으로 하는 디스플레이장치.
  10. 제2항에 있어서,
    상기 제1디스플레이장치가 상기 외부장치로부터 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되어 있지 않은 경우에, 상기 제1디스플레이장치는 상기 외부장치로부터 상기 에디션 컨텐츠를 제공받지 않는 것을 특징으로 하는 디스플레이장치.
  11. 제1항에 있어서,
    상기 외부장치는 서버를 포함하는 것을 특징으로 하는 디스플레이장치.
  12. 디스플레이장치의 제어방법에 있어서,
    외부장치로부터 제공되는 소정의 오리지널 컨텐츠를 수신하는 단계; 및
    상기 오리지널 컨텐츠에 대한 사용자의 편집 및 상기 편집 결과가 상기 오리지널 컨텐츠에 다이렉트로 업데이트되지 않고 상기 오리지널 컨텐츠와 별도의 에디션 컨텐츠로 생성될 수 있도록 제어하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  13. 제12항에 있어서,
    소정의 제1디스플레이장치가 상기 외부장치에 통신 접속할 때에 상기 제1디스플레이장치가 상기 오리지널 컨텐츠를 수신할 수 있도록 인증되었는지 여부에 따라서 상기 외부장치가 선택적으로 상기 에디션 컨텐츠를 상기 제1디스플레이장치에 제공할 수 있도록, 상기 생성한 에디션 컨텐츠를 상기 외부장치에 전송하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  14. 제13항에 있어서,
    상기 에디션 컨텐츠는, 상기 오리지널 컨텐츠의 소정 오브젝트에 대응하여 사용자에 의해 발생하는 이벤트 및 상기 이벤트 발생에 따른 기 설정된 액션에 관한 데이터를 포함하며,
    상기 에디션 컨텐츠의 실행 시에, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출하여 표시하는 단계와;
    상기 오브젝트가 표시된 상태에서 상기 이벤트가 발생하면 상기 오브젝트가 상기 액션을 수행하도록 제어하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  15. 제14항에 있어서,
    상기 오브젝트는 컨텐츠 영상과, 상기 컨텐츠 영상 내의 텍스트, 이미지 및 멀티미디어 컴포넌트 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  16. 제14항에 있어서,
    상기 액션은 상기 오브젝트에 대한 변형 동작, 비쥬얼 이펙트, 멀티미디어 이펙트, 3차원 렌더링 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  17. 제14항에 있어서,
    상기 에디션 컨텐츠는 상기 오브젝트를 포함하는 대신, 상기 오리지널 컨텐츠로부터 상기 오브젝트를 호출 가능하도록 상기 오리지널 컨텐츠 내에서 상기 오브젝트의 주소 정보를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
KR1020130015457A 2013-02-13 2013-02-13 디스플레이장치 및 그 제어방법 KR20140102386A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130015457A KR20140102386A (ko) 2013-02-13 2013-02-13 디스플레이장치 및 그 제어방법
PCT/KR2013/011566 WO2014126331A1 (en) 2013-02-13 2013-12-13 Display apparatus and control method thereof
US14/178,760 US20140229823A1 (en) 2013-02-13 2014-02-12 Display apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130015457A KR20140102386A (ko) 2013-02-13 2013-02-13 디스플레이장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20140102386A true KR20140102386A (ko) 2014-08-22

Family

ID=51298369

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130015457A KR20140102386A (ko) 2013-02-13 2013-02-13 디스플레이장치 및 그 제어방법

Country Status (3)

Country Link
US (1) US20140229823A1 (ko)
KR (1) KR20140102386A (ko)
WO (1) WO2014126331A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD817979S1 (en) * 2011-04-25 2018-05-15 Sony Corporation Display panel or screen with graphical user interface
JP5783301B1 (ja) * 2014-06-11 2015-09-24 富士ゼロックス株式会社 通信端末、通信システム及びプログラム
USD760295S1 (en) * 2014-09-24 2016-06-28 Lexmark International, Inc. Portion of a display screen with icon
KR102605480B1 (ko) * 2014-11-28 2023-11-24 소니그룹주식회사 송신 장치, 송신 방법, 수신 장치 및 수신 방법
CN108881472B (zh) * 2018-07-09 2019-03-29 掌阅科技股份有限公司 电子书文件的处理方法、电子设备、存储介质
CN114242197B (zh) * 2021-12-21 2022-09-09 数坤(北京)网络科技股份有限公司 一种结构化报告处理方法、装置及计算机可读存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6677944B1 (en) * 1998-04-14 2004-01-13 Shima Seiki Manufacturing Limited Three-dimensional image generating apparatus that creates a three-dimensional model from a two-dimensional image by image processing
KR20000037464A (ko) * 2000-04-26 2000-07-05 김남철 구매자의 편집에 의한 맞춤전자책의 생성방법 및 그 장치
KR100693598B1 (ko) * 2004-09-08 2007-03-14 주식회사 팬택앤큐리텔 정지영상을 이용한 동영상 생성 기능을 가지는무선통신단말기 및 그 방법
KR20060103746A (ko) * 2005-03-28 2006-10-04 엘에스전선 주식회사 전자책 단말기의 노트 기록 방법 및 그 장치
US9292481B2 (en) * 2009-02-27 2016-03-22 Adobe Systems Incorporated Creating and modifying a snapshot of an electronic document with a user comment
WO2011138840A1 (ja) * 2010-05-07 2011-11-10 株式会社フォーサイド・ドット・コム 電子書籍システムおよびコンテンツサーバ
DE102010026775A1 (de) * 2010-07-10 2012-01-12 Merck Patent Gmbh Bräunungsverstärker
KR20130009127A (ko) * 2011-07-14 2013-01-23 에스케이마케팅앤컴퍼니 주식회사 전자책 제공 시스템 및 방법
US9471556B2 (en) * 2013-01-30 2016-10-18 Microsoft Technology Licensing, Llc Collaboration using multiple editors or versions of a feature

Also Published As

Publication number Publication date
US20140229823A1 (en) 2014-08-14
WO2014126331A1 (en) 2014-08-21

Similar Documents

Publication Publication Date Title
US10635379B2 (en) Method for sharing screen between devices and device using the same
US20200356265A1 (en) User terminal device and control method thereof
US10452333B2 (en) User terminal device providing user interaction and method therefor
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
US10048824B2 (en) User terminal device and display method thereof
JP2020531985A (ja) 拡張現実環境及び仮想現実環境と相互作用するためのシステム、方法、及びグラフィカルユーザインタフェース
US20150215450A1 (en) Terminal device and content displaying method thereof, server and controlling method thereof
KR20150028127A (ko) 디스플레이 장치 및 그 제어 방법
KR20140128207A (ko) 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
US9128598B2 (en) Device and method for processing user input
WO2022083241A1 (zh) 信息引导方法及装置
KR20140102386A (ko) 디스플레이장치 및 그 제어방법
KR20150032095A (ko) 단말 장치 및 그의 공유 방법
US11182044B2 (en) Device, method, and graphical user interface for manipulating 3D objects on a 2D screen
KR20140014551A (ko) 클라우드 서비스 기반의 메모 기능 제공 방법 및 시스템과 이를 지원하는 단말기
CN112230914B (zh) 小程序的制作方法、装置、终端及存储介质
CN105094661A (zh) 移动终端及其控制方法
US20230368458A1 (en) Systems, Methods, and Graphical User Interfaces for Scanning and Modeling Environments
WO2017133475A1 (zh) 播放多媒体数据的方法、界面渲染方法及装置、设备
WO2020007182A1 (zh) 个性化场景图像的处理方法、装置及存储介质
US11393164B2 (en) Device, method, and graphical user interface for generating CGR objects
JP2016018363A (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
KR20220057388A (ko) Ar 버츄얼 단말 및 그의 제어 방법
US20180067632A1 (en) User terminal apparatus and control method thereof
KR20180058697A (ko) 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid