KR102474244B1 - 영상 표시 장치 및 그 동작방법 - Google Patents

영상 표시 장치 및 그 동작방법 Download PDF

Info

Publication number
KR102474244B1
KR102474244B1 KR1020150163341A KR20150163341A KR102474244B1 KR 102474244 B1 KR102474244 B1 KR 102474244B1 KR 1020150163341 A KR1020150163341 A KR 1020150163341A KR 20150163341 A KR20150163341 A KR 20150163341A KR 102474244 B1 KR102474244 B1 KR 102474244B1
Authority
KR
South Korea
Prior art keywords
image
area
interest
displayed
input
Prior art date
Application number
KR1020150163341A
Other languages
English (en)
Other versions
KR20170059242A (ko
Inventor
그레체고로츠 올레니작
토마슈 로베르토 쥐달라
김도형
성주연
윤영준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150163341A priority Critical patent/KR102474244B1/ko
Priority to US15/163,183 priority patent/US11150787B2/en
Priority to EP16866512.3A priority patent/EP3360337A4/en
Priority to PCT/KR2016/005479 priority patent/WO2017086559A1/en
Priority to CN201680067907.7A priority patent/CN108293146B/zh
Publication of KR20170059242A publication Critical patent/KR20170059242A/ko
Priority to US17/475,968 priority patent/US20210405838A1/en
Priority to KR1020220165116A priority patent/KR20220165707A/ko
Application granted granted Critical
Publication of KR102474244B1 publication Critical patent/KR102474244B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/43Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of news video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04805Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제1 이미지를 표시하는 디스플레이부, 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 제2 이미지의 일부를 제1 영역에 표시하도록 디스플레이부를 제어하는 제어부 및 제2 이미지를 이동시키는 사용자 입력을 감지하는 감지부를 포함하고, 제어부는, 사용자 입력에 응답하여, 제1 영역 내에서, 제2 이미지를 이동시켜 표시하도록 디스플레이부를 제어하는 영상 표시 장치가 개시된다.

Description

영상 표시 장치 및 그 동작방법{Image display apparatus and operating method for the same}
다양한 실시예들은 영상 표시 장치 및 그 동작방법에 관한 것으로서, 더욱 상세하게는 디스플레이부에 표시되는 이미지의 일부를 효율적으로 확대할 수 있는 영상 표시 장치 및 그 동작방법에 관한 것이다.
영상표시장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 영상표시장치를 통하여 방송을 시청할 수 있다. 영상표시장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
또한, 최근에는 디지털 방송 기능에 더하여 다양한 컨텐츠를 제공하는 스마트 티브이가 제공되고 있다. 스마트 티브이는 사용자의 선택에 따라 수동적으로 동작하는 것이 아니라, 사용자의 조작 없이도 사용자가 원하는 것을 분석하여 제공하는 것을 목표로 한다.
다양한 실시예들은, 디스플레이부의 일 영역에 표시되는 이미지를 확대하여, 다양하게 표시할 수 있는 영상 표시 장치 및 영상 표시 방법을 제공할 수 있다.
일 실시예에 따른 영상 표시 장치는, 제1 이미지를 표시하는 디스플레이부, 상기 디스플레이부의 제1 영역에 표시되는 상기 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 상기 제2 이미지의 일부를 상기 제1 영역에 표시하도록 상기 디스플레이부를 제어하는 제어부, 및 상기 제2 이미지를 이동시키는 사용자 입력을 감지하는 감지부를 포함하고, 상기 제어부는, 상기 사용자 입력에 응답하여, 상기 제1 영역 내에서, 상기 제2 이미지를 이동시켜 표시하도록 상기 디스플레이부를 제어할 수 있다.
일 실시예에 따른 감지부는, 방향 키 입력을 감지하고, 상기 제어부는, 감지된 방향 키 입력에 대응하는 방향으로 상기 제2 이미지를 이동시켜 표시하도록 제어할 수 있다.
일 실시예에 따른 디스플레이부는, 상기 제2 이미지의 이동 가능한 방향을 나타내는 아이콘을 표시할 수 있다.
일 실시예에 따른 감지부는, 상기 제2 이미지를 줌-인 또는 줌-아웃 시키는 입력을 감지하고, 상기 제어부는, 감지된 상기 줌-인 입력에 대응하여 상기 제2 이미지를 줌-인(zoom-in) 시키거나, 감지된 상기 줌-아웃(zoom-out)입력에 대응하여, 상기 제2 이미지를 줌-아웃시킬 수 있다.
일 실시예에 따른 제어부는, 상기 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정할 수 있다.
일 실시예에 따른 제어부는, 상기 제1 이미지에서 텍스트를 검출하고, 상기 텍스트가 표시되는 영역을 상기 제1 영역으로 설정할 수 있다.
일 실시예에 따른 영상 표시 장치는, 적어도 하나의 객체를 포함하는 제1 이미지를 표시하는 디스플레이부, 상기 적어도 하나의 객체 중 관심 객체를 선택하는 사용자 입력을 감지하는 감지부 및 상기 제1 이미지에서 상기 관심 객체를 검출하고, 검출된 상기 관심 객체를 확대하여 제2 이미지를 생성하고, 상기 제2 이미지를 표시하도록 상기 디스플레이부를 제어하는 제어부를 포함할 수 있다.
일 실시예에 따른 제어부는, 상기 제1 이미지에 포함되는 상기 적어도 하나의 객체를 검출하고, 검출된 상기 적어도 하나의 객체를 포함하는 후보 리스트를 상기 디스플레이부에 표시하도록 제어하고, 상기 사용자 입력은, 상기 후보 리스트에 포함된 적어도 하나의 객체 중 상기 관심 객체를 선택하는 입력일 수 있다.
일 실시예에 따른 제어부는, 상기 디스플레이부에 표시되는 상기 관심 객체의 크기에 따라 상기 관심 객체의 확대 배율을 조절하고, 조절된 상기 확대 배율에 따라 관심 객체를 확대할 수 있다.
일 실시예에 따른 제어부는, 상기 디스플레이부에 표시되는 상기 관심 객체의 크기가 임계값 이상인 경우, 상기 관심 객체를 확대하지 않고 표시하도록 상기 디스플레이부를 제어할 수 있다.
일 실시예에 따른 제어부는, 상기 제2 이미지를, 상기 관심 객체가 표시되는 영역에 오버랩하여 표시하도록 상기 디스플레이부를 제어할 수 있다.
일 실시예에 따른 영상 표시 장치의 동작방법은, 디스플레이부에 제1 이미지를 표시하는 단계, 상기 디스플레이부의 제1 영역에 표시되는 상기 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 상기 제2 이미지의 일부를 상기 제1 영역에 표시하는 단계, 상기 제2 이미지를 이동시키는 사용자 입력을 감지하는 단계 및 상기 사용자 입력에 응답하여, 상기 제1 영역 내에서, 상기 제2 이미지를 이동시켜 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 사용자 입력을 감지하는 단계는, 방향 키 입력을 감지하는 단계를 포함하고, 상기 제2 이미지를 이동시켜 표시하는 단계는, 감지된 상기 방향 키 입력에 대응하는 방향으로 상기 제2 이미지를 이동시켜 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 동작방법은, 상기 제2 이미지의 이동 가능한 방향을 나타내는 아이콘을 표시하는 단계를 더 포함할 수 있다.
일 실시예에 따른 동작방법은, 상기 제2 이미지를 줌-인(zoom-in) 또는 줌-아웃(zoom-out) 시키는 입력을 감지하는 단계, 및 감지된 상기 줌-인 입력에 대응하여 상기 제2 이미지를 줌-인 시키거나, 감지된 상기 줌-아웃 입력에 대응하여, 상기 제2 이미지를 줌-아웃 시키는 단계를 더 포함할 수 있다.
일 실시예에 따른 동작방법은, 상기 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정하는 단계를 더 포함할 수 있다.
일 실시예에 따른 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정하는 단계는, 상기 제1 이미지에서 텍스트를 검출하고, 상기 텍스트가 표시되는 영역을 상기 제1 영역으로 설정하는 단계를 포함할 수 있다.
일 실시예에 따른 동작방법은, 적어도 하나의 객체를 포함하는 제1 이미지를 표시하는 단계, 상기 적어도 하나의 객체 중 관심 객체를 선택하는 사용자 입력을 감지하는 단계 및 상기 제1 이미지에서 상기 관심 객체를 검출하고, 검출된 상기 관심 객체를 확대하여 제2 이미지를 생성하며, 상기 제2 이미지를 표시하는 단계를 포함할 수 있다.
일 실시예에 따른 동작방법은, 상기 제1 이미지에 포함되는 상기 적어도 하나의 객체를 검출하고, 검출된 상기 적어도 하나의 객체를 포함하는 후보 리스트를 표시하는 단계를 더 포함하고, 상기 사용자 입력은, 상기 후보 리스트에 포함된 적어도 하나의 객체 중 상기 관심 객체를 선택하는 입력일 수 있다.
일 실시예에 따른 동작방법은, 상기 디스플레이부에 표시되는 상기 관심 객체의 크기에 따라 상기 관심 객체를 확대하는 배율을 조절하는 단계를 더 포함할 수 있다.
일 실시예에 따른 동작방법은, 상기 제1 이미지에 포함되는 상기 관심 객체의 크기가 임계값 이상인 경우, 상기 관심 객체를 확대하지 않고 표시하는 단계를 더 포함할 수 있다.
일 실시예에 따른 제2 이미지를 표시하는 단계는, 상기 제2 이미지를, 상기 관심 객체가 표시되는 영역에 오버랩하여 표시하는 단계를 포함할 수 있다.
도 1은 일 실시예에 따른 영상 표시 장치 및 제어 장치를 나타내는 도면이다.
도 2는 일 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다.
도 3은 일 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다.
도 4는 도 3의 저장부(190)에 저장된 소프트웨어 구성을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
도 5는 일 실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
도 6a 내지 도 6d는 일 실시예에 따라 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 7a 내지 도 7c는 일 실시예에 따라 디스플레이부에 표시되는 전체 이미지를 확대한 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 8a 및 도 8b는 일 실시예에 따라 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 9a 내지 도 9e는 일 실시예에 따른 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 10은 일 실시예에 따른 제1 영역과 확대 박스의 위치 관계를 나타내는 그래프이고, 도 11은 도 10의 그래프에 따른 제1 영역과 확대 박스의 위치 관계를 도시하는 도면이다.
도 12a 및 도 12b는 일 실시예에 따른 확대 박스가 포인팅 모드에서, 고정되는 예를 나타내는 도면들이다.
도 13a 및 도 13b는 일 실시예에 따른 영상 표시 장치가 디스플레이부에 표시되는 컨텐츠의 속성에 따른 컨텐츠 확대 방법을 설명하기 위해 참조되는 도면들이다.
도 14a 내지 도 14h는 일 실시예에 따른 디스플레이부가 서로 다른 속성을 가지는 영역들을 포함하는 경우, 선택 영역과 확대 박스의 위치 관계를 나타내는 도면들이다.
도 15a 내지 도 는 일 실시예에 따른 영상 표시 장치가 특정 객체를 확대하여 표시하는 일 예를 나타내는 도면들이다.
도 16은 일 실시예에 따른 영상 표시 장치의 동작방법을 나타내는 흐름도이다.
도 17은 일 실시예에 따른 영상 표시 장치의 동작방법을 나타내는 흐름도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 일 실시예에 따른, 영상 표시 장치 및 제어 장치를 나타내는 도면이다.
도 1에 도시된 바와 같이, 영상 표시 장치(100)는 TV일 수 있으나, 이는 일 실시예에 불과하며, 디스플레이를 포함하는 전자 장치로 구현될 수 있다. 예를 들어, 영상 표시 장치(100)는 휴대폰, 태블릿 PC, 디지털 카메라, 캠코더, 노트북 컴퓨터(laptop computer), 태블릿 PC, 데스크탑, 전자책 단말기, 디지털 방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, MP3 플레이어, 착용형 기기(wearable device) 등과 같은 다양한 전자 장치로 구현될 수 있다. 특히, 실시예들은 TV와 같이 디스플레이가 대형인 디스플레이 장치에서 용이하게 구현될 수 있으나, 이에 한정되는 것은 아니다. 또한, 영상 표시 장치(100)는 고정형 또는 이동형일 수 있으며, 디지털 방송 수신이 가능한 디지털 방송 수신기일 수 있다.
영상 표시 장치(100)는 평면(flat) 디스플레이 장치뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정 가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다. 영상 표시 장치(100)의 출력 해상도는 예를 들어, HD(High Definition), Full HD, Ultra HD, 또는 Ultra HD 보다 더 선명한 해상도를 포함할 수 있다.
제어 장치(200)는 리모컨 또는 휴대폰과 같이 영상 표시 장치(100)를 제어하기 위한 다양한 형태의 장치로 구현될 수 있다.
또한, 제어 장치(200)는 적외선(infrared) 또는 블루투스(bluetooth)를 포함하는 근거리 통신을 이용하여 영상 표시 장치(100)를 제어할 수 있다. 제어 장치(200)는 구비된 키(버튼을 포함), 터치 패드(touchpad), 사용자의 음성의 수신이 가능한 마이크(도시되지 아니함), 및 제어 장치(200)의 모션 인식이 가능한 센서(도시되지 아니함) 중 적어도 하나를 이용하여 영상 표시 장치(100)의 기능을 제어할 수 있다.
제어 장치(200)는 영상 표시 장치(100)의 전원을 온 시키거나 오프 시키기 위한 전원 온/오프 버튼을 포함한다. 제어 장치(200)는 또한 사용자 입력에 의해 영상 표시 장치(100)의, 채널 변경, 음량 조정, 지상파 방송/케이블 방송/위성 방송 선택, 또는 환경 설정(setting)을 할 수 있다.
제어 장치(200)는 4방향 키(또는, 4방향 버튼)를 포함할 수 있다. 4방향 키는 상, 하, 좌, 우 이동을 지시하는데 이용될 수 있다. 예를 들어, 영상 표시 장치(100)는 4방향 키 중 어느 하나의 방향 키 입력을 수신하는 경우, 해당 방향으로 커서를 이동시킬 수 있다.
제어 장치(200)는 적어도 하나의 스크롤 키를 포함할 수 있다. 스크롤 키는 상하 또는 좌우의 이동을 지시하는데 이용될 수 있다. 예를 들어, 영상 표시 장치(100)는 스크롤 키를 어느 하나의 방향으로 돌리는 입력을 수신하는 경우, 해당 방향으로 커서를 이동시킬 수 있다.
또한, 제어 장치(200)는 포인팅 장치일 수도 있다. 예를 들어, 제어 장치(200)는 특정 키 입력을 수신하는 경우에, 포인팅 장치로 동작할 수 있다. 영상 표시 장치(100)는 제어 장치(200)를 상, 하, 좌, 우로 움직이거나 임의의 방향으로 기울이는 사용자 입력에 의해 제어될 수 있다. 제어 장치(200)의 센서를 통하여 감지된 제어 장치(200)의 움직임에 관한 정보는, 영상 표시 장치(100)로 전송될 수 있다. 영상 표시 장치(100)는 제어 장치(200)의 움직임에 관한 정보로부터 디스플레이부 상의 커서의 좌표를 산출하고, 산출된 좌표에 대응되도록 커서를 이동시킬 수 있다. 이에 따라, 영상 표시 장치(100)의 디스플레이부 상의 커서가 이동되거나 표시된 다양한 메뉴들이 활성화될 수 있다.
또는, 제어 장치(200)가 터치 패드를 포함하는 경우, 터치 패드 상에서 움직이는 사용자의 손가락과 같은 피사체의 변위 값에 따라 영상 표시 장치(100)의 디스플레이 상의 커서가 이동되거나 표시된 다양한 메뉴들이 선택적으로 활성화될 수 있다.
본 명세서의 실시예에서 “사용자”라는 용어는 제어 장치(200)를 이용하여 영상 표시 장치(100)의 기능 또는 동작을 제어하는 사람을 의미하며, 시청자, 관리자 또는 설치 기사를 포함할 수 있다.
한편, 일 실시예에 따른, 영상 표시 장치(100)는 디스플레이부에 표시된 제1 이미지 중 제1 영역(10)에 표시되는 제1 이미지의 일부를 확대하여, 제2 이미지를 생성할 수 있다. 또한, 영상 표시 장치(100)는 제2 이미지를 제2 영역(20)에 표시할 수 있다. 이때, 제2 영역(20)은 제1 영역(10)보다 크고, 제1 영역에 오버랩되는 영역일 수 있다. 또는, 제1 영역(10) 및 제2 영역(20)은 동일한 영역일 수 있다. 또는, 제2 영역(20)은 제1 영역(10)의 위치와 관계없이, 고정된 영역일 수 있다.
한편, 일 실시예에 따른, 제1 영역(10) 및 제2 영역(20)은 사용자 입력에 대응하여 이동될 수 있다. 예를 들어, 영상 표시 장치(100)는 사용자 입력에 대응하여, 제1 영역(10)을 이동시킴으로써, 확대시키고자 하는 이미지의 일부를 설정할 수 있다. 또한, 영상 표시 장치(100)는 사용자 입력에 대응하여, 제2 영역(20)을 이동시킴으로써, 확대된 이미지가 표시되는 영역의 위치를 설정할 수 있다.
도 2 는 일 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다. 도 2의 영상 표시 장치(100a)는 도 1의 영상 표시 장치(100)의 일 실시예일 수 있다.
도 2를 참조하면, 일 실시예에 따른 영상표시장치(100a)는 제어부(110), 디스플레이부(120) 및 감지부(130)를 포함할 수 있다.
디스플레이부(120)는, 제어부(110)에서 처리된 영상 신호, 데이터 신호, OSD 신호, 제어 신호 등을 변환하여 구동 신호를 생성한다. 디스플레이부(120)는 PDP, LCD, OLED, 플렉시블 디스플레이(flexible display)등으로 구현될 수 있으며, 또한, 3차원 디스플레이(3D display)로 구현될 수 있다. 또한, 디스플레이부(120)는, 터치 스크린으로 구성되어 출력 장치 이외에 입력 장치로 사용되는 것도 가능하다.
일 실시예에 따른, 디스플레이부(120)는 제1 이미지를 표시할 수 있다. 또한, 디스플레이부(120)는 제1 이미지 중 확대시키고자 하는 부분을 설정하는 제1 영역을 표시할 수 있다. 또한, 디스플레이부(120)는 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지를 표시할 수 있다.
일 실시예에 따른 감지부(130)는, 사용자 입력을 감지하여, 감지된 신호를 제어부(110)로 전달할 수 있다. 또한, 감지부(130)는 제어 장치(200)로부터 전원 온/오프, 채널 선택, 채널-업/다운, 화면 설정 등의 사용자 입력을 감지할 수 있다. 또한, 일 실시예에 따른 감지부(130)는 디스플레이부(120)에 표시되는 이미지에서, 확대시키고자 하는 영역(제1 영역) 또는 확대된 이미지를 표시하는 영역(제2 영역)을 이동시키기 위한 사용자 입력, 커서를 이동시키기 위한 사용자 입력, 확대된 이미지(제2 이미지)를 이동시키는 입력, 제2 이미지를 줌-인 시키는 입력, 제2 이미지를 줌-아웃 시키는 입력, 제1 이미지에 포함되는 적어도 하나의 객체 중 관심 객체를 선택하는 사용자 입력 등을 감지할 수 있다.
일 실시예에 따른 제어부(110)는 영상 신호를 처리하여 디스플레이부(120)로 입력할 수 있다. 이에 따라, 해당 영상 신호에 대응하는 영상이 디스플레이부(120)에 표시될 수 있다. 또한, 제어부(110)는 감지부(130)를 통하여 감지된 사용자 명령 또는 내부 프로그램에 의하여 영상표시장치(100a)를 제어할 수 있다.
예를 들어, 일 실시예에 따르면, 제어부(110)는 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 제2 이미지 중 일부를 상기 제1 영역에 표시할 수 있다.
또한, 제어부(110)는 감지된 사용자 입력에 대응하여, 제1 영역 내에서, 제2 이미지를 이동시켜 표시하도록 제어할 수 있다. 또한, 제어부(110)는 감지된 방향 키 입력에 대응하는 방향으로 제2 이미지를 이동시켜 표시하도록 제어할 수 있다. 또한, 제어부(110)는 감지된 줌-인 입력에 대응하여, 제2 이미지를 줌-인 시키거나, 감지된 줌-아웃 입력에 대응하여, 제2 이미지를 줌-아웃 시킬 수 있다.
제어부(110)는 제1 이미지에서 관심 객체를 검출하고, 검출된 관심 객체를 확대하여, 제2 이미지를 생성할 수 있다.
제어부(110)는 제1 이미지에 포함되는 적어도 하나의 객체를 검출하고, 검출된 적어도 하나의 객체를 포함하는 후보 리스트를 디스플레이부(120)에 표시하도록 디스플레이부(120)를 제어할 수 있다.
제어부(110)는 디스플레이부(120)에 표시되는 관심 객체의 크기에 따라 관심 객체의 확대 배율을 조절하고, 조절된 확대 배율에 따라 관심 객체를 확대할 수 있다.
제어부(110)는 디스플레이부(120)에 표시되는 관심 객체의 크기가 임계값 이상인 경우, 관심 객체를 확대하지 않고 표시하도록 디스플레이부(120)를 제어할 수 있다.
제어부(110)는 관심 객체를 확대한 제2 이미지를 관심 객체가 표시되는 영역에 오버랩하여 표시하도록 디스플레이부(120)를 제어할 수 있다.
도 3은 일 실시예에 따른 영상 표시 장치의 구성을 나타내는 블록도이다. 도 3의 영상 표시 장치(100b)는 도 1의 영상 표시 장치(100)의 일 실시예일 수 있다.
도 3을 참조하면, 일 실시예에 따른 영상 표시 장치(100b)는 제어부(110), 디스플레이부(120) 및 감지부(130) 이외에 비디오 처리부(180), 오디오 처리부(115), 오디오 출력부(125), 전원부(160), 튜너부(140), 통신부(150), 입/출력부(170), 저장부(190)를 더 포함할 수도 있다.
제어부(110), 디스플레이부(120) 및 감지부(130)에 대하여, 도 2에서 설명한 내용과 동일한 내용은 도 3에서 생략하기로 한다.
비디오 처리부(180)는, 영상 표시 장치(100b)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(180)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
디스플레이부(120)는 튜너부(140)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다. 또한, 디스플레이부(120)는 통신부(150) 또는 입/출력부(170)를 통해 입력되는 컨텐츠(예를 들어, 동영상)를 표시할 수 있다. 디스플레이부(120)는 저장부(190)에 저장된 영상을 출력할 수 있다. 또한, 디스플레이부(120)는 음성 인식에 대응되는 음성 인식 태스크를 수행하기 위한 음성 UI(User Interface: 예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다.
오디오 처리부(115)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(115)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(115)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
오디오 출력부(125)는 튜너부(140)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(125)는 통신부(150) 또는 입/출력부(170)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(125)는 저장부(190)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자(128) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 및 S/PDIF 출력 단자(128)의 조합을 포함할 수 있다.
전원부(160)는 영상 표시 장치(100b) 내부의 구성 요소들로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(160)는 영상 표시 장치(100b) 내부에 위치하는 하나 또는 둘 이상의 배터리(도시되지 아니함)에서부터 출력되는 전원을 내부의 구성 요소들에게 공급할 수 있다.
튜너부(140)는 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 장치(100)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.
튜너부(140)는 사용자 입력(예를 들어, 제어 장치(200)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호(예를 들어, 케이블 방송 506번)에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.
튜너부(140)는 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(140)는 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수도 있다. 튜너부(140)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 저장부(190)에 저장될 수 있다.
영상 표시 장치(100b)의 튜너부(140)는 하나이거나 복수일 수 있다. 튜너부(140)는 영상 표시 장치(100b)와 일체형(all-in-one)으로 구현되거나 또는 영상 표시 장치(100b)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋탑박스(set-top box, 도시되지 아니함), 입/출력부(170)에 연결되는 튜너부(도시되지 아니함))로 구현될 수 있다.
통신부(150)는 영상 표시 장치(100b)를 외부 장치(예를 들어, 오디오 장치 등)와 연결할 수 있다. 제어부(110)는 통신부(150)를 통해 연결된 외부 장치로 컨텐츠를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 통신부(150)는 영상 표시 장치(100)의 성능 및 구조에 대응하여 무선 랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153) 중 하나를 포함할 수 있다. 또한, 통신부(150)은 무선랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153)의 조합을 포함할 수 있다. 통신부(150)는 제어 장치(200)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.
통신부(150)는 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.
감지부(130)는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지한다.
마이크(131)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(131)는 수신된 음성을 전기 신호로 변환하여 제어부(110)로 출력할 수 있다. 사용자 음성은 예를 들어, 영상 표시 장치(100b)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 마이크(131)의 인식 범위는 마이크(131)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(161)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
일 실시예에 따라 제어부(110)가 영상 표시 장치(100b)를 시청하는 사용자의 아이덴티티를 식별하는데 사용할 수 있도록 마이크(131)는 사용자의 발화된 음성 등을 수신하고 수신된 음성 데이터를 제어부(110)로 출력할 수 있다.
마이크(131)는 영상 표시 장치(100b)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 마이크(131)는 통신부(150) 또는 입/출력부(170)를 통해 영상 표시 장치(100b)와 전기적으로 연결될 수 있다.
영상 표시 장치(100b)의 성능 및 구조에 따라 마이크(131)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
카메라부(132)는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라부(132)의 인식 범위는 카메라부(132)에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라부(132)는 제어부(110)의 제어에 따라 수신된 영상을 전기 신호로 변환하여 제어부(110)로 출력할 수 있다.
일 실시예에 따라 제어부(110)가 영상 표시 장치(100b)를 시청하는 사용자의 아이덴티티를 식별하는데 사용할 수 있도록 카메라부(132)는 사용자의 얼굴 등을 촬영하고 촬영된 얼굴 이미지를 제어부(110)로 출력할 수 있다.
제어부(110)는 수신된 모션의 인식 결과를 이용하여 영상 표시 장치(100b)에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 채널 조정, 볼륨 조정, 지시자 이동, 커서 이동을 포함할 수 있다.
카메라부(132)는 렌즈(도시되지 아니함) 및 이미지 센서(도시되지 아니함)로 구성될 수 있다. 카메라부(132)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라부(132)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라부(132)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지 또는 3차원 모션을 수신할 수 있다.
카메라부(132)는 영상 표시 장치(100b)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라부(132)를 포함하는 별도의 장치(도시되지 아니함)는 통신부(150) 또는 입/출력부(170)를 통해 영상 표시 장치(100b)와 전기적으로 연결될 수 있다.
영상 표시 장치(100b)의 성능 및 구조에 따라 카메라부(132)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
광 수신부(133)는 외부의 제어 장치(200)에서부터 수신되는 광 신호(제어 신호를 포함)를 디스플레이부(120)의 베젤의 광창(도시되지 아니함) 등을 통해 수신한다. 광 수신부(133)는 제어 장치(200)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 제어 신호가 추출될 수 있다.
입/출력부(170)는 영상 표시 장치(100b)의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(170)는 HDMI 포트(High-Definition Multimedia Interface port, 171), 컴포넌트 잭(component jack, 172), PC 포트(PC port, 173), 및 USB 포트(USB port, 174) 중 하나를 포함할 수 있다. 입/출력부(170)는 HDMI 포트(171), 컴포넌트 잭(172), PC 포트(173), 및 USB 포트(174)의 조합을 포함할 수 있다.
입/출력부(170)의 구성 및 동작은 본 발명의 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제어부(110)는 영상 표시 장치(100b)의 전반적인 동작 및 영상 표시 장치(100b)의 내부 구성 요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 저장부(190)에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부(110)는 영상 표시 장치(100b)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 영상 표시 장치(100b)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 181), 영상 표시 장치(100b)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 182) 및 프로세서(Processor, 183)를 포함할 수 있다.
프로세서(183)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(183)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(183)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서(183)는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(183)는 메인 프로세서(main processor, 도시되지 아니함) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 도시되지 아니함)로 구현될 수 있다.
그래픽 처리부(184)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 감지부(130)를 통해 감지된 사용자 입력을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이부(120)의 디스플레이 영역 내에 표시된다.
제1 내지 n 인터페이스(185-1 내지 185-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.
램(181), 롬(182), 프로세서(183), 그래픽 처리부(184), 제1 내지 n 인터페이스(185-1 내지 185-n)는 내부 버스(bus)(186)를 통해 상호 연결될 수 있다.
본 실시예에서 “영상 표시 장치의 제어부”라는 용어는 프로세서(183), 롬(182) 및 램(181)을 포함한다.
저장부(190)는 영상 표시 장치(100b)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 저장부(190)는 비디오 처리부(180), 디스플레이부(120), 오디오 처리부(115), 오디오 출력부(125), 전원부(130), 튜너부(140), 통신부(150), 감지부(130), 입/출력부(170)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(190)는 영상 표시 장치(100b) 및 제어부의 제어를 위한 제어 프로그램, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션, 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
일 실시예에서 “저장부” 라는 용어는 저장부(190), 제어부의 롬(182), 램(181) 또는 영상 표시 장치(100b)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 저장부(190)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
저장부(190)는 도시되지 아니한 방송 수신 모듈, 채널 제어 모듈, 볼륨 제어 모듈, 통신 제어 모듈, 음성 인식 모듈, 모션 인식 모듈, 광 수신 모듈, 디스플레이 제어 모듈, 오디오 제어 모듈, 외부 입력 제어 모듈, 전원 제어 모듈, 무선(예를 들어, 블루투스)으로 연결되는 외부 장치의 전원 제어 모듈, 음성 데이터베이스(DB), 또는 모션 데이터베이스(DB)를 포함할 수 있다. 저장부(190)의 도시되지 아니한 모듈들 및 데이터 베이스는 영상 표시 장치(100b)에서 방송 수신의 제어 기능, 채널 제어 기능, 볼륨 제어 기능, 통신 제어 기능, 음성 인식 기능, 모션 인식 기능, 광 수신 제어 기능, 디스플레이 제어 기능, 오디오 제어 기능, 외부 입력 제어 기능, 전원 제어 기능 또는 무선(예를 들어, 블루투스)으로 연결되는 외부 장치의 전원 제어 기능을 수행하기 위하여 소프트웨어 형태로 구현될 수 있다. 제어부(110)는 저장부(190)에 저장된 이들 소프트웨어를 이용하여 각각의 기능을 수행할 수 있다.
또한, 디스플레이부(120)를 가지는 영상 표시 장치(100b)는 튜너부를 가지는 별도의 외부 장치(예를 들어, 셋탑 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다. 예를 들어, 영상 표시 장치(100b)는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
영상 표시 장치(100b)는 영상 표시 장치(100b)의 내부 또는 외부 상태를 검출하는 센서(예를 들어, 조도 센서, 온도 센서 등, 도시되지 아니함)를 포함할 수 있다.
한편, 도 2 및 3에 도시된 영상표시장치(100a, 100b)의 블록도는 일 실시예를 위한 블록도이다. 블록도의 각 구성요소는 실제 구현되는 영상표시장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다. 즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 실시예들을 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
도 4는 도 3의 저장부(190)에 저장된 소프트웨어 구성을 설명하기 위한 도면이다.
도 4를 참조하면, 저장부(190)에는 베이스 모듈(191), 센싱 모듈(192), 통신 모듈(193), 프리젠테이션 모듈(194), 웹 브라우저 모듈(195), 서비스 모듈(196)을 포함하는 소프트웨어가 저장될 수 있다.
베이스 모듈(191)이란 영상 표시 장치(100)에 포함된 각 하드웨어들로부터 전달되는 신호를 처리하여 상위 레이어 모듈로 전달하는 기초 모듈을 의미한다. 베이스 모듈(191)은 스토리지 모듈(191-1), 보안 모듈(191-2) 및 네트워크 모듈(191-3) 등을 포함한다. 스토리지 모듈(191-1)이란 데이터베이스(DB)나 레지스트리를 관리하는 프로그램 모듈이다. 프로세서(183)는 스토리지 모듈(191-1)을 이용하여 저장부(190) 내의 데이터베이스에 액세스하여, 각종 데이터를 독출할 수 있다. 보안 모듈(191-2)이란 하드웨어에 대한 인증(Certification), 요청 허용(Permission), 보안 저장(Secure Storage) 등을 지원하는 프로그램 모듈이다. 그리고 네트워크 모듈(191-3)은 네트워크 연결을 지원하기 위한 모듈로 DNET 모듈, UPnP 모듈 등을 포함한다.
센싱 모듈(192)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 센싱 모듈(192)은 헤드 방향 인식 모듈, 얼굴 인식 모듈, 음성 인식 모듈, 모션 인식 모듈, NFC 인식 모듈 등을 포함할 수도 있다.
통신 모듈(193)은 외부와 통신을 수행하기 위한 모듈이다. 통신 모듈(193)은 메신저 프로그램, SMS(Short Message Service) & MMS(Multimedia Message Service) 프로그램, 이메일 프로그램 등과 같은 메시징 모듈(193-1), 전화 정보 수집기(Call Info Aggregator) 프로그램 모듈, VoIP 모듈 등을 포함하는 텔레포니 모듈(193-2)을 포함할 수 있다.
프리젠테이션 모듈(194)은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈(194)은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈(194-1), UI 및 그래픽 처리를 수행하는 UI 렌더링 모듈(194-2)을 포함한다. 멀티미디어 모듈(194-1)은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI 렌더링 모듈(194-2)은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
웹 브라우저 모듈(195)은 웹 브라우징을 수행하여 웹 서버에 액세스하는 모듈을 의미한다. 웹 브라우저 모듈(195)은 웹 페이지를 구성하는 웹 뷰(web view) 모듈, 다운로드를 수행하는 다운로드 에이전트 모듈, 북마크 모듈, 웹킷(Webkit) 모듈 등과 같은 다양한 모듈을 포함할 수 있다.
서비스 모듈(196)은 다양한 서비스를 제공하기 위한 각종 애플리케이션(application)을 포함하는 모듈이다. 구체적으로는, 서비스 모듈(196)은 SNS 프로그램, 컨텐츠 재생 프로그램, 게임 프로그램, 전자 책 프로그램, 달력 프로그램, 알람 관리 프로그램, 기타 위젯 등과 같은 다양한 프로그램 모듈을 포함할 수 있다.
도 4에서는 다양한 프로그램 모듈들을 도시하였으나, 도시된 각종 프로그램 모듈들은 영상 표시 장치(100)의 종류 및 특성에 따라 일부 생략되거나 변형 또는 추가될 수 있음은 물론이다. 가령, GPS 칩과 같은 하드웨어와 연동하여 위치 기반 서비스를 지원하는 위치 기반 모듈을 더 포함하는 형태로 구현될 수 있다.
도 5는 일 실시예에 따른 제어 장치의 구성을 나타내는 블록도이다.
도 5를 참조하면, 제어 장치(200)는 무선 통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원 공급부(260), 저장부(270) 및 제어부(280)를 포함할 수 있다.
무선 통신부(220)는 전술하여 설명한 실시예들에 따른 영상 표시 장치들 중 임의의 어느 하나와 신호를 송수신할 수 있다. 무선 통신부(220)는 RF 통신규격에 따라 영상 표시 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비할 수 있다. 또한, 제어 장치(200)는 IR 통신규격에 따라 영상 표시 장치(100)와 신호를 송수신할 수 있는 IR 모듈을 구비할 수 있다.
본 실시예에서, 제어 장치(200)는 영상 표시 장치(100)로 제어 장치(200)의 움직임 등에 관한 정보가 담긴 신호를 RF 모듈(221)을 통하여 전송한다.
또한, 제어 장치(200)는 영상 표시 장치(100)가 전송한 신호를 RF 모듈(221)을 통하여 수신할 수 있다. 또한, 제어 장치(200)는 필요에 따라 IR 모듈(223)을 통하여 영상 표시 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 제어 장치(200)로 영상 표시 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드 키 버튼을 구비할 경우, 사용자는 하드 키 버튼의 푸쉬 동작을 통하여 제어 장치(200)로 영상 표시 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트 키를 터치하여 제어 장치(200)로 영상 표시 장치(100)와 관련된 명령을 입력할 수 있다.
예를 들어, 사용자 입력부(230)는 4 방향 버튼 또는 4 방향 키를 포함할 수 있다. 4 방향 버튼 또는 4 방향 키는 디스플레이부(120)에 표시되는 윈도우, 영역, 어플리케이션, 또는 아이템을 제어하는데 이용될 수 있다. 4방향 키나 버튼은 상, 하, 좌, 우 이동을 지시하는데 이용될 수 있다. 또한, 사용자 입력부(230)는 4방향 키나 4 방향 버튼 대신에 2 방향 키나 2방향 버튼을 포함할 수 있음을 당업자에 의해 이해될 수 있을 것이다.
또한, 사용자 입력부(230)는 스크롤 키나, 조그 키 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있다.
또한, 사용자 입력부(230)는 터치 패드를 포함할 수 있다. 일 실시예에 따른 사용자 입력부(230)는 제어 장치(200)의 터치 패드를 통해 드래그(drag), 터치(touch) 또는 플립(flip)하는 사용자 입력을 수신할 수 있다. 또한, 수신한 사용자 입력의 종류(예를 들면, 드래그 명령이 입력된 방향, 터치 명령이 입력된 시간)에 따라, 영상 표시 장치(100)가 제어될 수 있다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있다. 자이로 센서(241)는 제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다. 일예로, 자이로 센서(241)는 제어장치(200)의 동작에 관한 정보를 x, y, z 축을 기준으로 센싱할 수 있다. 가속도 센서(243)는 제어 장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 거리 측정 센서를 더 구비할 수 있으며, 이에 의해, 영상 표시 장치(100)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(230)의 조작에 대응하거나 영상 표시 장치(100)에서 수신한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(230)의 조작 여부 또는 영상 표시 장치(100)의 제어 여부를 인지할 수 있다.
일예로, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상표시장치(100)와 신호가 송수신되면 점등되는 LED 모듈, 진동을 발생하는 진동 모듈, 음향을 출력하는 음향 출력 모듈, 또는 영상을 출력하는 디스플레이 모듈을 구비할 수 있다.
전원 공급부(260)는 제어 장치(200)로 전원을 공급한다. 전원 공급부(260)는 제어 장치(200)가 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원 공급부(260)는 제어 장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 제어 장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다.
제어부(280)는 제어 장치(200)의 제어에 관련된 제반 사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 제어 장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 표시 장치(100)로 전송할 수 있다.
영상 표시 장치(100)는, 제어 장치(200)의 동작에 대응하는 커서의 좌표값을 산출할 수 있는 좌표값 산출부(미도시)를 포함할 수 있다.
좌표값 산출부(미도시)는 감지된 제어 장치(200)의 동작에 대응하는 신호로부터 손떨림이나 오차를 수정하여 디스플레이부(120)에 표시할 커서의 좌표값(x,y)을 산출할 수 있다.
또한, 감지부(130)를 통하여 감지된 제어 장치(200)의 전송 신호는 영상 표시 장치(100)의 제어부(110)로 전송된다. 제어부(110)는 제어 장치(200)가 전송한 신호로부터 제어 장치(200)의 동작 및 키 조작에 관한 정보를 판별하고, 그에 대응하여 영상 표시 장치(100)를 제어할 수 있다.
또 다른 예로, 제어 장치(200)는, 그 동작에 대응하는 커서의 좌표값을 산출하여 영상 표시 장치(100)로 전송할 수 있다. 이 경우, 영상 표시 장치(100)는 별도의 손떨림이나 오차 보정 과정 없이 수신된 포인터 좌표값에 관한 정보를 제어부(110)로 전송할 수 있다.
도 6a 내지 도 6d는 일 실시예에 따라 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 6a를 참조하면, 디스플레이부(120)는 제1 이미지(610)를 표시할 수 있다. 또한, 디스플레이부(120)의 제1 영역(620)은 확대 영역으로 설정된 영역일 수 있다. 제1 영역(620)은 사용자 입력에 의해 설정될 수 있다. 또는, 제어부(110)가 제1 이미지에서 관심 객체를 검출하고, 검출된 관심 객체가 표시되는 영역을 제1 영역(620)으로 설정할 수 있다. 예를 들어, 제어부(110)는 제1 이미지에서 텍스트를 검출하고, 텍스트가 표시되는 영역을 제1 영역(620)으로 설정할 수 있다.
일 실시예에 따른 영상 표시 장치(100)는 확대 입력을 감지할 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 특정 키를 누르는 입력을 확대 입력으로 감지할 수 있다. 또는, 영상 표시 장치(100)는 제어 장치(200)에 포함된 터치 패드를 터치하거나 드래그하는 입력을 확대 입력으로 감지할 수 있다. 또는, 영상 표시 장치(100)는 제어 장치(200)에 포함된 스크롤 키를 일 방향으로 돌리는 입력을 확대 입력으로 감지할 수 있다. 다만, 이에 한정하는 것은 아니다.
한편, 도 6b를 참조하면, 영상 표시 장치(100)는 확대 입력이 감지되는 경우, 제1 영역(620)에 표시되는 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 제2 이미지의 일부를 제1 영역(620)에 표시할 수 있다. 이때, 제2 이미지는 제1 이미지의 일부를 확대한 이미지로써, 제1 이미지의 일부보다 크기가 크며, 제1 영역(620)에는 제2 이미지의 일부만 표시될 수 있다.
또한, 디스플레이부(120)는 제1 영역(620)에 제2 이미지의 이동 가능한 방향을 나타내는 아이콘을 표시할 수 있다. 이때, 아이콘은 해당 방향으로 표시되지 않은 제2 이미지의 부분이 남아 있음을 나타낼 수 있다. 예를 들어, 도 6b에 도시된 바와 같이, 제2 이미지를 상, 하, 좌, 우로 이동시킬 수 있음을 나타내는 삼각형 아이콘(630)을 표시할 수 있다. 다만, 이에 한정하는 것은 아니며, 아이콘(630)은 다양한 모양과 크기를 가질 수 있다. 또한, 아이콘(630)의 모양과 크기는 사용자 입력에 기초하여, 다양하게 설정될 수 있다.
영상 표시 장치(100)는 제2 이미지를 이동시키는 사용자 입력을 감지하여, 제1 영역(620) 내에서, 제2 이미지를 이동시켜 표시할 수 있다.
예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 4방향 키 중 어느 하나의 방향 키 입력을 수신하는 경우, 수신한 방향 키 입력에 대응하는 방향으로 제2 이미지를 이동시킬 수 있다. 영상 표시 장치(100)가 오른쪽 방향 키 입력(오른쪽 방향 키를 누르는 입력)을 수신하는 경우, 영상 표시 장치(100)는 도 6c에 도시된 바와 같이, 제2 이미지를 왼쪽 방향(오른쪽 방향과 반대 방향)으로 이동시켜, 표시할 수 있다. 다만, 이에 한정하는 것은 아니며, 오른쪽 방향 키 입력에 응답하여, 제2 이미지를 오른쪽 방향으로 이동시킬 수도 있다. 또한, 제2 이미지를 이동시키는 사용자 입력은, 4방향 키 입력 이외에도 스크롤 키 입력, 터치 입력, 제어 장치를 상, 하, 좌, 우로 이동시키는 입력 등을 포함할 수 있다.
또한, 도 6d를 참조하면, 디스플레이부(120)는 제1 영역(620)의 우측에 수직 스크롤 바(651)를 표시하고, 하단에 수평 스크롤 바(652)를 표시할 수 있다. 수직 스크롤 바(651) 및 수평 스크롤 바(652)는 현재 제1 영역(620)에 표시되는 제2 이미지의 일부가 제2 이미지의 전체에서 어디쯤 위치하는지를 표시할 수 있다. 영상 표시 장치(100)는 제어 장치(200)에 포함된 4방향 키 중 위 방향 키 또는 아래 방향 키 입력을 수신하여, 수직 스크롤 바(651)에 표시된 스크롤 박스를 위 아래로 이동시킬 수 있으며, 이에 따라, 제2 이미지를 위아래로 이동시킬 수 있다. 또는, 4방향 키 중 왼쪽 방향 키 또는 오른쪽 방향 키 입력을 수신하여, 수평 스크롤 바(652)에 표시된 스크롤 박스를 좌우로 이동시킬 수 있으며, 이에 따라 제2 이미지를 좌우로 이동시킬 수 있다. 다만, 이에 한정하는 것은 아니며, 4방향 키 입력 이외에도 스크롤 키를 위아래로 돌리거나, 좌우로 돌리는 입력, 스크롤 박스를 드래그하는 입력 등을 이용하여, 제2 이미지를 이동시킬 수 있다.
도 7a 내지 도 7c는 일 실시예에 따라 디스플레이부에 표시되는 전체 이미지를 확대한 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 7a를 참조하면, 디스플레이부(120)는 도 6b에서 설명한 바와 같이, 제1 영역에 표시되는 제1 이미지(전체 이미지)의 일부를 확대하여, 생성된 제2 이미지를 제1 영역에 표시할 수 있다.
일 실시예에 따른 영상 표시 장치(100)는 전체 확대 입력을 감지할 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 특정 키를 누르는 입력을 전체 확대 입력으로 감지할 수 있다. 또는 제어 장치(200)에 포함된 터치 패드를 터치하거나 드래그하는 입력을 전체 확대 입력으로 감지할 수 있다. 또는, 제어 장치(200)에 포함된 스크롤 키를 일 방향으로 돌리는 입력을 전체 확대 입력으로 감지할 수 있다. 다만, 이에 한정하는 것은 아니다.
한편, 도 7b를 참조하면, 영상 표시 장치(100)는 전체 확대 입력이 감지되는 경우, 디스플레이부(120)에 표시되는 전체 이미지를 확대하여, 확대 이미지 중 일부를 표시할 수 있다. 또한, 디스플레이부(120)는, 현재 디스플레이부(120)에 표시되는 확대 이미지의 일부가 확대 이미지 전체에서 어디쯤 위치하는지를 표시하는 아이콘(720)을 디스플레이부의 좌측 상단에 표시할 수 있다. 예를 들어, 점선으로 표시된 사각형(730)은 확대 이미지 전체를 나타내고, 아이콘(720)은 현재 디스플레이부(120)에 표시되는 확대 이미지의 일부를 나타낸다.
영상 표시 장치(100)는 확대 이미지의 일부가 표시된 상태에서, 확대 이미지를 이동시키는 사용자 입력을 감지하는 경우, 디스플레이부(120) 내에서 확대 이미지를 이동시켜 표시할 수 있다.
예를 들어, 제어 장치(200)에 포함된 4방향 키 중 오른쪽 방향 키 입력 및 위 방향 키 입력을 수신하는 경우, 도 7c에 도시된 바와 같이, 확대 이미지를 왼쪽 및 아래로 이동시켜, 표시할 수 있다. 확대 이미지를 이동시키는 방법에 대해서는 도 6c에서 자세히 설명하였으므로 동일한 설명은 생략하기로 한다.
도 8a 및 도 8b는 일 실시예에 따라 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 8a를 참조하면, 디스플레이부(120)는 제1 이미지를 표시할 수 있다. 일 실시예에 따른 영상 표시 장치(100)는 확대 입력을 감지할 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 특정 키를 누르는 입력이 감지되면, 확대 박스(810)를 표시할 수 있다.
확대 박스(810)는 디스플레이부(120)의 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지를 표시하는 박스일 수 있다. 확대 박스(810)는 제1 영역에 오버랩되도록 표시될 수 있다. 또한, 확대 박스(810)에는 확대 박스의 중심을 나타내는 커서(815)가 표시될 수 있으며, 제1 영역의 중심과 확대 박스(810)의 중심의 위치는 동일할 수 있다.
한편, 커서(815) 는 사용자 입력에 응답하여, 디스플레이부(120) 내에서 이동될 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 4방향 키 중 어느 하나의 방향 키 입력을 감지하는 경우, 감지된 방향 키 입력에 대응하는 방향으로 커서(815)를 이동시킬 수 있다. 또한, 4방향 키 입력 이외에도 스크롤 키 입력, 터치 입력, 제어 장치를 상, 하, 좌, 우로 이동시키는 입력 등을 감지하여, 감지된 방향으로 커서(815)를 이동시킬 수 있다.
또한, 커서(815)가 이동됨에 따라 제1 영역과 확대 박스(810)의 위치도 동일하게 이동될 수 있다. 예를 들어, 도 8b에 도시된 바와 같이, 커서(815)가 왼쪽 아래 방향으로 이동하는 경우, 제1 영역 및 확대 박스(810)도 왼쪽 아래 방향으로 이동할 수 있다. 또한, 제1 영역 및 확대 박스(810)가 이동되면, 영상 표시 장치(100)는 이동된 제1 영역에 표시되는 제1 이미지의 일부를 확대하여, 생성한 제2 이미지를 이동된 확대 박스(810)에 표시할 수 있다.
도 9a 내지 도 9e는 일 실시예에 따른 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 일 예를 나타내는 도면들이다.
도 9a를 참조하면, 일 실시예에 따른 디스플레이부(120)는 제1 이미지를 표시할 수 있다. 일 실시예에 따른 영상 표시 장치(100)는 확대 입력을 감지할 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 특정 키를 누르는 입력이 감지되면, 확대 박스(910)를 표시할 수 있다. 확대 박스(910)는 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 박스이다. 확대 박스(910)에 대해서는 도 9a에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
영상 표시 장치(100)는 확대 박스(910)가 표시된 상태에서, 줌-인 입력 또는 줌-아웃 입력을 감지할 수 있다. 영상 표시 장치(100)는 줌-인 입력을 감지하는 경우, 제1 영역에 표시되는 제1 이미지의 일부를 확대하는 배율을 증가시켜, 제2 이미지를 생성할 수 있다. 또한, 제2 이미지가 표시되는 확대 박스의 크기를 증가시킬 수 있다.
예를 들어, 도 9b를 참조하면, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 터치 패드(235)에, 특정 패턴(예를 들어, 시계 방향의 원)을 그리는 입력을 줌-인 입력으로 감지할 수 있다. 또는, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 스크롤 키를 특정 방향(예를 들어, 위 방향 또는 오른쪽 방향)으로 돌리는 입력을 줌-인 입력으로 감지할 수 있다.
영상 표시 장치(100)는, 터치 패드(915)에, 시계 방향의 원을 그리는 입력을 감지하는 경우, 제1 이미지의 일부를 확대하는 배율을 증가시킬 수 있다. 예를 들어, 도 9a에 도시된 제2 이미지가 제1 이미지의 일부를 2배로 확대한 이미지인 경우, 영상 표시 장치(100)는 줌-인 입력을 감지하면, 제1 이미지의 일부를 3배로 확대할 수 있다. 또한, 영상 표시 장치(100)는 도 9b에 도시된 바와 같이, 3배로 확대한 제2 이미지를 확대 박스(920)에 표시할 수 있다.
또한, 특정 패턴을 그리는 횟수에 따라, 확대 배율이 결정될 수 있다. 예를 들어, 시계 방향의 원을 반복하여, 2번, 3번, 4번 그리는 입력을 감지하는 경우, 영상 표시 장치(100)는 확대 배율을 4배, 5배, 6배로 증가시킬 수 있다. 다만, 이에 한정하는 것은 아니다.
한편, 일 실시예에 따른 영상 표시 장치(100)는 줌-인 입력을 감지하는 경우, 확대 박스의 크기는 일정하게 유지한 채로, 제1 이미지 일부를 확대하는 배율을 증가시켜, 제2 이미지를 생성할 수 있다. 이때, 확대 박스의 크기는 일정하게 유지되므로, 제2 이미지의 일부만 확대 박스에 표시될 수 있다. 또한, 줌-인 입력의 횟수에 따라, 제1 이미지 일부를 확대하는 배율을 증가시킬 수 있다.
반면에, 영상 표시 장치(100)는 줌-아웃 입력을 감지하는 경우, 제1 영역에 표시되는 제1 이미지의 일부를 확대하는 배율을 감소시켜, 제2 이미지를 생성할 수 있다. 또한, 제2 이미지가 표시되는 확대 박스(910)의 크기를 감소시킬 수 있다.
예를 들어, 도 9c를 참조하면, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 터치 패드(235)에 특정 패턴(예를 들어, 반 시계 방향의 원)을 그리는 입력을 줌-아웃 입력으로 감지할 수 있다. 또는, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 스크롤 키를 특정 방향(예를 들어, 아래 방향 또는 왼쪽 방향)으로 돌리는 입력을 줌-아웃 입력으로 감지할 수 있다.
영상 표시 장치(100)는, 터치 패드(235)에, 반 시계 방향의 원을 그리는 입력을 감지하는 경우, 제1 이미지의 일부를 확대하는 배율을 감소시킬 수 있다. 예를 들어, 도 9a에 도시된 제2 이미지가 제1 이미지를 2배로 확대한 이미지인 경우, 영상 표시 장치(100)는 줌-아웃 입력을 감지하면, 제1 이미지의 일부를 1.8배로 확대할 수 있다. 또한, 영상 표시 장치(100)는 도 9c에 도시된 바와 같이, 1.8배로 확대한 제2 이미지를 확대 박스(930)에 표시할 수 있다.
또한, 특정 패턴을 그리는 횟수에 따라, 확대 배율이 결정될 수 있다. 예를 들어, 반 시계 방향의 원을 반복하여, 2번, 3번, 4번 그리는 입력을 감지하는 경우, 영상 표시 장치(100)는 확대 배율을 1.6배, 1.4배, 1.2배로 감소시킬 수 있다. 다만, 이에 한정하는 것은 아니다.
일 실시예에 따른 영상 표시 장치(100)는 확대 박스가 표시된 상태에서, 제1 영역의 크기를 증가 또는 감소시키는 입력을 감지할 수 있다. 영상 표시 장치(100)는 제1 영역의 크기를 증가시키는 입력을 감지하는 경우, 제1 영역의 크기를 증가시킬 수 있다. 이때, 제1 영역의 크기가 증가되면, 제1 영역에 표시되는 제1 이미지 일부의 크기가 증가하고, 이에 따라, 제1 이미지의 일부를 확대한 제2 이미지의 크기도 증가하게 된다. 영상 표시 장치(100)는 제2 이미지가 표시되는 확대 박스(910)의 크기를 증가시킬 수 있다.
예를 들어, 도 9d를 참조하면, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 4방향 키 중 일 방향 키(예를 들어, 위 방향 키 또는 오른쪽 방향 키)를 누르는 입력을 제1 영역의 크기를 증가시키는 입력으로 감지할 수 있다. 또는, 도 9b에서 설명한 바와 같이, 터치 패드(235)에 특정 패턴을 그리는 입력, 스크롤 키를 특정 방향으로 돌리는 입력 등을 제1 영역의 크기를 증가시키는 입력으로 감지할 수 있다. 다만, 이에 한정되는 것은 아니다.
영상 표시 장치(100)는 4방향 키 중 위 방향 키를 누르는 입력을 감지하는 경우, 제1 영역의 크기를 현재 크기보다 1.1배 증가시킬 수 있다. 제1 영역의 크기가 증가하는 경우, 제1 영역에 표시되는 제1 이미지 일부의 크기도 증가하고, 크기가 증가된 제1 영역에 표시되는 제1 이미지 일부를 확대하는 경우, 확대된 제2 이미지의 크기도 증가할 수 있다. 이때, 제1 이미지 일부를 확대하는 배율은 제1 영역의 크기가 증가되기 전과 동일할 수 있다. 또한, 확대된 제2 이미지는 확대 박스에 표시될 수 있으며, 도 9d에 도시된 바와 같이, 확대 박스(940)의 크기는 도 9a의 확대 박스(910)의 크기보다 증가할 수 있다.
또한, 위 방향 키를 누르는 횟수에 따라, 제1 영역이 증가하는 정도(증가율)가 결정될 수 있다. 예를 들어, 위 방향 키를 반복하여, 2번, 3번, 4번 누르는 경우, 영상 표시 장치(100)는 제1 영역을 1.2배, 1.3배, 1.4배로 증가시킬 수 있다. 다만, 이에 한정하는 것은 아니다.
반면에, 영상 표시 장치(100)는 제1 영역의 크기를 감소시키는 입력을 감지하는 경우, 제1 영역의 크기를 감소시킬 수 있다. 이때, 제1 영역의 크기가 감소되면, 제1 영역에 표시되는 제1 이미지 일부의 크기가 감소하고, 이에 따라, 제1 이미지 일부를 확대한 제2 이미지의 크기도 감소하게 된다. 영상 표시 장치(100)는 제2 이미지가 표시되는 확대 박스의 크기를 감소시킬 수 있다.
예를 들어, 도 9e를 참조하면, 영상 표시 장치(100)는 제어 장치(200)에 포함되는 4방향 키 중 일 방향 키(예를 들어, 아래 방향 키 또는 왼쪽 방향 키)를 누르는 입력을 제1 영역의 크기를 감소시키는 입력으로 감지할 수 있다. 또는 도 9c에서 설명한 바와 같이, 터치 패드(235)에 특정 패턴을 그리는 입력, 스크롤 키를 특정 방향으로 돌리는 입력 등을 제1 영역의 크기를 감소시키는 입력으로 감지할 수 있다. 다만, 이에 한정되는 것은 아니다.
영상 표시 장치(100)는 4방향 키 중 아래 방향 키를 누르는 입력을 감지하는 경우, 제1 영역의 크기를 현재 크기보다 0.9배 감소시킬 수 있다. 제1 영역의 크기가 감소하는 경우, 제1 영역에 표시되는 제1 이미지 일부의 크기도 감소하고, 크기가 감소된 제1 영역에 표시되는 제1 이미지 일부를 확대하는 경우, 확대된 제2 이미지의 크기도 감소할 수 있다. 이때, 제1 이미지 일부를 확대하는 배율은 제1 영역의 크기가 감소되기 전과 동일할 수 있다. 또한, 확대된 제2 이미지는 확대 박스에 표시될 수 있으며, 도 9e에 도시된 바와 같이, 확대 박스(950)의 크기는 도 9a의 확대 박스(910)의 크기보다 감소할 수 있다.
또한, 아래 방향 키를 누르는 횟수에 따라, 제1 영역이 감소하는 정도(감소율)가 결정될 수 있다. 예를 들어, 아래 방향 키를 반복하여, 2번, 3번, 4번 누르는 경우, 영상 표시 장치(100)는 제1 영역을 0.8배, 0.7배, 0.6배로 감소시킬 수 있다. 다만, 이에 한정하는 것은 아니다.
도 10은 일 실시예에 따른 제1 영역과 확대 박스의 위치 관계를 나타내는 그래프이고, 도 11은 도 10의 그래프에 따른 제1 영역과 확대 박스의 위치 관계를 도시하는 도면이다.
일 실시예에 따른 확대 박스는 디스플레이부(120)의 제1 영역에 표시되는 제1 이미지 일부를 확대한 제2 이미지를 표시하는 박스일 수 있다.
도 10의 그래프를 참조하면, 가로축은 제1 영역의 위치를 나타내고, 세로축은 확대 박스의 위치를 나타낸다. 일 실시예에 따른, 제1 영역의 위치는 제1 영역의 중심의 위치(예를 들어, 제1 영역의 중심의 x좌표, y좌표)로 나타낼 수 있고, 확대 박스의 위치는 확대 박스의 중심의 위치(예를 들어, x좌표, y좌표)로 나타낼 수 있다. 이하에서는 설명의 편의를 위해, 도 11에 도시된 바와 같이, 디스플레이부 영역의 좌표를, x축 방향으로 0부터 1까지, y축 방향으로 0부터 1까지인 것으로 가정할 수 있다.
도 10에 도시된 점선 그래프(1010)는 제1 영역의 위치와 확대 박스의 위치가 동일한 것을 나타낸다. 도 10의 점선 그래프(1010)를 따라 제1 영역의 위치와 확대 박스의 위치를 결정하는 경우, 디스플레이부(120)의 테두리(엣지) 영역에서, 제1 영역의 이미지를 확대한 제2 이미지의 일부가 표시되지 않을 수 있다. 예를 들어, 도 11의 (a)의 경우와 같이, 제1 영역(1101)은 전체가 디스플레이부(120)에 포함되었으나, 확대 박스(1102)는 일부가 디스플레이부(120)에 포함되지 않은 경우, 제2 이미지 중, 제1 영역에서 음영된 부분(1101a)에 대응하는 부분(1102a)은 디스플레이부(120)에 표시되지 않을 수 있다.
일 실시예에 따른 영상 표시 장치(100)는 도 10의 실선 그래프(1020)에 기초하여, 제1 영역의 위치에 따른 확대 박스의 위치를 결정할 수 있다.
도 10의 실선 그래프(1020)는 다음과 같은 수학식으로 표현될 수 있다.
Figure 112015113503182-pat00001
수학식 1에서, t는 제1 영역의 위치를 나타내고, q는 확대 박스의 위치를 나타낸다. 예를 들어, t는 제1 영역의 중심의 x좌표를 나타내고, q는 확대 박스의 중심의 x좌표를 나타낼 수 있다. 또는, t는 제1 영역의 중심의 y좌표를 나타내고, q는 확대 박스의 중심의 y좌표를 나타낼 수 있다.
도 11의 (b)내지 (i)의 경우는, 도 10의 실선 그래프에 따라 제1 영역(1110)의 위치와 확대 박스(1120)의 위치를 결정하는 예들을 나타낸다. 이하에서는, x 좌표를 기준으로 설명하지만, y 좌표에도 동일하게 적용될 수 있다.
예를 들어, 도 11의 (b), (e), 및 (h)와 같이, 제1 영역의 중심의 x 좌표 및 y 좌표가 0, 0.5, 1 중 어느 하나인 경우, 제1 영역(1110)의 위치와 확대 박스(1120)의 위치는 동일할 수 있다. 즉, 제1 영역(1110)의 중심의 위치와 확대 박스(1120)의 중심의 위치는 동일할 수 있다.
또한, 도 11의 (c) 및 (d)의 경우와 같이, 제1 영역(1110)의 중심의 x 좌표가 0에서 0.5로 증가할 때, 확대 박스(1120)의 중심의 x좌표는, 제1 영역(1110)의 중심 좌표가 증가하는 속도보다 빠르게 증가하다가 일정 값 이상에서는 제1 영역(1110)의 중심 좌표가 증가하는 속도보다 느리게 증가하여, 제1 영역(1110)의 x좌표가 0.5일 때, 확대 박스(1120)의 중심의 x좌표도 0.5일 수 있다.
또한, 도 11의 (f) 및 (g)의 경우와 같이, 제1 영역(1110)의 중심의 x 좌표가 0.5에서 1로 증가할 때, 확대 박스(1120)의 중심의 x 좌표는, 제1 영역(1110)의 중심 좌표가 증가하는 속도보다 느리게 증가하다가 일정 값 이상에서는 제1 영역(1110)의 중심 좌표가 증가하는 속도보다 빠르게 증가하여, 제1 영역(1110)의 x 좌표가 1일 때, 확대 박스(1120)의 중심의 x 좌표도 1일 수 있다.
이와 같이, 도 10의 실선 그래프(1020)에 기초하여, 제1 영역(1110)의 위치와 확대 박스(1120)의 위치를 결정하는 경우, 도 11의 (i)의 경우와 같이, 디스플레이부(120)의 테두리(엣지) 영역에서도, 제1 영역(1110)의 이미지를 확대한 제2 이미지가 모두 디스플레이부(120)에 표시될 수 있다.
도 12a 및 도 12b는 일 실시예에 따른 확대 박스가 포인팅 모드에서, 고정되는 예를 나타내는 도면들이다.
도 12a를 참조하면, 일 실시예에 따른 디스플레이부(120)는 제1 이미지를 표시할 수 있다. 일 실시예에 따른 영상 표시 장치(100)는 확대 입력을 감지할 수 있다. 예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 특정 키를 누르는 입력이 감지되면, 확대 박스(1210)를 표시할 수 있다. 확대 박스(1210)는 제1 영역에 표시되는 제1 이미지의 일부를 확대한 제2 이미지가 표시되는 박스이다. 확대 박스(1210)에 대해서는 도 9a에서 자세히 설명하였으므로 구체적인 설명은 생략하기로 한다.
도 12a를 참조하면, 영상 표시 장치(100)는 제어 장치(200)의 터치 패드(235)를 터치하는 입력이 감지되거나, 제어 장치(200)의 사용자 입력부의 소정 버튼이 눌려지는 경우, 포인팅 모드로 동작할 수 있다. 영상 표시 장치(100)가 포인팅 모드로 동작하는 경우, 영상 표시 장치(100)는 제어 장치(200)로부터 포인팅 신호를 수신하여, 디스플레이부(120)에 표시되는 확대 박스(1210)를 이동시킬 수 있다.
예를 들어, 영상 표시 장치(100)는 제어 장치(200)의 센서를 통하여 감지된 제어 장치(200)의 움직임에 관한 정보를 수신하여, 디스플레이부(120) 상의 확대 박스(1210)의 중심의 좌표를 산출하고, 산출된 좌표에 대응되도록 확대 박스(1210)를 이동시킬 수 있다.
또는, 영상 표시 장치(100)는 제어 장치(200)의 터치 패드(235) 상에서 움직이는 사용자의 손가락과 같은 피사체의 변위 값에 따라 디스플레이부(120) 상의 확대 박스(1210)를 이동시킬 수 있다.
반면에, 도 12b에 도시된 바와 같이, 제어 장치(200)의 터치 패드(235)가 터치되지 않거나, 소정 버튼이 눌려지지 않는 경우, 확대 박스(1210)는 이동하지 않고, 고정될 수 있다.
도 13a 및 도 13b는 일 실시예에 따른 영상 표시 장치가 디스플레이부에 표시되는 컨텐츠의 속성에 따른 컨텐츠 확대 방법을 설명하기 위해 참조되는 도면들이다.
도 13a를 참조하면, 일 실시예에 따른 디스플레이부(120)는 비디오 컨텐츠가 재생되는 비디오 영역(1310)과 사용자 인터페이스 화면이 표시되는 UI 영역(1420)을 포함할 수 있다. 예를 들어, 도 13a에 도시된 바와 같이, 영상 표시 장치(100)는 현재 재생되고 있는 비디오 프레임을 비디오 영역(1310)에 표시할 수 있다. 또한, 영상 표시 장치(100)는 복수의 아이템들을 포함하는 사용자 메뉴 화면을 UI 영역(1320)에 표시할 수 있다. 예를 들어, 복수의 아이템들은 현재 재생되고 있는 비디오와 관련된 채널을 나타내는 아이템, 현재 재생되고 있는 비디오와 관련된 TV 쇼를 나타내는 아이템, 현재 재생되고 있는 비디오와 관련된 어플리케이션을 나타내는 아이템들을 포함할 수 있다. 또한, 영상 표시 장치(100)의 다양한 기능들을 이용하기 위한 메뉴 아이콘들을 포함할 수 있다. 다만, 이에 한정하는 것은 아니다.
복수의 아이템들은 이미지와 텍스트로 표시될 수 있다. 예를 들어, 아이템이 방송 채널을 나타내는 아이템인 경우, 아이템은 해당 채널의 로고 이미지 또는 해당 채널에서 현재 방송 중인 프로그램을 나타내는 이미지로 표시될 수 있다. 또한, 해당 채널의 번호 또는 해당 채널에서 방송 중인 프로그램의 제목을 나타내는 텍스트로 표시될 수 있다. 또한, 아이템이 어플리케이션을 나타내는 아이템인 경우, 아이템은 해당 어플리케이션을 나타내는 이미지 또는 마지막으로 실행된 어플리케이션 화면으로 표시될 수 있다. 또한, 해당 어플리케이션의 이름을 나타내는 텍스트로 표시될 수 있다.
또한, 복수의 아이템들 각각이 표시되는 영역은 사각형일 수 있으며, 사각형들의 크기는 서로 동일하거나, 다를 수 있다. 예를 들어, 사각형들의 높이와 너비는 서로 다를 수 있으며, 복수의 아이템들 각각에 대응되는 컨텐츠의 종류, 특성 등에 따라 아이템이 표시되는 영역들이 서로 다른 너비 또는 높이를 가질 수도 있다.
다시, 도 13a를 참조하면, 확대시키고자 하는 제1 영역이 비디오 표시 영역 상에 위치하는 경우, 영상 표시 장치(100)는 도 8a 내지 도 8c에서 설명한 바와 같이, 제1 영역에 표시되는 비디오 프레임 일부를 확대한 제2 이미지를 확대 박스(1330)에 표시할 수 있다. 확대 박스(1330)는 제1 영역에 오버랩되도록 표시될 수 있다. 제1 영역의 이미지를 확대하여, 확대 박스에 표시하는 방법에 대해서는 도 8a 내지 도 11에서 자세히 설명하였으므로, 구체적인 설명은 생략하기로 한다.
한편, UI 영역(1320)에서는 사용자 입력의 위치를 나타내는 커서를 표시할 수 있다. 예를 들어, 비디오 영역(1310)에 표시되는 확대 박스(1330)를, 제어 장치 등을 이용하여, UI 영역(1320) 방향으로 이동시키는 경우, 확대 박스의 중심 커서(1335)가 비디오 영역(1310)과 UI 영역(1320)의 경계를 넘어, UI 영역(1320)으로 이동하게 되면, 도 13b에 도시된 바와 같이, 확대 박스(1330)는 표시되지 않고, 사용자 입력의 위치를 나타내는 커서(1340)가 표시된다.
커서(1340)는 감지되는 사용자 입력에 대응하여, UI 영역 상에서 이동될 수 있다. 도 13b에서는 커서(1340)가 원형인 것으로 도시하였지만, 이에 한정되는 것은 아니며, 커서(1340)는 다양한 모양과 크기를 가질 수 있다. 또한, 커서(1340)의 모양과 크기는 사용자 입력에 기초하여, 다양하게 설정될 수 있다. 커서(1340)는 UI 영역(1320)에 표시되는 복수의 아이템들 중 어느 하나의 아이템 내에 위치할 수 있다. 커서(1340)가 복수의 아이템들 중 어느 하나의 아이템 영역 내에 위치하는 경우, 해당 아이템(1350)은 하이라이트 될 수 있다. 예를 들어, 하이라이트 된 아이템의 색상이 변경될 수 있다. 또한, 아이템(1350)에 표시되는 이미지 또는 텍스트의 크기가 확대될 수 있다. 예를 들어, 도 13b에 도시된 바와 같이, 커서(1340)가 위치하는 아이템에 표시되는 텍스트(“Sherlock series 1”)의 크기가 확대될 수 있다. 이때, 아이템 내에 표시되는 이미지 또는 텍스트의 크기가 확대되더라도, 아이템이 표시되는 아이템 영역(1360)의 크기는 일정하게 유지될 수 있다.
또한, 제어부(110)는 하이라이트된 아이템을 선택하는 사용자 입력을 감지하는 경우, 해당 아이템에 대응하는 동작을 수행할 수 있다. 예를 들어, 하이라이트된 아이템이 관련된 TV 쇼를 나타내는 아이템인 경우, 하이라이트된 아이템을 선택하는 입력을 감지하면, 해당 TV 쇼의 재생 화면을 비디오 영역(1310)에 표시할 수 있다.
도 14a 내지 도 14h는 일 실시예에 따른 디스플레이부가 서로 다른 속성을 가지는 영역들을 포함하는 경우, 선택 영역과 확대 박스의 위치 관계를 나타내는 도면들이다.
도 14a를 참조하면, 일 실시예에 따른 영상 표시 장치(100)는 제1 속성을 가지는 컨텐츠가 표시되는 제1 디스플레이 영역(1410) 및 제2 속성을 가지는 컨텐츠가 표시되는 제2 디스플레이 영역(1420)을 포함할 수 있다. 예를 들어, 제1 속성을 가지는 컨텐츠는 비디오 컨텐츠로써, 제1 디스플레이 영역(1410)에는 비디오 처리부(180)에서 처리된 비디오 데이터가 이미지로 표시될 수 있다. 또한, 제2 속성을 가지는 컨텐츠는 사용자 입력 인터페이스 화면으로써, 제2 영역에는 그래픽 처리부(184)에서 처리된 아이콘, 이미지, 텍스트 등을 포함하는 GUI 화면이 표시될 수 있다. 다만, 이에 한정하는 것은 아니다.
또한, 영상 표시 장치(100)는 확대 박스(1430)를 표시할 수 있다. 확대 박스(1430)는 제1 이미지를 확대한 제2 이미지를 표시하는 박스이며, 제1 이미지는 사용자에 의해 선택된 선택 영역(1440)에 표시되는 이미지이다. 도 14a를 참조하면, 선택 영역(1440)은 점선으로 표시되는 영역이고, 확대 박스(1430)는 실선으로 표시되는 박스일 수 있다. 확대 박스(1430)는 선택 영역(1440)에 오버랩되어 표시될 수 있다.
일 실시예에 따른 선택 영역(1430)은 제어 장치(200)의 방향 키 입력, 터치 입력 등에 의하여, 디스플레이부(120) 내에서 이동될 수 있다.
도 14a 내지 도 14h에서는 선택 영역(1440)이 제1 디스플레이 영역(1410)에서 제2 디스플레이 영역(1420)으로 이동하는 경우를 예로 들어 설명하기로 한다.
도 14a를 참조하면, 선택 영역(1440)은 제1 디스플레이 영역(1410)에 포함되고, 선택 영역(1440)의 위치(선택 영역의 중심의 위치)와 확대 박스(1430)의 위치(확대 박스의 중심의 위치)는 동일할 수 있다.
또한, 선택 영역(1440)이 제2 디스플레이 영역(1420) 방향(예를 들어, 오른쪽 방향)으로 이동하는 경우, 확대 박스(1430)도 선택 영역(1440)과 동일하게 이동할 수 있다. 이때, 도 14a에 도시된 바와 같이, 확대 박스(1430)가 이동하다가 확대 박스(1430)의 오른쪽 경계선이 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선에 접하는 시점부터는, 선택 영역(1440)이 제2 디스플레이 영역(1420) 방향으로 이동하여도, 확대 박스(1430)는 이동하지 않는다. 또한, 확대 박스(1430)는 이동하지 않고, 선택 영역(1440)만 오른쪽 방향으로 이동하다가, 도 14b에 도시된 바와 같이, 선택 영역(1440)의 오른쪽 경계선이 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선에 접하는 시점부터는, 도 14c에 도시된 바와 같이, 선택 영역(1440) 및 확대 박스(1430)가 함께 이동한다. 이때, 선택 영역(1440)이 이동하는 속도보다 확대 박스(1430)가 이동하는 속도가 더 빠를 수 있다.
또한, 선택 영역(1440)에 표시되는 이미지 중 제1 디스플레이 영역(1410)에 표시되는 제1 서브 이미지는 확대되어 확대 박스(1430)의 제1 디스플레이 영역(1410)에 표시되고, 선택 영역(1440)에 표시되는 이미지 중 제2 디스플레이 영역(1420)에 표시되는 제2 서브 이미지는 확대되어 확대 박스(1430)의 제2 디스플레이 영역(1420)에 표시될 수 있다.
한편, 선택 영역(1440) 및 확대 박스(1430)가 함께 이동하다가 도 14d에 도시된 바와 같이, 선택 영역(1440)의 중심의 위치가 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선에 위치하는 경우, 확대 박스(1430)의 중심의 위치도 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선에 위치한다.
또한, 선택 영역(1440) 및 확대 박스(1430)의 위치가 동일한 시점부터는 선택 영역(1440)이 이동하는 속도가 확대 박스(1430)가 이동하는 속도가 더 빠를 수 있다. 이에 따라, 도 14e에 도시된 바와 같이, 확대 박스(1430)의 위치(확대 박스의 중심의 위치)가 선택 영역(1440)의 위치(선택 영역의 중심의 위치)보다 오른쪽에 있을 수 있다.
한편, 선택 영역(1440) 및 확대 박스(1430)가 오른쪽으로 이동하다가 도 14f에 도시된 바와 같이, 선택 영역(1440) 및 확대 박스(1430)의 왼쪽 경계선이 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선에 접하는 시점부터는, 선택 영역(1440)이 제2 디스플레이 영역(1420) 방향으로 이동하여도, 확대 박스(1430)는 이동하지 않는다.
도 14g 및 도 14h에 도시된 바와 같이, 선택 영역(1440)의 위치와 확대 박스(1430)의 위치가 동일해질 때까지, 확대 박스(1430)는 이동하지 않고, 선택 영역(1440)만 오른쪽 방향으로 이동한다. 또한, 선택 영역(1440)의 위치와 확대 박스(1430)의 위치가 동일해지는 시점부터는 선택 영역(1440) 및 확대 박스(1430)가 함께 오른쪽 방향으로 이동할 수 있다.
한편, 도 14a내지 도 14h에서는 선택 영역(1440)이 오른쪽 방향으로 이동하는 예에 대해서만 도시하고 설명하였지만, 선택 영역(1440)이 제1 디스플레이 영역(1410)과 제2 디스플레이 영역(1420) 사이의 경계선을 통과하여, 아래쪽 방향으로 이동하는 경우에도 동일하게 적용될 수 있다.
도 15a 내지 도 는 일 실시예에 따른 영상 표시 장치가 특정 객체를 확대하여 표시하는 일 예를 나타내는 도면들이다.
도 15a를 참조하면, 일 실시예에 따른 디스플레이부(120)는 적어도 하나의 객체를 포함하는 제1 이미지를 표시할 수 있다. 영상 표시 장치(100)는 제1 이미지에 포함되는 적어도 하나의 객체를 검출하여, 검출된 객체를 표시할 수 있다. 예를 들어, 제어부(110)는 제1 이미지를 구성하는 픽셀 값, 밝기 변화, 특징점 추출 등에 기초하여, 제1 이미지를 분석할 수 있다. 또한, 제어부(110)는 이미지에서 객체 인식을 통하여, 제1 이미지 내에서 사람 얼굴, 동물 얼굴, 건물 등의 객체들을 검출할 수 있다. 이미지 내에서 객체를 검출하는 방법 및 알고리즘은 당업계에 이미 알려져 있으므로 구체적인 설명은 생략하기로 한다.
제어부(110)는 제1 이미지에서 검출된 객체들 중 선택된 객체를 확대하여 제2 이미지를 생성하고, 제2 이미지를 디스플레이부(120)에 표시할 수 있다. 예를 들어, 디스플레이부(120)는 제1 이미지에서 검출된 객체에 마크(1510)를 표시할 수 있다. 제어부(110)는 디스플레이부(120)에 표시된 마크가 선택되는 입력이 감지되면, 선택된 마크에 대응하는 객체를 확대하여 표시할 수 있다.
또한, 도 15b를 참조하면, 디스플레이부(120)는 검출된 객체들을 나타내는 후보 리스트(1520)를 표시할 수 있다. 제어부(110)는 후보 리스트(1520)에 포함된 객체들 중 어느 하나의 객체가 선택되는 입력이 감지되면, 선택된 객체를 확대하여 표시할 수 있다.
한편, 도 15c를 참조하면, 영상 표시 장치(100)는 제1 이미지 내의 관심 객체를 직접 선택하는 입력을 감지할 수 있다. 예를 들어, 디스플레이부(120)는 관심 객체를 선택하기 위한 사각 박스(1530)를 제1 이미지 내에 표시할 수 있다. 사용자는, 제어 장치(200)를 이용하여, 디스플레이부(120)에 표시되는 사각 박스(1530)를 관심 객체 영역으로 이동시킨 후, 특정 버튼을 입력하여, 관심 객체를 선택할 수 있다. 영상 표시 장치(100)는 선택된 관심 객체를 확대하여 표시할 수 있다.
도 15d를 참조하면, 일 실시예에 따른 영상 표시 장치(100)는 디스플레이부(120)에 표시되는 이미지 내에서 관심 객체를 자동으로 검출하여, 확대 표시할 수 있다.
예를 들어, 도 15a 내지 도 15c에서 설명한 바와 같이, 제1 이미지에 포함되는 객체들 중 관심 객체가 설정되면, 제어부(110)는 현재 디스플레이부에 표시되는 이미지(이하, 현재 이미지) 내에서 관심 객체를 자동으로 검출할 수 있다. 현재 이미지에 관심 객체가 포함되는 경우, 제어부(110)는 해당 관심 객체를 확대하여, 확대 박스(1540)에 표시할 수 있다.
예를 들어, 영상 표시 장치(100)가 동영상을 재생시키는 경우, 디스플레이부(120)는 동영상에 포함되는 프레임들을 표시할 수 있으며, 관심 객체의 위치는 프레임마다 다를 수 있다. 관심 객체가 프레임마다 다른 위치에 표시되는 경우, 영상 표시 장치(100)는 관심 객체의 위치를 추적하여, 관심 객체를 자동으로 검출할 수 있으며, 관심 객체를 확대하여 확대 박스에 표시할 수 있다.
확대 박스(1540)는 제1 이미지 내에서 관심 객체가 표시되는 영역에 오버랩되도록 표시될 수 있다. 예를 들어, 관심 객체가 프레임마다 위치를 변경하는 경우, 확대 박스의 위치도 관심 객체의 이동에 따라 변경될 수 있다. 또는, 제어부(110)는 확대 박스(1540)가 기 설정된 영역에 표시되도록 제어하거나, 사용자 입력에 기초하여, 확대 박스(1540)가 표시되는 위치를 변경시킬 수 있다. 또한, 영상 표시 장치(100)는 관심 객체를 확대하는 배율을 조절할 수도 있다.
도 15e를 참조하면, 일 실시예에 따른 제어부(110)는 현재 이미지에 표시되는 관심 객체의 크기가 제1 임계값 이상인 경우, 관심 객체를 확대 표시하지 않을 수 있다. 예를 들어, 제어부(110)는 현재 이미지 내에서 관심 객체(1550)를 검출하고, 검출된 관심 객체(1550)의 크기를 계산할 수 있다. 이때, 관심 객체(1550)의 크기가 제1 임계값 이상인 경우, 확대 박스를 표시하지 않고 현재 이미지만 표시되도록 제어할 수 있다.
예를 들어, 표시되는 관심 객체의 크기가 점점 커지는 경우, 확대된 관심 객체의 크기도 점점 커질 수 있으며, 관심 객체의 크기가 제1 임계값 이상인 경우, 영상 표시 장치(100)는 확대된 관심 객체를 표시하지 않을 수 있다. 또한, 관심 객체의 크기가 점점 작아지면서, 관심 객체의 크기가 제1 임계값 미만인 경우, 영상 표시 장치(100)는 다시 확대된 관심 객체를 표시할 수 있다.
반면에, 일 실시예에 따른 제어부(110)는 현재 이미지에 표시되는 관심 객체의 크기가 제2 임계값(제1 임계값보다 작음)보다 작은 경우, 관심 객체를 확대하는 배율을 증가시킬 수 있다.
또한, 제어부(110)는 확대 표시 종료 입력이 감지되면, 확대 박스를 표시하지 않고, 현재 이미지만 표시되도록 제어할 수 있다.
도 16은 일 실시예에 따른 영상 표시 장치의 동작방법을 나타내는 흐름도이다.
도 16을 참조하면, 영상 표시 장치(100)는 제1 이미지를 표시할 수 있다(S1610).
영상 표시 장치(100)는 디스플레이부의 제1 영역에 표시되는 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 제2 이미지 중 일부를 제1 영역에 표시할 수 있다(S1620).
예를 들어, 제1 영역은 확대 영역으로 설정된 영역일 수 있다. 제1 영역은 사용자 입력의 의해 설정된 영역이거나, 제1 이미지에서 검출된 관심 객체가 표시되는 영역일 수 있다.
영상 표시 장치(100)는 확대 입력을 감지하여, 제1 영역에 표시되는 제1 이미지의 일부를 확대하여 제2 이미지를 생성할 수 있다. 이때, 제2 이미지는 제1 이미지의 일부를 확대한 이미지로써, 제1 이미지의 일부보다 크기가 크다. 이에 따라, 영상 표시 장치(100)는 제2 이미지의 일부만 제1 영역에 표시할 수 있다.
또한, 영상 표시 장치(100)는 제1 영역에 제2 이미지의 이동 가능한 방향을 나타내는 아이콘 또는 스크롤 바를 표시할 수 있다.
영상 표시 장치(100)는 제2 이미지를 이동시키는 사용자 입력을 감지하고(S1630), 감지된 사용자 입력에 응답하여, 제1 영역 내에서, 제2 이미지를 이동시켜 표시할 수 있다(S1640).
예를 들어, 영상 표시 장치(100)는 제어 장치(200)에 포함된 4방향 키 중 어느 하나의 방향 키 입력을 수신하는 경우, 수신한 방향 키 입력에 대응하는 방향으로 제2 이미지를 이동시킬 수 있다. 다만, 이에 한정하는 것은 아니며, 4방향 키 입력 이외에도 스크롤 키를 위아래로 돌리거나, 좌우로 돌리는 입력, 스크롤 박스를 드래그하는 입력 등을 이용하여, 제2 이미지를 이동시킬 수 있다.
또한, 일 실시예에 따른 영상 표시 장치(100)는 제2 이미지를 줌-인 또는 줌-아웃 시키는 입력을 감지하고, 감지된 줌-인 입력에 응답하여, 제2 이미지를 줌-인 시키거나, 줌-아웃 입력에 응답하여, 제2 이미지를 줌-아웃 시킬 수 있다.
도 17은 일 실시예에 따른 영상 표시 장치의 동작방법을 나타내는 흐름도이다.
도 17을 참조하면, 영상 표시 장치(100)는 적어도 하나의 객체를 포함하는 제1 이미지를 표시할 수 있다(S1710).
또한, 영상 표시 장치(100)는 제1 이미지에 포함되는 적어도 하나의 객체를 검출하여, 검출된 객체를 표시할 수 있다. 예를 들어, 제어부(110)는 제1 이미지를 구성하는 픽셀 값, 밝기 변화, 특징점 추출 등에 기초하여, 제1 이미지를 분석할 수 있다. 영상 표시 장치(100)는 이미지에서 객체 인식을 통하여, 제1 이미지 내에서 사람 얼굴, 동물 얼굴, 건물 등의 객체들을 검출할 수 있다.
영상 표시 장치(100)는 제1 이미지에서 검출된 객체에 마크를 표시하거나, 검출된 객체들을 포함하는 후보 리스트를 표시할 수 있다.
영상 표시 장치(100)는 적어도 하나의 객체 중 관심 객체를 선택하는 사용자 입력을 감지할 수 있다(S1720).
영상 표시 장치(100)는 제1 이미지에서 관심 객체를 검출하고, 검출된 관심 객체를 확대한 제2 이미지를 표시할 수 있다(S1730).
예를 들어, 영상 표시 장치(100)는 현재 디스플레이부에 표시되는 이미지(현재 이미지) 내에서 관심 객체를 자동으로 검출할 수 있다. 현재 이미지에 관심 객체가 포함되는 경우, 영상 표시 장치(100)는 해당 관심 객체를 확대하여, 확대 박스에 표시할 수 있다. 확대 박스는 제1 이미지 내에서 관심 객체가 표시되는 영역에 오버랩되도록 표시될 수 있다. 또는, 영상 표시 장치(100)는 확대 박스가 기 설정된 영역에 표시되도록 제어하거나, 사용자 입력에 기초하여, 확대 박스가 표시되는 위치를 변경시킬 수 있다. 또한, 영상 표시 장치(100)는 관심 객체를 확대하는 배율을 조절할 수도 있다.
또한, 일 실시예에 따른 영상 표시 장치(100)는 현재 이미지에 표시되는 관심 객체의 크기가 제1 임계값 이상인 경우, 관심 객체를 확대 표시하지 않을 수 있다. 예를 들어, 영상 표시 장치(100)는 현재 이미지 내에서 관심 객체를 검출하고, 검출된 관심 객체의 크기를 계산할 수 있다. 이때, 관심 객체의 크기가 제1 임계값 이상인 경우, 확대 박스를 표시하지 않고 현재 이미지만 표시되도록 제어할 수 있다.
반면에, 일 실시예에 따른 영상 표시 장치(100)는 현재 이미지에 표시되는 관심 객체의 크기가 제2 임계값(제1 임계값보다 작음)보다 작은 경우, 관심 객체를 확대하는 배율을 증가시킬 수 있다.
일 실시예에 따른 영상 표시 장치의 동작방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.

Claims (23)

  1. 제1 이미지를 표시하는 디스플레이부;
    상기 디스플레이부의 제1 영역에 표시되는 상기 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 상기 제2 이미지의 일부를 상기 제1 영역에 표시하도록 상기 디스플레이부를 제어하는 제어부; 및
    상기 제2 이미지를 이동시키는 사용자 입력을 감지하는 감지부;를 포함하고,
    상기 제어부는,
    상기 사용자 입력에 응답하여, 상기 제1 영역 내에서, 상기 제2 이미지를 이동시켜 표시하도록 상기 디스플레이부를 제어하며,
    상기 제2 이미지를 이동시키는 사용자 입력에 따라 상기 제2 이미지가 이동되는 동안 상기 제1 영역은 고정되며,
    상기 제2 이미지를 이동시키는 것은 상기 제1 영역에서 상기 제2 이미지의 표시되는 부분을 변경하는 것이며,
    상기 제2 이미지의 변경된 부분은 상기 제2 이미지를 이동시키는 사용자 입력의 위치와 연관되는 영상 표시 장치.
  2. 제1항에 있어서,
    상기 감지부는,
    방향 키 입력을 감지하고,
    상기 제어부는,
    감지된 방향 키 입력에 대응하는 방향으로 상기 제2 이미지를 이동시켜 표시하도록 제어하는 영상 표시 장치.
  3. 제1항에 있어서,
    상기 디스플레이부는,
    상기 제2 이미지의 이동 가능한 방향을 나타내는 아이콘을 표시하는 영상 표시 장치.
  4. 제1항에 있어서,
    상기 감지부는,
    상기 제2 이미지를 줌-인 또는 줌-아웃 시키는 입력을 감지하고,
    상기 제어부는,
    감지된 상기 줌-인 입력에 대응하여 상기 제2 이미지를 줌-인(zoom-in) 시키거나, 감지된 상기 줌-아웃(zoom-out)입력에 대응하여, 상기 제2 이미지를 줌-아웃시키는 영상 표시 장치.
  5. 제1항에 있어서,
    상기 제어부는,
    상기 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정하는 영상 표시 장치.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 제1 이미지에서 텍스트를 검출하고, 상기 텍스트가 표시되는 영역을 상기 제1 영역으로 설정하는 영상 표시 장치.
  7. 적어도 하나의 객체를 포함하는 제1 이미지를 표시하는 디스플레이부;
    상기 적어도 하나의 객체 중 관심 객체를 설정하는 사용자 입력을 감지하는 감지부; 및
    상기 관심 객체를 설정하는 사용자 입력에 기초하여, 객체 인식을 이용하여, 상기 제1 이미지에서 상기 관심 객체를 검출하고, 검출된 상기 관심 객체를 확대하여 제2 이미지를 생성하고, 상기 제2 이미지를 표시하도록 상기 디스플레이부를 제어하는 제어부;를 포함하는 영상 표시 장치.
  8. 제7항에 있어서,
    상기 제어부는,
    상기 제1 이미지에 포함되는 상기 적어도 하나의 객체를 검출하고, 검출된 상기 적어도 하나의 객체를 포함하는 후보 리스트를 상기 디스플레이부에 표시하도록 제어하고,
    상기 사용자 입력은, 상기 후보 리스트에 포함된 적어도 하나의 객체 중 상기 관심 객체를 선택하는 입력인 영상 표시 장치.
  9. 제7항에 있어서,
    상기 제어부는,
    상기 디스플레이부에 표시되는 상기 관심 객체의 크기에 따라 상기 관심 객체의 확대 배율을 조절하고, 조절된 상기 확대 배율에 따라 관심 객체를 확대하는 영상 표시 장치.
  10. 제7항에 있어서,
    상기 제어부는,
    상기 디스플레이부에 표시되는 상기 관심 객체의 크기가 임계값 이상인 경우, 상기 관심 객체를 확대하지 않고 표시하도록 상기 디스플레이부를 제어하는, 영상 표시 장치.
  11. 제7항에 있어서,
    상기 제어부는,
    상기 제2 이미지를, 상기 관심 객체가 표시되는 영역에 오버랩하여 표시하도록 상기 디스플레이부를 제어하는 영상 표시 장치.
  12. 디스플레이부에 제1 이미지를 표시하는 단계;
    상기 디스플레이부의 제1 영역에 표시되는 상기 제1 이미지의 일부를 확대하여, 제2 이미지를 생성하고, 상기 제2 이미지의 일부를 상기 제1 영역에 표시하는 단계;
    상기 제2 이미지를 이동시키는 사용자 입력을 감지하는 단계; 및
    상기 사용자 입력에 응답하여, 상기 제1 영역 내에서, 상기 제2 이미지를 이동시켜 표시하는 단계를 포함하고,
    상기 제2 이미지를 이동시키는 사용자 입력에 따라 상기 제2 이미지가 이동되는 동안 상기 제1 영역은 고정되며,
    상기 제2 이미지를 이동시켜 표시하는 단계는, 상기 제1 영역에서 상기 제2 이미지의 표시되는 부분을 변경하는 단계를 포함하고,
    상기 제2 이미지의 변경된 부분은 상기 제2 이미지를 이동시키는 사용자 입력의 위치와 연관되는 영상 표시 장치의 동작방법.
  13. 제12항에 있어서,
    상기 사용자 입력을 감지하는 단계는,
    방향 키 입력을 감지하는 단계를 포함하고,
    상기 제2 이미지를 이동시켜 표시하는 단계는,
    감지된 상기 방향 키 입력에 대응하는 방향으로 상기 제2 이미지를 이동시켜 표시하는 단계를 포함하는 영상 표시 장치의 동작방법.
  14. 제12항에 있어서,
    상기 동작방법은,
    상기 제2 이미지의 이동 가능한 방향을 나타내는 아이콘을 표시하는 단계를 더 포함하는 영상 표시 장치의 동작방법.
  15. ◈청구항 15은(는) 설정등록료 납부시 포기되었습니다.◈
    제12항에 있어서,
    상기 동작방법은,
    상기 제2 이미지를 줌-인(zoom-in) 또는 줌-아웃(zoom-out) 시키는 입력을 감지하는 단계; 및
    감지된 상기 줌-인 입력에 대응하여 상기 제2 이미지를 줌-인 시키거나, 감지된 상기 줌-아웃 입력에 대응하여, 상기 제2 이미지를 줌-아웃 시키는 단계를 더 포함하는 영상 표시 장치의 동작방법.
  16. ◈청구항 16은(는) 설정등록료 납부시 포기되었습니다.◈
    제12항에 있어서,
    상기 동작방법은,
    상기 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정하는 단계를 더 포함하는 영상 표시 장치의 동작방법.
  17. ◈청구항 17은(는) 설정등록료 납부시 포기되었습니다.◈
    제16항에 있어서,
    상기 제1 이미지에서 관심 객체를 검출하고, 검출된 상기 관심 객체가 표시되는 영역을 상기 제1 영역으로 설정하는 단계는,
    상기 제1 이미지에서 텍스트를 검출하고, 상기 텍스트가 표시되는 영역을 상기 제1 영역으로 설정하는 단계를 포함하는 영상 표시 장치의 동작방법.
  18. 적어도 하나의 객체를 포함하는 제1 이미지를 표시하는 단계;
    상기 적어도 하나의 객체 중 관심 객체를 설정하는 사용자 입력을 감지하는 단계; 및
    상기 관심 객체를 설정하는 사용자 입력에 기초하여, 객체 인식을 이용하여, 상기 제1 이미지에서 상기 관심 객체를 검출하고, 검출된 상기 관심 객체를 확대하여 제2 이미지를 생성하며, 상기 제2 이미지를 표시하는 단계를 포함하는 영상 표시 장치의 동작방법.
  19. 제18항에 있어서,
    상기 동작방법은,
    상기 제1 이미지에 포함되는 상기 적어도 하나의 객체를 검출하고, 검출된 상기 적어도 하나의 객체를 포함하는 후보 리스트를 표시하는 단계를 더 포함하고,
    상기 사용자 입력은, 상기 후보 리스트에 포함된 적어도 하나의 객체 중 상기 관심 객체를 선택하는 입력인 영상 표시 장치의 동작방법.
  20. 제18항에 있어서,
    상기 동작방법은,
    디스플레이부에 표시되는 상기 관심 객체의 크기에 따라 상기 관심 객체를 확대하는 배율을 조절하는 단계를 더 포함하는 영상 표시 장치의 동작방법.
  21. 제18항에 있어서,
    상기 동작방법은,
    상기 제1 이미지에 포함되는 상기 관심 객체의 크기가 임계값 이상인 경우, 상기 관심 객체를 확대하지 않고 표시하는 단계를 더 포함하는 영상 표시 장치의 동작방법.
  22. 제18항에 있어서,
    상기 제2 이미지를 표시하는 단계는,
    상기 제2 이미지를, 상기 관심 객체가 표시되는 영역에 오버랩하여 표시하는 단계를 포함하는 영상 표시 장치의 동작방법.
  23. 디스플레이; 및
    이미지를 표시하도록 상기 디스플레이를 제어하고,
    확대 기능을 위한 제1 사용자 입력을 감지하는 것에 기초하여, 상기 이미지의 일부를 표시하는 윈도우를 제공하며,
    상기 이미지의 일부를 확대하여 상기 윈도우에 표시하도록 상기 디스플레이를 제어하고,
    제2 사용자 입력에 기초하여, 상기 윈도우의 위치를 변경하고,
    상기 윈도우의 위치와 관련된 상기 이미지의 다른 부분을 확대하여 상기 윈도우에 표시하도록 제어하고,
    상기 윈도우를 고정시키는 제3 사용자 입력에 기초하여, 상기 윈도우의 위치를 제1 위치에 고정시키고,
    상기 윈도우 내에서 상기 이미지의 제1 부분을 이동시키는 제4 사용자 입력에 기초하여, 상기 윈도우 내에 상기 이미지의 제2 부분을 표시하도록 상기 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고,
    상기 이미지의 제1 부분과 상기 제2 부분은 상기 윈도우에 확대되어 표시되며,
    상기 윈도우는 상기 이미지의 상기 제1 부분이 이동되는 동안 제1 위치에 고정되며, 상기 이미지의 상기 제2 부분은 상기 제4 사용자 입력에 따른 제2 위치와 연관되는, 영상 표시 장치.
KR1020150163341A 2015-11-20 2015-11-20 영상 표시 장치 및 그 동작방법 KR102474244B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020150163341A KR102474244B1 (ko) 2015-11-20 2015-11-20 영상 표시 장치 및 그 동작방법
US15/163,183 US11150787B2 (en) 2015-11-20 2016-05-24 Image display device and operating method for enlarging an image displayed in a region of a display and displaying the enlarged image variously
EP16866512.3A EP3360337A4 (en) 2015-11-20 2016-05-24 Image display device and operating method of the same
PCT/KR2016/005479 WO2017086559A1 (en) 2015-11-20 2016-05-24 Image display device and operating method of the same
CN201680067907.7A CN108293146B (zh) 2015-11-20 2016-05-24 图像显示设备及其操作方法
US17/475,968 US20210405838A1 (en) 2015-11-20 2021-09-15 Image display device and operating method for enlarging an image displayed in a region of a display and displaying the enlarged image variously
KR1020220165116A KR20220165707A (ko) 2015-11-20 2022-11-30 영상 표시 장치 및 그 동작방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150163341A KR102474244B1 (ko) 2015-11-20 2015-11-20 영상 표시 장치 및 그 동작방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220165116A Division KR20220165707A (ko) 2015-11-20 2022-11-30 영상 표시 장치 및 그 동작방법

Publications (2)

Publication Number Publication Date
KR20170059242A KR20170059242A (ko) 2017-05-30
KR102474244B1 true KR102474244B1 (ko) 2022-12-06

Family

ID=58717514

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020150163341A KR102474244B1 (ko) 2015-11-20 2015-11-20 영상 표시 장치 및 그 동작방법
KR1020220165116A KR20220165707A (ko) 2015-11-20 2022-11-30 영상 표시 장치 및 그 동작방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220165116A KR20220165707A (ko) 2015-11-20 2022-11-30 영상 표시 장치 및 그 동작방법

Country Status (5)

Country Link
US (2) US11150787B2 (ko)
EP (1) EP3360337A4 (ko)
KR (2) KR102474244B1 (ko)
CN (1) CN108293146B (ko)
WO (1) WO2017086559A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9075492B1 (en) * 2007-03-30 2015-07-07 Amazon Technologies, Inc. Method and system for displaying items
KR101679294B1 (ko) * 2009-08-21 2016-11-25 삼성전자주식회사 이동 경로의 생성, 관리 및 공유 방법과 그 장치
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
US20180275856A1 (en) * 2017-03-23 2018-09-27 Vizio Inc Systems and methods for zooming a selected portion of the graphics layer of a display screen
US10373290B2 (en) * 2017-06-05 2019-08-06 Sap Se Zoomable digital images
EP3677042A1 (en) * 2017-08-30 2020-07-08 Vid Scale, Inc. Tracked video zooming
AU2020344517A1 (en) * 2019-09-09 2022-03-24 PAIGE.AI, Inc. Systems and methods for processing images of slides for digital pathology
CN111176603A (zh) * 2019-12-31 2020-05-19 海信视像科技股份有限公司 一种用于显示设备的图像显示方法及显示设备
JP2021129178A (ja) * 2020-02-12 2021-09-02 シャープ株式会社 電子機器、表示制御装置、表示制御方法、および、プログラム
CN111818311B (zh) * 2020-08-25 2021-06-04 北京中联合超高清协同技术中心有限公司 一种可变视域的超高清视频监视器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262447A1 (en) * 2004-04-14 2005-11-24 Idelix Software Inc. Fisheye lens graphical user interfaces
US20070083819A1 (en) * 2005-10-12 2007-04-12 Idelix Software Inc. Method and system for generating pyramid fisheye lens detail-in-context presentations
US20090254841A1 (en) * 2007-11-12 2009-10-08 Move Sales, Inc. Apparatus, method, and computer program product for characterizing user-defined areas
US20150268822A1 (en) * 2014-03-21 2015-09-24 Amazon Technologies, Inc. Object tracking in zoomed video

Family Cites Families (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754348A (en) * 1996-05-14 1998-05-19 Planetweb, Inc. Method for context-preserving magnification of digital image regions
US6144378A (en) * 1997-02-11 2000-11-07 Microsoft Corporation Symbol entry system and methods
KR100253002B1 (ko) 1997-11-28 2000-04-15 구자홍 디티브이의 디스플레이용 영상 처리장치 및 그 방법
EP1052565A3 (en) * 1999-05-13 2005-05-11 Sony Corporation Information processing method and apparatus
US7197718B1 (en) * 1999-10-18 2007-03-27 Sharp Laboratories Of America, Inc. Interactive virtual area browser for selecting and rescaling graphical representations of displayed data
US6803931B1 (en) * 1999-11-04 2004-10-12 Kendyl A. Roman Graphical user interface including zoom control box representing image and magnification of displayed image
US7434177B1 (en) * 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
GB0116877D0 (en) * 2001-07-10 2001-09-05 Hewlett Packard Co Intelligent feature selection and pan zoom control
CA2465104A1 (en) 2001-10-23 2003-05-01 Samsung Electronics Co., Ltd. Information storage medium including markup document and av data, recording method, reproducing method, and reproducing apparatus therefor
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
KR100515959B1 (ko) 2002-10-29 2005-09-23 삼성테크윈 주식회사 저시력자를 위한 카메라의 제어 방법
US7376908B2 (en) * 2003-03-24 2008-05-20 Microsoft Corporation On-screen display image rendered with MPEG hardware
KR20040093262A (ko) 2003-04-22 2004-11-05 엘지전자 주식회사 Pip모드를 이용한 화면확대기능을 갖는 영상표시기기및 그방법
US8553949B2 (en) * 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7542971B2 (en) * 2004-02-02 2009-06-02 Fuji Xerox Co., Ltd. Systems and methods for collaborative note-taking
JP4352980B2 (ja) * 2004-04-23 2009-10-28 オムロン株式会社 拡大表示装置及び拡大画像制御装置
WO2005125209A1 (en) * 2004-06-22 2005-12-29 Stratech Systems Limited Method and system for surveillance of vessels
US7274378B2 (en) * 2004-07-29 2007-09-25 Rand Mcnally & Company Customized wall map printing system
EP1805578A1 (en) * 2004-09-15 2007-07-11 Nokia Corporation Handling and scrolling of content on screen
US8744852B1 (en) * 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
KR20060031959A (ko) 2004-10-11 2006-04-14 가온미디어 주식회사 디지털 방송 수신기에 채널 전환 방법
US7396129B2 (en) * 2004-11-22 2008-07-08 Carestream Health, Inc. Diagnostic system having gaze tracking
US7847792B2 (en) * 2005-08-15 2010-12-07 Tektronix, Inc. Simple integrated control for zoom/pan functions
EP1955213A4 (en) * 2005-11-07 2010-01-06 Google Inc ILLUSTRATION IN MOBILE DEVICES
KR101360316B1 (ko) 2006-06-09 2014-02-10 톰슨 라이센싱 클로즈드 캡션을 위한 시스템 및 방법
JP4904108B2 (ja) * 2006-07-25 2012-03-28 富士フイルム株式会社 撮影装置及び画像表示制御方法
US10503342B2 (en) * 2006-08-04 2019-12-10 Apple Inc. User interface spaces
US20080118237A1 (en) * 2006-11-22 2008-05-22 Rainer Wegenkittl Auto-Zoom Mark-Up Display System and Method
US8166410B2 (en) * 2006-12-27 2012-04-24 Mlslistings Inc. Methods and systems of online mapping and planning driving tours
KR101310230B1 (ko) * 2007-01-17 2013-09-24 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
EP1959389B1 (en) * 2007-02-16 2017-11-15 Axis AB Providing area zoom functionality for a camera
US20080288888A1 (en) * 2007-05-15 2008-11-20 E-Image Data Corporation Computer User Interface for a Digital Microform Imaging Apparatus
JP5053731B2 (ja) * 2007-07-03 2012-10-17 キヤノン株式会社 画像表示制御装置及び画像表示制御方法及びプログラム及び記録媒体
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US20090132961A1 (en) * 2007-11-16 2009-05-21 Idelix Software Inc. Tunable system for geographically-based online advertising
US20090213218A1 (en) * 2008-02-15 2009-08-27 Andrew Cilia System and method for multi-resolution storage of images
CN101247489A (zh) 2008-03-20 2008-08-20 南京大学 一种用于数字电视细节实时重现的方法
US8428873B2 (en) * 2008-03-24 2013-04-23 Google Inc. Panoramic images within driving directions
US8468469B1 (en) * 2008-04-15 2013-06-18 Google Inc. Zooming user interface interactions
US8068983B2 (en) * 2008-06-11 2011-11-29 The Boeing Company Virtual environment systems and methods
US9092053B2 (en) * 2008-06-17 2015-07-28 Apple Inc. Systems and methods for adjusting a display based on the user's position
KR101009881B1 (ko) * 2008-07-30 2011-01-19 삼성전자주식회사 재생되는 영상의 타겟 영역을 확대 디스플레이하기 위한장치 및 방법
US9658765B2 (en) * 2008-07-31 2017-05-23 Northrop Grumman Systems Corporation Image magnification system for computer interface
JP5116608B2 (ja) * 2008-08-20 2013-01-09 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US20100077304A1 (en) * 2008-09-19 2010-03-25 Microsoft Corporation Virtual Magnification with Interactive Panning
JP5127686B2 (ja) * 2008-12-11 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、ならびに、撮像装置
JP2010147808A (ja) * 2008-12-18 2010-07-01 Olympus Imaging Corp 撮像装置および撮像装置における画像処理方法
US20100188579A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Control and Present a Picture-In-Picture (PIP) Window Based on Movement Data
US8768398B2 (en) 2009-04-23 2014-07-01 Qualcomm Incorporated Measurement aggregation in wireless communications systems
US8319801B2 (en) * 2009-05-08 2012-11-27 International Business Machines Corporation Magnifying content on a graphical display
US20120092253A1 (en) * 2009-06-22 2012-04-19 Pourang Irani Computer Input and Output Peripheral Device
US20120266069A1 (en) * 2009-12-28 2012-10-18 Hillcrest Laboratories, Inc. TV Internet Browser
US8365074B1 (en) * 2010-02-23 2013-01-29 Google Inc. Navigation control for an electronic device
US9335894B1 (en) * 2010-03-26 2016-05-10 Open Invention Network, Llc Providing data input touch screen interface to multiple users based on previous command selections
US9508322B2 (en) * 2010-05-28 2016-11-29 Qualcomm Incorporated Text box resizing
KR20120002834A (ko) 2010-07-01 2012-01-09 삼성전자주식회사 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
KR20120015620A (ko) 2010-08-12 2012-02-22 삼성전자주식회사 디스플레이 방법 및 장치
US8522158B2 (en) * 2010-10-19 2013-08-27 Apple Inc. Systems, methods, and computer-readable media for providing a dynamic loupe for displayed information
US20120113019A1 (en) * 2010-11-10 2012-05-10 Anderson Michelle B Portable e-reader and method of use
US20120147246A1 (en) * 2010-12-13 2012-06-14 Research In Motion Limited Methods And Apparatus For Use In Enabling An Efficient Review Of Photographic Images Which May Contain Irregularities
US9128960B2 (en) * 2011-01-14 2015-09-08 Apple Inc. Assisted image selection
TW201237726A (en) * 2011-03-04 2012-09-16 Sunplus Technology Co Ltd Rapid screen control system
KR101770206B1 (ko) 2011-04-06 2017-08-22 엘지전자 주식회사 이동 단말기 및 이를 이용한 사용자 인터페이스 제공 방법
US9146703B2 (en) * 2011-04-08 2015-09-29 Nintendo Co., Ltd. Storage medium, information processing apparatus, information processing system and information processing method
JP5791364B2 (ja) * 2011-05-16 2015-10-07 キヤノン株式会社 顔認識装置、顔認識方法、顔認識プログラム、およびそのプログラムを記録した記録媒体
MX2013014731A (es) * 2011-06-17 2014-02-11 Thomson Licensing Navegacion de video a traves de ubicacion de objetos.
US20130050131A1 (en) * 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
US8836703B2 (en) * 2011-09-20 2014-09-16 General Electric Company Systems and methods for accurate measurement with a mobile device
US20130156274A1 (en) * 2011-12-19 2013-06-20 Microsoft Corporation Using photograph to initiate and perform action
US9047376B2 (en) * 2012-05-01 2015-06-02 Hulu, LLC Augmenting video with facial recognition
US10061474B2 (en) * 2012-05-04 2018-08-28 Planet Labs, Inc. Overhead image viewing systems and methods
US9256983B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. On demand image overlay
JP5924203B2 (ja) * 2012-09-12 2016-05-25 ブラザー工業株式会社 画像表示制御装置、画像表示制御方法およびプログラム
US9292129B2 (en) * 2012-10-30 2016-03-22 Smart Technologies Ulc Interactive input system and method therefor
KR101494880B1 (ko) * 2012-11-07 2015-02-25 한국과학기술연구원 인지적 아바타 생성 장치 및 방법
US20140130099A1 (en) * 2012-11-08 2014-05-08 General Instrument Corporation User-intiated feedback and correction of program metadata through an electronic program guide
US20140195975A1 (en) * 2013-01-04 2014-07-10 Samsung Electronics Co., Ltd. Display apparatus and method of controlling a display apparatus
GB2509541A (en) 2013-01-08 2014-07-09 Ibm Display tool with a magnifier with a crosshair tool.
JP5761216B2 (ja) * 2013-01-22 2015-08-12 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
US20150212660A1 (en) * 2013-01-25 2015-07-30 Xiaoqiang Su System and method for displaying multiple applications
US8984439B2 (en) * 2013-02-14 2015-03-17 Citibank, N.A. Methods and systems for managing a graphical user interface
US9342759B1 (en) * 2013-03-14 2016-05-17 Hrl Laboratories, Llc Object recognition consistency improvement using a pseudo-tracklet approach
US20140313333A1 (en) * 2013-04-18 2014-10-23 Ford Global Technologies, Llc System and method for imaging a driver of a vehicle
JP6509820B2 (ja) * 2013-05-01 2019-05-08 バイオ−ラッド ラボラトリーズ インコーポレーティッド 調節式デジタル顕微鏡ディスプレイ
KR102135092B1 (ko) 2013-06-03 2020-07-17 엘지전자 주식회사 영상표시장치의 동작 방법
JP6429454B2 (ja) * 2013-11-28 2018-11-28 キヤノン株式会社 撮像装置、撮像装置の制御方法および撮像装置の制御プログラム
US10409366B2 (en) * 2014-04-28 2019-09-10 Adobe Inc. Method and apparatus for controlling display of digital content using eye movement
US9594489B2 (en) * 2014-08-12 2017-03-14 Microsoft Technology Licensing, Llc Hover-based interaction with rendered content
CN104360882B (zh) * 2014-11-07 2018-07-27 北京奇虎科技有限公司 一种浏览器中对网页中图片进行显示方法和装置
US10275436B2 (en) * 2015-06-01 2019-04-30 Apple Inc. Zoom enhancements to facilitate the use of touch screen devices
WO2017031251A2 (en) * 2015-08-17 2017-02-23 Digitalglobe, Inc. Analyzing and viewing social interactions based on personal electronic devices
US10229522B2 (en) * 2016-09-23 2019-03-12 Apple Inc. Fixed size scope overlay for digital images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050262447A1 (en) * 2004-04-14 2005-11-24 Idelix Software Inc. Fisheye lens graphical user interfaces
US20070083819A1 (en) * 2005-10-12 2007-04-12 Idelix Software Inc. Method and system for generating pyramid fisheye lens detail-in-context presentations
US20090254841A1 (en) * 2007-11-12 2009-10-08 Move Sales, Inc. Apparatus, method, and computer program product for characterizing user-defined areas
US20150268822A1 (en) * 2014-03-21 2015-09-24 Amazon Technologies, Inc. Object tracking in zoomed video

Also Published As

Publication number Publication date
US20170147174A1 (en) 2017-05-25
KR20170059242A (ko) 2017-05-30
KR20220165707A (ko) 2022-12-15
US20210405838A1 (en) 2021-12-30
CN108293146B (zh) 2022-01-28
CN108293146A (zh) 2018-07-17
EP3360337A1 (en) 2018-08-15
US11150787B2 (en) 2021-10-19
EP3360337A4 (en) 2018-10-24
WO2017086559A1 (en) 2017-05-26

Similar Documents

Publication Publication Date Title
KR102474244B1 (ko) 영상 표시 장치 및 그 동작방법
US10379698B2 (en) Image display device and method of operating the same
KR102414806B1 (ko) 영상 표시 장치 및 영상 표시 방법
EP3057312A2 (en) Image display apparatus and method
KR102329124B1 (ko) 영상 표시 장치 및 영상 표시 방법
US11500509B2 (en) Image display apparatus and image display method
EP3024220A2 (en) Display apparatus and display method
KR20170106055A (ko) 서비스를 제공하기 위한 gui를 제공하는 영상 출력 장치 및 영상 출력 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant