JP2018506766A - 映像表示装置及び映像表示方法 - Google Patents

映像表示装置及び映像表示方法 Download PDF

Info

Publication number
JP2018506766A
JP2018506766A JP2017530002A JP2017530002A JP2018506766A JP 2018506766 A JP2018506766 A JP 2018506766A JP 2017530002 A JP2017530002 A JP 2017530002A JP 2017530002 A JP2017530002 A JP 2017530002A JP 2018506766 A JP2018506766 A JP 2018506766A
Authority
JP
Japan
Prior art keywords
item
cursor
interval
image
video display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017530002A
Other languages
English (en)
Other versions
JP6505227B2 (ja
Inventor
ジン−ハ・イ
ジャン−ウォン・ソ
ジュン−ソン・パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018506766A publication Critical patent/JP2018506766A/ja
Application granted granted Critical
Publication of JP6505227B2 publication Critical patent/JP6505227B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42208Display device provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4227Providing Remote input by a user located remotely from the client device, e.g. at work
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

ディスプレイ部に複数のアイテムを含むアイテムリスト、及びディスプレイ部上で、ユーザ入力の位置を示すカーソルを表示する段階、カーソルを移動させるためのユーザ入力を感知する段階、並びにユーザ入力に対応し、カーソルを移動させ、複数のアイテムのうち少なくとも1つのアイテムと、カーソルとの位置関係に基づいて、アイテムリストに含まれた少なくとも1つのアイテムの属性を変更させる段階を含む映像表示方法である。

Description

本発明は、映像表示装置及び映像表示方法に係り、さらに詳細には、複数のアイテムを含むアイテムリストでハイライトされたアイテム、及びハイライトされたアイテムに隣接するアイテムの属性を変更して表示することができる映像表示装置及び映像表示方法に関する。
映像表示装置は、ユーザが視聴することができる映像を表示する機能を備えた装置である。ユーザは、映像表示装置を介して、放送を視聴することができる。該映像表示装置は、放送局で送出される放送信号のうち、ユーザが選択した放送をディスプレイに表示する。現在放送は、全世界的に、アナログ放送からデジタル放送に転換されている。
該デジタル放送は、デジタル映像及びデジタル音声信号を送出する放送を意味する。該デジタル放送は、アナログ放送に比べ、外部ノイズに強く、データ損失が少なく、エラー訂正に有利であり、解像度が高く、鮮かな画面を提供する。また、該デジタル放送は、アナログ放送と異なり、双方向サービスが可能である。
また、最近では、デジタル放送機能に加え、多様なコンテンツを提供するスマートテレビが提供されている。該スマートテレビは、ユーザの選択によって手動で動作するのではなく、ユーザの操作なしも、ユーザ所望を分析して提供することを目標にする。
多様な実施形態は、アイテムリストに含まれるアイテムと、カーソルとの位置関係によって、アイテムの属性を連続的に変更して表示することができる映像表示装置及び映像表示方法を提供する。
一実施形態によって、アイテムリストに含まれるアイテムの属性が、カーソルの位置によって連続して変化することにより、ユーザの認知的疲労感を低減させることができる。
一実施形態によって、カーソルを利用して、アイテムリストに含まれたアイテムを選択する場合、アイテム選択の正確度が上昇する。
一実施形態によって、第1パラメータとアイテム属性との関係を示すグラフを多様に変形させることにより、ユーザに多様な感触を提供することができる。
一実施形態による、映像表示装置及び制御装置を示す図面である。 一実施形態による映像表示装置の構成を示すブロック図である。 一実施形態による映像表示装置の構成を示すブロック図である。 図3の保存部に保存されたソフトウェア構成について説明するための図面である。 一実施形態による制御装置の構成を示すブロック図である。 一実施形態による映像表示装置のポインティングモード及び4方向モードについて説明するために参照される図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとの間隔(gap)が変更される事例を示す図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとの間隔(gap)が変更される事例を示す図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとの間隔(gap)が変更される事例を示す図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとに表示されるイメージの不透明度が変形される事例を示す図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとに表示されるイメージの不透明度が変形される事例を示す図面である。 一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとに表示されるイメージの不透明度が変形される事例を示す図面である。 一実施形態による、カーソルがアイテムリストが表示されない領域でアイテムリストが表示される領域に移動される場合、アイテムの属性が変形されるイルイェを示す図面である。 一実施形態による、カーソルがアイテムリストが表示されない領域でアイテムリストが表示される領域に移動される場合、アイテムの属性が変形されるイルイェを示す図面である。 一実施形態による、カーソルがアイテムリストが表示されない領域でアイテムリストが表示される領域に移動される場合、アイテムの属性が変形されるイルイェを示す図面である。 一実施形態による、ポインティングモードから4方向モードに転換される場合、アイテムの属性が変更される事例を示す図面である。 一実施形態による、映像表示装置が4方向モードで動作する事例を示す図面である。 一実施形態による、映像表示装置が4方向モードで動作する事例を示す図面である。 一実施形態による映像表示方法を示すフローチャートである。
一実施形態による映像表示方法は、ディスプレイ部に複数のアイテムを含むアイテムリスト、及び前記ディスプレイ部上で、ユーザ入力の位置を示すカーソルを表示する段階、前記カーソルを移動させるための前記ユーザ入力を感知する段階、及び前記ユーザ入力に対応し、前記カーソルを移動させ、前記複数のアイテムのうち少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムと、前記少なくとも1つのアイテムに隣接するアイテムとの間隔を変更させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、前記少なくとも1つのアイテムと、前記カーソルとの距離によって、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して変更させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、前記複数のアイテムのうち、前記カーソルが位置した第1アイテムと、前記第1アイテムに隣接する第2アイテムとの間隔を変更させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、前記カーソルが前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を最大間隔に変更させ、前記カーソルが前記中心線から遠くなるように移動するにつれ、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して減少させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、前記カーソルが前記複数のアイテムのうち第1アイテムの中心線に位置する場合、前記第1アイテムと、前記第1アイテムに隣接する第2アイテムとの第1間隔、及び第1アイテムと、前記第1アイテムに隣接する第3アイテムとの第2間隔を最大間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第1間隔は、維持させ、前記第2間隔を連続して減少させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第2間隔を最小間隔に変更させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムと、前記第3アイテムに隣接する第4アイテムとの第3間隔を前記最小間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3間隔を連続して増大させ、前記カーソルが第2アイテムの中心線に位置する場合、前記第3間隔を前記最大間隔に変更させる段階を含んでもよい。
一実施形態による映像表示方法は、前記少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムのイメージの不透明度を変更させる段階をさらに含んでもよい。
一実施形態による少なくとも1つのアイテムのイメージの不透明度を変更させる段階は、前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムの第1イメージの不透明度を最大値に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記第1イメージの不透明度を連続して低減させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムのイメージの不透明度を変更させる段階は、前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムの第2イメージの不透明度を最小値に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記第2イメージの不透明度を連続して増大させる段階をさらに含んでもよい。
一実施形態による少なくとも1つのアイテムのイメージの不透明度を変更させる段階は、前記カーソルが、複数のアイテムのうち第1アイテムの中心線に位置する場合、前記第1アイテムの第1イメージの不透明度を最大値に変更させ、前記第1アイテムの第2イメージの不透明度を最小値に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第1アイテムに隣接する第2アイテムの中心線に移動するにつれ、前記第1イメージの不透明度を連続して低減させ、前記第2イメージの不透明度を連続して増大させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第1イメージの不透明度を最小値に変更させ、前記第2イメージの不透明度を最大値に変更させる段階を含んでもよい。
一実施形態による少なくとも1つのアイテムのイメージの不透明度を変更させる段階は、前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムの第3イメージの不透明度を最小値に変更させ、前記第2アイテムの第4イメージの不透明度を最大値に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3イメージの不透明度を増大させ、前記第4イメージの不透明度を低減させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第3イメージの不透明度を最大値に変更させ、前記第4イメージの不透明度を最小値に変更させる段階をさらに含んでもよい。
一実施形態による映像表示方法は、ポインティングモードに進入するための所定入力を感知する段階、及び前記所定入力に対応し、前記カーソルを表示する段階をさらに含んでもよい。
一実施形態による映像表示方法は、IR信号を感知する段階、前記IR信号に対応し、前記カーソルを表示せず、前記複数のアイテムのうち第1アイテムをハイライトさせ、前記第1アイテムの属性値を第1値から第2値に変更させる段階、ハイライトを移動させるためのユーザ入力を感知する段階、及び前記ユーザ入力の方向に対応し、前記第1アイテムに隣接する第2アイテムをハイライトさせ、前記第2アイテムの属性値を、前記第1値から前記第2値に変更させ、前記第1アイテムの属性値を、前記第2値から前記第1値にさらに変更させる段階を含んでもよい。
一実施形態による映像表示装置は、複数のアイテムを含むアイテムリスト、及びユーザ入力の位置を示すカーソルを表示するディスプレイ部、前記カーソルを移動させるための前記ユーザ入力を感知する感知部、及び前記ユーザ入力に対応し、前記カーソルを移動させ、前記複数のアイテムのうち少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムと、前記少なくとも1つのアイテムに隣接するアイテムとの間隔を変更させる制御部を含んでもよい。
一実施形態による制御部は、前記少なくとも1つのアイテムと、前記カーソルとの距離によって、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して変更させることができる。
一実施形態による制御部は、前記複数のアイテムのうち、前記カーソルが位置した第1アイテムと、前記第1アイテムに隣接する第2アイテムとの間隔を変更させることができる。
一実施形態による制御部は、前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を最大間隔に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して減少させることができる。
一実施形態による制御部は、前記カーソルが、前記複数のアイテムのうち第1アイテムの中心線に位置する場合、前記第1アイテムと、前記第1アイテムに隣接する第2アイテムとの第1間隔、及び第1アイテムと、前記第1アイテムに隣接する第3アイテムとの第2間隔を最大間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第1間隔は、維持させ、前記第2間隔を連続して減少させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第2間隔を最小間隔に変更させることができる。
一実施形態による制御部は、前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムと、前記第3アイテムに隣接する第4アイテムとの第3間隔を前記最小間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3間隔を連続して増大させ、前記カーソルが第2アイテムの中心線に位置する場合、前記第3間隔を前記最大間隔に変更させることができる。
一実施形態による制御部は、前記少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムのイメージの不透明度を変更させることができる。
一実施形態による制御部は、前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムの第1イメージの不透明度を最大値に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記第1イメージの不透明度を連続して低減させることができる。
一実施形態による制御部は、前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムの第2イメージの不透明度を最小値に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記第2イメージの不透明度を連続して増大させることができる。
一実施形態による制御部は、前記カーソルが、複数のアイテムのうち第1アイテムの中心線に位置する場合、前記第1アイテムの第1イメージの不透明度を最大値に変更させ、前記第1アイテムの第2イメージの不透明度を最小値に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第1アイテムに隣接する第2アイテムの中心線に移動するにつれ、前記第1イメージの不透明度を連続して低減させ、前記第2イメージの不透明度を連続して増大させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第1イメージの不透明度を最小値に変更させ、前記第2イメージの不透明度を最大値に変更させることができる。
一実施形態による制御部は、前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムの第3イメージの不透明度を最小値に変更させ、前記第2アイテムの第4イメージの不透明度を最大値に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3イメージの不透明度を増大させ、前記第4イメージの不透明度を低減させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第3イメージの不透明度を最大値に変更させ、前記第4イメージの不透明度を最小値に変更させることができる。
一実施形態による感知部は、ポインティングモードに進入するための所定入力を感知し、前記制御部は、前記所定入力に対応し、前記カーソルを前記ディスプレイ部に表示することができる。
一実施形態による感知部は、IR信号を感知し、前記制御部は、前記IR信号に対応し、前記カーソルを表示せず、前記複数のアイテムのうち第1アイテムをハイライトさせ、前記第1アイテムの属性値を第1値から第2値に変更させ、前記感知部で、ハイライトを移動させるためのユーザ入力が感知されれば、前記ユーザ入力の方向に対応し、前記第1アイテムに隣接する第2アイテムをハイライトさせ、前記第2アイテムの属性値を、前記第1値から前記第2値に変更させ、前記第1アイテムの属性値を、前記第2値から前記第1値にさらに変更させることができる。
本明細書で使用される用語について簡略に説明し、本発明について具体的に説明する。
本発明で使用される用語は、本発明での機能を考慮しながら、可能な限り現在広く使用される一般的な用語を選択したが、それらは、当業者の意図、判例または新たな技術の出現などによって異なる。また、特定の場合は、出願人が任意に選定した用語もあり、その場合、当該発明の説明部分において、詳細にその意味を記載する。従って、本発明で使用される用語は、単純な用語の名称ではない、その用語が有する意味と、本発明の全般にわたった内容とを基に定義されなければならない。
明細書全体において、ある部分がある構成要素を「含む」ということ、それは、特別に反対となる記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含んでもよいということを意味する。また、明細書に記載された「…部」、「モジュール」というような用語は、少なくとも1つの機能や動作を処理する単位を意味し、それらは、ハードウェアまたはソフトウェアによっても具現されるか、あるいはハードウェアとソフトウェアとの結合によっても具現される。
以下、添付された図面を参照し、実施形態について、本発明が属する技術分野で当業者が容易に実施することができるように詳細に説明する。しかし、本発明は、さまざまに異なる形態に具現され、ここで説明する実施形態に限定されるものではない。そして、図面において、本発明について明確に説明するために、説明と関係ない部分は省略し、明細書全体を通じて類似した部分については、類似した面符号を付した。
図1は、一実施形態による、映像表示装置100及び制御装置200を示す図面である。
図1に図示されているように、映像表示装置100は、TV(television)でもあるが、それは、一実施形態に過ぎず、ディスプレイ部120を含む電子装置でも具現される。例えば、映像表示装置100は、携帯電話、タブレットPC(personal computer)、デジタルカメラ、カムコーダ、ノート型パソコン(laptop computer)、デスクトップ、電子書籍端末機、デジタル放送用端末機、PDA(personal digital assistant)、PMP(portable multimedia player)、ナビゲーション、MP3プレイヤ、着用型機器(wearable device)のような多様な電子装置でもっても具現される。特に、本実施形態は、TVのように、ディスプレイ部120が大型であるディスプレイ装置によって容易に具現されるが、それに限定されるものではない。また、映像表示装置100は、固定型または移動型でもあるし、デジタル放送受信が可能なデジタル放送受信機でもある。
映像表示装置100は、平面(flat)ディスプレイ装置だけではなく、曲率を有する画面である曲面(curved)ディスプレイ装置、または曲率を調整することができる可変型(flexible)ディスプレイ装置でも具現される。映像表示装置100の出力解像度は、例えば、HD(high definition)、Full HD、Ultra HD、またはUltra HDよりさらに鮮かな解像度を含んでもよい。
制御装置200は、リモコンまたは携帯電話のように、映像表示装置100を制御するための多様な形態の装置でも具現される。
また、制御装置200は、赤外線(infrared)またはブルートゥース(Bluetooth)を含む近距離通信を利用して、映像表示装置100を制御することができる。制御装置200は、具備されたキー(ボタンを含む)、タッチパッド(touch pad)、ユーザ音声の受信が可能なマイク(図示せず)、及び制御装置200のモーション認識が可能なセンサ(図示せず)のうち少なくとも一つを利用して、映像表示装置100の機能を制御することができる。
制御装置200は、映像表示装置100の電源をオン/オフにするための電源オン/オフボタンを含む。制御装置200は、またユーザ入力によって、映像表示装置100の、チャネル変更、音量調整、地上波放送/ケーブル放送/衛星放送選択、または環境設定(setting)が可能である。
また、制御装置200は、ポインティング装置でもある。例えば、制御装置200は、特定キー入力を受信する場合に、ポインティング装置として動作することができる。
映像表示装置100は、制御装置200を、上下左右に動かしたり、任意の方向に傾けるユーザ入力によって制御される。制御装置200のセンサを介して感知された制御装置200の動きについての情報は、映像表示装置100に伝送される。映像表示装置100は、制御装置200の動きについての情報から、ディスプレイ部上のカーソル座標を算出し、算出された座標に対応するように、カーソルを移動させることができる。それによって、映像表示装置100のディスプレイ部上のカーソルが移動するか、あるいは表示された多様なメニューが活性化される。
または、制御装置200がタッチパッドを含む場合、タッチパッド上で動くユーザの指のような被写体の変位値によって、映像表示装置100のディスプレイ部上のカーソルが移動するか、あるいは表示された多様なメニューが選択的に活性化される。
本明細書の実施形態において、「ユーザ」という用語は、制御装置200を利用して、ディスプレイ装置100の機能または動作を制御する者を意味し、視聴者、管理者または設置技師を含んでもよい。
一方、一実施形態による映像表示装置100は、ディスプレイ部に複数のアイテムを含むアイテムリスト、及びユーザ入力の位置を示すカーソルを表示することができる。
また、一実施形態による映像表示装置100は、制御装置200の入力に対応し、カーソルを移動させ、複数のアイテムのうち少なくとも1つのアイテムと、カーソルとの位置関係によって、少なくとも1つのアイテムの属性を連続して変更させることができる。
図2は、一実施形態による映像表示装置の構成を示すブロック図である。図2の映像表示装置100aは、図1の映像表示装置100の一実施形態でもある。
図2を参照すれば、一実施形態による映像表示装置100aは、制御部110、ディスプレイ部120及び感知部130を含んでもよい。
ディスプレイ部120は、制御部110で処理された映像信号、データ信号、OSD(on-screen display)信号、制御信号などを変換して駆動信号を生成する。ディスプレイ部120は、PDP(plasma display panel)、LCD(liquid crystal display)、OLED(organic light emitting diode)、フレキシブルディスプレイ(flexible display)などによっても具現され、また三次元ディスプレイ(3D display)によっても具現される。また、ディスプレイ部120は、タッチスクリーンで構成され、出力装置以外に入力装置として使用されることも可能である。
一実施形態による、ディスプレイ部120は、複数のアイテムを含むアイテムリストを表示することができる。また、ディスプレイ部120は、ディスプレイ部120上に、ユーザ入力の位置を示すカーソルを表示することができる。
一実施形態による感知部130は、ユーザ入力を感知し、感知された信号を、制御部110に伝達することができる。また、感知部130は、制御装置200から電源オン/オフ、チャネル選択、チャネルアップ/ダウン、画面設定などのユーザ入力を感知することができる。また、一実施形態による感知部130は、ディスプレイ部120に表示されるカーソルを移動させるためのユーザ入力を感知することができる。また、一実施形態による感知部130は、ポインティングモードに進入するための所定入力を感知することができる。例えば、感知部130は、制御装置200のタッチ領域をタッチする入力、または制御装置200のユーザ入力部の所定ボタンが押される入力を感知することができる。
一実施形態による制御部110は、映像信号を処理し、ディスプレイ部120に入力することができる。それによって、当該映像信号に対応する映像が、ディスプレイ部120に表示される。また、制御部110は、感知部130を介して感知されたユーザ命令または内部プログラムによって、映像表示装置100aを制御することができる。
例えば、一実施形態によれば、制御部110は、感知されたユーザ入力に対応し、ディスプレイ部120に表示されるカーソルを移動させることができる。また、制御部110は、一実施形態によるアイテムと、カーソルとの位置関係に基づいて、アイテムの間の間隔を変更させることができる。
制御部110は、アイテムとカーソルとの距離によって、アイテムと、隣接するアイテムとの間隔を連続して変更させることができる。
制御部110は、カーソルがアイテムの中心線に位置する場合、アイテムと、隣接するアイテムとの間隔を最大間隔に変更させ、カーソルがアイテムの中心線から遠くなるように移動するにつれ、アイテムと、隣接するアイテムとの間隔を連続して減少させることができる。
制御部110は、カーソルが、第1アイテムの中心線に位置する場合、第1アイテムと、第1アイテムに隣接する第2アイテムとの第1間隔、及び第1アイテムと、第1アイテムに隣接する第3アイテムとの第2間隔を最大間隔に変更させ、カーソルが、第1アイテムの中心線から、第2アイテムの中心線に移動するにつれ、第1間隔は、維持させ、第2間隔を連続して減少させ、カーソルが、第2アイテムの中心線に位置する場合、第2間隔を最小間隔に変更させることができる。
制御部110は、カーソルが、第1アイテムの中心線に位置する場合、第2アイテムと、第2アイテムに隣接する第4アイテムとの第3間隔を最小間隔に変更させ、カーソルが、第1アイテムの中心線から、第2アイテムの中心線に移動するにつれ、第3間隔を連続して増大させ、カーソルが、第2アイテムの中心線に位置する場合、第3間隔を最大間隔に変更させることができる。
制御部110は、アイテムとカーソルとの位置関係に基づいて、アイテムのイメージの不透明度を変更させることができる。制御部110は、カーソルがアイテムの中心線に位置する場合、アイテムの第1イメージの不透明度を最大値に変更させ、カーソルが中心線から遠くなるように移動するにつれ、第1イメージの不透明度を連続して低減させることができる。
制御部110は、カーソルがアイテムの中心線に位置する場合、アイテムの第2イメージの不透明度を最小値に変更させ、カーソルが中心線から遠くなるように移動するにつれ、第2イメージの不透明度を連続して増大させることができる。
制御部110は、カーソルが、複数のアイテムのうち第1アイテムの中心線に位置する場合、第1アイテムの第1イメージの不透明度を最大値に変更させ、第1アイテムの第2イメージの不透明度を最小値に変更させることができる。制御部110は、カーソルが、第1アイテムの中心線から、第1アイテムに隣接する第2アイテムの中心線に移動するにつれ、第1イメージの不透明度を連続して低減させ、第2イメージの不透明度を連続して増大させることができる。制御部110は、カーソルが、前記第2アイテムの中心線に位置する場合、第1イメージの不透明度を最小値に変更させ、前記第2イメージの不透明度を最大値に変更させることができる。
制御部110は、カーソルが、第1アイテムの中心線に位置する場合、第1アイテムに隣接する第2アイテムの第3イメージの不透明度を最小値に変更させ、第2アイテムの第4イメージの不透明度を最大値に変更させることができる。制御部110は、カーソルが、第1アイテムの中心線から、第2アイテムの中心線に移動するにつれ、第3イメージの不透明度を増大させ、前記第4イメージの不透明度を低減させることができる。制御部110は、カーソルが、第2アイテムの中心線に位置する場合、第3イメージの不透明度を最大値に変更させ、第4イメージの不透明度を最小値に変更させることができる。
制御部110は、ポインティングモードに進入するための所定入力が感知されれば、所定入力に対応し、ディスプレイ部120にカーソルを表示することができる。
制御部110は、ポインティングモードでの動作中、IR信号を感知すれば、カーソルを表示せず、複数のアイテムのうち第1アイテムをハイライトさせ、第1アイテムの属性値を、第1値から第2値に変更させることができる。
また、制御部110は、ハイライトを移動させるためのユーザ入力が感知されれば、ユーザ入力の方向に対応し、第1アイテムに隣接する第2アイテムをハイライトさせ、第2アイテムの属性値を、第1値から第2値に変更させ、第1アイテムの属性値を、第2値から第1値にさらに変更させることができる。
図3は、一実施形態による映像表示装置の構成を示すブロック図である。図3の映像表示装置100bは、図1の映像表示装置100の一実施形態でもある。
図3を参照すれば、一実施形態による映像表示装置100bは、制御部110、ディスプレイ部120及び感知部130以外に、ビデオ処理部180、オーディオ処理部115、オーディオ出力部125、電源部160、チューナ部140、通信部150、入出力部170、保存部190をさらに含んでもよい。
制御部110、ディスプレイ部120及びユーザ入力部130について、図2で説明した内容と同一内容は、図3で省略する。
ビデオ処理部180は、映像表示装置100bが受信したビデオデータに対する処理を行う。ビデオ処理部180では、ビデオデータに対するデコーディング、スケーリング、ノイズフィルタリング、フレームレート変換、解像度変換のような多様なイメージ処理を行うことができる。
ディスプレイ部120は、制御部110の制御によって、チューナ部140を介して受信された放送信号に含まれたビデオを画面に表示する。また、ディスプレイ部120は、通信部150または入出力部170を介して入力されるコンテンツ(例えば、動画)を表示することができる。ディスプレイ部120は、制御部110の制御によって、保存部190に保存された映像を出力することができる。また、ディスプレイ部120は、音声認識に対応する音声認識タスクを遂行するための音声UI(user interface)(例えば、音声命令語ガイドを含む)、またはモーション認識に対応するモーション認識タスクを遂行するためのモーションUI(例えば、モーション認識のためのユーザモーションガイドを含む)を表示することができる。
オーディオ処理部115は、オーディオデータに対する処理を行う。オーディオ処理部115では、オーディオデータに対するデコーディング、増幅、ノイズフィルタリングのような多様な処理が行われる。一方、オーディオ処理部115は、複数のコンテンツに対応するオーディオを処理するために、複数のオーディオ処理モジュールを具備することができる。
オーディオ出力部125は、制御部180の制御によって、チューナ部140を介して受信された放送信号に含まれたオーディオを出力する。オーディオ出力部125は、通信部150または入出力部170を介して入力されるオーディオ(例えば、音声、サウンド)を出力することができる。また、オーディオ出力部125は、制御部180の制御によって保存部190に保存されたオーディオを出力することができる。オーディオ出力部125は、スピーカ126、ヘッドフォン出力端子127またはS/PDIF(Sony/Philips digital interface)出力端子128のうち少なくとも一つを含んでもよい。オーディオ出力部125は、スピーカ126、ヘッドフォン出力端子127及びS/PDIF出力端子128の組み合わせを含んでもよい。
電源部160は、制御部110の制御によって、映像表示装置100b内部の構成要素で外部の電源ソースから入力される電源を供給する。また、電源部160は、制御部110の制御によって、映像表示装置100b内部に位置する1または2以上のバッテリ(図示せず)から出力される電源を内部の構成要素に供給することができる。
チューナ部140は、有線または無線で受信される放送信号を、増幅(amplification)、混合(mixing)、共振(resonance)などを介して、多くの電波成分のうちディスプレイ装置100で受信するチャネルの周波数のみをチューニング(tuning)させて選択することができる。該放送信号は、オーディオ(audio)、ビデオ(video)及び付加情報(例えば、EPG(electronic program guide))を含む。
チューナ部140は、ユーザ入力(例えば、制御装置200から受信される制御信号、例えば、チャネル番号入力、チャネルのアップダウン(up-down)入力及びEPG画面でのチャネル入力)によって、チャネル番号(例えば、ケーブル放送506番)に対応する周波数帯域で放送信号を受信することができる。
チューナ部140は、地上波放送、ケーブル放送、衛星放送、インターネット放送のように、多様なソースから放送信号を受信することができる。チューナ部140は、アナログ放送またはデジタル放送のようなソースからも放送信号を受信する。チューナ部140を介して受信された放送信号は、デコーディング(例えば、オーディオデコーディング、ビデオデコーディングまたは付加情報デコーディング)され、オーディオ、ビデオ及び/または付加情報に分離される。分離されたオーディオ、ビデオ及び/または付加情報は、制御部110の制御によって、保存部190に保存される。
映像表示装置100bのチューナ部140は、一つであるか、または複数でもある。チューナ部140は、映像表示装置100bと一体型(all-in-one)に具現されるか、あるいは映像表示装置100bと電気的に連結されるチューナ部を有する別個の装置(例えば、セットトップボックス(set-top box);図示せず)、入出力部170に連結されるチューナ部(図示せず))によっても具現される。
通信部150は、制御部110の制御によって、映像表示装置100bを外部装置(例えば、オーディオ装置など)と連結することができる。制御部110は、通信部150を介して連結された外部装置に/からでコンテンツを送信/受信したり、外部装置からアプリケーション(application)をダウンロードしたり、はウェブブラウジングを行ったりする。通信部150は、ディスプレイ装置100の性能及び構造に対応し、無線LAN(local area network)151、ブルートゥース(Bluetooth)152及び有線イーサネット(Ethernet)153のうち一つを含んでもよい。また、通信部150は、無線LAN151、ブルートゥース152及び有線イーサネット153の組み合わせを含んでもよい。通信部150は、制御部110の制御によって、制御装置200の制御信号を受信することができる。該制御信号は、ブルートゥースタイプ、RF信号タイプまたはWiFi(wireless fidelity)タイプによっても具現される。
例えば、通信部150は、ブルートゥース152通信を介して、制御装置200からブルートゥースタイプのユーザ入力(例えば、タッチ、押し、タッチジェスチャ、音声またはモーション)に対応する信号を受信することができる。通信部150は、ブルートゥース以外に、他の近距離通信(例えば、NFC(near field communication;図示せず)、BLE(Bluetooth low energy;図示せず)をさらに含んでもよい。
感知部130は、ユーザの音声、ユーザの映像またはユーザのインタラクションを感知する。
マイク131は、ユーザの発話(utterance)された音声を受信する。マイク131は、受信された音声を電気信号に変換し、制御部110に出力することができる。ユーザ音声は、例えば、映像表示装置100bのメニューまたは機能に対応する音声を含んでもよい。マイク131の認識範囲は、マイク131からユーザ位置まで4m以内が推奨され、マイク131の認識範囲は、ユーザ音声の大きさ及び周辺環境(例えば、スピーカ音、周辺騷音)に対応して異なる。
一実施形態によって、制御部110が映像表示装置100bを視聴するユーザのアイデンティティ(identity)識別に使用するように、マイク131は、ユーザの発話された音声などを受信し、受信された音声データを制御部110に出力することができる。
マイク131は、映像表示装置100bと一体型または分離型に具現される。分離されたマイク131は、通信部150または入出力部170を介して、映像表示装置100bと電気的に連結される。
映像表示装置100bの性能及び構造によって、マイク131が除かれもするということは、当該技術分野において当業者に容易に理解されるであろう。
カメラ部132は、カメラ認識範囲において、ジェスチャを含むユーザのモーションに対応する映像(例えば、連続するフレーム)を受信する。例えば、カメラ部132の認識範囲は、カメラ部132からユーザまで、0.1〜5m以内距離にもなる。ユーザモーションは、例えば、ユーザの顔、表情、手、拳、指のようなユーザの身体一部分、またはユーザ一部分のモーションなどを含んでもよい。カメラ部132は、制御部110の制御によって受信された映像を電気信号に変換し、制御部110に出力することができる。
一実施形態によって、制御部110が映像表示装置100bを視聴するユーザのアイデンティティを識別するのに使用するように、カメラ部132は、ユーザの顔などを撮影し、撮影された顔イメージを制御部110に出力することができる。
制御部110は、受信されたモーションの認識結果を利用して、映像表示装置100bに表示されるメニューを選択するか、あるいはモーション認識結果に対応する制御を行う。例えば、チャネル調整、ボリューム調整、指示子移動、カーソル移動を含んでもよい。
カメラ部132は、レンズ(図示せず)及びイメージセンサ(図示せず)から構成される。カメラ部132は、複数のレンズと、イメージプロセッシングとを利用して、光学ズーム(optical zoom)またはデジタルズーム(digital zoom)を支援することができる。カメラ部132の認識範囲は、カメラの角度及び周辺環境条件によって多様に設定される。カメラ部132が複数台のカメラによって構成される場合、複数台のカメラを利用して、三次元静止イメージまたは三次元モーションを受信することができる。
カメラ部132は、映像表示装置100bと一体型または分離型に具現される。分離されたカメラ部132を含む別途の装置(図示せず)は、通信部150または入出力部170を介して、映像表示装置100bと電気的に連結される。
映像表示装置100bの性能及び構造によって、カメラ部132が除かれもするということは、当該技術分野で当業者に容易に理解されるであろう。
光受信部133は、外部の制御装置200から受信される光信号(制御信号を含む)をディスプレイ部120のベゼルの光窓(図示せず)などを介して受信する。光受信部133は、制御装置200からユーザ入力(例えば、タッチ、押し、タッチジェスチャ、音声またはモーション)に対応する光信号を受信することができる。受信された光信号から、制御部110の制御によって制御信号が抽出される。
入出力部170は、制御部110の制御によって、映像表示装置100bの外部からビデオ(例えば、動画など)、オーディオ(例えば、音声、音楽など)及び付加情報(例えば、EPGなど)などを受信する。入出力部170は、HDMIポート(high-definition multimedia interface port)171、コンポーネントジャック(component jack)172、PCポート(PC port)173及びUSBポート(USB port)174)うち一つを含んでもよい。入出力部170は、HDMIポート171、コンポーネントジャック172、PCポート173及びUSBポート174の組み合わせを含んでもよい。
入出力部170の構成及び動作は、本発明の実施形態によって多様に具現されるということは、当該技術分野の当業者に容易に理解されるであろう。
制御部110は、映像表示装置100bの全般的な動作、及び映像表示装置100bの内部構成要素間の信号フローを制御し、データを処理する機能を遂行する。制御部110は、ユーザの入力があるか、あるいは既設定の保存された条件を満足する場合、保存部190に保存されたOS(operation system)及び多様なアプリケーションを実行することができる。
制御部110は、映像表示装置100bの外部から入力される信号またはデータを保存するか、あるいは映像表示装置100bで遂行される多様な作業に対応する保存領域で使用されるRAM(random access memory)181、映像表示装置100bの制御のための制御プログラムが保存されたROM(read-only memory)182)及びプロセッサ183を含んでもよい。
プロセッサ183は、ビデオに対応するグラフィック処理のためのグラフィックプロセッサ(GPU:graphic processing unit;図示せず)を含んでもよい。プロセッサ183は、コア(core;図示せず)とGPU(図示せず)とを統合したSoC(system on chip)によって具現される。プロセッサ183は、シングルコア、デュアルコア、トリプルコア、クォドコア、及びそれら倍数のコアを含んでもよい。
また、プロセッサ183は、複数のプロセッサを含んでもよい。例えば、プロセッサ183は、メインプロセッサ(main processor;図示せず)、及びスリープモード(sleep mode)で動作するサブプロセッサ(sub processor;図示せず)によっても具現される。
グラフィック処理部184は、演算部(図示せず)及びレンダリング部(図示せず)を利用して、アイコン、イメージ、テキストのような多様な客体を含む画面を生成する。該演算部は、感知部130を介して感知されたユーザ入力を利用して、画面のレイアウトによって各客体が表示される座標値、形態、大きさ、カラーのような属性値を演算する。該レンダリング部は、該演算部で演算した属性値に基づいて、客体を含む多様なレイアウトの画面を生成する。該レンダリング部で生成された画面は、ディスプレイ部120のディスプレイ領域内に表示される。
第1インターフェース185−1ないし第nインターフェース185−nは、前述の各種構成要素と連結される。該インターフェースのうち一つは、ネットワークを介して外部装置と連結されるネットワークインターフェースにもなる。
RAM 181、ROM 182、プロセッサ183、グラフィック処理部184、第1インターフェース185−1ないし第nインターフェース185−nは、内部バス186を介して相互連結される。
本実施形態において、「映像表示装置の制御部」という用語は、プロセッサ183、ROM 182及びRAM 181を含む。
保存部190は、制御部110の制御によって、映像表示装置100bを駆動して制御するための多様なデータ、プログラムまたはアプリケーションを保存することができる。保存部190は、ビデオ処理部180、ディスプレイ部120、オーディオ処理部115、オーディオ出力部125、電源部160、チューナ部140、通信部150、感知部130、入出力部170の駆動に対応する入力/出力される信号またはデータを保存することができる。保存部190は、映像表示装置100b及び制御部の制御のための制御プログラム、製造社で最初提供されるか、あるいは外部からダウンロードしたアプリケーション、アプリケーションと係わるGUI(graphic user interface)、GUIを提供するためのオブジェクト(例えば、イメージテキスト、アイコン、ボタンなど)、ユーザ情報、文書、データベースまたは関連データを保存することができる。
一実施形態において、「保存部」という用語は、保存部190、制御部のROM 182、RAM 181、または映像表示装置100bに装着されるメモリカード(例えば、micro SDカード、USBメモリ;図示せず)を含む。また、保存部190は、不揮発性メモリ、揮発性メモリ、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)を含んでもよい。
保存部190は、図示されていない放送受信モジュール、チャネル制御モジュール、ボリューム制御モジュール、通信制御モジュール、音声認識モジュール、モーション認識モジュール、光受信モジュール、ディスプレイ制御モジュール、オーディオ制御モジュール、外部入力制御モジュール、電源制御モジュール、無線(例えば、ブルートゥース)に連結される外部装置の電源制御モジュール、音声データベース(DB)、またはモーションデータベース(DB)を含んでもよい。保存部190の図示されていないモジュール及びデータベースは、映像表示装置100bにおいて、放送受信の制御機能、チャネル制御機能、ボリューム制御機能、通信制御機能、音声認識機能、モーション認識機能、光受信制御機能、ディスプレイ制御機能、オーディオ制御機能、外部入力制御機能、電源制御機能または無線(例えば、ブルートゥース)に連結される外部装置の電源制御機能を遂行するために、ソフトウェア形態に具現される。制御部110は、保存部190に保存されたそれらソフトウェアを利用して、それぞれの機能を遂行することができる。
また、ディスプレイ部120を有する映像表示装置100bは、チューナ部を有する別途の外部装置(例えば、セットトップボックス;図示せず)と電気的に連結される。例えば、映像表示装置100bは、アナログTV、デジタルTV、3D−TV、スマートTV、LED TV、OLED TV、プラズマTV、モニタなどによっても具現されるが、それらに限定されるものではないということは、当該技術分野の当業者に容易に理解されるであろう。
映像表示装置100bは、映像表示装置100bの内部状態または外部状態を検出するセンサ(例えば、照度センサ、温度センサなど;図示せず)を含んでもよい。
一方、図2及び図3に図示された映像表示装置100a,110bのブロック図は、一実施形態のためのブロック図である。ブロック図の各構成要素は、実際具現される映像表示装置100の仕様によって、統合、追加または省略される。すなわち、必要によって、2以上の構成要素が1つの構成要素に合わされるか、あるいは1つの構成要素が2以上の構成要素に細分されても構成される。また、各ブロックで遂行する機能は、実施形態について説明するためのものであり、その具体的な動作や装置は、本発明の権利範囲を制限するものではない。
図4は、図3の保存部190に保存されたソフトウェア構成について説明するための図面である。
図4を参照すれば、保存部190には、ベースモジュール191、センシングモジュール192、通信モジュール193、プレゼンテーションモジュール194、ウェブブラウザモジュール195、サービスモジュール196を含むソフトウェアが保存される。
ベースモジュール191とは、映像表示装置100に含まれた各ハードウェアから伝達される信号を処理し、上位レイヤモジュールに伝達する基礎モジュールを意味する。ベースモジュール191は、ストレージ(storage)モジュール191−1、保安(security)モジュール191−2及びネットワーク(network)モジュール191−3などを含む。ストレージモジュール191−1とは、データベース(DB)やレジストリを管理するプログラムモジュールである。プロセッサ183は、ストレージモジュール191−1を利用して、保存部190内のデータベースにアクセスし、各種データを読み取ることができる。保安モジュール191−2とは、ハードウェアに対する認証(certification)、要請許容(permission)、保安保存(secure storage)などを支援するプログラムモジュールである。そしてネットワークモジュール191−3は、ネットワーク連結を支援するためのモジュールであり、DNETモジュール、UPnPモジュールなどを含む。
センシングモジュール192は、各種センサから情報を収集し、収集された情報を分析及び管理するモジュールである。センシングモジュール192は、ヘッド方向認識モジュール、顔認識モジュール、音声認識モジュール、モーション認識モジュール、NFC認識モジュールなど(rotation recognition module, voice recognition module, touch recognition module, gesture recognition module)を含んでもよい。
通信モジュール193は、外部と通信を行うためのモジュールである。通信モジュール193は、メッセンジャプログラム、SMS(short message service)&MMS(multimedia message service)プログラム、電子メールプログラムのようなメッセージングモジュール193−1、電話情報収集器(call info aggregator)プログラムモジュール、VoIPモジュールなどを含むテレフォニーモジュール193−2を含んでもよい。
プレゼンテーションモジュール194は、ディスプレイ画面を構成するためのモジュールである。プレゼンテーションモジュール194は、マルチメディアコンテンツを再生して出力するためのマルチメディア(multimedia)モジュール194−1、UI(user interface)及びグラフィック(graphics)処理を行うUIレンダリングモジュール194−2を含む。マルチメディアモジュール194−1は、プレイヤモジュール、カムコーダモジュール、サウンド処理モジュールなどを含んでもよい。それによって、各種マルチメディアコンテンツを再生し、画面及び音響を生成して再生する動作を遂行する。UIレンダリングモジュール194−2は、イメージを組み合わせるイメージ合成器(image compositor module)、イメージをディスプレイする画面上の座標を組み合わせて生成する座標組み合わせ(coordinate combination)モジュール、ハードウェアから各種イベントを受信するX11モジュール、2D形態または3D形態のUIを構成するためのツール(tool)を提供する2D/3DUIツールキットなどを含んでもよい。
ウェブブラウザモジュール195は、ウェブブラウジングを遂行し、ウェブサーバーにアクセスするモジュールを意味する。ウェブブラウザモジュール195は、ウェブページを構成するウェブビュー(web view)モジュール、ダウンロードを行うダウンロードエージェントモジュール、ブックマークモジュール、ウェブキット(webkit)モジュールのような多様なモジュールを含んでもよい。
サービスモジュール196は、多様なサービスを提供するための各種アプリケーション(application)を含むモジュールである。具体的には、サービスモジュール196は、SNSプログラム、コンテンツ再生プログラム、ゲームプログラム、電子書籍プログラム、こよみプログラム、アラーム管理プログラム、その他ウィジェットのような多様なプログラムモジュールを含んでもよい。
図4では、多様なプログラムモジュールを図示したが、図示された各種プログラムモジュールは、映像表示装置100の種類及び特性によって、一部省略されるか、あるいは変形または追加されるということは言うまでもない。例えば、GPS(global position system)チップのようなハードウェアと連動し、位置基盤サービスを支援する位置基盤モジュールをさらに含む形態によっても具現される。
図5は、一実施形態による制御装置の構成を示すブロック図である。
図5を参照すれば、制御装置200は、無線通信部220、ユーザ入力部230、センサ部240、出力部250、電源供給部260、保存部270及び制御部280を含んでもよい。
無線通信部220は、前述の実施形態による映像表示装置のうち任意のいずれか一つと信号を送受信することができる。無線通信部220は、RF(radio frequency)通信規格によって、映像表示装置100と信号を送受信することができるRFモジュール221を具備することができる。また、制御装置200は、IR(infrared)通信規格によって、映像表示装置100と信号を送受信することができるIRモジュールを具備することができる。
本実施形態において、制御装置200は、映像表示装置100に、制御装置200の動きなどについての情報が込められた信号をRFモジュール221を介して伝送する。
また、制御装置200は、映像表示装置100が伝送した信号を、RFモジュール221を介して受信することができる。また、制御装置200は、必要によって、IRモジュール223を介して、映像表示装置100に、電源オン/オフ、チャネル変更、ボリューム変更などについての命令を伝送することができる。
ユーザ入力部230は、キーパッド、ボタン、タッチパッドまたはタッチスクリーンなどによって構成される。ユーザは、ユーザ入力部230を操作し、制御装置200に、映像表示装置100と係わる命令を入力することができる。ユーザ入力部230が、ハードキーボタンを具備する場合、ユーザは、ハードキーボタンのプッシュ動作を介して、制御装置200に、映像表示装置100と係わる命令を入力することができる。ユーザ入力部230が、タッチスクリーンを具備する場合、ユーザは、タッチスクリーンのソフトキーをタッチし、制御装置200に、映像表示装置100と係わる命令を入力することができる。
例えば、ユーザ入力部230は、4方向ボタンまたは4方向キーを含んでもよい。4方向ボタンまたは4方向キーは、ディスプレイ部120に表示されるウィンドウ、領域、アプリケーションまたはアイテムを制御するのに利用される。4方向キーやボタンは、上下左右の移動指示に利用される。また、第2ユーザ入力部230は、4方向キーや4方向ボタンの代わりに、2方向キーや2方向ボタンを含んでもよいということは、当業者によって理解されるであろう。
また、ユーザ入力部230は、スクロールキーやジョグキーなど、ユーザが操作することができる多種の入力手段を具備することができる。
また、ユーザ入力部230は、タッチパッドを含んでもよい。一実施形態によるユーザ入力部230は、制御装置200のタッチパッドを介して、ドラッグ(drag)、タッチ(touch)またはフリップ(flip)というようなユーザ入力を受信することができる。また、受信したユーザ入力の種類(例えば、ドラッグ命令が入力された方向、タッチ命令が入力された時間)によって、映像表示装置100が制御される。
センサ部240は、ジャイロセンサ241または加速度センサ243を具備することができる。ジャイロセンサ241は、制御装置200の動きについての情報をセンシングすることができる。一例として、ジャイロセンサ241は、制御装置200の動作についての情報をx,y,z軸を基準にセンシングすることができる。加速度センサ243は、制御装置200の移動速度などに係わる情報をセンシングすることができる。一方、距離測定センサをさらに具備することができ、それにより、映像表示装置100との距離をセンシングすることができる。
出力部250は、ユーザ入力部230の操作に対応するか、あるいは映像表示装置100で受信した信号に対応する映像信号または音声信号を出力することができる。出力部250を介して、ユーザは、ユーザ入力部230の操作いかん、または映像表示装置100の制御いかんを認知することができる。
一例として、出力部250は、ユーザ入力部230が操作されるか、あるいは無線通信部220を介して、映像表示装置100と信号が送受信されれば、点灯されるLEDモジュール、振動を発生させる振動モジュール、音響を出力する音響出力モジュール、または映像を出力するディスプレイモジュールを具備することができる。
電源供給部260は、制御装置200に電源を供給する。電源供給部260は、制御装置200が、所定時間動かない場合、電源供給を中断することにより、電源浪費を減らすことができる。電源供給部260は、制御装置200に具備された所定キーが操作された場合、電源供給を再開することができる。
保存部270は、制御装置200の制御または動作に必要な多種のプログラム、アプリケーションデータなどを保存する。
制御部280は、制御装置200の制御に係わる諸般事項を制御する。制御部280は、ユーザ入力部230の所定キー操作に対応する信号、またはセンサ部240でセンシングした制御装置200の動きに対応する信号を、無線通信部220を介して、映像表示装置100に伝送することができる。
映像表示装置100は、制御装置200の動作に対応するカーソルの座標値を算出することができる座標値算出部(図示せず)を含んでもよい。
座標値算出部(図示せず)は、感知された制御装置200の動作に対応する信号から、手の揺れや誤差を修正し、ディスプレイ部120に表示するカーソルの座標値(x,y)を算出することができる。
また、感知部130を介して感知された制御装置200の伝送信号は、映像表示装置100の制御部110に伝送される。制御部110は、制御装置200が伝送した信号から、制御装置200の動作及びキー操作についての情報を判別し、それに対応し、映像表示装置100を制御することができる。
他の例として、制御装置200は、その動作に対応するカーソルの座標値を算出し、映像表示装置100に伝送することができる。その場合、映像表示装置100は、別途の手の揺れや誤差の補正過程なしに、受信されたカーソルの座標値についての情報を制御部110に伝送することができる。
図6は、一実施形態による映像表示装置のポインティングモード及び4方向モードについて説明するために参照される図面である。
図6の(a)及び(b)を参照すれば、ディスプレイ部120は、複数のアイテムを含むアイテムリスト310を表示することができる。例えば、ディスプレイ部120は、コンテンツを示す複数のアイテムを表示することができる。コンテンツを示すアイテムは、映画またはドラマのような映像コンテンツを示すアイテム、音楽のようなオーディオコンテンツを示すアイテム、アプリケーションを示すアイテム、放送チャネルを示すアイテム、ユーザが実行したコンテンツの履歴(history)情報を示すアイテムなどを含んでもよい。
複数のアイテムは、イメージによって表示される。例えば、該アイテムが、映画またはドラマに係わるコンテンツを示すアイテムである場合、該アイテムは、映画またはドラマのポスターイメージによって表示される。また、該アイテムが、音楽のようなオーディオコンテンツを示すアイテムである場合、該アイテムは、音楽が含まれたアルバムのポスターイメージによって表示される。また、該アイテムが、アプリケーションを示すアイテムである場合、該アイテムは、当該アプリケーションを示すイメージ、または最後に実行されたアプリケーション画面によって表示される。また、該アイテムが、放送チャネルを示すアイテムである場合、該アイテムは、当該チャネルにおいて、ユーザが最後に視聴した画面イメージ、または当該チャネルで現在放送中であるプログラムを示すイメージによって表示される。また、該アイテムがユーザが実行したコンテンツの履歴情報を示すアイテムである場合、該アイテムは、当該コンテンツで最後に実行された画面イメージによって表示される。
また、ディスプレイ部120は、映像表示装置100と外部装置を連結するためのインターフェースを示すアイテム、または映像表示装置と連結された外部装置を示す複数のアイテムを表示することができる。例えば、外部装置を連結するためのインターフェースを示すアイテムは、外部装置が連結される映像表示装置のポートを示すアイテムでもある。例えば、外部装置を示すアイテムは、HDMIポート(high-definition multimedia interface port)を示すアイテム、コンポーネントジャック(component jack)を示すアイテム、PCポート(PC port)を示すアイテム、及びUSBポート(USB port)を示すアイテムなどを含んでもよい。また、外部装置を示すアイテムは、前記インターフェースに連結された外部装置を示すアイテムでもある。
図6の(a)及び(b)を参照すれば、ディスプレイ部120は、ディスプレイ部120の下端部分に、四角形のアイテムを含むアイテムリスト310を表示することができ、アイテムそれぞれを示す四角形は、幅が高さより小さい長方形でもある。また、複数のアイテムは、同一幅を有するか、あるいは複数のアイテムそれぞれに対応するコンテンツの種類、特性などによって、互いに異なる幅を有することもできる。
また、アイテムリスト310は、図6の(a)及び(b)に図示されているように、複数のアイテムが横方向に配列された形態でもある。アイテムリスト310に含まれる複数のアイテムが既設定の個数以上である場合、複数のアイテムのうち一部だけディスプレイ部120に表示され、アイテムリストは、左右にスクロールされる。また、アイテムリスト310が左右にスクロールされる場合、表示されていないアイテムが表示される。一方、アイテムリスト310は、複数のアイテムが縦方向に配列された形態でもある。
図6の(a)を参照すれば、制御装置200は、制御装置200のタッチ領域235をタッチする入力が感知されるか、あるいは制御装置200のユーザ入力部の所定ボタンが押される場合、特定キーを映像表示装置100に伝送することができる。映像表示装置100は、制御装置200から特定キー入力が受信されれば、ポインティングモードで動作することができる。映像表示装置100がポインティングモードで動作する場合、映像表示装置100は、カーソル320をディスプレイ部120に表示することができ、制御装置200からポインティング信号を受信し、カーソル320を移動させることができる。
例えば、映像表示装置100は、制御装置200のセンサを介して感知された制御装置200の動きについての情報を受信し、ディスプレイ部120上のカーソルの座標を算出し、算出された座標に対応するように、カーソルを移動させることができる。
または、映像表示装置100は、制御装置200がタッチパッドを含む場合、タッチパッド上で動くユーザの指のような被写体の変位値によって、ディスプレイ部120上のカーソル320を移動させることができる。
図6では、カーソル320が円形であるように図示されているが、それに限定されるものではなく、カーソル320は、多様な形態及び大きさを有することができる。また、カーソル320の形態及び大きさは、ユーザ入力に基づいて多様に設定される。また、カーソル320は、アイテムリスト310に含まれる複数のアイテムのうちいずれか1つのアイテム内に位置することができる。カーソル320が複数のアイテムのうちいずれか1つのアイテム内に位置する場合、当該アイテムは、ハイライトされる。本明細書では、ハイライトされたアイテムをフォビア(fovea)とも称する。
一方、図6の(b)に図示されているように、制御装置200のタッチ領域235がタッチされないか、あるいは所定ボタンが押されない場合、映像表示装置100は、4方向モードで動作することができる。映像表示装置100が4方向モードで動作する場合、アイテムリストに含まれる複数のアイテムのうちいずれか一つがハイライトされる。例えば、アイテムがハイライトされる場合、アイテムの枠に四角ボックスが表示されるか、あるいはアイテムの幅を第1幅W1から第2幅W2に変更される。または、アイテムに表示されるイメージの不透明度が変更される。
また、映像表示装置100が4方向モードで動作する場合、映像表示装置100は、制御装置200の4方向キーやボタンを押す入力を受信し、アイテムリストにおいて、ハイライトされるアイテムを変更することができる。例えば、4方向ボタンのうち右側方向ボタン入力が感知される場合、現在ハイライトされたアイテムの右側に隣接するアイテムがハイライトされる。例えば、右側に隣接するアイテムの枠に四角ボックスが表示され、アイテムの幅が変更される。
一方、映像表示装置100がポインティングモードに動作されていて、制御装置200からIR信号を受信する場合、映像表示装置100は、4方向モードに転換される。例えば、ポインティングモードでの動作中、4方向キーやボタンを押す入力を受信する場合、映像表示装置100は、4方向モードに転換される。映像表示装置100は、ディスプレイ部120にカーソルを表示せず、アイテムリストに含まれる複数のアイテムのうちいずれか一つがハイライトされる。
また、映像表示装置100が4方向モードでの動作中、制御装置200からIR信号を受信せず、ポインティング信号を受信する場合、映像表示装置100は、ポインティングモードに転換される。
一方、映像表示装置100は、ハイライトされたアイテムを選択するユーザ入力を感知する場合、当該アイテムに対応する動作を遂行することができる。例えば、ハイライトされたアイテムがアプリケーションを示すアイテムである場合、ハイライトされたアイテムを選択する入力を感知すれば、当該アプリケーションを実行させることができる。また、ディスプレイ部120は、当該アプリケーションの実行画面を表示することができる。そのとき、映像表示装置100は、制御装置200の所定キー入力を感知する場合、当該アプリケーションの動作を終了することができる。例えば、映像表示装置100は、制御装置200の4方向キーのうちいずれか一つを長く押す入力を感知する場合、アプリケーションの実行画面の表示を終了し、さらにアイテムリストを含む画面を表示するように制御することができる。
図7Aないし図7Cは、一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとの間隔(gap)が変更される事例を示す図面である。
図7Aを参照すれば、ディスプレイ部120は、ディスプレイ部120の下端に、四角形のアイテムを含むアイテムリスト410を表示することができる。アイテムリスト410は、複数のアイテムが横方向に配列された形態でもあり、複数のアイテムは、同一幅を有することができる。以下では、説明の便宜のために、アイテムリストが5個のアイテムを含むとして説明する。
また、映像表示装置100は、図6(a)で説明したポインティングモードで動作することができる。それによって、ディスプレイ部120は、ユーザ入力の位置を示すカーソル420を表示することができ、制御部110は、感知されるユーザ入力に対応し、カーソル420をディスプレイ部120上で移動させることができる。
一実施形態による、カーソル420がアイテムリスト410に含まれるアイテムのうち、第1アイテム431の中心線に位置する場合、映像表示装置100は、第1アイテム431と、第1アイテム431に隣接する第2アイテム432との間隔(第1間隔)g1)、及び第1アイテム431と、第1アイテム431に隣接する第3アイテム433との間隔(第2間隔)g2が最大間隔(隣接するアイテムが有することができる最大間隔)を有するように変更することができる。
また、映像表示装置100は、残りの隣接するアイテムの間隔が最小間隔(隣接するアイテムが有することができる最小間隔)を有するように変更することができる。例えば、第4アイテム434(ハイライトされたアイテムと隣接しないアイテム)と、第2アイテム432との間隔は、0でもある。また、第5アイテム435と第3アイテム433との間隔も、0でもある。
一方、映像表示装置100は、制御装置200を上下左右に動かすか、あるいは傾けるユーザ入力を感知することができる。例えば、映像表示装置100は、制御装置200の動き方向及び動く程度を感知し、感知された動きによって、カーソル420をディスプレイ部120上で移動させることができる。また、映像表示装置100は、制御装置200のタッチパネルで感知されるタッチ入力の方向によって、カーソル420をディスプレイ部120上で移動させることができる。
図7Bに図示されているように、制御装置200を右側方向に動かるユーザ入力が感知されれば、映像表示装置100は、それに対応し、ディスプレイ部120上に表示されるカーソル420を右側方向に移動させることができる。そのとき、制御装置200のセンサを介して感知された制御装置200の動きについての情報が、映像表示装置100に伝送される。映像表示装置100は、制御装置の動きについての情報から、カーソル420の座標を算出し、算出された座標に対応するように、カーソル420をディスプレイ部120上で移動させることができる。
図7Bに図示されているように、カーソル420が右側方向に移動するにつれ(カーソル420が第1アイテム431の中心線から遠くなり、第1アイテム431の右側に位置した第3アイテム433と近づくにつれ、映像表示装置100は、第1アイテム431と第2アイテム432との間隔g1をだんだんと減少させ、第3アイテム433と第5アイテム435との間隔g3をだんだんと増加させることができる。
一実施形態によれば、第1アイテム431と第2アイテム432との間隔g1が減少する程度と、第3アイテム433と第5アイテム435との間隔g3が増大する程度は、同一である。また、第1アイテム431と第3アイテム433との間隔g2は、一定に維持される。それによって、アイテムリスト410の幅W3は、カーソル420が、第1アイテム431の中心線に位置する場合(図7Aに図示された場合)、及びカーソル420が、第3アイテム432方向に移動する場合(図7Bに図示された場合)において一定に維持される。
また、カーソル420が続けて右側方向に移動していて、図7Cに図示されているように、第3アイテム433の中心線に位置する場合、映像表示装置100は、第3アイテム433と第5アイテム435との間隔g3を、最大間隔に変更させることができ、第3アイテム433と第5アイテム435との間隔g3は、第3アイテム433と第1アイテム431との間隔g2と同一である。
また、映像表示装置100は、第1アイテム431と第2アイテム432との間隔g1を最小間隔(例えば、0)に変更させることができる。それによって、アイテムリスト410の幅W3は、カーソル420が、第1アイテム431の中心線に位置する場合(図7Aに図示された場合)、及びカーソル420が、第3アイテム433の中心線に位置する場合(図7Cに図示された場合)において一定に維持される。
図8Aないし図8Cは、一実施形態による、カーソルの移動によって、ハイライトされたアイテムと、ハイライトされたアイテムに隣接するアイテムとに表示されるイメージの不透明度が変形される事例を示す図面である。
図8Aを参照すれば、ディスプレイ部120は、下端に複数のアイテムを含むアイテムリスト510を表示することができる。アイテムリスト510は、複数のアイテムが横方向に配列された形態でもあり、複数のアイテムは、コンテンツを示すアイテムを含んでもよい。
また、映像表示装置100は、図6(a)で説明したポインティングモードで動作することができる。それによって、ディスプレイ部120は、ユーザ入力の位置を示すカーソル520を表示することができ、制御部110は、感知されるユーザ入力に対応し、カーソル520をディスプレイ部120上で移動させることができる。
一実施形態によれば、複数のアイテムそれぞれは、ノーマルイメージ(normal image)とフォビアイメージ(fovea image)とを含んでもよい。例えば、アイテムのノーマルイメージは、アイテムに対応するコンテンツを示す代表イメージまたは代表テキストを含んでもよい。また、アイテムのフォビアイメージは、当該アイテムに対応するプログラムを利用して、最後に実行された画面を示すイメージを含んでもよい。ただし、それらに限定するものではない。
一実施形態によれば、アイテムがハイライトされ、カーソルがアイテムの中心線に位置する場合、当該アイテムのフォビアイメージの不透明度は、最大値を有し、ノーマルイメージの不透明度は、最小値を有することができる。カーソルがアイテムの中心線から遠くなるにつて、フォビアイメージの不透明度は、だんだんと低減し、ノーマルイメージの不透明度は、だんだんと増大することができる。また、該アイテムは、フォビアイメージの不透明度と、ノーマルイメージの不透明度とによって、フォビアイメージとノーマルイメージとが合成されたイメージによって表示される。
例えば、図8Aを参照すれば、カーソル520が、アイテムリスト510に含まれるアイテムのうち、第1アイテム531の中心線に位置する場合、第1アイテム531は、第1イメージ(第1アイテムのフォビアイメージ)として表示される。すなわち、第1イメージ(第1アイテムのフォビアイメージ)の不透明度は、最大値を有し、第1アイテム731の第2イメージ(第1アイテムのノーマルイメージ)の不透明度は、0でもある。
また、カーソル520が、第1アイテム531の中心線に位置する場合、第1アイテム531の右側に隣接する第2アイテム532は、第4イメージ(第2アイテムのノーマルイメージ)として表示される。すなわち、第2アイテム532の第4イメージ(第2アイテムのノーマルイメージ)の不透明度は、最大値を有し、第2アイテム532の第3イメージ(第2アイテムのフォビアイメージ)の不透明度は、0でもある。
一方、図8Bに図示されているように、制御装置200を右側方向に動かすユーザ入力が感知されれば、映像表示装置100は、それに対応し、ディスプレイ部120上に表示されるカーソル520を右側方向に移動させることができる。
図8Bに図示されているように、カーソル520が右側方向に移動するにつれ(カーソル520は、第1アイテム531の中心線から遠くなり、第2アイテム532の中心線と近くなるにつれ)、第1アイテム531の第1イメージ(第1アイテムのフォビアイメージ)の不透明度は低減し、第2イメージ(第1アイテムのノーマルイメージ)の不透明度は、増大し、第1アイテム531は、第1イメージ及び第2イメージの不透明度に基づいて、第1イメージ及び第2イメージが合成されたイメージによって表示される。
また、カーソル520が右側方向に移動するにつれ、第2アイテム532の第3イメージ(第2アイテムのフォビアイメージ)の不透明度は、増大し、第4イメージ(第2アイテムのノーマルイメージ)の不透明度は、低減し、第2アイテム532は、第3イメージ及び第4イメージの不透明度に基づいて、第3イメージ及び第4イメージが合成されたイメージによって表示される。
また、カーソル520が続けて右側方向に移動していて、図8Cに図示されているように、第2アイテム532の中心線に位置する場合、第1アイテム531の第1イメージ(第1アイテムのフォビアイメージ)の不透明度は、0であり、第2イメージ(第1アイテムのノーマルイメージ)の不透明度は、最大値を有することができる。それによって、第1アイテム531は、第2イメージ(第1アイテムのノーマルイメージ)として表示される。また、第2アイテム532の第3イメージ(第2アイテムのフォビアイメージ)の不透明度は、最大値を有し、第4イメージ(第2アイテムのノーマルイメージ)の不透明度は、0でもある。それによって、第2アイテム532は、第3イメージ(第2アイテムのフォビアイメージ)として表示される。
図9Aないし図9Cは、一実施形態による、カーソルが、アイテムリストが表示されない領域から、アイテムリストが表示される領域に移動する場合、アイテムの属性が変形される一例を示す図面である。
図9Aを参照すれば、ディスプレイ部120は、下端に横方向に複数のアイテムが配列されたアイテムリスト610を表示することができる。例えば、複数のアイテムが横方向に配列されたアイテムリストである場合、活性化領域は、アイテムリスト610が表示される領域を基準に、縦方向(y軸方向)に既設定の距離ほど拡張された領域650と定義される。それによって、活性化領域650は、ディスプレイ部120のy座標値を基準に定義される。
また、映像表示装置100は、活性化領域650において、アイテムリスト610が表示されるアイテムリスト領域を、第1領域651として設定し、アイテムリスト610が表示されない領域を、第2領域652として設定することができる。また、映像表示装置100は、活性化領域650を除いた残りの領域を非活性化領域として設定することができる。
一方、縦方向に複数のアイテムが配列されたアイテムリストが表示される場合、活性化領域は、ディスプレイ部のx座標値を基準に設定され、活性化領域は、アイテムリスト領域を基準に、横方向(x軸方向)に既設定の距離ほど拡張された領域と定義される。
一実施形態による映像表示装置100は、カーソル620が、アイテムリスト610に含まれる第1アイテム631の中心線に沿って非活性化領域から活性化領域に移動する場合、第1アイテムと、第1アイテムに隣接するアイテムとの間隔、及び第1アイテムに表示されるイメージの不透明度を変更させることができる。
図9Aを参照すれば、カーソル620がアイテムの非活性化領域に位置する場合、アイテムリスト610に含まれる複数のアイテムの属性が変更されない。すなわち、第1アイテム631と、第1アイテム631に隣接するアイテムとの間隔は、最小間隔(例えば、0)を有することができる。また、第1アイテム631に表示される第1アイテムのノーマルイメージの不透明度は、最大値を有し、フォビアイメージの不透明度は、最小値を有することができる。それによって、第1アイテム631は、ノーマルイメージによって表示される。
一方、図9Bに図示されているように、制御装置200を下側方向に動かすユーザ入力が感知されれば、映像表示装置100は、それに対応し、ディスプレイ部120上に表示されるカーソル620を下側方向に移動させることができる。
カーソル620が下側方向に移動することにより、カーソル620が、アイテムの活性化領域650において、第2領域652に移動する場合、カーソル620の位置に対応するアイテムの属性が変更されて表示される。
例えば、映像表示装置100は、カーソル620が、アイテムの活性化領域650に位置する場合、アイテムリスト610に含まれる複数のアイテムのうち、カーソル620の位置に対応するアイテムを決定することができる。
映像表示装置100は、複数のアイテムが横方向に配置された場合、複数のアイテムそれぞれのx座標範囲に、カーソル620の位置を示すx座標値が含まれるか否かということを判断し、カーソル620の位置に対応するアイテムを決定することができる。例えば、図9Bに図示されているように、カーソル620の位置を示すx座標値が、第1アイテム631が表示される領域のx座標範囲に含まれる場合、映像表示装置100は、第1アイテム631をカーソル620の位置に対応するアイテムと決定することができる。
また、映像表示装置100は、決定されたアイテムと、決定されたアイテムに隣接するアイテムとの間隔を変更させることができる。また、決定されたアイテムに表示されるイメージの不透明度を変更させることができる。例えば、映像表示装置100は、カーソル620に対応する第1アイテム631の属性を変更させることができる。
そのとき、映像表示装置100は、カーソル620が活性化領域のうち、第1領域651に近くなるほど、第1アイテムと、第1アイテムに隣接するアイテムとの間隔g1,g2を増大させることができる。
それによって、第1アイテム631の左側に位置したアイテムは、左に移動し、第1アイテム631の右側に位置したアイテムは、右側に移動する。
また、映像表示装置100は、カーソル620が、活性化領域のうち、第1領域651に近くなるほど、第1アイテム631に表示されるノーマルイメージの不透明度を低減させ、フォビアイメージの不透明度を増大させることができる。それによって、第1アイテム631は、フォビアイメージの不透明度と、ノーマルイメージの不透明度とによって、フォビアイメージとノーマルイメージとが合成されたイメージによって表示される。
また、カーソル620が続けて下側方向に移動していて、図9Cに図示されているように、アイテムの活性化領域650において、第1領域651に位置する場合、映像表示装置100は、第1アイテムと、第1アイテムに隣接するアイテムとの間隔g1,g2が最大間隔を有するように変更させることができる。また、映像表示装置100は、第1アイテム631に表示されるノーマルイメージの不透明度は、最小値を有し、フォビアイメージの不透明度は、最大値を有するように変更させることができる。それによって、第1アイテム631は、フォビアイメージによって表示される。
図9Aないし図9Cに図示されているように、カーソル620が、同一x座標値を有し、非活性化領域から活性化領域620に移動する場合、アイテム属性(例えば、アイテムとの間隔、アイテムのイメージの不透明もなど)の変形度も、増大する。
図10は、一実施形態による、ポインティングモードから4方向モードに転換される場合、アイテムの属性が変更される事例を示す図面である。
図10(a)を参照すれば、ディスプレイ部120は、複数のアイテムが横方向に配列されたアイテムリスト710を表示することができる。また、映像表示装置100は、図6(a)で説明したポインティングモードで動作することができる。それによって、ディスプレイ部120は、ユーザ入力の位置を示すカーソル720を表示することができ、制御部110は、感知されるユーザ入力に対応し、カーソル720をディスプレイ部120上で移動させることができる。
一実施形態によるカーソル720が、アイテムリスト710に含まれるアイテムのうち、第1アイテム731の中心線に位置する場合、図7Aで説明したように、映像表示装置100は、第1アイテム731と、第1アイテムに隣接する第2アイテム732との間隔(第1間隔)g1、及び第1アイテム731と、第1アイテムに隣接する第3アイテム733との間隔(第2間隔)g2を最大間隔に変更することができる。
また、第1アイテム731のフォビアイメージの不透明度は、最大値を有し、第1アイテム731のノーマルイメージの不透明度は、最小値を有することができる。それによって、第1アイテム631は、フォビアイメージによって表示される。
一方、映像表示装置100は、4方向モード転換入力を受信し、4方向モードに転換することができる。例えば、映像表示装置100は、制御装置200のタッチ領域235がタッチされないか、あるいは所定ボタンが押されない場合、IR信号を受信する場合、ポインティング信号が受信されない場合、4方向モードに転換される。
映像表示装置100が4方向モードに転換された場合、図10(b)に図示されているように、ディスプレイ部120は、カーソルを表示しない。また、カーソルが位置した第1アイテム731がハイライトされる。例えば、第1アイテム731の枠に、四角ボックスを表示することができ、第1アイテム731の幅は、第1幅W1から第2幅W2に変更される。そのとき、第1アイテム731の第2幅W2は、第1アイテムの第1幅(基本幅)W1、第1アイテムと、第1アイテムの右側に位置した第3アイテム733との最大間隔、第1アイテムと、第1アイテムの左側に位置した第2アイテム732との最大間隔を合わせた値でもある。
一方、映像表示装置100は、4方向モード動作中、ポインティングモード転換入力を受信し、ポインティングモードに転換することができる。例えば、映像表示装置100は、制御装置200のタッチ領域235をタッチする入力が感知されるか、あるいは制御装置200のユーザ入力部の所定ボタンが押される場合、IR信号が既設定の時間受信されず、ポインティング信号が受信される場合、ポインティングモードに転換される。
映像表示装置100がポインティングモードに転換された場合、図10(a)に図示されているように、ディスプレイ部120は、第1アイテム(現在ハイライト表示されたアイテム)731内にカーソル720を表示することができ、第1アイテムの幅を、第2幅W2から第1幅W1に変更させることができる。また、第1アイテム731は、第1アイテムの左側に位置した第2アイテム732、及び第1アイテムの右側に位置した第3アイテム733と最大間隔を有することができる。
図11A及び図11Bは、一実施形態による、映像表示装置が4方向モードで動作する事例を示す図面である。
図11Aを参照すれば、ディスプレイ部120は、ディスプレイ部120の下端に四角形のアイテムを含むアイテムリスト810を表示することができる。該アイテムリスト810は、複数のアイテムが横方向に配列された形態でもある。
映像表示装置100が4方向モードで動作する場合、アイテムリスト810に含まれる複数のアイテムのうちいずれか一つがハイライトされる。例えば、映像表示装置100は、複数のアイテムのうちいずれか1つのアイテムの枠に四角ボックスを表示し、ハイライトさせることができる。例えば、図11Aに図示されているように、ハイライトされたアイテム(第1アイテム)831の幅は、図10で説明した第2幅W2でもある。また、第1アイテム831は、第1アイテム831のフォビアイメージによって表示される。すなわち、第1アイテム831のフォビアイメージの不透明度は、最大値を有し、第1アイテム831のノーマルイメージの不透明度は、最小値を有することができる。
一方、映像表示装置100は、ハイライトを移動させる入力を受信することができる。映像表示装置100は、制御装置200の4方向キーやボタンを押す入力を受信し、ハイライトされるアイテムを変更することができる。例えば、図11Bに図示されているように、4方向ボタンのうち右側方向ボタン入力が感知されれば、映像表示装置100は、それに対応し、第1アイテム831の右側に隣接する第2アイテム832をハイライトさせることができる。映像表示装置100は、第2アイテムの枠に、四角ボックスを表示することができる。また、第1アイテム831の幅を、第2幅W2から第1幅W1に変更させ、第2アイテム832の幅を、第1幅W1から第2幅W2に変更させることができる。
また、第1アイテム831が、第1アイテム831のノーマルイメージによって表示されるように、イメージの不透明度を変更させることができる。例えば、第1アイテム831のフォビアイメージの不透明度は、最小値を有し、第1アイテム831のノーマルイメージの不透明度は、最大値を有するように、イメージの不透明度を変更させることができる。一方、ハイライトされた第2アイテム832が、第2アイテム832のフォビアイメージによって表示されるように、イメージの不透明度を変更させることができる。例えば、第2アイテム832のフォビアイメージの不透明度は、最大値を有し、第2アイテム832のノーマルイメージの不透明度は、最小値を有するように、イメージの不透明度を変更させることができる。
図12は、一実施形態による映像表示方法を示すフローチャートである。
図12を参照すれば、映像表示装置100は、複数のアイテムを含むアイテムリスト及びディスプレイ部120上で、ユーザ入力の位置を示すカーソルを表示することができる(S910)。
例えば、一実施形態によるアイテムリストは、コンテンツを示すアイテム、外部装置を連結するためのインターフェースを示すアイテム、または映像表示装置と連結された外部装置を示すアイテムを含んでもよい。また、該アイテムリストは、複数のアイテムが横方向に配列されたリストでもあり、縦方向に配列されたリストでもある。
また、映像表示装置100は、制御装置200を介して、特定キー入力が受信されれば、カーソルをディスプレイ部120に表示することができる。
映像表示装置100は、カーソルを移動させるためのユーザ入力を感知することができる(S920)。
例えば、映像表示装置100は、制御装置200を上下左右に動かるか、あるいは傾けるユーザ入力を感知することができる。
映像表示装置100は、ユーザ入力に対応し、ディスプレイ部120上でカーソルを移動させ、複数のアイテムのうち少なくとも1つのアイテムと、カーソルとの位置関係によって、少なくとも1つのアイテムと、少なくとも1つのアイテムに隣接するアイテムとの間隔を変更させることができる(S930)。
例えば、映像表示装置100は、制御装置200の動き方向及び動く程度を感知し、感知された動きによって、カーソル520をディスプレイ部上で移動させることができる。また、映像表示装置100は、制御装置200のタッチパネルで感知されるタッチ入力の方向によって、カーソル520をディスプレイ部120上で移動させることができる。
一方、カーソルが、複数のアイテムのうちいずれか1つのアイテム領域内に位置する場合、当該アイテムはハイライトされる。映像表示装置100は、カーソルが位置する第1アイテム(ハイライトされたアイテム)と、第1アイテムに隣接する第2アイテムとの間隔を連続して変更させることができる。
例えば、映像表示装置100は、カーソルが、第1アイテムの中心線に位置する場合、第1アイテムと第2アイテムとの間隔を最大間隔に変更させ、カーソルが、第1アイテムの中心線から遠くなるにつれ、第1アイテムと第2アイテムとの間隔を連続して減少させることができる。
一実施形態による映像表示方法は、多様なコンピュータ手段を介して遂行されるプログラム命令形態に具現され、コンピュータ判読可能媒体に記録される。前記コンピュータ判読可能媒体は、プログラム命令、データファイル、データ構造などを、単独または組み合わせて含んでもよい。前記媒体に記録されるプログラム命令は、本発明のために特別に設計されて構成されたものでもあり、コンピュータソフトウェア当業者に公知されて使用可能なものでもある。コンピュータ判読可能記録媒体の例としては、ハードディスク、フロッピィーディスク及び磁気テープのような磁気媒体(magnetic media);CD−ROM(compact disc read only memory)、DVD(digital versatile disc)のような光記録媒体(optical media);フロプティカルディスク(floptical disk)のような磁気・光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリのようなプログラム命令を保存して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例としては、コンパイラによって作われるような機械語コードだけではなく、インタープリタなどを使用してコンピュータによって実行される高級言語コードを含む。
以上、実施形態について詳細に説明したが、本発明の権利範囲は、それえに限定されるものではなくて、次の請求範囲で定義している本発明の基本概念を利用した当業者の多くの変形及び改良形態も、本発明の権利範囲に属するものである。
100 映像表示装置
110 制御部
115 オーディオ処理部
120 ディスプレイ部
125 オーディオ出力部
126 スピーカ
127 ヘッドフォン出力端子
128 出力端子
130 感知部
131 マイク
132 カメラ部
133 光受信部
140 チューナ部
150 通信部
152 ブルートゥース
153 有線イーサネット
160 電源部
170 入出力部
171 HDMIポート
172 コンポーネントジャック
173 PCポート
174 USBポート
180 ビデオ処理部
183 プロセッサ
184 グラフィック処理部
186 内部バス
190 保存部
191 ベースモジュール
191−1 ストレージモジュール
191−2 保安モジュール
191−3 ネットワークモジュール
192 センシングモジュール
193 通信モジュール
193−1 メッセージングモジュール
193−2 テレフォニーモジュール
194−1 マルチメディアモジュール
194−2 レンダリングモジュール
195 ウェブブラウザモジュール
196 サービスモジュール
200 制御装置
220 無線通信部
221 RFモジュール
223 IRモジュール
230 ユーザ入力部
240 センサ部
241 ジャイロセンサ
243 加速度センサ
250 出力部
260 電源供給部
270 保存部
280 制御部

Claims (15)

  1. ディスプレイ部に複数のアイテムを含むアイテムリスト、及び前記ディスプレイ部上で、ユーザ入力の位置を示すカーソルを表示する段階と、
    前記カーソルを移動させるための前記ユーザ入力を感知する段階と、
    前記ユーザ入力に対応し、前記カーソルを移動させ、前記複数のアイテムのうち少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムと、前記少なくとも1つのアイテムに隣接するアイテムとの間隔を変更させる段階を含む映像表示方法。
  2. 前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、
    前記少なくとも1つのアイテムと、前記カーソルとの距離によって、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して変更させる段階を含むことを特徴とする請求項1に記載の映像表示方法。
  3. 前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、
    前記複数のアイテムのうち、前記カーソルが位置した第1アイテムと、前記第1アイテムに隣接する第2アイテムとの間隔を変更させる段階を含むことを特徴とする請求項1に記載の映像表示方法。
  4. 前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、
    前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を最大間隔に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して減少させる段階を含むことを特徴とする請求項1に記載の映像表示方法。
  5. 前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、
    前記カーソルが、前記複数のアイテムのうち、第1アイテムの中心線に位置する場合、前記第1アイテムと、前記第1アイテムに隣接する第2アイテムとの第1間隔、及び第1アイテムと、前記第1アイテムに隣接する第3アイテムとの第2間隔を最大間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第1間隔は、維持させ、前記第2間隔を連続して減少させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第2間隔を最小間隔に変更させる段階を含むことを特徴とする請求項1に記載の映像表示方法。
  6. 前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を変更させる段階は、
    前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムと、前記第3アイテムに隣接する第4アイテムとの第3間隔を前記最小間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3間隔を連続して増大させ、前記カーソルが、第2アイテムの中心線に位置する場合、前記第3間隔を前記最大間隔に変更させる段階を含むことを特徴とする請求項5に記載の映像表示方法。
  7. 前記方法は、
    前記少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムのイメージの不透明度を変更させる段階をさらに含むことを特徴とする請求項1に記載の映像表示方法。
  8. 前記少なくとも1つのアイテムのイメージの不透明度を変更させる段階は、
    前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムの第1イメージの不透明度を最大値に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記第1イメージの不透明度を連続して低減させる段階を含むことを特徴とする請求項7に記載の映像表示方法。
  9. 複数のアイテムを含むアイテムリスト、及びユーザ入力の位置を示すカーソルを表示するディスプレイ部と、
    前記カーソルを移動させるための前記ユーザ入力を感知する感知部と、
    前記ユーザ入力に対応し、前記カーソルを移動させ、前記複数のアイテムのうち少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムと、前記少なくとも1つのアイテムに隣接するアイテムとの間隔を変更させる制御部を含む映像表示装置。
  10. 前記制御部は、
    前記少なくとも1つのアイテムと、前記カーソルとの距離によって、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して変更させることを特徴とする請求項9に記載の映像表示装置。
  11. 前記制御部は、
    前記複数のアイテムのうち、前記カーソルが位置した第1アイテムと、前記第1アイテムに隣接する第2アイテムとの間隔を変更させることを特徴とする請求項9に記載の映像表示装置。
  12. 前記制御部は、
    前記カーソルが、前記少なくとも1つのアイテムの中心線に位置する場合、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を最大間隔に変更させ、前記カーソルが、前記中心線から遠くなるように移動するにつれ、前記少なくとも1つのアイテムと、前記隣接するアイテムとの間隔を連続して減少させることを特徴とする請求項9に記載の映像表示装置。
  13. 前記制御部は、
    前記カーソルが、前記複数のアイテムのうち、第1アイテムの中心線に位置する場合、前記第1アイテムと、前記第1アイテムに隣接する第2アイテムとの第1間隔、及び第1アイテムと、前記第1アイテムに隣接する第3アイテムとの第2間隔を最大間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第1間隔は、維持させ、前記第2間隔を連続して減少させ、前記カーソルが、前記第2アイテムの中心線に位置する場合、前記第2間隔を最小間隔に変更させることを特徴とする請求項9に記載の映像表示装置。
  14. 前記制御部は、
    前記カーソルが、前記第1アイテムの中心線に位置する場合、前記第2アイテムと、前記第3アイテムに隣接する第4アイテムとの第3間隔を前記最小間隔に変更させ、前記カーソルが、前記第1アイテムの中心線から、前記第2アイテムの中心線に移動するにつれ、前記第3間隔を連続して増大させ、前記カーソルが、第2アイテムの中心線に位置する場合、前記第3間隔を前記最大間隔に変更させることを特徴とする請求項13に記載の映像表示装置。
  15. 前記制御部は、
    前記少なくとも1つのアイテムと、前記カーソルとの位置関係に基づいて、前記少なくとも1つのアイテムのイメージの不透明度を変更させることを特徴とする請求項9に記載の映像表示装置。
JP2017530002A 2015-01-05 2015-11-19 映像表示装置及び映像表示方法 Active JP6505227B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2015-0000867 2015-01-05
KR1020150000867A KR102337216B1 (ko) 2015-01-05 2015-01-05 영상 표시 장치 및 영상 표시 방법
PCT/KR2015/012434 WO2016111455A1 (en) 2015-01-05 2015-11-19 Image display apparatus and method

Publications (2)

Publication Number Publication Date
JP2018506766A true JP2018506766A (ja) 2018-03-08
JP6505227B2 JP6505227B2 (ja) 2019-04-24

Family

ID=55070768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530002A Active JP6505227B2 (ja) 2015-01-05 2015-11-19 映像表示装置及び映像表示方法

Country Status (6)

Country Link
US (2) US10606440B2 (ja)
EP (2) EP3040833A1 (ja)
JP (1) JP6505227B2 (ja)
KR (2) KR102337216B1 (ja)
CN (2) CN111935522A (ja)
WO (1) WO2016111455A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239903A1 (ja) * 2018-06-15 2019-12-19 シャープ株式会社 制御装置、表示装置および制御方法
JP2021076838A (ja) * 2019-11-08 2021-05-20 エルジー ディスプレイ カンパニー リミテッド ディスプレイ装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2017218781A1 (en) * 2016-02-14 2018-08-09 Royal App Ltd. Product display graphic user interface
CN108885144B (zh) * 2016-11-23 2021-03-16 深圳市汇顶科技股份有限公司 一种压力检测方法、装置及设备
CN106610771A (zh) * 2016-12-12 2017-05-03 广州神马移动信息科技有限公司 一种语音识别界面的生成和自适应旋转的方法和装置
CN111868674A (zh) * 2018-03-14 2020-10-30 麦克赛尔株式会社 便携信息终端
US11435875B2 (en) * 2020-09-08 2022-09-06 Dell Products L.P. Static dynamic on screen display menu

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001046790A2 (en) * 1999-12-20 2001-06-28 Apple Computer, Inc. User interface for providing consolidation and access
JP2001516484A (ja) * 1998-01-05 2001-09-25 アミガ ディベロップメント リミティド ライアビリティ カンパニー 変化可能な透明度の表示
US20020171690A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for scaling a graphical user interface (GUI) widget based on selection pointer proximity
US20020171675A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for graphical user interface (GUI) widget having user-selectable mass
JP2004078678A (ja) * 2002-08-20 2004-03-11 Hitachi Ltd タッチパネルを備えた表示装置
JP2012208633A (ja) * 2011-03-29 2012-10-25 Ntt Docomo Inc 情報端末、表示制御方法及び表示制御プログラム
JP2013146095A (ja) * 2008-12-04 2013-07-25 Mitsubishi Electric Corp 表示入力装置および車載情報機器

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5687331A (en) 1995-08-03 1997-11-11 Microsoft Corporation Method and system for displaying an animated focus item
CN1100300C (zh) * 1996-10-16 2003-01-29 夏普公司 字符输入装置
US5956035A (en) 1997-05-15 1999-09-21 Sony Corporation Menu selection with menu stem and submenu size enlargement
US6157379A (en) * 1998-05-21 2000-12-05 Ericsson Inc. Apparatus and method of formatting a list for display on a touchscreen
WO2002037808A1 (fr) * 2000-10-31 2002-05-10 Sony Corporation Dispositif de traitement d"informations, procede d"affichage d"un article, support d"enregistrement de programme
US8169517B2 (en) 2001-03-26 2012-05-01 Panavision Imaging Llc Image sensor ADC and CDS per column with oversampling
KR100648312B1 (ko) 2004-12-29 2006-11-23 삼성전자주식회사 방송 프로그램 안내 정보를 디스플레이 하는 방법 및 그방법에 사용되는 원격 제어기
US20060294545A1 (en) 2005-06-23 2006-12-28 Microsoft Corporation Dynamic media guide listings
US8054294B2 (en) * 2006-03-31 2011-11-08 Sony Corporation Touch screen remote control system for use in controlling one or more devices
JPWO2008010432A1 (ja) 2006-07-20 2009-12-17 シャープ株式会社 ユーザインタフェイス装置、コンピュータプログラム、及びその記録媒体
KR100922493B1 (ko) * 2007-06-27 2009-10-20 삼성전자주식회사 줌을 이용한 브라우저 탐색 방법 및 장치
US8365091B2 (en) * 2009-01-06 2013-01-29 Microsoft Corporation Non-uniform scrolling
US20140033024A1 (en) * 2009-04-07 2014-01-30 Adobe Systems Incorporated Multi-item page layout modifications by gap editing
KR101781908B1 (ko) 2011-03-24 2017-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR101383840B1 (ko) * 2011-11-17 2014-04-14 도시바삼성스토리지테크놀러지코리아 주식회사 리모트 컨트롤러와, 이를 이용한 제어 시스템 및 제어 방법
JP5880024B2 (ja) 2011-12-22 2016-03-08 株式会社バッファロー 情報処理装置及びプログラム
EP2631765A1 (en) * 2012-02-24 2013-08-28 HTC Corporation Electronic apparatus and operating method thereof and computer program product
KR20140039762A (ko) * 2012-09-25 2014-04-02 삼성전자주식회사 영상처리장치 및 그 제어방법
KR20140122292A (ko) * 2013-03-28 2014-10-20 삼성전자주식회사 디스플레이 장치의 디스플레이 방법 및 디스플레이 장치
JP6157215B2 (ja) 2013-05-23 2017-07-05 キヤノン株式会社 表示制御装置及びその制御方法
CN103546822B (zh) 2013-10-30 2017-04-05 乐视致新电子科技(天津)有限公司 一种基于智能电视界面指示模式切换方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001516484A (ja) * 1998-01-05 2001-09-25 アミガ ディベロップメント リミティド ライアビリティ カンパニー 変化可能な透明度の表示
WO2001046790A2 (en) * 1999-12-20 2001-06-28 Apple Computer, Inc. User interface for providing consolidation and access
JP2003536125A (ja) * 1999-12-20 2003-12-02 アップル コンピュータ インコーポレイテッド 一元管理及びアクセス提供用ユーザインタフェース
US20020171690A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for scaling a graphical user interface (GUI) widget based on selection pointer proximity
US20020171675A1 (en) * 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for graphical user interface (GUI) widget having user-selectable mass
JP2002351592A (ja) * 2001-05-15 2002-12-06 Internatl Business Mach Corp <Ibm> 選択ポインタの近接度に基づいてグラフィカル・ユーザ・インターフェース(gui)ウィジェットを拡大/縮小するための方法及びシステム
JP2004078678A (ja) * 2002-08-20 2004-03-11 Hitachi Ltd タッチパネルを備えた表示装置
JP2013146095A (ja) * 2008-12-04 2013-07-25 Mitsubishi Electric Corp 表示入力装置および車載情報機器
JP2012208633A (ja) * 2011-03-29 2012-10-25 Ntt Docomo Inc 情報端末、表示制御方法及び表示制御プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019239903A1 (ja) * 2018-06-15 2019-12-19 シャープ株式会社 制御装置、表示装置および制御方法
JP2021076838A (ja) * 2019-11-08 2021-05-20 エルジー ディスプレイ カンパニー リミテッド ディスプレイ装置
JP7053763B2 (ja) 2019-11-08 2022-04-12 エルジー ディスプレイ カンパニー リミテッド ディスプレイ装置
JP2022104973A (ja) * 2019-11-08 2022-07-12 エルジー ディスプレイ カンパニー リミテッド ディスプレイ装置
US11630635B2 (en) 2019-11-08 2023-04-18 Lg Display Co., Ltd. Display apparatus
JP7326525B2 (ja) 2019-11-08 2023-08-15 エルジー ディスプレイ カンパニー リミテッド ディスプレイ装置
US11907608B2 (en) 2019-11-08 2024-02-20 Lg Display Co., Ltd. Display apparatus

Also Published As

Publication number Publication date
EP3321789B1 (en) 2020-07-29
KR102337216B1 (ko) 2021-12-08
US10606440B2 (en) 2020-03-31
US20160196035A1 (en) 2016-07-07
US20200192549A1 (en) 2020-06-18
EP3040833A1 (en) 2016-07-06
CN105763914A (zh) 2016-07-13
WO2016111455A1 (en) 2016-07-14
CN105763914B (zh) 2020-09-04
KR102414806B1 (ko) 2022-06-30
EP3321789A1 (en) 2018-05-16
CN111935522A (zh) 2020-11-13
US11301108B2 (en) 2022-04-12
KR20210151751A (ko) 2021-12-14
KR20160084238A (ko) 2016-07-13
JP6505227B2 (ja) 2019-04-24

Similar Documents

Publication Publication Date Title
US10379698B2 (en) Image display device and method of operating the same
KR102414806B1 (ko) 영상 표시 장치 및 영상 표시 방법
EP3057312A2 (en) Image display apparatus and method
KR102474244B1 (ko) 영상 표시 장치 및 그 동작방법
US11500509B2 (en) Image display apparatus and image display method
KR102329124B1 (ko) 영상 표시 장치 및 영상 표시 방법
KR20160060846A (ko) 디스플레이 장치 및 디스플레이 방법
KR20170106055A (ko) 서비스를 제공하기 위한 gui를 제공하는 영상 출력 장치 및 영상 출력 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190326

R150 Certificate of patent or registration of utility model

Ref document number: 6505227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250