JP2016535343A - ディスプレイ装置及びその方法 - Google Patents

ディスプレイ装置及びその方法 Download PDF

Info

Publication number
JP2016535343A
JP2016535343A JP2016533004A JP2016533004A JP2016535343A JP 2016535343 A JP2016535343 A JP 2016535343A JP 2016533004 A JP2016533004 A JP 2016533004A JP 2016533004 A JP2016533004 A JP 2016533004A JP 2016535343 A JP2016535343 A JP 2016535343A
Authority
JP
Japan
Prior art keywords
handwriting
display
item
text
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016533004A
Other languages
English (en)
Inventor
リ,ミョン−ジュン
ユン,ヒョン−キュ
キム,クァン−ヨン
クム,クン−ホ
キム,ミン−ソプ
キム,サン−ジン
ナ,ムン−ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2016535343A publication Critical patent/JP2016535343A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42224Touch pad or touch panel provided on the remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Character Discrimination (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ディスプレイ装置が開示される。本装置は、ディスプレイ部と、遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信する入力部と、手書き軌跡に対応するテキストを抽出する抽出部と、テキストに対応するアイテムを検索し、検索されたアイテムを複数のカテゴリに分類してディスプレイ部にディスプレイする制御部とを含む。

Description

本発明は、ディスプレイ装置及びその方法に関し、より詳細には、ユーザの手書き軌跡によって制御されるディスプレイ装置及びその方法に関する。
近年の技術が発展するにつれ、多様な機能を採択したテレビが発売されている。テレビを通じてコンテンツのみを視聴するだけでなく、インターネット等との結合を通じてより多様なコンテンツ、アプリケーション等を経験することができる。このような多様な機能を提供するものとして、スマートテレビを挙げることができる。
スマートテレビが多様な機能を含むにつれて、このような機能を使用するうえで必要な制御装置も複雑化するようになる。よって、複雑な制御装置によって多様な機能の使用に対する敷居を下げるために、スマートテレビに使用される制御装置及びそれによるUIは単純化される必要がある。このような必要性に応じて、スマートテレビに使用されるリモコンもボタンを最小化するなど、単純にデザインされて使用の利便性を追求している傾向にある。
ただ、このような単純なデザインのリモコンは、スマートテレビの多様な機能を全てサポートするのに限界が存在する。すなわち、従来は、スマートテレビで所望の機能を直接探さなければならないため、ユーザは複雑なツリー構造の機能を検索するうえで時間がかかるだけでなく、検索するうえで不都合が生じていた。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザの手書き軌跡に応じてアイテムを検索してディスプレイするディスプレイ装置及びその方法を提供することにある。
上記目的を達成するために、本発明の一実施形態に係るディスプレイ装置は、ディスプレイ部と、遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信する入力部と、手書き軌跡に対応するテキストを抽出する抽出部と、前記テキストに対応するアイテムを検索し、検索されたアイテムを複数のカテゴリに分類してディスプレイ部にディスプレイする制御部とを含む。
なお、制御部は、遠隔制御装置で後続の手書きが行われると、後続の手書きによる手書き軌跡から後続テキストを抽出し、テキスト及び後続テキストに対応するアイテムを再検索し、再検索されたアイテムを複数のカテゴリに応じて分類してディスプレイ部にディスプレイしてよい。
なお、制御部は、受信された手書き軌跡を示す手書き表示領域を画面の一領域に位置させ、手書き表示領域を基準に上側、下側、左側及び右側方向に対して複数のカテゴリのそれぞれをマッチングし、カテゴリ別に分類された検索結果を整列してディスプレイしてよい。
なお、制御部は、手書き表示領域を画面の中央または前記画面に対する4つの角のうちの一側に位置させてよい。
なお、制御部は、アイテムが選択されると、選択されたアイテムに対応する制御動作を行ってよい。
なお、複数のカテゴリは、アプリケーションカテゴリ、ウェブカテゴリ、機能カテゴリ及びコンテンツカテゴリのうち、少なくとも1つを含んでよい。
一方、本発明の一実施形態に係るディスプレイ方法は、遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信するステップと、手書き軌跡に対応するテキストを抽出するステップと、テキストに対応するアイテムを検索するステップと、検索されたアイテムを複数のカテゴリに分類してディスプレイするステップとを含む。
なお、遠隔制御装置で後続の手書きが行われると、後続の手書きによる手書き軌跡から後続テキストを抽出するステップと、テキスト及び後続テキストに対応するアイテムを再検索するステップと、再検索されたアイテムを複数のカテゴリに応じて分類してディスプレイするステップとを更に含んでよい。
なお、受信された手書き軌跡を示す手書き表示領域を画面の一領域に位置させるステップと、手書き表示領域を基準に上側、下側、左側及び右側方向に対して複数のカテゴリのそれぞれをマッチングするステップと、カテゴリ別に分類された検索結果を整列してディスプレイするステップとを更に含んでよい。
なお、手書き表示領域を画面の中央または前記画面に対する4つの角のうちの一側に位置させるステップを更に含んでよい。
なお、アイテムが選択されると、選択されたアイテムに対応する制御動作を行うステップを更に含んでよい。
なお、複数のカテゴリは、アプリケーションカテゴリ、ウェブカテゴリ、機能カテゴリ及びコンテンツカテゴリのうち、少なくとも1つを含んでよい。
以上説明したように本発明によれば、ユーザはディスプレイ装置に含まれた多様な機能を容易に且つ直観的に検索した後でそれを使用することができるようになる。
本発明の一実施形態に係るディスプレイ装置のブロック図である。 本発明の一実施形態に係る通信システムの構成を示すブロック図である。 本発明の一実施形態に係るディスプレイ装置の構成を具体的に説明するためのブロック図である。 本発明の一実施形態に係るディスプレイ装置の構成を総合的に説明するためのブロック図である。 本発明の一実施形態に係るディスプレイ装置が使用するソフトウェア構造の一例を示す図である。 本発明の一実施形態に係るディスプレイ方法に関するフローチャートである。 本発明の一実施形態に係るディスプレイ方法に関する別のフローチャートである。 本発明の一実施形態に係るユーザの手書きの一例を示す図である。 本発明の一実施形態に係るディスプレイ装置の詳細画面の一例を示す図である。 本発明の一実施形態に係るディスプレイ装置の詳細画面の別の例を示す図である。 本発明の一実施形態に係るディスプレイ装置の詳細画面の更に別の例を示す図である。 本発明の一実施形態に係るユーザの手書きの別の例を示す図である。 本発明の一実施形態に係るディスプレイ装置の詳細画面の更に別の例を示す図である。 本発明の一実施形態に係るユーザ入力の一例を示す図である。 本発明の一実施形態に係るディスプレイ装置の詳細画面の更に別の例を示す図である。 本発明の別の実施形態に係るディスプレイ装置の詳細画面の更に別の例を示す図である。 本発明の別の実施形態に係るディスプレイ装置の詳細画面の更に別の例を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係るディスプレイ装置100のブロック図である。
図1を参照すると、本発明の一実施形態に係るディスプレイ装置100は、入力部110と、検出部120と、ディスプレイ部130及び制御部140を含む。
入力部110は、遠隔制御装置から制御信号を受信する。すなわち、ユーザが遠隔制御装置を用いてディスプレイ装置100に対する制御信号を伝送すると、入力部110はこのような制御信号を受信することができる。
遠隔制御装置は、タッチパッドを含んでよい。この場合、ユーザは、遠隔制御装置のタッチパッドを通じて制御信号を入力することができる。具体的には、ユーザはタッチパッド上に指やペン、その他の入力手段を用いて手書きで書くことができる。遠隔制御装置は、タッチパッドを介して入力されるユーザの手書きをディスプレイ装置100に伝送する。更に、タッチパッドは、文字キー、数字キー、機能キー等を含むタッチ入力領域をディスプレイすることもできる。
例えば、ユーザはタッチパッド上にタッチジェスチャを用いて入力信号を提供することができる。ユーザは、ピンチジェスチャ、ズームアウトジェスチャを入力することができ、または、ユーザは特定機能を提供する2バイト文字を入力することもできる。例えば、ユーザは、“<”または“>”のようなシェブロン(chevron)模様を入力することができ、それは早送りまたは巻き戻し機能と解釈されてよい。または、ユーザは同時に2本指を用いて“>>”または“<<”模様を入力することができ、それは更に速い巻き戻し、早送りまたはメニューナビゲーション機能と解釈されてよい。それと類似するように、ユーザは同時に3本指を用いて“>>>”模様を描くことができ、それは通常の再生速度より3倍も速く再生する機能またはメニュースクローリング機能を提供することができる。その他に、別のマルチ入力文字またはジェスチャが用いられてよい。
なお、遠隔制御装置は、ユーザの選択に応じて、ユーザの手書きを入力するか、それともキー入力をするかに対して選択することができるボタンを含んでよい。従って、ユーザの手書きを入力する機能を選択した場合、遠隔制御装置に設けられたタッチパッド上においてユーザの手書きが行われると、タッチパッドはユーザの手書きをディスプレイすることができる。この場合、遠隔制御装置はユーザの手書きに対応する信号をディスプレイ装置100の入力部110に伝送することができる。入力部110は、ユーザの手書きに対応する信号を遠隔制御装置から受信して検出部120に伝送することができる。
検出部120は、入力部110からユーザの手書きに対応する信号を受信し、手書き軌跡に対応するテキストを抽出することができる。すなわち、検出部120は、入力されたユーザの手書きの軌跡を検出し、検出された軌跡に対応するテキストを抽出することができる。
この場合、ディスプレイ装置100は、複数個のテキストを保存する保存部(図示せず)を更に含んでよい。保存部(図示せず)は、検出部120と接続されてよい。よって、検出部120は、入力部110から入力されたユーザの手書きの軌跡を分析し、それに対応するテキストを保存部(図示せず)から読み込むことができる。ユーザの手書きの軌跡に対応するテキストを抽出した検出部120は抽出されたテキストを制御部140及びディスプレイ部130に伝送することができる。一方、検出部120は、テキストを抽出するために入力されたユーザの軌跡を分析することができるが、具体的には入力された手書き軌跡の座標データを分析することができる。
まず、検出部120は、入力された手書き軌跡の座標データを分析し、入力された手書き軌跡の特性を検出し、その特性に対応するテキストを検出する。検出部120は、多様な方式で手書き軌跡を分析することができる。
一例として、検出部120は、手書きの始点から終点までの軌跡を一定の距離単位で区分し、各単位距離ごとに始点及び終点の間を連結する線の方向ベクトルを検出する。検出部210は、各方向ベクトルの間の角度を演算し、演算結果に基づいて手書き軌跡の特性を判断する。例えば、各単位距離に対応する方向ベクトルの角度が一定範囲内で類似するか同一の場合に、全軌跡を直線と判断する。
一方、一定角度以上差が生じる部分があれば、その部分において手書き軌跡が折れていると判断することができる。検出部120は、手書き軌跡が折れている部分が予め設定された数以上であれば曲線と判断することができる。
なお、検出部120は、手書き軌跡の中で相互重なる部分が存在すると、その部分において閉曲線は発生したと認識する。検出部120は、閉曲線か否か、ラインの曲がり角度、曲がり部分の数等に基いてユーザの手書き軌跡の特性情報を検出することができる。検出部120は、特性情報と予め保存されたテキスト情報とを比較し、ユーザの手書き軌跡がどのようなテキストを意味するかを検出することができる。
このような方式で抽出された手書き軌跡は、検出部120と接続されたディスプレイ部130によってディスプレイされてよい。
なお、予め定められた時間内に別の手書き軌跡が入力されると、検出部120は、それに対する軌跡データを上述のように分析することで、直線か曲線かを判断するようになる。ディスプレイ部130は、以前に入力されてディスプレイされている手書き軌跡に付加し、予め定められた時間内に入力された別の手書き軌跡をディスプレイすることができる。
以上のように、検出部120は、予め定められた時間内に入力された少なくとも1つ以上の軌跡を組み合わせることで、全テキストを抽出することができる。検出部120は、このような方式で抽出されたテキストをディスプレイ部130及び制御部140に伝送することができる。ディスプレイ部130は、検出部120から伝送されたテキストをディスプレイすることができる。制御部140は、検出部130から伝送されたテキストに応じてアイテムを検出することができる。
制御部140は、検出部120からテキストを受信し、受信されたテキストに対応するアイテムを検索することができる。アイテムには、放送チャネル、コンテンツジャンル、コンテンツタイトル、アプリケーション、機能(function)、ウェブサイトなどのような多様な基準の情報が含まれてよい。
アイテムは、保存部(図示せず)に保存されているか、外部送信装置または外部サーバから受信することができる。よって、制御部140は、テキストに対応するアイテムを保存部(図示せず)から検索して受信するか、外部送信装置及び/または外部サーバから検索して受信することができる。もし、検索されたアイテムがない場合、制御部140は検索されたアイテムがないことを示すメッセージをディスプレイすることができる。なお、検索されたアイテムが複数個である場合、制御部140は検索された複数個のアイテムを複数のカテゴリに分類してディスプレイすることができる。それについては、図9ないし図12を参照して詳細に説明する。
一方、制御部140は、遠隔制御装置で後続の手書きが行われると、後続の手書きによる手書き軌跡から後続のテキストを抽出することができる。このような抽出過程は、上述の通りであるため、詳細な説明は省略する。この場合、制御部140は、以前に抽出されたテキスト及び後続に抽出されたテキストの組み合わせに対応するアイテムを再検索するように制御することができる。以前に抽出されたテキスト及び後続に抽出されたテキストの組み合わせに対応するアイテムを再検索する過程も上述した通りである。この場合、制御部140は、再検索されたアイテムを複数のカテゴリに応じて分類してディスプレイするように制御することができる。
一方、制御部140は、受信された手書き軌跡を示す手書き表示領域を画面の一領域に位置させるように制御することができる。なお、制御部140は、このような手書き表示領域を基準に上側、下側、左側及び/または右側方向に対して複数のカテゴリのそれぞれをマッチングし、カテゴリ別に分類された検索結果を整列してディスプレイするように制御することができる。この場合、複数のカテゴリは、アプリケーションカテゴリ、ウェブカテゴリ、機能カテゴリ及びコンテンツカテゴリのうち少なくとも1つを含んでよい。なお、手書き表示領域は、画面の中央に位置することができる。この場合、カテゴリ別に分類された検索結果は、画面の中央に位置した手書き表示領域の上側、下側、左側及び/または右側方向に対して整列されてディスプレイされてよい。更に、手書き表示領域は、画面の角領域に位置することもできる。この場合、カテゴリ別に分類された検索結果は、画面の角領域に位置した手書き表示領域の両方向に対して整列されてディスプレイされてよい。例えば、手書き表示領域が画面の左側上段角領域に位置したとしたら、手書き表示領域を中心に右側方向及び下側方向に検索結果が整列されてディスプレイされてよい。このような方式によってディスプレイされた少なくとも1つのアイテムのいずれかのアイテムが選択されると、制御部140は選択されたアイテムに対応する制御動作を行うようにすることができる。
一方、ディスプレイ装置100は、多様なソースからアイテムを検索して表示することができる。具体的には、ディスプレイ装置100に内蔵された保存部(図示せず)だけでなく、コンテンツ再生装置、放送局、ウェブサーバ、クラウドサーバ、ユーザ端末装置等のような多様な外部装置からアイテムを検索することができる。
図2は、多様な外部装置からアイテムを検索することができる一実施形態に係る通信システムの構成を示すブロック図である。図2を参照すると、通信システムは複数の送信装置及び通信部150を含む。
複数の送信装置は、相互異なる通信網を介して信号を送信する。図2においては、第1送信装置200−1は、RF通信網300−1を介して信号を送信し、第2送信装置200−2は、IP通信網300−2を介して信号を送信するものとして示しているが、通信網の種類がそれに限られるわけではない。説明の便宜上、本明細書においては、第1送信装置200−1が送信する信号は第1信号と称し、第2送信装置200−2が送信する信号は第2信号と称する。
第1信号及び第2信号は、アイテムを構成するために区分されたデータをそれぞれ含んでよい。すなわち、第1信号は、RF通信網300−1を介して受信されるアイテムを構成するデータであり、第2信号は、IP通信網300−2を介して受信されるアイテムを構成するデータであってよい。このような第1信号及び第2信号は、制御部140によって同時に受信されるか、選択的に受信されるものであってよい。なお、第1信号は、いずれかのアイテムを構成するデータであり、第2信号は、それとは別の別個のアイテムを構成するデータであってよい。更に、第1信号は、1つのアイテムに対する一部を構成するデータであり、第2信号は、それと同一のアイテムに対する残りを構成するデータであってよい。その他に、アイテムは、ビデオデータ及びオーディオデータに区分されるか、動画データ及び字幕データ等のように多様な基準に応じて区分されて、第1及び第2信号で伝送されてよい。
RF通信網300−1を介して信号を伝送する方法及びその構成は、放送規格に応じて異なるように実現されてよい。すなわち、デジタル放送規格としては、ATSC(Advanced Television System Committee)、DVB(Digital Video Broadcasting)、ISDB−T(Integrated Services Digital Broadcasting−Terrestrial)方式等がある。
RF通信網300−1を介して第1信号を伝送する第1送信装置200−1の細部構成及び動作は、上述の放送規格のうちいずれの放送規格が適用されたかに応じて、異なってよい。第1通信部150−1の構成及び動作も同様である。一例として、ATSC規格が採用された場合なら、第1送信装置200−1は、ランダム化部、RSエンコーダ、データインターリーバ、トレリスエンコーダ、シンク及びパイロット挿入部、8VSB変調部、RFアップコンバータ、アンテナ等を含んでよい。一方、第1通信部150−1は、アンテナ、RFダウンコンバータ、復調部、等化部、デマルチプレクサ、RSデコーダ、デインターリーバ等を含んでよい。各放送規格別信号送信及び受信のための細部構成については、各放送規格の標準文書において具体的に開示しているため、具体的な図示及び説明は省略する。
第2送信装置200−2は、付加データを含む第2信号をIP通信網300−2を介して第2通信部150−2に伝送する。IP通信部300−2は、ウェブ、クラウドネットワーク、ローカルネットワーク等のように、多様なネットワークで実現されてよい。第2送信装置200−2は、ストリーミング方式で第2信号を伝送することができる。具体的には、RTP(Real Time Protocol)やHTTP(Hypertext Transfer Protocol)などのような多様なストリーミング方式が使用されてよい。別の実施形態によると、第2送信装置200−2は、ダウンロード方式で付加データを提供することもできる。ダウンロード方式である場合、ファイルフォーマットは、AVI、MP4、MPG、MOV、WMV等のように多様な形態であってよい。
一方、ディスプレイ装置100の制御部130は、多様な形態で構成されてよい。
図3は、本発明の一実施形態に係る制御部の細部構成を説明するためのブロック図である。
図3を参照すると、制御部140は、ディスプレイ装置100の動作全般を制御する。制御部140は、RAM141、ROM142、CPU143、GPU144、バス145を含む。RAM141、ROM142、CPU143、GPU144等はバス145を介して相互接続されてよい。
CPU143は、保存部(図示せず)にアクセスし、保存部(図示せず)に保存されたO/Sを用いてブートを行う。そして、保存部(図示せず)に保存された各種プログラム、コンテンツ、データ等を用いて多様な動作を行う。更に、手書き軌跡を分析し、それに対応するテキストを保存部(図示せず)から抽出する。
ROM142には、システムブートのための命令語セット等が保存される。ターンオン命令が入力されて電源を供給されると、CPU143は、ROM142に保存された命令語に応じて、保存部(図示せず)に保存されたO/SをRAM141にコピーし、O/Sを実行させてシステムをブートさせる。ブートが完了すると、CPU143は保存部(図示せず)に保存された各種プログラムをRAM141にコピーし、RAM141にコピーされたプログラムを実行させて各種動作を行う。
GPU144は、ディスプレイ装置100のブートが完了すると、アイテム画面、コンテンツ画面または検索結果画面等をディスプレイする。具体的には、GPU144は、演算部(図示せず)及びレンダリング部(図示せず)を用いて、アイコン、イメージ、テキスト等のような多様な客体を含む画面を生成することができる。演算部は、画面のレイアウトに応じて各客体が表示される座標値、形、大きさ、カラー等のような属性値を演算する。レンダリング部は、演算部で演算した属性値に基いて客体を含む多様なレイアウトの画面を生成する。レンダリング部で生成した画面は、ディスプレイ部130に提供され、ディスプレイ領域内に表示される。一方、GPU144は、遠隔制御装置から受信される信号に基いて、ユーザが遠隔制御装置のタッチパッドに手書きした内容をそのまま画面上に表示する。
ディスプレイ部130は、上述のような多様な画面をディスプレイする。ディスプレイ部130は、LCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diodes)ディスプレイ、PDP(Plasma Display Panel)等のような多様なディスプレイで実現されてよい。ディスプレイ部130内には、a−si TFT、LTPS(low temperature poly silicon)
TFT、OTFT(organic TFT)等のような形態で実現され得る駆動回路、バックライトユニット等のようも同時に含まれてよい。
図4は、本発明の一実施形態に係るディスプレイ装置100の構成を総合的に説明するためのブロック図である。
図4を参照すると、ディスプレイ装置100は、ディスプレイ部130と、制御部140と、通信部150と、保存部160と、ビデオプロセッサ170−1と、オーディオプロセッサ170−2と、入力部110と、検出部120と、マイク部180−1と、カメラ部180−2及びスピーカ部180−3を含んでよい。
保存部160は、ディスプレイ装置100の動作に必要な各種プログラム及びデータを保存するための構成要素である。
ディスプレイ部130は、一般のLCDディスプレイで実現されてよく、タッチスクリーン形態で実現されてよい。タッチスクリーンで実現される場合、ユーザは画面をタッチしてディスプレイ装置100の動作を制御することができる。なお、ディスプレイ部130がタッチスクリーンで実現されない場合、遠隔制御装置から伝送される信号を入力部110が受信してそれを制御部140に伝送することができる。
制御部140は、保存部160に保存された各種プログラム及びデータを用いてディスプレイ装置100の動作の全般を制御する。ディスプレイ部130と、制御部140については、上述の多様な実施形態において既に具体的に説明しているため、繰り返し説明は省略する。
通信部150は、多様な通信方式によって多様な類型の外部機器と通信を行う構成である。通信部150は、Wi−Fiチップ150−1、ブルートゥースチップ150−2、無線通信チップ150−3、NFCチップ150−4を含んでよい。
Wi−Fiチップ150−1、ブルートゥースチップ150−2は、それぞれWi−Fi方式、ブルートゥース方式で通信を行う。Wi−Fiチップ150−1やブルートゥースチップ150−2を用いる場合には、SSID及びセッションキー等のような各種接続情報を先に送受信し、それを用いて通信接続した後各種情報を送受信することができる。無線通信チップ150−3は、IEEE、Zigbee(登録商標)、3G(3rd Generation)、3GPP(3rd Generation Partnership Project)、LTE(Long Term Evolution)等のような多様な通信規格によって通信を行うチップを意味する。NFCチップ150−4は、135kHz、13.56MHz、433MHz、860〜960MHz、2.45GHz等のような多様なRF−ID周波数帯域のうち、13.56MHz帯域を使用するNFC(Near Field Communication)方式で動作するチップを意味する。
なお、通信部150は、検索サーバ等のような多様な外部サーバ装置と通信を行うこともできる。
入力部110を介して受信された信号に基いて、検出部120がユーザの手書き軌跡に対応するテキストを検出すると、制御部140は通信部150を介して多様な外部装置にアクセスし、検出されたテキストに対応するアイテムを受信することができる。
その他に、通信部150は、サーバ装置ではない多様な外部装置と直接通信を行って検索を行うこともできる。
ビデオプロセッサ170−1は、通信部150を介して受信されたアイテムまたは保存部160に保存されたアイテムに含まれたビデオデータを処理するための構成要素である。すなわち、ビデオデータに対するデコード、スケーリング、ノイズフィルタリング、フレームレート変換、解像度変換等のような多様なイメージを処理を行うことができる。
オーディオプロセッサ170−2は、通信部150を介して受信されたアイテムまたは保存部160に保存されたアイテムに含まれたオーディオデータを処理するための構成要素である。オーディオプロセッサ170−2においては、オーディオデータに対するデコードや増幅、ノイズフィルタリング等のような多様な処理が行われてよい。
制御部140は、ディスプレイ部130に表示されたアイテムの中からマルチメディアコンテンツに対応するアイテムが選択されると、通信部150を介して当該マルチメディアコンテンツを受信する。
制御部140は、マルチメディアコンテンツが受信されると、そのマルチメディアコンテンツをデマルチプレキシングしてビデオデータ及びオーディオデータをそれぞれ抽出し、抽出されたビデオデータ及びオーディオデータをそれぞれデコードして当該アイテムを再生するようにビデオプロセッサ170−1及びオーディオプロセッサ170−2を制御することができる。
ディスプレイ部130は、ビデオプロセッサ170−1で生成したイメージフレームをディスプレイすることができる。
スピーカ部180−3は、オーディオプロセッサ170−2で生成したオーディオデーチャを出力する。
入力部110は、外部の遠隔制御装置が伝送した操作信号を受信し、それを制御部140に伝送することができる。この場合、入力部110は、ディスプレイ装置100の本体の外観の前面部、側面部、背面部等の任意の領域に形成されてよい。
マイク部180−1は、ユーザ音声やその他の音を受信してオーディオデータに変換するための構成である。制御部140は、マイク部180−1を介して入力されるユーザ音声をアイテム検索または抽出に利用したり、オーディオデータに変換して保存部160に保存することができる。
カメラ部180−2は、ユーザの制御に応じて静止画像または動画を撮像するための構成である。カメラ部180−2は、前面カメラ、後面カメラのように複数個で実現されてよい。
カメラ部180−2及びマイク部180−1が設けられた場合、制御部140はマイク部180−1を介して入力されるユーザ音声やカメラ部180−2によって認識されるユーザモーションに応じて制御動作を行うこともできる。すなわち、ディスプレイ装置100は、モーション制御モードや音声制御モードで動作することができる。モーション制御モードで動作する場合、制御部140はカメラ部180−2を活性化させてユーザを撮像し、ユーザのモーション変化を追跡してそれに対応する制御動作を行う。音声制御モードで動作する場合、制御部140はマイク部180−1を介して入力されたユーザ音声を分析し、分析されたユーザ音声に応じて制御動作を行う音声認識モードで動作することもできる。よって、カメラ部180−2及びマイク部180−1は、ユーザのモーションまたはユーザの音声を認識して制御部140がアイテムを抽出することに利用されてよい。
モーション制御モードや音声制御モードがサポートされるディスプレイ装置においては、音声認識技術またはモーション認識技術が上述の多様な実施形態に使用されてよい。仮に、ユーザが画面に表示されたアイテム等のオブジェクトを選択するようなモーションを取るか、そのオブジェクトに対応する音声命令語を発音する場合、当該オブジェクトが選択されたと判断し、そのオブジェクトにマッチングする制御動作を行うことができる。
その他に、図4に示していないが、実施形態によっては、ディスプレイ装置100内にUSBコネクタが接続され得るUSBポート、ヘッドセット、マウス、LAN等のような多様な外部端子と接続するための多様な外部入力ポート、DMB(Digital Multimedia Broadcasting)信号を受信して処理するDMBチップ等を更に含んでよい。
以上のように、ディスプレイ装置100は、多様な形態で実現されてよい。
図5は、本発明の一実施形態に係るディスプレイ装置100が使用するソフトウェア構造のブロック図である。
図5のソフトウェアは、保存部160に保存されてよいが、必ずしもそれに限定されるわけではなく、ディスプレイ装置100内に使用される多様な保存手段に保存されてよい。図5によると、ディスプレイ装置100には、OS191、カーネル192、ミドルウェア194、アプリケーション等を含むソフトウェアが保存されてよい。
運営体制(Operating System)191は、ハードウェアの動作全般を制御し、管理する機能を行う。すなわち、OS191は、ハードウェア管理とメモリ、セキュリティ等の基本的な機能を担当する階層である。
カーネル192は、ディスプレイ装置100内の検知手段によって検知される各種信号をミドルウェア193に伝達する通路役割を担う。
ミドルウェア193は、ディスプレイ装置100の動作を制御する各種ソフトウェアモジュールを含む。図5によると、ミドルウェア193は、UIフレームワーク193−1、ウィンドウマネージャ193−2、手書き認識モジュール193−3、セキュリティモジュール193−4、システムマネージャ193−5、マルチメディアフレームワーク193−6、X11モジュール193−7、APPマネージャ193−8、接続マネージャ193−9を含む。
UIウィンドウワーク193−1は、各種UIを提供するためのモジュールである。UIフレームワーク19301は、テキスト、アイテム等の各種オブジェクトを構成するイメージ合成器(Image Compositor module)、オブジェクトが表示される座標を算出する座標合成器、構成されたオブジェクトを算出された座標にレンダリングするレンダリングモジュール、2Dまたは3DのUIを構成するためのツール(Tool)を提供する2D/3DUIツールキットなどを含んでよい。
ウィンドウマネージャ193−2は、ユーザの体やペンを用いたタッチイベント、ユーザの音声を用いた音声認識イベント、ユーザの動作を用いた動作認識イベント、その他の入力イベントを検知することができる。ウィンドウマネージャ193−2は、このようなイベントが検知されると、UIフレームワーク193−1にイベント信号を伝達し、イベントに対応する動作を行うようにする。
手書き認識モジュール193−3は、遠隔制御装置のタッチパッド上でユーザがドローイングした軌跡をパーシングし、その内容を認識するためのモジュールである。検出部120は、手書き認識モジュール193−3を実行させ、ユーザが手書きしたテキストを検出することができる。手書き認識モジュール193−3は、入力されたユーザの手書きの軌跡による連続した座標値を受信し、このような連続的な座標値をストロークで保存する。そして、ストロークを用いてストロークアレイを生成することができる。そして、手書き認識モジュール193−3は、予め保存された手書きライブラリと生成されたストロークアレイとを比較することで、手書き軌跡を認識し、手書き軌跡に対応するテキストを抽出することができる。
セキュリティモジュール193−4は、ハードウェアに対する認証(Certification)、要請許容(Permission)、セキュリティ保存(Secure Storage)等をサポートするモジュールである。
システムマネージャ193−5は、ディスプレイ装置100内の各構成要素の状態をモニタリングし、そのモニタリングの結果を他のモジュールに提供する。例えば、バッテリの残量が不足していたり、エラーが発生する場合、通信接続状態が途切れる場合等のイベントが発生すると、システムマネージャ193−5はそのモニタリング結果をUIフレームワーク193−1に提供して報知メッセージや報知音を出力することができる。
マルチメディアフレームワーク193−6は、ディスプレイ装置100に保存されているか、外部ソースから提供されるマルチメディアコンテンツを再生するためのモジュールである。マルチメディアフレームワーク193−6は、プレーヤモジュール、カムコーダモジュール、サウンド処理モジュール等を含んでよい。それにより、各種マルチメディアアイテムを再生して画面及び音響を生成して再生する動作を行うことができる。
X11モジュール193−7は、ディスプレイ装置100に具備された各種ハードウェアから各種イベント信号を受信するモジュールである。ここで、イベントとは、ユーザ操作が検知されるイベント、システムアラームが発生するイベント、特定プログラムが実行または終了するイベント等のように多様に設定されてよい。
APPマネージャ193−8は、保存部160にインストールされた各種アプリケーションの実行状態を管理するモジュールである。APPマネージャ193−8は、X11モジュール193−7からアプリケーション実行命令が入力されたイベントが検知されると、当該イベントに対応するアプリケーションを呼び出して実行させる。すなわち、APPマネージャ193−8は、少なくとも1つのオブジェクトが選択されたイベントが検知されると、そのオブジェクトに対応するアプリケーションを呼び出して実行させる動作を行う。
接続マネージャ193−9は、有線または無線ネットワーク接続をサポートするためのモジュールである。接続マネージャ193−9は、DNETモジュール、UPuPモジュール等のような多様な細部モジュールを含んでよい。
アイテム認識モジュール193−10は、保存部160に保存されたアイテムまたは通信部150が受信したアイテムを認識し、そのアイテムに対する情報を抽出するモジュールである。具体的に、アイテム認識モジュール193−10は、アイテムのタイトル、アイテムのタイトルに該当するテキスト、その他のアイテムに対する具体的な情報を抽出することができる。
一方、ミドルウェア193の上部階層には、ディスプレイ装置100の多様な機能を実現するブラウザ階層及び少なくとも1つ以上のアプリケーション階層が存在する。
図5に示すソフトウェア構造は一例に過ぎないため、必ずしもそれに限定されるわけではない。よって、必要に応じて一部が省略または変形されたり、追加されてよい。仮に、保存部160は、各種センサでセンシングされた信号を分析するためのセンシングモジュール、メッセンジャプログラム、SMS(Short Message Service)&MMS(Multimedia Message Service)プログラム、E−Mailプログラム等のようなメッセージングモジュール、電話情報収集器(Call Info Aggregator)プルグラムモジュール、VoIPモジュール、ウェブブラウザ194−m等のように多様なプログラムが更に設けられてよい。
図6は、本発明の一実施形態に係るディスプレイ方法に関するフローチャートである。
図6を参照すると、ディスプレイ装置100は、遠隔制御装置からユーザの手書き軌跡を受信する(S610)。この場合、ディスプレイ装置100は、手書き軌跡の座標データを分析することができる。
手書き軌跡を受信したディスプレイ装置100は手書き軌跡に対応するテキストを抽出する(S620)。この場合、ディスプレイ装置100は、手書き軌跡の座標データを分析した状態であるため、分析した座標データに対応するテキストを抽出することができる。すなわち、分析した手書き軌跡の座標データと予め保存されたテキスト軌跡の座標データとを比較し、相互対応するテキストを抽出するようになる。
その後、ディスプレイ装置100は、抽出されたテキストに対応するアイテムを検索する(S630)。アイテムは、それぞれの固有のネーム、タイトル、名称等を含むため、ディスプレイ装置100は抽出されたテキストに対応するアイテムのネーム、タイトル、名称等を検索及び抽出することができる。
よって、抽出されたテキストに対応するアイテムがあれば、ディスプレイ装置100はそれをディスプレイする。特に、検索されたアイテムが複数であれば、ディスプレイ装置100は検索された複数のアイテムを複数のカテゴリに分類し、それをディスプレイする(S640)。もし、検索されたアイテムがなければ、検索結果がないことを示す視覚メッセージ及び/または音メッセージ等を表示することができる。なお、検索された複数のアイテムが1つのカテゴリに該当する場合には、該当する1つのカテゴリのみに分類して検索された複数のアイテムを配列してディスプレイすることができる。一方、上述のディスプレイ方法については、図8を参照して詳細に説明する。
図7は、本発明の一実施形態に係るディスプレイ方法に関する別のフローチャートである。
図7を参照すると、ユーザは遠隔制御装置に含まれたタッチパッド上に手書きをするようになり、遠隔制御装置はタッチパッド上でユーザのタッチによる手書きを検知する(S710)。この場合、遠隔制御装置は、ユーザのタッチ及びドラッギングを検知することができる。遠隔制御装置に含まれたタッチパッド上でユーザのタッチ及び/またはドラッギングを検知する構成は広く知られているため、詳細な説明は省略する。
ユーザタッチ及びドラッギングによる軌跡を検知した遠隔制御装置は、軌跡の座標値を抽出することができる(S720)。手書き軌跡の座標値を抽出した遠隔制御装置は、それをディスプレイ装置100に伝送することができる(S730)。手書き軌跡の座標値を抽出する構成については、図1においてディスプレイ装置100の検出部120において説明しているため、詳細な説明は省略する。この場合、遠隔制御装置が手書き軌跡の座標値を抽出するようになるため、手書き軌跡の座標値を受信したディスプレイ装置100は別途に手書き軌跡の座標値を抽出しなくてよい。よって、ディスプレイ装置100は、遠隔制御装置から手書き軌跡の座標値を受信し、受信された座標値に対応するテキストを検索及び抽出することができる。
一方、遠隔制御装置は、ユーザの手書き軌跡を受信した後、手書き軌跡の座標値を直接抽出せずに、ディスプレイ装置100に対してユーザの手書き軌跡による信号を伝送することができる。すなわち、遠隔制御装置は、手書き軌跡の座標値を含まない信号をディスプレイ装置100に伝送し、それを受信したディスプレイ装置100は手書き軌跡の信号から座標値を抽出することができる。
図8は、本発明の一実施形態に係るユーザの手書きの一例を示す図であり、図9は、本発明の一実施形態に係るディスプレイ装置100の詳細画面の一例を示す図である。
図8を参照すると、遠隔制御装置400が設けられる。遠隔制御装置400は、ユーザのタッチを入力するためのタッチパッド410を含む。図8には示していないが、遠隔制御装置400はディスプレイ装置100を制御するための少なくとも1つ以上のボタンを更に含んでよい。
ユーザは遠隔制御装置400として手書きモードの活性化及び非活性化を制御することができる。すなわち、ユーザは遠隔制御装置400上に設けられた手書きモードボタンを押すことで、遠隔制御装置400及びディスプレイ装置100を手書きモードに設定することができる。または、遠隔制御装置400の方向をディスプレイ装置100の一領域に設けられた手書きモード表示領域131に向かわせた後、タッチパッド410をタッチすることで遠隔制御装置400及びディスプレイ装置100を手書きモードに設定することができる。または、予め設定された時間以上の間、ユーザがタッチパッド410上にドローイングしないでタッチすることで、手書きモードは設定されることができる。または、ユーザがタッチパッド410上に予め設定された長さ以上の直線をドローイングすることで手書きモードは設定されることができる。その後、遠隔制御装置400を上述の方式と同一の方式でもう一度操作することで手書きモードは解除されることができる。
図9に示すように、ディスプレイ装置100の一領域には手書きモード表示領域131が形成されており、このような手書きモード表示領域131には、現在の状態が手書きモードの状態か否かが表示されてよい。例えば、手書きモードが活性化された状態であれば、ディスプレイ装置100のテキスト表示領域132には別の領域と対比できる色で表示されたり、別の領域に比べて輝度を高くするなどの視覚的効果を与えることができる。
手書きモードが設定された状態で、ユーザはタッチパッド410上でタッチ及び/またはドラッグすることができる。この場合、ユーザはタッチペンを用いて行ってよく、ユーザの体を用いてよい。図8においては、ユーザの指で“S”という文字の軌跡を描くことを示している。すなわち、ユーザがタッチパッド410上で“S”という文字を描くと、タッチパッド410はユーザのドラッグと同時に“S”という文字の軌跡をディスプレイするようになる。
ユーザのタッチ及びドラッギングによる軌跡を検知した遠隔制御装置400は、軌跡の座標値を抽出することができる。手書き軌跡の座標値を抽出した遠隔制御装置400は、それをディスプレイ装置100に伝送することができる。この場合、遠隔制御装置400が手書き軌跡の座標値を抽出するようになるため、手書き軌跡の座標値を受信したディスプレイ装置100は別途に手書き軌跡の座標利を抽出しなくてよい。よって、ディスプレイ装置100は、遠隔制御装置400から手書き軌跡の座標値を受信し、受信された座標値に対応するテキストを検索及び抽出することができる。
一方、遠隔制御装置400は、ユーザの手書き軌跡を受信した後、手書き軌跡の座標値を抽出してなくてよい。この場合、遠隔制御装置400が手書き軌跡の座標値を抽出しないため、遠隔制御装置400はディスプレイ装置100に対してユーザの手書き軌跡による信号を伝送することができる。すなわち、遠隔制御装置400は、手書き軌跡の座標値を含まない信号をディスプレイ装置100に伝送し、それを受信したディスプレイ装置100は手書き軌跡の信号から座標値を抽出することができる。
図9は、図8に示す遠隔制御装置400の入力によるディスプレイ装置100を示している。図9を参照すると、手書きモード表示領域131は、手書きモードであることをディスプレイしており、テキスト表示領域132は、遠隔制御装置400から受信された手書き軌跡をディスプレイしている。ユーザは、遠隔制御装置400として手書きモードを設定した状態で、タッチパッド410上に“S”を手書きした状態である。よって、ディスプレイ装置100の手書きモード表示領域131は、“手書きモードON”と表示され、テキスト表示領域132は“S”と表示される。
一方、ディスプレイ装置100は、テキスト表示領域132に表示された“S”を含むアイテムをディスプレイすることができる。すなわち、初期化されたテキスト表示領域132に最初にディスプレイされたテキストが“S”であるため、アイテムのネーム、名称またはタイトルの中から“S”で始まるアイテムが検索される。
この場合、検索されるアイテムはディスプレイされたテキストを含むアイテムのネーム、名称またはタイトルに限定されるわけでなく、検索されるアイテムはディスプレイされたテキストを含むキーワードに対するアイテムであってよい。すなわち、ディスプレイ装置100は、テキスト表示領域132に表示されたテキストを含むキーワードに対するアイテムをディスプレイすることもできる。例えば、音量調節機能を行うアイテムの名称に該当する“Volume”に対するキーワードを“Sound”と予め設定したと仮定する。その後、図8に示すように、ユーザはタッチパッド410上で“S”をドローイングすることができる。この場合、音量調節機能を担うアイテムの名称に該当する“Volume”は“V”から始まるとしても、“Sound”というキーワードが検索されてよい。よって、ユーザがタッチパッド410上で“S”をドローイングすると、“Sound”というキーワードを含むアイテムである“Volume”が検索されてよい。
複数のアイテムが検索された場合、各アイテムは予め定められたカテゴリによって分類されてよい。図9を参照すると、検索されたアイテムを4つのカテゴリに分類することができ、分類されたアイテムは、第1カテゴリ領域133−1、第2カテゴリ領域133−2、第3カテゴリ領域133−3及び第4カテゴリ領域133−4にディスプレイされてよい。なお、複数のカテゴリ領域は、テキスト表示領域132を中心にして対称的にディスプレイされてよい。
図9は、ディスプレイ装置100を設定する機能カテゴリを第1カテゴリと、映画、ドラマ、ドキュメンタリ、ニュース等のコンテンツに関するカテゴリを第2カテゴリと、ディスプレイ装置100上で実行されるアプリケーションに関するカテゴリを第3カテゴリと、ディスプレイ装置100上で実行されるウェブに関するカテゴリを第4カテゴリと示しているが、それに限定されるわけではない。なお、図9は、テキスト表示領域132を中心に、第1カテゴリ領域133−1ないし第4カテゴリ領域133−4が上側、下側、左側及び右側方向にディスプレイされていることを示しているが、それに限定されるわけではない。
一方、アイテムはディスプレイ装置100に保存されてよく、外部サーバ等の送受信装置から受信されたものであってよい。なお、アイテムは、外部サーバ等の送受信装置から受信されないものであってよい。
なお、アイテムの整列方向やカテゴリ分類基準、手書きモード表示領域等の位置、大きさ、形等は実施形態に応じて多様に変形されてよい。
図10ないし図11は、多様な実施形態に係る検索結果画面の例を示す図である。
図10を参照すると、手書きモード表示領域131及びテキスト表示領域132が左側に表示され、第1カテゴリ領域133−1ないし第4カテゴリ領域133−4が配列されてよい。この場合、各カテゴリ領域に含まれるアイテムは、上下方向に配列されてディスプレイされてよい。
図11においては、カテゴリ領域が更に細分化された場合を示している。図11を参照すると、テキスト表示領域132を中心にし、第1カテゴリ領域133−1ないし第8カテゴリ領域133−8が周縁方向に配列されてよい。この場合、各カテゴリ領域に含まれるアイテムは当該カテゴリ領域の配列された方向に配列されてディスプレイされてよい。
一方、ユーザは、複数のテキストを順次に入力することができる。例えば、ユーザは1つのテキストを手書きした後、次のテキストを順次に手書きすることができる。この場合、制御部140は、後続の手書き内容に基いて順次にテキストを抽出し、抽出されたテキストを組み合わせてアイテムを検索することができる。
図12は、図8による手書き軌跡の後続の手書きが行われる場合を示しており、図13は、このような後続の手書きによるディスプレイ装置100の詳細画面を示している。
図12を参照すると、ユーザは“S”の後続の手書きで“P”という文字の軌跡を描く。この場合、遠隔制御装置400は、以前に手書きされた“S”はタッチパッド410上から消え、後で手書きされた“P”という軌跡をディスプレイするようになる。すなわち、ユーザがタッチパッド410上で“P”を描くと、タッチパッド410はユーザのドラッグと同時に“P”という軌跡をディスプレイするようになる。遠隔制御装置400は、タッチパッド410上にディスプレイされた“P”の軌跡をディスプレイ装置100に伝送する。
図13を参照すると、テキスト表示領域132は、遠隔制御装置400から受信された“P”の軌跡をディスプレイする。この場合、遠隔制御装置400が伝送する“P”は以前に伝送した“S”の後続の手書きであるため、テキスト表示領域132には前のテキストである“S”はそのままディスプレイされた状態で、後続テキストである“P”をディスプレイするようになる。すなわち、テキスト表示領域132には“SP”がディスプレイされる。
一方、ディスプレイ装置100は、テキスト表示領域132にディスプレイされた“SP”を含むアイテムをディスプレイすることができる。すなわち、図9に示すような状態で、アイテムのネーム、名称またはタイトルのうち、“SP”から始まるアイテムが検索される。よって、ユーザは所望のアイテムをより素早くかつ直観的に検索することができるようになる。
ユーザは、検索結果が表示された画面上で少なくとも1つのアイテムを選択することができる。ユーザの選択は、多様な方式で行われてよい。
図14は、アイテムを選択する方法の一例を示す図であり、図15は、それによるディスプレイ装置100の詳細画面の一例である。
図14によると、ユーザは手書きモードを解除した後、タッチパッドを用いて予め設定されたパターンのタッチを行ってアイテムを選択することができる。すなわち、遠隔制御装置400の本体内には手書きモード選択及び解除をトグルすることができるトグルスイッチ(図示せず)が設けられてよく、タッチパッド内に手書きモード選択及び解除をトグルすることができるトグルメニュー(図示せず)が表示されてよい。ユーザは、このようなトグルスイッチまたはトグルメニューを選択し、手書きモードを解除することができる。
図14においては、手書きモードを解除した後、特定パターン(例えば、|)をドローイングした状態を示す。この場合、制御部140は、手書きモードを解除することができる。手書きモードが解除されると、図8を参照して説明したようなテキスト表示領域132の視覚的効果は消えるようになる。制御部140は、手書きモード解除後、ユーザがドローイングした特定パターンに従ってアイテムを選択する。
なお、アイテム選択は、遠隔制御装置400に設けられた方向キーを用いて行われてよい。遠隔制御装置400は、上方向キー、下方向キー、左方向キー、右方向キーを含んでよい。よって、ユーザは、遠隔制御装置400に設けられた4つの方向キーのうちいずれかを選択することで、現在カーソルが位置している領域から所望の方向にカーソルを移動させることができる。図13を参照すると、カーソルは、現在テキスト表示領域132に位置している。この状態で、ユーザは上述の方式によって手書きモードを解除した後、遠隔制御装置400に設けられた4つの方向キーのうち、下方向キーを押してよい。それにより、カーソルは、テキスト表示領域132で“SPORTS−TV”というアイテム領域に移動することができる。
なお、アイテム選択は、ユーザの音声認識またはユーザのモーション認識によって行われてよい。音声認識またはモーション認識によるアイテム選択は、手書きモードが設定された状態だけでなく、手書きモードが解除された状態でも適用されてよい。よって、ユーザは、ディスプレイされた少なくとも1つのアイテムの中から選択しようとするアイテムを音声またはモーションによって選択することができる。図13を参照すると、カーソルは、現在テキスト表示領域132に位置している。この状態で、ユーザは選択しようとするアイテムに該当する音声である“SPORTS−TV”を発音することで、アイテムを選択することができる。または、ユーザが手を下方に向くモーションを取ることで、カーソルはテキスト表示領域132で“SPORTS−TV”というアイテム領域に移動することができる。
図15によると、制御部140は、手書きモードが解除されたことを示すGUI131を表示し、予め検索されたアイテムの中からユーザがドローイングしたパターンに対応する方向に表示されたアイテムにカーソルを表示する。図14のように、ユーザが上側から下側にドローイングした場合なら、制御部140はテキスト表示領域132を基準に下側のアイテムである“SPORTS−TV”に定められた視覚的効果、すなわちカーソルを表示する。
この状態で、ユーザがタッチパッド410上でタッチをすると、遠隔制御装置400は選択信号を伝送する。制御部140は、“SPORTS−TV”というネームのアイテムに視覚的効果が表示された状態で選択信号が受信されると、当該アイテムが選択されたと判断する。それにより、当該アイテムに対応する制御動作を行う。例えば、“SPORTS−TV”が選択された場合、制御部140は“SPORTS−TV”という放送チャネルを選択し、その放送チャネルを通じて受信される信号を出力する。その他にも、アイテムには各種アプリケーションが表示されてよく、制御部140は、このようなアプリケーションが選択されたと判断されると、そのアプリケーションを実行させてその実行画面をディスプレイすることもできる。このように、制御部140は、ユーザの手書き内容に応じて、多様なアイテムを選別的に表示し、その中からユーザの選択したアイテムに対応する制御動作を行うことができる。
一方、制御部140は、ユーザの選択したアイテムに従属する下位アイテムが存在する場合、その下位アイテムを表示することができる。ユーザは、下位アイテムの中の1つを選択することができ、制御部140は選択された下位アイテムに対応する制御動作を選択することができる。下位アイテムの選択は、上述のような手書き認識方式で行われてよく、カーソル移動方式で行われてよい。
手書き認識方式で行われる場合、制御部140は下位アイテムを表示しつつ手書きモードを再度活性化させることができる。
図16は、手書きモードを活性させて下位アイテムを選択する方法の一例を示す図である。
すなわち、図15のように、ユーザが“SPORTS−TV”というアイテムを選択した場合、制御部140は、それに含まれる複数の下位アイテムを予め定められた順に配列してよい。
図16においては、“SPORTS−TV”というアイテムに含まれた複数の下位アイテムをアイテムのネーム、名称またはタイトルのアルファベット順に配列してディスプレイしたものを示している。
制御部140は、手書きモードを自動的に再度活性化させ、図16に示すように、テキスト表示領域132を表示する。ユーザは、上述のように、手書きを入力し、ディスプレイ装置100は入力された手書きに対応する下位アイテムを検索及び抽出することができる。
一方、別の実施形態によると、制御部140は手書きモードが非活性化された状態をそのまま維持しつつ、下位アイテムを表示することもできる。
すなわち、図17に示すように、制御部140は、テキスト表示領域132を表示せずに、下位アイテムのうちの1つの下位アイテムにカーソルを表示することができる。ユーザは、上述のように、タッチパッド410上に上下方向、左右方向、対角線方向等に対するタッチ及びドラッグを行うことで、所望の下位アイテムを選択して実行することができる。
以上のように、ユーザは遠隔制御装置上における手書き入力を通じて、ディスプレイ装置の動作を便宜に制御することができる。
上述の多様な実施形態に係るディスプレイ装置のディスプレイ方法は、非一時的な読み取り可能な媒体(Non−transitory computer readable medium)に保存されていてよい。このような非一時的な読み取り可能な媒体は、多様な装置に搭載されて使用されてよい。
一例として、遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信するステップと、前記手書き軌跡に対応するテキストを抽出するステップと、前記テキストに対応するアイテムを検索するステップと、前記検索されたアイテムを複数のカテゴリに分類してディスプレイするステップとを含むディスプレイ方法を行うためのプログラムコードが非一時的な読み取り可能な媒体に保存されて提供されてよい。
非一時的な読み取り可能な媒体とは、レジスタやキャッシュ、メモリ等のような短い間データを保存する媒体ではなく、半永久的にデータを保存し、機器によって読み取り(Reading)が可能な媒体を意味する。具体的には、上述の多様なアプリケーションまたはプログラムは、CDやDVD、ハードディスク、ブルーレイディスク、USB、メモリカード、ROM等のような非一時的な読み取り可能な媒体に保存されて提供されてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
100 ディスプレイ装置
110 入力部
120 検出部
130 ディスプレイ部
140 制御部
150 通信部
160 保存部
400 遠隔制御装置
410 タッチパッド

Claims (12)

  1. ディスプレイ部と、
    遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信する入力部と、
    前記手書き軌跡に対応するテキストを抽出する抽出部と、
    前記テキストに対応するアイテムを検索し、前記検索されたアイテムを複数のカテゴリに分類して前記ディスプレイ部にディスプレイする制御部と
    を含むディスプレイ装置。
  2. 前記制御部は、
    前記遠隔制御装置で後続の手書きが行われると、前記後続の手書きによる手書き軌跡から後続テキストを抽出し、前記テキスト及び前記後続テキストに対応するアイテムを再検索し、前記再検索されたアイテムを前記複数のカテゴリに応じて分類して前記ディスプレイ部にディスプレイすることを特徴とする請求項1に記載のディスプレイ装置。
  3. 前記制御部は、
    前記受信された手書き軌跡を示す手書き表示領域を画面の一領域に位置させ、前記手書き表示領域を基準に上側、下側、左側及び右側方向に対して前記複数のカテゴリのそれぞれをマッチングし、前記カテゴリ別に分類された検索結果を整列してディスプレイすることを特徴とする請求項1に記載のディスプレイ装置。
  4. 前記制御部は、
    前記手書き表示領域を前記画面の中央または前記画面に対する4つの角のうちの一側に位置させることを特徴とする請求項3に記載のディスプレイ装置。
  5. 前記制御部は、
    前記アイテムが選択されると、前記選択されたアイテムに対応する制御動作を行うことを特徴とする請求項1に記載のディスプレイ装置。
  6. 前記複数のカテゴリは、
    アプリケーションカテゴリ、ウェブカテゴリ、機能カテゴリ及びコンテンツカテゴリのうち、少なくとも1つを含むことを特徴とする請求項1ないし請求項5のいずれか一項に記載のディスプレイ装置。
  7. 遠隔制御装置でユーザの手書きが行われると、手書き軌跡を受信するステップと、
    前記手書き軌跡に対応するテキストを抽出するステップと、
    前記テキストに対応するアイテムを検索するステップと、
    前記検索されたアイテムを複数のカテゴリに分類してディスプレイするステップと
    を含むディスプレイ方法。
  8. 前記遠隔制御装置で後続の手書きが行われると、前記後続の手書きによる手書き軌跡から後続テキストを抽出するステップと、
    前記テキスト及び前記後続テキストに対応するアイテムを再検索するステップと、
    前記再検索されたアイテムを前記複数のカテゴリに応じて分類してディスプレイするステップと
    を更に含むことを特徴とする請求項7に記載のディスプレイ方法。
  9. 前記受信された手書き軌跡を示す手書き表示領域を画面の一領域に表示するステップと、
    前記手書き表示領域を基準に上側、下側、左側及び右側方向に対して前記複数のカテゴリのそれぞれをマッチングするステップと、
    前記カテゴリ別に分類された検索結果を整列してディスプレイするステップと
    を更に含むことを特徴とする請求項7に記載のディスプレイ方法。
  10. 前記手書き表示領域は、前記画面の中央または前記画面に対する4つの角のうちの一側に表示されることを特徴とする請求項9に記載のディスプレイ方法。
  11. 前記アイテムが選択されると、前記選択されたアイテムに対応する制御動作を行うステップを更に含むことを特徴とする請求項7に記載のディスプレイ方法。
  12. 前記複数のカテゴリは、
    アプリケーションカテゴリ、ウェブカテゴリ、機能カテゴリ及びコンテンツカテゴリのうち、少なくとも1つを含むことを特徴とする請求項7ないし請求項11のいずれか一項に記載のディスプレイ方法。
JP2016533004A 2013-08-09 2014-02-11 ディスプレイ装置及びその方法 Pending JP2016535343A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0094656 2013-08-09
KR1020130094656A KR20150018127A (ko) 2013-08-09 2013-08-09 디스플레이 장치 및 그 방법
PCT/KR2014/001119 WO2015020288A1 (en) 2013-08-09 2014-02-11 Display apparatus and the method thereof

Publications (1)

Publication Number Publication Date
JP2016535343A true JP2016535343A (ja) 2016-11-10

Family

ID=50112732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016533004A Pending JP2016535343A (ja) 2013-08-09 2014-02-11 ディスプレイ装置及びその方法

Country Status (6)

Country Link
US (1) US10089006B2 (ja)
EP (1) EP2835730A1 (ja)
JP (1) JP2016535343A (ja)
KR (1) KR20150018127A (ja)
CN (1) CN105556453A (ja)
WO (1) WO2015020288A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440513B2 (ja) * 2014-05-13 2018-12-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 音声認識機能を用いた情報提供方法および機器の制御方法
US20160073257A1 (en) * 2014-09-04 2016-03-10 Wedoey, Inc. Console Display Terminal
US11797172B2 (en) * 2015-03-06 2023-10-24 Alibaba Group Holding Limited Method and apparatus for interacting with content through overlays
EP3296851A4 (en) * 2015-05-08 2018-05-09 Fujitsu Limited Input reception method, input reception program, and terminal device
CN106775089B (zh) * 2016-12-20 2021-03-30 北京小米移动软件有限公司 设备控制方法及装置
EP3531259B8 (en) * 2018-02-23 2021-11-24 Rohde & Schwarz GmbH & Co. KG Measurement device and method for controlling the same
WO2020080300A1 (en) * 2018-10-15 2020-04-23 Ricoh Company, Ltd. Input apparatus, input method, program, and input system
JP2020064625A (ja) * 2018-10-15 2020-04-23 株式会社リコー 入力装置、入力方法、プログラム、入力システム
US11762458B2 (en) * 2021-02-15 2023-09-19 Sony Group Corporation Media display device control based on eye gaze

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076279A (ja) * 1998-08-31 2000-03-14 Mitsubishi Electric Corp 情報検索システム、情報検索方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000187658A (ja) * 1998-12-22 2000-07-04 Toshiba Corp 文字列予測方法、及び文字列予測装置
JP2000305933A (ja) * 1999-04-26 2000-11-02 Canon Inc 情報検索装置、情報検索方法、及び記憶媒体
JP2005242209A (ja) * 2004-02-27 2005-09-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2006033776A (ja) * 2004-07-22 2006-02-02 Sony Corp 電子機器、電子機器における表示制御方法およびグラフィカル・ユーザ・インターフェース
JP2006217215A (ja) * 2005-02-03 2006-08-17 Sony Corp 番組検索装置、番組検索方法、プログラムおよび記録媒体ならびに受信装置
US20070152961A1 (en) * 2005-12-30 2007-07-05 Dunton Randy R User interface for a media device
JP2009060328A (ja) * 2007-08-31 2009-03-19 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20100169841A1 (en) * 2008-12-30 2010-07-01 T-Mobile Usa, Inc. Handwriting manipulation for conducting a search over multiple databases
JP2010204987A (ja) * 2009-03-04 2010-09-16 Alps Electric Co Ltd タッチパッド入力装置及びタッチパッド入力装置付き機器
JP2011048786A (ja) * 2009-08-28 2011-03-10 Toshiba Corp 表示処理装置、及び表示処理方法
JP2012038292A (ja) * 2010-08-06 2012-02-23 Samsung Electronics Co Ltd ディスプレー装置及びその制御方法{displayapparatusandcontrolmethodthereof}
JPWO2011024282A1 (ja) * 2009-08-27 2013-01-24 株式会社東芝 情報検索装置
EP2775389A2 (en) * 2013-03-07 2014-09-10 Samsung Electronics Co., Ltd. Input apparatus, display apparatus, and control methods thereof

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0170326B1 (ko) * 1994-07-27 1999-03-30 김광호 원격제어방법 및 그 장치
JP4050055B2 (ja) 2002-01-10 2008-02-20 株式会社リコー 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム
AUPS020302A0 (en) * 2002-01-31 2002-02-21 Silverbrook Research Pty. Ltd. Methods and systems (npw007)
CN1444392A (zh) * 2002-03-12 2003-09-24 喻湘晖 一种电视遥控器及其遥控方法
EP1566193A1 (en) 2004-02-18 2005-08-24 Unomedical a/s Infusion device provided with septum housing
TWI236239B (en) * 2004-05-25 2005-07-11 Elan Microelectronics Corp Remote controller
US8340476B2 (en) * 2005-03-18 2012-12-25 The Invention Science Fund I, Llc Electronic acquisition of a hand formed expression and a context of the expression
US7627466B2 (en) * 2005-11-09 2009-12-01 Microsoft Corporation Natural language interface for driving adaptive scenarios
TWI312241B (en) * 2006-05-24 2009-07-11 Elan Microelectronics Corporatio Remote control with a communication function
JP2008102796A (ja) * 2006-10-19 2008-05-01 Softbank Bb Corp 個人情報管理システム及び個人情報管理方法
US20080104020A1 (en) * 2006-10-27 2008-05-01 Microsoft Corporation Handwritten Query Builder
KR101303019B1 (ko) * 2007-01-19 2013-09-03 엘지전자 주식회사 터치 스크린을 포함하는 단말기 및 이를 이용한 검색화면제공방법
EP2140667B1 (en) 2007-04-26 2016-12-14 Nokia Technologies Oy Method and portable apparatus for searching items of different types
US8190627B2 (en) * 2007-06-28 2012-05-29 Microsoft Corporation Machine assisted query formulation
US7502017B1 (en) 2007-11-20 2009-03-10 International Business Machines Corporation Handwriting recognizer user interface methods
KR100915295B1 (ko) * 2008-01-22 2009-09-03 성균관대학교산학협력단 검색 결과 자동 분류 시스템 및 그 방법
US20100153265A1 (en) 2008-12-15 2010-06-17 Ebay Inc. Single page on-line check-out
JP5722883B2 (ja) * 2009-05-25 2015-05-27 中南大学Central South University 1−(置換ベンジル)−5−トリフルオロメチル−2−(1h)ピリドン化合物及びその塩、並びにその製造方法及びその用途
US10430871B2 (en) 2010-05-21 2019-10-01 Ncr Corporation Self-service terminal
CN101867741B (zh) * 2010-05-21 2012-06-27 中山大学 一种集成鼠标、手写板、子母机的机顶盒遥控器装置
CN102033928B (zh) * 2010-12-15 2013-01-23 北京壹人壹本信息科技有限公司 手写原笔迹记录及查询系统、电子装置
US8634515B2 (en) * 2011-04-25 2014-01-21 Vatech Co., Ltd. Method and apparatus for obtaining panoramic image
US8094941B1 (en) 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
US20110302060A1 (en) 2011-08-18 2011-12-08 Rodrigo Cano Order processing and benefit distribution systems and methods
KR20140019206A (ko) * 2012-07-13 2014-02-14 삼성전자주식회사 사용자 단말에서 사용자 인터페이스 장치 및 방법
US8958644B2 (en) * 2013-02-28 2015-02-17 Ricoh Co., Ltd. Creating tables with handwriting images, symbolic representations and media images from forms

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000076279A (ja) * 1998-08-31 2000-03-14 Mitsubishi Electric Corp 情報検索システム、情報検索方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2000187658A (ja) * 1998-12-22 2000-07-04 Toshiba Corp 文字列予測方法、及び文字列予測装置
JP2000305933A (ja) * 1999-04-26 2000-11-02 Canon Inc 情報検索装置、情報検索方法、及び記憶媒体
JP2005242209A (ja) * 2004-02-27 2005-09-08 Sony Corp 情報処理装置および方法、並びにプログラム
JP2006033776A (ja) * 2004-07-22 2006-02-02 Sony Corp 電子機器、電子機器における表示制御方法およびグラフィカル・ユーザ・インターフェース
JP2006217215A (ja) * 2005-02-03 2006-08-17 Sony Corp 番組検索装置、番組検索方法、プログラムおよび記録媒体ならびに受信装置
US20070152961A1 (en) * 2005-12-30 2007-07-05 Dunton Randy R User interface for a media device
JP2009060328A (ja) * 2007-08-31 2009-03-19 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20100169841A1 (en) * 2008-12-30 2010-07-01 T-Mobile Usa, Inc. Handwriting manipulation for conducting a search over multiple databases
JP2010204987A (ja) * 2009-03-04 2010-09-16 Alps Electric Co Ltd タッチパッド入力装置及びタッチパッド入力装置付き機器
JPWO2011024282A1 (ja) * 2009-08-27 2013-01-24 株式会社東芝 情報検索装置
JP2011048786A (ja) * 2009-08-28 2011-03-10 Toshiba Corp 表示処理装置、及び表示処理方法
JP2012038292A (ja) * 2010-08-06 2012-02-23 Samsung Electronics Co Ltd ディスプレー装置及びその制御方法{displayapparatusandcontrolmethodthereof}
EP2775389A2 (en) * 2013-03-07 2014-09-10 Samsung Electronics Co., Ltd. Input apparatus, display apparatus, and control methods thereof

Also Published As

Publication number Publication date
WO2015020288A1 (en) 2015-02-12
EP2835730A1 (en) 2015-02-11
US20150046433A1 (en) 2015-02-12
CN105556453A (zh) 2016-05-04
US10089006B2 (en) 2018-10-02
KR20150018127A (ko) 2015-02-23

Similar Documents

Publication Publication Date Title
JP2016535343A (ja) ディスプレイ装置及びその方法
EP2950549B1 (en) Display apparatus and method thereof
KR102354328B1 (ko) 영상 표시 장치 및 그 동작 방법
US10453246B2 (en) Image display apparatus and method of operating the same
EP2835733A1 (en) Display apparatus, the method thereof and item providing method
US20150312508A1 (en) User terminal device, method for controlling user terminal device and multimedia system thereof
US10203927B2 (en) Display apparatus and display method
KR20140133363A (ko) 디스플레이 장치 및 이의 제어 방법
US20150339026A1 (en) User terminal device, method for controlling user terminal device, and multimedia system thereof
KR20140131166A (ko) 디스플레이 장치 및 검색 방법
US20160334988A1 (en) Display device and method for providing recommended characters from same
KR102337216B1 (ko) 영상 표시 장치 및 영상 표시 방법
CN105230030A (zh) 具有多个画面的显示装置及其控制方法
US10545633B2 (en) Image output method and apparatus for providing graphical user interface for providing service
KR20150136312A (ko) 디스플레이 장치 및 이의 정보 제공 방법
CN105191328A (zh) 显示装置和向显示装置提供用户接口的方法
US20140333421A1 (en) Remote control device, display apparatus, and method for controlling the remote control device and the display apparatus thereof
KR102077672B1 (ko) 영상표시장치 및 영상표시장치 동작방법
KR102351634B1 (ko) 사용자 단말장치, 음향 시스템 및 외부 스피커의 음량 제어 방법
US20180198905A1 (en) Electronic apparatus and method of operating the same
KR20160134355A (ko) 디스플레이 장치 및 이의 제어 방법
KR20160032883A (ko) 디스플레이 장치 및 이의 인디케이터를 디스플레이하는 방법
KR20140141026A (ko) 디스플레이 장치 및 검색 결과를 표시하는 방법.
KR20150020756A (ko) 디스플레이 장치, 그 방법 및 아이템 제공 방법
KR102121535B1 (ko) 전자 장치, 보조 장치 및 전자 장치의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180403