JP2009514119A - ディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法 - Google Patents
ディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法 Download PDFInfo
- Publication number
- JP2009514119A JP2009514119A JP2008538818A JP2008538818A JP2009514119A JP 2009514119 A JP2009514119 A JP 2009514119A JP 2008538818 A JP2008538818 A JP 2008538818A JP 2008538818 A JP2008538818 A JP 2008538818A JP 2009514119 A JP2009514119 A JP 2009514119A
- Authority
- JP
- Japan
- Prior art keywords
- buttons
- trajectory
- display
- terminal
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/23—Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0238—Programmable keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Telephone Function (AREA)
Abstract
複数のボタンを具備した端末機で遂行されるディスプレイ方法は、該端末機への接触を感知し、あらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが示す複数の映像を該複数のボタンにディスプレイすることにより、ボタン操作を行うユーザの作業便宜性を図ることが可能である。
Description
本発明は、携帯電話機のような端末機に係り、さらに詳細には、映像のディスプレイの可能なボタンを具備した端末機及びこのためのディスプレイ方法に関する。
携帯電話機のような端末機は、多数のボタン(button)を具備するのが一般的である。このとき、端末機を使用するユーザは、かかるボタンを操作することによって、その端末機で遂行可能な多様な機能、例えば電話かけ機能、文字メッセージ作成及び発信機能、及び動映像ファイル再生機能のうち特定機能を選択し、その端末機は、その選択された特定機能を遂行する。
結局、端末機で遂行可能な機能が多ければ多いほど、特定機能を選択しようとするユーザは、さらに多くの回数のボタン操作を遂行する厄介さを甘受せねばならない。単に電話通話機能のみ可能な電話機よりは、電話通話機能、音楽再生機能、動映像再生機能、インターネットサーフィン機能など、多様な機能をいずれも遂行することができる電話機がさらに市場競争力を有するのが最近の実情であることを勘案するとき、現在のボタン体系下で、かかる面倒さは、さらに深刻化するものと予想される。
また、端末機で遂行可能な機能が多ければ多いほど、それぞれのボタンの有する用途が多くなってしまうので、それぞれのボタンごとにそのボタンの用途を表現しようと、そのボタンの表面に表記される文字の大きさが小さくなり、視力の弱い人は、それぞれのボタン操作に煩わしさを感じてしまう。
一方、ユーザのボタン入力回数を減らそうと端末機に多数のボタンを用意する方案を考慮することができるが、製品の小型化を追求する最近の趨勢に相応するならば、端末機に設けられたボタンの大きさが小さくならざるをえないので、ボタン操作が困難になる恐れがある。
本発明がなそうとする技術的課題は、端末機に所定時間の間接触がなされた場合、その接触がいかなる経路によってなされたかによって決定される複数の映像をその端末機に備わった複数のボタンにディスプレイするディスプレイ方法を提供するところにある。
本発明がなそうとする他の技術的課題は、端末機に所定時間の間接触がなされた場合、その接触がいかなる経路によってなされたかによって決定される複数の映像をその端末機に備わった複数のボタンにディスプレイするディスプレイ機能を有するボタンを具備した端末機を提供するところにある。
本発明がなそうとするさらに他の技術的課題は、端末機に所定時間の間接触がなされた場合、その接触がいかなる経路によってなされたかによって決定される複数の映像をその端末機に備わった複数のボタンにディスプレイするコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体を提供するところにある。
前記課題をなすために、複数のボタンを具備した端末機で遂行される本発明によるディスプレイ方法は、前記端末機への接触を感知する(a)段階、及びあらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする(b)段階を含むことが望ましい。
前記他の課題をなすために、本発明による端末機は、前記端末機への接触を感知する感知部、複数の映像を制御信号に応答してディスプレイする複数のボタン、及びあらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す映像のディスプレイを指示する前記制御信号を生成する制御部を備えることが望ましい。
前記さらに他の課題をなすために、複数のボタンを具備した端末機で遂行されるコンピュータプログラムを保存する本発明によるコンピュータで読み取り可能な記録媒体は、前記端末機への接触を感知する(a)段階、及びあらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする(b)段階を遂行するコンピュータプログラムを保存することが望ましい。
本発明によるディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法は、端末機で遂行可能な機能がいかに多くとも、ボタンの大きさが小さくなる必要がないので、ボタン操作を行うユーザの作業便宜性を図ることが可能である。また、本発明によれば、ボタンの用途がボタンの表面に表記されずに、ボタン全体に可変的にディスプレイされるので、用途がボタンに小さく表記された従来においてボタンの用途を識別するにに厄介さを覚えたユーザでも、ボタンの用途を容易に識別できる。さらに、本発明は、そのボタンの用途をディスプレイするにおいて、ユーザが現在操作しようとする用途を予想してディスプレイするので、本発明によれば、ユーザが自身が願うボタン操作のために、同じボタンを反復的に押すという面倒さを甘受することがなくなる。併せて、本発明によれば、端末機に備わるべきボタンの数を画期的に減らすことができ、端末機の小型化を介した市場競争力の強化を図ることができる。
本発明、本発明の動作上の利点及び本発明の実施によって達成される目的を十分に理解するためには、本発明の望ましい実施形態を例示する添付図面及びその添付図面を説明する内容を参照せねばならない。
以下、本発明によるディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法について、添付した図面を参照しつつ次の通り説明する。
図1は、本発明によるディスプレイ機能を有するボタンを具備した端末機を説明するための一実施形態のブロック図であり、感知部110、制御部120、複数のボタン130、保存部140、及びメインディスプレイ部150からなりうる。
感知部110、制御部120、複数のボタン130、及びメインディスプレイ部150は、端末機に備わることが望ましい。ただし、保存部140は、端末機の内部に備わることもあり、端末機の外部に端末機とネットワーク上で連結されて設けられることも可能である。
感知部110は、端末機への接触(touch)を感知する。かような接触は、ユーザの身体、例えば指先と端末機との接触を意味することも可能であり、ある物、例えばユーザが使用中のペンと端末機との接触を意味することもある。説明の便宜上、以下では、接触は、ユーザの指先と端末機との接触であると仮定する。
感知部110は、何かが端末機に直接的に触れたことを接触として感知できる。さらに、感知部110は、何かが端末機の表面からある程度の一定距離、例えば数mm中に入ったことを接触として感知することもできる。
感知部110は、一つ以上の接触感知センサによって具現できる。それぞれの接触感知センサは、接触を感知するたびに、接触感知信号を生成する。ここで、接触感知信号は、その接触感知信号を生成した接触感知センサの端末機上での位置に関する情報を含んでいることが望ましい。これにより、感知部110は、接触がなされた位置を感知する。このとき、位置とは、端末機上での位置でありうる。
制御部120は、制御信号を生成する。ここで、制御信号とは、あらかじめ設けられた映像データのうち、所定時間の間の感知された結果に相応する映像データが表す複数の映像のディスプレイを指示する信号を意味する。すなわち、感知部110で接触を所定時間の間連続的に感知すれば、制御部120は、その所定時間の間の感知された結果に相応する複数の映像のディスプレイを指示する。
このとき、所定時間は、ある範疇(range)内に属する1つの値であることが望ましい。このとき、その範疇の上限(upper limit)と下限(lower limit)は、あらかじめ設定されうる。例えば、その下限は、端末機のいずれか1つのボタンに指を触れたユーザがその端末機から瞬間的に指を離すのにかかる時間でありうる。このとき、そのかかる時間は、経験的、実験的に事前に計算されうる。また、その上限は、ユーザが端末機に行列(matrix)状に配列されたボタンを、途中でやめずにある方向、例えば対角線方向にただ一回触れるのにかかる時間でありうる。このときのそのかかる時間も、経験的、実験的に事前に計算されうる。
具体的に、本明細書上で「所定時間」とは、感知部110が接触を連続的に感知した時間を意味する。このとき、所定時間には、前記のような上限と下限とが存在する。一方、感知部110が接触を連続的に感知するためには、ユーザが端末機に連続的に接触しなければならない。ここで、連続的な接触は、ユーザが同じ位置に続けて接触していることを意味しうる。この場合、感知部110は、接触感知信号を連続的に(continuously)生成する。一方、連続的な接触は、ユーザがある区間に触れつつ接触することを意味することも可能である。この場合、感知部110は、接触感知信号を間歇的に(continually)生成することもあり(ただし、感知部110が複数の接触感知センサによって具現されている場合)、接触感知信号を連続的に生成することもできる(ただし、感知部110が1つの接触感知センサによって具現されている場合)。このとき、接触感知信号が間歇的に生成されることを連続的な接触として認めるためには、接触感知信号の生成が中断された時点と再開された時点との間隔がある一定時間未満でなければならない。
制御部120は、軌跡分析部122、及び表示指示部124からなりうる。
軌跡分析部122は、感知された位置の所定時間の間の軌跡(trajectory)を分析する。説明の便宜上、軌跡分析部122は、接触方向を分析すると仮定する。すなわち、軌跡分析部122は、感知された位置が所定時間が経過するにつれて、どの方向に移動しているかを分析すると仮定する。
表示指示部124は、制御信号を生成する。この場合、制御信号は、あらかじめ設けられた映像データのうち、その分析された軌跡に相応する映像データが表す複数の映像のディスプレイを指示する信号を意味する。
制御部120が生成する制御信号は、「所定時間の間の感知された結果」にのみ相応して生成されもし、「所定時間の間の感知された結果」と「複数のボタン130に現在ディスプレイされた映像」とに相応して生成されもする。
複数のボタン130は、複数の映像、例えばN個の映像を制御信号に応答してディスプレイする。このために、複数のボタン130−1,…,130−n,…,130−Nは、その複数の映像を制御信号に応答してディスプレイするサブディスプレイ部(図示せず)を具備する。このとき、サブディスプレイ部(図示せず)は、1つのディスプレイパネル(panel)で具現されることが望ましい。
保存部140は、映像データを保存する。具体的に、前述のあらかじめ設けられた映像データは、保存部140に保存された映像データを意味する。さらに具体的に、保存部140は、映像データを「所定時間の間の感知された結果」別に保存する。
結局、制御部120は、あらかじめ設けられた映像データのうち、「所定時間の間の感知された結果」に相応する映像データを保存部140から読み出し、読み出された映像データの表す複数の映像のディスプレイを指示する信号である制御信号を生成し、生成された制御信号とその読み出された映像データとを複数のボタン130それぞれに伝達する。それにより、複数のボタン130は、複数の映像をディスプレイする。
メインディスプレイ部150は、ディスプレイ機能を遂行するインターフェースを意味する。かようなメインディスプレイ部150は、ディスプレイ機能を遂行する出力装置としてのみ動作することも可能であり、タッチスクリーン(touch screen)のように入出力装置として動作することも可能である。
図2は、本発明によるディスプレイ機能を有するボタンを具備したホルダ型携帯電話機を開いた様子を表した図である。
すなわち、図2に図示されているところは、本発明による端末機が携帯電話機によって具現された場合を示す。ここで、端末機200には、12個のボタン205ないし260が備わる。具体的に、識別番号205、210、215、220、225、230、235、240、245、250、255、260は、第1、第2、第3、第4、第5、第6、第7、第8、第9、第10、第11、第12ボタンを意味する。ここで、第1ないし第12ボタンいずれも、ディスプレイ機能を有することができる。一方、識別番号270は、携帯電話機に備わったディスプレイ・ウインドを意味する。かかるディスプレイ・ウインドは、図1に図示されているメインディスプレイ部150の可能な具現例である。
図3Aないし図3Dは、図1に図示されている感知部110の具現例を、図2に図示されている携帯電話機を利用して示した図である。
図3Aないし図3Dに図示されているところで、斜線部分は、接触感知センサを示す。図3Aの場合、接触感知センサ310ないし332の識別番号を表記したが、図3Bないし図3Dの場合、接触感知センサの識別番号は省略した。
図1に図示された感知部110は、図3A、図3B、及び図3Dに図示されているように、複数の接触感知センサによって具現されることもあり、図3Cに図示されているように、1つの接触感知センサによって具現されることも可能である。
また、接触感知センサは、図3Aまたは図3Dに図示されているように、ボタンと一体化されることもあり、図3Bまたは図3Cに図示されているように、端末機200のフレーム(frame)と一体化されることもある。
一方、接触感知センサが図3A及び図3Dに図示されているように具現されるならば、接触感知センサは、透明な材質によって製作されることが望ましい。
説明の便宜上、以下では、接触感知センサは、図3Aに図示されているように具現されていると仮定する。
図5Aないし図7は、図1に図示された制御部120ないしメインディスプレイ部150の動作について、図2に図示された携帯電話機を利用して説明するための図である。ただし、それらについての説明は、図4を参照しつつ本発明の多様な実施形態について述べた後に行うこととする。
図4Aないし図4Eは、本発明によるディスプレイ原理を説明するための第1ないし第5実施形態の参考図である。
図4Aないし図4Eに図示されているところで、保存部140は、映像データを表示モード別に保存する。複数のボタン130がディスプレイする複数の映像が属することのできる表示モードは多様であり、その多様な表示モードに関する情報は、制御部120及び保存部140いずれにも記録されている。
このように、映像データが表示モード別に保存されているならば、制御部120は、「所定時間の間の感知された結果(例えば、分析された軌跡)」に相応する表示モードを決定し、決定された表示モードに属する映像データを保存部140から読み出す。このとき、その決定された表示モードに属する映像データが保存部140に多数存在するならば、制御部120は、その多数の映像データのうち1つの映像データを読み出す。制御部120は、その読み出された映像データの示す複数の映像のディスプレイを指示する信号である制御信号を生成し、生成された制御信号とその読み出された映像データとを複数のボタン130それぞれに伝達する。それにより、複数のボタン130は、複数の映像をディスプレイする。
本明細書上で、第X−Y(ただし、X、Yは自然数)表示モードは、第X表示モードの下位表示モードである。従って、図4Bないし図4D図示されているところで、「第1−1表示モード、第1−2表示モード、第1−3表示モードのカテゴリー」、「第2−1表示モード、第2−2表示モード、第2−3表示モードのカテゴリー」、「第3−1表示モード、第3−2表示モード、第3−3表示モードのカテゴリー」は、互いに区別される。例えば、第1表示モードはハングル入力モードであり、第1−1表示モードはハングル子音入力モードであり、第1−2表示モードはハングル母音入力モードである。同様に、第2表示モードはアルファベット入力モードであり、第2−1表示モードはアルファベット小文字入力モードであり、第2−2表示モードはアルファベット大文字入力モードである。
図4Aは本発明によるディスプレイ原理を説明するための第1実施形態の参考図である。
本発明の第1実施形態によれば、制御部120は、分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断する。この場合、分析された軌跡が第1所定軌跡であると判断されれば、複数のボタン130は、現在ディスプレイされた複数の映像をその現在ディスプレイされた複数の映像に相応して更新する。一方、分析された軌跡が第2所定軌跡であると判断されれば、複数のボタン130は、常に一定した複数の映像をディスプレイする。
このために、制御部120は、分析された軌跡が第1所定軌跡であると判断されれば、「分析された軌跡」と「複数のボタン130に現在ディスプレイされた複数の映像」とに相応する制御信号を生成し、分析された軌跡が第2所定軌跡であると判断されれば、「分析された軌跡」に相応する制御信号を生成する。
例えば、分析された接触方向が「上側(upward)」または「下側(downward)」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像を考慮して更新される。図示されているところで、第1表示モードに属する複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を上側に触れれば、第4表示モードに属する複数の映像をディスプレイする。同様に、第2表示モードに属する複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を下側に触れれば、第3表示モードに属する複数の映像をディスプレイする。
ただし、分析された接触方向が「左側(leftward)」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像と関係なく更新される。図示されているところで、ユーザが複数のボタン130を左側に触れれば、複数のボタン130は、現在ディスプレイされた複数の映像が第2表示モードに属した複数の映像であるか、あるいは第3表示モードに属した複数の映像であるか、あるいは第4表示モードに属した複数の映像であるかに関係なく、第1表示モードに属した複数の映像をディスプレイする。
結局、図示されているところで、「上側」接触方向と「下側」接触方向とのそれぞれは、第1所定軌跡に該当し、「左側」接触方向は、第2所定軌跡に該当する。
図4Bは、本発明によるディスプレイ原理を説明するための第2実施形態の参考図である。
本発明の第2実施形態によれば、制御部120は、分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断する。この場合、分析された軌跡が第1所定軌跡であると判断されれば、複数のボタン130は、現在ディスプレイされた複数の映像をその現在ディスプレイされた複数の映像が属したカテゴリー(category)を異ならせて更新する。一方、分析された軌跡が第2所定軌跡であると判断されれば、複数のボタン130は、現在ディスプレイされた複数の映像をその現在ディスプレイされた複数の映像が属したカテゴリーを維持して更新する。
制御部120は、分析された軌跡が第1所定軌跡であると判断されるか、あるいは第2所定軌跡であると判断されるかに関係なく、「分析された軌跡」と「複数のボタン130に現在ディスプレイされた複数の映像」とに相応する制御信号を生成する。
本発明の第2実施形態について、さらに具体的に説明すれば次の通りである。
分析された接触方向が「上側」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像が属したカテゴリーと異なるカテゴリーの複数の映像に更新される。図示されているところによれば、第1−2表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を上側に触れれば、第3表示モードに属した複数の映像をディスプレイする。このとき、第3表示モードに属した複数の映像は、第3−1表示モードに属した複数の映像でもあり、第3−2表示モードに属した複数の映像でもあり、第3−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第3−1表示モード、第3−2表示モード、第3−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第3−2表示モードに属した複数の映像をディスプレイすることが望ましい。
同様に、分析された接触方向が「下側」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像の属したカテゴリーと異なるカテゴリーの複数の映像に更新される。図示されているところによれば、第1−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を下側に触れれば、第2表示モードに属した複数の映像をディスプレイする。このとき、第2表示モードに属した複数の映像は、第2−1表示モードに属した複数の映像でもあり、第2−2表示モードに属した複数の映像でもあり、第2−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第2−1表示モード、第2−2表示モード、第2−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第2−3表示モードに属した複数の映像をディスプレイすることが望ましい。
一方、分析された接触方向が「左側」または「右側(rightward)」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像が属したカテゴリーを維持して更新される。図示されているところによれば、第3−2表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を左側に触れれば、第3−3表示モードに属した複数の映像をディスプレイする。同じ原理により、第2−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を右側に触れれば、第2−2表示モードに属した複数の映像をディスプレイする。
結局、図示されているところで、「上側」接触方向と「下側」接触方向とのそれぞれは、第1所定軌跡に該当し、「左側」接触方向と「右側」接触方向とのそれぞれは、第2所定軌跡に該当する。
図4Cは、本発明によるディスプレイ原理を説明するための第3実施形態の参考図である。
本発明の第3実施形態によれば、複数のボタン130がディスプレイする複数の映像が属したカテゴリーは、「分析された軌跡をなすその感知された位置」に相応して決定される。
本発明の第3実施形態によれば、制御部120は、ある2つの分析された軌跡(すなわち、接触方向)が同一であっても、それぞれの分析された軌跡をなすその感知された位置が異なれば、その2つの分析された軌跡に対して互いに異なる制御信号を生成できる。
具体的に、制御部120は、分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断する。この場合、分析された軌跡が第1所定軌跡であると判断されれば、複数のボタン130は、分析された軌跡をなすその感知された位置に相応するカテゴリーに属した複数の映像をディスプレイする。一方、分析された軌跡が第2所定軌跡であると判断されれば、複数のボタン130は、現在ディスプレイされた複数の映像をその現在ディスプレイされた複数の映像が属したカテゴリーを維持しつつ更新する。
制御部120は、分析された軌跡が第1所定軌跡であると判断されれば、「分析された軌跡をなすその感知された位置」に相応する制御信号を生成し、分析された軌跡が第2所定軌跡であると判断されれば、「分析された軌跡」と「複数のボタン130に現在ディスプレイされた複数の映像」とに相応する制御信号を生成する。
例えば、分析された接触方向が「上側」または「下側」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、分析された接触方向をなすその感知された位置に相応するカテゴリーに属した複数の映像に更新される。図示されているところによれば、第1−2表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが第2列に配された接触感知センサ318ないし324を上側に触れれば、第2表示モードに属した複数の映像をディスプレイする。このとき、第2表示モードに属した複数の映像は、第2−1表示モードに属した複数の映像でもあり、第2−2表示モードに属した複数の映像でもあり、第2−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第2−1表示モード、第2−2表示モード、第2−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第2−2表示モードに属した複数の映像をディスプレイすることが望ましい。同じ原理によって、第3−2表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが第1列に配された接触感知センサ310ないし316を下側に触れれば、第1表示モードに属した複数の映像をディスプレイする。このとき、第1表示モードに属した複数の映像は、第1−1表示モードに属した複数の映像でもあり、第1−2表示モードに属した複数の映像でもあり、第1−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第1−1表示モード、第1−2表示モード、第1−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第1−1表示モードに属した複数の映像をディスプレイすることが望ましい。
一方、分析された接触方向が「左側」または「右側」である場合、複数のボタン130に現在ディスプレイされた複数の映像は、その現在ディスプレイされた複数の映像が属したカテゴリーを維持して更新される。図示されているところによれば、第3−2表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を左側に触れれば、第3−3表示モードに属した複数の映像をディスプレイする。同じ原理によって、第2−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが複数のボタン130を右側に触れれば、第2−2表示モードに属した複数の映像をディスプレイする。
結局、図示されているところで、「上側」接触方向と「下側」接触方向とのそれぞれは、第1所定軌跡に該当し、「左側」接触方向と「右側」接触方向とのそれぞれは、第2所定軌跡に該当する。
図4Dは、本発明によるディスプレイ原理を説明するための第4実施形態の参考図である。
本発明の第4実施形態によれば、複数のボタン130がディスプレイする複数の映像が属したカテゴリーは、「分析された軌跡をなすその感知された位置」に相応して決定される。
本発明の第4実施形態によれば、制御部120は、ある2つの分析された軌跡(すなわち、接触方向)が同一であっても、それぞれの分析された軌跡をなすその感知された位置が異なれば、その2つの分析された軌跡に対して互いに異なる制御信号を生成する。
図示されているところによれば、複数のボタン130は、ユーザが第1列に配された接触感知センサ310ないし316を上側または下側に触れれば、第1表示モードに属した複数の映像をディスプレイする。このとき、第1表示モードに属した複数の映像は、第1−1表示モードに属した複数の映像でもあり、第1−2表示モードに属した複数の映像でもあり、第1−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第1−1表示モード、第1−2表示モード、第1−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第1−3表示モードに属した複数の映像をディスプレイすることが望ましい。
このように、第1−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが第1列に配された接触感知センサ310ないし316を上側(または下側)に触れれば、第1−1表示モード(または第1−2表示モード)に属した複数の映像をディスプレイする。
これとは異なり、第1−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが第2列に配された接触感知センサ318ないし324を上側または下側に触れれば、第2表示モードに属した複数の映像をディスプレイする。このとき、第2表示モードに属した複数の映像は、第2−1表示モードに属した複数の映像でもあり、第2−2表示モードに属した複数の映像でもあり、第2−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第2−1表示モード、第2−2表示モード、第2−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第2−1表示モードに属した複数の映像をディスプレイすることが望ましい。
同様に、第1−3表示モードに属した複数の映像をディスプレイする複数のボタン130は、ユーザが第3列に配された接触感知センサ318ないし324を上側または下側に触れれば、第3表示モードに属した複数の映像をディスプレイする。このとき、第3表示モードに属した複数の映像は、第3−1表示モードに属した複数の映像でもあり、第3−2表示モードに属した複数の映像でもあり、第3−3表示モードに属した複数の映像でもあるので、複数のボタン130は、第3−1表示モード、第3−2表示モード、第3−3表示モードのうち、事前に代表モード(default mode)に設定された表示モード、例えば第3−2表示モードに属した複数の映像をディスプレイすることが望ましい。
図4Eは、本発明によるディスプレイ原理を説明するための第5実施形態の参考図である。
本発明の第5実施形態によれば、複数のボタン130がディスプレイしようとする複数の映像がボタンの個数より多い場合、複数のボタン130は、そのボタン個数の映像を可変的にディスプレイする。
図示されているところで、それぞれの長方形は、ボタンを介してディスプレイされる映像を意味する。108個の長方形のうち、点線で選択された12個の長方形410,420,430,440は、12個のボタン205ないし260を介してディスプレイされる12個の映像の一例を意味する。
例えば、第1表示モードはハングル入力モードであり、第2表示モードはアルファベット入力モードであり、第3表示モードは特殊記号入力モードであり、第1表示モード、第2表示モード、第3表示モードそれぞれの下位表示モードは存在せず、分析された軌跡に相応する表示モードは第3表示モードであり、第3表示モードに属した複数の映像は、108個であると仮定すれば、複数のボタン130は、108個の映像をディスプレイしようとすることになる。
しかし、12個のボタン205ないし260は、12個の映像のみをディスプレイできる。この場合、ユーザが1つのボタンを所定時間押せば、そのディスプレイされる12個の映像は、「そのボタンの12個のボタン上での位置」と「所定時間」とに相応して更新される。
図示されているところで、識別番号410が指示する12個の映像をディスプレイする12個のボタン205ないし260は、ユーザが第1ボタン205を所定時間押せば、識別番号420の指示する12個の映像をディスプレイする。同様に、識別番号410の指示する12個の映像をディスプレイする12個のボタン205ないし260は、ユーザが第12ボタン260を所定時間押せば、識別番号430の指示する12個の映像をディスプレイする。これと類似して、識別番号410の指示する12個の映像をディスプレイする12個のボタン205ないし260は、ユーザが第8ボタン240を所定時間押せば、識別番号440の指示する12個の映像をディスプレイする。
図5Aないし図5Gは、図2に図示されている携帯電話機を利用し、「5時にコーヒーどう*^^*」という文字メッセージを発信する過程を説明するための図である。
図示されているところについて、図4B及び図4Eに図示されている第2実施形態と第5実施形態とを利用して説明する。
この場合、図4Bに図示されているところで、第1表示モードはハングル入力モードであり、第1−1表示モードはハングル子音入力モードであり、第1−2表示モードはハングル母音入力モードであり、第2表示モードはアルファベット入力モードであり、第2−1表示モードはアルファベット小文字入力モードであり、第2−2表示モードはアルファベット大文字入力モードであり、第3表示モードはその他の文字入力モードであり、第3−1表示モードは記号入力モードであり、第3−2表示モードはエモティコン(emoticon)入力モードであり、第3−3表示モードは数字入力モードと仮定する。
もし複数のボタン130が第3−3表示モードの属したカテゴリーと異なるカテゴリーの映像、例えば第2−2表示モードに属した複数の映像をディスプレイしているならば(図5D参照)、ユーザは、複数のボタン130を下側に触れれば、複数のボタン130が第3表示モードに属した複数の映像をディスプレイせねばならない。このとき、第3−1表示モード、第3−2表示モード、第3−3表示モードの代表モードが第3−3表示モード以外の表示モード、例えば第3−1表示モードに設定されているならば、ユーザは、記号をディスプレイする複数のボタン130を右側に触れ、複数のボタン130が数字をディスプレイするようにしなければならない(図5G参照)。
同様に、もし複数のボタン130が第3−3表示モードに属した複数の映像でなく、第3−3表示モードが属したカテゴリーと同じカテゴリーの映像、例えば第3−2表示モードに属した複数の映像をディスプレイしているならば(図5E参照)、ユーザは、複数のボタン130を左側に触れ、複数のボタン130が数字をディスプレイするようにせねばならない(図5G参照)。
このように、複数のボタン130に数字がディスプレイされれば、ユーザは、第6ボタン230を操作して5を入力する。
この後、ユーザは、数字をディスプレイする複数のボタン130を下側に触れれば、複数のボタン130が第1表示モードに属した複数の映像をディスプレイするようにしなければならない。このとき、第1−1表示モード、第1−2表示モードの代表モードが第1−1表示モード以外の表示モード、例えば第1−2表示モードに設定されているならば、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
このように、複数のボタン130にハングル子音がディスプレイされれば、ユーザは、第3ボタン215を操作して
(外1)
を入力する。この後、ユーザはハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
(外1)
を入力する。この後、ユーザはハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
このように、複数のボタン130にハングル母音がディスプレイされれば、ユーザは、第1ボタン205を操作して
(外2)
を入力する。この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
(外2)
を入力する。この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
このように、複数のボタン130にハングル子音がディスプレイされれば、ユーザは第7ボタン235を操作して
(外3)
を入力する。この後、ユーザは、ハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
(外3)
を入力する。この後、ユーザは、ハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
このように、複数のボタン130にハングル母音がディスプレイされれば、ユーザは、
(外4)
を入力することとなる。しかし、図5Bに
(外5)
は図示されていない。従って、ユーザは、図5Bに図示されている第1ボタン205ないし第12ボタン260のうちのいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外6)
が含まれるようにしなければならない。これにより、
(外7)
がディスプレイされれば、ユーザは、
(外8)
を入力する。
(外4)
を入力することとなる。しかし、図5Bに
(外5)
は図示されていない。従って、ユーザは、図5Bに図示されている第1ボタン205ないし第12ボタン260のうちのいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外6)
が含まれるようにしなければならない。これにより、
(外7)
がディスプレイされれば、ユーザは、
(外8)
を入力する。
この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を下側に触れ、複数のボタン130が第2表示モードに属した複数の映像をディスプレイするようにしなければならない。このとき、第2−1表示モード、第2−2表示モードの代表モードが第2−1表示モード以外の表示モード、例えば第2−1表示モードに設定されているならば、ユーザは、アルファベット小文字をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がアルファベット大文字をディスプレイするようにしなければならない(図5D参照)。
このように、複数のボタン130にアルファベット大文字がディスプレイされれば、ユーザは第9ボタン245を操作してCを入力する。この後、ユーザは、アルファベット大文字をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がアルファベット小文字をディスプレイするようにしなければならない(図5C参照)。
このように、複数のボタン130にアルファベット小文字がディスプレイされれば、ユーザは
(外9)
を入力することになる。しかし、図5Cに
(外10)
は図示されていない。従って、ユーザは、図5Cに図示されている第1ボタン205ないし第12ボタン260のうちいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外11)
が含まれるようにしなければならない。これにより、
(外12)
がディスプレイされれば、ユーザは、
(外13)
を入力する。
(外9)
を入力することになる。しかし、図5Cに
(外10)
は図示されていない。従って、ユーザは、図5Cに図示されている第1ボタン205ないし第12ボタン260のうちいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外11)
が含まれるようにしなければならない。これにより、
(外12)
がディスプレイされれば、ユーザは、
(外13)
を入力する。
これと同じ原理によって、ユーザは、ffeeも入力する。
この後、ユーザは、アルファベット小文字をディスプレイする複数のボタン130を上側に触れ、複数のボタン130が第1表示モードに属した複数の映像をディスプレイするようにしなければならない。このとき、第1−1表示モード、第1−2表示モードの代表モードが第1−1表示モード以外の表示モード、例えば第1−2表示モードに設定されているならば、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
このように、複数のボタン130にハングル子音がディスプレイされれば、ユーザは、第7ボタン235を操作して
(外14)
を入力する。この後、ユーザは、ハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
(外14)
を入力する。この後、ユーザは、ハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
このように、複数のボタン130にハングル母音がディスプレイされれば、ユーザは、第2ボタン210を操作して
(外15)
を入力する。この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
(外15)
を入力する。この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を右側に触れ、複数のボタン130がハングル子音をディスプレイするようにしなければならない(図5A参照)。
このように、複数のボタン130にハングル子音がディスプレイされれば、ユーザは、
(外16)
を入力することになる。しかし、図5Aに
(外17)
は図示されていない。従って、ユーザは、図5Aに図示されている第1ボタン205ないし第12ボタン260のうちいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外18)
が含まれるようにしなければならない。これにより、
(外19)
がディスプレイされれば、ユーザは
(外20)
を入力する。
(外16)
を入力することになる。しかし、図5Aに
(外17)
は図示されていない。従って、ユーザは、図5Aに図示されている第1ボタン205ないし第12ボタン260のうちいずれか1つのボタンをずっと押し、複数のボタン130がディスプレイする複数の映像に
(外18)
が含まれるようにしなければならない。これにより、
(外19)
がディスプレイされれば、ユーザは
(外20)
を入力する。
この後、ユーザは、ハングル子音をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がハングル母音をディスプレイするようにしなければならない(図5B参照)。
この後、ユーザは、ハングル母音をディスプレイする複数のボタン130を上側に触れ、複数のボタン130が第3表示モードに属した複数の映像をディスプレイするようにしなければならない。このとき、第3−1表示モード、第3−2表示モード、第3−3表示モードの代表モードが第3−1表示モードに設定されているならば、複数のボタン130は、記号をディスプレイする(図5E参照)。
このように、複数のボタン130に記号がディスプレイされれば、ユーザは、第6ボタン230を操作し、「?」を入力することができる。この後、ユーザは、記号をディスプレイする複数のボタン130を左側に触れ、複数のボタン130がエモティコンをディスプレイするようにしなければならない(図5F参照)。
このように、複数のボタン130にエモティコンがディスプレイされれば、ユーザは、第1ボタン205を操作して*^^*を入力することができる。
以上で言及された原理のような原理によって、図5Aないし図5Gに図示されているところは、図4A及び図4Eに図示された第1実施形態と第5実施形態とを利用して説明されもし、図4C及び図4Eに図示された第3実施形態と第5実施形態とを利用して説明されもし、図4D及び図4Eに図示された第4実施形態と第5実施形態とを利用して説明されもする。
ただし、図5Aないし図5Gに図示されているところについて、図4A及び図4Eに図示された第1実施形態と第5実施形態とを利用して説明するためには、ハングル入力モードという第1表示モード内に下位表示モードが存在せず、アルファベット入力モードという第2表示モード内に下位表示モードが存在せず、その他の文字入力モードという第3表示モード内に下位表示モードが存在しないようになっていなければならない。この場合、複数のボタン130に図5Aに図示されているところがディスプレイされれば、ユーザは、いずれか1つのボタンをずっと押し、複数のボタン130が図5Bに図示されているところをディスプレイさせることができる。同様に、複数のボタン130に図5Cに図示されているところがディスプレイされれば、ユーザは、いずれか1つのボタンをずっと押し、複数のボタン130が図5Dに図示されているところをディスプレイさせることができる。これと同様に、複数のボタン130に図5Eに図示されているところがディスプレイされれば、ユーザは、いずれか1つのボタンをずっと押し、複数のボタン130が図5Fに図示されているところをディスプレイさせることもでき、図5Gに図示されているところをディスプレイさせることもできる。
図6は、図2に図示されている携帯電話機を利用してブラウジング(browsing)する過程を説明するための図である。図6に図示されているところについて、図1及び図4Eを参照しつつ説明する。
保存部110は、端末機に入力可能な情報を示す映像データ、例えば文字を示す映像データは表示モード別に保存することができるが、端末機に入力不可能な情報を示す映像データ、例えば写真のような静止映像や撮影された動映像を示す映像データは、表示モード別に保存しない。
図6に図示されているところで、携帯電話機には、108個の写真イメージが保存されていると仮定する。12個のボタン205ないし260は、最大12個の写真イメージをディスプレイできるのみであり、ユーザが12個のボタン205ないし260を介して108個の写真イメージをいずれもブラウジングできるためには、12個のボタン205ないし260は、12個の映像を可変的にディスプレイせねばならない。
このために、ユーザは、1つのボタンを所定時間ずっと押すか、または複数のボタンを一方向に触れなければならない。
例えば、識別番号410が指示する12個の写真イメージをディスプレイする12個のボタン205ないし260は、ユーザが第1ボタン205を所定時間押すか、または第6ボタン230から第1ボタン205側にボタンに触れるならば、識別番号420が指示する12個の写真イメージをディスプレイする。同様に、識別番号410が指示する12個の映像をディスプレイする12個のボタン205ないし260は、ユーザが第12ボタン260を所定時間押すか、または第7ボタン235から第12ボタン260側にボタンに触れれば、識別番号430が指示する12個の映像をディスプレイする。これと同様に、識別番号410が指示する12個の映像をディスプレイする12個のボタン205ないし260は、ユーザが第8ボタン240を所定時間押すか、または第6ボタン230から第8ボタン240側にボタンに触れるならば、識別番号440が指示する12個の映像をディスプレイする。
図7は、図2に図示されている携帯電話機の複数のボタン上にディスプレイされた複数の映像のうち選択された映像が拡大されてディスプレイされた例を示した図である。
ユーザが図7Aに図示されていところで、ある写真イメージ、例えば第1ボタン205にディスプレイされた写真イメージを選択すれば、選択された写真イメージは、ディスプレイ・ウインド270にディスプレイされもし、図7Bに図示されているように、複数のボタン205ないし260に拡大されてディスプレイされることもある。
図8は、本発明によるディスプレイ方法を説明するためのフローチャートであり、端末機に所定時間接触がなされた場合、その接触がいかなる経路によってなされたかによって決定される複数の映像をその端末機に備わった複数のボタンにディスプレイする段階(第810〜830段階)からなりうる。
感知部110は、端末機への接触を感知する(第810段階)。もし第810段階が所定時間連続的に遂行されれば、制御部120は、その所定時間の間の感知された結果に相応する映像データを保存部140から読み出す(第820段階)。
第820段階後に、複数のボタン130は、第820段階で読み出された映像データが示す複数の映像をディスプレイする(第830段階)。
前記実施形態以外にも、本発明の実施形態はミディアム(medium)/メディア(media)(例えば、コンピュータで読み取り可能なミディアム/メディア)上でのコンピュータで読み取り可能なコード/命令(instruction)を実行することによって具現されうる。そのミディアム/メディアは、コンピュータで読み取り可能なコード/命令の保存及び/または伝送を許容するいかなるミディアム/メディアにも対応されうる。そのミディアム/メディアは、コンピュータで読み取り可能なコード/命令、データファイル、データ構造のうち、少なくとも一つを含むことができる。コード/命令の一例は、コンパイラ(compiler)により生成されうる機械コード(machine code)と、コンピュータデバイス(computing device)により実行されうる上位レベルコード(high level
code)とを有するファイルでありうる。
code)とを有するファイルでありうる。
そのコンピュータで読み取り可能なコード/命令は、ミディアム/メディア上で多様な方式で記録されたり伝送されうる。ここで、ミディアム/メディアの一例は、マグネチック保存メディア(例えば、フロッピー(登録商標)ディスク、ハードディスク、マグネチックテープなど)、光学(optical)メディア(例えば、CD−ROMs、DVDs)、磁気光学メディア(magneto-optical media)(例えば、フロプティカル(floptical)ディスク)、ハードウェアストレージ(hardware storage)デバイス(例えば、読み取り専用メモリメディア(read only memory media)、ランダムアクセスメモリメディア(random access memory media)、フラッシュメモリなど)、及び信号(このとき、信号は、コンピュータで読み取り可能なコード/命令、データファイル、データ構造を含む)を伝達するキャリアウェーブ(carrier wave)のような保存/伝送(storage/transmission)メディアを含むことができる。保存/伝送メディアの一例は、有線及び/または無線伝送メディアを含むことができる。例えば、保存/伝送メディアは、光学(optical)線(wires/lines)、ウェーブガイド(wave guides)、金属線、命令とデータ構造とデータファイルとを規定するキャリアウェーブ伝送信号を含むことができる。また、そのミディアム/メディアは、分散ネットワーク(distributed network)であって、そのコンピュータで読み取り可能なコード/命令は、分散形態で(in a distributed fashion)保存されたり伝送されうる。また、そのミディアム/メディアは、インターネットでありうる。そのコンピュータで読み取り可能なコード/命令は、一つ以上のプロセッサにより実行されうる。また、そのコンピュータで読み取り可能なコード/命令は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)で実行されたり具現されうる。
その上、ハードウェアデバイスは、前記実施形態の動作を実行するために、一つ以上のソフトウェアモジュール(module)として動作するように具現されうる。
ここで使われた「モジュール」という用語は、限定的な用語ではなくして、ソフトウェア構成要素でもあり、ハードウェア構成要素でもあり、ある作業(task)を遂行する。モジュールは、アドレサブル(addressable)保存ミディアム/メディア上に設けられることもあり、一つ以上のプロセッサ上で遂行されることもある。従って、モジュールは、例えば、ソフトウェアコンポーネント(component)、客体指向的(object-oriented)ソフトウェアコンポーネント、クラス(class)コンポーネント、作業(task)コンポーネント、プロセス(processes)、関数(functions)、属性(attributes)、手順(procedures)、サブルーチン(subroutines)、プログラムコードのセグメント、ファームウェア(firmware)、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ、変数のような構成要素を含むことができる。かかる構成要素並びにモジュールのために提供される関数性(functionality)は、他のコンポーネントやモジュールと結合されもし、さまざまなコンポーネントやモジュールに分離されうる。その上、その構成要素とそのモジュールは、デバイス内の少なくとも1つのプロセッサ(例えば、中央処理ユニット(CPU))上で動作できる。
コンピュータで読み取り可能なコード/命令とコンピュータで読み取り可能なミディアム/メディアは、本発明の目的のために特別にデザインされて具現されることもあり、本発明の属する業界で当業者によって活用可能なように具現されもする。
以上のように本発明は、たとえ限定された実施形態と図面とによって説明されたとしても、本発明は、前記の実施形態に限定されるものではなく、本発明の属する分野で当業者ならば、かような記載から多様な修正及び変形が可能である。従って、本発明の範囲は、説明された実施形態に限定されて決まるものではなく、特許請求の範囲やそれと均等なところによってのみ決まるものである。
Claims (21)
- 複数のボタンを具備した端末機で遂行されるディスプレイ方法において、
(a)前記端末機への接触を感知する段階と、
(b)あらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする段階とを含み、
前記(a)段階は、前記接触がなされた位置を感知し、
前記(b)段階は、
(b1)前記感知された位置の前記所定時間の間の軌跡を分析する段階と、
(b2)前記設けられた映像データのうち、前記分析された軌跡に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする段階とを含むことを特徴とするディスプレイ方法。 - 前記映像は、文字であることを特徴とする請求項1に記載のディスプレイ方法。
- 前記(b1)段階は、前記分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断し、
前記(b2)段階は、
(b21)前記分析された軌跡が前記第1所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像に相応して更新する段階と、
(b22)前記分析された軌跡が前記第2所定軌跡であると判断されれば、一定の前記複数の映像をディスプレイする段階とを含むことを特徴とする請求項1に記載のディスプレイ方法。 - 前記(b1)段階は、前記分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断し、
前記(b2)段階は、
(b21)前記分析された軌跡が前記第1所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像が属したカテゴリーを異ならせて更新する段階と、
(b22)前記分析された軌跡が前記第2所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像が属したカテゴリーを維持して更新する段階とを含むことを特徴とする請求項1に記載のディスプレイ方法。 - 前記(b2)段階は、前記分析された軌跡をなす前記感知された位置に相応する前記複数の映像を前記複数のボタンにディスプレイすることを特徴とする請求項1に記載のディスプレイ方法。
- 前記複数のボタンは、ディスプレイされた前記複数の映像のうち選択された映像を拡大してディスプレイすることを特徴とする請求項1に記載のディスプレイ方法。
- 端末機において、
前記端末機への接触を感知する感知部と、
複数の映像を制御信号に応答してディスプレイする複数のボタンと、
あらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す映像のディスプレイを指示する前記制御信号を生成する制御部とを備え、
前記感知部は、前記接触がなされた位置を感知し、
前記制御部は、
前記感知された位置の前記所定時間の間の軌跡を分析する軌跡分析部と、
前記設けられた映像データのうち、前記分析された軌跡に相応する映像データが表す映像のディスプレイを指示する前記制御信号を生成する表示指示部とを備えることを特徴とするディスプレイ機能を有するボタンを具備した端末機。 - 前記映像は、文字であることを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
- 前記感知部は、一つ以上の接触感知センサによって具現され、前記接触感知センサは、前記ボタンまたは前記端末機のフレームに一体化したことを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
- 前記複数のボタンは、ディスプレイされた前記複数の映像のうち選択された映像を拡大してディスプレイすることを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
- 複数のボタンを具備した端末機で遂行されるディスプレイ方法において、
(a)前記端末機への接触を感知する段階と、
(b)あらかじめ設けられた映像データのうち、所定時間の間の前記感知された結果に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする段階とを含み、
前記(a)段階は、前記接触がなされた位置を感知し、
前記(b)段階は、
(b1)前記感知された位置の前記所定時間の間の軌跡を分析する段階と、
(b2)前記設けられた映像データのうち、前記分析された軌跡に相応する映像データが表す複数の映像を前記複数のボタンにディスプレイする段階とを含むことを特徴とするディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体。 - 前記映像は、文字であることを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。
- 前記(b1)段階は、前記分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断し、
前記(b2)段階は、
(b21)前記分析された軌跡が前記第1所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像に相応して更新する段階と、
(b22)前記分析された軌跡が前記第2所定軌跡であると判断されれば、一定の前記複数の映像をディスプレイする段階とを含むことを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。 - 前記(b1)段階は、前記分析された軌跡が第1所定軌跡であるか、あるいは第2所定軌跡であるかを判断し、
前記(b2)段階は、
(b21)前記分析された軌跡が前記第1所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像が属したカテゴリーを異ならせて更新する段階と、
(b22)前記分析された軌跡が前記第2所定軌跡であると判断されれば、現在ディスプレイされた前記複数の映像を現在ディスプレイされた前記複数の映像が属したカテゴリーを維持して更新する段階とを含むことを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。 - 前記(b2)段階は、前記分析された軌跡をなす前記感知された位置に相応する前記複数の映像を前記複数のボタンにディスプレイすることを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。
- 前記複数のボタンは、ディスプレイされた前記複数の映像のうち選択された映像を拡大してディスプレイすることを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。
- 前記端末機は、携帯電話とPDAとを含むモバイル機器のうちの一つであることを特徴とする請求項11に記載のディスプレイ方法をコンピュータで実行させるためのコンピュータプログラムを保存したコンピュータで読み取り可能な記録媒体。
- 携帯電話とPDAとを含むモバイル機器のうちの一つであることを特徴とする請求項1に記載のディスプレイ方法。
- 携帯電話とPDAとを含むモバイル機器のうちの一つであることを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
- 前記感知部は、複数の接触センサを含むことを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
- 前記感知部は、1つの単一接触センサを含むことを特徴とする請求項7に記載のディスプレイ機能を有するボタンを具備した端末機。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20050103822 | 2005-11-01 | ||
KR20050129005 | 2005-12-23 | ||
KR1020060069976A KR101187579B1 (ko) | 2005-11-01 | 2006-07-25 | 디스플레이 기능을 갖는 버튼을 구비한 단말기 및 이를위한 디스플레이 방법 |
PCT/KR2006/004520 WO2007052958A1 (en) | 2005-11-01 | 2006-11-01 | Device having display buttons and display method and medium for the device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009514119A true JP2009514119A (ja) | 2009-04-02 |
Family
ID=38272215
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008538818A Pending JP2009514119A (ja) | 2005-11-01 | 2006-11-01 | ディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20080186281A1 (ja) |
JP (1) | JP2009514119A (ja) |
KR (1) | KR101187579B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009169451A (ja) * | 2008-01-10 | 2009-07-30 | Panasonic Corp | 携帯端末および文字入力方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100911145B1 (ko) * | 2006-10-02 | 2009-08-06 | 삼성전자주식회사 | 단말기 및 이를 위한 디스플레이 방법 |
US20130100043A1 (en) * | 2011-10-24 | 2013-04-25 | General Electric Company | Method for determining valid touch screen inputs |
KR101315238B1 (ko) * | 2012-02-29 | 2013-10-07 | 주식회사 마블덱스 | 센서를 이용한 콘텐츠 재생 시스템, 장치 및 방법 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04168514A (ja) * | 1990-10-31 | 1992-06-16 | Chubu Nippon Denki Software Kk | 液晶パネル付キーボード |
JPH05303925A (ja) * | 1992-04-28 | 1993-11-16 | Mita Ind Co Ltd | 操作装置 |
JPH06508455A (ja) * | 1991-06-08 | 1994-09-22 | イルジン コーポレイション | オプティカルインテリゼントキーボード構造体 |
JPH1027053A (ja) * | 1996-07-10 | 1998-01-27 | Toshiba Eng Co Ltd | キーボード装置 |
JPH11194883A (ja) * | 1998-01-06 | 1999-07-21 | Poseidon Technical Systems:Kk | タッチ操作型コンピュータ |
JP2002091660A (ja) * | 2000-09-14 | 2002-03-29 | Semiconductor Energy Lab Co Ltd | 電子装置の使用方法 |
JP2003162360A (ja) * | 2001-11-27 | 2003-06-06 | Toppan Printing Co Ltd | 携帯用端末 |
JP2003271295A (ja) * | 2002-03-18 | 2003-09-26 | Nec Commun Syst Ltd | 携帯情報端末 |
JP2005227899A (ja) * | 2004-02-10 | 2005-08-25 | Vodafone Kk | 情報通信端末 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1016066A4 (en) * | 1997-03-31 | 2001-06-13 | G & R Associates Inc | COMPUTER / TELEPHONE INTEGRATION WITH INTELLIGENT KEYBOARD, AND ASSOCIATED METHOD |
US5914676A (en) * | 1998-01-22 | 1999-06-22 | Sony Corporation | Multi-language display keypad |
JP2001076582A (ja) * | 1999-09-01 | 2001-03-23 | Matsushita Electric Ind Co Ltd | 電子機器 |
JP2001333166A (ja) | 2000-05-24 | 2001-11-30 | Toshiba Corp | 文字入力装置及び文字入力方法 |
US6798359B1 (en) * | 2000-10-17 | 2004-09-28 | Swedish Keys Llc | Control unit with variable visual indicator |
JP4383683B2 (ja) * | 2001-03-12 | 2009-12-16 | アルプス電気株式会社 | 入力装置 |
KR20030048570A (ko) | 2001-12-12 | 2003-06-25 | 한국전자통신연구원 | 부가적 버튼을 장착한 키패드 및 그의 작동방법 |
JP2003316502A (ja) * | 2002-04-25 | 2003-11-07 | Sony Corp | 端末装置、文字入力方法 |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US7663605B2 (en) * | 2003-01-08 | 2010-02-16 | Autodesk, Inc. | Biomechanical user interface elements for pen-based computers |
US6969824B2 (en) * | 2003-07-16 | 2005-11-29 | Lincoln Global, Inc. | Locking device for latch assembly |
-
2006
- 2006-07-25 KR KR1020060069976A patent/KR101187579B1/ko not_active IP Right Cessation
- 2006-11-01 US US11/590,828 patent/US20080186281A1/en not_active Abandoned
- 2006-11-01 JP JP2008538818A patent/JP2009514119A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04168514A (ja) * | 1990-10-31 | 1992-06-16 | Chubu Nippon Denki Software Kk | 液晶パネル付キーボード |
JPH06508455A (ja) * | 1991-06-08 | 1994-09-22 | イルジン コーポレイション | オプティカルインテリゼントキーボード構造体 |
JPH05303925A (ja) * | 1992-04-28 | 1993-11-16 | Mita Ind Co Ltd | 操作装置 |
JPH1027053A (ja) * | 1996-07-10 | 1998-01-27 | Toshiba Eng Co Ltd | キーボード装置 |
JPH11194883A (ja) * | 1998-01-06 | 1999-07-21 | Poseidon Technical Systems:Kk | タッチ操作型コンピュータ |
JP2002091660A (ja) * | 2000-09-14 | 2002-03-29 | Semiconductor Energy Lab Co Ltd | 電子装置の使用方法 |
JP2003162360A (ja) * | 2001-11-27 | 2003-06-06 | Toppan Printing Co Ltd | 携帯用端末 |
JP2003271295A (ja) * | 2002-03-18 | 2003-09-26 | Nec Commun Syst Ltd | 携帯情報端末 |
JP2005227899A (ja) * | 2004-02-10 | 2005-08-25 | Vodafone Kk | 情報通信端末 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009169451A (ja) * | 2008-01-10 | 2009-07-30 | Panasonic Corp | 携帯端末および文字入力方法 |
Also Published As
Publication number | Publication date |
---|---|
US20080186281A1 (en) | 2008-08-07 |
KR20070047204A (ko) | 2007-05-04 |
KR101187579B1 (ko) | 2012-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9678659B2 (en) | Text entry for a touch screen | |
KR102427833B1 (ko) | 사용자 단말장치 및 디스플레이 방법 | |
US8739053B2 (en) | Electronic device capable of transferring object between two display units and controlling method thereof | |
KR100825422B1 (ko) | 휴대용 전자 장치에 구비된 사용자 인터페이스 | |
JP6368455B2 (ja) | 装置、方法、及びプログラム | |
KR101654335B1 (ko) | 터치스크린의 베젤을 이용한 제스처 명령 방법 및 그 단말 | |
KR102582541B1 (ko) | 에지 스크린을 통한 터치 입력 방법 및 전자 장치 | |
US20070103454A1 (en) | Back-Side Interface for Hand-Held Devices | |
EP2148267B1 (en) | Mobile device having touch screen and method for setting virtual keypad thereof | |
JPWO2007007682A1 (ja) | タッチパネル表示装置および携帯機器 | |
JP2005044026A (ja) | 命令実行方法、命令実行プログラムおよび命令実行装置 | |
JP5254399B2 (ja) | 表示装置、ユーザインタフェース方法及びプログラム | |
JP2015026257A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20170004220A (ko) | 키패드를 표시하는 전자장치 및 그의 키패드 표시 방법 | |
EP3457672B1 (en) | Portable electronic device, touch operation processing method, and program | |
JP2009514119A (ja) | ディスプレイ機能を有するボタンを具備した端末機及びこのためのディスプレイ方法 | |
JP2007122287A (ja) | 情報処理装置、階層情報出力方法及びプログラム | |
US11379107B2 (en) | Display device, display method, and program | |
US20230236673A1 (en) | Non-standard keyboard input system | |
KR101358506B1 (ko) | 필기입력방법 및 이를 이용한 이동통신단말기 | |
JP5345609B2 (ja) | タッチパネル式端末、語削除方法及びプログラム | |
US11435867B2 (en) | Display method and electronic device using the same | |
WO2024139477A1 (zh) | 交互方法、装置、电子设备以及存储介质 | |
EP1943817A1 (en) | Device having display buttons and display method and medium for the device | |
JP2010092270A (ja) | 情報処理端末、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110628 |