JP5629180B2 - 携帯端末装置 - Google Patents

携帯端末装置 Download PDF

Info

Publication number
JP5629180B2
JP5629180B2 JP2010236102A JP2010236102A JP5629180B2 JP 5629180 B2 JP5629180 B2 JP 5629180B2 JP 2010236102 A JP2010236102 A JP 2010236102A JP 2010236102 A JP2010236102 A JP 2010236102A JP 5629180 B2 JP5629180 B2 JP 5629180B2
Authority
JP
Japan
Prior art keywords
display
unit
screen
detection
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010236102A
Other languages
English (en)
Other versions
JP2012088985A (ja
Inventor
広樹 小林
広樹 小林
真平 尾迫
真平 尾迫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2010236102A priority Critical patent/JP5629180B2/ja
Priority to US13/278,133 priority patent/US20120098773A1/en
Publication of JP2012088985A publication Critical patent/JP2012088985A/ja
Application granted granted Critical
Publication of JP5629180B2 publication Critical patent/JP5629180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末装置に関するものである。
従来、複数のタッチパネルを備える所謂マルチタッチパネル装置が知られている。この種のマルチタッチパネル装置では、複数のタッチパネルが接続され、各タッチパネルへの操作に応じて、タッチパネル毎に設定された機能が実行される(たとえば、特許文献1参照)。
特開2009−98949号公報
上記の構成では、複数のタッチパネルが、個別の機能を実行するために個別に用いられるに留まる。このため、複数のタッチパネルを連携させた操作により、個々のタッチパネルでの操作によるものとは異なる、新たな機能を実行することはできない。
本発明は、かかる課題に鑑みてなされたものであり、操作性に優れた携帯端末装置を提供することを目的とする。
本発明の携帯端末装置は、第1表示部と、第2表示部と、前記第1表示部および前記第2表示部の表示を制御する表示制御部と、前記第1表示部に重ねて配置され、入力を検出する第1検出部と、前記第2表示部に重ねて配置され、入力を検出する第2検出部と、前記第1検出部の検出結果に対応する第1処理および前記第2検出部の検出結果に対応する第2処理の他、前記第1検出部の検出結果と前記第2検出部の検出結果との特定の組合せに対応する第3処理を記憶する記憶部と、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第1、第2および前記第3処理に対応する検出結果のうちのいずれに一致するか否かを判断する判断部を備える。ここで、前記表示制御部は、前記第1表示部に複数の写真を含む第1の画面を表示するとともに、前記第2表示部に前記複数の写真よりサイズの大きな第1の写真を含む第2の画面を表示する。そして、前記第1表示部に前記第1の画面が表示され、前記第2表示部に前記第2画面が表示されている状態において、前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、前記表示制御部は、前記第3処理に従って、前記第1の写真よりサイズの大きな第2の写真と前記複数の写真のうち一部の写真とを含む第3の画面を前記第1表示部および前記第2表示部に表示する。
本態様に係る携帯端末装置において、前記第1検出部は、入力された位置を検出し、
前記第2検出部は、入力された位置を検出し、前記特定の組合せは、前記第1検出部および前記第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出した後、前記第1検出部および前記第2検出部の少なくともいずれか一方の検出部が前記位置の変化を検出する態様を含み得る。
本態様に係る携帯端末装置において、前記特定の組合せは、前記第1検出部および第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出した後、さらに所定の第2時間の経過後に前記第1検出部および前記第2検出部が同時にまたは異なるタイミングで前記入力がなくなったこと検出する態様を含
み得る。
本態様に係る携帯端末装置において、前記特定の組合せは、前記第1検出部および前記第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出する態様を含み得る。
本態様に係る携帯端末装置において、前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、前記表示制御部は、前記第3処理に従って、前記第1表示部に表示される画面の画像と前記第2表示部に表示される画面の画像とを入れ替え得る。
本態様に係る携帯端末装置において、前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、前記表示制御部は、前記第3処理に従って、前記第1表示部および前記第2表示部のいずれか一方に表示されていた画面を前記第1表示部および前記第2表示部に表示し得る。
本態様に係る携帯端末装置において、前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、前記表示制御部は、前記第3処理に従って、当該携帯端末装置に備えられた所定の機能を選択するための画面を前記第1表示部および前記第2表示部に表示し得る。
本発明によれば、操作性に優れた携帯端末装置を提供することができる。
本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。
実施の形態に係る携帯電話機の外観構成を示す図である。 実施の形態に係る携帯電話機の状態の切り替えを説明するための図である。 実施の形態に係る携帯電話機の全体構成を示すブロック図である。 実施の形態に係る画面を制御する処理手順を示すフローチャートである。 実施の形態に係る各表示面に表示される画面を示す図である。 実施の形態に係る各表示面に表示される画面を示す図である。 実施の形態に係る各表示面に表示される画面を示す図である。 実施の形態に係る画面を制御する処理手順を示すフローチャートである。 実施の形態に係る各表示面に表示される画面を示す図である。
以下、本発明の実施の形態について、図面を参照して説明する。
<携帯電話機の構成>
図1は、携帯電話機1の構成を示す図(分解斜視図)である。携帯電話機1は、第1キャビネット10と、第2キャビネット20と、これら第1、第2キャビネット10、20
を保持する保持体30とで構成されている。
第1キャビネット10は、横長の直方体形状を有する。第1キャビネット10には、第1タッチパネルが配されている。第1タッチパネルは、第1ディスプレイ11、第1タッチセンサ12および第1透明カバー13を含む。
第1ディスプレイ11は、第1表示部に相当し、第1表示面11a1に第1画面を表示する。第1ディスプレイ11は、第1液晶パネル11aおよび第1液晶パネル11aを照明する第1バックライト11bで構成されている。第1液晶パネル11aの前面に第1表示面11a1が設けられる。第1タッチセンサ12が第1ディスプレイ11に重ねられて配されている。
第1タッチセンサ12は、透明な長方形状のシートであり、第1ディスプレイ11の第1表示面11a1を覆う。第1タッチセンサ12には、マトリクス状に配された第1透明電極と第2透明電極とを備えている。第1タッチセンサ12は、これら透明電極間の静電容量の変化を検出することによって、ユーザが触れた第1表示面11a1上の位置を検出し、その位置に応じた位置信号を出力する。これにより、第1タッチセンサ12は、第1ディスプレイ11により第1表示面11a1に表示された第1画面に対するユーザの入力を検出する第1検出部である。なお、ユーザが第1表示面11a1を触れるとは、たとえば、指やペンなどの接触部材によって第1表示面11a1をユーザが押したり、撫でなり、図形や文字を描いたりすることである。また、第1表示面11a1を触れるとは、実際には、後述する第1透明カバー13の中で第1表示面11a1の第1画面が映る領域を触れることである。
第1透明カバー13が、第1タッチセンサ12の前面に配されている。第1透明カバー13は、第1タッチセンサ12を覆い、第1キャビネット10の正面に現れる。
第1キャビネット10の内部には、中央やや後ろ位置にカメラモジュール14が配されている。このカメラモジュール14における被写体像を取り込むためのレンズ窓(図示せず)が、第1キャビネット10の下面に設けられている。
また、第1キャビネット10の内部には、前面近傍の中央位置に磁石15が配されており、右前角部に磁石16が配されている。
さらに、第1キャビネット10の右側面および左側面には、それぞれ、突起部17が設けられている。
第2キャビネット20は、横長の直方体形状を有する。すなわち、第2キャビネット20は、第1キャビネット10とほぼ同じ形状と大きさを有する。第2キャビネット20には、第2タッチパネルが配されている。第2タッチパネルは、第2ディスプレイ21、第2タッチセンサ22および第2透明カバー23を含む。
第2ディスプレイ21は、第2表示部に相当し、第2表示面21a1に第2画面を表示する。第2ディスプレイ21は、第2液晶パネル21aおよび、第2液晶パネル21aを照明する第2バックライト21bで構成されている。第2液晶パネル21aの前面に第2表示面21a1が設けられる。なお、第1ディスプレイ11および第2ディスプレイ21は、有機EL等他の表示素子により構成されてもよい。第2タッチセンサ22が第2ディスプレイ21に重ねられて配されている。
第2タッチセンサ22は第2ディスプレイ21を覆い、第2タッチセンサ22の前面に
は透明カバー23が配されている。なお、第2タッチセンサ22の構成は、第1タッチセンサ12と同様である。このため、第2タッチセンサ22は、第2ディスプレイ21により第2画面21a1に表示された第2画面に対するユーザの入力を検出する第2検出部である。なお、ユーザが第2表示面21a1を触れるとは、実際には、後述する第2透明カバー23の中で第2表示面21a1の第2画面が映る領域をユーザが指などで触れることである。
第2透明カバー23は、第2タッチセンサ22を覆い、第2キャビネット20の正面に現れる。
第2キャビネット20の内部には、後面近傍の中央位置に磁石24が配されている。
この磁石24と第1キャビネット10の磁石15とは、第2状態で互いに引き合うよう構成されている。なお、第1状態は、後述の如く、第1キャビネット10と第2キャビネット20が大画面を構成するように配置された状態である。また、磁石24または磁石15のいずれか一方の磁力が十分大きければ、他方の磁石を磁性体に代えてもよい。
第2キャビネット20の内部において、右前角部には閉鎖センサ25が配されており、右後角部には開放センサ26が配されている。これらセンサ25、26は、たとえば、ホールICなどで構成され、磁石16の磁力に反応して検出信号を出力する。後述するように、第1キャビネット10と第2キャビネット20とが重なった状態になると、第1キャビネット10の磁石16が、閉鎖センサ25に接近するので、閉鎖センサ25からON信号が出力される。一方、第1キャビネット10と第2キャビネット20とが前後に並んだ状態になると、第1キャビネット10の磁石16が、開放センサ26に接近するので、開放センサ26からON信号が出力される。
さらに、第2キャビネット20の両側面にはそれぞれ2つの軸部27、27が設けられている。
保持体30は、底板部31と、底板部31の右端部に形成された右保持部32と、底板部31の左端部に形成された左保持部33とで構成されている。
底板部31には、3つのコイルバネ34が左右方向に並ぶように配されている。これらコイルバネ34は、第2キャビネット20が保持体30に取り付けられた状態において、第2キャビネット20の下面に当接し、第2キャビネット20に対して上方に押し上げる力を付与する。
右保持部32の上面にはマイク35および電源キー36が配されている。また、右保持部32の外側面には、複数の操作キー37が配されている。マナーモードの設定など、一定の機能については、これら操作キー37を操作することにより、各タッチセンサ12、22を操作することなく実行される。
左保持部33の上面には、スピーカ38が配されている。ユーザは、左保持部33側が耳元に、右保持部32側が口元にくるように携帯電話機1を持って、通話を行う。また、ユーザは、通話をしながら電話帳を確認する際には、ハンズフリー等のように、受話口(スピーカ38)を耳にあてないような状態で、通話を行うことができる。
右保持部32および左保持部33の内側面には、案内溝39(左保持部33側のみ図示)が形成されている。案内溝39は、上溝39a、下溝39bおよび2つの縦溝39とで構成されている。上溝39aおよび下溝39bは前後方向に延び、縦溝39cは、上溝39aと下溝39bとを繋ぐように上下に延びる。
携帯電話機1を組み立てる際には、軸部27、27を案内溝39の下溝39bに挿入して、第2キャビネット20を保持体30の収容領域R内に配置する。さらに、突起部17を案内溝39の上溝39aに挿入して、第1キャビネット10を第2キャビネット20の上に配置し、第1キャビネット10を保持体30の収容領域R内に収める。
こうして、底板部31、右保持部32および左保持部33に囲まれた収容領域Rに、第1キャビネット10および第2キャビネット20が上下に重なった状態で収容される。この状態では、第1キャビネット10は、上溝39aに案内されて前後にスライド可能である。第2キャビネット20は、下溝39bに案内されて前後にスライド可能である。また、第2キャビネット20が前方に移動し、軸部27、27が縦溝39cまでくると、第2キャビネット20は、縦溝39cに案内されて上下にスライド可能となる。
図2は、携帯電話機1を第1状態から第2状態へ切り替えるための操作について説明するための図である。
図2(a)に示す第1状態では、第1キャビネット10が第2キャビネット20の上に重ねられて、携帯電話機1が畳まれる。第1表示面11a1が外部に露出し、第2表示面21a1が隠れる。
図2(b)に示すように、ユーザは、第1キャビネット10を矢印に示す後方に移動させる。次に、図2(c)に示すように、ユーザは、第2キャビネット20を前方へ引き出す。この引出し操作によって、第2キャビネット20が第1キャビネット10の前に並ぶ位置まで移動すると、第2キャビネット20は第1キャビネット10に完全に重ならなくなる。このとき、図1に示す軸部27、27が縦溝39cにくるので、第2キャビネット20はコイルバネ34に押されて上昇する。また、磁石15と磁石24とが引き合うことによって、第2キャビネット20に大きな上昇力がさらに働く。
図2(d)に示すように、第2キャビネット20が第1キャビネット10と前後に密着するように且つ面一となるように並び、携帯電話機1は第2状態に切り替えられる。第2状態では、第1キャビネット10および第2キャビネット20が広げられて、第1表示面11a1と第2表示面21a1の双方が外部に露出する。
図3は、携帯電話機1の全体構成を示すブロック図である。本実施の形態の携帯電話機1は、上述した各構成要素の他、CPU100、メモリ200、映像エンコーダ301、音声エンコーダ302、キー入力回路303、通信モジュール304、バックライト駆動回路305、映像デコーダ306、音声デコーダ307、バッテリー309、電源部310、クロック311を備えている。
カメラモジュール14はCCD等の撮像素子を有する。カメラモジュール14は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ301へ出力する。映像エンコーダ301は、カメラモジュール14からの撮像信号にエンコード処理を施してCPU100へ出力する。
マイク35は、集音した音声を音声信号に変換して音声エンコーダ302へ出力する。音声エンコーダ302は、マイク35からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施してCPU100へ出力する。
キー入力回路303は、電源キー36や操作キー37の各キーが操作されたときに、各
キーに応じた入力信号をCPU100へ出力する。
通信モジュール304は、CPU100からの情報を無線信号に変換し、アンテナ304aを介して基地局へ送信する。また、通信モジュール304は、アンテナ304aを介して受信した無線信号を情報に変換してCPU100へ出力する。
バックライト駆動回路305は、CPU100からの制御信号に応じた電圧を第1バックライト11bおよび第2バックライト21bにかける。第1バックライト11bは、バックライト駆動回路305による電圧により点灯し、第1液晶パネル11aを照明する。第2バックライト21bは、バックライト駆動回路305による電圧により点灯し、第2液晶パネル21aを照明する。
映像デコーダ306は、CPU100からの映像信号を第1液晶パネル11aおよび第2液晶パネル21aで表示できる映像信号に変換し、これらを液晶パネル11a、21aに出力する。第1液晶パネル11aは、映像信号に応じた第1画面を第1表示面11a1に表示する。第2液晶パネル21aは、映像信号に応じた第2画面を第2表示面21a1に表示する。各画面は、対象画像および対象画像以外の領域を占める背景画像で構成される。なお、対象画像が無い場合、画面は背景画像のみから構成される。
音声デコーダ307は、CPU100からの音声信号と、着信音やアラーム音等の各種報知音の音信号とにデコード処理を施し、さらにアナログの音声信号に変換してスピーカ38に出力する。スピーカ38は、音声デコーダ307からの音声信号や着信音等を再生する。
バッテリー309は、CPU100やCPU100以外の各部へ電力を供給するためのものであり、二次電池からなる。バッテリー309は電源部310に接続されている。
電源部310は、バッテリー309の電圧を各部に必要な大きさの電圧に変換して各部へ供給する。また、電源部310は、外部電源(図示せず)を介して供給された電力をバッテリー309へ供給して、バッテリー309を充電する。
クロック311は、時間を計測し、計測した時間を応じた信号をCPU100へ出力する。
メモリ200は、ROMおよびRAMを含む。メモリ200には、CPU100に制御機能を付与するための制御プログラムが記憶されている。また、メモリ200には、カメラモジュール14で撮影した画像データや通信モジュール304を介して外部から取り込んだ画像データ、テキストデータおよび音データなどが所定のファイル形式で保存される。
また、メモリ200には、第1〜第3処理手順が記憶されている。第1処理手順は、第1タッチセンサ12からの入力信号に対応する。また、第2処理手順は、第2タッチセンサ22の入力信号に対応する。さらに、第3処理手順は、第1タッチセンサ12の入力信号と第2タッチセンサ22の入力信号との特定の組み合わせに対応する。なお、特定の組み合わせとしては、適宜設定され得る。1つの例としては、第1タッチセンサ12および第2タッチセンサ22のいずれか一方が入力を検出してから所定時間以内に他方のタッチセンサ12,22が入力を検出する態様である。また、他の例としては、第1タッチセンサ12および第2タッチセンサ22のいずれか一方が入力を検出してから所定時間以内に他方のタッチセンサ12,22が入力を検出した後、第1タッチセンサ12および第2タッチセンサ22の少なくともいずれか一方が入力された位置の変化を検出する態様である
CPU100は、キー入力回路303および各タッチセンサ12、22からの操作入力信号に基づき、制御プログラムに従って、カメラモジュール14、マイク35、通信モジュール304、液晶パネル11a、21a、スピーカ38、スピーカ38等を動作させる。これにより、CPU100は、通話機能、電子メール機能等の各種アプリケーションを実行する。
CPU100は、判断部として機能する。このため、CPU100は、各タッチセンサ12、22から検出信号を受けて、メモリ200に記憶される3つの処理手順と比較する。そして、CPU100は、各タッチセンサ12、22の検出信号の少なくともいずれか1つが、3つの処理手順のうちのいずれに一致するかを判断する。
CPU100は、表示制御部として、映像デコーダ306およびバックライト駆動回路305へ制御信号を出力する。これにより、CPU100は、判断部が一致すると判断した処理手順に従って、各液晶パネル11a、21aおよび各バックライト11b、21bをON(点灯)またはOFF(消灯)を制御して、各表示面11a1、21a1に画像を表示させる。なお、画像は、静止画、動画、文字および記号などの情報から構成される。CPU100は、表示制御部として、表示面11a1、21a1に画像を表示する際のコントラスト、輝度、画面サイズ、および画面の透明度などを制御する。
また、CPUは、メモリ200から第1〜第3処理手順を読み出す。また、CPUは、各タッチセンサ12、22からの入力信号を受け、入力信号に応じて第1〜第3処理手順を実行する。
<第1の実施形態の処理手順>
図4は、各表示面11a1、21a1に表示する画面を制御する処理手順を示すフローチャートである。図5〜図7は、各表示面11a1、21a1に表示された各画面を表わす。
第1の実施形態では、第1表示面11a1および第2表示面21a1の両方または一方に対してスライド動作を行う操作により、メモリ200に予め保存された写真などのイメージデータの表示方法を変更する処理について説明する。なお、「スライド動作」とは、各表示面11a1、21a1の表示面に接触部材を接触したまま動かす動作を言う。
電源キー36がユーザにより押されて、バッテリー309からの電力がCPU100へ供給されると、各表示面11a1、21a1に表示される画面を制御する機能を実現するための制御プログラムが起動する。
まず、CPU100は、所定の操作メニューを示す画面(図示せず)を第1表示面11a1に表示する。操作メニューの画面に対してユーザが操作することにより、たとえば、図5(a)に示すように、CPU100は、写真の一覧を表示する第1プログラムおよび、1つの写真を表示する第2プログラムを起動する。CPU100は、第1プログラムにより出力される第1画面を第1表示面11a1に表示し、第2プログラムにより出力される第2画面を第2表示面21a1に表示する。ここで、第1画面は複数の写真の縮小画像を含み、第2画面は1つの写真の原画像を含む。
CPU100は、各表示面11a1、21a1に対してタッチ動作がなされるのを待つ(S101)。ユーザが第1表示面11a1に接触すると、CPU100は、第1タッチセンサ12から位置信号を受け、タッチ動作がなされたことを検出する(S101:YES)
。このとき、CPU100は、位置信号からタッチ位置を求め、メモリ200に記憶しておく。そして、CPU100は、クロック311から信号を受けて、先のタッチ動作があってからの経過時間の計測を開始する(S102)。なお、CPU100が、各タッチセンサ12、22から位置信号を記憶する際に、タッチセンサ12、22を識別する情報を位置信号に付加して、いずれのタッチセンサ12、22の位置信号であるかを識別できるようにしておく。また、「タッチ動作」とは、ユーザが各表示面11a1、21a1に接触部材を接触させる動作を言う。
次に、ユーザが第1表示面11a1だけにタッチ動作したのか否かを判断するため、CPU100は、先にタッチ動作がなされた第1表示面11a1とは別の第2表示面21a1に対するタッチ動作があるか否かを判断する(S103)。ここで、CPU100は、第2タッチセンサ22から検出信号を受けていなければ、第2表示面21a1へのタッチ動作がないと判断する(S103:NO)。ただし、ユーザは2つの表示面11a1、21a1を同時にタッチ動作することは難しい。このため、第1表示面11a1に対するタッチ動作からの経過時間が第1閾値以内であれば、他の第2表示面21a1に対してタッチ動作がなされると、2つの表示面11a1、21a1において同時にタッチ動作がなされたと取り扱われる。なお、第1閾値は、適宜設定され得る。ただし、第1閾値が短すぎると、ユーザは、2つの表示面11a1、21a1を同時にタッチするタイミングをきわめて正確に合わせる必要があり、操作し難くなる。一方、第1閾値が長すぎると、ユーザは2つの表示面11a1、21a1を個別にタッチしたつもりでも、これらのタッチ動作が同時タッチ動作と誤って見なされてしまう。よって、操作性と誤検知の可能性とを考慮して第1閾値が設定される。なお、「同時タッチ動作」とは、2つの表示面11a1、21a1に接触部材を同時に接触する動作を言う。
CPU100は、先のタッチ動作からの経過時間が第1閾値を経過するか否かを判断する(S104)。経過時間が第1閾値を経過していない間(S104:NO)、CPU100は、第2表示面21a1にタッチ動作がなされるか否かを判断する(S103)。第2表示面21a1へのタッチ動作が無い状態で、時間が進行すると、CPU100、経過時間が第1閾値を超えたと判断する(S104:YES)。これにより、第1表示面11a1と同時に第2表示面21a1はタッチされず、第1表示面11a1のみがタッチされたと見なされる。
第1表示面11a1のみがタッチされた場合、CPU100は、第1タッチセンサ12からの位置信号に応じて、第1表示面11a1に対して入力された位置を求める。そして、CPU100は、入力された位置に対応する処理を特定し、第1処理手順に従って、その処理を実行する(S105)。なお、第2表示面21a1のみがタッチされた場合、CPU100は、第2タッチセンサ22からの位置信号に応じて、第2処理手順に従って、その処理を実行する。
一方、第1表示面11a1に対するタッチ動作からの経過時間が第1閾値以内に、CPU100が、第2タッチセンサ22から位置信号を受けると、CPU100は、第2表示面21a1に対するタッチ動作があったと判断する(S103:YES)。これにより、2つの表示面11a1、21a1はユーザにより同時にタッチされたと見なされる。なお、CPU100は、第2タッチセンサ22からの位置信号により第2表示面21a1におけるタッチ位置を求め、メモリ200に記憶しておく。
次に、同時タッチ動作の後に続く動作、たとえば、各表示面11a1、21a1にタッチした指をスライドさせる動作が各表示面11a1、21a1においてなされたか否かを、CPU100は判断する。このため、CPU100は、各タッチセンサ12、22から位置信号を受け、各表示面11a1、21a1にタッチ動作がなされた後の各表示面11
a1、21a1における現在の入力位置を取得する(S106)。また、CPU100は、各表示面11a1、21a1に最初にタッチ動作がなされたときの位置をメモリ200から読み出す。そして、CPU100は、現在の入力位置とタッチ位置とを比較し、位置変化を求める。ユーザによるスライド動作があれば、入力位置がある程度変化するため、CPU100は、入力位置の変化が第2閾値以上であるか否かを判断する(S107)。なお、第2閾値は適宜設定され得る。ただし、第2閾値が小さすぎると、ユーザがスライド動作を意図せずにわずかに指を動かしてしまった場合でも、スライド動作と誤って判定されてしまう。一方、第2閾値が大きすぎると、ユーザは、指を大きく動かさなければならず、操作性が悪くなってしまう。よって、誤検知の可能性と操作性とを考慮して第1閾値が設定される。
入力位置の変化が第2閾値以上でなければ、CPU100は、スライド動作が無いと判断する(S107:NO)。そして、第1表示面11a1へのタッチ動作からの経過時間が第3閾値を経過するまで、スライド動作による位置変化があるか否かをCPU100は判断する(S108:NO、S107)。なお、第3閾値は、適宜設定され得る。
スライド動作による位置変化がなく(S107:NO)、第1表示面11a1へのタッチ動作からの経過時間が第3閾値を超えると、CPU100は経過時間が第3閾値を経過したと判断する(S108:YES)。これにより、スライド動作が無く、同時タッチ動作のみがなされたとして、CPU100は、第3処理手順に従って、第1画面に表示された情報と第2画面に表示された情報とを連結して、1つの新たな連結画面を形成し、連結画面を第1表示面11a1および第2表示面21a1に表示する(S109)。
この場合、連結画面が表示される領域は、第1表示面11a1および第2表示面21a1に分かれる。しかし、CPU100は、第1プログラムによる出力画像と第2プログラムによる出力画像を組み合わせ、さらにこれらの出力画像に背景画像を含めて、連結画面を設定する。このため、連結画面の画像は連続する。たとえば、図5(b)に示すように、連結画面は、画面の連結前に第1画面に表示されていた写真の縮小画像と、第2画面に表示されていた写真の原画像とを含む。これらの画像は、第1表示面11a1および第2表示面21a1にまたがって表示されるが、連続する。このため、写真aの原画像は、2つの表示面11a1、21a1に分かれるが、1つの写真を形成する。また、写真a〜dの縮小画像の位置を指でタッチしてユーザが移動させると、写真aの縮小画像が消え、代わって次の写真eの縮小画像が表示される。なお、第1表示面11a1と第2表示面21a1との間には、2つのキャビネット10、20の枠が挟まれている。このため、各表示面11a1、21a1の2つの画面を連結した画面の中には枠が配置される。しかし、連結画面の画像は、連続し、一体的に形成される。
一方、CPU100は、入力位置の変化が第2閾値以上であることを検出すると、スライド動作ありと判断する(S107:YES)。そして、CPU100は、クロック311から検出信号を受けて、先のスライド動作からの経過時間の計測を新たに開始する(S1
10)。
次に、スライド動作が一方の表示面11a1、21a1に対してだけなされたのか、両方の表示面11a1、21a1に対してなされたのかの判断がなされる。たとえば、第1表示面11a1に対するスライド動作が先に検出されたとする。この場合、CPU100は、先のスライド動作に係る第1タッチセンサ12とは別のタッチセンサ22から位置信号を受け、位置信号から第2表示面21a1における現在の入力位置を求める(S111)。そして、CPU100は、第2表示面21a1におけるタッチ位置をメモリ200から読み出す。そして、CPU100は、第2表示面21a1におけるタッチ位置と現在の入力位置とから、入力位置の変化を求める。この入力位置の変化が第2閾値以上であれば、
第2表示面21a1に対するスライド動作ありと判断する(S112:YES)。これにより、両方の表示面11a1、21a1に対してスライド動作があるため、CPU100は、第3処理手順に従って、第1プログラムによる出力画像を第2表示面21a1に表示し、第2プログラムによる出力画像を第1表示面11a1に表示する(S113)。これにより、第1画面の画像と第2画面の画像とが入れ替わって各表示面11a1、21a1に表示される。たとえば、図5(a)に示すように、予め、複数の写真の縮小画像を含む第1画面が第1表示面11a1に表示され、1つの写真の原画像を含む第2画面が第2表示面21a1に表示されていた場合、各画面の画像情報を入れ替えると、図6(a)に示すように、1つの写真の原画像を含む第1画面が第1表示面11a1に表示され、写真の縮小画像を含む第2画面が第2表示面21a1に表示される。
一方、第2タッチセンサ22からの位置信号に基づく入力位置の変化が検出されない場合、第2表示面11a1に対するスライド動作はないと判断する(S112:NO)。しかし、ユーザが完全に同時に指をスライドさせることは難しいため、先のスライド動作からの経過時間が所定時間以内に他方の表示面に対してスライド動作があれば、同時にスライドされたとみなす。そこで、CPU100は、先のスライド動作からの経過時間と第4閾値とを比較する(S114)。経過時間が第4閾値を経過していない間は(S114:NO)、CPU100は、第2タッチセンサ22からの位置信号を取得し(S111)、第2表示面21a1におけるスライド動作があるか否かを判断する(S112)。第4閾値以下の経過時間で、第2表示面21a1においてスライド動作があると判断されると、前述と同様に2つの画面の情報を入れ替える(S113)。なお、第4閾値は、各表示面11a1、21a1に対するスライド動作が同時と行われたと許容されるように、適宜設定される。
一方、時間が経過し、先の第1表示面11a1に対するスライド動作からの経過時間が第4閾値を超えると(S114:YES)、両方の表示面11a1、21a1に対し同時にスライド動作がなされずに、先のスライド動作のみが実施されたと判断される。
続いて、CPU100は、先のスライド動作が2つの表示面11a1、21a1のいずれで行われたのかを見分ける(S114)。このとき、CPU100は、位置信号に付加された識別情報から、第2閾値以上の入力位置の変化があったタッチセンサ12、22を判別する。そして、CPU100は、判別したタッチセンサ12、22に対応する表示面11a1、21a1を求める。
ここで、第1タッチセンサ12からの位置信号に基づく入力位置の変化が第2閾値以上であれば、CPU100は、先のスライド動作は第1表示面11a1に対するものであると判断する(S114:YES)。そこで、図6(b)に示すように、CPU100は、第1画面に表示された情報と第2画面に表示された情報とを連結した1つの新たな連結画面を形成する。画面の連結により、表示面積が増える。このため、CPU100は、第3処理手順に従って、写真一覧を表示する第1プログラムを実行し、拡大した表示領域にさらなる写真の縮小画像を表示する(S115)。これにより、表示面積が拡大した連結画面に多くの写真の縮小画像を一度に表示することができる。なお、連結画面の表示領域は第1画面と第2画面とに分かれるが、連結画面の画像は、第1プログラムによる出力画像であって、連続している。また、第2プログラムによる出力画像は、連結画面を構成せず、各表示面11a1、21a1に表示されない。
一方、第2タッチセンサ22からの位置信号に基づく入力位置の変化が第2閾値以上であれば、CPU100は、先のスライド動作は第2表示面21a1に対するものであると判断する(S114:NO)。そこで、図7に示すように、CPU100は、第3処理手順に従って、新たな連結画面を形成し、第2プログラムからの出力に基づき、画面の連結前に第2画面に表示していた1つの写真aの原画像を連結画面に表示する(S116)。これ
により、写真aの画像をさらに大きく表示することができる。
以上、本実施の形態によれば、2つのタッチセンサ12、22からの入力に基づいて、タッチやスライドなどの特定の組み合わせを判断している。また、判断結果に応じて、2つの表示面11a1、21a1に対して多様な形式で表示している。このように、2つのタッチパネルを連携することにより、操作性が優れる。
また、本実施の形態によれば、2つの表示面11a1、21a1に対する入力に基づいて、2つの表示面11a1、21a1に表示する画面を入れ替えたり連結したりする。これにより、2つの表示面11a1、21a1に個別に画面を表示するだけでなく、画面の表示領域を代えたり、画面の表示面積を拡張したりすることができる。このため、表示形式が多様化することで、ユーザの幅広いニーズに対応することができる。
さらに、本実施の形態によれば、2つの表示面11a1、21a1に対してユーザの指がタッチやスライドしているか否か、また、これらの動作のタイミングが同じであるか否かなど、2つの表示面11a1、21a1に対するユーザの動作の関係性に応じて画面が制御されている。このため、画面制御の機能が割り当てられた操作キー37や画面位置をユーザは操作する必要がなく、便利である。さらに、ユーザは、タッチ動作やスライド動作などの動作の有無やタイミングを調整し、感覚的に操作することができる。
<第2実施形態>
第2の実施形態では、第1表示面11a1および第2表示面21a1の両方または一方に対してロングタッチ動作を行う操作により、メモリ200に予め保存された写真などのイメージデータの表示方法を変更する処理について説明する。なお、「ロングタッチ動作」とは、所定時間以上各表示面11a1、21a1の所定の場所に接触部材を接触し続ける動作を言う。
第1実施形態の携帯電話機1では、同時タッチ動作の後に続く動作として、スライド動作に基づいて画面を制御した。これに対し、第2実施形態の携帯電話機1では、各表示面11a1、21a1にタッチしている継続時間に基づいて画面を制御する。なお、第2実施形態の構成のうち第1実施形態の構成と同様なものには、同じ番号を付して、その説明を省略する。
また、メモリ200に記憶されている第3処理手順は、第1タッチセンサ12の入力信号と第2タッチセンサ22の入力信号との特定の組み合わせに対応する。この特定の組み合わせは、第1タッチセンサ12および第2タッチセンサ22のいずれか一方が入力を検出してから所定時間以内に他方のタッチセンサ12、22が入力を検出した後、さらに所定時間の経過後に第1タッチセンサ12および第2タッチセンサ22が同時にまたは異なるタイミングで入力がなくなったこと検出する態様を含む。
図8は、各表示面11a1、21a1に表示する画面を制御する処理手順を示すフローチャートである。なお、図8のS201〜S205は、図4のS101〜S105と同様であるため、説明は省略する。
2つの表示面11a1、21a1が同時にタッチされている状態で、次に、これらのタッチ動作がロングタッチ動作であるか否かを判断する。このため、CPU100は、最初にタッチされてから継続して、2つのタッチセンサ12、22からの位置信号が入力されているか否かを見る(S206)。各タッチセンサ12、22から位置信号がCPU100へ入力されている間は、ユーザの指が各表示面11a1、21a1にタッチされている状態が続いている。ユーザの指が各表示面11a1、21a1から離されると、CPU10
0は、各タッチセンサ12、22からの位置信号が入力されていないと判断し、リリース動作があったことを検出する(S206:YES)。なお、「リリース動作」とは、各表示面11a1、21a1の表示面に接触させた接触部材を離す動作を言う。
そして、CPU100は、クロック311から信号を受け、先のタッチ動作からリリース動作までの経過時間を求める。経過時間が予め定められた第5閾値以内であれば、先のタッチ動作からリリース動作までの時間が短いため、CPU100は、ロングタッチ動作でないと判断する(S207:NO)。これにより、CPU100は、第3処理手順に従って、第1画面に表示された情報と第2画面に表示された情報とを連結した1つの新たな連結画面を形成し、たとえば、図5(b)に示すような連結画面を各表示面11a1、21a1に表示する(S208)。なお、第5閾値は適宜設定され得る。
一方、先のタッチ動作からリリース動作までの経過時間が第5閾値以上であれば、CPU100は、ロングタッチ動作であると判断する(S207:YES)。そして、CPU100は、クロック311から検出信号を受けて、先のリリース動作からの経過時間の計測を新たに開始する(S209)。
次に、リリース動作が同時にされるのか否かを判断するために、CPU100は、先のリリース動作に係るタッチセンサ12、22とは異なるタッチセンサ12、22から位置信号が入力されているかを判断する。位置信号が入力されていなければ、CPU100は、他の表示面からユーザの指が離されたことにより、リリース動作があったと判断する(
S210:YES)。これにより、両方の表示面11a1、21a1において同時にリリ
ースされたとして、CPU100は、第3処理手順に従って、たとえば、図5(a)に示すように、第1画面の情報と第2画面の情報とを入れ替える(S211)。
一方、先にリリース動作に係るタッチセンサ12、22とは異なる他のタッチセンサ12、22から位置信号がCPU100へ入力されていれば、CPU100は、リリース動作がないと判断する(S210:NO)。ただし、ユーザが各表示面11a1、21a1から離すタイミングを完全に一致させることは難しいため、先のリリース動作からの経過時間が所定時間以内に他方の表示面に対してリリース動作があれば、同時にリリース動作がなされたとみなす。そこで、CPU100は、先のリリース動作からの経過時間が予め定められた第6閾値を経過したか否かを判断する(S212)。先のリリース動作からの経過時間が短ければ、CPU100は経過時間が第6閾値を超えていないと判断する(S212:NO)。そして、再び、CPU100は、他のタッチセンサ12、22からの位置信号があるか否かを判断する(S210)。経過時間が第6閾値を経過していない間に(
S212:NO)、CPU100は、他方のタッチセンサ12、22からの位置信号が入
力されておらず、リリース動作があったことを検出すると(S210:NO)、2つの画面の情報を入れ替える(S113)。なお、第6閾値は、各表示面11a1、21a1からのリリース動作が同時と行われたと許容されるように、適宜設定される。
一方、先のリリース動作からの経過時間が第6閾値を超えると(S212:YES)、2つの表示面11a1、21a1においてリリース動作が同時に行われなかったとして、CPU100は、先にリリースされた表示面が2つの表示面11a1、21a1のいずれであったかを判断する(S213)。そこで、CPU100は、位置信号に付加された識別情報から、先に位置信号が検出されなくなったタッチセンサ12、22を判別する(S213)。
ここで、第1タッチセンサ12からの位置信号が第2タッチセンサ22より先に検出されなくなった場合、CPU100は、第1表示面11a1からのリリース動作が先になされたと判断する(S213:YES)。そこで、図6(b)に示すように、CPU100は
、第3処理手順に従って、新たな連結画面を形成し、第1プログラムにより出力された画像を表示する(S214)。
一方、第2タッチセンサ22からの位置信号が先に検出されなくなった場合、CPU100は、第2表示面21a1からのリリース動作が先になされたと判断する(S213:
NO)。そこで、図7に示すように、CPU100は、第3処理手順に従って、連結画面
を形成し、第2プログラムからの出力に基づく画像を連結画面に表示する(S215)。
<その他の実施形態>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
上記実施形態では、図5(b)に示すように、2つの画面を連結する前に各画面に表示されていた画像を組み合わせて、組み合わせた画像を新たに形成した1つの連結画面に表示した。これに対し、2つの画面を連結する前に各画面に表示されていた画像とは異なる画像を連結画面に表示することもできる。たとえば、図9に示すように、操作を表わした複数のアイコンの画像を含む操作メニューの連結画面を各表示面11a1、21a1に表示する。なお、アイコンに割り当てられる操作の機能は、予め定められていてもよいし、ユーザが任意に設定できるようにしてもよい。また、操作メニューを表わす連結画面と共に操作メニューを表示する前の第1画面および第2画面の両方または一方を見えるように表示することもできる。この場合、CPU100は、操作メニューの連結画面を半透明に表示し、半透明な連結画面を通して第1画面および第2画面が見えるように表示する。
また、上記実施形態では、第1表示面11a1に表示される第1画面と第2表示面21a1に表示される第2画面とを連結し、1つの連結画面を各表示面11a1、21a1に表示した。これに対し、所定の操作に応じて、2つの画面を連結した1つの連結画面を第1画面および第2画面に戻して、第1画面を第1表示面11a1に表示し、第2画面を第2表示面21a1に表示することもできる。なお、所定の操作は、タッチ動作などの上記操作と、2つのキャビネット10、20が重ねられることにより携帯電話機1が畳まれる操作とを含む。
上記実施形態では、第1プログラムおよび第2プログラムともに写真の画像を表示する同じ種類のプログラムであったが、各画面に表示する情報を制御するプログラムは別の種類のプログラムであってもよい。たとえば、2つの画面の内の一方の画面には画像を表示するプログラムの出力情報を表示し、他方の画面には動画を再生するプログラムの出力情報を表示することもできる。また、2つの画面の内の一方の画面にはアドレス帳を表示するプログラムの出力情報を表示し、他方の画面にはweb画面を表示するプログラムの出力情報を表示することもできる。
さらに、上記実施形態では、スライド式の携帯電話機1を用いた。この携帯電話機1では、第1表示面11a1が外部に現れる第1状態から、2つのキャビネット10、20をスライドさせることにより、2つの表示面11a1、21a1が外部に現れる第2状態に移行させた。これに対し、折り畳み式など、これ以外の形式の携帯電話機1を用いることもできる。この場合、2つの表示面を向き合わせて重ね、2つの表示面が外部から見えない状態から、2つのキャビネット開くことにより、2つの表示面が隣り合って外部に現れる状態になる。
また、本実施形態では、携帯電話機1を用いたが、PDAや携帯ゲーム機などの携帯端末装置を用いることもできる。
また、上記実施形態では、タッチ動作の後に続く動作として、スライド動作やリリース動作を検出したが、これ以外の動作を検出することもできる。たとえば、表示面11a1、21a1に対して同時にフリック動作を行うことにより、各表示面11a1、21a1に表示される情報の変更や操作メニュー画面の表示などを行うこともできる。また、各表示面11a1、21a1のそれぞれに対して別の動作を同時に行うことにより、各表示面11a1、21a1に表示される情報の変更などを行うこともできる。なお、「フリック動作」とは、各表示面11a1、21a1の表面に接触部材を接触したまま、所定時間(たとえば、50ms)以内に所定距離(たとえば、50ピクセル)以上、接触部材を動かし、即ち、接触部材を弾くように素早く各表示面11a1、21a1からリリースする動作を言う。また、ロングタッチ動作、スライド動作およびフリック動作は、接触部材により各表示面11a1、21a1を接触する動作であり、タッチ動作と言うこともできる。
この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。たとえば、上記実施形態の一部または全部を組み合わせることができる。
1 携帯電話機
11 第1ディスプレイ
12 第1タッチセンサ
21 第2ディスプレイ
22 第2タッチセンサ
100 CPU
200 メモリ

Claims (7)

  1. 第1表示部と、
    第2表示部と、
    前記第1表示部および前記第2表示部の表示を制御する表示制御部と、
    前記第1表示部に重ねて配置され、入力を検出する第1検出部と、
    前記第2表示部に重ねて配置され、入力を検出する第2検出部と、
    前記第1検出部の検出結果に対応する第1処理および前記第2検出部の検出結果に対応する第2処理の他、前記第1検出部の検出結果と前記第2検出部の検出結果との特定の組合せに対応する第3処理を記憶する記憶部と、
    前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第1、第2および前記第3処理に対応する検出結果のいずれに一致するか否かを判断する判断部を備え
    前記表示制御部は、前記第1表示部に複数の写真を含む第1の画面を表示するとともに、前記第2表示部に前記複数の写真よりサイズの大きな第1の写真を含む第2の画面を表示し、
    前記第1表示部に前記第1の画面が表示され、前記第2表示部に前記第2画面が表示されている状態において、
    前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、
    前記表示制御部は、前記第3処理に従って、前記第1の写真よりサイズの大きな第2の写真と前記複数の写真のうち一部の写真とを含む第3の画面を前記第1表示部および前記第2表示部に表示する、
    ことを特徴とする携帯端末装置。
  2. 請求項1に記載の携帯端末装置において、
    前記第1検出部は、入力された位置を検出し、
    前記第2検出部は、入力された位置を検出し、
    前記特定の組合せは、前記第1検出部および前記第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出した後、前記第1検出部および前記第2検出部の少なくともいずれか一方の検出部が前記位置の変化を検出する態様を含む、
    ことを特徴とする携帯端末装置。
  3. 請求項1に記載の携帯端末装置において、
    前記特定の組合せは、前記第1検出部および前記第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出した後、さらに所定の第2時間の経過後に前記第1検出部および前記第2検出部が同時にまたは異なるタイミングで前記入力がなくなったこと検出する態様を含む、
    ことを特徴とする携帯端末装置。
  4. 請求項に記載の携帯端末装置において、
    前記特定の組合せは、前記第1検出部および前記第2検出部のいずれか一方の検出部が前記入力を検出してから所定の第1時間以内に他方の検出部が入力を検出する態様を含む、
    ことを特徴とする携帯端末装置。
  5. 請求項1ないし4のいずれか一項に記載の携帯端末装置において、
    前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、
    前記表示制御部は、前記第3処理に従って、前記第1表示部に表示される画面の画像と前記第2表示部に表示される画面の画像とを入れ替える、
    ことを特徴とする携帯端末装置。
  6. 請求項1ないしのいずれか一項に記載の携帯端末装置において、
    前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、
    前記表示制御部は、前記第3処理に従って、前記第1表示部および前記第2表示部のいずれか一方に表示されていた画面を前記第1表示部および前記第2表示部に表示する、
    ことを特徴とする携帯端末装置。
  7. 請求項1ないしのいずれか一項に記載の携帯端末装置において、
    前記判断部が、前記第1検出部の検出結果および前記第2検出部の検出結果が、前記記憶部に記憶される前記第3処理に対応する検出結果に一致すると判断した場合、
    前記表示制御部は、前記第3処理に従って、当該携帯端末装置に備えられた所定の機能を選択するための画面を前記第1表示部および前記第2表示部に表示する、
    ことを特徴とする携帯端末装置。
JP2010236102A 2010-10-21 2010-10-21 携帯端末装置 Active JP5629180B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010236102A JP5629180B2 (ja) 2010-10-21 2010-10-21 携帯端末装置
US13/278,133 US20120098773A1 (en) 2010-10-21 2011-10-20 Mobile electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010236102A JP5629180B2 (ja) 2010-10-21 2010-10-21 携帯端末装置

Publications (2)

Publication Number Publication Date
JP2012088985A JP2012088985A (ja) 2012-05-10
JP5629180B2 true JP5629180B2 (ja) 2014-11-19

Family

ID=45972598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010236102A Active JP5629180B2 (ja) 2010-10-21 2010-10-21 携帯端末装置

Country Status (2)

Country Link
US (1) US20120098773A1 (ja)
JP (1) JP5629180B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5815275B2 (ja) * 2011-04-26 2015-11-17 京セラ株式会社 携帯端末装置およびプログラム
JP5805428B2 (ja) 2011-04-26 2015-11-04 京セラ株式会社 携帯端末装置およびプログラム
CN103049205A (zh) * 2012-12-19 2013-04-17 东莞宇龙通信科技有限公司 移动终端和移动终端的操控方法
JP6047822B2 (ja) * 2013-03-14 2016-12-21 シャープ株式会社 情報処理装置、情報処理方法及びプログラム
CN105320417B (zh) * 2014-07-25 2020-09-11 腾讯科技(深圳)有限公司 页面切换方法及客户端
CN106982273B (zh) * 2017-03-31 2020-03-31 努比亚技术有限公司 移动终端及其控制方法
CN107908982A (zh) * 2017-11-29 2018-04-13 合肥联宝信息技术有限公司 一种信息处理方法和电子设备
CN108600428B (zh) * 2018-04-02 2021-03-16 京东方科技集团股份有限公司 一种显示设备
CN113031894B (zh) * 2021-03-22 2024-05-24 维沃移动通信有限公司 折叠屏显示方法、装置、电子设备和存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003158573A (ja) * 2001-11-21 2003-05-30 Canon Inc 折り畳み式装置及びその制御方法
JP2006053678A (ja) * 2004-08-10 2006-02-23 Toshiba Corp ユニバーサルヒューマンインタフェースを有する電子機器
JP5092255B2 (ja) * 2006-03-09 2012-12-05 カシオ計算機株式会社 表示装置
JP5344555B2 (ja) * 2008-10-08 2013-11-20 シャープ株式会社 オブジェクト表示装置、オブジェクト表示方法、およびオブジェクト表示プログラム
JP5319311B2 (ja) * 2009-01-21 2013-10-16 任天堂株式会社 表示制御プログラムおよび表示制御装置
JP2010176332A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101608748B1 (ko) * 2009-02-18 2016-04-21 삼성전자주식회사 탈부착 가능한 서브 디스플레이부를 구비하는 휴대 단말기
JP5157971B2 (ja) * 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5229083B2 (ja) * 2009-04-14 2013-07-03 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5606686B2 (ja) * 2009-04-14 2014-10-15 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8355007B2 (en) * 2009-05-11 2013-01-15 Adobe Systems Incorporated Methods for use with multi-touch displays for determining when a touch is processed as a mouse event
KR101842906B1 (ko) * 2011-02-10 2018-05-15 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면 변경방법
KR20120091975A (ko) * 2011-02-10 2012-08-20 삼성전자주식회사 적어도 두 개의 터치 스크린을 포함하는 정보 표시 장치 및 그의 정보 표시 방법
US8842057B2 (en) * 2011-09-27 2014-09-23 Z124 Detail on triggers: transitional states

Also Published As

Publication number Publication date
JP2012088985A (ja) 2012-05-10
US20120098773A1 (en) 2012-04-26

Similar Documents

Publication Publication Date Title
JP5629180B2 (ja) 携帯端末装置
JP4824805B2 (ja) 携帯端末装置
JP5661311B2 (ja) 携帯端末装置
JP5885185B2 (ja) 携帯端末装置
JP5661499B2 (ja) 携帯端末装置
JP5455557B2 (ja) 携帯端末装置
JP5580227B2 (ja) 携帯端末装置
JP5722547B2 (ja) 携帯端末装置
TW200917186A (en) Input device, storage medium, information input method, and electronic apparatus
JP5709603B2 (ja) 携帯端末装置、プログラムおよび表示方法
JP5693305B2 (ja) 携帯端末装置
JP5754770B2 (ja) 携帯端末装置、プログラムおよび表示方法
JP5660868B2 (ja) 携帯端末装置
JP5306430B2 (ja) 携帯端末装置
JP5467064B2 (ja) 携帯端末装置
JP5723631B2 (ja) 携帯端末装置
JP5693696B2 (ja) 携帯端末装置
JP5749115B2 (ja) 携帯端末装置、プログラムおよび電子文書作成方法
JP5661511B2 (ja) 携帯端末装置
JP5926418B2 (ja) 携帯端末装置
JP2015084548A (ja) 携帯端末装置
JP2014219996A (ja) 携帯端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141003

R150 Certificate of patent or registration of utility model

Ref document number: 5629180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150