JPWO2013118522A1 - 携帯端末及びその動作方法 - Google Patents

携帯端末及びその動作方法 Download PDF

Info

Publication number
JPWO2013118522A1
JPWO2013118522A1 JP2013557438A JP2013557438A JPWO2013118522A1 JP WO2013118522 A1 JPWO2013118522 A1 JP WO2013118522A1 JP 2013557438 A JP2013557438 A JP 2013557438A JP 2013557438 A JP2013557438 A JP 2013557438A JP WO2013118522 A1 JPWO2013118522 A1 JP WO2013118522A1
Authority
JP
Japan
Prior art keywords
contact operation
contact
mobile terminal
unit
performs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013557438A
Other languages
English (en)
Inventor
真一 板本
真一 板本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2013557438A priority Critical patent/JPWO2013118522A1/ja
Publication of JPWO2013118522A1 publication Critical patent/JPWO2013118522A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

筐体2の両面のそれぞれにタッチパネル10a,10bを有する携帯端末1において、タッチパネル10a,10bにて接触操作が同時に行われた場合、その接触操作の組み合わせに応じた動作を実行する。

Description

本発明は、携帯端末及びその動作方法に関し、特に、タッチパネルを用いて操作される携帯端末及びその動作方法に関する。
近年、携帯端末としてスマートフォンの普及が著しい。スマートフォンは、情報表示面に対する接触操作を検知することによって動作するものであり、それにより、情報表示面の面積を広くすることができ、視認性の向上や情報量の拡大が図られる。
ここで、携帯端末の一方の面を情報表示面とするとともに、携帯端末の両面にそれぞれタッチセンサーを設け、携帯端末両面のタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択する技術が、特許文献1に開示されている。
特開2007−141029号公報
上述したように、特許文献1に開示された技術においては、携帯端末の両面においてタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択するものであるため、携帯端末を片手で持った場合に2本の指を用いて情報を選択することができるものの、情報表示面に表示された情報に従って指を動かすことになり、通常のタッチパネルを用いた操作方法であることに何ら変わりはない。
本発明は、上述したような技術が有する問題点に鑑みてなされたものであって、接触操作に応じた入力が行われる携帯端末に対して日常的な動作に応じた操作を行うことができる携帯端末及びその動作方法を提供することを目的とする。
上記目的を達成するために本発明による第1の携帯端末は、
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
また、本発明による第2の携帯端末は、
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
また、本発明による第1の動作方法は、
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
また、本発明による第2の動作方法は、
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
本発明は、接触操作に応じた入力が行われる携帯端末に対して、仮想的な対象(例えば、アイコン、データ、表示されない情報等)をつまむ、置く等といった日常的な動作に応じた操作を行うことができる。
本発明の携帯端末の実施の一形態を示す図であり、(a)は一方の面側から見た外観斜視図、(b)は他方の面から見た外観斜視図である。 図1に示した携帯端末の内部構成の一例を示すブロック図である。 図1及び図2に示した携帯端末の動作方法の一例を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 図3に示した動作方法において、タッチパネルに対する接触操作がタッチパネルの端部を通過するものである場合の携帯端末の動作方法を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 図1に示した携帯端末の内部構成の他の例を示すブロック図である。 図7に示した構成を有する携帯端末の動作方法の一例を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。 図10に示した携帯端末の内部構成の一例を示すブロック図である。 図10及び図11に示した構成を有する携帯端末の動作方法の一例を説明するためのフローチャートである。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の携帯端末の実施の一形態を示す図であり、(a)は一方の面側から見た外観斜視図、(b)は他方の面から見た外観斜視図である。また、図2は、図1に示した携帯端末1の内部構成の一例を示すブロック図である。
本形態は図1及び図2に示すように、平板状の筐体2の第1の面となる一方の面に、タッチパネル10a、ディスプレイ20、スピーカ30及びマイク40が設けられているとともに、筐体2の第1の面に対向する第2の面にタッチパネル10bが設けられて構成されている。また、筐体2の側面にはサイドキー50が設けられている。
ディスプレイ20は、液晶等から構成されて情報表示部21となり、CPU80の制御によって情報を表示する。
タッチパネル10aは、ディスプレイ20上に設けられており、第1の接触操作部11aとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
スピーカ30は、音声出力部31となって、CPU80の制御によって、通信部60を介して受信した通話音声を含む音声を出力する。
マイク40は、音声入力部41となって、音声が入力されるものである。
タッチパネル10bは、第2の接触操作部11bとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
サイドキー50は、キーボタン部51となって、携帯端末1を操作するための情報が入力されるものである。
通信部60は、携帯端末網を介して情報を送受信する。
操作検出部12は、接触操作部11a,11bに対して行われた接触操作による操作を判断し、CPU80に対してその操作に応じた入力を行う。
鳴動部70は、ブザー等からなり、着信音等の音声を出力する。
CPU80は、メモリ(不図示)を内蔵し、携帯端末1全体を制御するものであって、操作検出部12にて行われた入力に応じた動作を実行する。なお、このCPU80と操作検出部12とから本発明における制御手段が構成される。
以下に、上記のように構成された携帯端末1の動作方法について説明する。
図3は、図1及び図2に示した携帯端末1の動作方法の一例を説明するためのフローチャートである。
図1及び図2に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ1)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ2)、操作検出部12において、接触操作部11a,11bにて検知された操作が判断され、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いているかどうかが判断される(ステップ3)。なお、互いに対向するような軌跡とは、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが正確に対向した位置及び軌跡であるものに限らず、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが互いに対向する位置及び軌跡に対して若干ずれているものも含む。
タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いている場合、操作検出部12において、その接触操作による軌跡が、タッチパネル10a,10bの内側から外側に向かうものであるかどうかが判断される(ステップ4)。
タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1をつまみ上げる、またはピックアップすることが想到できるような動作が実行される(ステップ5)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像が拡大表示される。
また、タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1を置く、または押さえることが想到できるような動作が実行される(ステップ6)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像に対して、クリッピングやキャプチャが実行される。
また、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いていない場合は、操作検出部12において、タッチパネル10aに対する接触操作の軌跡と、タッチパネル10bに対する接触操作の軌跡とが、それぞれ予め決められた軌跡を描いているかどうかが判断され(ステップ7)、予め決められた軌跡を描いている場合は、CPU80の制御によって、その軌跡に応じた動作が実行される(ステップ8)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対してタッチパネル10a,10bに接触した状態から、タッチパネル10aに対しては上側から下側に向かってフリックし、タッチパネル10bに対しては下側から上側に向かってフリックすると、その画像が消去される。また、ブラウザが起動する動作等であってもよい。
図4は、図1に示した携帯端末1に対する接触操作の例を示す図である。
図4(a)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、上述したように、携帯端末1をつまみ上げることが想到できるような動作が実行される。
また、図4(b)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、上述したように、携帯端末1を置くことが想到できるような動作が実行される。
また、図4(c)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10aにおいては親指3によって上側から下側に向かってフリックするようなものであり、タッチパネル10bにおいては人差し指4によって下側から上側に向かってフリックするようなものである場合は、上述したように、その軌跡に応じて決められた動作が実行される。
なお、上述したように、接触操作の軌跡の始点に表示された画像に対する処理を行うのではなく、接触操作の軌跡の終点に表示された画像に対する処理を行ってもよい。
また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ9)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
なお、ステップ5において、タッチパネル10a,10bに対する接触操作の軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものであると判断された場合に、その後のタッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過したかどうかによって携帯端末1の動作を制御することも考えられる。
図5は、図3に示した動作方法において、タッチパネル10a,10bに対する接触操作がタッチパネル10a,10bの端部を通過するものである場合の携帯端末1の動作方法を説明するためのフローチャートである。
タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものであって、タッチパネル10a,10bの端部を通過したことが操作検出部12にて判断された場合は(ステップ11)、操作検出部12において、接触操作によって通過した端部がタッチパネル10a,10bそれぞれの4つの端部のうちどの端部であるかが判断され(ステップ12)、CPU80の制御によって、接触操作によって通過した端部に応じた動作が実行される(ステップ13)。
図6は、図1に示した携帯端末1に対する接触操作の例を示す図である。
例えば、ブラウザ使用時に、図6に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10a,10bの上辺端部を通過した場合、ディスプレイ20に表示されているオブジェクト・ページのURLを電子メールで送信したり、引用して投稿したりする動作を実行する。
また、タッチパネル10a,10bのそれぞれには、4つの端部が存在するため、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの左右いずれかの辺端部を通過した場合は、ブックマーク登録を行い、下辺端部を通過した場合は、そのオブジェクトデータの保存を行なうというように、接触操作の軌跡が通過する端部によって実行する動作を設定しておけば、タッチパネル10a,10bの通過する端部に応じて実行する動作を異ならせることができる。
また、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過しない場合は、ステップ5における処理に移行する。
図7は、図1に示した携帯端末1の内部構成の他の例を示すブロック図である。
本例は図7に示すように、図2に示したものに対して傾き検知部90が新たに設けられている点が異なるものである。傾き検知部90は、携帯端末1の傾きを検知するものであって、加速度センサを用いて地球の重力加速度を計測することによって携帯端末1の傾きを検知する。
以下に、上記のように構成された携帯端末1の動作方法について説明する。
図8は、図7に示した構成を有する携帯端末1の動作方法の一例を説明するためのフローチャートである。
図1に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ21)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ22)、操作検出部12において、接触操作部11a,11bにて検知された接触操作による接触位置が判断され、タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置であるかどうかが判断される(ステップ23)。
タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置である場合、CPU80において、傾き検知部90にて検知された携帯端末1の傾きに変化が生じているかどうかが判断される(ステップ24)。
傾き検知部90にて検知された携帯端末1の傾きに変化が生じている場合は、CPU80の制御によって、携帯端末1の動作のうち、鍵をかけることが想到できるような動作が実行される(ステップ25)。例えば、傾き検知部90にて検知された携帯端末1の傾きが90度以上変化している場合、携帯端末1の操作を禁止とするロックモードに移行する。
図9は、図1に示した携帯端末1に対する接触操作の例を示す図である。
図9に示すように、親指3によるタッチパネル10aの接触位置と、人差し指4によるタッチパネル10bの接触位置とが互いに対向した状態において、携帯端末1を90度以上回転させると、上述したように、携帯端末1の操作を禁止とするロックモードに移行する。
また、傾き検知部90にて検知された携帯端末1の傾きに変化が生じていない場合は、CPU80の制御によって、タッチパネル10a,10bにおける接触位置に応じた動作が実行される(ステップ26)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ27)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
なお、加速度センサを傾き検知部90として用いるのではなく、加速度検知手段として用い、CPU80において、加速度センサにて検知された加速度の大きさ及び向きに応じて予め決められた動作を実行してもよい。
(他の実施の形態)
図10は、本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。また、図11は、図10に示した携帯端末101の内部構成の一例を示すブロック図である。
本形態は図10及び図11に示すように、平板状の2つの筐体102a,102bが折り畳み可能に連接したものであって、筐体102a,102bのそれぞれにおいて、折り畳み状態外側となる面にディスプレイ120a,120b及びタッチパネル110a,110bが設けられて構成されている。また、筐体102aのディスプレイ120a及びタッチパネル110aが設けられた面には、スピーカ130及びマイク140が設けられており、筐体102bの側面にはサイドキー150が設けられている。
これらタッチパネル110a,110b、ディスプレイ120a,120b、スピーカ130、マイク140及びサイドキー150と、これらによって構成される接触操作部111a,111b、情報表示部121a,121b、音声出力部131、音声入力部141及びキーボタン部151、さらに、携帯端末101内の操作検出部112、通信部160、鳴動部170及びCPU180は、図1及び図2に示したものと同様の動作を実行する。
以下に、上記のように構成された携帯端末101の動作方法について説明する。
図12は、図10及び図11に示した構成を有する携帯端末101の動作方法の一例を説明するためのフローチャートである。
図10に示した携帯端末101において、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知され(ステップ31)、同時に、タッチパネル110bに対しても接触操作が行われて接触操作部111bにて接触操作が検知されると(ステップ32)、CPU180において、携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態であるかどうかが判断される(ステップ33)。
携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態である場合、ステップ3における処理に移行する。
また、携帯端末101が図1(a)に示したように折り畳まれていない状態である場合は、CPU180の制御によって、タッチパネル110a,110bに対する接触操作に応じた動作が実行される(ステップ34)。なお、この動作は、ステップ3における動作とは異なり、それにより、タッチパネル110a,110bのそれぞれに対して接触操作が行われている場合に、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることになる。
このように、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることで、携帯端末101が図1(b)に示したように折り畳まれていない状態においては、タップ、ダブルタップ、フリック、ドラッグ、ピンチイン/アウト等の基本操作に応じた動作を実行し、携帯端末101が図1(a)に示したように折り畳まれた状態においては、本願発明のように、日常的な動作に応じた操作を実行することができる。
また、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知されたものの、タッチパネル110bに対しては接触操作が行われずに接触操作部111bにて接触操作が検知されなかった場合は、CPU180の制御によって、タッチパネル110aに対する接触操作に応じた動作が実行されることになる(ステップ35)。例えば、ディスプレイ120a上の接触位置に表示された情報に応じた動作が実行される。
なお、上述したようにCPU80,180が実行する動作としては、ブラウザ使用時のブックマーク登録、電子書籍使用時のしおり挿入、データ閲覧時のクリップボード登録及びデータ保存、画面のキャプチャ、動画閲覧時の保存(録画)の開始・終了、データのステータス変更(未承認→承認済み等)等が考えられる。さらには、新着メッセージ受信、ウェブ上の状態情報更新、通信手段(WLAN、Bluetooth等)の切り替え・On/Off、通話のオフフック・保留・オンフック、マナーモード設定等が考えられる。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
この出願は、2012年2月8日に出願された日本出願特願2012−024924号公報を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1,101 携帯端末
2,102a,102b筐体
3 親指
4 人差し指
10a,10b,110a,110b タッチパネル
11a,11b,111a,111b 接触操作部
12,112 操作検出部
13 端部
20,120a,120b ディスプレイ
21,121a,121b 情報表示部
30,130 スピーカ
31,131 音声出力部
40,140 マイク
41,141 音声入力部
50,150 サイドキー
51,151 キーボタン部
60,160 通信部
70,170 鳴動部
80,180 CPU
90 傾き検知部

Claims (9)

  1. 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
    前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。
  2. 請求項1に記載の携帯端末において、
    前記制御手段は、前記第1の接触操作部に対する接触操作と前記第2の接触操作部に対する接触操作とが互いに対向するような軌跡を描いた場合、当該軌跡に応じた動作を実行する携帯端末。
  3. 請求項2に記載の携帯端末において、
    前記制御手段は、前記接触操作の軌跡が、前記第1及び第2の接触操作部のそれぞれの端部を通過した場合、当該通過した端部に応じて予め決められた動作を実行する携帯端末。
  4. 請求項1に記載の携帯端末において、
    前記携帯端末の傾きを検知する傾き検知手段を有し、
    前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記傾き検知手段にて検知された前記携帯端末の傾きに変化が生じた場合に、当該傾きの変化に応じて予め決められた動作を実行する携帯端末。
  5. 請求項1に記載の携帯端末において、
    前記携帯端末に加わる加速度を検知する加速度検知手段を有し、
    前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記加速度検知手段にて前記携帯端末に加わる加速度が検知された場合に、当該加速度の大きさ及び向きに応じて予め決められた動作を実行する携帯端末。
  6. 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
    前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。
  7. 請求項6に記載の携帯端末において、
    前記制御手段は、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、前記2つの筐体が折り畳まれていない状態と、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態とで、異なる動作を実行する携帯端末。
  8. 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
    前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。
  9. 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
    前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。
JP2013557438A 2012-02-08 2013-01-09 携帯端末及びその動作方法 Pending JPWO2013118522A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013557438A JPWO2013118522A1 (ja) 2012-02-08 2013-01-09 携帯端末及びその動作方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012024924 2012-02-08
JP2012024924 2012-02-08
JP2013557438A JPWO2013118522A1 (ja) 2012-02-08 2013-01-09 携帯端末及びその動作方法

Publications (1)

Publication Number Publication Date
JPWO2013118522A1 true JPWO2013118522A1 (ja) 2015-05-11

Family

ID=48947291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557438A Pending JPWO2013118522A1 (ja) 2012-02-08 2013-01-09 携帯端末及びその動作方法

Country Status (4)

Country Link
US (1) US9411449B2 (ja)
EP (2) EP2813937A4 (ja)
JP (1) JPWO2013118522A1 (ja)
WO (1) WO2013118522A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11278237B2 (en) 2010-04-22 2022-03-22 Leaf Healthcare, Inc. Devices, systems, and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
JP6192032B2 (ja) 2010-04-22 2017-09-06 リーフ ヘルスケア インコーポレイテッド 患者の生理学的状況をモニタリングするシステム
US11272860B2 (en) * 2010-04-22 2022-03-15 Leaf Healthcare, Inc. Sensor device with a selectively activatable display
US11051751B2 (en) 2010-04-22 2021-07-06 Leaf Healthcare, Inc. Calibrated systems, devices and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
US11980449B2 (en) 2010-04-22 2024-05-14 Leaf Healthcare, Inc. Systems and methods for monitoring orientation and biometric data using acceleration data
US11369309B2 (en) 2010-04-22 2022-06-28 Leaf Healthcare, Inc. Systems and methods for managing a position management protocol based on detected inclination angle of a person
US10758162B2 (en) 2010-04-22 2020-09-01 Leaf Healthcare, Inc. Systems, devices and methods for analyzing a person status based at least on a detected orientation of the person
KR102034584B1 (ko) * 2013-06-20 2019-10-21 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
KR102156642B1 (ko) * 2013-07-30 2020-09-16 삼성전자 주식회사 휴대단말기의 락 또는 언락 제어 방법 및 장치
JP5850895B2 (ja) * 2013-09-20 2016-02-03 ヤフー株式会社 検索システム、検索方法、端末装置および検索プログラム
JP2015070303A (ja) * 2013-09-26 2015-04-13 京セラ株式会社 表示装置
US20160342280A1 (en) * 2014-01-28 2016-11-24 Sony Corporation Information processing apparatus, information processing method, and program
KR102318227B1 (ko) * 2015-01-16 2021-10-27 삼성전자주식회사 정보 표시 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010009575A (ja) * 2008-05-30 2010-01-14 Canon Inc 画像表示装置及びその制御方法、コンピュータプログラム
JP2010109552A (ja) * 2008-10-29 2010-05-13 Kyocera Corp 携帯機器、操作検出方法および操作検出プログラム
JP2010252197A (ja) * 2009-04-17 2010-11-04 Toshiba Corp 携帯端末
JP2010257259A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 携帯端末装置
JP2011237838A (ja) * 2010-04-30 2011-11-24 Sony Computer Entertainment Inc プログラム、情報入力装置、及びその制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337659A (ja) * 2002-05-20 2003-11-28 Sharp Corp 入力装置およびタッチ領域登録方法
JP2007141029A (ja) 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd 携帯情報装置
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
US8933874B2 (en) * 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
US8797279B2 (en) * 2010-05-25 2014-08-05 MCube Inc. Analog touchscreen methods and apparatus
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
US20110209098A1 (en) 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010009575A (ja) * 2008-05-30 2010-01-14 Canon Inc 画像表示装置及びその制御方法、コンピュータプログラム
JP2010109552A (ja) * 2008-10-29 2010-05-13 Kyocera Corp 携帯機器、操作検出方法および操作検出プログラム
JP2010252197A (ja) * 2009-04-17 2010-11-04 Toshiba Corp 携帯端末
JP2010257259A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 携帯端末装置
JP2011237838A (ja) * 2010-04-30 2011-11-24 Sony Computer Entertainment Inc プログラム、情報入力装置、及びその制御方法

Also Published As

Publication number Publication date
US20150011263A1 (en) 2015-01-08
US9411449B2 (en) 2016-08-09
WO2013118522A1 (ja) 2013-08-15
EP3082032A1 (en) 2016-10-19
EP2813937A4 (en) 2016-01-20
EP2813937A1 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
WO2013118522A1 (ja) 携帯端末及びその動作方法
JP5905220B2 (ja) タッチスクリーン端末機におけるメモ方法及び端末機
US8786562B2 (en) Mobile electronic device, control method, and storage medium storing control program
JP4959765B2 (ja) 携帯端末装置
KR101331346B1 (ko) 전자기기
JP5894499B2 (ja) 携帯電子機器及び入力方法
US20180059891A1 (en) Apparatus and method for providing a visual transition between screens
JP5823400B2 (ja) 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機
JP5681867B2 (ja) 携帯端末および表示方法
CN108509105B (zh) 一种应用程序管理方法和终端
JP2011028603A (ja) 端末装置及びプログラム
KR20110028650A (ko) 사용자 인터페이스, 기능 실행 방법, 컴퓨터 판독가능한 매체 및 디바이스
JP5814821B2 (ja) 携帯端末装置、プログラムおよび画面制御方法
JP2012174250A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP5531962B2 (ja) 携帯端末装置及びそれに用いる画像表示方法並びにそのプログラム
WO2013176242A1 (ja) タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法
JP5594652B2 (ja) 携帯情報端末及びそのキー配置変更方法
JP2012174247A (ja) 携帯電子機器、接触操作制御方法および接触操作制御プログラム
WO2011093409A1 (ja) 携帯端末装置及び表示制御方法
JP2010271979A (ja) 携帯端末
KR20220045220A (ko) 아이콘 표시 방법 및 단말
JP6213467B2 (ja) 端末装置、表示制御方法およびプログラム
WO2014045765A1 (ja) 携帯端末、その制御方法及びプログラム
KR20120036212A (ko) 이동 단말기의 화면 조작 방법
JP2015012340A (ja) 携帯電子機器

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170307