JPWO2013118522A1 - 携帯端末及びその動作方法 - Google Patents
携帯端末及びその動作方法 Download PDFInfo
- Publication number
- JPWO2013118522A1 JPWO2013118522A1 JP2013557438A JP2013557438A JPWO2013118522A1 JP WO2013118522 A1 JPWO2013118522 A1 JP WO2013118522A1 JP 2013557438 A JP2013557438 A JP 2013557438A JP 2013557438 A JP2013557438 A JP 2013557438A JP WO2013118522 A1 JPWO2013118522 A1 JP WO2013118522A1
- Authority
- JP
- Japan
- Prior art keywords
- contact operation
- contact
- mobile terminal
- unit
- performs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1616—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1647—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
- G06F1/1649—Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
- G06F1/1692—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0266—Details of the structure or mounting of specific components for a display module assembly
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/16—Details of telephonic subscriber devices including more than one display unit
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/22—Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
筐体2の両面のそれぞれにタッチパネル10a,10bを有する携帯端末1において、タッチパネル10a,10bにて接触操作が同時に行われた場合、その接触操作の組み合わせに応じた動作を実行する。
Description
本発明は、携帯端末及びその動作方法に関し、特に、タッチパネルを用いて操作される携帯端末及びその動作方法に関する。
近年、携帯端末としてスマートフォンの普及が著しい。スマートフォンは、情報表示面に対する接触操作を検知することによって動作するものであり、それにより、情報表示面の面積を広くすることができ、視認性の向上や情報量の拡大が図られる。
ここで、携帯端末の一方の面を情報表示面とするとともに、携帯端末の両面にそれぞれタッチセンサーを設け、携帯端末両面のタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択する技術が、特許文献1に開示されている。
上述したように、特許文献1に開示された技術においては、携帯端末の両面においてタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択するものであるため、携帯端末を片手で持った場合に2本の指を用いて情報を選択することができるものの、情報表示面に表示された情報に従って指を動かすことになり、通常のタッチパネルを用いた操作方法であることに何ら変わりはない。
本発明は、上述したような技術が有する問題点に鑑みてなされたものであって、接触操作に応じた入力が行われる携帯端末に対して日常的な動作に応じた操作を行うことができる携帯端末及びその動作方法を提供することを目的とする。
上記目的を達成するために本発明による第1の携帯端末は、
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
また、本発明による第2の携帯端末は、
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
また、本発明による第1の動作方法は、
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
また、本発明による第2の動作方法は、
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
本発明は、接触操作に応じた入力が行われる携帯端末に対して、仮想的な対象(例えば、アイコン、データ、表示されない情報等)をつまむ、置く等といった日常的な動作に応じた操作を行うことができる。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の携帯端末の実施の一形態を示す図であり、(a)は一方の面側から見た外観斜視図、(b)は他方の面から見た外観斜視図である。また、図2は、図1に示した携帯端末1の内部構成の一例を示すブロック図である。
本形態は図1及び図2に示すように、平板状の筐体2の第1の面となる一方の面に、タッチパネル10a、ディスプレイ20、スピーカ30及びマイク40が設けられているとともに、筐体2の第1の面に対向する第2の面にタッチパネル10bが設けられて構成されている。また、筐体2の側面にはサイドキー50が設けられている。
ディスプレイ20は、液晶等から構成されて情報表示部21となり、CPU80の制御によって情報を表示する。
タッチパネル10aは、ディスプレイ20上に設けられており、第1の接触操作部11aとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
スピーカ30は、音声出力部31となって、CPU80の制御によって、通信部60を介して受信した通話音声を含む音声を出力する。
マイク40は、音声入力部41となって、音声が入力されるものである。
タッチパネル10bは、第2の接触操作部11bとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
サイドキー50は、キーボタン部51となって、携帯端末1を操作するための情報が入力されるものである。
通信部60は、携帯端末網を介して情報を送受信する。
操作検出部12は、接触操作部11a,11bに対して行われた接触操作による操作を判断し、CPU80に対してその操作に応じた入力を行う。
鳴動部70は、ブザー等からなり、着信音等の音声を出力する。
CPU80は、メモリ(不図示)を内蔵し、携帯端末1全体を制御するものであって、操作検出部12にて行われた入力に応じた動作を実行する。なお、このCPU80と操作検出部12とから本発明における制御手段が構成される。
以下に、上記のように構成された携帯端末1の動作方法について説明する。
図3は、図1及び図2に示した携帯端末1の動作方法の一例を説明するためのフローチャートである。
図1及び図2に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ1)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ2)、操作検出部12において、接触操作部11a,11bにて検知された操作が判断され、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いているかどうかが判断される(ステップ3)。なお、互いに対向するような軌跡とは、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが正確に対向した位置及び軌跡であるものに限らず、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが互いに対向する位置及び軌跡に対して若干ずれているものも含む。
タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いている場合、操作検出部12において、その接触操作による軌跡が、タッチパネル10a,10bの内側から外側に向かうものであるかどうかが判断される(ステップ4)。
タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1をつまみ上げる、またはピックアップすることが想到できるような動作が実行される(ステップ5)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像が拡大表示される。
また、タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1を置く、または押さえることが想到できるような動作が実行される(ステップ6)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像に対して、クリッピングやキャプチャが実行される。
また、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いていない場合は、操作検出部12において、タッチパネル10aに対する接触操作の軌跡と、タッチパネル10bに対する接触操作の軌跡とが、それぞれ予め決められた軌跡を描いているかどうかが判断され(ステップ7)、予め決められた軌跡を描いている場合は、CPU80の制御によって、その軌跡に応じた動作が実行される(ステップ8)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対してタッチパネル10a,10bに接触した状態から、タッチパネル10aに対しては上側から下側に向かってフリックし、タッチパネル10bに対しては下側から上側に向かってフリックすると、その画像が消去される。また、ブラウザが起動する動作等であってもよい。
図4は、図1に示した携帯端末1に対する接触操作の例を示す図である。
図4(a)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、上述したように、携帯端末1をつまみ上げることが想到できるような動作が実行される。
また、図4(b)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、上述したように、携帯端末1を置くことが想到できるような動作が実行される。
また、図4(c)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10aにおいては親指3によって上側から下側に向かってフリックするようなものであり、タッチパネル10bにおいては人差し指4によって下側から上側に向かってフリックするようなものである場合は、上述したように、その軌跡に応じて決められた動作が実行される。
なお、上述したように、接触操作の軌跡の始点に表示された画像に対する処理を行うのではなく、接触操作の軌跡の終点に表示された画像に対する処理を行ってもよい。
また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ9)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
なお、ステップ5において、タッチパネル10a,10bに対する接触操作の軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものであると判断された場合に、その後のタッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過したかどうかによって携帯端末1の動作を制御することも考えられる。
図5は、図3に示した動作方法において、タッチパネル10a,10bに対する接触操作がタッチパネル10a,10bの端部を通過するものである場合の携帯端末1の動作方法を説明するためのフローチャートである。
タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものであって、タッチパネル10a,10bの端部を通過したことが操作検出部12にて判断された場合は(ステップ11)、操作検出部12において、接触操作によって通過した端部がタッチパネル10a,10bそれぞれの4つの端部のうちどの端部であるかが判断され(ステップ12)、CPU80の制御によって、接触操作によって通過した端部に応じた動作が実行される(ステップ13)。
図6は、図1に示した携帯端末1に対する接触操作の例を示す図である。
例えば、ブラウザ使用時に、図6に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10a,10bの上辺端部を通過した場合、ディスプレイ20に表示されているオブジェクト・ページのURLを電子メールで送信したり、引用して投稿したりする動作を実行する。
また、タッチパネル10a,10bのそれぞれには、4つの端部が存在するため、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの左右いずれかの辺端部を通過した場合は、ブックマーク登録を行い、下辺端部を通過した場合は、そのオブジェクトデータの保存を行なうというように、接触操作の軌跡が通過する端部によって実行する動作を設定しておけば、タッチパネル10a,10bの通過する端部に応じて実行する動作を異ならせることができる。
また、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過しない場合は、ステップ5における処理に移行する。
図7は、図1に示した携帯端末1の内部構成の他の例を示すブロック図である。
本例は図7に示すように、図2に示したものに対して傾き検知部90が新たに設けられている点が異なるものである。傾き検知部90は、携帯端末1の傾きを検知するものであって、加速度センサを用いて地球の重力加速度を計測することによって携帯端末1の傾きを検知する。
以下に、上記のように構成された携帯端末1の動作方法について説明する。
図8は、図7に示した構成を有する携帯端末1の動作方法の一例を説明するためのフローチャートである。
図1に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ21)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ22)、操作検出部12において、接触操作部11a,11bにて検知された接触操作による接触位置が判断され、タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置であるかどうかが判断される(ステップ23)。
タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置である場合、CPU80において、傾き検知部90にて検知された携帯端末1の傾きに変化が生じているかどうかが判断される(ステップ24)。
傾き検知部90にて検知された携帯端末1の傾きに変化が生じている場合は、CPU80の制御によって、携帯端末1の動作のうち、鍵をかけることが想到できるような動作が実行される(ステップ25)。例えば、傾き検知部90にて検知された携帯端末1の傾きが90度以上変化している場合、携帯端末1の操作を禁止とするロックモードに移行する。
図9は、図1に示した携帯端末1に対する接触操作の例を示す図である。
図9に示すように、親指3によるタッチパネル10aの接触位置と、人差し指4によるタッチパネル10bの接触位置とが互いに対向した状態において、携帯端末1を90度以上回転させると、上述したように、携帯端末1の操作を禁止とするロックモードに移行する。
また、傾き検知部90にて検知された携帯端末1の傾きに変化が生じていない場合は、CPU80の制御によって、タッチパネル10a,10bにおける接触位置に応じた動作が実行される(ステップ26)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ27)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
なお、加速度センサを傾き検知部90として用いるのではなく、加速度検知手段として用い、CPU80において、加速度センサにて検知された加速度の大きさ及び向きに応じて予め決められた動作を実行してもよい。
(他の実施の形態)
図10は、本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。また、図11は、図10に示した携帯端末101の内部構成の一例を示すブロック図である。
図10は、本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。また、図11は、図10に示した携帯端末101の内部構成の一例を示すブロック図である。
本形態は図10及び図11に示すように、平板状の2つの筐体102a,102bが折り畳み可能に連接したものであって、筐体102a,102bのそれぞれにおいて、折り畳み状態外側となる面にディスプレイ120a,120b及びタッチパネル110a,110bが設けられて構成されている。また、筐体102aのディスプレイ120a及びタッチパネル110aが設けられた面には、スピーカ130及びマイク140が設けられており、筐体102bの側面にはサイドキー150が設けられている。
これらタッチパネル110a,110b、ディスプレイ120a,120b、スピーカ130、マイク140及びサイドキー150と、これらによって構成される接触操作部111a,111b、情報表示部121a,121b、音声出力部131、音声入力部141及びキーボタン部151、さらに、携帯端末101内の操作検出部112、通信部160、鳴動部170及びCPU180は、図1及び図2に示したものと同様の動作を実行する。
以下に、上記のように構成された携帯端末101の動作方法について説明する。
図12は、図10及び図11に示した構成を有する携帯端末101の動作方法の一例を説明するためのフローチャートである。
図10に示した携帯端末101において、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知され(ステップ31)、同時に、タッチパネル110bに対しても接触操作が行われて接触操作部111bにて接触操作が検知されると(ステップ32)、CPU180において、携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態であるかどうかが判断される(ステップ33)。
携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態である場合、ステップ3における処理に移行する。
また、携帯端末101が図1(a)に示したように折り畳まれていない状態である場合は、CPU180の制御によって、タッチパネル110a,110bに対する接触操作に応じた動作が実行される(ステップ34)。なお、この動作は、ステップ3における動作とは異なり、それにより、タッチパネル110a,110bのそれぞれに対して接触操作が行われている場合に、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることになる。
このように、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることで、携帯端末101が図1(b)に示したように折り畳まれていない状態においては、タップ、ダブルタップ、フリック、ドラッグ、ピンチイン/アウト等の基本操作に応じた動作を実行し、携帯端末101が図1(a)に示したように折り畳まれた状態においては、本願発明のように、日常的な動作に応じた操作を実行することができる。
また、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知されたものの、タッチパネル110bに対しては接触操作が行われずに接触操作部111bにて接触操作が検知されなかった場合は、CPU180の制御によって、タッチパネル110aに対する接触操作に応じた動作が実行されることになる(ステップ35)。例えば、ディスプレイ120a上の接触位置に表示された情報に応じた動作が実行される。
なお、上述したようにCPU80,180が実行する動作としては、ブラウザ使用時のブックマーク登録、電子書籍使用時のしおり挿入、データ閲覧時のクリップボード登録及びデータ保存、画面のキャプチャ、動画閲覧時の保存(録画)の開始・終了、データのステータス変更(未承認→承認済み等)等が考えられる。さらには、新着メッセージ受信、ウェブ上の状態情報更新、通信手段(WLAN、Bluetooth等)の切り替え・On/Off、通話のオフフック・保留・オンフック、マナーモード設定等が考えられる。
以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
この出願は、2012年2月8日に出願された日本出願特願2012−024924号公報を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1,101 携帯端末
2,102a,102b筐体
3 親指
4 人差し指
10a,10b,110a,110b タッチパネル
11a,11b,111a,111b 接触操作部
12,112 操作検出部
13 端部
20,120a,120b ディスプレイ
21,121a,121b 情報表示部
30,130 スピーカ
31,131 音声出力部
40,140 マイク
41,141 音声入力部
50,150 サイドキー
51,151 キーボタン部
60,160 通信部
70,170 鳴動部
80,180 CPU
90 傾き検知部
2,102a,102b筐体
3 親指
4 人差し指
10a,10b,110a,110b タッチパネル
11a,11b,111a,111b 接触操作部
12,112 操作検出部
13 端部
20,120a,120b ディスプレイ
21,121a,121b 情報表示部
30,130 スピーカ
31,131 音声出力部
40,140 マイク
41,141 音声入力部
50,150 サイドキー
51,151 キーボタン部
60,160 通信部
70,170 鳴動部
80,180 CPU
90 傾き検知部
Claims (9)
- 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。 - 請求項1に記載の携帯端末において、
前記制御手段は、前記第1の接触操作部に対する接触操作と前記第2の接触操作部に対する接触操作とが互いに対向するような軌跡を描いた場合、当該軌跡に応じた動作を実行する携帯端末。 - 請求項2に記載の携帯端末において、
前記制御手段は、前記接触操作の軌跡が、前記第1及び第2の接触操作部のそれぞれの端部を通過した場合、当該通過した端部に応じて予め決められた動作を実行する携帯端末。 - 請求項1に記載の携帯端末において、
前記携帯端末の傾きを検知する傾き検知手段を有し、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記傾き検知手段にて検知された前記携帯端末の傾きに変化が生じた場合に、当該傾きの変化に応じて予め決められた動作を実行する携帯端末。 - 請求項1に記載の携帯端末において、
前記携帯端末に加わる加速度を検知する加速度検知手段を有し、
前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記加速度検知手段にて前記携帯端末に加わる加速度が検知された場合に、当該加速度の大きさ及び向きに応じて予め決められた動作を実行する携帯端末。 - 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。 - 請求項6に記載の携帯端末において、
前記制御手段は、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、前記2つの筐体が折り畳まれていない状態と、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態とで、異なる動作を実行する携帯端末。 - 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。 - 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013557438A JPWO2013118522A1 (ja) | 2012-02-08 | 2013-01-09 | 携帯端末及びその動作方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012024924 | 2012-02-08 | ||
JP2012024924 | 2012-02-08 | ||
JP2013557438A JPWO2013118522A1 (ja) | 2012-02-08 | 2013-01-09 | 携帯端末及びその動作方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2013118522A1 true JPWO2013118522A1 (ja) | 2015-05-11 |
Family
ID=48947291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013557438A Pending JPWO2013118522A1 (ja) | 2012-02-08 | 2013-01-09 | 携帯端末及びその動作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9411449B2 (ja) |
EP (2) | EP2813937A4 (ja) |
JP (1) | JPWO2013118522A1 (ja) |
WO (1) | WO2013118522A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11278237B2 (en) | 2010-04-22 | 2022-03-22 | Leaf Healthcare, Inc. | Devices, systems, and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions |
JP6192032B2 (ja) | 2010-04-22 | 2017-09-06 | リーフ ヘルスケア インコーポレイテッド | 患者の生理学的状況をモニタリングするシステム |
US11272860B2 (en) * | 2010-04-22 | 2022-03-15 | Leaf Healthcare, Inc. | Sensor device with a selectively activatable display |
US11051751B2 (en) | 2010-04-22 | 2021-07-06 | Leaf Healthcare, Inc. | Calibrated systems, devices and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions |
US11980449B2 (en) | 2010-04-22 | 2024-05-14 | Leaf Healthcare, Inc. | Systems and methods for monitoring orientation and biometric data using acceleration data |
US11369309B2 (en) | 2010-04-22 | 2022-06-28 | Leaf Healthcare, Inc. | Systems and methods for managing a position management protocol based on detected inclination angle of a person |
US10758162B2 (en) | 2010-04-22 | 2020-09-01 | Leaf Healthcare, Inc. | Systems, devices and methods for analyzing a person status based at least on a detected orientation of the person |
KR102034584B1 (ko) * | 2013-06-20 | 2019-10-21 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
KR102156642B1 (ko) * | 2013-07-30 | 2020-09-16 | 삼성전자 주식회사 | 휴대단말기의 락 또는 언락 제어 방법 및 장치 |
JP5850895B2 (ja) * | 2013-09-20 | 2016-02-03 | ヤフー株式会社 | 検索システム、検索方法、端末装置および検索プログラム |
JP2015070303A (ja) * | 2013-09-26 | 2015-04-13 | 京セラ株式会社 | 表示装置 |
US20160342280A1 (en) * | 2014-01-28 | 2016-11-24 | Sony Corporation | Information processing apparatus, information processing method, and program |
KR102318227B1 (ko) * | 2015-01-16 | 2021-10-27 | 삼성전자주식회사 | 정보 표시 장치 및 방법 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009187290A (ja) * | 2008-02-06 | 2009-08-20 | Yamaha Corp | タッチパネル付制御装置およびプログラム |
JP2010009575A (ja) * | 2008-05-30 | 2010-01-14 | Canon Inc | 画像表示装置及びその制御方法、コンピュータプログラム |
JP2010109552A (ja) * | 2008-10-29 | 2010-05-13 | Kyocera Corp | 携帯機器、操作検出方法および操作検出プログラム |
JP2010252197A (ja) * | 2009-04-17 | 2010-11-04 | Toshiba Corp | 携帯端末 |
JP2010257259A (ja) * | 2009-04-24 | 2010-11-11 | Kyocera Corp | 携帯端末装置 |
JP2011237838A (ja) * | 2010-04-30 | 2011-11-24 | Sony Computer Entertainment Inc | プログラム、情報入力装置、及びその制御方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003337659A (ja) * | 2002-05-20 | 2003-11-28 | Sharp Corp | 入力装置およびタッチ領域登録方法 |
JP2007141029A (ja) | 2005-11-21 | 2007-06-07 | Matsushita Electric Ind Co Ltd | 携帯情報装置 |
JP4557058B2 (ja) | 2007-12-07 | 2010-10-06 | ソニー株式会社 | 情報表示端末、情報表示方法、およびプログラム |
US8933874B2 (en) * | 2008-09-08 | 2015-01-13 | Patrik N. Lundqvist | Multi-panel electronic device |
US8797279B2 (en) * | 2010-05-25 | 2014-08-05 | MCube Inc. | Analog touchscreen methods and apparatus |
EP2341418A1 (en) * | 2009-12-31 | 2011-07-06 | Sony Computer Entertainment Europe Limited | Device and method of control |
US20110209098A1 (en) | 2010-02-19 | 2011-08-25 | Hinckley Kenneth P | On and Off-Screen Gesture Combinations |
-
2013
- 2013-01-09 JP JP2013557438A patent/JPWO2013118522A1/ja active Pending
- 2013-01-09 WO PCT/JP2013/050172 patent/WO2013118522A1/ja active Application Filing
- 2013-01-09 EP EP13747217.1A patent/EP2813937A4/en not_active Withdrawn
- 2013-01-09 US US14/377,512 patent/US9411449B2/en active Active
- 2013-01-09 EP EP16166543.5A patent/EP3082032A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009187290A (ja) * | 2008-02-06 | 2009-08-20 | Yamaha Corp | タッチパネル付制御装置およびプログラム |
JP2010009575A (ja) * | 2008-05-30 | 2010-01-14 | Canon Inc | 画像表示装置及びその制御方法、コンピュータプログラム |
JP2010109552A (ja) * | 2008-10-29 | 2010-05-13 | Kyocera Corp | 携帯機器、操作検出方法および操作検出プログラム |
JP2010252197A (ja) * | 2009-04-17 | 2010-11-04 | Toshiba Corp | 携帯端末 |
JP2010257259A (ja) * | 2009-04-24 | 2010-11-11 | Kyocera Corp | 携帯端末装置 |
JP2011237838A (ja) * | 2010-04-30 | 2011-11-24 | Sony Computer Entertainment Inc | プログラム、情報入力装置、及びその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150011263A1 (en) | 2015-01-08 |
US9411449B2 (en) | 2016-08-09 |
WO2013118522A1 (ja) | 2013-08-15 |
EP3082032A1 (en) | 2016-10-19 |
EP2813937A4 (en) | 2016-01-20 |
EP2813937A1 (en) | 2014-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2013118522A1 (ja) | 携帯端末及びその動作方法 | |
JP5905220B2 (ja) | タッチスクリーン端末機におけるメモ方法及び端末機 | |
US8786562B2 (en) | Mobile electronic device, control method, and storage medium storing control program | |
JP4959765B2 (ja) | 携帯端末装置 | |
KR101331346B1 (ko) | 전자기기 | |
JP5894499B2 (ja) | 携帯電子機器及び入力方法 | |
US20180059891A1 (en) | Apparatus and method for providing a visual transition between screens | |
JP5823400B2 (ja) | 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機 | |
JP5681867B2 (ja) | 携帯端末および表示方法 | |
CN108509105B (zh) | 一种应用程序管理方法和终端 | |
JP2011028603A (ja) | 端末装置及びプログラム | |
KR20110028650A (ko) | 사용자 인터페이스, 기능 실행 방법, 컴퓨터 판독가능한 매체 및 디바이스 | |
JP5814821B2 (ja) | 携帯端末装置、プログラムおよび画面制御方法 | |
JP2012174250A (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
JP5531962B2 (ja) | 携帯端末装置及びそれに用いる画像表示方法並びにそのプログラム | |
WO2013176242A1 (ja) | タッチ検出機能を有する電子機器、プログラムおよびタッチ検出機能を有する電子機器の制御方法 | |
JP5594652B2 (ja) | 携帯情報端末及びそのキー配置変更方法 | |
JP2012174247A (ja) | 携帯電子機器、接触操作制御方法および接触操作制御プログラム | |
WO2011093409A1 (ja) | 携帯端末装置及び表示制御方法 | |
JP2010271979A (ja) | 携帯端末 | |
KR20220045220A (ko) | 아이콘 표시 방법 및 단말 | |
JP6213467B2 (ja) | 端末装置、表示制御方法およびプログラム | |
WO2014045765A1 (ja) | 携帯端末、その制御方法及びプログラム | |
KR20120036212A (ko) | 이동 단말기의 화면 조작 방법 | |
JP2015012340A (ja) | 携帯電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170307 |