JP2013047866A - Portable electronic equipment - Google Patents

Portable electronic equipment Download PDF

Info

Publication number
JP2013047866A
JP2013047866A JP2011185520A JP2011185520A JP2013047866A JP 2013047866 A JP2013047866 A JP 2013047866A JP 2011185520 A JP2011185520 A JP 2011185520A JP 2011185520 A JP2011185520 A JP 2011185520A JP 2013047866 A JP2013047866 A JP 2013047866A
Authority
JP
Japan
Prior art keywords
unit
display
contact
user
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011185520A
Other languages
Japanese (ja)
Inventor
Yoshiteru Kidera
吉輝 木寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011185520A priority Critical patent/JP2013047866A/en
Publication of JP2013047866A publication Critical patent/JP2013047866A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Set Structure (AREA)
  • Telephone Function (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that it is necessary to use a touch panel installed in a display in the case of selecting an icon displayed on the display or controlling the display screen of the display.SOLUTION: Portable electronic equipment includes; a first display part; a second display part; a first detection part arranged so as to be overlapped with the first display part for detecting a contact by a user; a first determination part for determining whether or not the first conditions are satisfied by the contact by the user detected by the first detection part; and a display control part for, when it is determined that the first conditions are satisfied by the first determination part, controlling the display of the second display part in accordance with the contact by the user, and for, when it is determined that the first conditions are satisfied by the first determination part, controlling the display of the first display part in accordance with the contact by the user.

Description

本発明は、複数のタッチパネルディスプレイを有する携帯電子機器に関する。   The present invention relates to a portable electronic device having a plurality of touch panel displays.

2つのタッチパネルを有する携帯電子機器が知られている。また、近年の携帯電子機器は、パソコン等に引けを取らないような複雑な機能を実現できるようになっている。ディスプレイに選択されているアイコンを選択する場合には、ユーザは、表示されているアイコンを直接押下することで選択することができる。   A portable electronic device having two touch panels is known. In recent years, portable electronic devices can realize complicated functions that are inferior to personal computers. When selecting an icon selected on the display, the user can select the icon by directly pressing the displayed icon.

特開2006−311224号公報JP 2006-31224 A

しかしながら、上述のような携帯電子機器では、ディスプレイに表示されたア画面を制御する場合には、そのディスプレイに設けられたタッチパネルを使用しなければならない。そのため、例えば選択したいアイコンが複数あり、かつ夫々が異なるディスプレイに表示されている場合には、ユーザは、異なるディスプレイに指を毎回運ぶ必要があり、面倒である。   However, in the portable electronic device as described above, in order to control the screen displayed on the display, a touch panel provided on the display must be used. Therefore, for example, when there are a plurality of icons to be selected and each is displayed on a different display, the user needs to carry a finger to the different display each time, which is troublesome.

そこで、本発明は係る問題に鑑みてなされたものであり、一方のディスプレイに設けられたタッチパネルを用いて他方のディスプレイの表示を制御することによりユーザの利便性を向上させることが可能な携帯電子機器を提供することを目的とする。   Therefore, the present invention has been made in view of such problems, and a portable electronic device that can improve user convenience by controlling the display of the other display using a touch panel provided on one display. The purpose is to provide equipment.

上記課題を解決するために本願発明に係る携帯電子機器は、第1表示部と、第2表示部と、第1表示部に重ねて配置され、ユーザによる接触を検出する検出部と、前記検出部により検出されたユーザによる接触が第1の条件を満たすか否かを判断する第1判断部と、前記第1判断部により前記第1の条件を満たすと判断された場合には、前記ユーザによる接触に応じて前記第2表示部の表示を制御し、前記第1判断部により前記第1の条件を満たすと判断された場合には、前記ユーザによる接触に応じて前記第1表示部の表示を制御する表示制御部と、を備えることを特徴とする。   In order to solve the above-described problem, a mobile electronic device according to the present invention includes a first display unit, a second display unit, a detection unit that is arranged on the first display unit and detects contact by a user, and the detection A first determination unit that determines whether or not contact by a user detected by the unit satisfies a first condition; and if the first determination unit determines that the first condition is satisfied, the user The display of the second display unit is controlled according to the contact by the first display unit, and when the first determination unit determines that the first condition is satisfied, the first display unit is controlled according to the contact by the user. A display control unit for controlling display.

上記構成を備えることにより、一方のディスプレイに設けられたタッチパネルを用いて他方のディスプレイの表示を制御するので、ユーザの利便性を向上させることができる。   By providing the above configuration, the display on the other display is controlled using the touch panel provided on one display, so that the convenience of the user can be improved.

携帯電話機100の外観斜視図である。1 is an external perspective view of a mobile phone 100. FIG. 携帯電話機100の構成図である。1 is a configuration diagram of a mobile phone 100. FIG. 携帯電話機100の姿勢を説明するための図である。4 is a diagram for explaining the posture of the mobile phone 100. FIG. ユーザのタッチ位置を説明するための図である。It is a figure for demonstrating a user's touch position. ユーザのタッチ位置の第1関係を説明するための図である。It is a figure for demonstrating the 1st relationship of a user's touch position. ユーザのタッチ位置の第2関係を説明するための図である。It is a figure for demonstrating the 2nd relationship of a user's touch position. ユーザのタッチ位置の第3関係を説明するための図である。It is a figure for demonstrating the 3rd relationship of a user's touch position. ユーザのタッチ位置の移動を説明するための図である。It is a figure for demonstrating the movement of a user's touch position. 携帯電話機100にて行われる処理を説明するためのフローチャートである。4 is a flowchart for explaining processing performed in mobile phone 100.

以下、本発明に係る携帯電子機器の実施の形態としての携帯電話機100について説明する。   Hereinafter, a mobile phone 100 as an embodiment of a mobile electronic device according to the present invention will be described.

図1は、スライド型の携帯電話機100の外観斜視図である。携帯電話機100は、上部筐体101と、下部筐体102とで構成されている。下部筐体102には、第1タッチパネル105が設けられている。上部筐体101には、スピーカ103、マイク104、及び第2タッチパネル106が設けられている。各タッチパネル上には、ユーザからの指示に基づいて、カーソルキーやテンキー等のキー群やアイコン等が表示され、ユーザは、これらを指等でタッチすることにより各種操作を行うことができる。また、上部筐体101と下部筐体102とは開閉可能に連結されている。   FIG. 1 is an external perspective view of a slide-type mobile phone 100. The mobile phone 100 includes an upper housing 101 and a lower housing 102. The lower housing 102 is provided with a first touch panel 105. The upper housing 101 is provided with a speaker 103, a microphone 104, and a second touch panel 106. On each touch panel, key groups such as cursor keys and numeric keys, icons, and the like are displayed based on instructions from the user, and the user can perform various operations by touching them with a finger or the like. Further, the upper housing 101 and the lower housing 102 are connected so as to be openable and closable.

図1(A)は、上部筐体101と下部筐体102とが閉じた状態にある場合の外観斜視図である。閉じた状態とは、上部筐体101が、下部筐体102のタッチパネルを覆うような相対位置にある場合である。本実施の形態では、閉じた状態を閉状態と称する。   FIG. 1A is an external perspective view when the upper housing 101 and the lower housing 102 are in a closed state. The closed state is when the upper casing 101 is in a relative position so as to cover the touch panel of the lower casing 102. In the present embodiment, the closed state is referred to as a closed state.

図1(B)は、上部筐体101と下部筐体102とが開いた状態にある場合の外観斜視図である。開いた状態とは、上部筐体101に設けられた第2タッチパネル106と下部筐体102に設けられた第1タッチパネル105とを同一方向からの視認が可能な関係となる相対位置である。本実施の形態では、開いた状態を開状態と称する。   FIG. 1B is an external perspective view when the upper housing 101 and the lower housing 102 are in an open state. The opened state is a relative position where the second touch panel 106 provided in the upper casing 101 and the first touch panel 105 provided in the lower casing 102 are in a relation that allows visual recognition from the same direction. In the present embodiment, the open state is referred to as an open state.

図2は、携帯電話機100の構成図である。   FIG. 2 is a configuration diagram of the mobile phone 100.

携帯電話機100は、無線部110、マイク104、スピーカ103、信号処理部113、状態検出部112、第1タッチパネル105、第2タッチパネル106、記憶部111、姿勢判定部107、及び制御部118により構成される。   The mobile phone 100 includes a wireless unit 110, a microphone 104, a speaker 103, a signal processing unit 113, a state detection unit 112, a first touch panel 105, a second touch panel 106, a storage unit 111, a posture determination unit 107, and a control unit 118. Is done.

無線部110は、アンテナ109を介して送受信する信号の変復調を行う。   The radio unit 110 performs modulation / demodulation of signals transmitted / received via the antenna 109.

信号処理部113は、マイク104から入力される音声信号を無線部110を介して送信するための処理や、アンテナ109から無線部110を介して受信した音声信号をスピーカ103へ出力するための処理を行う。また、信号処理部113は、無線部110を介して電子メール等のデータを受信し、制御部118へ出力する。   The signal processing unit 113 performs processing for transmitting an audio signal input from the microphone 104 via the wireless unit 110, and processing for outputting an audio signal received from the antenna 109 via the wireless unit 110 to the speaker 103. I do. Further, the signal processing unit 113 receives data such as e-mail via the wireless unit 110 and outputs the data to the control unit 118.

マイク104は、入力された音声を音声信号として信号処理部113へ出力する。   The microphone 104 outputs the input sound to the signal processing unit 113 as an audio signal.

スピーカ103は、信号処理部113にて処理された音声信号又は制御部118より受け取った音声データを音声として出力する。   The speaker 103 outputs the audio signal processed by the signal processing unit 113 or the audio data received from the control unit 118 as audio.

第1タッチパネル105は第1表示部114及び第1入力部115を、第2タッチパネル106は、第2表示部116及び第2入力部117を備えて構成されている。   The first touch panel 105 includes a first display unit 114 and a first input unit 115, and the second touch panel 106 includes a second display unit 116 and a second input unit 117.

各表示部は、LCD(Liquid Crystal Display)を含み、制御部118からの指示に基づいて、文字やアイコン等の画像をLCDに表示する機能を有している。   Each display unit includes an LCD (Liquid Crystal Display), and has a function of displaying images such as characters and icons on the LCD based on instructions from the control unit 118.

各入力部は、ユーザによるタッチを検出し、検出している間、単位時間(例えば1/6
0秒)毎に、タッチしている位置の座標値を、制御部118及び記憶部111に出力する。タッチとは、ユーザが指等で第1入力部115又は第2入力部117を触ることである。デタッチとは、ユーザが指で第1入力部115又は第2入力部117を触れている場合に、触れている指を第1入力部115又は第2入力部117から離すことである。スライドとは、ユーザが指で第1入力部115又は第2入力部117に触れている場合に、触れているユーザの指が接触を維持しながら移動することである。各入力部は、座標値を検出するとタッチされたと判断する。各入力部が、検出している座標値が検出されなくなったらデタッチと判断する。各入力部は、検出している座標値が時間と共に変化している場合は、スライドと判断する。尚、第1入力部115又は第2入力部117に触れるのは、ユーザの指だけに限らない。ユーザの指以外のペン等でもよい。第1入力部115及び第2入力部117は、一般的なタッチパネルで用いられている抵抗膜方式、光学式、静電容量結合式等の何れの方法で実現するものであってもよい。また、第1入力部115及び第2入力部117は、ユーザによるタッチを同時に複数検出することができる。第1入力部115は、ユーザによるタッチを一つ検出している場合において、ユーザによる新たなタッチを検出することができる。第1入力部115は、既にタッチされている位置の座標値と、新たにタッチされた位置の座標値とを制御部118に出力する。第2入力部117においても同様である。
Each input unit detects a touch by the user, and during detection, unit time (for example, 1/6)
Every 0 seconds), the coordinate value of the touched position is output to the control unit 118 and the storage unit 111. Touching means that the user touches the first input unit 115 or the second input unit 117 with a finger or the like. Detachment means that when the user touches the first input unit 115 or the second input unit 117 with a finger, the touching finger is separated from the first input unit 115 or the second input unit 117. The sliding means that when the user touches the first input unit 115 or the second input unit 117 with a finger, the touching user's finger moves while maintaining contact. Each input unit determines that the touch has been made when the coordinate value is detected. Each input unit determines that it is detached when the detected coordinate value is no longer detected. Each input unit determines to be a slide when the detected coordinate value changes with time. Note that touching the first input unit 115 or the second input unit 117 is not limited to the user's finger. A pen other than the user's finger may be used. The first input unit 115 and the second input unit 117 may be realized by any method such as a resistance film method, an optical method, and a capacitive coupling method used in a general touch panel. Further, the first input unit 115 and the second input unit 117 can simultaneously detect a plurality of touches by the user. The first input unit 115 can detect a new touch by the user when one touch by the user is detected. The first input unit 115 outputs the coordinate value of the already touched position and the coordinate value of the newly touched position to the control unit 118. The same applies to the second input unit 117.

記憶部111は、ROM、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等で構成され、制御部118で処理されるプログラム等を記憶する。   The storage unit 111 includes a ROM, a RAM, an EEPROM, a nonvolatile RAM, a flash memory, an HDD, and the like, and stores a program processed by the control unit 118.

また、記憶部111は、ユーザによるタッチを検出している間、各入力部から出力される座標値を単位時間(例えば1/60秒)毎に記憶する機能を有する。つまり、記憶部111は、タッチ状態からデタッチ状態までの間に出力された座標値を記憶する。   In addition, the storage unit 111 has a function of storing coordinate values output from each input unit for each unit time (for example, 1/60 seconds) while detecting a touch by the user. That is, the memory | storage part 111 memorize | stores the coordinate value output between the touch state and the detached state.

姿勢判定部107は、加速度センサ14を含んで構成され、加速度センサ14を用いて携帯電話機100の姿勢を検出する。姿勢判定部は、加速度センサの出力に基づいて、図3に示されるように、携帯電話機100が図3(A)の姿勢にあるのか、図3(B)の姿勢にあるのかを検出する。図3(A)は、携帯電話機100を例えば本のように見開いて使用する姿勢である。図3(B)は、従来のスライド型の携帯電話機100のように、下部筐体102がユーザにより保持されて使用される姿勢である。本実施形態では、図3(A)を第1姿勢、図3(B)を第2姿勢と称する。姿勢判定部107は、検出した姿勢を制御部118に出力する。   The posture determination unit 107 includes the acceleration sensor 14 and detects the posture of the mobile phone 100 using the acceleration sensor 14. Based on the output of the acceleration sensor, the posture determination unit detects whether the mobile phone 100 is in the posture shown in FIG. 3A or the posture shown in FIG. 3B, as shown in FIG. FIG. 3A shows a posture in which the mobile phone 100 is used by being opened like a book, for example. FIG. 3B shows a posture in which the lower housing 102 is held and used by the user as in a conventional slide type mobile phone 100. In this embodiment, FIG. 3A is referred to as a first posture, and FIG. 3B is referred to as a second posture. Posture determination unit 107 outputs the detected posture to control unit 118.

状態検出部112は、下部筐体102に対する上部筐体101の相対位置を検出する機能を有する。具体的には、状態検出部112は、携帯電話機100が、開状態にあるのか、閉状態にあるのかを検出する。状態検出部112は、検出した結果を制御部118に出力する。状態検出部112の例としては、例えば上部筐体101と下部筐体102とに磁石センサを設けることが考えられる。磁石センサを設けることにより、閉状態にあるときは、互いの磁石センサが近接することで電気信号が流れ、開状態にあるときは、磁石センサは離れているため電気信号は流れないように構成してもよい。   The state detection unit 112 has a function of detecting the relative position of the upper housing 101 with respect to the lower housing 102. Specifically, the state detection unit 112 detects whether the mobile phone 100 is in an open state or a closed state. The state detection unit 112 outputs the detected result to the control unit 118. As an example of the state detection unit 112, for example, it is conceivable to provide a magnet sensor in the upper casing 101 and the lower casing 102. By providing a magnet sensor, an electrical signal flows when the magnet sensors are close to each other when they are in the closed state, and an electrical signal does not flow when they are open because the magnet sensors are separated. May be.

制御部118は、第1判断部119、第2判断部120、及び表示制御部121を含み、携帯電話機100の全体動作の制御を行う。制御部118は、例えばCPU(Central Processing Unit)などの処理手段である。   The control unit 118 includes a first determination unit 119, a second determination unit 120, and a display control unit 121, and controls the overall operation of the mobile phone 100. The control unit 118 is a processing unit such as a CPU (Central Processing Unit).

第1判断部119は、自機が第2状態にある場合は、第1入力部115により検出されているユーザによるタッチの数が、一つなのか又は複数なのかを判断する。第1判断部119は、ユーザによるタッチの数が一つの場合には、その結果を後述する表示制御部121に出力する。第1判断部119は、ユーザによるタッチが同時に複数検出されている場合は、その結果を第2判断部120に出力する。   The first determination unit 119 determines whether the number of touches by the user detected by the first input unit 115 is one or a plurality when the device is in the second state. When the number of touches by the user is one, the first determination unit 119 outputs the result to the display control unit 121 described later. If a plurality of touches by the user are detected at the same time, the first determination unit 119 outputs the result to the second determination unit 120.

第2判断部120は、第1判断部119によりタッチが同時に複数検出されている場合には、複数のタッチの夫々の単位時間あたりの位置座標に基づいて、複数のタッチの相対的な位置関係を判断する。第2判断部120は、判断した結果を表示制御部121へ出力する。第2判断部120が行う処理を図4乃至図6を用いて説明する。図4に示すように、例えば、第1判断部119は、第1入力部115において、指Aと指Bとによるタッチを検出したとする。第2判断部120は、第1判断部119からの出力に基づき、指Aのタッチ位置200の第1座標値(X1、Y1)と指Bのタッチ位置201の第2座標値(X2、Y2)を第1入力部115から取得する。第2判断部120は、第1座標値と第2座標値の第1差分、つまり(X1−X1、Y2−Y2)を算出する。次に、第2判断部120は、単位時間経過後の指Aのタッチ位置202の第3座標値(X3、Y3)と指Bのタッチ位置203の第4座標値(X4、Y4)を第1入力部115から取得する。第2判断部120は、第3座標値と第4座標値との第2差分、つまり(X3−X4、Y3−Y4)を算出する。第2判断部120は第1差分と第2差分とを比較する。第2判断部120は、第1差分と第2差分とを比較する場合には、「X1−X2」の2乗と「Y1−Y2」の2乗との和の平方根と、「X3−X4」の2乗と「Y3−Y4」の2乗との和の平方根とを比較する。つまりは、第2判断部120は、単位時間経過した場合に、指Aと指Bとの間の直線距離が長くなったのか、短くなったのか、又は同じなのかを判断する。第2判断部120は、図5に示すように、指Aと指Bとの間の直線距離が同じの場合には、第1関係にあると判断する。第1関係は、指Aと指Bとは静止、又は指Aに対する指Bの相対位置が変わらない状態で指Aと指Bが移動することである。第2判断部120は、図6に示すように、指Aと指Bとの間の直線距離が長くなった場合には、第2関係にあると判断する。第2関係は、指Aに対する指Bの相対位置が離れることである。第2判断部120は、図7に示すように、指Aと指Bとの間の直線距離が小さくなった場合には、第3関係にあると判断する。第3関係は、指Aに対する指Bの相対位置が近づくことである。第2判断部120は、判断した関係を表示制御部121へ出力する。尚、直線距離とは、例えば図4の点線204等である。   When a plurality of touches are simultaneously detected by the first determination unit 119, the second determination unit 120 determines the relative positional relationship of the plurality of touches based on the position coordinates per unit time of the plurality of touches. Judging. The second determination unit 120 outputs the determination result to the display control unit 121. Processing performed by the second determination unit 120 will be described with reference to FIGS. As illustrated in FIG. 4, for example, it is assumed that the first determination unit 119 detects a touch with the finger A and the finger B in the first input unit 115. The second determination unit 120, based on the output from the first determination unit 119, the first coordinate value (X1, Y1) of the touch position 200 of the finger A and the second coordinate value (X2, Y2) of the touch position 201 of the finger B. ) Is acquired from the first input unit 115. The second determination unit 120 calculates a first difference between the first coordinate value and the second coordinate value, that is, (X1-X1, Y2-Y2). Next, the second determination unit 120 obtains the third coordinate value (X3, Y3) of the touch position 202 of the finger A and the fourth coordinate value (X4, Y4) of the touch position 203 of the finger B after the unit time has passed. Obtained from one input unit 115. The second determination unit 120 calculates a second difference between the third coordinate value and the fourth coordinate value, that is, (X3-X4, Y3-Y4). The second determination unit 120 compares the first difference with the second difference. When comparing the first difference and the second difference, the second determination unit 120 calculates the square root of the sum of the square of “X1−X2” and the square of “Y1−Y2”, and “X3−X4”. ”And the square root of the sum of“ Y3−Y4 ”. That is, the second determination unit 120 determines whether the linear distance between the finger A and the finger B has become longer, shorter, or the same when the unit time has elapsed. As illustrated in FIG. 5, the second determination unit 120 determines that the first relationship is established when the linear distance between the finger A and the finger B is the same. The first relationship is that the finger A and the finger B move while the finger A and the finger B are stationary or the relative position of the finger B with respect to the finger A does not change. As illustrated in FIG. 6, the second determination unit 120 determines that the second relationship is in the second relationship when the linear distance between the finger A and the finger B becomes longer. The second relationship is that the relative position of the finger B with respect to the finger A is separated. As illustrated in FIG. 7, the second determination unit 120 determines that the third relationship is established when the linear distance between the finger A and the finger B becomes small. The third relationship is that the relative position of the finger B with respect to the finger A approaches. The second determination unit 120 outputs the determined relationship to the display control unit 121. The linear distance is, for example, the dotted line 204 in FIG.

表示制御部121は、第1表示部114及び第2表示部116の表示を制御することができる。   The display control unit 121 can control the display of the first display unit 114 and the second display unit 116.

表示制御部121は、姿勢判定部107により第1状態が検出されている場合は、第1入力部115により検出されたユーザの入力に基づいて第1表示部114の表示を制御し、第2入力部117により検出されたユーザの入力に基づいて第2表示部116の表示を制御することができる。   When the first state is detected by the posture determination unit 107, the display control unit 121 controls the display of the first display unit 114 based on the user input detected by the first input unit 115, and the second The display of the second display unit 116 can be controlled based on the user input detected by the input unit 117.

表示制御部121は、姿勢判定部107により第2状態が検出されている場合は、第1入力部115により検出されたユーザの入力に基づいて第1表示部114の表示及び第2表示部116の表示を制御することができる。表示制御部121は、ユーザによるタッチの数が一つの場合には、ユーザによるタッチに基づいて第1表示部114の表示を制御する。表示制御部121は、ユーザにより特定のアイコンがタッチされ、その後デタッチされた場合には、選択されたアイコンにより特定されるアプリケーションプログラムを実行することにより表示される画像を第1表示部114に表示する。また、表示制御部121は、ユーザにより特定のアイコンがタッチされ、その後ドラッグされかつデタッチされた場合には、ユーザにより選択されたアイコンを、デタッチを検出した位置に表示させる。表示制御部121は、第2判断部120からの出力に基づいて、第2表示部116の表示を制御する。表示制御部121は、第1判断部119により第1関係と判断された場合には、第2表示部116に表示されている画像をタッチの移動に伴って移動させる。例えば、図8のように、表示制御部121が、指A及び指Bが矢印Cの方向に移動した場合は、第2表示部116の表示を横スクロールする。表示制御部121が、図8のように、指A及び指Bが矢印Dの方向のように移動した場合は、第2表示部116の表示を縦スクロールさせる。尚、指A及び指Bがどの方向に移動しているかは、第1入力部115により検出される指A又は指Bの位置座標を取得することで判断してもよい。表示制御部121は、第2判断部120により第2関係と判断された場合には、第2表示部116に表示されている画像を拡大して表示させる。表示制御部121は、第2判断部120により第3関係と判断された場合には、第2表示部116に表示されている画像を縮小して表示させる。   When the second state is detected by the posture determination unit 107, the display control unit 121 displays the first display unit 114 and the second display unit 116 based on the user input detected by the first input unit 115. Can be controlled. When the number of touches by the user is one, the display control unit 121 controls the display of the first display unit 114 based on the touch by the user. When a specific icon is touched by the user and then detached, the display control unit 121 displays an image displayed by executing the application program specified by the selected icon on the first display unit 114. To do. In addition, when a specific icon is touched by the user and then dragged and detached, the display control unit 121 displays the icon selected by the user at the position where the detachment is detected. The display control unit 121 controls the display of the second display unit 116 based on the output from the second determination unit 120. The display control unit 121 moves the image displayed on the second display unit 116 with the movement of the touch when the first determination unit 119 determines the first relationship. For example, as illustrated in FIG. 8, when the display control unit 121 moves the finger A and the finger B in the direction of the arrow C, the display of the second display unit 116 is scrolled horizontally. When the display control unit 121 moves the finger A and the finger B in the direction of the arrow D as shown in FIG. 8, the display on the second display unit 116 is vertically scrolled. Note that the direction in which the finger A and the finger B are moving may be determined by acquiring the position coordinates of the finger A or the finger B detected by the first input unit 115. When the second determination unit 120 determines that the second relationship is the second relationship, the display control unit 121 enlarges and displays the image displayed on the second display unit 116. When the second determination unit 120 determines that the third relationship is present, the display control unit 121 reduces the image displayed on the second display unit 116 and displays it.

次に、携帯電話機100の動作について、図9を用いて説明する。   Next, the operation of the mobile phone 100 will be described with reference to FIG.

姿勢判定部107は、携帯電話機100が第2姿勢であるか否かを検出する(S21)。制御部118は、姿勢判定部107により第2姿勢であることが検出された場合に(S21のYES)、第1入力部115によりユーザによるタッチが検出されたか否かを判断する。制御部118は、姿勢判定部107により第1姿勢が検出されている場合には(S21のNO)、第1入力部115で入力が検出されたか否か判断する(S31)。表示制御部121は、第1入力部115でユーザによるタッチが検出された場合には、ユーザのタッチに基づいて第1表示部114の表示を制御する(S32)。制御部118は、第1入力部115でユーザのタッチが検出されていない場合は、第2入力部117でユーザによるタッチが検出されたか否かを判断する(S41)。表示制御部121は、第2入力部117によりユーザのタッチが検出された場合には(S41のYES)、検出されたタッチに基づいて、第2表示部116の表示を制御する(S42)。   The posture determination unit 107 detects whether or not the mobile phone 100 is in the second posture (S21). When the posture determination unit 107 detects that the posture is the second posture (YES in S21), the control unit 118 determines whether or not a touch by the user is detected by the first input unit 115. When the first posture is detected by the posture determination unit 107 (NO in S21), the control unit 118 determines whether or not an input is detected by the first input unit 115 (S31). When the first input unit 115 detects a touch by the user, the display control unit 121 controls the display of the first display unit 114 based on the user's touch (S32). When the first input unit 115 does not detect the user's touch, the control unit 118 determines whether the second input unit 117 detects the touch by the user (S41). When a user touch is detected by the second input unit 117 (YES in S41), the display control unit 121 controls the display of the second display unit 116 based on the detected touch (S42).

第1判断部119は、携帯電話機100が第2姿勢である場合は(S21のYES)、第1入力部115によりユーザによるタッチが検出された場合に、ユーザによりタッチされた数が2つ以上か否かを判断する(S22)。第1判断部119は、タッチされた数が1つである場合には(S22のNO)、その結果を表示制御部121に出力する。表示制御部121は、第1入力部115により検出されたユーザによるタッチ位置の動きに基づいて、第1表示部114の表示を制御する(S32)。「タッチ位置の動き」とは、デタッチ又はスライド等である。   When the mobile phone 100 is in the second posture (YES in S21), the first determination unit 119 has two or more touched by the user when the first input unit 115 detects the touch by the user. It is determined whether or not (S22). When the number of touches is one (NO in S22), the first determination unit 119 outputs the result to the display control unit 121. The display control unit 121 controls the display of the first display unit 114 based on the movement of the touch position by the user detected by the first input unit 115 (S32). The “movement of the touch position” is detachment or slide.

第2判断部120は、第1判断部119によりユーザによりタッチされた数が2つ以上と判断された場合に(S22のYES)、検出されたタッチ位置の関係を判断する。第2判断部120は、タッチ位置間の距離(以下、第1距離と称する)を算出する(S23)。第2判断部120は、所定時間経過後のタッチ位置間の距離を算出する2距離と称する)(S24)。第2判断部120は、第1距離と第2距離とを比較する。第2判断部120は、第1距離と第2距離とが同じであるかを判断する(S25)。第2判断部120は、第1距離と第2距離とが同じの場合には(S25のYES)、第1関係と判断し、その結果を表示制御部121に出力する。表示制御部121は、第2判断部120により第1関係と判断された場合には、タッチ位置の移動に応じて第2表示部116に表示された画像をスクロールさせる(S26)。   When the first determination unit 119 determines that the number touched by the user is two or more (YES in S22), the second determination unit 120 determines the relationship between the detected touch positions. The second determination unit 120 calculates a distance between touch positions (hereinafter referred to as a first distance) (S23). The second determination unit 120 is referred to as “two distances for calculating a distance between touch positions after a predetermined time has elapsed” (S24). The second determination unit 120 compares the first distance and the second distance. The second determination unit 120 determines whether the first distance and the second distance are the same (S25). When the first distance and the second distance are the same (YES in S25), the second determination unit 120 determines the first relationship and outputs the result to the display control unit 121. If the second determination unit 120 determines that the first relationship is the first relationship, the display control unit 121 scrolls the image displayed on the second display unit 116 according to the movement of the touch position (S26).

第2判断部120は、第1距離と第2距離とが同じでない場合には(S25のNO)、第1距離の長さが第2距離の長さより短いか否かを判断する(S51)。第2判断部120は、第1距離の長さが第1距離の長さより短い場合には(S51のYES)、第2関係と判断し、その結果を表示制御部121に出力する。表示制御部121は、第2判断部120により第2関係と判断された場合には、第2表示部116に表示されている画像を拡大して表示させる(S52)。   If the first distance and the second distance are not the same (NO in S25), the second determination unit 120 determines whether or not the length of the first distance is shorter than the length of the second distance (S51). . If the length of the first distance is shorter than the length of the first distance (YES in S51), the second determination unit 120 determines that the second relationship is present, and outputs the result to the display control unit 121. When the second determination unit 120 determines that the second relationship is the second relationship, the display control unit 121 enlarges and displays the image displayed on the second display unit 116 (S52).

第2判断部120は、第1距離の長さが第2距離の長さより短くない場合には(S51
のNO)、第1距離の長さが第2距離の長さより長いと判断し、第3関係と判断する(S61)。表示制御部121は、第2判断部120により第3関係と判断された場合には、第2表示部116に表示されている画像を縮小して表示させる(S61)。
The second determination unit 120 determines that the length of the first distance is not shorter than the length of the second distance (S51).
NO), the length of the first distance is determined to be longer than the length of the second distance, and the third relationship is determined (S61). When the second determination unit 120 determines that the third relationship is established, the display control unit 121 reduces the image displayed on the second display unit 116 and displays it (S61).

以上の動作により、ユーザは、一方のディスプレイに設けられたタッチパネルを用いて他方のディスプレイの表示を制御する。そのため、従来に比べて、ユーザの利便性が向上する。   With the above operation, the user controls the display on the other display using the touch panel provided on the one display. Therefore, convenience for the user is improved as compared with the conventional case.

〔その他の実施形態〕
(1)本実施形態では、携帯電話機100は、ユーザによる操作を検出することができる操作部を含んでいてもよい。表示制御部121は、操作部により所定の操作が検出されている場合は、第2判断部120により判断された結果に基づいて、第1表示部114の表示を制御してもよい。具体的には、表示制御部121は、第1関係と判断された場合には、第1表示部114に表示された画像をスクロールさせる。表示制御部121は、第2関係と判断された場合には、第1表示部114に表示された画像を拡大して表示させる。表示制御部121は、第3関係と判断された場合には、第1表示部114に表示された画像を縮小して表示させる。操作部は、ボタン等のハードキーを含む。
[Other Embodiments]
(1) In the present embodiment, the mobile phone 100 may include an operation unit that can detect an operation by the user. When a predetermined operation is detected by the operation unit, the display control unit 121 may control the display of the first display unit 114 based on the result determined by the second determination unit 120. Specifically, the display control unit 121 scrolls the image displayed on the first display unit 114 when the first relationship is determined. If the display control unit 121 determines that the second relationship is present, the display control unit 121 enlarges and displays the image displayed on the first display unit 114. When it is determined that the relationship is the third relationship, the display control unit 121 reduces and displays the image displayed on the first display unit 114. The operation unit includes hard keys such as buttons.

(2)本実施形態では、第2判断部120により第1関係と判断された場合には、表示制御部121は、第2表示部116に表示された画像をスクロールすることで説明したが、必ずしもこの場合に限られない。第2表示部116に矢印等のポインターが表示されている場合において前記第2判断部120により第1関係と判断されたときは、表示制御部121は、指A及び指Bの移動に応じて前記ポインターを移動させてもよい。また、制御部118は、前記第2判断部120により第1関係と判断されている場合において、ユーザが指Aと指Bとを用いて第1入力部115を連続でタッチしたときは、ポインターにより特定されているアプリケーションを実行してもよい。表示制御部121は、アプリケーションを実行することで表示される画像を第2表示部116に表示させる。   (2) In the present embodiment, the display control unit 121 has been described by scrolling the image displayed on the second display unit 116 when the second determination unit 120 determines the first relationship, This is not necessarily the case. When a pointer such as an arrow is displayed on the second display unit 116 and the second determination unit 120 determines that the first relationship is present, the display control unit 121 responds to the movement of the finger A and the finger B. The pointer may be moved. In addition, when the second determination unit 120 determines that the first relationship is established, the control unit 118 can display a pointer when the user continuously touches the first input unit 115 using the finger A and the finger B. The application specified by may be executed. The display control unit 121 causes the second display unit 116 to display an image displayed by executing the application.

(3)携帯電話機100は第1筐体と第2筐体とを備えることで記載したが、必ずしもこの場合に限られない。携帯電話機100は一つの筐体のみを有し、一つの筐体に第1表示部114、第2表示部116、及び第1入力部115を備えることでもよい。   (3) Although the mobile phone 100 is described as including the first casing and the second casing, the present invention is not necessarily limited to this case. The mobile phone 100 may have only one housing, and the first display portion 114, the second display portion 116, and the first input portion 115 may be provided in one housing.

(4)制御部118は、携帯電話機100が閉状態にある場合には、第2入力部117により検出された入力に基づいて第2表示部116の表示を制御することができる。第1判断部119は、第2入力部117により検出されているユーザのタッチの数が一つなのか又は複数なのかを判断する。第1判断部119は、ユーザによるタッチの数が一つの場合には、その結果を後述する表示制御部121に出力する。第1判断部119は、ユーザによるタッチが同時に複数検出されている場合は、その結果を第2判断部120に出力する。第2判断部120は、第1判断部119によりタッチが同時に複数検出されている場合には、複数のタッチの夫々の単位時間あたりの位置座標に基づいて、複数のタッチの相対的な位置関係を判断する。表示制御部121は、第1関係にあると判断された場合には、第2表示部116に表示されている画像をスクロールさせる。表示制御部121は、第2関係にあると判断された場合には、第2表示部116に表示されている画像を拡大して表示させる。表示制御部121は、第3関係にあると判断された場合には、第2表示部116に表示されている画像を縮小して表示させる。   (4) The control unit 118 can control the display of the second display unit 116 based on the input detected by the second input unit 117 when the cellular phone 100 is in the closed state. The first determination unit 119 determines whether the number of user touches detected by the second input unit 117 is one or more. When the number of touches by the user is one, the first determination unit 119 outputs the result to the display control unit 121 described later. If a plurality of touches by the user are detected at the same time, the first determination unit 119 outputs the result to the second determination unit 120. When a plurality of touches are simultaneously detected by the first determination unit 119, the second determination unit 120 determines the relative positional relationship of the plurality of touches based on the position coordinates per unit time of the plurality of touches. Judging. When it is determined that the display control unit 121 has the first relationship, the display control unit 121 scrolls the image displayed on the second display unit 116. When it is determined that the display control unit 121 has the second relationship, the display control unit 121 enlarges and displays the image displayed on the second display unit 116. When it is determined that the display control unit 121 has the third relationship, the display control unit 121 reduces and displays the image displayed on the second display unit 116.

(5)表示制御部121は、第1関係と判断された場合に、第1表示部114に表示されている画像をスクロールさせるのではなく、画像の位置を移動させてもよい。表示制御部121は、携帯電話機100が閉状態にある場合において第1関係と判断された場合には、第2表示部116に表示されている画像の位置を移動させてもよい。   (5) The display control unit 121 may move the position of the image instead of scrolling the image displayed on the first display unit 114 when it is determined as the first relationship. The display control unit 121 may move the position of the image displayed on the second display unit 116 when the first relationship is determined when the mobile phone 100 is in the closed state.

(6)本実施の形態では、表示制御部121は、第1入力部115により検出された結果を用いて第1表示部114又は第2表示部116の表示を制御したが、必ずしもこの場合に限られない。表示制御部121は、第2入力部117により検出された結果を用いて第1表示部114又は第2表示部116の表示を制御してもよい。第1判断部119は、第2入力部117により検出されたタッチの数に基づいて判断を行う。第2判断部120は、第2入力部117により検出されたタッチの位置に基づいてタッチの位置関係を判断する。表示制御部121は、第2判断部120の判断に基づいて第1表示部114の表示を制御する。この場合に、携帯電話機100が実行する処理の内容は図9と同じである。   (6) In the present embodiment, the display control unit 121 controls the display of the first display unit 114 or the second display unit 116 using the result detected by the first input unit 115. Not limited. The display control unit 121 may control the display of the first display unit 114 or the second display unit 116 using the result detected by the second input unit 117. The first determination unit 119 makes a determination based on the number of touches detected by the second input unit 117. The second determination unit 120 determines the positional relationship of the touch based on the touch position detected by the second input unit 117. The display control unit 121 controls the display of the first display unit 114 based on the determination of the second determination unit 120. In this case, the contents of the process executed by the mobile phone 100 are the same as those in FIG.

(7)第2判断部120は、タッチされた位置に基づいて第1関係乃至第3関係を判断したが、必ずしも3つの関係を判断する必要はない。第2判断部120は、タッチされた位置に基づいて第2関係又は第3関係のいずれであるかを判断してもよいし、第2関係であるかのみを判断してもよい。   (7) Although the second determination unit 120 determines the first relationship to the third relationship based on the touched position, it is not always necessary to determine the three relationships. The second determination unit 120 may determine whether the relationship is the second relationship or the third relationship based on the touched position, or may determine only the second relationship.

(8)図9における、S25、S51、S61の処理は、順番が入れ替わっても良い。例えば、S24の処理の後にS51の処理を行い、S51の処理にてNOの場合にS25の処理を行い、S25の処理にてNOの場合にS61の処理を実行してもよい。尚、S61の処理がS25の後に来る場合には、S61とS24との間に、「第1距離は第2距離よりも長い」という処理が追加される。   (8) The processing of S25, S51, and S61 in FIG. 9 may be switched in order. For example, the process of S51 may be performed after the process of S24, the process of S25 may be performed if NO in the process of S51, and the process of S61 may be performed if NO in the process of S25. When the process of S61 comes after S25, a process of “the first distance is longer than the second distance” is added between S61 and S24.

この他、実施の形態は、特許請求の範囲に示された技術思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiments can be appropriately modified in various ways within the scope of the technical idea shown in the claims.

103 スピーカ
104 マイク
105 第1タッチパネル
106 第2タッチパネル
107 姿勢判定部
109 アンテナ
110 無線部
111 記憶部
112 状態検出部
113 信号処理部
114 第1表示部
115 第1入力部
116 第2表示部
117 第2入力部
118 制御部
119 第1判断部
120 第2判断部
121 表示制御部
DESCRIPTION OF SYMBOLS 103 Speaker 104 Microphone 105 1st touch panel 106 2nd touch panel 107 Posture determination part 109 Antenna 110 Radio | wireless part 111 Memory | storage part 112 State detection part 113 Signal processing part 114 1st display part 115 1st input part 116 2nd display part 117 2nd Input unit 118 Control unit 119 First determination unit 120 Second determination unit 121 Display control unit

Claims (13)

第1表示部と、
第2表示部と、
第1表示部に重ねて配置され、ユーザによる接触を検出する第1検出部と、
前記第1検出部により検出されたユーザによる接触が第1の条件を満たすか否かを判断する第1判断部と、
前記第1判断部により前記第1の条件を満たすと判断された場合には、前記ユーザによる接触に応じて前記第2表示部の表示を制御し、前記第1判断部により前記第1の条件を満たさないと判断された場合には、前記ユーザによる接触に応じて前記第1表示部の表示を制御する表示制御部と、
を有する携帯電子機器。
A first display unit;
A second display;
A first detection unit that is arranged over the first display unit and detects contact by a user;
A first determination unit that determines whether or not contact by a user detected by the first detection unit satisfies a first condition;
When the first determination unit determines that the first condition is satisfied, the display of the second display unit is controlled according to the contact by the user, and the first determination unit controls the first condition. A display control unit that controls display of the first display unit in response to contact by the user;
Mobile electronic device having
前記第1の条件とは、ユーザにより接触された箇所の数が第1の数であること、
を特徴とする請求項1に記載の携帯電子機器。
The first condition is that the number of places touched by the user is the first number;
The portable electronic device according to claim 1.
前記第1の数は2であること、
を特徴とする請求項2に記載の携帯電子機器。
The first number is two;
The portable electronic device according to claim 2.
ユーザによる操作を検出する操作部を更に備え、
前記表示制御部は、前記操作部によりユーザによる操作が検出されている場合は、前記第1表示部及び前記第2表示部のうち、前記ユーザによる接触に応じて前記第1表示部の表示のみを制御すること、
を特徴とする請求項1に記載の携帯電子機器。
An operation unit for detecting an operation by a user;
When the operation by the user is detected by the operation unit, the display control unit only displays the first display unit according to the contact by the user among the first display unit and the second display unit. To control,
The portable electronic device according to claim 1.
前記第1検出部によりユーザによる第1接触と第2接触とを検出している場合において、前記第1接触と前記第2接触との相対関係を判断する第2判断部と、を更に備え、
前記第2判断部により前記相対関係が第1の関係にあると判断された場合には、前記第2表示部に表示されている画像を拡大すること、
を特徴とする請求項3に記載の携帯電子機器。
A second determination unit that determines a relative relationship between the first contact and the second contact when the first detection unit detects the first contact and the second contact by the user;
Enlarging the image displayed on the second display unit when the second determination unit determines that the relative relationship is the first relationship;
The portable electronic device according to claim 3.
前記第2判断部により前記相対関係が第2の関係にあると判断された場合には、前記第2表示部に表示されている画像を縮小すること、
を特徴とする請求項3に記載の携帯電子機器。
Reducing the image displayed on the second display unit when the second determination unit determines that the relative relationship is the second relationship;
The portable electronic device according to claim 3.
前記第1接触の位置と前記第2接触の位置との間の距離を算出する算出部と、を更に備え、
前記第2判断部は、第1時刻における第1距離と、前記第1時刻より所定時間経過後の第2距離とを比較し、前期第2距離が前記第1距離よりも大きい場合は、前記第1の関係にあると判断すること、
を特徴とする請求項5に記載の携帯電子機器。
A calculation unit that calculates a distance between the position of the first contact and the position of the second contact;
The second determination unit compares the first distance at the first time with the second distance after a predetermined time has elapsed from the first time, and when the second distance in the previous period is greater than the first distance, Determining that it is in a first relationship;
The portable electronic device according to claim 5.
前記第1接触の位置と前記第2接触の位置との間の距離を算出する算出部と、を更に備え、
前記第2判断部は、第1時刻における第1距離と、前記第1時刻より所定時間経過後の第2距離とを比較し、前期第2距離が前記第1距離よりも小さい場合は、前記第2の関係にあると判断すること、
を特徴とする請求項6に記載の携帯電子機器。
A calculation unit that calculates a distance between the position of the first contact and the position of the second contact;
The second determination unit compares the first distance at the first time with the second distance after a predetermined time has elapsed from the first time. When the second distance in the previous period is smaller than the first distance, Determining that there is a second relationship;
The portable electronic device according to claim 6.
自機の傾きを検出する傾き検出部と、を更に備え、
前記表示制御部は、自機の傾きが特定の傾きの場合に、前記ユーザによる接触に応じて、前記第1表示部及び前記第2表示部のうち前記第1表示部の表示のみを制御すること、
を特徴とする請求項1に記載の携帯電子機器。
An inclination detection unit that detects the inclination of the own device;
The display control unit controls only the display of the first display unit among the first display unit and the second display unit according to the contact by the user when the tilt of the own device is a specific tilt. about,
The portable electronic device according to claim 1.
第2表示部に重ねて配置され、ユーザによる接触を検出する第2検出部とを更に備え、
前記表示制御部は、自機の傾きが前記特定の傾きの場合には、前記第2検出部により検出されたユーザの接触に応じて、前記第1表示部及び前記第2表示部のうち前記第2表示部の表示のみを制御すること、
を特徴とする請求項9に記載の携帯電子機器。
A second detection unit arranged to overlap the second display unit and detecting contact by the user;
In the case where the inclination of the own device is the specific inclination, the display control unit is configured to select the first display unit and the second display unit according to a user contact detected by the second detection unit. Controlling only the display of the second display,
The portable electronic device according to claim 9.
前記第2表示部に重ねて配置され、ユーザによる接触を検出する第2検出部と、
前記第1表示部が設けられた第1筐体と、
前記第2表示部が設けられた第2筐体と、
前記第1表示部が前記第2筐体に覆われる閉状態にあるか否かを検出する状態検出部と、を更に備え、
前記第1判断部は、状態検出部により閉状態が検出されている場合には、前記第2検出部により検出されたユーザによる接触が前記第1の条件を満たすか否かを判断し、
前記第2判断部は、前記第1の条件を満たす場合において前記第2検出部により第3接触及び第4接触が検出さてれているときは、前記第3接触及び第4接触との相対関係を判断し、
前記表示制御部は、前記相対関係に基づいて前記第2表示部の表示を制御すること、
を特徴とする請求項3に記載の携帯電子機器。
A second detection unit that is arranged over the second display unit and detects contact by a user;
A first housing provided with the first display unit;
A second housing provided with the second display section;
A state detection unit that detects whether or not the first display unit is in a closed state covered by the second housing;
The first determination unit determines whether the contact by the user detected by the second detection unit satisfies the first condition when the closed state is detected by the state detection unit;
When the second detection unit detects the third contact and the fourth contact in the case where the first condition is satisfied, the second determination unit has a relative relationship with the third contact and the fourth contact. Judging
The display control unit controls display of the second display unit based on the relative relationship;
The portable electronic device according to claim 3.
前記表示制御部は、前記相対関係が第1の関係であると判断された場合には、前記第2表示部に表示されている画像を拡大し、前記相対関係が第2の関係であると判断された場合には、前記第2表示部に表示されている画像を縮小すること、
を特徴とする請求項11に記載の携帯電子機器。
When it is determined that the relative relationship is the first relationship, the display control unit enlarges the image displayed on the second display unit, and the relative relationship is the second relationship. If determined, reducing the image displayed on the second display unit;
The portable electronic device according to claim 11.
ユーザによる接触を検出することができる第1表示部と第2表示部とを備えた携帯電子機器にて実行される表示制御方法であって、
ユーザによる接触が第1条件を満たすか否かを判断するステップと、
前記第1の条件を満たすと判断された場合には、前記ユーザによる接触に応じて前記第2表示部の表示を制御するステップと、
第1の条件を満たさないと判断された場合には、前記ユーザによる接触に応じて前記第1表示部の表示を制御するステップと、
を含む表示制御方法。
A display control method executed in a portable electronic device including a first display unit and a second display unit capable of detecting contact by a user,
Determining whether the contact by the user satisfies the first condition;
If it is determined that the first condition is satisfied, the step of controlling the display of the second display unit according to the contact by the user;
If it is determined that the first condition is not satisfied, the step of controlling the display of the first display unit according to the contact by the user;
A display control method including:
JP2011185520A 2011-08-29 2011-08-29 Portable electronic equipment Withdrawn JP2013047866A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011185520A JP2013047866A (en) 2011-08-29 2011-08-29 Portable electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185520A JP2013047866A (en) 2011-08-29 2011-08-29 Portable electronic equipment

Publications (1)

Publication Number Publication Date
JP2013047866A true JP2013047866A (en) 2013-03-07

Family

ID=48010831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185520A Withdrawn JP2013047866A (en) 2011-08-29 2011-08-29 Portable electronic equipment

Country Status (1)

Country Link
JP (1) JP2013047866A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014132965A1 (en) * 2013-02-27 2014-09-04 Necカシオモバイルコミュニケーションズ株式会社 Portable electronic device, control method therefor, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014132965A1 (en) * 2013-02-27 2014-09-04 Necカシオモバイルコミュニケーションズ株式会社 Portable electronic device, control method therefor, and program

Similar Documents

Publication Publication Date Title
US9772762B2 (en) Variable scale scrolling and resizing of displayed images based upon gesture speed
JP4959765B2 (en) Mobile terminal device
JP5946462B2 (en) Mobile terminal and its screen control method
KR20170062954A (en) User terminal device and method for display thereof
US20110080359A1 (en) Method for providing user interface and mobile terminal using the same
US20130162569A1 (en) Device, method, and computer-readable recording medium
JP5304577B2 (en) Portable information terminal and display control method
US20130076659A1 (en) Device, method, and storage medium storing program
EP2735960A2 (en) Electronic device and page navigation method
JP6297787B2 (en) Portable electronic devices
US9298364B2 (en) Mobile electronic device, screen control method, and storage medium strong screen control program
JP6319298B2 (en) Information terminal, display control method and program thereof
KR20170082722A (en) User terminal apparatus and control method thereof
JP6102474B2 (en) Display device, input control method, and input control program
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
KR20140106801A (en) Apparatus and method for supporting voice service in terminal for visually disabled peoples
US20150002433A1 (en) Method and apparatus for performing a zooming action
KR20170004220A (en) Electronic device for displaying keypad and keypad displaying method thereof
KR101354841B1 (en) Electronic Device With Touch Screen And Input Data Processing Method Thereof
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
US20150123916A1 (en) Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium
US11914857B1 (en) Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
KR101463804B1 (en) Mobile communication device and display control method
JP2017182497A (en) Display device and display control program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104