JP5814821B2 - Portable terminal device, program, and screen control method - Google Patents

Portable terminal device, program, and screen control method Download PDF

Info

Publication number
JP5814821B2
JP5814821B2 JP2012036151A JP2012036151A JP5814821B2 JP 5814821 B2 JP5814821 B2 JP 5814821B2 JP 2012036151 A JP2012036151 A JP 2012036151A JP 2012036151 A JP2012036151 A JP 2012036151A JP 5814821 B2 JP5814821 B2 JP 5814821B2
Authority
JP
Japan
Prior art keywords
display surface
boundary
processing unit
region
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012036151A
Other languages
Japanese (ja)
Other versions
JP2013171505A (en
Inventor
広樹 小林
広樹 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012036151A priority Critical patent/JP5814821B2/en
Publication of JP2013171505A publication Critical patent/JP2013171505A/en
Application granted granted Critical
Publication of JP5814821B2 publication Critical patent/JP5814821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本発明は、携帯電話機、PDA(Personal Digital Assistant)、タブレットPC(Tablet PC)、電子書籍端末等の携帯端末装置および当該携帯端末装置に用いて好適なプログラムと画面制御方法に関するものである。   The present invention relates to a mobile terminal device such as a mobile phone, a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), and an electronic book terminal, and a program and a screen control method suitable for use in the mobile terminal device.

従来、複数のアプリケーションプログラム(以下、「アプリケーション」と呼ぶ。)に基づく実行画面を表示面に同時に表示可能な帯端末装置が提案されている(特許文献1参照)。   Conventionally, there has been proposed a band terminal device capable of simultaneously displaying an execution screen based on a plurality of application programs (hereinafter referred to as “applications”) on a display surface (see Patent Document 1).

特開2010−044592号公報JP 2010-044592 A

しかしながら、このように複数の画像が同時に表示されると、各画像の表示領域が狭くなる。通常、各画像の表示領域は、予め配置が固定されているため、ユーザは、各画像の表示領域の大きさを変更できない。このため、ユーザにとっては、画像が閲覧しにくく、また、画像に対する操作が難しい等の問題が生じ得る。   However, when a plurality of images are displayed at the same time, the display area of each image is narrowed. Usually, since the display area of each image is fixed in advance, the user cannot change the size of the display area of each image. For this reason, it may be difficult for the user to view the image and it may be difficult to operate the image.

そこで、本発明は、アプリケーションに基づく実行画面が表示面に複数表示されている場合に、ユーザが、実行画面の表示領域を所望のサイズに変更できる携帯端末装置、プログラムおよび画面制御方法を提供することを目的とする。   Therefore, the present invention provides a mobile terminal device, a program, and a screen control method that allow a user to change the display area of the execution screen to a desired size when a plurality of execution screens based on the application are displayed on the display surface. For the purpose.

本発明の第1の態様は携帯端末装置に関する。本態様に係る携帯端末装置は、表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する表示処理部と、前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する検出処理部と、を備える。ここで、前記検出処理部は、前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作を検出したときに、当該タッチ操作を前記所定の操作として検出する。前記表示処理部は、前記検出処理部が前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する。 A 1st aspect of this invention is related with a portable terminal device. The mobile terminal device according to this aspect displays the first execution screen based on the first application program in the first area allocated on the display surface, and is adjacent to the first area allocated on the display surface. A display processing unit that displays a second execution screen based on a second application program in the second area to be detected, and a predetermined operation for moving a boundary between the first area and the second area on the display surface A detection processing unit. Here, when the input position of the touch operation on the display surface detects a touch operation that moves from the first area to the second area, the detection processing unit detects the touch operation as the predetermined operation. Detect as. The display processing unit moves the boundary in a direction corresponding to the predetermined operation based on detection of the predetermined operation by the detection processing unit, and the region of the first region and the second region Control is performed to change the size and update the display of the first execution screen and the second execution screen.

本態様に係る携帯端末装置において、前記表示処理部は、前記タッチ操作による入力位置の移動に伴って、前記タッチ操作に対応する方向に、前記境界を移動させるよう構成され得るIn the mobile terminal device according to the present embodiment, the pre-Symbol display processing unit, with the movement of the input position by the touch operation, in a direction corresponding to the touch operation may be configured to move the boundary.

本態様に係る携帯端末装置において、前記検出処理部は、前記表示面に対するタッチ操作の開始位置が前記境界上にあるときに、当該タッチ操作を前記所定の操作として検出するよう構成され得る。   In the mobile terminal device according to this aspect, the detection processing unit may be configured to detect the touch operation as the predetermined operation when a start position of the touch operation on the display surface is on the boundary.

本態様に係る携帯端末装置において、前記表示処理部は、前記入力位置が、前記第1領域内から前記第2領域へと移動した後に折り返されるタッチ操作が前記検出処理部によって検出されたとき、前記境界を折り返し位置に留めるよう構成され得るIn the mobile terminal device according to this aspect, when the display processing unit detects a touch operation that is turned back after the input position moves from the first region to the second region, the detection processing unit detects The boundary may be configured to remain in the folded position .

本態様に係る携帯端末装置において、前記検出処理部は、前記表示面に対するタッチ操作の開始位置が前記第1領域上にあるときに、当該タッチ操作を前記所定の操作として検出するよう構成され得る。この場合、前記表示処理部は、前記境界に直交する方向の前記第1領域の長さを当該タッチ操作の開始位置によって内分したときの内分比を保って前記第1領域が変化するように、前記境界を移動させる。   In the mobile terminal device according to this aspect, the detection processing unit may be configured to detect the touch operation as the predetermined operation when a start position of the touch operation on the display surface is on the first region. . In this case, the display processing unit changes the first area while maintaining an internal ratio when the length of the first area in the direction orthogonal to the boundary is internally divided by the start position of the touch operation. Next, the boundary is moved.

本発明の第2の態様は、携帯端末装置に関する。本態様に係る携帯端末装置は、表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する表示処理部と、前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する検出処理部と、前記表示面に対する操作によって、前記第1実行画面をスクロールさせるスクロール処理部と、を備えるここで、前記検出処理部は、前記第1実行画面のスクロールが完遂された後、さらに当該スクロールを行うための操作が所定条件のもとで継続されたときに、当該スクロールのための操作を前記所定の操作として検出する。さらに、前記表示処理部は、前記検出処理部が前記スクロールのための操作を前記所定の操作として検出したことに基づいて、前記境界を前記第2領域側に所定の距離移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する A 2nd aspect of this invention is related with a portable terminal device. The mobile terminal device according to this aspect displays the first execution screen based on the first application program in the first area allocated on the display surface, and is adjacent to the first area allocated on the display surface. A display processing unit that displays a second execution screen based on a second application program in the second area to be detected, and a predetermined operation for moving a boundary between the first area and the second area on the display surface a detection processing unit that, by operation on the display surface, and a scroll processor for scrolling the first execution screen. Here, after the scroll of the first execution screen is completed, the detection processing unit performs an operation for the scroll when the operation for performing the scroll is further continued under a predetermined condition. The predetermined operation is detected. Further, the display processing unit moves the boundary to the second region side by a predetermined distance based on the detection processing unit detecting the scroll operation as the predetermined operation . Control is performed to update the display of the first execution screen and the second execution screen by changing the region sizes of the first region and the second region .

本態様に係る携帯端末装置において、前記表示処理部は、前記検出処理部が前記所定の操作を検出した場合、前記境界を強調するための表示を行うよう構成され得る。この場合、前記表示処理部は、強調された前記境界に対する入力を前記検出処理部が検出したことに基づいて、前記境界を前記第2領域側に所定の距離移動させる。   In the mobile terminal device according to this aspect, the display processing unit may be configured to perform display for emphasizing the boundary when the detection processing unit detects the predetermined operation. In this case, the display processing unit moves the boundary to the second region side by a predetermined distance based on the detection processing unit detecting the input to the emphasized boundary.

第1および第2の態様に係る携帯端末装置は、第1表示面を前記表示面の一部として有する第1筐体と、前記第1表示面に隣接する第2表示面を前記表示面の一部として有する第2筐体と、を備え得る。この場合、前記表示処理部は、前記第1領域が割り当てられた前記第1表示面に前記第1実行画面を表示するとともに、前記第2領域が割り当てられた前記第2表示面に前記第2実行画面を表示する。さらに、前記表示処理部は、前記検出処理部が前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する。 The portable terminal device according to the first and second aspects includes a first housing having a first display surface as a part of the display surface, and a second display surface adjacent to the first display surface of the display surface. A second housing as a part thereof. In this case, the display processing unit displays the first execution screen on the first display surface to which the first region is assigned, and also displays the second execution surface on the second display surface to which the second region is assigned. Display the execution screen. Furthermore, the display processing unit moves the boundary in a direction corresponding to the predetermined operation based on the detection processing unit detecting the predetermined operation, and the first region and the second region Control for updating the display of the first execution screen and the second execution screen is performed.

本発明の第3の態様は、プログラムに関する。本態様に係るプログラムは、表示面を有する携帯端末装置のコンピュータに、表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する機能と、前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する機能と、前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する機能と、を実行させるここで、前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作が、前記所定の操作として検出される。 A third aspect of the present invention relates to a program. The program according to the present aspect displays a first execution screen based on the first application program in the first area allocated on the display surface on the computer of the mobile terminal device having the display surface, and is allocated on the display surface. A function of displaying a second execution screen based on a second application program in a second area adjacent to the first area, and moving the boundary between the first area and the second area with respect to the display surface And a function of detecting a predetermined operation for moving the boundary in a direction corresponding to the predetermined operation based on the detection of the predetermined operation, and the region of the first region and the second region changing the size, causes execution of a to that function updates the display of the first execution screen and the second execution screen. Here, the touch operation in which the input position of the touch operation on the display surface moves from the first region to the second region is detected as the predetermined operation.

本発明の第4の態様は、表示面を有する携帯端末装置の画面制御方法に関する。本態様に係る画面制御方法は、表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示するステップと、前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出するステップと、前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行するステップと、を含む。ここで、前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作が、前記所定の操作として検出される。 A 4th aspect of this invention is related with the screen control method of the portable terminal device which has a display surface. The screen control method according to this aspect displays the first execution screen based on the first application program in the first area allocated on the display surface, and is adjacent to the first area allocated on the display surface. Displaying a second execution screen based on a second application program in the second area to be detected, and detecting a predetermined operation for moving a boundary between the first area and the second area on the display surface And moving the boundary in a direction corresponding to the predetermined operation based on the detection of the predetermined operation, changing the area sizes of the first area and the second area, and executing the first execution. And a step of executing control for updating the display of the screen and the second execution screen. Here, the touch operation in which the input position of the touch operation on the display surface moves from the first region to the second region is detected as the predetermined operation.

本発明によれば、アプリケーションに基づく実行画面が表示面に複数表示されている場合に、ユーザが、実行画面の表示領域を所望のサイズに変更できる携帯端末装置、プログラムおよび画面制御方法を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, when the execution screen based on an application is displayed in multiple numbers on a display surface, the user can provide the portable terminal device, program, and screen control method which can change the display area of an execution screen to a desired size. .

本発明の効果ないし意義は、以下に示す実施の形態の説明によりさらに明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely an example when the present invention is implemented, and the present invention is not limited to what is described in the following embodiment.

携帯電話機1の外観構成を示す正面図である。1 is a front view showing an external configuration of a mobile phone 1. FIG. 携帯電話機1の全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a mobile phone 1. FIG. 本実施の形態に係る、画面制御処理を示すフローチャートと、検出処理ルーチンを示すフローチャートである。It is the flowchart which shows the screen control process based on this Embodiment, and the flowchart which shows a detection process routine. 本実施の形態に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on this Embodiment. 本実施の形態に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on this Embodiment. 変更例1に係る、画面制御処理を示すフローチャートと、検出処理ルーチンを示すフローチャートである。6 is a flowchart showing a screen control process and a flowchart showing a detection process routine according to a first modification. 変更例1に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on the example 1 of a change. 変更例2に係る、画面制御処理を示すフローチャートと、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the transition example of the screen which shows the flowchart which shows the screen control process based on the example 2, and the screen control process at the time of execution of a screen control process. 変更例3に係る、画面制御処理を示すフローチャートと、検出処理ルーチンを示すフローチャートである。10 is a flowchart illustrating a screen control process and a flowchart illustrating a detection process routine according to a third modification. 変更例3に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on the example 3 of a change. 変更例4に係る、携帯電話機1の全体構成を示すブロック図である。10 is a block diagram showing an overall configuration of a mobile phone 1 according to a modification example 4. FIG. 変更例4に係る、画面制御処理を示すフローチャートと、検出処理ルーチンを示すフローチャートである。6 is a flowchart showing a screen control process and a detection process routine according to a modification example 4; 変更例4に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on the example 4 of a change. 変更例5に係る、画面制御処理の実行時における、表示面に表示される画面の遷移例を示す図である。It is a figure which shows the example of a transition of the screen displayed on a display surface at the time of execution of the screen control process based on the example 5 of a change. その他の変更例に係る、画面制御処理の実行時における、表示面に表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on a display surface at the time of execution of the screen control process based on the other example of a change. その他の変更例に係る、画面制御処理の実行時における、表示面に表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on a display surface at the time of execution of the screen control process based on the other example of a change. その他の変更例に係る、画面制御処理の実行時における、表示面に表示される画面の例を示す図である。It is a figure which shows the example of the screen displayed on a display surface at the time of execution of the screen control process based on the other example of a change. その他の変更例に係る、携帯電話機の外観構成を示す斜視図である。It is a perspective view which shows the external appearance structure of the mobile telephone based on the other modification.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、携帯電話機1の外観構成を示す正面図である。携帯電話機1は、キャビネット2と、表示面3と、マイクロフォン4と、スピーカ5と、キー操作部6と、を備える。   FIG. 1 is a front view showing an external configuration of the mobile phone 1. The mobile phone 1 includes a cabinet 2, a display surface 3, a microphone 4, a speaker 5, and a key operation unit 6.

図2は、携帯電話機1の全体構成を示すブロック図である。携帯電話機1は、制御部1
1と、記憶部12と、表示部13と、操作入力部14と、音声入力部15と、音声出力部16と、音声処理部17と、キー操作入力部18と、通信部19と、を備える。
FIG. 2 is a block diagram showing the overall configuration of the mobile phone 1. The mobile phone 1 includes a control unit 1
1, a storage unit 12, a display unit 13, an operation input unit 14, a voice input unit 15, a voice output unit 16, a voice processing unit 17, a key operation input unit 18, and a communication unit 19. Prepare.

表示面3は、キャビネット2の正面に配されている。表示面3は、表示部13の表示面である。表示面3には画面が表示される。   The display surface 3 is arranged in front of the cabinet 2. The display surface 3 is a display surface of the display unit 13. A screen is displayed on the display surface 3.

マイクロフォン4は、入力した音に応じた電気信号を生成する。生成された電気信号は、音声処理部17へ出力される。スピーカ5は、音声処理部17から入力する電気信号に応じた音を出力する。   The microphone 4 generates an electrical signal corresponding to the input sound. The generated electrical signal is output to the sound processing unit 17. The speaker 5 outputs a sound corresponding to the electric signal input from the sound processing unit 17.

キー操作部6は、キャビネット2に設けられている。キー操作部6は、ソフトキー、ハードキー等のキーから構成されている。キー操作部6を構成する各キーには、実行中のプログラム等に応じた各種の機能が、割り当てられる。   The key operation unit 6 is provided in the cabinet 2. The key operation unit 6 includes keys such as soft keys and hard keys. Various functions corresponding to the program being executed are assigned to each key constituting the key operation unit 6.

記憶部12は、ROM、RAM等から構成される。記憶部12には、各種のプログラムが記憶されている。記憶部12に記憶されるプログラムは、携帯電話機1の各部を制御するための制御プログラムの他、各種(たとえば、電話、電子メール、地図、テレビ電話、SMS(ショートメッセージサービス)、ウェブブラウザ、電子文書閲覧、ゲーム、カメラ、スケジュール管理)のアプリケーション等である。記憶部12は、後述される表示処理部31と検出処理部32の機能を実行するためのプログラムも記憶する。   The storage unit 12 includes a ROM, a RAM, and the like. The storage unit 12 stores various programs. The program stored in the storage unit 12 is a control program for controlling each unit of the mobile phone 1 as well as various types (for example, telephone, e-mail, map, videophone, SMS (short message service), web browser, electronic Document browsing, game, camera, schedule management) applications, etc. The storage unit 12 also stores a program for executing functions of a display processing unit 31 and a detection processing unit 32 described later.

記憶部12は、プログラムの実行の際、一時的に利用または生成されるデータを記憶する、ワーキング領域としても使用される。   The storage unit 12 is also used as a working area for storing data that is temporarily used or generated when the program is executed.

制御部11は、CPU等から構成されている。制御部11は、プログラムに従って、携帯電話機1を構成する各部(記憶部12、表示部13、操作入力部14、音声入力部15、音声出力部16、音声処理部17、キー操作入力部18、通信部19等)を、制御する。   The control unit 11 includes a CPU and the like. In accordance with the program, the control unit 11 is configured according to each unit (storage unit 12, display unit 13, operation input unit 14, voice input unit 15, voice output unit 16, voice processing unit 17, key operation input unit 18, key operation input unit 18, The communication unit 19 and the like are controlled.

表示部13は、液晶ディスプレイ等から構成される。表示部13は、制御部11からの制御信号と画像信号とに基づき、表示面3に画面を表示する。表示部13は、液晶ディスプレイに限らず、有機ELディスプレイ等、他の表示装置から構成されてもよい。   The display unit 13 includes a liquid crystal display or the like. The display unit 13 displays a screen on the display surface 3 based on the control signal and the image signal from the control unit 11. The display unit 13 is not limited to a liquid crystal display, and may be composed of other display devices such as an organic EL display.

操作入力部14は、指、タッチペン等(簡単のため、以下、単に「指」と言う。)の表示面3への接触を検出するタッチセンサ等から構成されている。タッチセンサは、上記の液晶ディスプレイと一体的に形成されることにより、タッチパネルを構成している。タッチセンサは、透明なシート状に形成され、表示面3上を覆うように配されている。操作入力部14を構成するタッチセンサは、静電容量式、超音波式、感圧式、抵抗膜式、光検知式等、各種のタッチセンサであってよい。   The operation input unit 14 includes a touch sensor or the like that detects contact of a finger, a touch pen, or the like (hereinafter simply referred to as “finger” for simplicity) on the display surface 3. The touch sensor forms a touch panel by being integrally formed with the liquid crystal display. The touch sensor is formed in a transparent sheet shape and is disposed so as to cover the display surface 3. The touch sensor constituting the operation input unit 14 may be various touch sensors such as a capacitance type, an ultrasonic type, a pressure sensitive type, a resistance film type, and a light detection type.

操作入力部14は、指の接触による表示面3に対する操作の入力を受け付ける。操作入力部14は、指が触れた表示面3上の位置を入力位置として検出し、検出した入力位置に応じた位置信号を制御部11へ出力する。   The operation input unit 14 receives an operation input to the display surface 3 by finger contact. The operation input unit 14 detects a position on the display surface 3 touched by the finger as an input position, and outputs a position signal corresponding to the detected input position to the control unit 11.

ユーザは、表示面3に指を触れさせることによりタッチ操作を行える。タッチ操作は、タップ操作、スライド操作、フリック操作等の、表示面3に指を触れさせる各種の操作である。タップ操作は、表示面3に指を接触させた後、リリース(離す)する操作である。フリック操作は、表示面3に指を接触させて弾く操作(指を接触させた後、所定速度で移動させて離す操作)である。スライド操作は、表示面3に指を接触させたまま所定距離移動させた後、タッチパネル上より指を離す操作である。   The user can perform a touch operation by touching the display surface 3 with a finger. The touch operation is various operations such as a tap operation, a slide operation, and a flick operation that cause the finger to touch the display surface 3. The tap operation is an operation of releasing (releasing) after bringing a finger into contact with the display surface 3. The flick operation is an operation of bringing the finger into contact with the display surface 3 and playing it (an operation of moving the finger at a predetermined speed and then releasing it). The slide operation is an operation in which the finger is released from the touch panel after moving a predetermined distance while keeping the finger in contact with the display surface 3.

制御部11は、操作入力部14からのタッチ操作の入力位置に応じた位置信号に基づき、タッチ操作の入力位置および当該入力位置の移動、タッチ操作の開始および終了のタイミング、タッチ操作の種類(タップ操作、スライド操作、フリック操作等)等を特定する。   Based on the position signal corresponding to the input position of the touch operation from the operation input unit 14, the control unit 11 moves the input position of the touch operation, the movement of the input position, the start and end timing of the touch operation, and the type of touch operation ( (Tap operation, slide operation, flick operation, etc.).

音声入力部15は、マイクロフォン4等から構成される。音声入力部15は、マイクロフォン4からの電気信号を、音声処理部17へ出力する。   The voice input unit 15 includes a microphone 4 and the like. The voice input unit 15 outputs an electrical signal from the microphone 4 to the voice processing unit 17.

音声出力部16は、スピーカ5等から構成される。音声出力部16は、音声処理部17からの電気信号を入力し、スピーカ5から音声を出力する。   The audio output unit 16 includes the speaker 5 and the like. The audio output unit 16 inputs an electrical signal from the audio processing unit 17 and outputs audio from the speaker 5.

音声処理部17は、音声入力部15からの電気信号にA/D変換等を施し、変換後のデジタルの音声信号を制御部11へ出力する。音声処理部17は、制御部11からのデジタルの音声信号にデコード処理およびD/A変換等を施し、変換後の電気信号を音声出力部16に出力する。   The audio processing unit 17 performs A / D conversion or the like on the electrical signal from the audio input unit 15 and outputs the converted digital audio signal to the control unit 11. The audio processing unit 17 performs decoding processing, D / A conversion, and the like on the digital audio signal from the control unit 11, and outputs the converted electric signal to the audio output unit 16.

キー操作入力部18は、キー操作部6の各キーが押下されたときに、押下されたキーに応じた信号を制御部11へ出力する。   The key operation input unit 18 outputs a signal corresponding to the pressed key to the control unit 11 when each key of the key operation unit 6 is pressed.

通信部19は、通話や通信のための、信号を変換するための回路、電波を送受信するアンテナ等を備える。通信部19は、制御部11から入力される通話や通信のための信号を無線信号に変換し、変換された無線信号を、アンテナを介して、基地局や他の通信装置等の通信先へ送信する。また、通信部19は、アンテナを介して受信した無線信号を制御部11が利用できる形式の信号へ変換し、変換された信号を制御部11へ出力する。   The communication unit 19 includes a circuit for converting a signal for communication and communication, an antenna for transmitting and receiving radio waves, and the like. The communication unit 19 converts a call or communication signal input from the control unit 11 into a radio signal, and transmits the converted radio signal to a communication destination such as a base station or another communication device via an antenna. Send. The communication unit 19 converts a radio signal received via the antenna into a signal in a format that can be used by the control unit 11, and outputs the converted signal to the control unit 11.

携帯電話機1は、複数のアプリケーションを実行できる、マルチタスクの機能を備える。携帯電話機1は、さらに、起動されたアプリケーションの複数の実行画面を同時に表示面3に表示する機能を備える。   The mobile phone 1 has a multitasking function that can execute a plurality of applications. The mobile phone 1 further has a function of simultaneously displaying a plurality of execution screens of the activated application on the display surface 3.

制御部11は、以下に説明する画面制御処理(図3(a))の実行のため、表示処理部31と検出処理部32を備える。画面制御処理は、表示面3に対する所定の条件を満たす操作(画面変更操作)を検出処理部32が検出することに基づき、表示処理部31がアプリケーションの実行画面の配置を変更するための処理である。   The control unit 11 includes a display processing unit 31 and a detection processing unit 32 for executing a screen control process (FIG. 3A) described below. The screen control process is a process for the display processing unit 31 to change the arrangement of the execution screen of the application based on the detection processing unit 32 detecting an operation (screen changing operation) that satisfies a predetermined condition on the display surface 3. is there.

図3(a)は、本実施の形態に係る画面制御処理を示すフローチャートである。図4(a)および図4(b)は、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。図3に示す画面制御処理は、ユーザによる所定の操作に基づきアプリケーションが起動され、図4(a)に示すようなアプリケーションに基づく複数(2つ)の実行画面が、表示面3に表示されるときに実行される。   FIG. 3A is a flowchart showing screen control processing according to the present embodiment. FIG. 4A and FIG. 4B are diagrams showing an example of transition of the screen displayed on the display surface 3 when the screen control process is executed. In the screen control process shown in FIG. 3, an application is started based on a predetermined operation by the user, and a plurality (two) of execution screens based on the application as shown in FIG. 4A are displayed on the display surface 3. When executed.

以下、簡潔に説明するため、2つのアプリケーション(A1、A2)の実行画面が表示面3において互いに隣接するよう表示される場合における画面制御処理の実行例について説明する。説明は省略するが、3つ以上の実行画面が表示面3に表示される場合には、境界を挟んで隣接する実行画面を対象とする画面制御処理の実行が可能である。   Hereinafter, for the sake of brevity, an execution example of the screen control process when the execution screens of the two applications (A1, A2) are displayed adjacent to each other on the display surface 3 will be described. Although description is omitted, when three or more execution screens are displayed on the display surface 3, it is possible to execute the screen control process for the execution screens adjacent to each other with the boundary interposed therebetween.

図3(a)に示す画面制御処理が実行開始されると、表示処理部31は、初期表示処理(S101)を実行する。表示処理部31は、表示面3上において、第1領域R1に第1実行画面41を表示するとともに、第1領域R1に境界Bを挟んで隣接する第2領域R2に第2実行画面42を表示する。第1実行画面41と第2実行画面42は、それぞれ、起
動されたアプリケーションA1、A2の実行画面である。第1実行画面41と第2実行画面42は、境界Bを挟んで互いに隣接する。
When the execution of the screen control process shown in FIG. 3A is started, the display processing unit 31 executes an initial display process (S101). On the display surface 3, the display processing unit 31 displays the first execution screen 41 in the first region R1, and the second execution screen 42 in the second region R2 adjacent to the first region R1 with the boundary B interposed therebetween. indicate. The first execution screen 41 and the second execution screen 42 are execution screens of the activated applications A1 and A2, respectively. The first execution screen 41 and the second execution screen 42 are adjacent to each other across the boundary B.

表示処理部31は、境界Bに沿った線の画像等、境界Bを示す画像を表示面に表示する。   The display processing unit 31 displays an image showing the boundary B, such as an image of a line along the boundary B, on the display surface.

表示処理部31は、第1領域R1と第2領域R2との境界Bの位置を、パラメータVに基づいて定める。パラメータVは、境界BのY座標を示し、初期表示処理に先立ち予め所定の初期値に設定される。   The display processing unit 31 determines the position of the boundary B between the first region R1 and the second region R2 based on the parameter V. The parameter V indicates the Y coordinate of the boundary B, and is set to a predetermined initial value in advance prior to the initial display process.

ここで、表示面3上の座標は、図4(a)に示されるX軸(水平方向)とY軸(垂直方向)により定められる。X軸座標とY軸座標の各単位は、たとえばピクセルである。原点(0、0)は、表示面3の左上の角に対応し、表示面3上での境界Bの左端の位置に対応する座標は(0、V)である。   Here, the coordinates on the display surface 3 are determined by the X axis (horizontal direction) and the Y axis (vertical direction) shown in FIG. Each unit of the X-axis coordinate and the Y-axis coordinate is, for example, a pixel. The origin (0, 0) corresponds to the upper left corner of the display surface 3, and the coordinates corresponding to the position of the left end of the boundary B on the display surface 3 are (0, V).

表示処理部31は、境界Bに基づき、第1領域R1と第2領域R2とを定義する。第1領域R1はY座標がV未満の領域である。第2領域R2は、Y座標がV以上の領域である。   The display processing unit 31 defines a first region R1 and a second region R2 based on the boundary B. The first region R1 is a region whose Y coordinate is less than V. The second region R2 is a region whose Y coordinate is V or more.

パラメータVの変更が、境界Bの移動に応じてなされるとともに、当該移動に伴い第1領域R1と第2領域R2が変化する。パラメータVを増加させる変更は、境界Bの下方向(Y軸正方向)への移動に対応する。当該移動に伴い第1領域R1は拡大し、第2領域R2は縮小する。逆に、パラメータVを減少させる変更は、境界Bの上方向(Y軸負方向)への移動に対応する。当該移動に伴い第1領域R1は縮小し、第2領域R2は拡大する。変化後の第1領域R1と第2領域R2は、移動後の領域Bを挟んで互いに隣接する。   The parameter V is changed in accordance with the movement of the boundary B, and the first area R1 and the second area R2 change with the movement. The change that increases the parameter V corresponds to the downward movement of the boundary B (Y-axis positive direction). With the movement, the first region R1 is enlarged and the second region R2 is reduced. Conversely, a change that decreases the parameter V corresponds to a movement of the boundary B in the upward direction (Y-axis negative direction). With the movement, the first region R1 is reduced and the second region R2 is enlarged. The first region R1 and the second region R2 after the change are adjacent to each other across the region B after the movement.

初期表示処理(S101)の実行後、制御部11が操作入力部14からの位置信号に基づき表示面3に対するタッチ操作を検出した場合(S102:YES)、検出処理部32が検出処理(S103)を実行する。   After the initial display process (S101), when the control unit 11 detects a touch operation on the display surface 3 based on the position signal from the operation input unit 14 (S102: YES), the detection processing unit 32 performs the detection process (S103). Execute.

図3(b)は、検出処理ルーチンを示すフローチャートである。検出処理ルーチンは、ステップS103の検出処理の内容を示す。検出処理は、画面変更操作を検出するための処理である。検出処理部32は、タッチ操作の初期の入力位置(開始位置)が境界B上にある場合、画面変更操作が検出されたとして、フラグFに「1」を設定し(S110)、検出処理ルーチンを終了する。検出処理部32は、タッチ操作の初期の入力位置が境界B上にない場合、画面変更操作が検出されないとして、フラグFに「0」を設定し(S110)、検出処理ルーチンを終了する。   FIG. 3B is a flowchart showing the detection processing routine. The detection process routine shows the contents of the detection process in step S103. The detection process is a process for detecting a screen change operation. When the initial input position (start position) of the touch operation is on the boundary B, the detection processing unit 32 sets “1” in the flag F, assuming that the screen change operation is detected (S110), and the detection processing routine. Exit. If the initial input position of the touch operation is not on the boundary B, the detection processing unit 32 sets “0” to the flag F, assuming that the screen change operation is not detected (S110), and ends the detection processing routine.

ここで、タッチ操作の初期の入力位置(開始位置)とは、ステップS102において検出されたタッチ操作の入力位置を指す。初期の入力位置のY座標が、上記パラメータVに略等しい場合、フラグFに「1」が設定される(F=1。S110)。タッチ操作の入力位置のY座標は、操作入力部14からの位置信号に基づき取得される。初期の入力位置のY座標が、パラメータVに略等しくない場合、フラグFに「0」が設定される(F=0。S111)。   Here, the initial input position (start position) of the touch operation refers to the input position of the touch operation detected in step S102. If the Y coordinate of the initial input position is substantially equal to the parameter V, “1” is set in the flag F (F = 1, S110). The Y coordinate of the input position of the touch operation is acquired based on the position signal from the operation input unit 14. When the Y coordinate of the initial input position is not substantially equal to the parameter V, “0” is set in the flag F (F = 0, S111).

画面制御処理において、フラグFの設定を行う検出処理(S103)は、タッチ操作が開始(S102:YES)されてから終了(S107:NO)までの間、1回限り実行される。このため、一連のタッチ操作が継続する間、フラグFは、一度「0」または「1」に設定された後には変更されない。   In the screen control process, the detection process (S103) for setting the flag F is executed only once after the touch operation is started (S102: YES) to the end (S107: NO). For this reason, the flag F is not changed once it is set to “0” or “1” while a series of touch operations continues.

F=0の場合(S104:NO)には、ステップS107の処理が実行される。ステップS107において、制御部11は、タッチ操作が継続しているか否かを判定する処理を実行する。ステップS107においてNOと判定された場合には、再びステップS104の判定処理が実行される。画面変更操作とみなされないタッチ操作(F=0)が継続する間、ステップS104とS107の処理が繰り返し実行され、後述の境界Bの移動(S105)および画面(第1実行画面41、第2実行画面42)の更新(S106)のための処理は実行されない。つまり、画面変更操作として検出されていないタッチ操作(F=0)が継続する間、境界Bの位置は固定される。   If F = 0 (S104: NO), the process of step S107 is executed. In step S107, the control unit 11 executes processing for determining whether or not the touch operation is continued. If it is determined as NO in step S107, the determination process in step S104 is executed again. While the touch operation (F = 0) that is not regarded as a screen change operation continues, the processes in steps S104 and S107 are repeatedly executed, and the movement of the boundary B (S105) and the screen (first execution screen 41, second execution) described later are performed. The process for updating (S106) of screen 42) is not executed. That is, the position of the boundary B is fixed while the touch operation (F = 0) that is not detected as the screen change operation continues.

F=1の場合、すなわち検出処理部32によって画面変更操作が検出された場合(S104:YES)、表示処理部31は、ステップS105〜S107の処理を実行する。   When F = 1, that is, when a screen change operation is detected by the detection processing unit 32 (S104: YES), the display processing unit 31 executes the processes of steps S105 to S107.

たとえば図4(a)に示すように、ユーザがタッチ操作を表示面3に対して行い(S102:YES)、且つ、当該タッチ操作の初期の入力位置が境界B上にある場合(S109:YES)、フラグFが「1」に設定さる(S110→S104:YES)。この場合、表示処理部31は、ステップS105〜S107の処理を実行する。   For example, as shown in FIG. 4A, when the user performs a touch operation on the display surface 3 (S102: YES) and the initial input position of the touch operation is on the boundary B (S109: YES). ), The flag F is set to “1” (S110 → S104: YES). In this case, the display processing unit 31 executes the processes of steps S105 to S107.

ステップS105の処理は、取得されるタッチ操作の入力位置のY座標が増減することに対応して、境界Bを上下に移動させるための処理である。タッチ操作の入力位置のY座標の増加および減少は、それぞれ、境界Bの下方向および上方向への移動に対応する。   The process in step S105 is a process for moving the boundary B up and down in response to an increase or decrease in the Y coordinate of the input position of the acquired touch operation. The increase and decrease of the Y coordinate of the input position of the touch operation correspond to the downward and upward movement of the boundary B, respectively.

表示処理部31は、ステップS0105において、パラメータVをタッチ操作の現在の入力位置のY座標Y1に設定する。上記の通り、設定されたパラメータVに基づき、境界Bが移動される。表示処理部31は、ステップS106において、境界Bの移動に伴い変化した第1領域R1と第2領域R2にそれぞれ適合するよう、第1実行画面41と第2実行画面42を更新する。   In step S0105, the display processing unit 31 sets the parameter V to the Y coordinate Y1 of the current input position of the touch operation. As described above, the boundary B is moved based on the set parameter V. In step S106, the display processing unit 31 updates the first execution screen 41 and the second execution screen 42 so as to match the first region R1 and the second region R2 that have changed as the boundary B moves.

表示処理部31は、制御部11がステップS102において検出されたタッチ操作が継続していると判定した場合(S107:YES)、ステップS104〜S106の処理を再び実行する。すなわち、ユーザによりなされているタッチ操作が終了する(指が表示面3からリリースされる)ことに基づきステップS107においてNOと判定されるまで、表示処理部31は、ステップS104〜S106の処理を繰り返し実行する。   When the control unit 11 determines that the touch operation detected in step S102 is continuing (S107: YES), the display processing unit 31 executes the processes in steps S104 to S106 again. That is, the display processing unit 31 repeats the processes of steps S104 to S106 until it is determined NO in step S107 based on the end of the touch operation performed by the user (the finger is released from the display surface 3). Run.

上記の実行画面(41、42)の更新は、たとえば、実行画面の領域(R1、R2)の広さの変化に応じた画像の拡大または縮小による更新、レイアウトの更新等である。領域が拡大または縮小することに対応して、実行画面に表示されていた情報の、さらなる詳細情報または概略情報が表示されるよう、実行画面が更新されてもよい。   The update of the execution screen (41, 42) is, for example, an update by enlargement or reduction of an image according to a change in the size of the area (R1, R2) of the execution screen, a layout update, or the like. The execution screen may be updated so that further detailed information or summary information of the information displayed on the execution screen is displayed in response to the area being enlarged or reduced.

図4(a)に示されるように、タッチ操作の入力位置が、初期の入力位置Pから左下を向く矢印の方向へ移動するとき、入力位置のY座標Y1は、徐々に増加する。パラメータVが、徐々に増加するY座標Y1に設定されるため(S105)、境界Bが徐々に下方向へ移動される。境界Bの移動に伴い、第1領域R1と第2領域R2は、移動する境界Bで隣接するよう変化する。表示処理部31は、変化する第1領域R1と第2領域R2にそれぞれ適合するよう、第1実行画面41と第2実行画面42とが更新される。タッチ操作が継続することによって現在の入力位置が検出される間、第1実行画面41と第2実行画面42は、現在の入力位置を通る境界Bにおいて隣接するよう、継続的に更新される。   As shown in FIG. 4A, when the input position of the touch operation moves from the initial input position P in the direction of the arrow pointing to the lower left, the Y coordinate Y1 of the input position gradually increases. Since the parameter V is set to the gradually increasing Y coordinate Y1 (S105), the boundary B is gradually moved downward. As the boundary B moves, the first region R1 and the second region R2 change so as to be adjacent at the moving boundary B. In the display processing unit 31, the first execution screen 41 and the second execution screen 42 are updated so as to adapt to the changing first region R1 and second region R2, respectively. While the current input position is detected by continuing the touch operation, the first execution screen 41 and the second execution screen 42 are continuously updated so as to be adjacent at the boundary B passing through the current input position.

タッチ操作の入力位置がユーザにより所望の位置まで移動された後、図4(a)に示す現在の入力位置Qが操作入力部14により検出されたとき、図4(b)に示すように、パラメータVは、現在の入力位置QのY座標Y1に設定される(S105)。境界Bは、現
在の入力位置Qへ移動される。そして、移動後の境界Bを挟んで隣接するように、第1実行画面41と第2実行画面42が表示面3に表示される。
After the input position of the touch operation is moved to a desired position by the user, when the current input position Q shown in FIG. 4 (a) is detected by the operation input unit 14, as shown in FIG. 4 (b), The parameter V is set to the Y coordinate Y1 of the current input position Q (S105). The boundary B is moved to the current input position Q. Then, the first execution screen 41 and the second execution screen 42 are displayed on the display surface 3 so as to be adjacent to each other with the boundary B after being moved.

現在の入力位置Qが検出されているときにタッチ操作が検出されなくなった場合(S107:NO)、上述の通り、制御部11はステップS108の処理へ進む。ステップS108において、制御部11は、アプリケーションA1またはアプリケーションA2が終了したか否かを判定する。2つのアプリケーションA1、A2がともに終了していない場合(S108:NO)、表示面3に対するタッチ操作を再び検出すべくステップS102の処理が実行される。   When the touch operation is not detected when the current input position Q is detected (S107: NO), the control unit 11 proceeds to the process of step S108 as described above. In step S108, the control unit 11 determines whether or not the application A1 or the application A2 is terminated. When the two applications A1 and A2 are not finished (S108: NO), the process of step S102 is executed to detect the touch operation on the display surface 3 again.

アプリケーションA1またはアプリケーションA2が終了した場合(S108:YES)、図3(a)に示される画面制御処理は終了する。一方のアプリケーション(A1またはA2)が終了していない場合、画面制御処理の終了後、当該アプリケーションに対応する実行画面(41または42)が表示面3全体に表示される。両方のアプリケーションA1、A2が終了している場合、所定の画面(ホーム画面等)が表示面3に表示される。   When the application A1 or the application A2 is finished (S108: YES), the screen control process shown in FIG. 3A is finished. When one application (A1 or A2) has not ended, an execution screen (41 or 42) corresponding to the application is displayed on the entire display surface 3 after the screen control process ends. When both the applications A1 and A2 are finished, a predetermined screen (home screen or the like) is displayed on the display surface 3.

図5(a)と図5(b)は、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。図4(a)、(b)を用いて説明されたタッチ操作とは逆に、入力位置のY座標が減少するような、スライド操作等のタッチ操作が検出される場合、図5(a)、(b)に示すように境界Bは上方向へ移動される。   FIG. 5A and FIG. 5B are diagrams showing an example of transition of the screen displayed on the display surface 3 when the screen control process is executed. In contrast to the touch operation described with reference to FIGS. 4A and 4B, when a touch operation such as a slide operation in which the Y coordinate of the input position decreases is detected, FIG. , (B), the boundary B is moved upward.

たとえば図5(a)に示すように、初期の入力位置Pから現在の入力位置Qへ入力位置が上方向へ移動するタッチ操作が検出され得る。図5(a)の場合、初期の入力位置Pは境界B上にあるため、検出処理部32は、当該タッチ操作を画面変更操作として検出する。この結果、表示処理部31は、境界Bを現在の入力位置Qへ移動させる。   For example, as shown in FIG. 5A, a touch operation in which the input position moves upward from the initial input position P to the current input position Q can be detected. In the case of FIG. 5A, since the initial input position P is on the boundary B, the detection processing unit 32 detects the touch operation as a screen change operation. As a result, the display processing unit 31 moves the boundary B to the current input position Q.

以上、本実施の形態によれば、ユーザによる画面変更操作に対応する方向へ境界Bが移動されるとともに、境界Bの移動に伴い領域サイズが変化した第1領域R1と第2領域R2にそれぞれ適合させて、第1実行画面41と第2実行画面42が、移動後の境界Bを挟んで隣接するよう更新される。   As described above, according to the present embodiment, the boundary B is moved in the direction corresponding to the screen change operation by the user, and the region size is changed in accordance with the movement of the boundary B, respectively. The first execution screen 41 and the second execution screen 42 are updated so as to be adjacent to each other across the boundary B after the movement.

ユーザは、画面変更操作によって表示面3に触れる指の位置を移動させることにより、移動の方向に対応した方向に境界Bを移動させることができる。たとえば、ユーザは、所望の実行画面の表示領域を拡大することにより、当該実行画面の閲覧や操作の利便性が向上する。ユーザが行う画面変更操作としてのタッチ操作は、設定画面を開く、メニュー画面において所望の項目を選択する等の手順を必要としない。   The user can move the boundary B in the direction corresponding to the moving direction by moving the position of the finger touching the display surface 3 by the screen changing operation. For example, the user expands the display area of the desired execution screen, thereby improving the convenience of browsing and operating the execution screen. The touch operation as the screen change operation performed by the user does not require procedures such as opening the setting screen and selecting a desired item on the menu screen.

したがって、本実施の形態によれば、アプリケーションに基づく実行画面が表示面に複数表示されている場合に、ユーザが、実行画面の表示領域を、所望のサイズに変更できる。   Therefore, according to the present embodiment, when a plurality of execution screens based on the application are displayed on the display surface, the user can change the display area of the execution screen to a desired size.

さらに、本実施の形態において、検出処理部32により検出される画面変更操作は、スライド操作、フリック操作等の、入力位置を移動させるタッチ操作である。境界Bが移動される方向は、入力位置の移動の境界Bに直交する成分の向きに対応している。そのため、ユーザは、タッチ操作に伴う境界Bの移動を直感的に認識することができる。   Furthermore, in the present embodiment, the screen change operation detected by the detection processing unit 32 is a touch operation that moves the input position, such as a slide operation or a flick operation. The direction in which the boundary B is moved corresponds to the direction of the component orthogonal to the boundary B of the input position movement. Therefore, the user can intuitively recognize the movement of the boundary B accompanying the touch operation.

さらに、本実施の形態において、タッチ操作の初期の入力位置、すなわちタッチ操作の開始位置が境界B上にあるときに、当該タッチ操作が画面変更操作として検出される。ユーザは、実行画面の表示領域の大きさを変更したいときには、表示面3上に表示された境界Bを指で触れてその指先を移動させるだけで、第1実行画面41と第2実行画面42の
配置を変更できるため、操作が簡易である。
Furthermore, in the present embodiment, when the initial input position of the touch operation, that is, the start position of the touch operation is on the boundary B, the touch operation is detected as the screen change operation. When the user wants to change the size of the display area of the execution screen, the user simply touches the boundary B displayed on the display surface 3 with his / her finger and moves the fingertip to move the first execution screen 41 and the second execution screen 42. Since the arrangement of can be changed, the operation is simple.

<変更例1>
本変更例1の構成によれば、タッチ操作の入力位置が、一方の領域から境界Bを越えて他方の領域へ移動するときに、タッチ操作に対応する方向に境界Bが移動される。
<Modification 1>
According to the configuration of the first modification example, when the input position of the touch operation moves from one area to the other area beyond the boundary B, the boundary B is moved in a direction corresponding to the touch operation.

図6(a)は、本変更例に係る画面制御処理を示すフローチャートである。図6(b)は、検出処理ルーチンを示すフローチャートである。図3(b)に示される検出処理ルーチンは、図6(a)に示されるステップS103の検出処理の内容を示す。   FIG. 6A is a flowchart showing the screen control process according to the present modification example. FIG. 6B is a flowchart showing the detection processing routine. The detection process routine shown in FIG. 3B shows the contents of the detection process in step S103 shown in FIG.

図6(a)のフローチャートでは、図3(a)におけるステップS107(タッチ操作の継続状態を判定する処理)においてNOと判定された場合、ステップS104ではなく、ステップS103が実行される。すなわち、上記実施の形態では、検出処理が1回のタッチ操作につき1回実行されていたのに対し、本変更例では、タッチ操作が継続する間、検出処理が繰り返し実行される。   In the flowchart of FIG. 6A, if NO is determined in step S107 (processing for determining the continuation state of the touch operation) in FIG. 3A, step S103 is executed instead of step S104. That is, in the above-described embodiment, the detection process is executed once for each touch operation. In the present modification, the detection process is repeatedly executed while the touch operation continues.

タッチ操作が継続する間に検出処理が繰り返し実行される結果、後述するように、検出処理部32は、1回のタッチ操作がなされている間、当該タッチ操作を画面変更操作として検出するときと、画面変更操作として検出しないときがあり得る。   As a result of repeatedly executing the detection process while the touch operation continues, as will be described later, the detection processing unit 32 detects the touch operation as a screen change operation while one touch operation is being performed. In some cases, the screen change operation is not detected.

図6(b)のフローチャートでは、図3(b)におけるステップS109の処理が、ステップS121とS122の処理に置き換えられる。   In the flowchart of FIG. 6B, the process of step S109 in FIG. 3B is replaced with the processes of steps S121 and S122.

本変更例に係る検出処理ルーチン(図6(b))について、以下に説明する。   The detection processing routine (FIG. 6B) according to this modification will be described below.

ステップS121において、検出処理部32は、タッチ操作の初期の入力位置が、第1領域R1と第2領域R2のうち一方の領域内にあるか否かを判定する。   In step S121, the detection processing unit 32 determines whether or not the initial input position of the touch operation is in one of the first region R1 and the second region R2.

ステップS121においてYESと判定された場合、検出処理部32は、現在のタッチ操作の入力位置が、上記一方の領域とは異なる他方の領域上にあるか否かを判定する。検出処理部32は、検出処理部32は、ステップS121においてもYESと判定した場合、ユーザにより画面変更操作がなされているとして、フラグFに「1」を設定し(F=1。S110)、検出処理ルーチンを終了する。   When it is determined YES in step S121, the detection processing unit 32 determines whether or not the input position of the current touch operation is on the other region different from the one region. If the detection processing unit 32 determines YES in step S121, the detection processing unit 32 sets “1” to the flag F on the assumption that the user has performed a screen change operation (F = 1, S110). The detection processing routine ends.

ステップS121、S122の処理は、タッチ操作の入力位置のY座標とパラメータVとの大小関係に基づき実行される。   The processes in steps S121 and S122 are executed based on the magnitude relationship between the Y coordinate of the input position of the touch operation and the parameter V.

検出処理部32は、ステップS121またはS122においてNOと判定した場合、ユーザにより画面変更操作がなされていないとして、フラグFに「0」を設定し(F=0。S111)、検出処理ルーチンを終了する。   When it is determined NO in step S121 or S122, the detection processing unit 32 sets “0” in the flag F (F = 0, S111), assuming that the screen change operation is not performed by the user, and ends the detection processing routine. To do.

図7(a)〜図7(c)は、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。図7(a)によれば、タッチ操作の初期の入力位置Pは、第1領域R1内にある。検出処理部32は、ステップS121の判定処理においては、入力位置が第1領域R1内にあるとしてYESと判定するため、ステップS122の判定処理が実行される。   FIG. 7A to FIG. 7C are diagrams illustrating transition examples of screens displayed on the display surface 3 when the screen control process is executed. According to FIG. 7A, the initial input position P of the touch operation is in the first region R1. In the determination process of step S121, the detection processing unit 32 determines YES because the input position is in the first region R1, and therefore the determination process of step S122 is executed.

ユーザの指の表示面3への接触位置が初期の入力位置Pに留まる場合、検出処理部32は、現在の入力位置(P)は、第2領域R2(他方の領域)上にないとして、ステップS122においてNOと判定する。このとき、検出処理部32は、画面変更操作を検出しな
い(F=0)。
When the contact position of the user's finger on the display surface 3 remains at the initial input position P, the detection processing unit 32 assumes that the current input position (P) is not on the second region R2 (the other region). In step S122, NO is determined. At this time, the detection processing unit 32 does not detect a screen change operation (F = 0).

この後、図7(a)に示す現在の入力位置P1が検出された場合、検出処理部32は、現在の入力位置P1が他方の領域上にあるため(S122:YES)、画面変更操作を検出する(F=1。S110)。   Thereafter, when the current input position P1 shown in FIG. 7A is detected, the detection processing unit 32 performs the screen change operation because the current input position P1 is on the other area (S122: YES). Detect (F = 1, S110).

画面制御処理において、F=1であることが検出された場合、表示処理部31は、パラメータVを、タッチ操作の現在の入力位置P1のY座標Y1に設定する(S105)。図7(b)に示すように、境界Bが現在の入力位置P1へ移動される。タッチ操作が画面変更操作として検出されているときには、境界Bは、現在の入力位置に追随して連続的に移動される。境界Bの移動に伴い、アプリケーションA1の実行画面が拡大するとともに、アプリケーションA2の実行画面が縮小される。   In the screen control process, when it is detected that F = 1, the display processing unit 31 sets the parameter V to the Y coordinate Y1 of the current input position P1 of the touch operation (S105). As shown in FIG. 7B, the boundary B is moved to the current input position P1. When the touch operation is detected as the screen change operation, the boundary B is continuously moved following the current input position. As the boundary B moves, the execution screen of the application A1 is enlarged and the execution screen of the application A2 is reduced.

現在の入力位置P1が、図7(c)に示す新たな現在の入力位置Qへ移動し得る。この場合、現在の入力位置Qは、初期の入力位置Pが属する第1領域R1(一方の領域)内にある。この場合、画面制御処理と検出処理ルーチンに基づき、境界Bは、図7(b)に示される位置に留まる。   The current input position P1 can be moved to a new current input position Q shown in FIG. In this case, the current input position Q is in the first area R1 (one area) to which the initial input position P belongs. In this case, the boundary B remains at the position shown in FIG. 7B based on the screen control process and the detection process routine.

つまり、現在の入力位置Qは他方の領域(第2領域R2)上にない(S122:NO)ため、検出処理部32は、画面変更操作を検出しない(F=0)。この場合、パラメータVを設定する処理が実行されないためにパラメータVは、図7(c)に示すように、図7(b)に示される状態のときに設定された値に保たれる。よって、境界Bは、図7(b)に示される位置に留まる。   That is, since the current input position Q is not on the other region (second region R2) (S122: NO), the detection processing unit 32 does not detect the screen change operation (F = 0). In this case, since the process for setting the parameter V is not executed, the parameter V is maintained at the value set in the state shown in FIG. 7B, as shown in FIG. 7C. Therefore, the boundary B remains at the position shown in FIG.

図7(a)〜(c)に示す通り、ユーザは、境界Bを、第1領域R1の側から押し下げるように移動させることができる。   As shown in FIGS. 7A to 7C, the user can move the boundary B so as to push it down from the first region R1 side.

ユーザは、第2領域R2内を初期のタッチ位置とするようタッチ操作を行い、第2領域R側から押し上げるように境界Bを移動させることによって、第1領域R1を縮小させることができる。   The user can reduce the first area R1 by performing a touch operation so that the second area R2 is set to the initial touch position and moving the boundary B so as to push up from the second area R side.

すなわち、画面制御処理は、境界Bを上方向(Y軸負方向)へ移動させるための画面変更操作も検出する。図7(a)に示す矢印の方向と逆方向へ移動するたち操作、つまり初期の入力位置がP1であり且つ現在の入力位置がPであるようなタッチ操作が検出された場合、検出処理部32は、画面変更操作を検出する(F=1)。この場合、境界Bは、Y座標がVであるような所定の位置から、現在の入力位置Pへ、上方向へ移動される。   That is, the screen control process also detects a screen change operation for moving the boundary B upward (Y-axis negative direction). When an operation that moves in the direction opposite to the direction of the arrow shown in FIG. 7A, that is, a touch operation in which the initial input position is P1 and the current input position is P, is detected. 32 detects a screen change operation (F = 1). In this case, the boundary B is moved upward from a predetermined position where the Y coordinate is V to the current input position P.

以上、本変更例によれば、表示面3に対して第1領域R1内から第2領域R2へと継続するタッチ操作がなされたときに、すなわち、タッチ操作が一方の領域内から始まり、且つ、境界Bを越えて他方の領域へと入るように継続するときに、検出処理部32は、当該タッチ操作を画面変更操作として検出する。一方の領域が第1領域R1であるとき、他方の領域は第2領域R2である。一方の領域が第2領域R2であるとき、他方の領域は第1領域R1である。   As described above, according to this modified example, when a touch operation that continues from the first region R1 to the second region R2 is performed on the display surface 3, that is, the touch operation starts from one region, and When the detection processing unit 32 continues to enter the other region beyond the boundary B, the detection processing unit 32 detects the touch operation as a screen change operation. When one region is the first region R1, the other region is the second region R2. When one region is the second region R2, the other region is the first region R1.

本変更例に係る画面変更操作が検出されることによって、ユーザは、境界Bを、一方の領域の内側から押し広げるように移動させることができる。   By detecting the screen changing operation according to this modification example, the user can move the boundary B so as to push it out from the inside of one region.

本変更例の構成は、上記実施の形態の構成と組み合わせることが可能である。この場合、タッチ操作の初期の入力位置が境界B上にあるときには、上記実施の形態にて説明された画面制御処理と検出処理ルーチンが実行され、さらに、タッチ操作の初期の入力位置が
第1領域R1内または第2領域R2内にあるときには、本変更例にて説明された画面制御処理と検出処理ルーチンが実行される。
The configuration of this modified example can be combined with the configuration of the above embodiment. In this case, when the initial input position of the touch operation is on the boundary B, the screen control process and the detection process routine described in the above embodiment are executed, and further, the initial input position of the touch operation is the first input position. When in the area R1 or the second area R2, the screen control process and the detection process routine described in the present modification are executed.

<変更例2>
図8(a)は、本変更例に係る画面制御処理を示すフローチャートである。図8(b)および図8(c)は、本変更例に係る、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。
<Modification 2>
FIG. 8A is a flowchart showing a screen control process according to this modification. FIG. 8B and FIG. 8C are diagrams showing a transition example of the screen displayed on the display surface 3 when the screen control process is executed according to the present modification example.

本変更例における画面制御処理は、上記変更例1における画面制御処理に略同一である。ただし、本変更例における画面制御処理は、ステップS105の処理が図8(a)に示すようにステップS131の処理に置換されている点が、上記変更例1における画面制御処理と異なる。   The screen control process in the present modification is substantially the same as the screen control process in the first modification. However, the screen control process in the present modified example is different from the screen control process in the modified example 1 in that the process in step S105 is replaced with the process in step S131 as shown in FIG.

ステップS131の処理は、継続するタッチ操作に関して初めて当該処理が実行されるときの動作は、ステップS105の処理の動作と異なり、2回目以降の当該処理の動作は、ステップS105の処理と同一である。   In the process of step S131, the operation when the process is executed for the first time with respect to the continuing touch operation is different from the operation of the process of step S105, and the operation of the process after the second time is the same as the process of step S105. .

現在行われているタッチ操作に関して初めて当該ステップS131の処理が実行されるとき、表示処理部31は、パラメータVをV+ΔVまたはV−ΔVに設定する。ここで、ΔVは、正の所定値である。表示処理部31は、所定値ΔVに係る上記符号(+または−)を、タッチ操作に適合する方向へ境界Bが移動するよう決定する。   When the process of step S131 is executed for the first time with respect to the touch operation currently being performed, the display processing unit 31 sets the parameter V to V + ΔV or V−ΔV. Here, ΔV is a positive predetermined value. The display processing unit 31 determines the sign (+ or −) related to the predetermined value ΔV so that the boundary B moves in a direction suitable for the touch operation.

すなわち、タッチ操作の入力位置が、図8(a)に示すように第1領域R1内(初期の入力位置P)から、図8(b)に示すように境界B(現在の入力位置P1)上へ初めて移動した場合、表示処理部31は、V=V+ΔVと設定する。パラメータVの値がΔVだけ増加することにより、図8(c)に示すように境界Bは、所定値ΔVに対応する所定の距離だけ不連続に下方向へ移動される。これに伴い、アプリケーションA1の実行画面が境界Bの移動距離に応じて拡大される。   That is, the input position of the touch operation is changed from the first area R1 (initial input position P) as shown in FIG. 8A to the boundary B (current input position P1) as shown in FIG. 8B. When moving up for the first time, the display processing unit 31 sets V = V + ΔV. As the value of the parameter V increases by ΔV, the boundary B is discontinuously moved downward by a predetermined distance corresponding to the predetermined value ΔV as shown in FIG. Along with this, the execution screen of the application A1 is enlarged according to the moving distance of the boundary B.

同様に、タッチ操作の入力位置が、第2領域R2内から境界Bへ初めて移動した場合、表示処理部31は、V=V−ΔVと設定する。この場合、境界Bは、所定値ΔVに対応する所定の距離だけ不連続に上方向へ移動される。   Similarly, when the input position of the touch operation moves from the second region R2 to the boundary B for the first time, the display processing unit 31 sets V = V−ΔV. In this case, the boundary B is discontinuously moved upward by a predetermined distance corresponding to the predetermined value ΔV.

継続するタッチ操作において2回目以降にステップS131の処理が実行される場合がある。この場合、タッチ操作が画面変更操作として検出されているとき、上記変更例1と同様に、表示処理部31は、境界Bをタッチ操作の入力位置に追随させるように連続的に移動させる。   In the continuing touch operation, the process of step S131 may be executed after the second time. In this case, when the touch operation is detected as the screen change operation, the display processing unit 31 continuously moves the boundary B so as to follow the input position of the touch operation, as in the first modification.

以上、本変更例においても、タッチ操作が一方の領域内から始まり、且つ、境界Bを越えて他方の領域R2へと入るように継続するときに、検出処理部32は、当該タッチ操作を画面変更操作として検出する。継続するタッチ操作において、初めて当該タッチ操作の入力位置が境界B上に位置するときには、画面変更操作として検出される当該タッチ操作の方向へ境界Bが所定距離だけ移動される。ユーザは、境界Bの移動先を精密に指定する操作を行うことなく、境界Bを、画面変更操作の方向に対応した方向へ、所定距離だけ移動させることができる。よって、操作が簡易となる。   As described above, also in the present modification example, when the touch operation starts from one area and continues to enter the other area R2 beyond the boundary B, the detection processing unit 32 performs the touch operation on the screen. Detect as change operation. In the continuing touch operation, when the input position of the touch operation is positioned on the boundary B for the first time, the boundary B is moved by a predetermined distance in the direction of the touch operation detected as the screen change operation. The user can move the boundary B by a predetermined distance in a direction corresponding to the direction of the screen change operation without performing an operation of precisely designating the movement destination of the boundary B. Therefore, the operation is simplified.

境界Bの不連続な移動の後、ユーザがさらに境界Bの位置を修正することを望む場合、さらにタッチ操作を継続することによって、上記変更例1と同様に境界Bを連続的に移動させることができる。   When the user desires to further modify the position of the boundary B after the discontinuous movement of the boundary B, the boundary B is continuously moved in the same manner as in the first modification by continuing the touch operation. Can do.

ステップS131におけるパラメータVをΔV増減させる設定の実行は、初めてステップS131が実行されるときだけでなく、最初のN回(Nは所定の正整数)においてなされてもよい。   The setting for increasing or decreasing the parameter V by ΔV in step S131 may be performed not only when step S131 is executed for the first time but also in the first N times (N is a predetermined positive integer).

本変更例の構成は、上記実施の形態の構成と組み合わせることが可能である。   The configuration of this modified example can be combined with the configuration of the above embodiment.

<変更例3>
本変更例では、ユーザが、拡大あるいは縮小したい表示領域(実行画面)内において、領域を拡げるようなタッチ操作あるいは縮めるようなタッチ操作を行ったときに、画面変更操作が検出され、タッチ操作の方向に対応した方向に境界Bが移動される。
<Modification 3>
In this modification example, when the user performs a touch operation that enlarges or reduces the area in the display area (execution screen) that is to be enlarged or reduced, the screen change operation is detected, and the touch operation is performed. The boundary B is moved in a direction corresponding to the direction.

図9(a)は、本変更例に係る、本実施の形態に係る画面制御処理を示すフローチャートである。図9(b)は、本変更例に係る、検出処理ルーチンを示すフローチャートである。   FIG. 9A is a flowchart showing screen control processing according to the present embodiment, according to this modification. FIG. 9B is a flowchart showing a detection processing routine according to this modification.

図9(a)に示すフローチャートでは、図3(a)に示すフローチャートのステップS104の後段にステップS141の処理が挿入され、さらにステップS105の処理がステップS142の処理に置き換えられる。図9(b)に示すフローチャートでは、図3(b)に示すフローチャートのステップS109の処理がステップS143の処理に置き換えられる。   In the flowchart shown in FIG. 9A, the process in step S141 is inserted after step S104 in the flowchart shown in FIG. 3A, and the process in step S105 is replaced with the process in step S142. In the flowchart shown in FIG. 9B, the process in step S109 in the flowchart shown in FIG. 3B is replaced with the process in step S143.

検出処理部32は、検出処理ルーチン(図9(b))において、タッチ操作の初期の入力位置が第1領域R1および第2領域R2のうち一方の領域上にある場合、画面変更操作を検出する(F=1)。   The detection processing unit 32 detects the screen change operation when the initial input position of the touch operation is on one of the first region R1 and the second region R2 in the detection processing routine (FIG. 9B). (F = 1).

図10(a)〜(c)は、本変更例に係る、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。   FIGS. 10A to 10C are diagrams illustrating an example of transition of the screen displayed on the display surface 3 when the screen control process is executed according to this modification example.

タッチ操作の初期の入力位置P(図10(a))が検出された場合、当該入力位置は第1領域R1(一方の領域)上にあるため、検出処理部32は、当該タッチ操作を画面変更操作として検出し、Fを「1」に設定する(S110)。   When the initial input position P of the touch operation (FIG. 10A) is detected, the detection processing unit 32 displays the touch operation on the screen because the input position is on the first region R1 (one region). The change operation is detected and F is set to “1” (S110).

F=1である場合(S104:YES)、表示処理部31は、ステップS141において、上記の初期の入力位置Pに基づく内分比αを取得する。   When F = 1 (S104: YES), the display processing unit 31 acquires the internal ratio α based on the initial input position P in step S141.

ここで、内分比αは、タッチ操作の対象である第1領域R1の、境界Bに直交する方向に関する長さを、初期の入力位置によって内分したときの内分比を指す。具体的には、タッチ操作の初期の入力位置のY座標をY0とするとき、内分比αは、式α=(V−Y0)/Y0によって与えられる。表示処理部31は、当該式に基づき演算処理を実行することにより内分比αを取得する。   Here, the internal ratio α indicates the internal ratio when the length of the first region R1 that is the target of the touch operation in the direction orthogonal to the boundary B is internally divided by the initial input position. Specifically, when the Y coordinate of the initial input position of the touch operation is Y0, the internal ratio α is given by the equation α = (V−Y0) / Y0. The display processing unit 31 acquires the internal division ratio α by executing a calculation process based on the formula.

当該内分比αは、初期の入力位置Pに基づき決定される値であるため、ステップS141が一度実行された後、当該タッチ操作が継続する間(S107:YES)は、ステップS141の処理はスキップされる。   Since the internal ratio α is a value determined based on the initial input position P, the process in step S141 is performed while the touch operation continues after step S141 is executed once (S107: YES). Skipped.

図10(a)の例と異なり、初期の入力位置Pが第2領域R2上にある場合には、内分比αは、式α=(Y0−V)/(H−Y0)で与えられる。ここで、Hは、第1領域R1と第2領域R2の境界Bの直交方向に関する長さを表す。   Unlike the example of FIG. 10A, when the initial input position P is on the second region R2, the internal ratio α is given by the equation α = (Y0−V) / (H−Y0). . Here, H represents the length in the orthogonal direction of the boundary B between the first region R1 and the second region R2.

初期の入力位置Pに基づく内分比αの取得の後(S141)、表示処理部31は、タッ
チ操作の現在の入力位置に基づく内分比が、上記内分比αに一致するよう、パラメータVを設定する。
After acquiring the internal ratio α based on the initial input position P (S141), the display processing unit 31 sets the parameter so that the internal ratio based on the current input position of the touch operation matches the internal ratio α. Set V.

たとえば、図10(a)に矢印で示す方向にタッチ操作の入力位置が移動し、図10(b)に示すような現在の入力位置P1のY座標Y1が検出され得る。この場合、表示処理部31は、現在の入力位置P1に基づく内分比(V−Y1)/Y1がαに一致するようパラメータVを設定する。すなわち、パラメータVは、式V=(1+α)×Y1により与えられる。表示処理部31は、当該式に基づき演算処理を実行することによりパラメータVを設定する。   For example, the input position of the touch operation moves in the direction indicated by the arrow in FIG. 10A, and the Y coordinate Y1 of the current input position P1 as shown in FIG. 10B can be detected. In this case, the display processing unit 31 sets the parameter V so that the internal ratio (V−Y1) / Y1 based on the current input position P1 matches α. That is, the parameter V is given by the equation V = (1 + α) × Y1. The display processing unit 31 sets the parameter V by executing arithmetic processing based on the formula.

図10(a)に矢印で示すように、タッチ操作の入力位置が下方向へ移動する場合、入力位置のY座標は増大するため(Y1>Y0)、パラメータVは、上記式に基づき増加するよう設定される。   As indicated by the arrow in FIG. 10A, when the input position of the touch operation moves downward, the Y coordinate of the input position increases (Y1> Y0), so the parameter V increases based on the above equation. It is set as follows.

表示処理部31は、内分比αを保つよう境界Bを移動させるため、たとえば、タッチ操作の初期の入力位置が、Y軸方向に関して第1領域R1の中央である場合には、現在の入力位置が常に変更後の第1領域R1の中央に位置するよう境界Bが移動される。別の例として、タッチ操作の初期の入力位置が境界B上にあった場合には、境界Bは、上記実施の形態と同様に、現在の入力位置へ移動される。   Since the display processing unit 31 moves the boundary B so as to maintain the internal ratio α, for example, when the initial input position of the touch operation is the center of the first region R1 in the Y-axis direction, the current input The boundary B is moved so that the position is always located at the center of the first region R1 after the change. As another example, when the initial input position of the touch operation is on the boundary B, the boundary B is moved to the current input position as in the above embodiment.

図10(b)に矢印で示すようにタッチ操作の入力位置が上方向へ移動すると、図10(c)に示すようなタッチ操作の現在の入力位置P2のY座標Y2が取得され得る。上述と同様に、表示処理部31は、現在の入力位置に基づく内分比(V−Y2)/Y2が上記内分比αに一致するようパラメータVを設定する(S142)。この場合、パラメータVは減少するよう設定される。境界Bは、内分比αを保つように上方向に移動する。   When the input position of the touch operation moves upward as shown by an arrow in FIG. 10B, the Y coordinate Y2 of the current input position P2 of the touch operation as shown in FIG. 10C can be acquired. As described above, the display processing unit 31 sets the parameter V so that the internal ratio (V−Y2) / Y2 based on the current input position matches the internal ratio α (S142). In this case, the parameter V is set to decrease. The boundary B moves upward so as to maintain the internal ratio α.

以上、本変更例によれば、初期の入力位置に基づく内分比を保つよう、境界Bが移動される。この構成により、ユーザは、最初に一方の領域(第1領域R1または第2領域)をタッチした場合、当該一方の領域における相対的な入力位置が固定される。ユーザは、境界Bに触れなくても、所望の領域(実行画面)内でタッチ操作を行うことにより、境界Bを移動させることができ、便利である。   As described above, according to this modified example, the boundary B is moved so as to maintain the internal ratio based on the initial input position. With this configuration, when the user first touches one area (the first area R1 or the second area), the relative input position in the one area is fixed. Even if the user does not touch the boundary B, the user can move the boundary B by performing a touch operation in a desired area (execution screen), which is convenient.

<変更例4>
図11は、本変更例に係る、携帯電話機の全体構成を示すブロック図である。本変更例において、制御部11は、スクロール処理部33(後述)をさらに備える。
<Modification 4>
FIG. 11 is a block diagram showing the overall configuration of a mobile phone according to this modification. In the present modification example, the control unit 11 further includes a scroll processing unit 33 (described later).

図12(a)は、本変更例に係る、本実施の形態に係る、画面制御処理を示すフローチャートである。図12(b)は、本変更例に係る、検出処理ルーチンを示すフローチャートである。   FIG. 12A is a flowchart showing screen control processing according to the present embodiment, according to the present modification example. FIG. 12B is a flowchart showing a detection processing routine according to this modification.

図12(a)に示すフローチャートでは、図3(a)に示すフローチャートのステップS102の処理が削除され、さらにステップS105の処理がステップS151の処理に置き換えられる。図12(b)に示すフローチャートでは、図3(b)に示すフローチャートのステップS109の処理がステップS512〜S155の処理に置き換えられる。   In the flowchart shown in FIG. 12A, the process in step S102 in the flowchart shown in FIG. 3A is deleted, and the process in step S105 is replaced with the process in step S151. In the flowchart shown in FIG. 12B, the processing in step S109 in the flowchart shown in FIG. 3B is replaced with the processing in steps S512 to S155.

本変更例に係る画面制御処理は、アプリケーションA1またはアプリケーションA2の実行画面(41、42)が所定のスクロール操作を受け付け可能に表示面3に表示されるときに実行される。所定のスクロール操作は、対象の実行画面上において当該実行画面をスクロール表示させるための操作である。所定のスクロール操作は、たとえば、スクロール表示させる方向へのスライド操作やフリック操作である。   The screen control process according to this modification is executed when the execution screen (41, 42) of the application A1 or application A2 is displayed on the display surface 3 so as to be able to accept a predetermined scroll operation. The predetermined scroll operation is an operation for scrolling and displaying the execution screen on the target execution screen. The predetermined scroll operation is, for example, a slide operation or a flick operation in a scroll display direction.

以下では、簡単のため、図13(a)に示すようにアプリケーションA1の第1実行画面41が、所定のスクロール操作(たとえば、図13(a)に示す矢印の方向へのスライド操作)を受け付け可能に第1領域R1に表示されている場合における、画面制御処理について説明する。ただし、当該画面制御処理は、アプリケーションA2の第2実行画面42にも適用可能である。   In the following, for the sake of simplicity, the first execution screen 41 of the application A1 accepts a predetermined scroll operation (for example, a slide operation in the direction of the arrow shown in FIG. 13A) as shown in FIG. The screen control process when it is displayed in the first region R1 as possible is described. However, the screen control process can also be applied to the second execution screen 42 of the application A2.

スクロール処理部33は、アプリケーションA1の実行に基づき、上下方向へのスライド操作等をスクロール表示のためのスクロール操作として検出する。スクロール処理部33は、アプリケーションA1の実行に基づき、第1実行画面41を、検出したスクロール操作に対応する方向(上下方向)にスクロール表示する。   Based on the execution of the application A1, the scroll processing unit 33 detects a vertical slide operation or the like as a scroll operation for scroll display. The scroll processing unit 33 scrolls and displays the first execution screen 41 in the direction (vertical direction) corresponding to the detected scroll operation based on the execution of the application A1.

本変更例において説明に用いられる例では、実行画面は上下方向にスクロール表示される。本変更例の画面制御処理は、左右方向や、ななめ方向へのスクロール表示等、スクロールの方向に関係なく、適宜実行可能である。   In the example used for explanation in this modified example, the execution screen is scroll-displayed in the vertical direction. The screen control process of the present modification example can be appropriately executed regardless of the scrolling direction, such as scroll display in the left-right direction or the licking direction.

図13(a)において、第1実行画面41上の右下には、スクロールバー43が表示されている。スクロールバー43の垂直方向に関する位置は、スクロール表示によって表示されることができるコンテンツにおける第1実行画面41の位置を示す。スクロールバー43が第1領域R1の最下部に表示されていることが示す通り、第1実行画面41は、スクロール表示が完遂された状態にある。スクロールバー43が表示されない構成が採られてもよい。   In FIG. 13A, a scroll bar 43 is displayed at the lower right on the first execution screen 41. The position in the vertical direction of the scroll bar 43 indicates the position of the first execution screen 41 in the content that can be displayed by scroll display. As indicated by the scroll bar 43 being displayed at the bottom of the first region R1, the first execution screen 41 is in a state where scroll display has been completed. A configuration in which the scroll bar 43 is not displayed may be adopted.

ここで、スクロール表示が完遂された状態とは、アプリケーションの実行により表示されるべき画像全体のうち、最上部分または最下部分が第1実行画面41として第1領域R1に表示されている状態を言う。たとえば、ウェブブラウザのアプリケーションの実行中に表示されている実行画面において、実行画面に係るコンテンツの最上部または最下部が表示されている状態が、スクロール表示が完遂された状態である。   Here, the state where the scroll display is completed means a state where the uppermost part or the lowermost part of the entire image to be displayed by executing the application is displayed as the first execution screen 41 in the first region R1. say. For example, in the execution screen displayed during the execution of the application of the web browser, the state where the uppermost part or the lowermost part of the content related to the execution screen is displayed is a state where the scroll display is completed.

図13(a)に示すようなスクロール操作が検出された場合、第1実行画面41は、スクロール表示が完遂された状態にあるため、スクロール処理部33は、当該スクロール操作を受け付けず、スクロール処理部33はスクロール表示を実行しない。この例の場合、スクロール表示が完遂された状態にあることに起因して受け付けられないスクロール操作の方向(以下、単に「スクロール表示できない方向」と言う。)が上方向である。   When a scroll operation as shown in FIG. 13A is detected, the first execution screen 41 is in a state where the scroll display has been completed. The unit 33 does not execute scroll display. In the case of this example, the direction of the scroll operation that is not accepted because the scroll display has been completed (hereinafter simply referred to as “direction in which scroll display cannot be performed”) is the upward direction.

本変変更例に係る検出処理ルーチンについて説明する。   A detection processing routine according to this modification will be described.

ステップS152において、検出処理部32は、第1実行画面41が、スクロール表示が完遂された状態にある場合、YESと判定する。   In step S152, the detection processing unit 32 determines YES when the first execution screen 41 is in a state where the scroll display has been completed.

ステップS153において、検出処理部32は、第1領域R1に対して、スクロール表示できない方向へスクロール操作が検出された場合、YESと判定する。   In step S153, the detection processing unit 32 determines YES when a scroll operation is detected in the direction in which the first region R1 cannot be scroll-displayed.

ステップS154において、検出処理部32は、ステップS153においてYESと判定されるような、スクロール表示できない方向へのスクロール操作が、所定条件(後述)の下で繰り返された場合、YESと判定する。   In step S154, the detection processing unit 32 determines YES when a scroll operation in a direction in which scroll display cannot be performed as determined in step S153 is repeated under a predetermined condition (described later).

検出処理部32は、ステップS152〜S153においてYESと判定した場合、当該スクロール操作を画面変更操作として検出する(F=1。S110)。検出処理部32は、ステップS152〜S153の何れかにおいてNOと判定した場合、画面変更操作を検
出しない(F=0。S111)。
When it is determined YES in steps S152 to S153, the detection processing unit 32 detects the scroll operation as a screen change operation (F = 1, S110). If the detection processing unit 32 determines NO in any of steps S152 to S153, it does not detect a screen change operation (F = 0, S111).

スクロール表示できない方向へのスクロール操作に関する上記所定条件は、たとえば、スクロール表示できない方向へのスクロール操作の頻度に関する条件である。より具体的には、たとえば、所定条件は、スライド操作が所定時間(たとえば数秒程度)内に所定回数(たとえば数回)以上なされることである。   The predetermined condition regarding the scroll operation in the direction in which the scroll display cannot be performed is, for example, a condition regarding the frequency of the scroll operation in the direction in which the scroll display cannot be performed. More specifically, for example, the predetermined condition is that the slide operation is performed a predetermined number of times (for example, several times) or more within a predetermined time (for example, about several seconds).

表示処理部32は、画面変更操作が検出された場合(F=1)、ユーザにより画面変更操作なされたとして、パラメータVをV+ΔWに設定する。ΔWは所定の正の閾値である。パラメータVがV+ΔWに設定された結果、図13(b)に示すように、境界BがΔWだけ下方向へ移動される。アプリケーションA1の実行画面41がΔWの分だけ拡大する。   When a screen change operation is detected (F = 1), the display processing unit 32 sets the parameter V to V + ΔW on the assumption that the user has made a screen change operation. ΔW is a predetermined positive threshold. As a result of setting the parameter V to V + ΔW, the boundary B is moved downward by ΔW as shown in FIG. The execution screen 41 of the application A1 is enlarged by ΔW.

以上、本変更例によれば、検出処理部32は、第1実行画面41のスクロール表示が完遂された後、さらに、スクロール表示できない方向へスクロール操作が所定条件のもとで継続されたとき、当該スクロール操作を画面変更操作として検出する。たとえば、所定時間内に所定回数以上スクロール表示できない方向へのスクロール操作が検出された場合に、検出処理部32により画面変更操作が検出される。   As described above, according to the present modification example, after the scroll display of the first execution screen 41 is completed, the detection processing unit 32 further performs a scroll operation in a direction in which the scroll display cannot be performed under a predetermined condition. The scroll operation is detected as a screen change operation. For example, when a scroll operation in a direction in which scroll display cannot be performed more than a predetermined number of times within a predetermined time is detected, the detection processing unit 32 detects a screen change operation.

画面変更操作が検出されることにより、自動的に境界Bが第1領域R1を拡大する方向に移動される。   When the screen change operation is detected, the boundary B is automatically moved in the direction of enlarging the first region R1.

表示内容の閲覧を快適に行うことができない場合に第1領域R1が拡大されるため、ユーザは、第1領域R1に表示された第1実行画面41を快適に閲覧できる。   Since the first area R1 is enlarged when the display contents cannot be browsed comfortably, the user can comfortably browse the first execution screen 41 displayed in the first area R1.

<変更例5>
図14(a)〜(c)は、本変更例に係る、画面制御処理の実行時における、表示面3に表示される画面の遷移例を示す図である。
<Modification 5>
FIGS. 14A to 14C are diagrams illustrating transition examples of screens displayed on the display surface 3 at the time of execution of the screen control process according to the present modification example.

上記変更例4の画面制御処理に、境界Bの移動させる前に、ユーザへ当該境界Bの移動の実行を確認する確認処理がさらに付加されてもよい。   Before the boundary B is moved, a confirmation process for confirming execution of the movement of the boundary B to the user may be further added to the screen control process of the modification example 4 described above.

たとえば、上記変更例4において説明した図13(a)と同様に、画像変更操作とみなすスクロール操作が検出処理部32により検出された場合、図14(a)に示すように、表示処理部31が境界Bを強調するための表示を行う。   For example, as in FIG. 13A described in the modification example 4, when a scroll operation that is regarded as an image change operation is detected by the detection processing unit 32, as shown in FIG. Displays to emphasize the boundary B.

境界Bを強調するための表示は、境界Bを強調する視覚的効果を奏する各種の画像処理に基づく表示であり、たとえば、境界Bが光っているかのように見える表示、境界Bを点滅させる表示、境界Bの太さや色や柄を変更する表示等である。   The display for emphasizing the boundary B is a display based on various types of image processing that has a visual effect of emphasizing the boundary B. For example, a display that looks as if the boundary B is shining, and a display that blinks the boundary B And a display for changing the thickness, color, and pattern of the boundary B.

検出処理部32は、強調された境界Bに対する入力(タッチ操作)を待ち受ける。検出処理部32が図14(b)に示すような強調された境界Bに対する入力(タッチ操作)を検出した場合、表示処理部31は、境界Bを、図14(c)に示すように上記変更例3と同様に移動させる。   The detection processing unit 32 waits for an input (touch operation) to the emphasized boundary B. When the detection processing unit 32 detects an input (touch operation) to the emphasized boundary B as shown in FIG. 14B, the display processing unit 31 displays the boundary B as described above as shown in FIG. Move in the same manner as in the third modification.

検出処理部32は、境界Bを強調するための表示の開始後、所定時間以上境界Bに対する入力が検出されない場合には、当該強調表示を解除するとともに、境界Bに対する入力の待ち受けを停止する。   When the input for the boundary B is not detected for a predetermined time or longer after the display for emphasizing the boundary B is started, the detection processing unit 32 cancels the emphasis display and stops waiting for the input to the boundary B.

検出処理部32が境界B以外の位置のタッチ操作を検出した場合にも、当該強調表を解
除する。
Even when the detection processing unit 32 detects a touch operation at a position other than the boundary B, the highlight table is canceled.

以上、本変更例5によれば、画像変更操作としてのスクロール操作が検出処理部32により検出された場合、境界Bの移動に関する確認処理が実行される。確認処理は、境界Bを強調するための表示処理である。強調された境界Bに対する入力を検出処理部32が検出したことに基づいて、表示処理部31は、境界Bを第2領域R2の側へ所定の距離(ΔW)だけ移動させる。   As described above, according to the fifth modification example, when the scroll operation as the image change operation is detected by the detection processing unit 32, the confirmation process regarding the movement of the boundary B is executed. The confirmation process is a display process for emphasizing the boundary B. Based on the detection processing unit 32 detecting the input to the emphasized boundary B, the display processing unit 31 moves the boundary B to the second region R2 side by a predetermined distance (ΔW).

ユーザは、表示面3に表示されている実行画面(第1実行画面41、第2実行画面42)の閲覧を、妨害されることなく、境界Bの移動を実行するための境界Bの強調表示を認知できる。ユーザが望む場合、境界Bに対するタッチ操作を行うことにより、第1実行画面41の表示領域である第1領域R1を拡大させることができる。   The user highlights the boundary B for performing the movement of the boundary B without being obstructed by browsing the execution screens (the first execution screen 41 and the second execution screen 42) displayed on the display surface 3. Can be recognized. When the user desires, the first area R1 that is the display area of the first execution screen 41 can be enlarged by performing a touch operation on the boundary B.

<その他>
以上、本発明の実施の形態および変更例について説明したが、本発明は、上記実施の形態等によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
<Others>
While the embodiments and modifications of the present invention have been described above, the present invention is not limited to the above-described embodiments and the like, and the embodiments of the present invention are variously modified in addition to the above. Is possible.

上記実施の形態および変更例1〜5では、検出処理部32によってタッチ操作が画面変更操作として検出されている間、第1実行画面41と第2実行画面42は更新される(S106)。しかしながら、表示処理部31は、検出処理部32によって画面変更操作としてタッチ操作が検出されている間には第1実行画面41と第2実行画面42を更新しない構成が採られてもよい。たとえば、タッチ操作の終了後に、検出処理部32が当該タッチ操作を画面変更操作として検出したことに基づいて、境界Bの移動に伴い変化した第1領域R1と第2領域R2にそれぞれ適合するよう、第1実行画面41と第2実行画面42を更新するよう構成されてもよい。この場合、タッチ操作が画面変更操作として検出されている間、表示処理部31は、移動している境界Bの位置を通知するための境界Bを示す線などの画像を表示面3に表示してもよい。   In the above embodiment and Modification Examples 1 to 5, while the touch operation is detected as the screen change operation by the detection processing unit 32, the first execution screen 41 and the second execution screen 42 are updated (S106). However, the display processing unit 31 may be configured not to update the first execution screen 41 and the second execution screen 42 while the touch operation is detected as the screen change operation by the detection processing unit 32. For example, after the end of the touch operation, the detection processing unit 32 is adapted to each of the first region R1 and the second region R2 that have changed along with the movement of the boundary B based on the detection of the touch operation as a screen change operation. The first execution screen 41 and the second execution screen 42 may be updated. In this case, while the touch operation is detected as the screen change operation, the display processing unit 31 displays an image such as a line indicating the boundary B for notifying the position of the moving boundary B on the display surface 3. May be.

上記実施の形態および変更例1〜5では、一例として、境界Bが水平方向(X軸方向)を向くよう第1領域R1と第2領域R2が表示面3上に割り当てられる。第1領域R1と第2領域R2は、水平方向に限らず、図15(a)、(b)に示すような垂直方向(Y軸方向)を向く境界を挟んで隣接するよう、あるいは、ななめ方向を向く境界Bを挟んで隣接するよう、表示面3上に割り当てられてよい。携帯電話機1は、たとえば図15(a)、(b)に示すように、縦向きあるいは横向きの何れの姿勢で使用されてもかまわない。   In the embodiment and Modification Examples 1 to 5, as an example, the first region R1 and the second region R2 are allocated on the display surface 3 so that the boundary B faces the horizontal direction (X-axis direction). The first region R1 and the second region R2 are not limited to the horizontal direction, but are adjacent to each other with a boundary in the vertical direction (Y-axis direction) as shown in FIGS. It may be allocated on the display surface 3 so as to be adjacent to each other with the boundary B facing the direction. For example, as shown in FIGS. 15A and 15B, the mobile phone 1 may be used in either a vertical orientation or a horizontal orientation.

上記実施の形態および変更例1〜5では、一例として、第1領域R1と第2領域R2が表示面3全体を覆う場合について説明された。しかしながら、上記実施の形態および変更例1〜5の構成は、図16に示すように第1領域R1と第2領域R2が表示面3の一部分を覆う場合にも適用可能である。   In the said embodiment and the modification examples 1-5, the case where 1st area | region R1 and 2nd area | region R2 covered the display surface 3 whole was demonstrated as an example. However, the configurations of the above-described embodiment and Modifications 1 to 5 are also applicable when the first region R1 and the second region R2 cover a part of the display surface 3 as shown in FIG.

上記実施の形態および変更例1〜5では、一例として、第1実行画面41と第2実行画面42との2つの実行画面が表示面3に表示されている場合について説明された。しかしながら、3つ以上の実行画面が表示面3に表示されている場合にも上記実施の形態および変更例1〜5の構成は適用可能である。   In the said embodiment and the modification examples 1-5, the case where two execution screens, the 1st execution screen 41 and the 2nd execution screen 42, were displayed on the display surface 3 as an example was demonstrated. However, even when three or more execution screens are displayed on the display surface 3, the configurations of the above-described embodiment and Modifications 1 to 5 are applicable.

上記実施の形態および変更例1〜5の構成は、表示面3が個別の2つ以上の表示面から構成されている場合にも適用できる。たとえば、図17(a)に示すように、表示面3は、略隣接するように配置された2つの表示面3a、3bから構成されるものとしてもよい。通常、表示面3が、2つの表示面3a、3bから一体的に見えるよう構成される場合、
2つのアプリケーションA1、A2の各実行画面41、42は、図17(a)に示すように、表示面3a、3bの各々に表示される。つまり、第1領域R1と第2領域R2は、各表示面3a、3bにそれぞれ割り当てられる。この場合、第1領域R1と第2領域R2との境界Bは、各表示面3a、3b上の互いに隣接する辺となる。たとえば、タッチ操作の入力位置が、図17(a)に示す初期の入力位置Pから現在の入力位置Qへ移動することが検出された場合、上記実施の形態に係る画面制御処理の実行によって、図17(b)に示すように境界Bが現在の入力位置Qへ移動され、境界Bの移動に伴い2つのアプリケーションA1、A2の実行画面の大きさが変更される。上記実施の形態に限らず、変更例1〜5に係る画面制御処理が実行適用されてもよい。
The configurations of the above-described embodiment and modification examples 1 to 5 can also be applied when the display surface 3 is configured by two or more individual display surfaces. For example, as shown to Fig.17 (a), the display surface 3 is good also as what is comprised from the two display surfaces 3a and 3b arrange | positioned so that it may adjoin substantially. Usually, when the display surface 3 is configured to be seen integrally from the two display surfaces 3a and 3b,
As shown in FIG. 17A, the execution screens 41 and 42 of the two applications A1 and A2 are displayed on the display surfaces 3a and 3b, respectively. That is, the first region R1 and the second region R2 are allocated to the display surfaces 3a and 3b, respectively. In this case, the boundary B between the first region R1 and the second region R2 is an adjacent side on each display surface 3a, 3b. For example, when it is detected that the input position of the touch operation moves from the initial input position P shown in FIG. 17A to the current input position Q, by executing the screen control process according to the above embodiment, As shown in FIG. 17B, the boundary B is moved to the current input position Q, and the size of the execution screens of the two applications A1 and A2 is changed as the boundary B moves. The screen control process according to the first to fifth modified examples is not limited to the above embodiment, and may be applied.

図17(a)、(b)の構成において、各実行画面41、42は、一体的に形成されたキャビネット2に配されてもよいし、図18(a)、(b)に示すようにそれぞれ個別のキャビネット2a、2bに配されてもよい。図18(a)、(b)の例において、携帯電話機1のキャビネット2は、第1キャビネット2aと第2キャビネット2bとを備え、表示面3は、各キャビネット2a、2bにそれぞれ配された第1表示面3aと第2表示面3bを有する。携帯電話機1は、図18(a)に示すように第1キャビネット2aが第2キャビネット2bの上に重ねられた閉状態と、図18(b)に示すように第1キャビネット2aと第2キャビネット2bが並べて配された状態と、を切換可能な構成が採られている。開状態において、2つの表示面3a、3bは略面一になり、一体的な表示面3を形成する。図17(a)、(b)を用いて説明されたように、画面制御処理に基づき、境界Bが移動されるとともに、表示面3(3a、3b)に表示されたアプリケーションA1、A2の実行画面41、42の大きさが変更される。   In the configuration of FIGS. 17A and 17B, the execution screens 41 and 42 may be arranged in the integrally formed cabinet 2, or as shown in FIGS. 18A and 18B. You may distribute | arrange to each separate cabinet 2a, 2b. 18 (a) and 18 (b), the cabinet 2 of the mobile phone 1 includes a first cabinet 2a and a second cabinet 2b, and a display surface 3 is arranged in each cabinet 2a and 2b. It has 1 display surface 3a and 2nd display surface 3b. The cellular phone 1 includes a closed state in which the first cabinet 2a is stacked on the second cabinet 2b as shown in FIG. 18 (a), and the first cabinet 2a and the second cabinet as shown in FIG. 18 (b). The structure which can switch between the state where 2b was arranged side by side is taken. In the open state, the two display surfaces 3 a and 3 b are substantially flush with each other to form an integral display surface 3. As described with reference to FIGS. 17A and 17B, the boundary B is moved based on the screen control process, and the applications A1 and A2 displayed on the display surface 3 (3a and 3b) are executed. The sizes of the screens 41 and 42 are changed.

画面変更操作は、上記実施の形態および変更例1〜5において説明された操作に限らず、各種の操作であってよい。たとえば、境界B上を所定時間(たとえば、数百ミリ秒〜数秒程度)以上タッチする操作(ロングタッチ)が、検出処理部32によって画面変更操作として検出されてよい。この構成によれば、画面変更操作と、画面をスクロールさせるための操作等、他のタッチ操作との間の競合の回避が可能である。また、検出処理部32による画面変更操作の誤検出が抑制される。   The screen change operation is not limited to the operation described in the above embodiment and the first to fifth modification examples, and may be various operations. For example, an operation (long touch) that touches the boundary B for a predetermined time (for example, about several hundred milliseconds to several seconds) or longer may be detected as a screen change operation by the detection processing unit 32. According to this configuration, it is possible to avoid contention between the screen change operation and other touch operations such as an operation for scrolling the screen. In addition, erroneous detection of the screen change operation by the detection processing unit 32 is suppressed.

上記実施の形態では、スマートフォン型の携帯電話機に本発明が適用されている。しかしながら、これに限らず、ストレート式、折りたたみ式、スライド式等、他のタイプの携帯電話機に本発明が適用されてもよい。   In the above embodiment, the present invention is applied to a smartphone-type mobile phone. However, the present invention is not limited to this, and the present invention may be applied to other types of mobile phones such as a straight type, a folding type, and a sliding type.

さらに、本発明は、携帯電話機に限られず、PDA(Personal DigitalAssistant)、タブレットPC(Tablet PC)、電子書籍端末等の携帯端末装置を含む、各種の通信装置に適用可能である。   Furthermore, the present invention is not limited to a mobile phone, and can be applied to various communication devices including a mobile terminal device such as a PDA (Personal Digital Assistant), a tablet PC (Tablet PC), and an electronic book terminal.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

1 携帯電話機 (携帯端末装置)
2a 第1キャビネット (第1筐体)
2b 第2キャビネット (第2筐体)
3 表示面
3a 第1表示面
3b 第2表示面
31 表示処理部
32 検出処理部
33 スクロール処理部
41 第1実行画面
42 第2実行画面
A1 アプリケーション (第1アプリケーションプログラム)
A2 アプリケーション (第2アプリケーションプログラム)
B 境界
R1 第1領域
R2 第2領域
α 内分比
1 Mobile phone (mobile terminal device)
2a First cabinet (first housing)
2b Second cabinet (second housing)
3 Display surface
3a First display surface
3b Second display surface
31 Display processing section
32 Detection processing unit
33 Scroll processing part
41 First execution screen
42 Second execution screen
A1 application (first application program)
A2 application (second application program)
B boundary
R1 first region
R2 second region
α internal ratio

Claims (10)

表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する表示処理部と、
前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する検出処理部と、を備え、
前記検出処理部は、前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作を検出したときに、当該タッチ操作を前記所定の操作として検出し、
前記表示処理部は、前記検出処理部が前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する、
ことを特徴とする携帯端末装置。
A first execution screen based on a first application program is displayed in a first area allocated on the display surface, and a second application program is allocated in a second area adjacent to the first area allocated on the display surface. A display processing unit for displaying a second execution screen based on
A detection processing unit that detects a predetermined operation for moving a boundary between the first region and the second region with respect to the display surface;
The detection processing unit detects the touch operation as the predetermined operation when an input position of the touch operation on the display surface detects a touch operation that moves from the first area to the second area. ,
The display processing unit moves the boundary in a direction corresponding to the predetermined operation based on detection of the predetermined operation by the detection processing unit, and the region of the first region and the second region Executing a control to change the size and update the display of the first execution screen and the second execution screen;
The portable terminal device characterized by the above-mentioned.
請求項1に記載の携帯端末装置において、
記表示処理部は、前記タッチ操作による入力位置の移動に伴って、前記タッチ操作に対応する方向に、前記境界を移動させる、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 1,
Pre Symbol display processing unit, with the movement of the input position by the touch operation, in a direction corresponding to the touch operation, moving the boundary,
The portable terminal device characterized by the above-mentioned.
請求項2に記載の携帯端末装置において、
前記検出処理部は、前記表示面に対するタッチ操作の開始位置が前記境界上にあるときに、当該タッチ操作を前記所定の操作として検出する、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 2,
The detection processing unit detects the touch operation as the predetermined operation when a start position of the touch operation on the display surface is on the boundary;
The portable terminal device characterized by the above-mentioned.
請求項2に記載の携帯端末装置において、
前記表示処理部は、前記入力位置が、前記第1領域内から前記第2領域へと移動した後に折り返されるタッチ操作が前記検出処理部によって検出されたとき、前記境界を折り返し位置に留める、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 2,
The display processing unit keeps the boundary at the folded position when the detection processing unit detects a touch operation that is folded after the input position is moved from the first area to the second area.
The portable terminal device characterized by the above-mentioned.
請求項2に記載の携帯端末装置において、
前記検出処理部は、前記表示面に対するタッチ操作の開始位置が前記第1領域上にあるときに、当該タッチ操作を前記所定の操作として検出し、
前記表示処理部は、前記境界に直交する方向の前記第1領域の長さを当該タッチ操作の開始位置によって内分したときの内分比を保って前記第1領域が変化するように、前記境界を移動させる、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 2,
The detection processing unit detects the touch operation as the predetermined operation when a start position of the touch operation on the display surface is on the first region,
The display processing unit is configured to change the first region while maintaining an internal ratio when the length of the first region in the direction orthogonal to the boundary is internally divided by the start position of the touch operation. Move the boundary,
The portable terminal device characterized by the above-mentioned.
表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する表示処理部と、
前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する検出処理部と、
前記表示面に対する操作によって、前記第1実行画面をスクロールさせるスクロール処理部と、を備え、
前記検出処理部は、前記第1実行画面のスクロールが完遂された後、さらに当該スクロールを行うための操作が所定条件のもとで継続されたときに、当該スクロールのための操作を前記所定の操作として検出し、
前記表示処理部は、前記検出処理部が前記スクロールのための操作を前記所定の操作として検出したことに基づいて、前記境界を前記第2領域側に所定の距離移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する
ことを特徴とする携帯端末装置。
A first execution screen based on a first application program is displayed in a first area allocated on the display surface, and a second application program is allocated in a second area adjacent to the first area allocated on the display surface. A display processing unit for displaying a second execution screen based on
A detection processing unit for detecting a predetermined operation for moving a boundary between the first region and the second region with respect to the display surface;
Wherein the operation on the display surface, Bei example and a scroll processor for scrolling the first execution screen,
After the scrolling of the first execution screen is completed, the detection processing unit performs the scrolling operation when the operation for further scrolling is continued under a predetermined condition. Detect as operation,
The display processing unit moves the boundary to the second region side by a predetermined distance based on the detection processing unit detecting the scroll operation as the predetermined operation , and the first region. Changing the area size of the second area, and executing control to update the display of the first execution screen and the second execution screen ,
The portable terminal device characterized by the above-mentioned.
請求項6に記載の携帯端末装置において、
前記表示処理部は、前記検出処理部が前記所定の操作を検出した場合、前記境界を強調するための表示を行うとともに、強調された前記境界に対する入力を前記検出処理部が検出したことに基づいて、前記境界を前記第2領域側に所定の距離移動させる、
ことを特徴とする携帯端末装置。
The mobile terminal device according to claim 6,
When the detection processing unit detects the predetermined operation, the display processing unit performs display for emphasizing the boundary, and based on the detection processing unit detecting input to the emphasized boundary. And moving the boundary to the second region side by a predetermined distance,
The portable terminal device characterized by the above-mentioned.
請求項1ないし7のいずれか一項に記載の携帯端末装置において、
第1表示面を前記表示面の一部として有する第1筐体と、
前記第1表示面に隣接する第2表示面を前記表示面の一部として有する第2筐体と、を備え、
前記表示処理部は;
前記第1領域が割り当てられた前記第1表示面に前記第1実行画面を表示するとともに、前記第2領域が割り当てられた前記第2表示面に前記第2実行画面を表示し、さらに、
前記検出処理部が前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行する、
ことを特徴とする携帯端末装置。
In the portable terminal device according to any one of claims 1 to 7,
A first housing having a first display surface as part of the display surface;
A second housing having a second display surface adjacent to the first display surface as part of the display surface;
The display processing unit;
Displaying the first execution screen on the first display surface to which the first region is assigned, and displaying the second execution screen on the second display surface to which the second region is assigned, and
Based on the detection processing unit detecting the predetermined operation, the boundary is moved in a direction corresponding to the predetermined operation, and the region sizes of the first region and the second region are changed, Executing control to update the display of the first execution screen and the second execution screen;
The portable terminal device characterized by the above-mentioned.
表示面を有する携帯端末装置のコンピュータに、
表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示する機能と、
前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出する機能と、
前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する機能と、を実行させ
前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作が、前記所定の操作として検出される、
ことを特徴とするプログラム。
In a computer of a portable terminal device having a display surface,
A first execution screen based on a first application program is displayed in a first area allocated on the display surface, and a second application program is allocated in a second area adjacent to the first area allocated on the display surface. A function for displaying a second execution screen based on
A function of detecting a predetermined operation for moving a boundary between the first region and the second region with respect to the display surface;
Based on the detection of the predetermined operation, the boundary is moved in a direction corresponding to the predetermined operation, the area sizes of the first area and the second area are changed, and the first execution screen and to that function updates the display of the second execution screen, allowed to run,
A touch operation in which an input position of a touch operation on the display surface moves from the first area to the second area is detected as the predetermined operation.
A program characterized by that.
表示面を有する携帯端末装置の画面制御方法であって、
表示面上に割り当てられた第1領域に第1アプリケーションプログラムに基づく第1実行画面を表示するとともに、前記表示面上に割り当てられた、前記第1領域に隣接する第2領域に第2アプリケーションプログラムに基づく第2実行画面を表示するステップと、
前記表示面に対する、前記第1領域と前記第2領域との境界を移動させるための所定の操作を検出するステップと、
前記所定の操作を検出したことに基づいて、前記所定の操作に対応する方向へ前記境界を移動させるとともに、前記第1領域と前記第2領域の領域サイズを変化させ、前記第1実行画面と前記第2実行画面の表示を更新する制御を実行するステップと、を含
前記表示面に対するタッチ操作の入力位置が、前記第1領域内から前記第2領域へと移動するタッチ操作が、前記所定の操作として検出される、
ことを特徴とする画面制御方法。
A screen control method for a mobile terminal device having a display surface,
A first execution screen based on a first application program is displayed in a first area allocated on the display surface, and a second application program is allocated in a second area adjacent to the first area allocated on the display surface. Displaying a second execution screen based on:
Detecting a predetermined operation for moving a boundary between the first region and the second region with respect to the display surface;
Based on the detection of the predetermined operation, the boundary is moved in a direction corresponding to the predetermined operation, the area sizes of the first area and the second area are changed, and the first execution screen look including the steps of: executing a control to update the display of the second execution screen,
A touch operation in which an input position of a touch operation on the display surface moves from the first area to the second area is detected as the predetermined operation.
A screen control method characterized by the above.
JP2012036151A 2012-02-22 2012-02-22 Portable terminal device, program, and screen control method Active JP5814821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012036151A JP5814821B2 (en) 2012-02-22 2012-02-22 Portable terminal device, program, and screen control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012036151A JP5814821B2 (en) 2012-02-22 2012-02-22 Portable terminal device, program, and screen control method

Publications (2)

Publication Number Publication Date
JP2013171505A JP2013171505A (en) 2013-09-02
JP5814821B2 true JP5814821B2 (en) 2015-11-17

Family

ID=49265382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012036151A Active JP5814821B2 (en) 2012-02-22 2012-02-22 Portable terminal device, program, and screen control method

Country Status (1)

Country Link
JP (1) JP5814821B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6273118B2 (en) * 2013-10-01 2018-01-31 シャープ株式会社 Information processing device
JP6151157B2 (en) 2013-10-29 2017-06-21 京セラ株式会社 Electronic device, control program, and operation method of electronic device
JP2015088085A (en) * 2013-11-01 2015-05-07 シャープ株式会社 Display device and display method
JP2015194795A (en) * 2014-03-31 2015-11-05 シャープ株式会社 Display divice and display method
JP2016038640A (en) * 2014-08-05 2016-03-22 シャープ株式会社 Portable terminal
JP6223405B2 (en) * 2015-11-11 2017-11-01 ヤフー株式会社 Information display device, information display method, and information display program
JP6408641B2 (en) * 2017-05-02 2018-10-17 京セラ株式会社 Electronics
JP7119408B2 (en) * 2018-02-15 2022-08-17 コニカミノルタ株式会社 Image processing device, screen handling method, and computer program
JP6542451B2 (en) * 2018-09-20 2019-07-10 京セラ株式会社 Electronics

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4381484B2 (en) * 1995-09-28 2009-12-09 ソニー株式会社 Image display control apparatus and method
JPH09204288A (en) * 1996-01-29 1997-08-05 Casio Comput Co Ltd Display device
JP2001174271A (en) * 1999-12-21 2001-06-29 Kenwood Corp Navigation apparatus
JP2007318423A (en) * 2006-05-25 2007-12-06 Toshiba Corp Portable terminal
KR100831721B1 (en) * 2006-12-29 2008-05-22 엘지전자 주식회사 Apparatus and method for displaying of mobile terminal
WO2008111112A1 (en) * 2007-03-09 2008-09-18 Pioneer Corporation Video processing device, display device control method, and program
KR101622635B1 (en) * 2010-02-12 2016-05-20 삼성전자주식회사 Data Operation Method For Terminal including a Three-piece display units and Terminal for supporting using the same

Also Published As

Publication number Publication date
JP2013171505A (en) 2013-09-02

Similar Documents

Publication Publication Date Title
JP5814821B2 (en) Portable terminal device, program, and screen control method
US11054988B2 (en) Graphical user interface display method and electronic device
US9645663B2 (en) Electronic display with a virtual bezel
JP5905220B2 (en) Memo method and terminal in touch screen terminal
JP5184018B2 (en) Electronics
US9983782B2 (en) Display control apparatus, display control method, and display control program
KR102241994B1 (en) Method for controlling function using electronic pen and an electronic device thereof
JP5922480B2 (en) Portable device having display function, program, and control method of portable device having display function
JP5371002B2 (en) Portable information terminal, computer-readable program, and recording medium
KR20160028338A (en) Potable terminal device comprisings bended display and method for controlling thereof
JP2010134755A (en) Communication device
JP2009284468A (en) Personal digital assistant, computer readable program and recording medium
JP5743847B2 (en) Mobile terminal and low sensitivity area setting program
US20150234566A1 (en) Electronic device, storage medium and method for operating electronic device
EP3531258A1 (en) Method for searching for icon, and terminal
KR20150007048A (en) Method for displaying in electronic device
KR101559091B1 (en) Potable terminal device comprisings bended display and method for controlling thereof
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
KR101624161B1 (en) Portable terminal device and method for controlling the portable terminal device thereof
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
US20150123916A1 (en) Portable terminal device, method for operating portable terminal device, and program for operating portable terminal device
JP6017357B2 (en) Electronic device, display control method and program
JP5542975B2 (en) Electronics
KR102301652B1 (en) Method for operating page and electronic device thereof
JP6046562B2 (en) Mobile device, control method and program for mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R150 Certificate of patent or registration of utility model

Ref document number: 5814821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150