JP2015084548A - Mobile terminal device - Google Patents

Mobile terminal device Download PDF

Info

Publication number
JP2015084548A
JP2015084548A JP2014245077A JP2014245077A JP2015084548A JP 2015084548 A JP2015084548 A JP 2015084548A JP 2014245077 A JP2014245077 A JP 2014245077A JP 2014245077 A JP2014245077 A JP 2014245077A JP 2015084548 A JP2015084548 A JP 2015084548A
Authority
JP
Japan
Prior art keywords
display unit
screen
displayed
display
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014245077A
Other languages
Japanese (ja)
Inventor
神井 敏宏
Toshihiro Kamii
敏宏 神井
慶子 三上
Keiko Mikami
慶子 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2014245077A priority Critical patent/JP2015084548A/en
Publication of JP2015084548A publication Critical patent/JP2015084548A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mobile phone 1 whose display screen to be operated by a user is easy to understand.SOLUTION: A mobile phone 1 comprises: mechanical units 18, 27, 39 which connect a first cabinet 10 having a first display unit 11 and a second cabinet 20 having a second display unit 21 so that a first form where the first display unit 11 is exposed to the outside and a second form where at least a part of the second display unit 21 and the first display unit 11 are exposed to the outside can be switched; an execution unit 100 which executes a first processing according to an input to the first display unit which is detected by a first detection unit 12 and executes a second processing according to an input to the second display unit which is detected by a second detection unit 22; and a control unit 100 which displays a screen of the first processing on the first display unit and displays a screen of the second processing on the second display unit. The control unit performs a control to distinguish between a display unit which displays a screen in an active state and a display unit which displays a screen in a non-active state to at least one of the first display unit and the second display unit.

Description

本発明は、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末装置に関するものである。   The present invention relates to a mobile terminal device such as a mobile phone or a PDA (Personal Digital Assistant).

従来、2つの表示面を有する携帯端末装置が知られている。このような携帯端末装置には、アプリケーションプログラム(以下、「アプリケーション」と言う。)を実行し、アプリケーションに基づく画面を第1および第2表示面のそれぞれに表示する機能が設けられている。(たとえば、特許文献1参照)。   Conventionally, a portable terminal device having two display surfaces is known. Such a portable terminal device is provided with a function of executing an application program (hereinafter referred to as “application”) and displaying a screen based on the application on each of the first and second display surfaces. (For example, refer to Patent Document 1).

特開平9−305262号公報JP-A-9-305262

上記の構成では、第1表示面および第2表示面が同様の形状を有するため、ユーザが操作している表示面がいずれであるのかがわかり難い。   In the above configuration, since the first display surface and the second display surface have the same shape, it is difficult to determine which display surface is being operated by the user.

本発明は、かかる課題に鑑みてなされたものであり、ユーザの操作対象の表示面がわかり易い携帯端末装置を提供することを目的とする。   This invention is made | formed in view of this subject, and it aims at providing the portable terminal device with which the display surface of a user's operation target is easy to understand.

本発明の第1の態様に係る携帯端末装置は、第1の表示部と、第2の表示部と、前記第1の表示部に対するタッチ入力を検出する第1のタッチセンサと、前記第2の表示部に対するタッチ入力を検出する第2のタッチセンサと、前記第1のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第1の処理を実行し、前記第2のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第2の処理を実行する実行部と、前記実行部により実行された前記第1の処理の画面を前記第1の表示部に表示し、前記第2の処理の画面を前記第2の表示部に表示する制御部とを備える。ここで、前記実行部は、前記第1の表示部および前記第2の表示部に、異なるアプリケーションに基づく画面が表示された状態において、一方の表示部に表示された画面をアクティブ状態に設定し、他方の表示部に表示された画面を非アクティブ状態に設定するとともに、前記非アクティブ状態の画面が表示された表示部に対してタッチ入力がなされると、当該タッチ入力がなされた表示部の画面を前記アクティブ状態に設定する。前記制御部は、前記第1の表示部および前記第2の表示部のうち、前記アクティブ状態の画面を表示する表示部と、前記非アクティブ状態の画面を表示する表示部とを区別するための制御として、前記アクティブ状態の画面の縁の一辺にアクティブ状態を示す線状のバーの画像を表示する。前記制御部は、前記第1の表示部および前記第2の表示部にアプリケーションに基づく画面とともに所定の情報を入力するためのキーを表示し、前記バーの画像を、当該キーに隣接するように表示する。   A portable terminal device according to a first aspect of the present invention includes a first display unit, a second display unit, a first touch sensor that detects a touch input to the first display unit, and the second display unit. A second touch sensor for detecting a touch input to the display unit, and a first process including activation of an application according to the touch input detected by the first touch sensor, and the second touch sensor An execution unit that executes a second process including activation of an application in response to the touch input detected by the display unit, and a screen of the first process executed by the execution unit is displayed on the first display unit, A control unit that displays a screen of the second process on the second display unit. Here, the execution unit sets a screen displayed on one display unit to an active state when a screen based on a different application is displayed on the first display unit and the second display unit. When the screen displayed on the other display unit is set to an inactive state and a touch input is made to the display unit on which the screen in the inactive state is displayed, the display unit on which the touch input is performed Set the screen to the active state. The control unit is configured to distinguish between a display unit that displays the screen in the active state and a display unit that displays the screen in the inactive state among the first display unit and the second display unit. As a control, a linear bar image indicating the active state is displayed on one side of the edge of the screen in the active state. The control unit displays a key for inputting predetermined information along with a screen based on an application on the first display unit and the second display unit, and displays the bar image adjacent to the key. indicate.

本発明の第2の態様に係るプログラムは、第1の表示部と、第2の表示部と、前記第1の表示部に対するタッチ入力を検出する第1のタッチセンサと、前記第2の表示部に対するタッチ入力を検出する第2のタッチセンサとを備える携帯端末装置のコンピュータに、前記第1のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第1の処理を実行し、前記第2のタッチセンサにより検出されたタッチ入力に応じて
アプリケーションの起動を含む第2の処理を実行し、実行された前記第1の処理の画面を前記第1の表示部に表示し、前記第2の処理の画面を前記第2の表示部に表示し、前記第1の表示部および前記第2の表示部に、異なるアプリケーションに基づく画面が表示された状態において、一方の表示部に表示された画面をアクティブ状態に設定し、他方の表示部に表示された画面を非アクティブ状態に設定するとともに、前記非アクティブ状態の画面が表示された表示部に対してタッチ入力がなされると、当該タッチ入力がなされた表示部の画面を前記アクティブ状態に設定し、前記第1の表示部および前記第2の表示部のうち、アクティブ状態の画面を表示する表示部を、非アクティブ状態の画面を表示する表示部から区別するための制御として、前記アクティブ状態の画面の縁の一辺にアクティブ状態を示す線状のバーの画像を表示する機能を付与する。前記第1の表示部および前記第2の表示部には、アプリケーションに基づく画面とともに所定の情報を入力するためのキーが表示され、前記バーの画像は、当該キーに隣接するように表示される。
A program according to a second aspect of the present invention includes a first display unit, a second display unit, a first touch sensor that detects a touch input to the first display unit, and the second display. Executing a first process including activation of an application in response to the touch input detected by the first touch sensor in a computer of a portable terminal device including a second touch sensor that detects a touch input to the unit; Executing a second process including activation of an application in response to a touch input detected by the second touch sensor, displaying a screen of the executed first process on the first display unit, and In a state where a screen of the second process is displayed on the second display unit and a screen based on a different application is displayed on the first display unit and the second display unit, one display unit When the displayed screen is set to an active state, the screen displayed on the other display unit is set to an inactive state, and a touch input is made to the display unit on which the inactive screen is displayed The screen of the display unit on which the touch input is made is set to the active state, and the display unit that displays the active state screen of the first display unit and the second display unit is set to the inactive state. As control for distinguishing from the display unit that displays the screen, a function of displaying an image of a linear bar indicating the active state is provided on one side of the edge of the screen in the active state. On the first display unit and the second display unit, a key for inputting predetermined information is displayed together with a screen based on an application, and the image of the bar is displayed so as to be adjacent to the key. .

本発明の第3の態様に係る携帯端末装置は、第1の表示部と、第2の表示部と、前記第1の表示部に対するタッチ入力を検出する第1のタッチセンサと、前記第2の表示部に対するタッチ入力を検出する第2のタッチセンサと、を備える。ここで、前記第1のタッチセンサにより検出されたタッチ入力および前記第2のタッチセンサにより検出されたタッチ入力に応じて、前記第1の表示部および前記第2の表示部に、異なるアプリケーションに基づく画面が表示された状態において、一方の表示部に表示された画面がアクティブ状態とされ、他方の表示部に表示された画面が非アクティブ状態とされるとともに、前記非アクティブ状態の画面が表示された表示部に対してタッチ入力がなされると、当該タッチ入力がなされた表示部の画面が前記アクティブ状態とされる。さらに、前記第1の表示部および前記第2の表示部のうち、前記アクティブ状態の画面を表示する表示部と、前記非アクティブ状態の画面を表示する表示部とを区別するため、前記アクティブ状態の画面の縁の一辺にアクティブ状態を示す線状のバーの画像が表示される。前記第1の表示部および前記第2の表示部には、アプリケーションに基づく画面とともに所定の情報を入力するためのキーが表示され、前記バーの画像は、当該キーに隣接するように表示される。   A mobile terminal device according to a third aspect of the present invention includes a first display unit, a second display unit, a first touch sensor that detects a touch input to the first display unit, and the second display unit. And a second touch sensor that detects a touch input to the display unit. Here, depending on the touch input detected by the first touch sensor and the touch input detected by the second touch sensor, the first display unit and the second display unit may have different applications. The screen displayed on one display unit is in an active state, the screen displayed on the other display unit is in an inactive state, and the inactive screen is displayed. When a touch input is made on the displayed display unit, the screen of the display unit on which the touch input is made is brought into the active state. Furthermore, in order to distinguish between the display unit that displays the screen in the active state and the display unit that displays the screen in the inactive state among the first display unit and the second display unit, the active state A linear bar image indicating the active state is displayed on one side of the edge of the screen. On the first display unit and the second display unit, a key for inputting predetermined information is displayed together with a screen based on an application, and the image of the bar is displayed so as to be adjacent to the key. .

本発明によれば、ユーザの操作対象の表示面がわかり易い携帯端末装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the portable terminal device with which the display surface of a user's operation target is easy to understand can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態に記載されたものに何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely an example when the present invention is implemented, and the present invention is not limited to what is described in the following embodiment.

実施の形態に係る携帯電話機の外観構成を示す図である。It is a figure which shows the external appearance structure of the mobile telephone which concerns on embodiment. 実施の形態に係る携帯電話機の状態の切り替えを説明するための図である。It is a figure for demonstrating the switching of the state of the mobile telephone which concerns on embodiment. 実施の形態に係る携帯電話機の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the mobile telephone which concerns on embodiment. 実施の形態に係る操作項目画面およびアプリケーションの画面を各表示面に表示した図である。It is the figure which displayed the operation item screen and application screen which concern on embodiment on each display surface. 実施の形態に係るアプリケーションの画面を各表示面に表示した図である。It is the figure which displayed the screen of the application which concerns on embodiment on each display surface. 実施の形態に係るユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which shows the state of a screen according to the user's operation which concerns on embodiment. 実施の形態に係るアプリケーションの画面を各表示面に表示した図である。It is the figure which displayed the screen of the application which concerns on embodiment on each display surface. 実施の形態に係るユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which shows the state of a screen according to the user's operation which concerns on embodiment. 実施の形態に係るアプリケーションの画面を各表示面に表示した図である。It is the figure which displayed the screen of the application which concerns on embodiment on each display surface. 実施の形態に係るユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which shows the state of a screen according to the user's operation which concerns on embodiment.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<携帯電話機の構成>
図1は、携帯電話機1の構成を示す分解斜視図である。携帯電話機1は、第1キャビネット10と、第2キャビネット20と、これら第1、第2キャビネット10、20を保持する保持体30とで構成されている。
<Configuration of mobile phone>
FIG. 1 is an exploded perspective view showing the configuration of the mobile phone 1. The cellular phone 1 includes a first cabinet 10, a second cabinet 20, and a holding body 30 that holds the first and second cabinets 10 and 20.

第1キャビネット10は、横長の直方体形状を有する。第1キャビネット10の正面には、第1タッチパネルおよび第1タッチキーが配されている。   The first cabinet 10 has a horizontally long rectangular parallelepiped shape. A first touch panel and a first touch key are arranged on the front surface of the first cabinet 10.

第1タッチパネルは、第1ディスプレイ11およびタッチセンサ(以下、「第1パネルセンサ」と言う。)12を含む。   The first touch panel includes a first display 11 and a touch sensor (hereinafter referred to as “first panel sensor”) 12.

第1ディスプレイ11は、ユーザの操作に応じた画像を第1表示面11a1に表示する表示部に相当する。第1ディスプレイ11は、第1液晶パネル11aおよびバックライト(以下、「第1パネルバックライト」と言う。)11bで構成されている。第1液晶パネル11aの前面に第1表示面11a1が備えられる。第1パネルバックライト11bは、1つまたは複数の光源を含み、第1液晶パネル11aを照明する。第1表示面11a1に第1パネルセンサ12が重ねられている。   The first display 11 corresponds to a display unit that displays an image corresponding to a user operation on the first display surface 11a1. The first display 11 includes a first liquid crystal panel 11a and a backlight (hereinafter referred to as “first panel backlight”) 11b. A first display surface 11a1 is provided on the front surface of the first liquid crystal panel 11a. The first panel backlight 11b includes one or more light sources and illuminates the first liquid crystal panel 11a. The first panel sensor 12 is overlaid on the first display surface 11a1.

第1パネルセンサ12は、第1表示面11a1に対する入力を検出する検出部に相当する。透明な長方形状のシートであり、第1ディスプレイ11の第1表示面11a1を覆う。第1パネルセンサ12は、マトリクス状に配された第1透明電極と第2透明電極とを備えている。第1パネルセンサ12は、これら透明電極間の静電容量の変化を検出することによって、ユーザが触れた第1表示面11a1上の位置を検出し、その入力位置に応じた位置信号を出力する。なお、ユーザが第1表示面11a1を触れるとは、たとえば、ユーザがペンなどの接触部材や指を第1表示面11a1をタッチすることである。第1表示面11a1にタッチした接触部材や指は静止してもよいし、移動してもよい。また、接触部材や指が第1表示面11a1にタッチしている時間は短くても、長くてもよい。   The first panel sensor 12 corresponds to a detection unit that detects an input to the first display surface 11a1. It is a transparent rectangular sheet and covers the first display surface 11 a 1 of the first display 11. The first panel sensor 12 includes a first transparent electrode and a second transparent electrode arranged in a matrix. The first panel sensor 12 detects a position on the first display surface 11a1 touched by the user by detecting a change in capacitance between the transparent electrodes, and outputs a position signal corresponding to the input position. . The user touching the first display surface 11a1 means, for example, that the user touches the first display surface 11a1 with a contact member such as a pen or a finger. The contact member or finger touching the first display surface 11a1 may be stationary or may be moved. Further, the time during which the contact member or the finger touches the first display surface 11a1 may be short or long.

1つまたは複数、この実施例では3つの第1タッチキーK11、K12、K13が、第1ディスプレイ11に隣接して設けられる。各第1タッチキーK11、K12、K13は、第1ディスプレイ11に対して所定の情報を入力するためのキー部に相当する(図4参照)。各第1タッチキーK11、K12、K13は、パネル(以下、「第1キーカバー」と言う。)13a、バックライト(以下、「第1キーバックライト」と言う。)13b、およびタッチセンサ(以下、「第1キーセンサ」と言う。)14を含む。第1キーカバー13aに所定の画像が表示される。   One or more, in this embodiment, three first touch keys K11, K12, K13 are provided adjacent to the first display 11. Each of the first touch keys K11, K12, and K13 corresponds to a key unit for inputting predetermined information to the first display 11 (see FIG. 4). Each of the first touch keys K11, K12, and K13 includes a panel (hereinafter referred to as “first key cover”) 13a, a backlight (hereinafter referred to as “first key backlight”) 13b, and a touch sensor ( Hereinafter, it is referred to as “first key sensor”) 14. A predetermined image is displayed on the first key cover 13a.

第1キーセンサ14は、第1キーカバー13aに対する入力を検出する検出部に相当する。第1キーセンサ14には静電容量の変化を検出するセンサなどが用いられる。このため、各第1タッチキーK11、K12、K13の第1キーカバー13aに指や接触部材がタッチされると、第1キーセンサ14は、静電容量の変化を検出し、検出信号を出力する。   The first key sensor 14 corresponds to a detection unit that detects an input to the first key cover 13a. The first key sensor 14 is a sensor that detects a change in capacitance. Therefore, when a finger or a contact member touches the first key cover 13a of each first touch key K11, K12, K13, the first key sensor 14 detects a change in capacitance and outputs a detection signal. .

第1キャビネット10の内部には、中央やや後ろ位置にカメラモジュール15が配されている。このカメラモジュール15における被写体像を取り込むためのレンズ窓(図示せず)が、第1キャビネット10の下面に設けられている。   Inside the first cabinet 10, a camera module 15 is arranged at a slightly rear position in the center. A lens window (not shown) for capturing a subject image in the camera module 15 is provided on the lower surface of the first cabinet 10.

また、第1キャビネット10の内部には、前面近傍の中央位置に磁石16が配されており、右前角部に磁石17が配されている。   Further, inside the first cabinet 10, a magnet 16 is disposed at a central position near the front surface, and a magnet 17 is disposed at the right front corner.

第1キャビネット10の右側面および左側面には、突起部18が設けられている。   Protrusions 18 are provided on the right side surface and the left side surface of the first cabinet 10.

第2キャビネット20は、横長の直方体形状であって、第1キャビネット10とほぼ同じ形状と大きさを有する。第2キャビネット20には、第2タッチパネルおよび第2タッチキーが配されている。   The second cabinet 20 has a horizontally long rectangular parallelepiped shape and has substantially the same shape and size as the first cabinet 10. The second cabinet 20 is provided with a second touch panel and a second touch key.

第2タッチパネルは、第2ディスプレイ21およびタッチセンサ(以下、「第2パネルセンサ」と言う。)22を含む。   The second touch panel includes a second display 21 and a touch sensor (hereinafter referred to as “second panel sensor”) 22.

第2ディスプレイ21は、ユーザの操作に応じた画像を第2表示面21a1に表示する表示部に相当する。第2ディスプレイ21は、第2液晶パネル21aおよびバックライト(以下、「第2パネルバックライト」と言う。)21bで構成されている。第2液晶パネル21aの前面に第2表示面21a1が備えられる。第2パネルバックライト21bは、1つまたは複数の光源を含み、第2液晶パネル21aを照明する。なお、第1ディスプレイ11および第2ディスプレイ21は、有機EL等他の表示素子により構成されてもよい。   The second display 21 corresponds to a display unit that displays an image corresponding to a user operation on the second display surface 21a1. The second display 21 includes a second liquid crystal panel 21a and a backlight (hereinafter referred to as “second panel backlight”) 21b. A second display surface 21a1 is provided on the front surface of the second liquid crystal panel 21a. The second panel backlight 21b includes one or more light sources and illuminates the second liquid crystal panel 21a. In addition, the 1st display 11 and the 2nd display 21 may be comprised by other display elements, such as organic EL.

第2パネルセンサ22は、第2表示面21a1に対する入力を検出する検出部に相当する。第2パネルセンサ22は、第1パネルセンサ12と同様の形状および構成を有する。第2パネルセンサ22は、第2ディスプレイ21の第2表示面21a1を覆い、ユーザが触れた第2表示面21a1上の位置を検出し、その入力位置に応じた位置信号を出力する。   The second panel sensor 22 corresponds to a detection unit that detects an input to the second display surface 21a1. The second panel sensor 22 has the same shape and configuration as the first panel sensor 12. The second panel sensor 22 covers the second display surface 21a1 of the second display 21, detects the position on the second display surface 21a1 touched by the user, and outputs a position signal corresponding to the input position.

1つまたは複数、この実施例では3つの第2タッチキーK21、K22、K23が、第2ディスプレイ21に隣接して設けられる。第2タッチキーK21、K22、K23は、第2ディスプレイ21に対して所定の情報を入力するためのキー部に相当する。各第2タッチキーK21、K22、K23は、パネル(以下、「第2キーカバー」と言う。)23a、バックライト(以下、「第2キーバックライト」と言う。)23b、およびタッチセンサ(以下、「第2キーセンサ」と言う。)24を含む。   One or more, in this embodiment, three second touch keys K21, K22, K23 are provided adjacent to the second display 21. The second touch keys K21, K22, and K23 correspond to a key unit for inputting predetermined information to the second display 21. Each of the second touch keys K21, K22, and K23 includes a panel (hereinafter referred to as “second key cover”) 23a, a backlight (hereinafter referred to as “second key backlight”) 23b, and a touch sensor ( Hereinafter, it is referred to as “second key sensor.”) 24 is included.

第2キーセンサ24は、第2キーカバー23aに対する入力を検出する検出部に相当する。なお、第2キーセンサ24の構成および機能は第1キーセンサ14とほぼ同様である。   The second key sensor 24 corresponds to a detection unit that detects an input to the second key cover 23a. The configuration and function of the second key sensor 24 are substantially the same as those of the first key sensor 14.

第2キャビネット20の内部には、後面近傍の中央位置に磁石25が配されている。この磁石25と第1キャビネット10の磁石16とは、後述する開状態で互いに引き合うよう配置されている。   Inside the second cabinet 20, a magnet 25 is disposed at a central position near the rear surface. The magnet 25 and the magnet 16 of the first cabinet 10 are arranged so as to attract each other in an open state to be described later.

第2キャビネット20の内部において、右前角部には閉鎖センサ26が配されている。閉鎖センサ26は、たとえば、ホールICなどで構成され、磁石17の磁力を検出すると、センサ信号を出力する。後述する閉状態で、第1キャビネット10の磁石17が閉鎖センサ26に接近するので、センサ信号が閉鎖センサ26からCPU100へ出力される。一方、開状態になると、第1キャビネット10の磁石17が閉鎖センサ26から離れるので、閉鎖センサ26からセンサ信号が出力されない。   Inside the second cabinet 20, a closing sensor 26 is disposed at the right front corner. The closing sensor 26 is configured by, for example, a Hall IC, and outputs a sensor signal when the magnetic force of the magnet 17 is detected. Since the magnet 17 of the first cabinet 10 approaches the closing sensor 26 in a closed state to be described later, a sensor signal is output from the closing sensor 26 to the CPU 100. On the other hand, since the magnet 17 of the first cabinet 10 is separated from the closing sensor 26 in the open state, no sensor signal is output from the closing sensor 26.

第2キャビネット20の両側面にはそれぞれ2つの軸部27が設けられている。   Two shaft portions 27 are provided on both side surfaces of the second cabinet 20.

保持体30は、底板部31と、底板部31の右端部に形成された右保持部32と、底板部31の左端部に形成された左保持部33とで構成されている。   The holding body 30 includes a bottom plate portion 31, a right holding portion 32 formed at the right end portion of the bottom plate portion 31, and a left holding portion 33 formed at the left end portion of the bottom plate portion 31.

底板部31には、3つのコイルバネ34が左右方向に並ぶように配されている。第2キャビネット20が保持体30に取り付けられた状態において、コイルバネ34は、第2キャビネット20の下面に当接し、第2キャビネット20に対して上方に押し上げる力を付与する。   Three coil springs 34 are arranged on the bottom plate portion 31 so as to be arranged in the left-right direction. In a state in which the second cabinet 20 is attached to the holding body 30, the coil spring 34 abuts on the lower surface of the second cabinet 20 and applies a force to push up the second cabinet 20.

右保持部32の上面にはマイク35および電源キー36が配されている。左保持部33の上面には、スピーカ38が配されている。また、右保持部32の外側面には、複数のハードキー37が配されている。   A microphone 35 and a power key 36 are arranged on the upper surface of the right holding part 32. A speaker 38 is disposed on the upper surface of the left holding portion 33. A plurality of hard keys 37 are arranged on the outer surface of the right holding part 32.

右保持部32および左保持部33の内側面には、案内溝39(左保持部33側のみ図示)が形成されている。案内溝39は、上溝39a、下溝39bおよび2つの縦溝39cとで構成されている。上溝39aおよび下溝39bは前後方向に延び、縦溝39cは、上溝39aと下溝39bとを繋ぐように上下に延びる。   Guide grooves 39 (shown only on the left holding portion 33 side) are formed on the inner side surfaces of the right holding portion 32 and the left holding portion 33. The guide groove 39 includes an upper groove 39a, a lower groove 39b, and two vertical grooves 39c. The upper groove 39a and the lower groove 39b extend in the front-rear direction, and the vertical groove 39c extends vertically so as to connect the upper groove 39a and the lower groove 39b.

携帯電話機1を組み立てる際には、軸部27が案内溝39の下溝39bに挿入され、第2キャビネット20が保持体30の収容領域R内に配置される。突起部18が案内溝39の上溝39aに挿入され、第1キャビネット10が第2キャビネット20の上に配置され、第1キャビネット10が保持体30の収容領域R内に収まる。   When assembling the mobile phone 1, the shaft portion 27 is inserted into the lower groove 39 b of the guide groove 39, and the second cabinet 20 is disposed in the accommodation region R of the holding body 30. The protrusion 18 is inserted into the upper groove 39 a of the guide groove 39, the first cabinet 10 is disposed on the second cabinet 20, and the first cabinet 10 is accommodated in the accommodation region R of the holding body 30.

こうして、底板部31、右保持部32および左保持部33に囲まれた収容領域Rの中に、第1キャビネット10および第2キャビネット20が上下に重なった状態で収容される。この状態では、第1キャビネット10は、上溝39aに案内されて前後にスライド可能である。第2キャビネット20は、下溝39bに案内されて前後にスライド可能である。また、第2キャビネット20が前方に移動し、軸部27が縦溝39cまでくると、第2キャビネット20は、縦溝39cに案内されて上下にスライド可能となる。   In this manner, the first cabinet 10 and the second cabinet 20 are accommodated in the accommodation region R surrounded by the bottom plate portion 31, the right holding portion 32, and the left holding portion 33 in a state where they overlap each other. In this state, the first cabinet 10 is slidable back and forth while being guided by the upper groove 39a. The second cabinet 20 is guided by the lower groove 39b and can slide back and forth. Further, when the second cabinet 20 moves forward and the shaft portion 27 reaches the vertical groove 39c, the second cabinet 20 is guided by the vertical groove 39c and can slide up and down.

図2(a)〜図2(d)は、携帯電話機1を閉状態から開状態へ切り替えるための操作について説明するための図である。   FIG. 2A to FIG. 2D are diagrams for explaining an operation for switching the mobile phone 1 from the closed state to the open state.

図2(a)に示す閉状態では、第1キャビネット10が第2キャビネット20の上に重ねられて、携帯電話機1が畳まれる。閉状態は、第1キャビネット10により第2表示面21a1が覆われる第1形態に相当する。閉状態では、第1表示面11a1のみが外部に露出する。   In the closed state shown in FIG. 2A, the first cabinet 10 is overlaid on the second cabinet 20, and the cellular phone 1 is folded. The closed state corresponds to a first form in which the second display surface 21a1 is covered by the first cabinet 10. In the closed state, only the first display surface 11a1 is exposed to the outside.

図2(b)に示す矢印の方向に、第1キャビネット10が後方に移動し、図2(c)に示す矢印の方向に、第2キャビネット20が前方へ引き出される。これにより、閉鎖センサ26が磁石17の磁力を検出せず、センサ信号を出力しなくなると、携帯電話機1は開状態に切り替えられる。この開状態では、第2表示面21a1の一部が外部に現れる。   The first cabinet 10 moves rearward in the direction of the arrow shown in FIG. 2B, and the second cabinet 20 is pulled forward in the direction of the arrow shown in FIG. Thereby, when the closing sensor 26 does not detect the magnetic force of the magnet 17 and does not output the sensor signal, the mobile phone 1 is switched to the open state. In this open state, a part of the second display surface 21a1 appears outside.

第2キャビネット20が第1キャビネット10に完全に重ならなくなると、図1に示す軸部27が縦溝39cにくる。これにより、軸部27が縦溝39cに沿って動き、第2キャビネット20は上下に移動可能になる。このとき、コイルバネ34の弾性力と、磁石16および磁石25の引力とにより、第2キャビネット20は上昇する。   When the second cabinet 20 does not completely overlap the first cabinet 10, the shaft portion 27 shown in FIG. 1 comes to the vertical groove 39c. Thereby, the axial part 27 moves along the vertical groove 39c, and the 2nd cabinet 20 becomes movable up and down. At this time, the second cabinet 20 is raised by the elastic force of the coil spring 34 and the attractive force of the magnet 16 and the magnet 25.

図2(d)に示すように、第2キャビネット20が第1キャビネット10と密着して並び、第2表示面21a1が第1表示面11a1と同じ高さになる。これにより、第1キャ
ビネット10および第2キャビネット20が広げられて、第1表示面11a1と第2表示面21a1の双方が外部に露出する。
As shown in FIG. 2D, the second cabinet 20 is arranged in close contact with the first cabinet 10, and the second display surface 21a1 has the same height as the first display surface 11a1. Thereby, the 1st cabinet 10 and the 2nd cabinet 20 are expanded, and both the 1st display surface 11a1 and the 2nd display surface 21a1 are exposed outside.

なお、開状態は、図2(b)〜図2(d)に示すように、第2表示面21a1の少なくとも一部が外部に露出する第2形態に相当する。   The open state corresponds to a second form in which at least a part of the second display surface 21a1 is exposed to the outside, as shown in FIGS. 2 (b) to 2 (d).

また、突起部18が案内溝39の案内溝39の上溝39aを移動し、軸部27が下溝39b、縦溝39cおよび上溝39aを移動することにより、閉状態および開状態が切り替えられる。このため、突起部18、軸部27および案内溝39が閉状態および開状態を切替可能なように、第1キャビネット10および第2キャビネット20を連結させる機構部に相当する。   Further, the projecting portion 18 moves in the upper groove 39a of the guide groove 39 of the guide groove 39, and the shaft portion 27 moves in the lower groove 39b, the vertical groove 39c, and the upper groove 39a, so that the closed state and the open state are switched. For this reason, it is equivalent to the mechanism part which connects the 1st cabinet 10 and the 2nd cabinet 20 so that the projection part 18, the shaft part 27, and the guide groove 39 can switch a closed state and an open state.

図3は、携帯電話機1の全体構成を示すブロック図である。本実施の形態の携帯電話機1は、上述した各構成要素の他、CPU100、メモリ200、映像エンコーダ301、音声エンコーダ302、キー入力回路303、通信モジュール304、バックライト駆動回路305、映像デコーダ306、音声デコーダ307、バッテリー309および電源部310を備えている。   FIG. 3 is a block diagram showing the overall configuration of the mobile phone 1. The mobile phone 1 according to the present embodiment includes a CPU 100, a memory 200, a video encoder 301, an audio encoder 302, a key input circuit 303, a communication module 304, a backlight drive circuit 305, a video decoder 306, in addition to the above-described components. An audio decoder 307, a battery 309, and a power supply unit 310 are provided.

カメラモジュール15はCCD等の撮像素子を有する。カメラモジュール15は、撮像素子から出力された撮像信号をデジタル化し、その撮像信号にガンマ補正等の各種補正を施して映像エンコーダ301へ出力する。映像エンコーダ301は、カメラモジュール15からの撮像信号にエンコード処理を施してCPU100へ出力する。   The camera module 15 has an image sensor such as a CCD. The camera module 15 digitizes the image signal output from the image sensor, performs various corrections such as gamma correction on the image signal, and outputs the image signal to the video encoder 301. The video encoder 301 performs an encoding process on the imaging signal from the camera module 15 and outputs it to the CPU 100.

マイク35は、集音した音声を音声信号に変換して音声エンコーダ302へ出力する。音声エンコーダ302は、マイク35からのアナログの音声信号をデジタルの音声信号に変換するとともに、デジタルの音声信号にエンコード処理を施してCPU100へ出力する。   The microphone 35 converts the collected sound into a sound signal and outputs the sound signal to the sound encoder 302. The audio encoder 302 converts an analog audio signal from the microphone 35 into a digital audio signal, encodes the digital audio signal, and outputs it to the CPU 100.

キー入力回路303は、電源キー36やハードキー37の各キーが押されたときに、各キーに応じた入力信号をCPU100へ出力する。   The key input circuit 303 outputs an input signal corresponding to each key to the CPU 100 when each of the power key 36 and the hard key 37 is pressed.

通信モジュール304は、CPU100からのデータを無線信号に変換し、アンテナ304aを介して基地局へ送信する。また、通信モジュール304は、アンテナ304aを介して受信した無線信号をデータに変換してCPU100へ出力する。   The communication module 304 converts data from the CPU 100 into a radio signal and transmits it to the base station via the antenna 304a. Further, the communication module 304 converts a radio signal received via the antenna 304a into data and outputs the data to the CPU 100.

バックライト駆動回路305は、CPU100からの制御信号に応じた駆動信号を第1パネルバックライト11b、第1キーバックライト13b、第2パネルバックライト21bおよび第2キーバックライト23bに供給する。第1パネルバックライト11b、第1キーバックライト13b、第2パネルバックライト21bおよび第2キーバックライト23bは、それぞれバックライト駆動回路305による駆動信号により点灯し、第1液晶パネル11a、第1キーカバー13a、第2液晶パネル21aおよび第2キーカバー23aを照明する。   The backlight drive circuit 305 supplies a drive signal according to a control signal from the CPU 100 to the first panel backlight 11b, the first key backlight 13b, the second panel backlight 21b, and the second key backlight 23b. The first panel backlight 11b, the first key backlight 13b, the second panel backlight 21b, and the second key backlight 23b are turned on by a drive signal from the backlight drive circuit 305, and the first liquid crystal panel 11a, The key cover 13a, the second liquid crystal panel 21a, and the second key cover 23a are illuminated.

映像デコーダ306は、CPU100からの画像データを第1液晶パネル11aおよび第2液晶パネル21aで表示できる映像信号に変換し、これらを各液晶パネル11a、21aに出力する。第1液晶パネル11aは、映像信号に応じた画像を第1表示面11a1に表示する。第2液晶パネル21aは、映像信号に応じた画像を第2表示面21a1に表示する。   The video decoder 306 converts the image data from the CPU 100 into video signals that can be displayed on the first liquid crystal panel 11a and the second liquid crystal panel 21a, and outputs them to the liquid crystal panels 11a and 21a. The first liquid crystal panel 11a displays an image corresponding to the video signal on the first display surface 11a1. The second liquid crystal panel 21a displays an image corresponding to the video signal on the second display surface 21a1.

音声デコーダ307は、CPU100からの音声信号と、着信音やアラーム音等の各種
報知音の音信号とにデコード処理を施し、さらにアナログ信号に変換してスピーカ38に出力する。スピーカ38は、音声デコーダ307からの音声信号や音信号を再生する。
The audio decoder 307 performs a decoding process on the audio signal from the CPU 100 and sound signals of various notification sounds such as a ring tone and an alarm sound, converts the decoded signal into an analog signal, and outputs the analog signal to the speaker 38. The speaker 38 reproduces the audio signal and sound signal from the audio decoder 307.

バッテリー309は、CPU100やCPU100以外の各部へ電力を供給するためのものであり、二次電池からなる。バッテリー309は電源部310に接続されている。   The battery 309 is for supplying electric power to the CPU 100 and other parts than the CPU 100, and includes a secondary battery. The battery 309 is connected to the power supply unit 310.

電源部310は、バッテリー309の電圧を各部に必要な大きさの電圧に変換して各部へ供給する。また、電源部310は、外部電源(図示せず)を介して供給された電力をバッテリー309へ供給して、バッテリー309を充電する。   The power supply unit 310 converts the voltage of the battery 309 into a voltage having a magnitude required for each unit and supplies the voltage to each unit. In addition, the power supply unit 310 supplies power supplied via an external power supply (not shown) to the battery 309 to charge the battery 309.

メモリ200は、ROMおよびRAMを含む。   The memory 200 includes a ROM and a RAM.

メモリ200には、CPU100に制御機能を付与するための制御プログラムが記憶されている。かかる制御プログラムには、アクティブ状態の画面を表示する表示部11、21を、非アクティブ状態の画面を表示する表示部11、21から区別するための制御を、表示部11および表示部21の少なくとも一方に対して実行する制御プログラムが含まれる。また、通話、メール、ウェブブラウザおよび画像表示などの各種アプリケーションが記憶されている。   The memory 200 stores a control program for giving a control function to the CPU 100. In such a control program, control for distinguishing the display units 11 and 21 that display the screen in the active state from the display units 11 and 21 that display the screen in the inactive state includes at least the display unit 11 and the display unit 21. A control program to be executed on one side is included. In addition, various applications such as a call, mail, a web browser, and an image display are stored.

メモリ200には、音声データ、画像データおよびテキストデータなどのデータが所定のファイル形式で保存される。これらのデータとしては、カメラモジュール15で撮影された写真のデータ、各パネルセンサ12、22により入力されたデータ、および通信モジュール304を介して外部から取り込んだデータなどが挙げられる。   Data such as audio data, image data, and text data is stored in the memory 200 in a predetermined file format. Examples of these data include data of photographs taken by the camera module 15, data input by the panel sensors 12 and 22, and data captured from the outside via the communication module 304.

メモリ200には、各表示面11a1、21a1に表示されている画像に関する情報が記憶されている。各表示面11a1、21a1に表示されている画像には、アイコン、ボタンおよび写真などの絵と、テキスト領域に入力されたテキストとなどがある。画像に関する情報には、画像の情報と、各表示面11a1、21a1において画像が表示されている位置とが含まれる。アイコンやボタンなどの画像の情報には、画像が表わす処理の情報が含まれる。処理の情報には、アプリケーションやファイルなどの処理対象と、起動や終了などの処理内容とが含まれる。   The memory 200 stores information about images displayed on the display surfaces 11a1 and 21a1. The images displayed on the display surfaces 11a1 and 21a1 include pictures such as icons, buttons, and photographs, and text input in a text area. The information related to the image includes image information and the position where the image is displayed on each of the display surfaces 11a1 and 21a1. Information on images such as icons and buttons includes processing information represented by the images. The processing information includes processing targets such as applications and files and processing contents such as activation and termination.

メモリ200には、第1および第2タッチキーに関する情報が記憶されている。第1および第2タッチキーに関する情報には、各タッチキーの入力を検出する各キーセンサ14、24と、各タッチキーに対応付けられた処理の情報とが含まれる。たとえば、第1タッチキーK11には、操作項目画面を第1表示面11a1に表示する処理の情報が対応付けられている。第2タッチキーK21には、操作項目画面を第2表示面21a1に表示する処理の情報が対応付けられている。第1タッチキーK12および第2タッチキーK22には、設定条件を変更するための画面や所定のアプリケーションの画面を各表示面11a1、21a1に表示する処理情報が対応付けられている。第1タッチキーK13および第2タッチキーK23には、直前に表示されていたアプリケーションの画面を各表示面11a1、21a1に表示する処理の情報が対応付けられている。   The memory 200 stores information related to the first and second touch keys. The information regarding the first and second touch keys includes the key sensors 14 and 24 that detect the input of each touch key, and information on the process associated with each touch key. For example, the first touch key K11 is associated with processing information for displaying the operation item screen on the first display surface 11a1. The second touch key K21 is associated with processing information for displaying the operation item screen on the second display surface 21a1. The first touch key K12 and the second touch key K22 are associated with processing information for displaying a screen for changing setting conditions and a screen of a predetermined application on each display surface 11a1, 21a1. The first touch key K13 and the second touch key K23 are associated with processing information for displaying the screen of the application displayed immediately before on the display surfaces 11a1 and 21a1.

CPU100は、キー入力回路303、各パネルセンサ12、22および各キーセンサ14、24からの信号に基づき、制御プログラムに従って、カメラモジュール15、マイク35、通信モジュール304、各液晶パネル11a、21a、スピーカ38等を動作させる。これにより、CPU100は、通話およびメール等の各種アプリケーションを実行する。   The CPU 100, based on signals from the key input circuit 303, the panel sensors 12, 22 and the key sensors 14, 24, according to the control program, the camera module 15, the microphone 35, the communication module 304, the liquid crystal panels 11a, 21a, and the speaker 38. And so on. Thereby, CPU100 performs various applications, such as a telephone call and mail.

CPU100は、実行部として、ユーザによる入力に応じた処理を実行する。具体的に
は、各表示面11a1、21a1がユーザの指によりタッチされると、CPU100は各パネルセンサ12、22から入力位置に応じた位置信号を受け付ける。CPU100は、位置信号の入力位置に表示されている画像および画像が表わす処理の情報をメモリ200の表示情報を基づいて特定する。CPU100は、特定した処理の情報に従って処理対象のアプリケーションやファイルをメモリ200から読み出して、アプリケーションに処理内容を実行させる。
CPU100 performs the process according to the input by a user as an execution part. Specifically, when each display surface 11a1, 21a1 is touched by a user's finger, the CPU 100 receives a position signal corresponding to the input position from each panel sensor 12,22. The CPU 100 specifies the image displayed at the position signal input position and the processing information represented by the image based on the display information in the memory 200. The CPU 100 reads a processing target application or file from the memory 200 in accordance with the specified processing information, and causes the application to execute the processing content.

たとえば、図4(a)に示すように、ユーザがメールのアイコンAをタッチすると、CPU100は、アイコンAの処理対象であるアプリケーションAをメモリ200から読み出して起動する。   For example, as illustrated in FIG. 4A, when the user touches the mail icon A, the CPU 100 reads out the application A, which is the processing target of the icon A, from the memory 200 and starts it.

また、各キーカバー13a、23aがユーザの指によりタッチされると、CPU100は各キーセンサ14、24から検出信号を受け付けるとともに、検出信号を出力したキーセンサ14、24を識別する。CPU100は、キーセンサ14、24が検出したタッチキーおよび各タッチキー14、24ーに対応付けられた処理の情報をメモリ200の表示情報を基づいて特定し、処理の情報に従って処理を実行する。   When each key cover 13a, 23a is touched by a user's finger, the CPU 100 receives a detection signal from each key sensor 14, 24 and identifies the key sensor 14, 24 that has output the detection signal. The CPU 100 specifies the touch keys detected by the key sensors 14 and 24 and the processing information associated with the touch keys 14 and 24 based on the display information in the memory 200, and executes the processing according to the processing information.

たとえば、図4(a)に示す第1タッチキーK11をユーザがタッチすると、CPU100は操作項目画面の画像データをメモリ200から読み出す。   For example, when the user touches the first touch key K <b> 11 shown in FIG. 4A, the CPU 100 reads the image data of the operation item screen from the memory 200.

CPU100は、制御部として、映像デコーダ306およびバックライト駆動回路305へ制御信号を出力する。たとえば、CPU100は、バックライト駆動回路305を制御し、各パネルバックライト11b、21bおよび各キーバックライト13b、23bを消灯する。一方、CPU100は、各パネルバックライト11b、21bを点灯すると共に、映像デコーダ306を制御し、各表示面11a1、21a1に画像を表示させる。また、CPU100が各キーバックライト13b、23bを点灯する。なお、CPU100は、各表示面11a1、21a1に画像を表示する際のコントラスト、輝度、画面サイズ、および画面の透明度なども制御する。   The CPU 100 outputs a control signal to the video decoder 306 and the backlight drive circuit 305 as a control unit. For example, the CPU 100 controls the backlight drive circuit 305 to turn off the panel backlights 11b and 21b and the key backlights 13b and 23b. On the other hand, the CPU 100 turns on the panel backlights 11b and 21b and controls the video decoder 306 to display images on the display surfaces 11a1 and 21a1. In addition, the CPU 100 turns on the key backlights 13b and 23b. The CPU 100 also controls contrast, brightness, screen size, screen transparency, and the like when displaying images on the display surfaces 11a1 and 21a1.

たとえば、CPU100は、実行部により実行されたアプリケーションに基づく画面を各表示面11a1、21a1に表示する。つまり、第1液晶パネル11aを出力先としてアプリケーションAが実行部により起動されると、図4(b)に示すように、アプリケーションAの画面が第1表示面11a1に表示される。また、第1および第2液晶パネル11a、21aを出力先として操作項目画面の画像データが実行部により読み出されると、図4(a)に示すように、操作項目画面が第1および第2表示面11a1、21a1に表示される。   For example, the CPU 100 displays a screen based on the application executed by the execution unit on each of the display surfaces 11a1 and 21a1. That is, when the application A is started by the execution unit with the first liquid crystal panel 11a as an output destination, the screen of the application A is displayed on the first display surface 11a1 as shown in FIG. 4B. Further, when image data of the operation item screen is read by the execution unit using the first and second liquid crystal panels 11a and 21a as output destinations, the operation item screen is displayed in the first and second displays as shown in FIG. It is displayed on the surfaces 11a1, 21a1.

また、各表示面11a1、21a1に異なるアプリケーションの画面が表示される際、アクティブ画面および非アクティブ画面を識別する表示形態がとられる。なお、異なるアプリケーションに基づく画面には、第1液晶パネル11aを出力先として実行中のアプリケーションと、第2液晶パネル21aを出力先として実行中のアプリケーションとが異なることにより、第1表示面11a1の画面と第2表示面21a1の画面とが異なる場合が含まれる。また、第1および第2液晶パネル11a、21aを出力先として実行中のアプリケーションが同じであっても、1つのアプリケーションについて複数の処理が並行して実行され、一つの処理の画面が第1表示面11a1に表示され、他の処理の画面が第2表示面21a1に表示される場合も、異なるアプリケーションに基づく画面に含まれる。   Further, when different application screens are displayed on the display surfaces 11a1 and 21a1, a display form for identifying the active screen and the inactive screen is adopted. It should be noted that the screen based on the different application is different from the application being executed with the first liquid crystal panel 11a as the output destination and the application being executed with the second liquid crystal panel 21a as the output destination. The case where the screen and the screen of the second display surface 21a1 are different is included. Further, even if the applications being executed with the first and second liquid crystal panels 11a and 21a as the output destination are the same, a plurality of processes are executed in parallel for one application, and one process screen is displayed on the first display. The case where the screen of other processing is displayed on the surface 11a1 and displayed on the second display surface 21a1 is also included in the screen based on a different application.

たとえば、図4(b)に示すように、ユーザにより第1表示面11a1がタッチされると、第1パネルセンサ12から位置信号がCPU100へ出力され、第1表示面11a1に表示される第1画面がアクティブ画面であると判断される。これにより、CPU100
は、第1表示面11a1の第1画面において縁の一辺に線状のバーの画像を表示する。また、第1キーバックライト13bを点灯して、第2キーバックライト23bを消灯する。これにより、第1タッチキーに比べて、第2タッチキーが暗くなる。よって、第1表示面11a1の画面がアクティブ状態であり、第2表示面21a1の画面が非アクティブ状態であることが表示される。
For example, as shown in FIG. 4B, when the first display surface 11a1 is touched by the user, a position signal is output from the first panel sensor 12 to the CPU 100 and displayed on the first display surface 11a1. The screen is determined to be the active screen. As a result, the CPU 100
Displays a linear bar image on one edge of the first screen of the first display surface 11a1. Further, the first key backlight 13b is turned on and the second key backlight 23b is turned off. As a result, the second touch key becomes darker than the first touch key. Therefore, it is displayed that the screen of the first display surface 11a1 is in the active state and the screen of the second display surface 21a1 is in the inactive state.

一方、図5(a)に示すように、ユーザにより第2表示面21a1がタッチされると、第2パネルセンサ22からの位置信号に基づき第2表示面21a1に表示される第2画面21a1がアクティブ状態であると判断される。これにより、CPU100は、アクティブ状態を示す画像としてバーの画像を第2画面の縁に表示すると共に、第2キーバックライト23bを点灯し、第1キーバックライト13bを消灯する。第1表示面11a1の画面が非アクティブ状態であり、第2表示面21a1の画面がアクティブ状態であることが表わされる。   On the other hand, as shown in FIG. 5A, when the user touches the second display surface 21a1, the second screen 21a1 displayed on the second display surface 21a1 based on the position signal from the second panel sensor 22 is displayed. The active state is determined. As a result, the CPU 100 displays the bar image as an image indicating the active state on the edge of the second screen, turns on the second key backlight 23b, and turns off the first key backlight 13b. This indicates that the screen of the first display surface 11a1 is in an inactive state and the screen of the second display surface 21a1 is in an active state.

なお、第1および第2表示面11a1、21a1にそれぞれ異なるアプリケーションに基づく画面が表示されていない際には、アクティブ画面および非アクティブ画面を定める必要がないため、CPU100はアクティブ画面および非アクティブ画面を識別するための表示制御を実行しない。たとえば、図4(a)に示すように、第1および第2表示面11a1、21a1のどちらにもアプリケーションに基づく画面が表示されていない場合、所定の各第1タッチキーK11、K12、K13が消灯し、各第2タッチキーK21、K22、K23は点灯する。また、図5(b)に示すように、第1および第2表示面11a1、21a1に1つのアプリケーションAに基づく画面A1、A2が表示されている場合、所定の各第1タッチキーK11、K12、K13が消灯し、各第2タッチキーK21、K22、K23は点灯する。   Note that when the screens based on different applications are not displayed on the first and second display surfaces 11a1 and 21a1, there is no need to define an active screen and an inactive screen, so the CPU 100 displays the active screen and the inactive screen. Display control for identification is not executed. For example, as shown in FIG. 4A, when the screen based on the application is not displayed on either of the first and second display surfaces 11a1 and 21a1, predetermined first touch keys K11, K12, and K13 are displayed. The second touch keys K21, K22, and K23 are turned on. As shown in FIG. 5B, when the screens A1 and A2 based on one application A are displayed on the first and second display surfaces 11a1 and 21a1, predetermined first touch keys K11 and K12 are displayed. , K13 are turned off, and the second touch keys K21, K22, K23 are turned on.

なお、点灯しているタッチキーはアクティブ状態であり、消灯しているタッチキーは非アクティブ状態である。このため、非アクティブ状態のタッチキーがユーザにより入力されても、入力位置に応じた処理は実行されない。また、非アクティブ状態のタッチキーがタッチされると、タッチキーはアクティブ状態になり、点灯する。   The touch keys that are lit are in an active state, and the touch keys that are not lit are in an inactive state. For this reason, even if the touch key in the inactive state is input by the user, the process according to the input position is not executed. When a touch key in an inactive state is touched, the touch key enters an active state and lights up.

<第1の実施形態の処理手順>
図4(a)は、操作項目画面を第1および第2表示面11a1、21a1に表示した図である。図4(b)は、アプリケーションAの画面をアクティブ画面として第1表示面11a1に表示し、アプリケーションBの画面を第2表示面21a1に表示した図である。図5(a)は、アプリケーションAの画面を第1表示面11a1に表示し、アプリケーションBの画面をアクティブ画面として第2表示面21a1に表示した図である。図5(b)は、アプリケーションAの第1画面A1を第1表示面11a1に表示し、アプリケーションAの第2画面A2を第2表示面21a1に表示した図である。図6は、ユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。
<Processing procedure of the first embodiment>
FIG. 4A shows the operation item screen displayed on the first and second display surfaces 11a1 and 21a1. FIG. 4B is a diagram in which the screen of application A is displayed on the first display surface 11a1 as the active screen, and the screen of application B is displayed on the second display surface 21a1. FIG. 5A is a diagram in which the screen of application A is displayed on the first display surface 11a1, and the screen of application B is displayed on the second display surface 21a1 as an active screen. FIG. 5B is a diagram in which the first screen A1 of the application A is displayed on the first display surface 11a1, and the second screen A2 of the application A is displayed on the second display surface 21a1. FIG. 6 is a flowchart illustrating a processing procedure indicating the state of the screen in accordance with a user operation.

ユーザの操作に応じて画面の状態を示すように表示を制御する機能が設定されると、表示を制御する処理がCPU100により実行される。この制御処理では、アクティブ画面および非アクティブ画面を識別する表示形態において、アクティブ状態の画面にアクティブ状態を示す画像が表示されるともに、アクティブ状態の画面を表示する表示面11a1、21a1に対応するタッチキーが点灯され、非アクティブ状態の画面を表示する表示面11a1、21a1に対応するタッチキーが消灯される。   When the function for controlling the display is set so as to indicate the state of the screen in accordance with the user's operation, the CPU 100 executes a process for controlling the display. In this control process, in the display form for identifying the active screen and the inactive screen, an image indicating the active state is displayed on the active screen, and the touch corresponding to the display surfaces 11a1 and 21a1 displaying the active screen is displayed. The key is turned on, and the touch keys corresponding to the display surfaces 11a1 and 21a1 that display the inactive screen are turned off.

第1表示面11a1および第2表示面21a1に、それぞれ所定の画面が表示されている状態において、各表示面11a1、21a1に対して操作されるか否かが監視される(S101)。   Whether or not each of the display surfaces 11a1 and 21a1 is operated is monitored in a state where a predetermined screen is displayed on each of the first display surface 11a1 and the second display surface 21a1 (S101).

各表示面11a1、21a1がタッチされると(S101:YES)、アプリケーションが各液晶パネル11a、21aを出力先として実行されているか否かが判断される(S102)。ここでは、図4(a)に示すように、操作項目画面が各表示面11a1、21a1に表示されている場合は、アプリケーションが実行されていない(S102:NO)。このため、ユーザはアクティブ状態および非アクティブ状態を識別する必要がないため、所定の各第2タッチキーK21、K22、K23を点灯し、他方の各第1タッチキーK11、K12、K13を消灯する(S103)。   When the display surfaces 11a1 and 21a1 are touched (S101: YES), it is determined whether or not the application is being executed with the liquid crystal panels 11a and 21a as output destinations (S102). Here, as shown in FIG. 4A, when the operation item screen is displayed on each of the display surfaces 11a1 and 21a1, the application is not executed (S102: NO). For this reason, since the user does not need to identify the active state and the inactive state, the predetermined second touch keys K21, K22, and K23 are turned on, and the other first touch keys K11, K12, and K13 are turned off. (S103).

また、図4(a)に示す操作項目画面においてユーザによりアイコンAがタッチされると、アイコンAが示すアプリケーションAが第1液晶パネル11aを出力先として起動され、アプリケーションAの画面が第1表示面11a1に表示される。このとき、第2表示面21a1には操作項目画面が表示されたままである。このような状態において、各表示面11a1、21a1がタッチされると(S101:YES)、第2液晶パネル21aを出力先としてアプリケーションが実行されていないことにより(S102:NO)、所定の各第2タッチキーK21、K22、K23が点灯し、各第1タッチキーK11、K12、K13が消灯した状態が維持される(S103)。   Further, when the icon A is touched by the user on the operation item screen shown in FIG. 4A, the application A indicated by the icon A is activated with the first liquid crystal panel 11a as the output destination, and the screen of the application A is the first display. It is displayed on the surface 11a1. At this time, the operation item screen remains displayed on the second display surface 21a1. In such a state, when each of the display surfaces 11a1 and 21a1 is touched (S101: YES), the application is not executed with the second liquid crystal panel 21a as the output destination (S102: NO). The state where the two touch keys K21, K22, and K23 are turned on and the first touch keys K11, K12, and K13 are turned off is maintained (S103).

次に、第1表示面11a1にアプリケーションAの画面が表示され、第2表示面21a1に表示された操作項目画面において、操作項目画面上のアイコンBがタッチされると、アプリケーションBが第2液晶パネル21aを出力先として起動され、アプリケーションBの画面が第2表示面21a1に表示される(図4(b)参照)。このような状態において、各表示面11a1、21a1がタッチされると(S101:YES)、各液晶パネル11a、21aを出力先としてアプリケーションAおよびBが起動されたと判断される(S102:YES)。   Next, when the screen of the application A is displayed on the first display surface 11a1 and the icon B on the operation item screen is touched on the operation item screen displayed on the second display surface 21a1, the application B is displayed on the second liquid crystal. The panel 21a is activated as an output destination, and the screen of the application B is displayed on the second display surface 21a1 (see FIG. 4B). In such a state, when the display surfaces 11a1 and 21a1 are touched (S101: YES), it is determined that the applications A and B are activated with the liquid crystal panels 11a and 21a as output destinations (S102: YES).

次に、各液晶パネル11a、21aを出力先として実行されているアプリケーションまたはアプリケーションの処理が一致するか否かが判断される(S104)。ここでは、アプリケーションAとアプリケーションBとが一致しないため、アプリケーションが異なると判断される(S104:YES)。   Next, it is determined whether or not the applications executed by using the liquid crystal panels 11a and 21a as output destinations or the processes of the applications match (S104). Here, since application A and application B do not match, it is determined that the applications are different (S104: YES).

図4(b)に示すように、ユーザによりタッチされたのは第1表示面11a1であれば、第1表示面11a1に表示されるアプリケーションAの画面がアクティブ状態に設定される。よって、アプリケーションAの画面の縁にバー画像が付される。また、各第1タッチキーK11、K12、K13が点灯し、各第2タッチキーK21、K22、K23が消灯する(S105)。これにより、ユーザは、第1表示面11a1がアクティブ状態、即ち、第1表示面11a1がユーザによる操作の対象であることがわかる。   As shown in FIG. 4B, if the user touches the first display surface 11a1, the screen of the application A displayed on the first display surface 11a1 is set to the active state. Therefore, a bar image is added to the edge of the screen of application A. Further, the first touch keys K11, K12, K13 are turned on, and the second touch keys K21, K22, K23 are turned off (S105). Thereby, the user can understand that the first display surface 11a1 is in an active state, that is, the first display surface 11a1 is a target of an operation by the user.

続いて、図5(a)に示すように、ユーザが第2表示面21a1をタッチすると(S101:YES)、第2表示面21a1がアクティブ状態になる。ここでは、各液晶パネル11a、21aを出力先として異なるアプリケーションA、Bが既に起動されている(S102:YES、S104:YES)。このため、アクティブ状態であることを示すバー画像が第1表示面11a1に代えて第2表示面21a1に表示される。また、各第2タッチキーK21、K22、K23が点灯され、各第1タッチキーK11、K12、K13が消灯される(S105)。これにより、第2表示面21a1がアクティブ状態、即ち、第2表示面21a1がユーザによる操作の対象であることがユーザに報知される。   Subsequently, as shown in FIG. 5A, when the user touches the second display surface 21a1 (S101: YES), the second display surface 21a1 becomes active. Here, different applications A and B are already activated with the liquid crystal panels 11a and 21a as output destinations (S102: YES, S104: YES). For this reason, a bar image indicating the active state is displayed on the second display surface 21a1 instead of the first display surface 11a1. Also, the second touch keys K21, K22, K23 are turned on, and the first touch keys K11, K12, K13 are turned off (S105). Thereby, the user is notified that the second display surface 21a1 is in an active state, that is, the second display surface 21a1 is the target of the operation by the user.

また、アプリケーションBが終了され、アプリケーションAの画面の出力先が第1および第2液晶パネル11a、21aに設定されると、図5(b)に示すように、アプリケーションAの第1画面A1が第1表示面11a1に表示され、アプリケーションAの第2画
面A2が第2表示面21a1に表示される。この表示形態では、各液晶パネル11a、21aを出力先としてアプリケーションが起動されているが(S102:YES)、ユーザの操作対象はアプリケーションAの1つだけである(S104:NO)。よって、アクティブ状態の識別が不要であるから、アクティブ状態であることを示すバー画像が消され、所定の各第2タッチキーK21、K22、K23が点灯し、各第1タッチキーK11、K12、K13が消灯する(S103)。
Further, when the application B is terminated and the output destination of the screen of the application A is set to the first and second liquid crystal panels 11a and 21a, the first screen A1 of the application A is displayed as shown in FIG. It is displayed on the first display surface 11a1, and the second screen A2 of the application A is displayed on the second display surface 21a1. In this display mode, an application is activated with the liquid crystal panels 11a and 21a as output destinations (S102: YES), but only one application A is operated by the user (S104: NO). Accordingly, since it is not necessary to identify the active state, the bar image indicating the active state is erased, the predetermined second touch keys K21, K22, K23 are turned on, and the first touch keys K11, K12, K13 is turned off (S103).

以上、本実施形態によれば、異なるアプリケーションまたは異なる処理に基づく画面が各表示面11a1、21a1に表示されているときに、ユーザにより操作された表示面にバーが表示される。これにより、ユーザの操作によってアクティブ状態になった画面がわかり易い。   As described above, according to the present embodiment, when screens based on different applications or different processes are displayed on the display surfaces 11a1 and 21a1, a bar is displayed on the display surface operated by the user. This makes it easy to understand the screen that has been activated by the user's operation.

また、本実施の形態によれば、表示面11a1、21a1に表示された画面がアクティブな状態にあると、その表示面11a1、21a1に対応するタッチキーが点灯される。よって、アクティブ状態の画面がユーザにより分かり易いとともに、そのタッチキーも使用できる状態にあることがユーザに分かり易い さらに、本実施形態によれば、画面が第1および第2表示面11a1、21a1に表示されている場合でも、その画面が1つのアプリケーションに基づくものであれば、アクティブ画面か否かを識別する表示形態はとられない。これにより、ユーザは、操作対象が1つのアプリケーションであることが容易にわかる。   Further, according to the present embodiment, when the screen displayed on the display surfaces 11a1, 21a1 is in an active state, the touch keys corresponding to the display surfaces 11a1, 21a1 are turned on. Therefore, it is easy for the user to understand that the screen in the active state is in a state where the touch key can be used. Further, according to the present embodiment, the screen is displayed on the first and second display surfaces 11a1 and 21a1. Even if it is displayed, if the screen is based on one application, a display form for identifying whether or not it is an active screen is not taken. Thereby, the user can easily understand that the operation target is one application.

<第2の実施形態>
第1の実施形態では、アクティブ状態の表示面においてアクティブ状態を示す画像を表示するとともに、タッチキーを点灯することにより、アクティブ状態の画面を非アクティブ状態の画面から区別するための制御が実行された。これに対し、第2実施形態では、アクティブ状態の画面の輝度に比べて、非アクティブ状態の画面の輝度を低くするとともに、タッチキーを点灯することにより、アクティブ状態の画面を非アクティブ状態の画面から区別するための制御が実行される。
<Second Embodiment>
In the first embodiment, an image indicating the active state is displayed on the display screen in the active state, and control for distinguishing the screen in the active state from the screen in the inactive state is performed by turning on the touch key. It was. In contrast, in the second embodiment, the brightness of the screen in the inactive state is made lower than the brightness of the screen in the active state, and the touch screen is turned on to turn the screen in the active state into the screen in the inactive state. Control for distinguishing from the above is executed.

図7(a)は、アプリケーションAの画面をアクティブ画面として第1表示面11a1に表示し、アプリケーションBの画面を非アクティブ画面として第2表示面21a1に表示した図である。図7(b)は、アプリケーションAの第1画面A1を第1表示面11a1に表示し、アプリケーションAの第2画面A2を第2表示面21a1に表示した図である。図8は、ユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。なお、図8におけるS201、S202およびS204の処理は、それぞれ図6におけるS101、S102およびS104の処理と同様であるため、説明は省略する。   FIG. 7A is a diagram in which the screen of application A is displayed on the first display surface 11a1 as an active screen, and the screen of application B is displayed on the second display surface 21a1 as an inactive screen. FIG. 7B is a diagram in which the first screen A1 of the application A is displayed on the first display surface 11a1, and the second screen A2 of the application A is displayed on the second display surface 21a1. FIG. 8 is a flowchart showing a processing procedure indicating the state of the screen according to the user's operation. Note that the processing of S201, S202, and S204 in FIG. 8 is the same as the processing of S101, S102, and S104 in FIG.

図7(a)に示すように、ユーザにより第1表示面11a1がタッチされたとき(S201:YES)、各液晶パネル11a、21aを出力先として異なるアプリケーションA、Bが起動されている場合(S202:YES、S204:YES)、非アクティブ状態のアプリケーションBの画面の輝度がアクティブ状態のアプリケーションAの画面の輝度より下げられる。また、各第1タッチキーK11、K12、K13が点灯し、各第2タッチキーK21、K22、K23が消灯する(S205)。これにより、第1表示面11a1がアクティブ状態であることがユーザに報知される。   As shown in FIG. 7A, when the first display surface 11a1 is touched by the user (S201: YES), different applications A and B are activated with the liquid crystal panels 11a and 21a as output destinations ( (S202: YES, S204: YES), the screen brightness of the application B in the inactive state is lowered from the screen brightness of the application A in the active state. Further, the first touch keys K11, K12, K13 are turned on, and the second touch keys K21, K22, K23 are turned off (S205). Thereby, the user is notified that the first display surface 11a1 is in the active state.

また、第1表示面11a1または第2表示面21a1がユーザによりタッチされた際(S201:YES)、図7(b)に示すように、アプリケーションAの第1画面A1および第2画面A2が第1および第2表示面11a1、21a1に表示されている場合(S202:YES、S204:NO)、第1表示面11a1の画面および第2表示面21a1の画面が同じ輝度で表示される。また、所定の各第2タッチキーK21、K22、K23
が点灯され、他方の各第1タッチキーK11、K12、K13が消灯される(S203)。
When the first display surface 11a1 or the second display surface 21a1 is touched by the user (S201: YES), the first screen A1 and the second screen A2 of the application A are displayed as shown in FIG. When displayed on the first and second display surfaces 11a1 and 21a1 (S202: YES, S204: NO), the screen of the first display surface 11a1 and the screen of the second display surface 21a1 are displayed with the same luminance. In addition, each predetermined second touch key K21, K22, K23
Is turned on, and the other first touch keys K11, K12, K13 are turned off (S203).

なお、第1表示面11a1および第2表示面21a1の少なくとも一方に操作項目画面が表示されている場合にも(S202:NO)、第1表示面11a1の画面および第2表示面21a1の画面が同じ輝度で表示され、所定のタッチキーが点灯される(S203)。   Even when the operation item screen is displayed on at least one of the first display surface 11a1 and the second display surface 21a1 (S202: NO), the screen of the first display surface 11a1 and the screen of the second display surface 21a1 are displayed. The same brightness is displayed and a predetermined touch key is turned on (S203).

以上、本実施形態によれば、異なるアプリケーションまたは異なる処理に基づく画面が各表示面11a1、21a1に表示されているときに、ユーザにより操作された表示面の輝度より低い輝度で他の表示面に画面が表示される。このような輝度の差により表示面がアクティブ状態であるか否かがわかり易い。   As described above, according to the present embodiment, when screens based on different applications or different processes are displayed on the respective display surfaces 11a1 and 21a1, other display surfaces are displayed with luminance lower than the luminance of the display surface operated by the user. A screen is displayed. It is easy to understand whether or not the display surface is in an active state due to such a difference in luminance.

<第3の実施形態>
第2の実施形態では、輝度の差によりアクティブ状態の画面を非アクティブ状態の画面から区別するための制御が実行された。これに対し、第3実施形態では、アクティブ状態の画面のサイズに比べて、非アクティブ状態の画面のサイズを小さくするとともに、タッチキーを点灯することにより、アクティブ状態の画面を非アクティブ状態の画面から区別するための制御が実行される。
<Third Embodiment>
In the second embodiment, control for distinguishing an active screen from an inactive screen is performed based on a difference in luminance. On the other hand, in the third embodiment, the screen size in the inactive state is made smaller than the screen size in the active state, and the screen in the active state is turned off by turning on the touch key. Control for distinguishing from the above is executed.

図9は、アプリケーションAの画面をアクティブ画面として第1表示面11a1に表示し、アプリケーションBの画面を非アクティブ画面として第2表示面21a1に表示した図である。図10は、ユーザの操作に応じて画面の状態を示す処理手順を示すフローチャートである。なお、図10におけるS301、S302およびS304の処理は、それぞれ図6におけるS101、S102およびS104の処理と同様であるため、説明は省略する。   FIG. 9 is a diagram in which the screen of application A is displayed on the first display surface 11a1 as an active screen, and the screen of application B is displayed on the second display surface 21a1 as an inactive screen. FIG. 10 is a flowchart showing a processing procedure indicating the state of the screen in accordance with the user operation. Note that the processing of S301, S302, and S304 in FIG. 10 is the same as the processing of S101, S102, and S104 in FIG.

図9に示すように、ユーザにより第1表示面11a1がタッチされた際(S301:YES)、各表示面11a1、21a1に異なるアプリケーションA、Bの画面が表示されている(S302:YES、S304:YES)場合、第2表示面21a1における非アクティブ状態のアプリケーションBの画面のサイズが第1表示面11a1におけるアクティブ状態のアプリケーションAの画面のサイズより小さくされる。また、第1表示面11a1に対応する各第1タッチキーK11、K12、K13が点灯し、第2表示面21a1に対応する各第2タッチキーK21、K22、K23が消灯する(S305)。この画面サイズの差により、第1表示面11a1の画面がアクティブ状態であることがユーザに報知される。   As shown in FIG. 9, when the first display surface 11a1 is touched by the user (S301: YES), the screens of different applications A and B are displayed on the display surfaces 11a1 and 21a1 (S302: YES, S304). : YES), the screen size of the application B in the inactive state on the second display surface 21a1 is made smaller than the screen size of the application A in the active state on the first display surface 11a1. Further, the first touch keys K11, K12, K13 corresponding to the first display surface 11a1 are turned on, and the second touch keys K21, K22, K23 corresponding to the second display surface 21a1 are turned off (S305). Due to the difference in screen size, the user is notified that the screen of the first display surface 11a1 is in the active state.

また、第1または第2表示面11a1、21a1がユーザによりタッチされた際(S301:YES)、図7(b)に示すように、アプリケーションAの第1画面A1および第2画面A2が第1および第2表示面11a1、21a1に表示されている(S302:YES、S304:NO)場合、第1表示面11a1の画面および第2表示面21a1の画面が同じサイズで表示される。また、所定の各第2タッチキーK21、K22、K23が点灯され、他方の各第1タッチキーK11、K12、K13が消灯される(S303)。   When the first or second display surface 11a1, 21a1 is touched by the user (S301: YES), as shown in FIG. 7B, the first screen A1 and the second screen A2 of the application A are the first. When the images are displayed on the second display surfaces 11a1 and 21a1 (S302: YES, S304: NO), the screen of the first display surface 11a1 and the screen of the second display surface 21a1 are displayed in the same size. Also, the predetermined second touch keys K21, K22, K23 are turned on, and the other first touch keys K11, K12, K13 are turned off (S303).

なお、第1表示面11a1および第2表示面21a1の少なくとも一方に操作項目画面が表示されている(S302:NO)場合にも、第1表示面11a1の画面および第2表示面21a1の画面が同じサイズで表示され、所定のタッチキーが点灯される(S303)。   Even when the operation item screen is displayed on at least one of the first display surface 11a1 and the second display surface 21a1 (S302: NO), the screen of the first display surface 11a1 and the screen of the second display surface 21a1 are displayed. The same size is displayed and a predetermined touch key is turned on (S303).

以上、本実施形態によれば、異なるアプリケーションまたは異なる処理に基づく画面が
各表示面11a1、21a1に表示されているときに、非アクティブ状態の画面のサイズがアクティブ状態の画面にサイズより小さく設定される。このように、アクティブ状態の画面に比べて、非アクティブ状態の画面が見にくく表示されることにより、ユーザは画面の状態を簡単に見分けることができる。
As described above, according to the present embodiment, when screens based on different applications or different processes are displayed on the display surfaces 11a1 and 21a1, the size of the inactive screen is set smaller than the size of the active screen. The Thus, the screen in the inactive state is displayed more difficult to see than the screen in the active state, so that the user can easily distinguish the screen state.

<その他の実施形態>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態によって何ら制限されるものではなく、また、本発明の実施の形態も、上記以外に種々の変更が可能である。
<Other embodiments>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications other than those described above can be made to the embodiments of the present invention. .

たとえば、上記実施形態では、第1および第2タッチキーが、それぞれ第1および第2ディスプレイ11、21に隣接して設けられたが、第1および第2タッチキーの配置はこれに限定されない。   For example, in the above embodiment, the first and second touch keys are provided adjacent to the first and second displays 11 and 21, respectively, but the arrangement of the first and second touch keys is not limited to this.

また、上記実施形態では、各キャビネット10、20に各タッチパネルおよび各タッチキーが配されたが、各キャビネットに各タッチキーが設けられなくてもよい。この場合、各タッチパネルの表示面11a1、21a1に表示された画面の状態により画面がアクティブな状態であるか、非アクティブな状態であるかが識別される。   Moreover, in the said embodiment, although each touch panel and each touch key were distribute | arranged to each cabinet 10 and 20, each touch key does not need to be provided in each cabinet. In this case, whether the screen is in an active state or an inactive state is identified according to the state of the screen displayed on the display surfaces 11a1 and 21a1 of each touch panel.

さらに、各キャビネット10、20に各タッチキーが設けられない場合、各表示面11a1、21a1の一部にキー領域を設けることもできる。この場合、アクティブ画面を表示する表示面のキー領域の色調に比べて、非アクティブ画面を表示する表示面のキー領域の色調が暗く表示される。これにより、各表示面の状態がわかり易くなるとともに、キー領域への入力が可能か否かも分かり易くなる。   Furthermore, when each touch key is not provided in each cabinet 10 and 20, a key area | region can also be provided in a part of each display surface 11a1 and 21a1. In this case, the color tone of the key area on the display surface displaying the inactive screen is displayed darker than the color tone of the key area on the display surface displaying the active screen. This makes it easy to understand the state of each display surface and whether or not input to the key area is possible.

また、第1実施形態では、ユーザが操作された表示面においてアクティブ状態を示すバー画像が画面に表示されると共にタッチキーが点灯され、非アクティブ状態の表示面においてタッチキーが消灯された。これに対して、ユーザが操作された表示面においてアクティブ状態を示すバー画像が画面に表示されずに、タッチキーが点灯され、非アクティブ状態の表示面においてタッチキーが消灯されてもよい。このように、タッチキーの点滅状態により画面の状態がわかり易い。また、ユーザが操作された表示面においてアクティブ状態を示すバー画像が画面に表示されるとともに、タッチキーが点灯され、非アクティブ状態の表示面においてもタッチキーが点灯されたままであってよい。このようにしても、アクティブ状態を示すバー画像により画面の状態が容易に理解され得る。   In the first embodiment, the bar image indicating the active state is displayed on the screen on the display surface operated by the user, the touch key is turned on, and the touch key is turned off on the display surface in the inactive state. On the other hand, the touch key may be turned on and the touch key may be turned off on the display surface in the inactive state without displaying the bar image indicating the active state on the screen on the display surface operated by the user. Thus, the screen state is easy to understand by the blinking state of the touch key. Further, the bar image indicating the active state is displayed on the screen on the display surface operated by the user, the touch key may be turned on, and the touch key may remain turned on on the display surface in the inactive state. Even in this case, the state of the screen can be easily understood from the bar image indicating the active state.

さらに、第1実施形態では、アクティブ状態を示す画像としてバー画像が画面の縁の一部に表示されたが、アクティブ状態を示す画像はこれに限らない。たとえば、アクティブ状態の画面の縁を囲む枠の画像が表示されてもよい。   Furthermore, in the first embodiment, the bar image is displayed as a part of the edge of the screen as the image indicating the active state, but the image indicating the active state is not limited thereto. For example, an image of a frame surrounding the edge of the active screen may be displayed.

また、上記実施形態では、各表示面11a1、21a1に表示される画像、画面の輝度、画面のサイズ、および各表示面11a1、21a1に対応するタッチキーの明るさにより、アクティブ状態の画面を表示する表示部と、非アクティブ状態の画面を表示する表示部とを区別するための制御が実行された。このような表示制御と共に、または表示制御に代えて、音や光などによりアクティブ状態の画面を表示する表示部と、非アクティブ状態の画面を表示する表示部とを区別するための制御が実行されてもよい。たとえば、各キャビネットに画面の状態を表わすランプ部が設けられる。アクティブ画面が表示されるキャビネット10、20のランプ部が点灯されることにより、ランプ部からの光で各画面の状態が報知される。   Moreover, in the said embodiment, the screen of an active state is displayed with the image displayed on each display surface 11a1, 21a1, the brightness | luminance of a screen, the size of a screen, and the brightness of the touch key corresponding to each display surface 11a1, 21a1. Control for distinguishing between a display unit for displaying and a display unit for displaying a screen in an inactive state was executed. In addition to or instead of such display control, control is performed to distinguish between a display unit that displays an active screen by sound or light, and a display unit that displays an inactive screen. May be. For example, each cabinet is provided with a lamp portion indicating the state of the screen. When the lamp sections of the cabinets 10 and 20 on which the active screen is displayed are turned on, the state of each screen is notified by the light from the lamp section.

さらに、上記実施形態では、携帯電話機1を用いたが、PDAや携帯ゲーム機などの携
帯端末装置を用いることもできる。
Furthermore, although the mobile phone 1 is used in the above embodiment, a mobile terminal device such as a PDA or a mobile game machine can also be used.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。たとえば、上記実施形態の一部または全部を組み合わせることができる。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims. For example, some or all of the above embodiments can be combined.

1 携帯電話機
10 第1キャビネット
11 第1ディスプレイ
12 第1パネルセンサ
13 第1キーディスプレイ
14 第1キーセンサ
20 第2キャビネット
21 第2ディスプレイ
22 第2パネルセンサ
23 第2キーディスプレイ
24 第2キーセンサ
18 突起部
27 軸部
39 案内溝
100 CPU
DESCRIPTION OF SYMBOLS 1 Cellular phone 10 1st cabinet 11 1st display 12 1st panel sensor 13 1st key display 14 1st key sensor 20 2nd cabinet 21 2nd display 22 2nd panel sensor 23 2nd key display 24 2nd key sensor 18 Protrusion part 27 Shaft part 39 Guide groove 100 CPU

Claims (2)

第1の表示部と、
第2の表示部と、
前記第1の表示部に対するタッチ入力を検出する第1のタッチセンサと、
前記第2の表示部に対するタッチ入力を検出する第2のタッチセンサと、
前記第1のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第1の処理を実行し、前記第2のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第2の処理を実行する実行部と、
前記実行部により実行された前記第1の処理の画面を前記第1の表示部に表示し、前記第2の処理の画面を前記第2の表示部に表示する制御部とを備え、
前記実行部は、前記第1の表示部および前記第2の表示部に、異なるアプリケーションに基づく画面が表示された状態において、一方の表示部に表示された画面をアクティブ状態に設定し、他方の表示部に表示された画面を非アクティブ状態に設定するとともに、前記非アクティブ状態の画面が表示された表示部に対してタッチ入力がなされると、当該タッチ入力がなされた表示部の画面を前記アクティブ状態に設定し、
前記制御部は、前記第1の表示部および前記第2の表示部にアプリケーションに基づく画面とともに所定の情報を入力するためのキーを表示し、前記第1の表示部および前記第2の表示部のうち、前記アクティブ状態の画面を表示する表示部と、前記非アクティブ状態の画面を表示する表示部とを区別可能なように、前記第1の表示部に表示されるキーおよび前記第2の表示部に表示されるキーの表示態様を異ならせることを特徴とする携帯端末装置。
A first display unit;
A second display;
A first touch sensor for detecting a touch input to the first display unit;
A second touch sensor for detecting a touch input to the second display unit;
A first process including activation of an application is performed according to a touch input detected by the first touch sensor, and a second process including activation of an application according to the touch input detected by the second touch sensor. An execution unit that executes the process of
A control unit that displays the screen of the first process executed by the execution unit on the first display unit, and displays the screen of the second process on the second display unit,
The execution unit sets the screen displayed on one display unit to an active state while the screen based on a different application is displayed on the first display unit and the second display unit, and sets the other display unit to the active state. The screen displayed on the display unit is set to an inactive state, and when a touch input is made to the display unit on which the inactive screen is displayed, the screen of the display unit on which the touch input is made is Set it to active,
The control unit displays keys for inputting predetermined information together with a screen based on an application on the first display unit and the second display unit, and the first display unit and the second display unit Among the keys displayed on the first display unit and the second display unit so that the display unit displaying the screen in the active state and the display unit displaying the screen in the inactive state can be distinguished. A portable terminal device, wherein a display mode of a key displayed on a display unit is different.
第1の表示部と、第2の表示部と、前記第1の表示部に対するタッチ入力を検出する第1のタッチセンサと、前記第2の表示部に対するタッチ入力を検出する第2のタッチセンサとを備える携帯端末装置のコンピュータに、
前記第1のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第1の処理を実行し、前記第2のタッチセンサにより検出されたタッチ入力に応じてアプリケーションの起動を含む第2の処理を実行し、
実行された前記第1の処理の画面を前記第1の表示部に表示し、前記第2の処理の画面を前記第2の表示部に表示し、
前記第1の表示部および前記第2の表示部に、異なるアプリケーションに基づく画面が表示された状態において、一方の表示部に表示された画面をアクティブ状態に設定し、他方の表示部に表示された画面を非アクティブ状態に設定するとともに、前記非アクティブ状態の画面が表示された表示部に対してタッチ入力がなされると、当該タッチ入力がなされた表示部の画面を前記アクティブ状態に設定し、
前記第1の表示部および前記第2の表示部にアプリケーションに基づく画面とともに所定の情報を入力するためのキーを表示し、前記第1の表示部および前記第2の表示部のうち、前記アクティブ状態の画面を表示する表示部と、前記非アクティブ状態の画面を表示する表示部とを区別可能なように、前記第1の表示部に表示されるキーおよび前記第2の表示部に表示されるキーの表示態様を異ならせる、プログラム。
A first display unit; a second display unit; a first touch sensor that detects a touch input to the first display unit; and a second touch sensor that detects a touch input to the second display unit. In a computer of a portable terminal device comprising
A first process including activation of an application is performed according to a touch input detected by the first touch sensor, and a second process including activation of an application according to the touch input detected by the second touch sensor. Execute the process of
Displaying the screen of the executed first process on the first display unit, displaying the screen of the second process on the second display unit,
In a state where screens based on different applications are displayed on the first display unit and the second display unit, the screen displayed on one display unit is set to an active state and displayed on the other display unit. When the touch input is made to the display unit on which the inactive screen is displayed, the screen of the display unit on which the touch input is made is set to the active state. ,
A key for inputting predetermined information together with a screen based on an application is displayed on the first display unit and the second display unit, and the active unit is selected from the first display unit and the second display unit. Display on the first display unit and the second display unit so that the display unit displaying the state screen and the display unit displaying the inactive screen can be distinguished. A program that changes the display mode of keys.
JP2014245077A 2014-12-03 2014-12-03 Mobile terminal device Pending JP2015084548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014245077A JP2015084548A (en) 2014-12-03 2014-12-03 Mobile terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014245077A JP2015084548A (en) 2014-12-03 2014-12-03 Mobile terminal device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011045886A Division JP5661511B2 (en) 2011-03-03 2011-03-03 Mobile terminal device

Publications (1)

Publication Number Publication Date
JP2015084548A true JP2015084548A (en) 2015-04-30

Family

ID=53047926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014245077A Pending JP2015084548A (en) 2014-12-03 2014-12-03 Mobile terminal device

Country Status (1)

Country Link
JP (1) JP2015084548A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003077098A1 (en) * 2002-03-08 2003-09-18 Mitsubishi Denki Kabushiki Kaisha Mobile communication device, display control method of mobile communication device, and program therefor
JP2003316563A (en) * 2002-04-22 2003-11-07 Pioneer Electronic Corp Information terminal, method for controlling information terminal and display control program
JP2006031560A (en) * 2004-07-20 2006-02-02 Toshiba Corp Information processor, method for controlling operation screen, and program
WO2008090902A1 (en) * 2007-01-25 2008-07-31 Sharp Kabushiki Kaisha Multi-window managing device, program, storage medium, and information processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003077098A1 (en) * 2002-03-08 2003-09-18 Mitsubishi Denki Kabushiki Kaisha Mobile communication device, display control method of mobile communication device, and program therefor
JP2003316563A (en) * 2002-04-22 2003-11-07 Pioneer Electronic Corp Information terminal, method for controlling information terminal and display control program
JP2006031560A (en) * 2004-07-20 2006-02-02 Toshiba Corp Information processor, method for controlling operation screen, and program
WO2008090902A1 (en) * 2007-01-25 2008-07-31 Sharp Kabushiki Kaisha Multi-window managing device, program, storage medium, and information processing device

Similar Documents

Publication Publication Date Title
JP4824805B2 (en) Mobile terminal device
JP5661499B2 (en) Mobile terminal device
JP5722642B2 (en) Mobile terminal device
JP5580227B2 (en) Mobile terminal device
US20150253953A1 (en) Mobile terminal device, storage medium and lock cancellation method
US9400522B2 (en) Multiple display portable terminal apparatus with position-based display modes
JP5629180B2 (en) Mobile terminal device
JP5709603B2 (en) Portable terminal device, program, and display method
JP5818445B2 (en) Mobile terminal device
JP2009005039A (en) Electronic apparatus and program
JP2013218428A (en) Portable electronic device
JP2011205576A (en) Mobile terminal device
JP5693305B2 (en) Mobile terminal device
JP5754770B2 (en) Portable terminal device, program, and display method
JP5660868B2 (en) Mobile terminal device
JP5467064B2 (en) Mobile terminal device
JP5661511B2 (en) Mobile terminal device
JP5306430B2 (en) Mobile terminal device
JP2012048571A (en) Portable terminal device
JP5723631B2 (en) Mobile terminal device
JP2014204169A (en) Display control device and control method thereof
JP2015084548A (en) Mobile terminal device
KR101378656B1 (en) Apparatus and method for automatically switching function of input and output depending on the direction of the mobile communication terminal
JP2014219996A (en) Mobile terminal device
JP2017208760A (en) Portable terminal and detection program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151215