JP6986602B1 - Electronic devices and control methods - Google Patents

Electronic devices and control methods Download PDF

Info

Publication number
JP6986602B1
JP6986602B1 JP2020128464A JP2020128464A JP6986602B1 JP 6986602 B1 JP6986602 B1 JP 6986602B1 JP 2020128464 A JP2020128464 A JP 2020128464A JP 2020128464 A JP2020128464 A JP 2020128464A JP 6986602 B1 JP6986602 B1 JP 6986602B1
Authority
JP
Japan
Prior art keywords
display unit
unit
function
housing
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020128464A
Other languages
Japanese (ja)
Other versions
JP2022025562A (en
Inventor
利民 肖
一男 藤井
泰通 塚本
雅春 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2020128464A priority Critical patent/JP6986602B1/en
Application granted granted Critical
Publication of JP6986602B1 publication Critical patent/JP6986602B1/en
Publication of JP2022025562A publication Critical patent/JP2022025562A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数のタッチスクリーンをより有効に活用すること。【解決手段】電子機器は、表裏の位置関係に配置されている第1表示部及び第2表示部と、第1表示部の画面に対する操作入力を検出する第1検出部と、第2表示部の画面に対する操作入力を検出する第2検出部と、第1検出部により検出された操作入力を第1表示部に表示されている操作対象に関連付けられている第1処理に適用する第1機能、第2検出部により検出された操作入力を第2表示部に表示されている操作対象に関連付けられている第2処理に適用する第2機能、及び第1検出部により検出された操作入力と第2検出部により検出された操作入力との一方または両方に基づく操作入力を第1処理及び第2処理とは異なる予め設定された処理に適用する第3機能を制御する機能制御部と、を備える。【選択図】図2PROBLEM TO BE SOLVED: To make more effective use of a plurality of touch screens. SOLUTION: An electronic device has a first display unit and a second display unit arranged in a positional relationship between the front and back sides, a first detection unit for detecting an operation input to a screen of the first display unit, and a second display unit. The first function of applying the operation input detected by the first detection unit to the first processing associated with the operation target displayed on the first display unit and the second detection unit that detects the operation input to the screen of , The second function that applies the operation input detected by the second detection unit to the second process associated with the operation target displayed on the second display unit, and the operation input detected by the first detection unit. A function control unit that controls a third function that applies an operation input based on one or both of the operation inputs detected by the second detection unit to a preset process different from the first process and the second process. Be prepared. [Selection diagram] Fig. 2

Description

本発明は、電子機器、及び制御方法に関する。 The present invention relates to electronic devices and control methods.

2つのタッチスクリーンを備えたデュアル・スクリーン式の電子機器について開示されている(例えば、特許文献1)。 A dual screen electronic device including two touch screens is disclosed (for example, Patent Document 1).

特開2017−54471号公報Japanese Unexamined Patent Publication No. 2017-54471

2つのタッチスクリーンを備えた電子機器では、通常、一方のタッチスクリーンに対する操作によって当該一方タッチスクリーンに表示されているアイコンやアプリケーションへの操作入力を行うことができ、他方のタッチスクリーンに対する操作によって当該他方のタッチスクリーンに表示されているアイコンやアプリケーションへの操作入力を行うことができる。また、一方のタッチスクリーンが非アクティブ(オフ)になる場合、当該一方のタッチスクリーンに含まれるタッチパネルとディスプレイは連動して非アクティブ(オフ)となり、他方のタッチスクリーンのみアクティブとなる。このように、複数のタッチスクリーンを備えているものの、各々のタッチスクリーン自身のみでの機能に限定されていた。 In an electronic device equipped with two touch screens, an operation on one touch screen can usually be performed to input an operation to an icon or an application displayed on the one touch screen, and an operation on the other touch screen can be used to input the operation. You can input operations to the icons and applications displayed on the other touch screen. When one touch screen becomes inactive (off), the touch panel and the display included in the one touch screen become inactive (off) in conjunction with each other, and only the other touch screen becomes active. In this way, although it has a plurality of touch screens, it is limited to the functions of each touch screen itself.

本発明は上記した事情に鑑みてなされたもので、複数のタッチスクリーンをより有効に活用する電子機器、及び制御方法を提供することを目的の一つとする。 The present invention has been made in view of the above circumstances, and one of the objects of the present invention is to provide an electronic device and a control method for more effectively utilizing a plurality of touch screens.

本発明は上記の課題を解決するためになされたものであり、本発明の第1態様に係る電子機器は、表裏の位置関係に配置されている第1表示部及び第2表示部と、前記第1表示部の画面に対する操作入力を検出する第1検出部と、前記第2表示部の画面に対する操作入力を検出する第2検出部と、前記第1検出部により検出された操作入力を前記第1表示部に表示されている操作対象に関連付けられている第1処理に適用する第1機能、前記第2検出部により検出された操作入力を前記第2表示部に表示されている操作対象に関連付けられている第2処理に適用する第2機能、及び前記第1検出部により検出された操作入力と前記第2検出部により検出された操作入力との一方または両方に基づく操作入力を前記第1処理及び前記第2処理とは異なる予め設定された処理に適用する第3機能を制御する機能制御部と、を備える。 The present invention has been made to solve the above problems, and the electronic device according to the first aspect of the present invention includes a first display unit and a second display unit arranged in a positional relationship between the front and back surfaces, and the above-mentioned. The first detection unit that detects the operation input to the screen of the first display unit, the second detection unit that detects the operation input to the screen of the second display unit, and the operation input detected by the first detection unit are described. The first function applied to the first process associated with the operation target displayed on the first display unit, the operation input detected by the second detection unit is displayed on the second display unit as the operation target. A second function applied to the second process associated with the above, and an operation input based on one or both of the operation input detected by the first detection unit and the operation input detected by the second detection unit. A function control unit for controlling a third function applied to a preset process different from the first process and the second process is provided.

上記電子機器において、前記機能制御部は、前記第1検出部により検出された操作入力と第2検出部により検出された操作入力との両方に基づく特定の操作入力に基づいて、前記第1機能及び前記第2機能の一方又は両方が有効な状態から前記第3機能が有効な状態へ遷移させてもよい。 In the electronic device, the function control unit has the first function based on a specific operation input based on both the operation input detected by the first detection unit and the operation input detected by the second detection unit. And the state in which one or both of the second functions are valid may be changed to the state in which the third function is valid.

上記電子機器において、前記機能制御部は、前記第3機能による処理が終了すると、前記第3機能が有効な状態から前記第1機能及び前記第2機能の一方又は両方が有効な状態へ遷移させてもよい。 In the electronic device, when the processing by the third function is completed, the function control unit shifts from the state in which the third function is valid to the state in which one or both of the first function and the second function are valid. You may.

上記電子機器において、前記特定の操作入力は、前記第1検出部により検出された操作入力と第2検出部により検出された操作入力とのいずれか一方に特定の方向への動きを伴う操作入力が含まれてもよい。 In the electronic device, the specific operation input is an operation input in which either one of the operation input detected by the first detection unit and the operation input detected by the second detection unit is accompanied by a movement in a specific direction. May be included.

上記電子機器において、前記特定の操作入力は、前記画面上で第1方向へスライドさせるタッチ操作を含み、前記予め設定された処理は、前記第1表示部及び前記第2表示部の一方又は両方の表示輝度を変更する処理であってもよい。 In the electronic device, the specific operation input includes a touch operation of sliding in a first direction on the screen, and the preset process is one or both of the first display unit and the second display unit. It may be a process of changing the display brightness of.

上記電子機器において、音を出力する音出力部、をさらに備え、前記特定の操作入力は、前記画面上で第2方向へスライドさせるタッチ操作を含み、前記予め設定された処理は、前記音出力部から出力される音量を変更する処理であってもよい。 The electronic device further includes a sound output unit that outputs sound, the specific operation input includes a touch operation of sliding in a second direction on the screen, and the preset process is the sound output. It may be a process of changing the volume output from the unit.

上記電子機器において、前記第1表示部及び前記第2表示部が表裏の位置関係に配置されている第1筐体と、前記第1筐体に対して相対的に回動可能に接続された第2筐体と、接続された表示装置へ映像信号を出力する映像出力部と、をさらに備え、前記第1筐体と前記第2筐体とが重なりあった閉状態である場合に、前記第1筐体において、前記第2筐体に対面する側に前記第1表示部が配置され、前記第2筐体に対面する側の裏側に前記第2表示部が配置されており、前記機能制御部は、前記第1筐体と前記第2筐体とが前記閉状態であることが検出され、且つ前記映像出力部に前記表示装置が接続されたことを条件として前記第3機能を有効にして、前記予め設定された処理に適用し、前記予め設定された処理は、前記第1表示部及び前記第2表示部ともに非表示にさせるとともに、前記第2検出部により検出された操作入力を前記映像出力部に接続された前記表示装置に表示されている操作対象に関連付けられている処理に適用する処理であってもよい。 In the electronic device, the first display unit and the second display unit are rotatably connected to the first housing in which the first display unit and the second display unit are arranged in a positional relationship between the front and back sides. A second housing and a video output unit that outputs a video signal to a connected display device are further provided, and the first housing and the second housing are in a closed state in which they overlap each other. In the first housing, the first display unit is arranged on the side facing the second housing, and the second display unit is arranged on the back side of the side facing the second housing. The control unit enables the third function on condition that the first housing and the second housing are detected to be in the closed state and the display device is connected to the video output unit. The operation input detected by the second detection unit is applied to the preset processing, and the preset processing hides both the first display unit and the second display unit. May be a process applied to the process associated with the operation target displayed on the display device connected to the video output unit.

また、本発明の第2態様に係る、表裏の位置関係に配置されている第1表示部及び第2表示部を備える電子機器における制御方法は、第1検出部が、前記第1表示部の画面に対する操作入力を検出するステップと、第2検出部が、前記第2表示部の画面に対する操作入力を検出するステップと、機能制御部が、前記第1検出部により検出された操作入力を前記第1表示部に表示されている操作対象に関連付けられている第1処理に適用する第1機能、前記第2検出部により検出された操作入力を前記第2表示部に表示されている操作対象に関連付けられている第2処理に適用する第2機能、及び前記第1検出部により検出された操作入力と前記第2検出部により検出された操作入力との一方または両方に基づく操作入力を前記第1処理及び前記第2処理とは異なる予め設定された処理に適用する第3機能を制御するステップと、を有する。 Further, in the control method in the electronic device including the first display unit and the second display unit arranged in the positional relationship between the front and back sides according to the second aspect of the present invention, the first detection unit is the first display unit. The step of detecting the operation input to the screen, the step of the second detection unit detecting the operation input to the screen of the second display unit, and the step of the function control unit detecting the operation input detected by the first detection unit are described. The first function applied to the first process associated with the operation target displayed on the first display unit, the operation input detected by the second detection unit is displayed on the second display unit as the operation target. A second function applied to the second process associated with the above, and an operation input based on one or both of the operation input detected by the first detection unit and the operation input detected by the second detection unit. It has a step of controlling a third function applied to a preset process different from the first process and the second process.

本発明の上記態様によれば、複数のタッチスクリーンをより有効に活用することができる。 According to the above aspect of the present invention, a plurality of touch screens can be utilized more effectively.

実施形態に係る電子機器の外観を示す斜視図。The perspective view which shows the appearance of the electronic device which concerns on embodiment. 実施形態に係る電子機器10のハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware composition of the electronic device 10 which concerns on embodiment. 実施形態に係るMCU130のタッチ機能に関する構成例を示す図。The figure which shows the structural example about the touch function of the MCU 130 which concerns on embodiment. 実施形態に係るMode1によるタッチ機能を示す図。The figure which shows the touch function by Mode 1 which concerns on embodiment. 実施形態に係るMode2によるタッチ機能を示す図。The figure which shows the touch function by Mode 2 which concerns on embodiment. 実施形態に係るMode3によるタッチ機能を示す図。The figure which shows the touch function by Mode 3 which concerns on embodiment. 実施形態に係るMode4によるタッチ機能を示す図。The figure which shows the touch function by Mode 4 which concerns on embodiment. 実施形態に係るMode5によるタッチ機能を示す図。The figure which shows the touch function by Mode 5 which concerns on embodiment. Mode5における仮想デバイス処理の第1例を示す図。The figure which shows the 1st example of the virtual device processing in Mode 5. 音量調整イベントのトリガ条件の具体例を示す図。The figure which shows the specific example of the trigger condition of a volume adjustment event. Mode5における仮想デバイス処理の第2例を示す図。The figure which shows the 2nd example of the virtual device processing in Mode 5. 輝度調整イベントのトリガ条件の具体例を示す図。The figure which shows the specific example of the trigger condition of a brightness adjustment event. 実施形態に係るMode6によるタッチ機能を示す図。The figure which shows the touch function by Mode 6 which concerns on embodiment. Mode6における仮想デバイス処理の一例を示す図。The figure which shows an example of the virtual device processing in Mode6. トラックパッドイベントのトリガ条件の具体例を示す図。The figure which shows the specific example of the trigger condition of a trackpad event. 実施形態に係るMCUにおけるタッチ機能に関する構成の一例を示す図。The figure which shows an example of the structure about the touch function in the MCU which concerns on embodiment. Mode1における状態遷移を示す図。The figure which shows the state transition in Mode1. Mode2及びMode4における状態遷移を示す図。The figure which shows the state transition in Mode 2 and Mode 4. Mode3における状態遷移を示す図。The figure which shows the state transition in Mode3. Mode5における状態遷移を示す図。The figure which shows the state transition in Mode5. Mode6における状態遷移を示す図。The figure which shows the state transition in Mode6.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。
まず、本実施形態に係る電子機器の概要について説明する。
図1は、本実施形態に係る電子機器の外観を示す斜視図である。図示する電子機器10は、クラムシェル型(ノート型)のPC(パーソナルコンピュータ)である。電子機器10は、第1筐体11、第2筐体12、及びヒンジ機構13を備えている。第1筐体11及び第2筐体12は、略四角形の板状(例えば、平板状)の筐体である。第1筐体11の側面の一つと第2筐体12の側面の一つとがヒンジ機構13を介して結合(連結)されており、ヒンジ機構13がなす回転軸の周りに第1筐体11と第2筐体12とが相対的に回動可能である。第1筐体11と第2筐体12との回転軸の周りの開き角θが略0°の状態が、第1筐体11と第2筐体12とが重なり合って閉じた状態(「閉状態」と称する)である。閉状態において第1筐体11と第2筐体12との互いに対面する側の面を、それぞれの「内面」と呼び、内面に対して反対側の面を「外面」と称する。開き角θとは、第1筐体11の内面と第2筐体12の内面とがなす角とも言うことができる。閉状態に対して第1筐体11と第2筐体12とが開いた状態のことを「開状態」と称する。開状態とは、開き角θが予め設定された閾値(例えば、10°)より大きくなるまで、第1筐体11と第2筐体12とが相対的に回動された状態である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
First, an outline of the electronic device according to the present embodiment will be described.
FIG. 1 is a perspective view showing the appearance of the electronic device according to the present embodiment. The illustrated electronic device 10 is a clamshell type (notebook type) PC (personal computer). The electronic device 10 includes a first housing 11, a second housing 12, and a hinge mechanism 13. The first housing 11 and the second housing 12 are substantially quadrangular plate-shaped (for example, flat plate-shaped) housings. One of the side surfaces of the first housing 11 and one of the side surfaces of the second housing 12 are connected (connected) via the hinge mechanism 13, and the first housing 11 is formed around the rotation axis formed by the hinge mechanism 13. And the second housing 12 are relatively rotatable. The state in which the opening angle θ around the rotation axis of the first housing 11 and the second housing 12 is approximately 0 ° is the state in which the first housing 11 and the second housing 12 overlap and are closed (“closed”). It is called "state"). The surfaces of the first housing 11 and the second housing 12 facing each other in the closed state are referred to as "inner surfaces", and the surfaces opposite to the inner surface are referred to as "outer surfaces". The opening angle θ can also be said to be an angle formed by the inner surface of the first housing 11 and the inner surface of the second housing 12. The state in which the first housing 11 and the second housing 12 are open with respect to the closed state is referred to as an "open state". The open state is a state in which the first housing 11 and the second housing 12 are relatively rotated until the opening angle θ becomes larger than a preset threshold value (for example, 10 °).

図1(A)は第1筐体11の内面側が見える方向からの斜視図であり、図1(B)は第1筐体11の外面側が見える方向からの斜視図である。第1筐体11の内面及び外面のそれぞれには、タッチスクリーンが設けられている。タッチスクリーンは、表示部(ディスプレイ)と表示部の画面に対するタッチ操作(操作入力)を検出するタッチパネルとを含んで構成されている。ここでは、第1筐体11の内面に設けられている符号110が示すタッチスクリーンを第1タッチスクリーン110、第1筐体11の外面に設けられている符号120が示すタッチスクリーンを第2タッチスクリーン120と称する。つまり、第1筐体11には、第1タッチスクリーン110と第2タッチスクリーン120とが表裏の位置関係に配置されている。 FIG. 1A is a perspective view from a direction in which the inner surface side of the first housing 11 can be seen, and FIG. 1B is a perspective view from a direction in which the outer surface side of the first housing 11 can be seen. A touch screen is provided on each of the inner surface and the outer surface of the first housing 11. The touch screen includes a display unit (display) and a touch panel for detecting a touch operation (operation input) on the screen of the display unit. Here, the touch screen indicated by the reference numeral 110 provided on the inner surface of the first housing 11 is the first touch screen 110, and the touch screen indicated by the reference numeral 120 provided on the outer surface of the first housing 11 is the second touch. It is referred to as a screen 120. That is, in the first housing 11, the first touch screen 110 and the second touch screen 120 are arranged in a positional relationship between the front and back sides.

図2は、本実施形態に係る電子機器10のハードウェア構成の一例を示すブロック図である。電子機器10は、通信部101と、RAM(Random Access Memory)102と、Flashメモリ103と、CPU(Central Processing Unit)104と、スピーカ105と、加速度センサ106と、映像出力部107と、第1タッチスクリーン110と、第2タッチスクリーン120と、MCU(Micro Control Unit)130とを備えている。これらの各部は、バスなどを介して通信可能に接続されている。 FIG. 2 is a block diagram showing an example of the hardware configuration of the electronic device 10 according to the present embodiment. The electronic device 10 includes a communication unit 101, a RAM (Random Access Memory) 102, a Flash memory 103, a CPU (Central Processing Unit) 104, a speaker 105, an acceleration sensor 106, a video output unit 107, and a first unit. It includes a touch screen 110, a second touch screen 120, and an MCU (Micro Control Unit) 130. Each of these parts is connected so as to be communicable via a bus or the like.

通信部101は、例えば、複数のイーサネット(登録商標)ポートや複数のUSB(Universal Serial Bus)等のデジタル入出力ポート、Bluetooth(登録商標)やWi−Fi(登録商標)等の無線通信を行う通信デバイス等を含んで構成される。 The communication unit 101 performs wireless communication such as, for example, a plurality of Ethernet (registered trademark) ports, a plurality of digital input / output ports such as USB (Universal Serial Bus), Bluetooth (registered trademark) and Wi-Fi (registered trademark). It is configured to include communication devices and the like.

RAM102には、CPU104が演算や制御、処理などを行うプログラムやデータが展開され、適宜、各種データの保存または消去が行われる。また、RAM102は、第1表示部111及び第2表示部121の表示用のビデオメモリ(V−RAM)としても機能する。 Programs and data that the CPU 104 performs operations, controls, and processes are developed in the RAM 102, and various data are stored or erased as appropriate. The RAM 102 also functions as a display video memory (V-RAM) for the first display unit 111 and the second display unit 121.

Flashメモリ103は、Flash−ROM(Resad Only Memory)などの不揮発性メモリである。例えば、Flashメモリ103には、BIOS(Basic Input Output System)のプログラムや設定データ、OS(Operating System)やOS上で動作するアプリケーションのプログラム等が保存されている。 The Flash memory 103 is a non-volatile memory such as a Flash-ROM (Redd Only Memory). For example, the Flash memory 103 stores a BIOS (Basic Input Output System) program, setting data, an OS (Operating System), a program of an application running on the OS, and the like.

CPU104は、BIOS、OS、またはOS上で動作する各種のアプリケーションなどのプログラムを実行することにより、各種の演算及び処理などを行う。例えば、CPU104は、上記プログラムの実行に応じて、RAM102、Flashメモリ103などに対してデータの読み書きや消去などのメモリ制御や、第1表示部111及び第2表示部121に対する表示制御や、映像出力部107に対する出力制御、スピーカ105から出力する音の制御などを行う。なお、CPU104は、GPU(Graphic Processing Unit)など特定の演算及び処理を行なう構成を内部または外部に含んで構成されてもよい。 The CPU 104 performs various operations and processes by executing a program such as a BIOS, an OS, or various applications running on the OS. For example, the CPU 104 performs memory control such as reading / writing and erasing data for the RAM 102, the Flash memory 103, and the like, display control for the first display unit 111 and the second display unit 121, and video according to the execution of the program. Output control for the output unit 107, control of the sound output from the speaker 105, and the like are performed. The CPU 104 may be configured to include, internally or externally, a configuration for performing specific operations and processes such as a GPU (Graphic Processing Unit).

スピーカ105は、電子音や音声などを出力する。加速度センサ106は、電子機器10の向き及び向きの変化を検出する。例えば、加速度センサ106は、第1筐体11及び第2筐体12のそれぞれに設けられてもよい。この場合、電子機器10は、第1筐体11に設けられた加速度センサ106の検出結果と、第2筐体12に設けられた加速度センサ106の検出結果とに基づいて、第1筐体11と第2筐体12とが開状態であるか或いは閉状態であるかを検出したり、開き角θを検出したりしてもよい。 The speaker 105 outputs electronic sounds, voices, and the like. The accelerometer 106 detects the orientation of the electronic device 10 and changes in the orientation. For example, the acceleration sensor 106 may be provided in each of the first housing 11 and the second housing 12. In this case, the electronic device 10 has the first housing 11 based on the detection result of the acceleration sensor 106 provided in the first housing 11 and the detection result of the acceleration sensor 106 provided in the second housing 12. And the second housing 12 may be detected whether it is in the open state or the closed state, or the opening angle θ may be detected.

映像出力部107は、外付けの表示装置(モニタ、プロジェクタ等)と接続して映像信号を出力するための外部モニタ出力端子を含んで構成されている。例えば、外部モニタ出力端子は、HDMI(登録商標)端子、DVI端子、D−SUB端子、Display Port端子などである。 The video output unit 107 is configured to include an external monitor output terminal for connecting to an external display device (monitor, projector, etc.) and outputting a video signal. For example, the external monitor output terminal is an HDMI (registered trademark) terminal, a DVI terminal, a D-SUB terminal, a DisplayPort terminal, or the like.

第1タッチスクリーン110は、第1表示部111と、第1タッチパネル112(第1検出部の一例)とを備えている。また、第2タッチスクリーン120は、第2表示部121と、第2タッチパネル122(第2検出部の一例)とを備えている。第1表示部111及び第2表示部121は、液晶ディスプレイや、有機EL(Electro Luminescence)ディスプレイ等を含んで構成されている。第1表示部111及び第2表示部121は、CPU104が実行するBIOS、OS、またはOS上で動作する各種のアプリケーションの処理に応じた画像を表示する。 The first touch screen 110 includes a first display unit 111 and a first touch panel 112 (an example of a first detection unit). Further, the second touch screen 120 includes a second display unit 121 and a second touch panel 122 (an example of a second detection unit). The first display unit 111 and the second display unit 121 are configured to include a liquid crystal display, an organic EL (Electroluminescence) display, and the like. The first display unit 111 and the second display unit 121 display images according to the processing of the BIOS, the OS, or various applications running on the OS executed by the CPU 104.

第1タッチパネル112は、第1表示部111の画面に対応する領域へのタッチ操作を検出するタッチセンサを有し、当該画面に対するタッチ操作に応じて当該領域におけるタッチ位置を検出する。第2タッチパネル122は、第2表示部121の表示画面に対応する領域へのタッチ操作を検出するタッチセンサを有し、当該画面に対するタッチ操作に応じて当該領域におけるタッチ位置を検出する。タッチセンサとしては、静電容量方式や抵抗膜方式などの任意の方式のセンサを適用することができる。第1タッチパネル112及び第2タッチパネル122は、それぞれタッチ操作に応じた検出信号を出力する。 The first touch panel 112 has a touch sensor that detects a touch operation on the area corresponding to the screen of the first display unit 111, and detects a touch position in the area according to the touch operation on the screen. The second touch panel 122 has a touch sensor that detects a touch operation on the area corresponding to the display screen of the second display unit 121, and detects a touch position in the area according to the touch operation on the screen. As the touch sensor, any type of sensor such as a capacitance type or a resistance film type can be applied. The first touch panel 112 and the second touch panel 122 each output a detection signal corresponding to the touch operation.

MCU130は、演算処理を行なう組み込み用のマイクロコントロールユニット(Micro Control Unit)である。図3は、本実施形態に係るMCU130のタッチ機能に関する構成例を示す図である。MCU130は、第1タッチパネル112と第2タッチパネル122とに接続され、第1タッチパネル112及び第2タッチパネル122により出力される検出信号を取得する。そして、MCU130は、それぞれのタッチパネルから取得した検出信号に基づいて、第1タッチパネル112及び第2タッチパネル122に対するタッチ操作に基づく操作情報をそれぞれ生成し、システム処理部140へ出力する。システム処理部140は、CPU104がOSやOS上で動作するアプリケーションのプログラムを実行することにより実現される機能構成である。システム処理部140は、OSやOS上で動作するアプリケーションのプログラムの処理に応じた画像を第1表示部111と第2表示部121に表示させる。また、システム処理部140は、MCU130から取得した操作情報に応じた処理を実行する。 The MCU 130 is an embedded micro control unit (Micro Control Unit) that performs arithmetic processing. FIG. 3 is a diagram showing a configuration example of the touch function of the MCU 130 according to the present embodiment. The MCU 130 is connected to the first touch panel 112 and the second touch panel 122, and acquires the detection signals output by the first touch panel 112 and the second touch panel 122. Then, the MCU 130 generates operation information based on the touch operation on the first touch panel 112 and the second touch panel 122 based on the detection signals acquired from the respective touch panels, and outputs the operation information to the system processing unit 140. The system processing unit 140 is a functional configuration realized by the CPU 104 executing an OS or a program of an application running on the OS. The system processing unit 140 causes the first display unit 111 and the second display unit 121 to display an image corresponding to the processing of the OS or the program of the application running on the OS. Further, the system processing unit 140 executes processing according to the operation information acquired from the MCU 130.

例えば、MCU130は、第1タッチパネル112により検出されたタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用する第1機能と、第2タッチパネル122により検出されたタッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用する第2機能とを有する。操作対象とは、それぞれの表示部の画面において、タッチ操作により特定される箇所に表示されているものである。例えば、それぞれの表示部の画面でデスクトップ上に表示されているアイコンやタスクバー、デスクトップ上のアイコン以外の領域、デスクトップ上に表示されているウインドウなどが操作対象になり得る。これらの操作対象は、OSやアプリケーションのプログラムの実行に応じて表示される。 For example, the MCU 130 is detected by the second touch panel 122 and the first function of applying the touch operation detected by the first touch panel 112 to the process associated with the operation target displayed on the first display unit 111. It has a second function of applying the touch operation to the process associated with the operation target displayed on the second display unit 121. The operation target is displayed at a place specified by a touch operation on the screen of each display unit. For example, an icon or taskbar displayed on the desktop on the screen of each display unit, an area other than the icon on the desktop, a window displayed on the desktop, or the like can be an operation target. These operation targets are displayed according to the execution of the OS or application program.

例えば、操作対象がアイコンである場合、そのアイコンがフォルダアイコンであれば、操作対象に関連付けられている処理は、そのフォルダを開く(フォルダの中の情報をウインドウに表示する)処理である。アイコンがアプリケーションのプログラムを実行させるショートカットである場合、操作対象に関連付けられている処理は、そのアプリケーションのプログラムを実行する処理である。また、操作対象がデスクトップ上のアイコン以外の領域である場合、操作対象に関連付けられている処理は、デスクトップ上のアイコンの表示設定やディスプレイ設定などを行うためのメニューを表示する処理である。また、操作対象が実行されたアプリケーションのウインドウ(ウインドウ内のいずれかの箇所)である場合、操作対象に関連付けられている処理は、アプリケーションで規定されている処理である。 For example, when the operation target is an icon, if the icon is a folder icon, the process associated with the operation target is the process of opening the folder (displaying the information in the folder in the window). When the icon is a shortcut for executing the program of the application, the process associated with the operation target is the process of executing the program of the application. When the operation target is an area other than the icon on the desktop, the process associated with the operation target is the process of displaying a menu for setting the display of the icon on the desktop and the display setting. When the operation target is the window of the executed application (any part in the window), the process associated with the operation target is the process specified by the application.

第1機能では、MCU130は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を、第1表示部111に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。また、第2機能では、MCU130は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を、第2表示部121に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。 In the first function, the MCU 130 outputs the operation information based on the touch operation detected by the first touch panel 112 to the system processing unit 140 as the operation information of the touch operation for the processing displayed on the first display unit 111. .. Further, in the second function, the MCU 130 sends the operation information based on the touch operation detected by the second touch panel 122 to the system processing unit 140 as the operation information of the touch operation for the processing displayed on the second display unit 121. Output.

また、MCU130は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との一方または両方に基づくタッチ操作を、第1表示部111に表示されている操作対象に関連付けられている処理及び第2表示部121に表示されている操作対象に関連付けられている処理とは異なる予め設定された処理に適用する第3機能を有する。この予め設定された処理は、例えば、タッチ操作により特定される操作対象に関連付けられている処理とは異なる仮想デバイスとしての処理である。この仮想デバイスの処理について詳しくは後述する。MCU130は、システムモード(システムの動作状態)、第1タッチパネル112及び第2タッチパネル122により検出されたタッチ操作などに応じて上述の第1機能、第2機能、及び第3機能のいずれか一つ又は複数を用いたタッチ機能を制御する。以下、図4〜15を参照して、Mode1〜6の6種類のシステムモードについて説明する。 Further, the MCU 130 applies a touch operation based on one or both of the touch operation detected by the first touch panel 112 and the touch operation detected by the second touch panel 122 to the operation target displayed on the first display unit 111. It has a third function applied to a preset process different from the associated process and the process associated with the operation target displayed on the second display unit 121. This preset process is, for example, a process as a virtual device different from the process associated with the operation target specified by the touch operation. The processing of this virtual device will be described in detail later. The MCU 130 is one of the above-mentioned first function, second function, and third function according to the system mode (system operating state), the touch operation detected by the first touch panel 112 and the second touch panel 122, and the like. Or control the touch function using a plurality. Hereinafter, six types of system modes of Modes 1 to 6 will be described with reference to FIGS. 4 to 15.

(Mode1)
図4は、本実施形態に係るMode1によるタッチ機能を示す図である。Mode1は、第1表示部111及び第2表示部121の両方がアクティブ(表示オン)となるモードである。Mode1では、MCU130は、第1機能と第2機能の両方を有効にする。例えば、MCU130は、第1タッチパネル112によりタッチ操作が検出されると、第1タッチパネル112に対するタッチ操作のイベントとして検出し、第1タッチパネル112により検出されたタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用する。また、MCU130は、第2タッチパネル122によりタッチ操作が検出されると、第2タッチパネル122に対するタッチ操作のイベントとして検出し、第2タッチパネル122により検出されたタッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用する。
(Mode1)
FIG. 4 is a diagram showing a touch function by Mode 1 according to the present embodiment. Mode 1 is a mode in which both the first display unit 111 and the second display unit 121 are active (display on). In Mode 1, the MCU 130 enables both the first and second functions. For example, when the touch operation is detected by the first touch panel 112, the MCU 130 detects it as an event of the touch operation with respect to the first touch panel 112, and the touch operation detected by the first touch panel 112 is displayed on the first display unit 111. Applies to the process associated with the operation target. Further, when the touch operation is detected by the second touch panel 122, the MCU 130 detects it as an event of the touch operation with respect to the second touch panel 122, and the touch operation detected by the second touch panel 122 is displayed on the second display unit 121. Applies to the process associated with the operation target.

なお、本図は、MCU130のタッチ機能を模式化して表したものである。各部を繋ぐ線は、信号や情報の流れを示したものではなく、各タッチパネルと、タッチ操作が適用される対象との対応関係を示している。図5〜8及び図13も同様である。 It should be noted that this figure schematically shows the touch function of the MCU 130. The line connecting each part does not show the flow of signals or information, but shows the correspondence between each touch panel and the target to which the touch operation is applied. The same applies to FIGS. 5 to 8 and 13.

(Mode2)
図5は、本実施形態に係るMode2によるタッチ機能を示す図である。Mode2は、第1表示部111がアクティブ(表示オン)で、第2表示部121が非アクティブ(表示オフ)となるモードである。Mode2では、MCU130は、第1機能を有効にする。例えば、MCU130は、第1タッチパネル112によりタッチ操作が検出されると、第1タッチパネル112に対するタッチ操作のイベントとして検出し、第1タッチパネル112により検出されたタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用する。なお、MCU130は、第2タッチパネル122によりタッチ操作が検出されても、第2タッチパネル122に対するタッチ操作のイベントとして検出せず、当該タッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用しない。
(Mode2)
FIG. 5 is a diagram showing a touch function by Mode 2 according to the present embodiment. Mode 2 is a mode in which the first display unit 111 is active (display on) and the second display unit 121 is inactive (display off). In Mode2, the MCU 130 enables the first function. For example, when the touch operation is detected by the first touch panel 112, the MCU 130 detects it as an event of the touch operation with respect to the first touch panel 112, and the touch operation detected by the first touch panel 112 is displayed on the first display unit 111. Applies to the process associated with the operation target. Even if the touch operation is detected by the second touch panel 122, the MCU 130 does not detect the touch operation as an event of the touch operation on the second touch panel 122, and associates the touch operation with the operation target displayed on the second display unit 121. Does not apply to the processing being done.

(Mode3)
図6は、本実施形態に係るMode3によるタッチ機能を示す図である。Mode3は、Mode2とは逆に、第1表示部111が非アクティブ(表示オフ)で、第2表示部121がアクティブ(表示オン)となるモードである。Mode3では、MCU130は、第2機能を有効にする。例えば、MCU130は、第2タッチパネル122によりタッチ操作が検出されると、第2タッチパネル122に対するタッチ操作のイベントとして検出し、第2タッチパネル122により検出されたタッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用する。なお、MCU130は、第1タッチパネル112によりタッチ操作が検出されても、第1タッチパネル112に対するタッチ操作のイベントとして検出せず、当該タッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用しない。
(Mode3)
FIG. 6 is a diagram showing a touch function by Mode 3 according to the present embodiment. In the mode 3, contrary to the mode 2, the first display unit 111 is inactive (display off) and the second display unit 121 is active (display on). In Mode3, the MCU 130 enables the second function. For example, when the touch operation is detected by the second touch panel 122, the MCU 130 detects it as an event of the touch operation on the second touch panel 122, and the touch operation detected by the second touch panel 122 is displayed on the second display unit 121. Applies to the process associated with the operation target. Even if the touch operation is detected by the first touch panel 112, the MCU 130 does not detect the touch operation as an event of the touch operation on the first touch panel 112, and associates the touch operation with the operation target displayed on the first display unit 111. Does not apply to the processing being done.

(Mode4)
図7は、本実施形態に係るMode4によるタッチ機能を示す図である。Mode4は、第1表示部111及び第2表示部121の両方がアクティブ(表示オン)であるが、第1表示部111のみがタッチスクリーンとして機能し、第2表示部121の方はタッチ操作を検出しない表示のみの画面となるモードである。Mode4では、MCU130は、第1機能を有効にする。例えば、MCU130は、第1タッチパネル112によりタッチ操作が検出されると、第1タッチパネル112に対するタッチ操作のイベントとして検出し、第1タッチパネル112により検出されたタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用する。なお、MCU130は、第2タッチパネル122によりタッチ操作が検出されても、第2タッチパネル122に対するタッチ操作のイベントとして検出せず、当該タッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用しない。
(Mode4)
FIG. 7 is a diagram showing a touch function by Mode 4 according to the present embodiment. In Mode4, both the first display unit 111 and the second display unit 121 are active (display on), but only the first display unit 111 functions as a touch screen, and the second display unit 121 performs a touch operation. This mode is a screen with only a display that is not detected. In Mode 4, the MCU 130 enables the first function. For example, when the touch operation is detected by the first touch panel 112, the MCU 130 detects it as an event of the touch operation with respect to the first touch panel 112, and the touch operation detected by the first touch panel 112 is displayed on the first display unit 111. Applies to the process associated with the operation target. Even if the touch operation is detected by the second touch panel 122, the MCU 130 does not detect the touch operation as an event of the touch operation on the second touch panel 122, and associates the touch operation with the operation target displayed on the second display unit 121. Does not apply to the processing being done.

(Mode5)
図8は、本実施形態に係るMode5によるタッチ機能を示す図である。Mode5は、第1表示部111及び第2表示部121の両方がアクティブ(表示オン)であるが、第1タッチパネル112及び第2タッチパネル122に対するタッチ操作の両方に基づいて、第1表示部111または第2表示部121に表示されている操作対象に関連付けられている処理とは異なる予め設定された仮想デバイスの処理を実行させるモードである。Mode5では、MCU130は、第3機能を有効にする。例えば、MCU130は、第1タッチパネル112及び第2タッチパネル122によりタッチ操作が検出されると、第1タッチパネル112及び第2タッチパネル122に対するタッチ操作のイベントとして検出する。そして、MCU130は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との両方に基づくタッチ操作を、仮想デバイスに対するタッチ操作のイベントに変換して仮想デバイスの処理に適用する。
(Mode5)
FIG. 8 is a diagram showing a touch function by Mode 5 according to the present embodiment. In Mode 5, both the first display unit 111 and the second display unit 121 are active (display on), but the first display unit 111 or the first display unit 111 or based on both touch operations on the first touch panel 112 and the second touch panel 122. In this mode, a preset virtual device process different from the process associated with the operation target displayed on the second display unit 121 is executed. In Mode 5, the MCU 130 enables the third function. For example, when the touch operation is detected by the first touch panel 112 and the second touch panel 122, the MCU 130 detects it as an event of the touch operation on the first touch panel 112 and the second touch panel 122. Then, the MCU 130 converts the touch operation based on both the touch operation detected by the first touch panel 112 and the touch operation detected by the second touch panel 122 into an event of the touch operation for the virtual device and processes the virtual device. Apply to.

次に、Mode5における仮想デバイスの具体例を説明する。以下では、2つの例を説明する。
(Mode5の第1例)
図9は、Mode5における仮想デバイスの第1例を示す図である。この図9に示す例は、仮想デバイスが音量ボタン(Virtual Volume Button)である例を示している。ユーザが、第1タッチスクリーン110の画面の一方の端(例えば、第1タッチスクリーン110に向かって右端)の方を親指で、その裏側の第2タッチスクリーン120の画面の対応する端(例えば、第2タッチスクリーン120に向かって左端)の方を人差し指で挟んで握った状態で、この2本の指を画面の垂直方向(図示で縦方向)へ上又は下にスライドさせるタッチ操作(ジェスチャ)を行った場合、仮想デバイス(音量ボタン)に対するタッチ操作のイベント(以下、「音量調整イベント」という)として検出され、音量調整が可能な音量ボタンB11が表示される。これにより、スピーカ105から出力される音量の変更(音量調整)が可能となる。このMode5において音量ボタンB11を表示させる(音量調整を可能にする)ためのタッチ操作(ジェスチャ)のことを、以下では「音量調整ジェスチャ」という。
Next, a specific example of the virtual device in Mode 5 will be described. Two examples will be described below.
(First example of Mode5)
FIG. 9 is a diagram showing a first example of a virtual device in Mode 5. The example shown in FIG. 9 shows an example in which the virtual device is a volume button (Visual Volume Button). The user uses his thumb toward one end of the screen of the first touch screen 110 (eg, the right edge towards the first touch screen 110) and the corresponding edge of the screen of the second touch screen 120 behind it (eg, the right edge). A touch operation (gesture) that slides these two fingers up or down in the vertical direction (vertical direction in the figure) of the screen while holding the second touch screen 120 (at the left end toward the screen 120) with the index finger. Is detected as a touch operation event for the virtual device (volume button) (hereinafter referred to as “volume adjustment event”), and the volume button B11 capable of adjusting the volume is displayed. This makes it possible to change the volume (volume adjustment) output from the speaker 105. The touch operation (gesture) for displaying the volume button B11 (making the volume adjustment possible) in this Mode 5 is hereinafter referred to as "volume adjustment gesture".

つまり、この音量調整ジェスチャが行われることをトリガ条件として、音量調整イベントとして検出され、音量調整が可能になる。例えば、上方向へスライドさせると音量がアップし、下方向へスライドさせると音量がダウンする。なお、操作に使用する指は、親指と人差し指に限定されるものではなく、第1タッチスクリーン110と第2タッチスクリーン120とを同時に操作可能な指であればいずれの指であっても同様である。 That is, it is detected as a volume adjustment event with the trigger condition that this volume adjustment gesture is performed, and the volume can be adjusted. For example, sliding it up will increase the volume, and sliding it downward will decrease the volume. The finger used for the operation is not limited to the thumb and the index finger, and the same applies to any finger as long as the first touch screen 110 and the second touch screen 120 can be operated at the same time. be.

図10は、音量調整イベントのトリガ条件の具体例を示す図である。音量調整イベントのトリガ条件は、音量調整ジェスチャであると判定される条件であり、例えば以下の(1)〜(3)を満たすことである。
(1)2本の指がそれぞれ第1タッチパネル112と第2タッチパネル122にタッチしている状態でそれぞれの指が垂直方向へスライド。
(2)2本の指のタッチ位置が表裏で対応する所定の範囲内(ほぼ同一の位置)。
(3)2本の指のタッチ位置が画面内の一方の端(例えば、第1タッチパネル112に向かって右端)の所定の範囲内。
FIG. 10 is a diagram showing a specific example of the trigger condition of the volume adjustment event. The trigger condition of the volume adjustment event is a condition for determining that the volume adjustment gesture is satisfied, for example, satisfying the following (1) to (3).
(1) Each finger slides in the vertical direction while the two fingers are touching the first touch panel 112 and the second touch panel 122, respectively.
(2) The touch positions of the two fingers are within the corresponding predetermined ranges on the front and back (almost the same position).
(3) The touch positions of the two fingers are within a predetermined range of one end of the screen (for example, the right end toward the first touch panel 112).

なお、上記(1)〜(3)のうち、(1)及び(2)のみをトリガ条件としてもよい。また、上記(1)〜(3)のうち、(1)のみをトリガ条件としてもよい。また、(3)の条件において、画面内の一方の端は、第1タッチパネル112に向かって右端に限定されるものではなく、左端(或いは、上端や下端)などとしてもよい。 Of the above (1) to (3), only (1) and (2) may be set as the trigger condition. Further, of the above (1) to (3), only (1) may be set as the trigger condition. Further, in the condition (3), one end in the screen is not limited to the right end toward the first touch panel 112, but may be the left end (or the upper end or the lower end) or the like.

また、(1)の条件を、2本の指がそれぞれ同時に第1タッチパネル112と第2タッチパネル122のそれぞれにタッチしていて、いずれか一方の指のみが垂直方向へスライドすることとしてもよい。例えば、ユーザが、第1タッチスクリーン110の画面の一方の端(例えば、右端)の方を親指で、その裏側の第2タッチスクリーン120の画面の端の方を人差し指で挟んで握り、親指のみを画面の垂直方向(図示で縦方向)へ上又は下にスライドさせるタッチ操作(ジェスチャ)を行った場合、音量調整イベントとして検出されてもよい。 Further, the condition (1) may be that two fingers are touching each of the first touch panel 112 and the second touch panel 122 at the same time, and only one of the fingers slides in the vertical direction. For example, the user holds one end (for example, the right end) of the screen of the first touch screen 110 with his / her thumb and the other end of the screen of the second touch screen 120 behind it with his / her index finger. May be detected as a volume adjustment event when a touch operation (gesture) is performed by sliding the screen vertically (vertically in the figure) up or down.

また、音量調整イベントが検出された場合、仮想デバイスとしての音量ボタンB11を表示させずに(可視化せずに)、音量調整が可能となる構成としてもよい。 Further, when a volume adjustment event is detected, the volume may be adjusted without displaying (not visualizing) the volume button B11 as a virtual device.

(Mode5の第2例)
図11は、Mode5における仮想デバイスの第2例を示す図である。この図11に示す例は、仮想デバイスが画面の表示輝度を調整するための輝度調整ボタン(Virtual Brightness Adjustment Button)である例を示している。ユーザが、第1タッチスクリーン110の画面の一方の端(例えば、画面の上端)の方を親指で、その裏側の第2タッチスクリーン120の画面の対応する端(例えば、画面の上端)の方を人差し指で挟んで握った状態で、この2本の指を画面の水平方向(図示で横方向)へ左又は右にスライドさせるタッチ操作(ジェスチャ)を行った場合、仮想デバイス(輝度調整ボタン)に対するタッチ操作のイベント(以下、「輝度調整イベント」という)として検出され、輝度調整ボタンB12が表示される。これにより、第1表示部111及び第2表示部121の表示輝度の変更(輝度調整)が可能となる。このMode5において輝度調整ボタンB12を表示させる(輝度調整を可能にする)ためのタッチ操作(ジェスチャ)のことを、以下では「輝度調整ジェスチャ」という。
(Second example of Mode5)
FIG. 11 is a diagram showing a second example of a virtual device in Mode 5. The example shown in FIG. 11 shows an example in which the virtual device is a brightness adjustment button (Visual Brightness Adjustment Button) for adjusting the display brightness of the screen. The user uses his thumb toward one end of the screen of the first touch screen 110 (eg, the top edge of the screen) and the corresponding edge of the screen of the second touch screen 120 behind it (eg, the top edge of the screen). If you perform a touch operation (gesture) that slides these two fingers horizontally (horizontally in the figure) to the left or right while holding the button between your index fingers, a virtual device (brightness adjustment button) It is detected as a touch operation event (hereinafter referred to as "brightness adjustment event"), and the brightness adjustment button B12 is displayed. This makes it possible to change the display luminance (luminance adjustment) of the first display unit 111 and the second display unit 121. The touch operation (gesture) for displaying the brightness adjustment button B12 (making the brightness adjustment possible) in this Mode 5 is hereinafter referred to as a “brightness adjustment gesture”.

つまり、この輝度調整ジェスチャが行われることをトリガ条件として、輝度調整イベントとして検出され、輝度調整が可能になる。例えば、右方向へスライドさせると輝度がアップし、左方向へスライドさせると輝度がダウンする。なお、操作に使用する指は、親指と人差し指に限定されるものではなく、第1タッチスクリーン110と第2タッチスクリーン120とを同時に操作可能な指であればいずれの指であっても同様である。 That is, it is detected as a luminance adjustment event with the trigger condition that this luminance adjustment gesture is performed, and the luminance adjustment becomes possible. For example, sliding it to the right increases the brightness, and sliding it to the left decreases the brightness. The finger used for the operation is not limited to the thumb and the index finger, and the same applies to any finger as long as the first touch screen 110 and the second touch screen 120 can be operated at the same time. be.

図12は、輝度調整イベントのトリガ条件の具体例を示す図である。輝度調整イベントのトリガ条件は、輝度調整ジェスチャであると判定される条件であり、例えば以下の(1)〜(3)を満たすことである。
(1)2本の指がそれぞれ第1タッチパネル112と第2タッチパネル122にタッチしている状態でそれぞれの指が水平方向へスライド。
(2)2本の指のタッチ位置が表裏で対応する所定の範囲内(ほぼ同一の位置)。
(3)2本の指のタッチ位置が画面内の一方の端(例えば、画面の上端)の所定の範囲内。
FIG. 12 is a diagram showing a specific example of the trigger condition of the luminance adjustment event. The trigger condition of the brightness adjustment event is a condition for determining that the brightness adjustment gesture is satisfied, for example, satisfying the following (1) to (3).
(1) Each finger slides in the horizontal direction while the two fingers are touching the first touch panel 112 and the second touch panel 122, respectively.
(2) The touch positions of the two fingers are within the corresponding predetermined ranges on the front and back (almost the same position).
(3) The touch positions of the two fingers are within a predetermined range of one end of the screen (for example, the upper end of the screen).

なお、上記(1)〜(3)のうち、(1)及び(2)のみをトリガ条件としてもよい。また、上記(1)〜(3)のうち、(1)のみをトリガ条件としてもよい。また、(3)の条件において、画面内の一方の端は、第1タッチパネル112に向かって上端に限定されるものではなく、下端(或いは、右端や左端)などとしてもよい。 Of the above (1) to (3), only (1) and (2) may be set as the trigger condition. Further, of the above (1) to (3), only (1) may be set as the trigger condition. Further, in the condition (3), one end in the screen is not limited to the upper end toward the first touch panel 112, but may be the lower end (or the right end or the left end).

また、(1)の条件を、2本の指がそれぞれ同時に第1タッチパネル112と第2タッチパネル122のそれぞれにタッチしていて、いずれか一方の指のみが水平方向へスライドすることとしてもよい。この場合、一方の指のみが水平方向へスライドすることに応じて、第1表示部111及び第2表示部121の両方の表示輝度が変更されてもよいし。当該一方の指がタッチしている方のみの表示輝度が変更されてもよい。例えば、ユーザが、第1タッチスクリーン110の画面の一方の端(例えば、画面の上端)の方を親指で、その裏側の第2タッチスクリーン120の画面の対応する端(例えば、画面の上端)の方を人差し指で挟んで握った状態で、親指のみを画面の水平方向(図示で横方向)へ左又は右にスライドさせるタッチ操作(ジェスチャ)を行った場合、第1表示部111のみ表示輝度の変更(輝度調整)が可能であってもよい。また、ユーザが、第2タッチスクリーン120の画面の一方の端(例えば、画面の上端)の方を親指で、その裏側の第1タッチスクリーン110の画面の対応する端(例えば、画面の上端)の方を人差し指で挟んで握った状態で、親指のみを画面の水平方向(図示で横方向)へ左又は右にスライドさせるタッチ操作(ジェスチャ)を行った場合、第2表示部121のみ表示輝度の変更(輝度調整)が可能であってもよい。 Further, the condition (1) may be that two fingers are touching each of the first touch panel 112 and the second touch panel 122 at the same time, and only one of the fingers slides in the horizontal direction. In this case, the display brightness of both the first display unit 111 and the second display unit 121 may be changed according to the fact that only one finger slides in the horizontal direction. The display brightness of only the one touched by the finger may be changed. For example, the user uses his thumb toward one end of the screen of the first touch screen 110 (eg, the top edge of the screen) and the corresponding edge of the screen of the second touch screen 120 behind it (eg, the top edge of the screen). When a touch operation (gesture) is performed by sliding only the thumb horizontally (horizontally in the figure) to the left or right while holding the person with the index finger, only the first display unit 111 is displayed. (Brightness adjustment) may be possible. Also, the user can use his thumb toward one end of the screen of the second touch screen 120 (for example, the upper end of the screen) and the corresponding end of the screen of the first touch screen 110 on the back side thereof (for example, the upper end of the screen). When a touch operation (gesture) is performed by sliding only the thumb horizontally (horizontally in the figure) to the left or right while holding the person with the index finger, only the second display unit 121 is displayed. (Brightness adjustment) may be possible.

また、輝度調整イベントが検出された場合、仮想デバイスとしての輝度調整ボタンB12を表示させずに(可視化せずに)、輝度調整が可能となる構成としてもよい。 Further, when the brightness adjustment event is detected, the brightness adjustment may be possible without displaying (not visualizing) the brightness adjustment button B12 as a virtual device.

(Mode6)
図13は、本実施形態に係るMode6によるタッチ機能を示す図である。Mode6は、第1表示部111及び第2表示部121の両方が非アクティブ(表示オフ)であり、且つ第1タッチパネル112が無効な状態で、第2タッチパネル122に対するタッチ操作に基づいて、第1表示部111及び第2表示部121に表示されている操作対象に関連付けられている処理とは異なる予め設定された仮想デバイスの処理を実行させるモードである。Mode6でも、MCU130は第3機能を有効にするが、Mode5とは仮想デバイスが異なる。例えばMode6では、MCU130は、第2タッチパネル122により検出されたタッチ操作を、仮想デバイスに対するタッチ操作のイベントに変換して仮想デバイスの処理に適用する。
(Mode6)
FIG. 13 is a diagram showing a touch function by Mode 6 according to the present embodiment. In the mode 6, both the first display unit 111 and the second display unit 121 are inactive (display off), and the first touch panel 112 is invalid, and the first is based on a touch operation on the second touch panel 122. In this mode, a preset virtual device process different from the process associated with the operation target displayed on the display unit 111 and the second display unit 121 is executed. Even in Mode6, MCU130 enables the third function, but the virtual device is different from Mode5. For example, in Mode 6, the MCU 130 converts the touch operation detected by the second touch panel 122 into an event of the touch operation for the virtual device and applies it to the processing of the virtual device.

次にMode6における仮想デバイスの具体例を説明する。
図14は、Mode6における仮想デバイスの一例を示す図である。この図14に示す例は、仮想デバイスがトラックパッドである例を示している。ここでは、電子機器10が実行している各種のアプリケーションの表示を、第1表示部111及び第2表示部121に代えて、外付けの表示装置(不図示、ここではプロジェクタ)を用いて表示している状態を示している。電子機器10から出力される画像がプロジェクタで投影表示され、プレゼンターがその表示を用いてプレゼンテーションを行っている。このとき、プレゼンターは、電子機器10の第2タッチパネル122を大きなトラックパッド(Big Trackpad)として使用することが可能である。なお、外付けの表示装置は、プロジェクタに限られるものではなく、モニタ(例えば、大画面のモニタ)などであってもよい。
Next, a specific example of the virtual device in Mode 6 will be described.
FIG. 14 is a diagram showing an example of a virtual device in Mode 6. The example shown in FIG. 14 shows an example in which the virtual device is a trackpad. Here, the display of various applications executed by the electronic device 10 is displayed by using an external display device (not shown, here, a projector) instead of the first display unit 111 and the second display unit 121. It shows the state of doing. The image output from the electronic device 10 is projected and displayed by the projector, and the presenter gives a presentation using the display. At this time, the presenter can use the second touch panel 122 of the electronic device 10 as a large trackpad (Big Trackpad). The external display device is not limited to the projector, and may be a monitor (for example, a large screen monitor) or the like.

例えば、電子機器10が閉状態で第1表示部111及び第2表示部121の両方が非アクティブ(表示オフ)であり、且つOSがシャットダウンしてない状態(アプリケーションの実行が可能な状態)で外付けの表示装置に接続されている状態を「プレゼンテーションモード」ということとする。例えば、電子機器10がプレゼンテーションモードで、ユーザが第2タッチパネル122に対するタッチ操作を行った場合、仮想デバイス(外付けの表示装置に対応するトラックパッド)に対するタッチ操作のイベント(以下、「トラックパッドイベント」という) として検出されたとして、第2タッチパネル122を外付けの表示装置の画面に対応するタッチ操作が可能なトラックパッドとして使用可能となる。 For example, when the electronic device 10 is closed, both the first display unit 111 and the second display unit 121 are inactive (display off), and the OS is not shut down (application can be executed). The state of being connected to an external display device is referred to as "presentation mode". For example, when the electronic device 10 is in the presentation mode and the user performs a touch operation on the second touch panel 122, an event of the touch operation on the virtual device (trackpad corresponding to the external display device) (hereinafter, "trackpad event"). The second touch panel 122 can be used as a track pad capable of touch operation corresponding to the screen of the external display device.

つまり、プレゼンテーションモードで第2タッチパネル122に対するタッチ操作が行われることをトリガ条件として、トラックパッドイベントとして検出され、第2タッチパネル122を外付けの表示装置のトラックパッドとして使用可能となる。 That is, it is detected as a trackpad event with the trigger condition that the touch operation on the second touch panel 122 is performed in the presentation mode, and the second touch panel 122 can be used as the trackpad of the external display device.

図15は、トラックパッドイベントのトリガ条件の具体例を示す図である。トラックパッドイベントが実行されるトリガの条件は、例えば、以下の(1)〜(4)を満たすことである。
(1)外付けの表示装置が接続されている。
(2)電子機器10の第1筐体と第2筐体とが閉状態。
(3)OSがシャットダウンしてない(アプリケーションの実行が可能な状態)。
(4)第2タッチパネル122にタッチ。
なお、電子機器10の第1筐体と第2筐体とが閉状態である場合には、第1表示部111は非アクティブ(表示オフ)であり、第1タッチパネル112も無効である(そもそもタッチできない)。また、第2表示部121が非アクティブ(表示オフ)であることをトリガ条件に加えてもよいし、加えなくてもよい。
FIG. 15 is a diagram showing a specific example of the trigger condition of the trackpad event. The condition of the trigger for executing the trackpad event is, for example, satisfying the following (1) to (4).
(1) An external display device is connected.
(2) The first housing and the second housing of the electronic device 10 are closed.
(3) The OS has not shut down (the application can be executed).
(4) Touch the second touch panel 122.
When the first housing and the second housing of the electronic device 10 are in the closed state, the first display unit 111 is inactive (display off), and the first touch panel 112 is also invalid (in the first place). I can't touch it). Further, it may or may not be added to the trigger condition that the second display unit 121 is inactive (display off).

なお、外付けの表示装置は、映像出力部107から有線(例えば、HDMI(登録商標)ケーブルなど)で接続されてもよいし、映像出力部107から通信部101を介して無線通信(例えば、Wi−Fi(登録商標)など)で接続されてもよい。 The external display device may be connected from the video output unit 107 by wire (for example, an HDMI (registered trademark) cable), or may be wirelessly communicated from the video output unit 107 via the communication unit 101 (for example,). It may be connected by Wi-Fi (registered trademark) or the like.

次に、図16を参照して、MCU130におけるタッチ機能の構成について、詳しく説明する。図16は、本実施形態に係るMCU130におけるタッチ機能に関する構成の一例を示す図である。MCU130は、入力部131、出力部132、及び機能制御部133を備えている。 Next, with reference to FIG. 16, the configuration of the touch function in the MCU 130 will be described in detail. FIG. 16 is a diagram showing an example of a configuration related to a touch function in the MCU 130 according to the present embodiment. The MCU 130 includes an input unit 131, an output unit 132, and a function control unit 133.

入力部131は、例えば、I2C(Inter−Integrated Circuit)ドライバを含んで構成されている。例えば、入力部131は、第1タッチパネル112または第2タッチパネル122に対するユーザのタッチ操作(ジェスチャ)に応じて検出された検出信号を、通信インターフェース(例えば、HID over I2C)を介して受信する(HID:Human Interface Device)。 The input unit 131 includes, for example, an I2C (Inter-Integrated Circuit) driver. For example, the input unit 131 receives a detection signal detected in response to a user's touch operation (gesture) on the first touch panel 112 or the second touch panel 122 via a communication interface (for example, HID over I2C) (HID). : Human Interface Device).

出力部132は、例えば、USBドライバを含んで構成され、USBインターフェースを用いてシステム処理部140との間で各種情報を送受信する。USBインターフェースでは、複数のインターフェースをデバイス毎に宣言することができる。図示する例では、インターフェース1〜4の4つのインターフェースを示している。インターフェース1は、第1タッチパネル112により検出されたタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理に適用する第1機能に対応するインターフェースとして宣言されている。インターフェース2は、第2タッチパネル122により検出されたタッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理に適用する第2機能に対応するインターフェースとして宣言されている。インターフェース3は、第1表示部111に表示されている操作対象に関連付けられている処理及び第2表示部121に表示されている操作対象に関連付けられている処理とは異なる予め設定された仮想デバイス(前述した音量調整や輝度調整、トラックパッドなど)の処理を実行させる第3機能に対応するインターフェースとして宣言されている。インターフェース4は、このMCU130を制御するためシステムコントロール用のインターフェースとして宣言されている。 The output unit 132 is configured to include, for example, a USB driver, and transmits / receives various information to / from the system processing unit 140 using a USB interface. In the USB interface, a plurality of interfaces can be declared for each device. In the illustrated example, four interfaces of interfaces 1 to 4 are shown. The interface 1 is declared as an interface corresponding to the first function of applying the touch operation detected by the first touch panel 112 to the process associated with the operation target displayed on the first display unit 111. The interface 2 is declared as an interface corresponding to the second function of applying the touch operation detected by the second touch panel 122 to the process associated with the operation target displayed on the second display unit 121. The interface 3 is a preset virtual device different from the process associated with the operation target displayed on the first display unit 111 and the process associated with the operation target displayed on the second display unit 121. It is declared as an interface corresponding to the third function of executing the processing (volume adjustment, brightness adjustment, trackpad, etc. described above). The interface 4 is declared as an interface for system control in order to control the MCU 130.

機能制御部133は、入力部131が第1タッチパネル112または第2タッチパネル122から受信する検出信号に基づいて、第1タッチパネル112または第2タッチパネル122に対するタッチ操作に基づくイベントを検出する。機能制御部133は、第1タッチパネル112または第2タッチパネル122に対するタッチ操作に基づくイベントを検出すると、当該イベントに応じた処理を実行する。例えば、機能制御部133は、イベントを検出すると、システムモード(Mode1〜6)に応じて第1機能、第2機能、及び第3機能のいずれかを実行する。 The function control unit 133 detects an event based on a touch operation on the first touch panel 112 or the second touch panel 122 based on the detection signal received by the input unit 131 from the first touch panel 112 or the second touch panel 122. When the function control unit 133 detects an event based on a touch operation on the first touch panel 112 or the second touch panel 122, the function control unit 133 executes a process corresponding to the event. For example, when the function control unit 133 detects an event, it executes one of the first function, the second function, and the third function according to the system mode (Modes 1 to 6).

Mode1では、機能制御部133は、第1タッチパネル112に対するタッチ操作のイベントを検出すると第1機能を有効にし、第2タッチパネル122に対するタッチ操作のイベントを検出すると第2機能を有効にする。例えば、第1機能では、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を、第1表示部111に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース1を有効にしてシステム処理部140へ出力する。また、第2機能では、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を、第2表示部121に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース2を有効にしてシステム処理部140へ出力する。 In Mode 1, the function control unit 133 enables the first function when it detects a touch operation event for the first touch panel 112, and enables the second function when it detects a touch operation event for the second touch panel 122. For example, in the first function, the function control unit 133 uses the operation information based on the touch operation detected by the first touch panel 112 as system processing as the operation information of the touch operation for the processing displayed on the first display unit 111. Output to unit 140. At this time, the function control unit 133 enables the interface 1 of the output unit 132 and outputs the operation information to the system processing unit 140. Further, in the second function, the function control unit 133 processes the operation information based on the touch operation detected by the second touch panel 122 as the operation information of the touch operation for the processing displayed on the second display unit 121. Output to unit 140. At this time, the function control unit 133 enables the interface 2 of the output unit 132 and outputs the operation information to the system processing unit 140.

Mode2では、機能制御部133は、第1タッチパネル112に対するタッチ操作のイベントを検出すると第1機能を有効にする。例えば、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を、第1表示部111に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース1を有効にしてシステム処理部140へ出力する。なお、Mode2では、機能制御部133は、第2タッチパネル122に対するタッチ操作のイベントを検出しないため、第2機能を無効にする。即ち、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を無効にし、システム処理部140へ出力しない。 In Mode 2, the function control unit 133 enables the first function when it detects an event of a touch operation with respect to the first touch panel 112. For example, the function control unit 133 outputs the operation information based on the touch operation detected by the first touch panel 112 to the system processing unit 140 as the operation information of the touch operation for the processing displayed on the first display unit 111. .. At this time, the function control unit 133 enables the interface 1 of the output unit 132 and outputs the operation information to the system processing unit 140. In Mode 2, the function control unit 133 does not detect an event of a touch operation on the second touch panel 122, so that the second function is invalidated. That is, the function control unit 133 invalidates the operation information based on the touch operation detected by the second touch panel 122, and does not output the operation information to the system processing unit 140.

Mode3では、機能制御部133は、第2タッチパネル122に対するタッチ操作のイベントを検出すると第2機能を有効にする。例えば、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を、第2表示部121に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース2を有効にしてシステム処理部140へ出力する。なお、Mode3では、機能制御部133は、第1タッチパネル112に対するタッチ操作のイベントを検出しないため、第1機能を無効にする。即ち、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を無効にし、システム処理部140へ出力しない。 In Mode 3, the function control unit 133 enables the second function when it detects an event of a touch operation with respect to the second touch panel 122. For example, the function control unit 133 outputs the operation information based on the touch operation detected by the second touch panel 122 to the system processing unit 140 as the operation information of the touch operation for the processing displayed on the second display unit 121. .. At this time, the function control unit 133 enables the interface 2 of the output unit 132 and outputs the operation information to the system processing unit 140. In Mode 3, the function control unit 133 does not detect an event of a touch operation on the first touch panel 112, so that the first function is disabled. That is, the function control unit 133 invalidates the operation information based on the touch operation detected by the first touch panel 112, and does not output the operation information to the system processing unit 140.

Mode4では、機能制御部133は、第1タッチパネル112に対するタッチ操作のイベントを検出すると第1機能を有効にする。タッチ機能に関しては、Mode2と同様である。例えば、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を、第1表示部111に表示されている処理に対するタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース1を有効にしてシステム処理部140へ出力する。なお、Mode4では、機能制御部133は、第2タッチパネル122に対するタッチ操作のイベントを検出しないため、第2機能を無効にする。即ち、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を無効にし、システム処理部140へ出力しない。 In Mode 4, the function control unit 133 enables the first function when it detects an event of a touch operation with respect to the first touch panel 112. The touch function is the same as that of Mode2. For example, the function control unit 133 outputs the operation information based on the touch operation detected by the first touch panel 112 to the system processing unit 140 as the operation information of the touch operation for the processing displayed on the first display unit 111. .. At this time, the function control unit 133 enables the interface 1 of the output unit 132 and outputs the operation information to the system processing unit 140. In Mode 4, the function control unit 133 does not detect the event of the touch operation on the second touch panel 122, so that the second function is invalidated. That is, the function control unit 133 invalidates the operation information based on the touch operation detected by the second touch panel 122, and does not output the operation information to the system processing unit 140.

Mode5では、機能制御部133は、第1タッチパネル112及び第2タッチパネル122に対するタッチ操作に基づいて音量調整イベントまたは輝度調整イベントを生成し、第3機能を有効にする。例えば、機能制御部133は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との両方に基づいて音量調整ジェスチャであるか否かを判定する。機能制御部133は、音量調整ジェスチャであると判定した場合、音量調整ジェスチャに対応する音量調整イベントを生成し、Mode5を選択する。機能制御部133は、音量調整イベントに対応する処理として、音量ボタンB11を表示させるための表示指示情報と、音量調整ジェスチャにおけるスライド方向及びスライド量を示す操作情報とをシステム処理部140へ出力する。このとき、機能制御部133は、表示指示情報及び操作情報を出力部132のインターフェース4を有効にしてシステム処理部140へ出力する。 In Mode 5, the function control unit 133 generates a volume adjustment event or a brightness adjustment event based on a touch operation on the first touch panel 112 and the second touch panel 122, and enables the third function. For example, the function control unit 133 determines whether or not the volume adjustment gesture is based on both the touch operation detected by the first touch panel 112 and the touch operation detected by the second touch panel 122. When the function control unit 133 determines that the volume adjustment gesture is used, the function control unit 133 generates a volume adjustment event corresponding to the volume adjustment gesture and selects Mode 5. The function control unit 133 outputs display instruction information for displaying the volume button B11 and operation information indicating the slide direction and slide amount in the volume adjustment gesture to the system processing unit 140 as processing corresponding to the volume adjustment event. .. At this time, the function control unit 133 enables the interface 4 of the output unit 132 to output the display instruction information and the operation information to the system processing unit 140.

また、機能制御部133は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との両方に基づいて輝度調整ジェスチャであるか否かを判定する。機能制御部133は、輝度調整ジェスチャであると判定した場合、輝度調整ジェスチャに対応する輝度調整イベントを生成し、Mode5を選択する。機能制御部133は、輝度調整イベントに対応する処理として、輝度調整ボタンB12を表示させるための表示指示情報と、輝度調整ジェスチャにおけるスライド方向及びスライド量を示す操作情報とをシステム処理部140へ出力する。このとき、機能制御部133は、表示指示情報及び操作情報を出力部132のインターフェース4を有効にしてシステム処理部140へ出力する。 Further, the function control unit 133 determines whether or not the luminance adjustment gesture is based on both the touch operation detected by the first touch panel 112 and the touch operation detected by the second touch panel 122. When the function control unit 133 determines that the luminance adjustment gesture is used, the function control unit 133 generates a luminance adjustment event corresponding to the luminance adjustment gesture and selects Mode 5. The function control unit 133 outputs display instruction information for displaying the brightness adjustment button B12 and operation information indicating the slide direction and slide amount in the brightness adjustment gesture to the system processing unit 140 as processing corresponding to the brightness adjustment event. do. At this time, the function control unit 133 enables the interface 4 of the output unit 132 to output the display instruction information and the operation information to the system processing unit 140.

システム処理部140は、機能制御部133から音量ボタンB11の表示指示情報を受け取ると、音量ボタンB11を第1表示部111に表示させる。音量ボタンB11は、音量調整範囲に対する現在の音量レベルが表示され、音量調整ジェスチャに応じて現在の音量レベルが変更される表示オブジェクトである。なお、システム処理部140は、音量ボタンB11を第1表示部111と第2表示部121の両方に表示させてもよい。また、システム処理部140は、音量調整ジェスチャにおけるスライド方向及びスライド量を示す操作情報に応じて、スピーカ105から出力される音量を変更する。なお、システム処理部140は、スピーカ105に限らず、不図示の音出力端子(ヘッドフォン端子)から出力される音量も変更する。 When the system processing unit 140 receives the display instruction information of the volume button B11 from the function control unit 133, the system processing unit 140 causes the first display unit 111 to display the volume button B11. The volume button B11 is a display object that displays the current volume level for the volume adjustment range and changes the current volume level according to the volume adjustment gesture. The system processing unit 140 may display the volume button B11 on both the first display unit 111 and the second display unit 121. Further, the system processing unit 140 changes the volume output from the speaker 105 according to the operation information indicating the slide direction and the slide amount in the volume adjustment gesture. The system processing unit 140 is not limited to the speaker 105, but also changes the volume output from a sound output terminal (headphone terminal) (not shown).

また、システム処理部140は、機能制御部133から輝度調整ボタンB12の表示指示情報を受け取ると、輝度調整ボタンB12を第1表示部111に表示させる。輝度調整ボタンB12は、輝度調整範囲に対する現在の輝度レベルが表示され、輝度調整ジェスチャに応じて現在の輝度レベルが変更される表示オブジェクトである。なお、システム処理部140は、輝度調整ボタンB12を第1表示部111と第2表示部121の両方に表示させてもよいし、一方に表示させてもよい。また、システム処理部140は、輝度調整ジェスチャにおけるスライド方向及びスライド量を示す操作情報に応じて、第1表示部111及び第2表示部121の表示輝度を変更する。なお、システム処理部140は、第1表示部111及び第2表示部121のうちの一方の表示輝度を変更してもよい。 Further, when the system processing unit 140 receives the display instruction information of the brightness adjustment button B12 from the function control unit 133, the system processing unit 140 causes the first display unit 111 to display the brightness adjustment button B12. The brightness adjustment button B12 is a display object that displays the current brightness level for the brightness adjustment range and changes the current brightness level according to the brightness adjustment gesture. The system processing unit 140 may display the brightness adjustment button B12 on both the first display unit 111 and the second display unit 121, or may display it on one of them. Further, the system processing unit 140 changes the display brightness of the first display unit 111 and the second display unit 121 according to the operation information indicating the slide direction and the slide amount in the brightness adjustment gesture. The system processing unit 140 may change the display luminance of one of the first display unit 111 and the second display unit 121.

Mode6では、機能制御部133は、プレゼンテーションモードで第2タッチパネル122に対するタッチ操作が行われた場合、トラックパッドイベントを生成し、第3機能を有効にする。例えば、機能制御部133は、プレゼンテーションモードであるか否かを確認する。具体的には、機能制御部133は、映像出力部107を介して外付けの表示装置が接続されているか否かを判定する。また、機能制御部133は、加速度センサ106の検出結果に基づいて、第1筐体11と第2筐体12とが開状態であるか或いは閉状態であるかを検出する。また、機能制御部133は、システム処理部140からOSの動作状態を取得する。例えば、機能制御部133は、外付けの表示装置が接続されており、第1筐体11と第2筐体12とが開状態であり、OSがシャットダウンしてないと判定した場合、プレゼンテーションモードであると判定し、Node6を選択する。そして、機能制御部133は、プレゼンテーションモードにおいて第2タッチパネル122に対するタッチ操作が行われた場合、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を、外付けの表示装置の画面に対応するタッチパッドへのタッチ操作の操作情報として、システム処理部140へ出力する。このとき、機能制御部133は、上記操作情報を出力部132のインターフェース3を有効にしてシステム処理部140へ出力する。 In Mode 6, the function control unit 133 generates a trackpad event and enables the third function when a touch operation is performed on the second touch panel 122 in the presentation mode. For example, the function control unit 133 confirms whether or not the presentation mode is set. Specifically, the function control unit 133 determines whether or not an external display device is connected via the video output unit 107. Further, the function control unit 133 detects whether the first housing 11 and the second housing 12 are in the open state or the closed state based on the detection result of the acceleration sensor 106. Further, the function control unit 133 acquires the operating state of the OS from the system processing unit 140. For example, when the function control unit 133 determines that an external display device is connected, the first housing 11 and the second housing 12 are in the open state, and the OS is not shut down, the presentation mode is used. Is determined, and Node 6 is selected. Then, when the touch operation on the second touch panel 122 is performed in the presentation mode, the function control unit 133 corresponds to the operation information based on the touch operation detected by the second touch panel 122 on the screen of the external display device. It is output to the system processing unit 140 as operation information of the touch operation to the touch pad. At this time, the function control unit 133 enables the interface 3 of the output unit 132 and outputs the operation information to the system processing unit 140.

(状態遷移)
次に、各システムモードにおける状態遷移について説明する。
図17は、Mode1における状態遷移を示す図である。Mode1は、第1機能及び第2機能の両方が有効な状態である。Mode1では、機能制御部133は、まず状態ST11のイニシャライズ処理にて出力部132のインターフェース1とインターフェース2を有効にし、状態ST12の待機状態(Idle状態)に遷移する。状態ST12の待機状態では、機能制御部133は、イベントを待機する。状態ST12の待機状態において、第1タッチパネル112に対するタッチ操作のイベント(Touch panel 1 Event)を検出すると、状態ST13へ遷移する。状態ST13では、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を取得する(Data−in)。また、状態ST12の待機状態において、第2タッチパネル122に対するタッチ操作のイベント(Touch panel 2 Event)を検出すると、状態ST15へ遷移する。状態ST15では、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を取得する(Data−in)。
(state change)
Next, the state transition in each system mode will be described.
FIG. 17 is a diagram showing a state transition in Mode1. Mode1 is in a state in which both the first function and the second function are valid. In Mode 1, the function control unit 133 first enables the interface 1 and the interface 2 of the output unit 132 in the initialization process of the state ST11, and transitions to the standby state (Idle state) of the state ST12. In the standby state of the state ST12, the function control unit 133 waits for an event. When a touch operation event (Touch panel 1 Event) with respect to the first touch panel 112 is detected in the standby state of the state ST12, the state transitions to the state ST13. In the state ST13, the function control unit 133 acquires operation information based on the touch operation detected by the first touch panel 112 (Data-in). Further, when an event (Touch panel 2 Event) of a touch operation with respect to the second touch panel 122 is detected in the standby state of the state ST12, the state transitions to the state ST15. In the state ST15, the function control unit 133 acquires operation information based on the touch operation detected by the second touch panel 122 (Data-in).

また、機能制御部133は、状態ST13または状態ST15のそれぞれで、第1タッチパネル112及び第2タッチパネル122により検出されたタッチ操作に基づいて音量調整ジェスチャ又は輝度調整ジェスチャを検出する。機能制御部133は、音量調整ジェスチャ又は輝度調整ジェスチャが検出された場合、Mode5へ遷移させる。一方、機能制御部133は、状態ST13で音量調整ジェスチャ又は輝度調整ジェスチャが検出されない場合には、状態ST14へ遷移し、第1タッチパネル112により検出されたタッチ操作に基づく操作情報をシステム処理部140へ出力する(Data−out)。そして、状態ST12の待機状態に遷移する。また、機能制御部133は、状態ST15で音量調整ジェスチャ又は輝度調整ジェスチャが検出されない場合には、状態ST16へ遷移し、第2タッチパネル122により検出されたタッチ操作に基づく操作情報をシステム処理部140へ出力する(Data−out)。そして、状態ST12の待機状態に遷移する。なお、状態ST12の待機状態において、電子機器10がスリープ状態に移行した場合やシャットダウンされた場合、Mode1を終了する。 Further, the function control unit 133 detects a volume adjustment gesture or a brightness adjustment gesture based on the touch operation detected by the first touch panel 112 and the second touch panel 122 in each of the states ST13 and the state ST15. When the volume adjustment gesture or the brightness adjustment gesture is detected, the function control unit 133 shifts to Mode 5. On the other hand, if the volume adjustment gesture or the brightness adjustment gesture is not detected in the state ST13, the function control unit 133 transitions to the state ST14 and inputs the operation information based on the touch operation detected by the first touch panel 112 to the system processing unit 140. Output to (Data-out). Then, the state transitions to the standby state of the state ST12. If the volume adjustment gesture or the brightness adjustment gesture is not detected in the state ST15, the function control unit 133 transitions to the state ST16 and inputs the operation information based on the touch operation detected by the second touch panel 122 to the system processing unit 140. Output to (Data-out). Then, the state transitions to the standby state of the state ST12. In the standby state of the state ST12, when the electronic device 10 goes to the sleep state or is shut down, Mode 1 is terminated.

図18は、Mode2及びMode4における状態遷移を示す図である。Mode2及びMode4は、第1機能のみが有効な状態である。Mode2及びMode4では、機能制御部133は、まず状態ST21のイニシャライズ処理にて出力部132のインターフェース1を有効にし、インターフェース2を無効にし、状態ST22の待機状態(Idle状態)に遷移する。状態ST22の待機状態では、機能制御部133は、イベントを待機する。状態ST22の待機状態において、第1タッチパネル112に対するタッチ操作のイベント(Touch panel 1 Event)を検出すると、状態ST23へ遷移する。状態ST23では、機能制御部133は、第1タッチパネル112により検出されたタッチ操作に基づく操作情報を取得する(Data−in)。 FIG. 18 is a diagram showing state transitions in Mode 2 and Mode 4. In Mode 2 and Mode 4, only the first function is valid. In Mode 2 and Mode 4, the function control unit 133 first enables the interface 1 of the output unit 132 in the initialization process of the state ST21, invalidates the interface 2, and transitions to the standby state (Idle state) of the state ST22. In the standby state of the state ST22, the function control unit 133 waits for an event. When a touch operation event (Touch panel 1 Event) with respect to the first touch panel 112 is detected in the standby state of the state ST22, the state transitions to the state ST23. In the state ST23, the function control unit 133 acquires operation information based on the touch operation detected by the first touch panel 112 (Data-in).

また、機能制御部133は、状態ST23で、音量調整ジェスチャ又は輝度調整ジェスチャを検出する。なお、Mode2及びMode4では、第2表示部121は非アクティブ(表示オフ)であるが、第2タッチパネル122はタッチ操作を検出しているため、機能制御部133は、音量調整ジェスチャ又は輝度調整ジェスチャを検出することができる。機能制御部133は、音量調整ジェスチャ又は輝度調整ジェスチャが検出された場合、Mode5へ遷移させる。一方、機能制御部133は、状態ST23で音量調整ジェスチャ又は輝度調整ジェスチャが検出されない場合には、状態ST24へ遷移し、第1タッチパネル112により検出されたタッチ操作に基づく操作情報をシステム処理部140へ出力する(Data−out)。そして、状態ST22の待機状態に遷移する。なお、状態ST22の待機状態において、電子機器10がスリープ状態に移行した場合やシャットダウンされた場合、Mode2またはMode4を終了する。 Further, the function control unit 133 detects the volume adjustment gesture or the brightness adjustment gesture in the state ST23. In Mode 2 and Mode 4, the second display unit 121 is inactive (display off), but since the second touch panel 122 detects a touch operation, the function control unit 133 has a volume adjustment gesture or a brightness adjustment gesture. Can be detected. When the volume adjustment gesture or the brightness adjustment gesture is detected, the function control unit 133 shifts to Mode 5. On the other hand, if the volume adjustment gesture or the brightness adjustment gesture is not detected in the state ST23, the function control unit 133 transitions to the state ST24 and inputs the operation information based on the touch operation detected by the first touch panel 112 to the system processing unit 140. Output to (Data-out). Then, the state transitions to the standby state of the state ST22. In the standby state of the state ST22, when the electronic device 10 goes to the sleep state or is shut down, Mode 2 or Mode 4 is terminated.

図19は、Mode3における状態遷移を示す図である。Mode3では、機能制御部133は、まず状態ST31のイニシャライズ処理にて出力部132のインターフェース1を無効にし、インターフェース2を有効にし、状態ST32の待機状態(Idle状態)に遷移する。状態ST32の待機状態では、機能制御部133は、イベントを待機する。状態ST32の待機状態において、第2タッチパネル122に対するタッチ操作のイベント(Touch panel 2 Event)を検出すると、状態ST35へ遷移する。状態ST35では、機能制御部133は、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を取得する(Data−in)。 FIG. 19 is a diagram showing a state transition in Mode 3. In Mode3, the function control unit 133 first invalidates the interface 1 of the output unit 132 in the initialization process of the state ST31, enables the interface 2, and transitions to the standby state (Idle state) of the state ST32. In the standby state of the state ST32, the function control unit 133 waits for an event. When an event (Touch panel 2 Event) of a touch operation with respect to the second touch panel 122 is detected in the standby state of the state ST32, the state transitions to the state ST35. In the state ST35, the function control unit 133 acquires operation information based on the touch operation detected by the second touch panel 122 (Data-in).

また、機能制御部133は、状態ST33で、音量調整ジェスチャ又は輝度調整ジェスチャを検出する。なお、Mode3では、第1表示部111は非アクティブ(表示オフ)であるが、第1タッチパネル112はタッチ操作を検出しているため、機能制御部133は、音量調整ジェスチャ又は輝度調整ジェスチャを検出することができる。機能制御部133は、音量調整ジェスチャ又は輝度調整ジェスチャが検出された場合、Mode5へ遷移させる。一方、機能制御部133は、状態ST35で音量調整ジェスチャ又は輝度調整ジェスチャが検出されない場合には、状態ST36へ遷移し、第2タッチパネル122により検出されたタッチ操作に基づく操作情報をシステム処理部140へ出力する(Data−out)。そして、状態ST32の待機状態に遷移する。なお、状態ST32の待機状態において、電子機器10がスリープ状態に移行した場合やシャットダウンされた場合、Mode3を終了する。 Further, the function control unit 133 detects the volume adjustment gesture or the brightness adjustment gesture in the state ST33. In Mode 3, the first display unit 111 is inactive (display off), but since the first touch panel 112 detects a touch operation, the function control unit 133 detects a volume adjustment gesture or a brightness adjustment gesture. can do. When the volume adjustment gesture or the brightness adjustment gesture is detected, the function control unit 133 shifts to Mode 5. On the other hand, if the volume adjustment gesture or the brightness adjustment gesture is not detected in the state ST35, the function control unit 133 transitions to the state ST36 and inputs the operation information based on the touch operation detected by the second touch panel 122 to the system processing unit 140. Output to (Data-out). Then, the state transitions to the standby state of the state ST32. In the standby state of the state ST32, when the electronic device 10 shifts to the sleep state or is shut down, Mode 3 is terminated.

図20は、Mode5における状態遷移を示す図である。Mode1〜4からMode5へ遷移すると、機能制御部133は、第1機能及び第2機能の一方又は両方が有効な状態から第3機能が有効な状態へと遷移させる。まず状態ST51では、機能制御部133は、イニシャライズ処理を行なう。状態ST51において、機能制御部133は、出力部132のインターフェース1及びインターフェース2を無効にし、インターフェース3を有効にする。そして、状態ST52に遷移し、機能制御部133は、イベントに応じた仮想デバイスの処理を適用するイベントマッピング処理を行なう。具体的には、状態ST52において、機能制御部133は、図17の状態ST13、ST15、図18の状態ST23、または図19の状態ST35で検出されたジェスチャ(音量調整ジェスチャ又は輝度調整ジェスチャ)に対応する仮想デバイスのイベントを生成する。例えば、機能制御部133は、音量調整ジェスチャが検出された場合、音量調整イベントを生成する。また、機能制御部133は、輝度調整ジェスチャが検出された場合、輝度調整イベントを生成する。機能制御部133は、生成した音量調整イベントまたは輝度調整イベントに対応する処理を実行し、音量調整ジェスチャ又は輝度調整ジェスチャが検出されなくなると、終了する。終了後には、機能制御部133は、Mode5に遷移する前のシステムモードに遷移させる。即ち、機能制御部133は、第1機能及び第2機能の一方又は両方が有効な状態へ遷移させる。 FIG. 20 is a diagram showing a state transition in Mode 5. When transitioning from Modes 1 to 4 to Mode5, the function control unit 133 shifts from a state in which one or both of the first function and the second function is valid to a state in which the third function is valid. First, in the state ST51, the function control unit 133 performs the initialization process. In the state ST51, the function control unit 133 invalidates the interface 1 and the interface 2 of the output unit 132, and enables the interface 3. Then, after transitioning to the state ST52, the function control unit 133 performs an event mapping process to apply the process of the virtual device according to the event. Specifically, in the state ST52, the function control unit 133 changes to the gesture (volume adjustment gesture or brightness adjustment gesture) detected in the state ST13, ST15 in FIG. 17, the state ST23 in FIG. 18, or the state ST35 in FIG. Generate an event for the corresponding virtual device. For example, the function control unit 133 generates a volume adjustment event when the volume adjustment gesture is detected. Further, the function control unit 133 generates a luminance adjustment event when the luminance adjustment gesture is detected. The function control unit 133 executes the process corresponding to the generated volume adjustment event or brightness adjustment event, and ends when the volume adjustment gesture or brightness adjustment gesture is no longer detected. After the end, the function control unit 133 shifts to the system mode before the transition to Mode 5. That is, the function control unit 133 transitions to a state in which one or both of the first function and the second function are valid.

図21は、Mode6における状態遷移を示す図である。Mode6は、第3機能が有効な状態である。Mode6へ遷移すると、機能制御部133は、状態ST61へ遷移させ、イニシャライズ処理を行なう。状態ST61において、機能制御部133は、出力部132のインターフェース1及びインターフェース2を無効にし、インターフェース3を有効にする。そして、状態ST62待機状態(Idle状態)に遷移する。状態ST62の待機状態では、機能制御部133は、イベントを待機する。状態ST62の待機状態において、第2タッチパネル122に対するタッチ操作のイベント(Touch panel 2 Event)を検出すると、状態ST63へ遷移し、第2タッチパネル122により検出されたタッチ操作に基づく操作情報を取得し(Data−in)、状態ST64へ遷移する。状態ST64において、機能制御部133は、イベントに応じた仮想デバイスの処理を適用するイベントマッピング処理を行なう。具体的には、機能制御部133は、第2タッチパネル122に対するタッチ操作のイベントをトラックパッドイベントに変換し、トラックパッドイベントに対応する処理を実行する。例えば、機能制御部133は、状態ST63で取得した操作情報を、外付けの表示装置の画面に対応するタッチパッドへのタッチ操作の操作情報として出力する。そして、状態ST62の待機状態に遷移する。なお、状態ST62の待機状態において、電子機器10がスリープ状態に移行した場合やシャットダウンされた場合、或いは、外付けの表示装置との接続が解除された場合、Mode6を終了する。 FIG. 21 is a diagram showing a state transition in Mode 6. Mode 6 is in a state in which the third function is enabled. Upon transition to Mode 6, the function control unit 133 transitions to the state ST61 and performs initialization processing. In the state ST61, the function control unit 133 invalidates the interface 1 and the interface 2 of the output unit 132, and enables the interface 3. Then, the state transitions to the state ST62 standby state (idol state). In the standby state of the state ST62, the function control unit 133 waits for an event. When an event (Touch panel 2 Event) of a touch operation with respect to the second touch panel 122 is detected in the standby state of the state ST62, the transition to the state ST63 is performed and the operation information based on the touch operation detected by the second touch panel 122 is acquired (). Data-in), transition to the state ST64. In the state ST64, the function control unit 133 performs event mapping processing to which the processing of the virtual device corresponding to the event is applied. Specifically, the function control unit 133 converts an event of a touch operation on the second touch panel 122 into a trackpad event, and executes a process corresponding to the trackpad event. For example, the function control unit 133 outputs the operation information acquired in the state ST63 as the operation information of the touch operation to the touch pad corresponding to the screen of the external display device. Then, the state transitions to the standby state of the state ST62. In the standby state of the state ST62, when the electronic device 10 goes to the sleep state, is shut down, or is disconnected from the external display device, Mode 6 is terminated.

以上説明したように、本実施形態に係る電子機器10は、表裏の位置関係に配置されている第1表示部111及び第2表示部121と、第1表示部111の画面に対するタッチ操作(操作入力の一例)を検出する第1タッチパネル112(第1検出部の一例)と、第2表示部121の画面に対するタッチ操作(操作入力の一例)を検出する第2タッチパネル122(第2検出部の一例)とを備えている。電子機器10は、第1タッチパネル112により検出された操作入力を第1表示部111に表示されている操作対象に関連付けられている処理(第1処理)に適用する第1機能、第2タッチパネル122により検出されたタッチ操作を第2表示部121に表示されている操作対象に関連付けられている処理(第2処理)に適用する第2機能、及び第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との一方または両方に基づくタッチ操作を第1表示部111に表示されている操作対象に関連付けられている処理(第1処理)及び第2表示部121に表示されている操作対象に関連付けられている処理(第2処理)とは異なる仮想デバイスの処理(予め設定された処理の一例)に適用する第3機能を制御する。 As described above, the electronic device 10 according to the present embodiment has a touch operation (operation) on the screens of the first display unit 111 and the second display unit 121 arranged in the positional relationship between the front and back sides and the first display unit 111. The first touch panel 112 (an example of the first detection unit) that detects an input example) and the second touch panel 122 (an example of an operation input) that detects a touch operation (an example of an operation input) on the screen of the second display unit 121. One example) and. The electronic device 10 has a first function, the second touch panel 122, which applies the operation input detected by the first touch panel 112 to the process (first process) associated with the operation target displayed on the first display unit 111. The second function of applying the touch operation detected by the touch panel 121 to the process (second process) associated with the operation target displayed on the second display unit 121, and the touch operation and the first touch operation detected by the first touch panel 112. 2 The touch operation based on one or both of the touch operation detected by the touch panel 122 is displayed on the second display unit 121 and the process (first process) associated with the operation target displayed on the first display unit 111. It controls a third function applied to a virtual device process (an example of a preset process) different from the process associated with the operation target (second process).

これにより、電子機器10は、複数のタッチスクリーンのそれぞれへのタッチ操作で、それぞれのタッチスクリーンに表示されている処理以外の仮想デバイス(例えば、音量ボタンB11、輝度調整ボタンB12、トラックパッドなど)としての処理の操作もできるため、利便性が良く、複数のタッチスクリーンをより有効に活用することができる。 As a result, the electronic device 10 is a virtual device (for example, volume button B11, brightness adjustment button B12, track pad, etc.) other than the processing displayed on each touch screen by touching each of the plurality of touch screens. It is convenient and it is possible to make more effective use of a plurality of touch screens.

例えば、電子機器10は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作との両方に基づく特定のタッチ操作(ジェスチャ)に基づいて、上記第1機能及び第2機能の一方又は両方が有効な状態(例えば、Mode1〜4のいずれか)から上記第3機能が有効な状態(例えば、Mode5)へ遷移させる。 For example, the electronic device 10 has the first function and the first function based on a specific touch operation (gesture) based on both the touch operation detected by the first touch panel 112 and the touch operation detected by the second touch panel 122. The transition is made from a state in which one or both of the two functions are valid (for example, any of Modes 1 to 4) to a state in which the third function is valid (for example, Mode 5).

これにより、電子機器10は、タッチスクリーンへの操作で、仮想デバイス(例えば、音量ボタンB11、輝度調整ボタンB12など)への操作が可能になるので、利便性が良い。 As a result, the electronic device 10 can be operated to a virtual device (for example, volume button B11, brightness adjustment button B12, etc.) by operating the touch screen, which is convenient.

また、電子機器10は、第3機能による処理が終了すると、第3機能が有効な状態(例えば、Mode5)から第1機能及び前記第2機能の一方又は両方が有効な状態(例えば、Mode1〜4のいずれか)へ遷移させる。 Further, when the processing by the third function is completed, the electronic device 10 is in a state in which the third function is valid (for example, Mode 5) to a state in which one or both of the first function and the second function are valid (for example, Mode 1 to 1). Transition to any of 4).

これにより、電子機器10は、仮想デバイスへの操作が終了すると自動で元のタッチスクリーンに表示されている処理への操作に戻るため、利便性がよい。 As a result, the electronic device 10 automatically returns to the operation for the processing displayed on the original touch screen when the operation for the virtual device is completed, which is convenient.

例えば、上記特定のタッチ操作は、第1タッチパネル112により検出されたタッチ操作と第2タッチパネル122により検出されたタッチ操作とのいずれか一方に特定の方向(例えば、垂直方向または水平方向)への動きを伴うタッチ操作が含まれる。 For example, the specific touch operation may be performed in a specific direction (for example, a vertical direction or a horizontal direction) in either the touch operation detected by the first touch panel 112 or the touch operation detected by the second touch panel 122. Includes touch operations that involve movement.

これにより、電子機器10は、視覚的に分かりやすいタッチ操作で仮想デバイス(例えば、音量ボタンB11、輝度調整ボタンB12など)への操作か可能である。 As a result, the electronic device 10 can be operated to a virtual device (for example, volume button B11, brightness adjustment button B12, etc.) by a visually easy-to-understand touch operation.

例えば、上記特定のタッチ操作は、画面上で水平方向(第1方向の一例)へスライドさせるタッチ操作を含む。そして、仮想デバイスの処理(予め設定された処理の一例)は、第1表示部111及び第2表示部121の一方又は両方の表示輝度を変更する処理である。 For example, the specific touch operation includes a touch operation of sliding in a horizontal direction (an example of the first direction) on the screen. The processing of the virtual device (an example of the preset processing) is a processing for changing the display brightness of one or both of the first display unit 111 and the second display unit 121.

これにより、電子機器10は、視覚的に分かりやすいタッチ操作で仮想デバイス(例えば、音量ボタンB11)への操作か可能であるため、ユーザが第1表示部111及び第2表示部121の一方又は両方の表示輝度を容易に行うことができる。 As a result, the electronic device 10 can be operated to the virtual device (for example, the volume button B11) by a visually easy-to-understand touch operation, so that the user can operate one of the first display unit 111 and the second display unit 121 or the second display unit 121. Both display brightness can be easily performed.

また、電子機器10は、音を出力するスピーカ105(音出力部の一例)、を備えている。また、上記特定のタッチ操作は、画面上で垂直方向(第2方向の一例)へスライドさせるタッチ操作を含む。そして、仮想デバイスの処理(予め設定された処理の一例)は、スピーカ105から出力される音量を変更する処理である。 Further, the electronic device 10 includes a speaker 105 (an example of a sound output unit) that outputs sound. Further, the specific touch operation includes a touch operation of sliding in a vertical direction (an example of a second direction) on the screen. The processing of the virtual device (an example of the preset processing) is a processing of changing the volume output from the speaker 105.

これにより、電子機器10は、視覚的に分かりやすいタッチ操作で仮想デバイス(例えば、音量ボタンB11)への操作か可能であるため、ユーザが音量調整を容易に行うことができる。 As a result, the electronic device 10 can be operated to the virtual device (for example, the volume button B11) by a visually easy-to-understand touch operation, so that the user can easily adjust the volume.

また、電子機器10は、第1表示部111及び第2表示部121が表裏の位置関係に配置されている第1筐体11と、第1筐体11に対して相対的に回動可能に接続された第2筐体12と、接続された表示装置(外付けの表示装置)へ映像信号を出力する映像出力部107とを備えている。ここで、第1筐体11と第2筐体12とが閉状態である場合に、第1筐体11において、第2筐体12に対面する側に第1表示部111が配置され、第2筐12体に対面する側の裏側に第2表示部121が配置されている。電子機器10は、第1筐体11と第2筐体12とが閉状態であることが検出され、且つ映像出力部107に表示装置が接続されたことを条件として第3機能を有効にして、仮想デバイス(例えば、タッチパッド)の処理(予め設定された処理の一例)に適用する。ここで、仮想デバイスの処理(予め設定された処理の一例)は、第1表示部111及び第2表示部121ともに非表示にさせるとともに、第2タッチパネル122により検出されたタッチ操作を映像出力部107に接続された表示装置に表示されている操作対象に関連付けられている処理に適用する処理である。 Further, the electronic device 10 is rotatable relative to the first housing 11 in which the first display unit 111 and the second display unit 121 are arranged in a positional relationship between the front and back sides, and the first housing 11. It includes a connected second housing 12 and a video output unit 107 that outputs a video signal to a connected display device (external display device). Here, when the first housing 11 and the second housing 12 are in the closed state, the first display unit 111 is arranged on the side facing the second housing 12 in the first housing 11, and the first display unit 111 is arranged. The second display unit 121 is arranged on the back side of the side facing the two casings 12. The electronic device 10 enables the third function on the condition that the first housing 11 and the second housing 12 are detected to be closed and the display device is connected to the video output unit 107. , Applies to processing of virtual devices (eg, touchpads) (an example of preset processing). Here, in the processing of the virtual device (an example of preset processing), both the first display unit 111 and the second display unit 121 are hidden, and the touch operation detected by the second touch panel 122 is output to the video output unit. This is a process applied to the process associated with the operation target displayed on the display device connected to the 107.

これにより、電子機器10は、外付けの表示装置を用いてプレゼンテーションなどを行うときに、第2タッチパネル122をタッチパッドとして利用することができるため、利便性がよく、複数のタッチスクリーンをより有効に活用することができる。 As a result, the electronic device 10 can use the second touch panel 122 as a touch pad when giving a presentation or the like using an external display device, which is convenient and more effective for a plurality of touch screens. Can be utilized for.

以上、図面を参照してこの発明の実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。例えば、上記の各実施形態で説明した構成は、任意に組み合わせてもよい。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the gist of the present invention. It is possible to do. For example, the configurations described in each of the above embodiments may be combined arbitrarily.

なお、上記実施形態では、Mode1〜6のタッチ機能による処理をMCU130が実行する例を説明したが、MCU130に代えて、CPU104がバックグラウンドで実行するプログラムによる処理で実現してもよい。 In the above embodiment, the example in which the MCU 130 executes the processing by the touch function of the Modes 1 to 6 has been described, but instead of the MCU 130, the processing by the program executed by the CPU 104 in the background may be realized.

また、上述した電子機器10は、内部にコンピュータシステムを有している。そして、上述した電子機器10のそれぞれが備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した電子機器10のそれぞれが備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。 Further, the above-mentioned electronic device 10 has a computer system inside. Then, a program for realizing the function of each configuration included in each of the above-mentioned electronic devices 10 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. Thereby, the processing in each configuration provided in each of the above-mentioned electronic devices 10 may be performed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に電子機器10が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. It should be noted that the program may be divided into a plurality of parts, downloaded at different timings, and then combined with each configuration provided in the electronic device 10, or the distribution server for distributing each of the divided programs may be different. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned function in combination with a program already recorded in the computer system.

また、上述した実施形態における電子機器10が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, a part or all of each function provided in the electronic device 10 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each function may be made into a processor individually, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces LSI appears due to the progress of semiconductor technology, an integrated circuit based on the technology may be used.

また、上述した実施形態では、電子機器10がクラムシェル型(ノート型)のPCである例を説明したが、タブレット型のPCやデスクトップ型のPCであってもよいし、さらにPCに限られるものではなく、スマートフォンやゲーム機などであってもよい。 Further, in the above-described embodiment, the example in which the electronic device 10 is a clamshell type (notebook type) PC has been described, but it may be a tablet type PC or a desktop type PC, and is further limited to a PC. It may be a smartphone or a game machine instead of a thing.

また、第1タッチスクリーン110と第2タッチスクリーンの大きさや形状は、同一であってもよいし、異なってもよい。 Further, the size and shape of the first touch screen 110 and the second touch screen may be the same or different.

また、上記実施形態では、第1筐体11と第2筐体12とが開状態であるか或いは閉状態であるかを、加速度センサ106を用いて検出する例を説明したが、検出方法は、これに限定されるものではない。例えば、赤外線センサやメカニカルスイッチなどを使用して検出してもよい。 Further, in the above embodiment, an example of detecting whether the first housing 11 and the second housing 12 are in the open state or the closed state by using the acceleration sensor 106 has been described, but the detection method is as follows. , Not limited to this. For example, it may be detected by using an infrared sensor, a mechanical switch, or the like.

10 電子機器、11 第1筐体、12 第2筐体、13 ヒンジ機構、101 通信部、102 RAM、103 Flashメモリ、104 CPU、105 スピーカ、106 加速度センサ、107 映像出力部、110 第1タッチスクリーン、111 第1表示部、112 第1タッチパネル、120 第2タッチスクリーン、121 第2表示部、122 第2タッチパネル、130 MCU、131 入力部、132 出力部、133 機能制御部、140 システム処理部 10 Electronic equipment, 11 1st housing, 12 2nd housing, 13 hinge mechanism, 101 communication unit, 102 RAM, 103 Flash memory, 104 CPU, 105 speaker, 106 acceleration sensor, 107 video output unit, 110 1st touch Screen, 111 1st display unit, 112 1st touch panel, 120 2nd touch screen, 121 2nd display unit, 122 2nd touch panel, 130 MCU, 131 input unit, 132 output unit, 133 function control unit, 140 system processing unit

Claims (7)

表裏の位置関係に配置されている第1表示部及び第2表示部と、
前記第1表示部の画面に対する操作入力を検出する第1検出部と、
前記第2表示部の画面に対する操作入力を検出する第2検出部と、
前記第1検出部により検出された操作入力を前記第1表示部に表示されている操作対象に関連付けられている第1処理に適用する第1機能、前記第2検出部により検出された操作入力を前記第2表示部に表示されている操作対象に関連付けられている第2処理に適用する第2機能、及び前記第1検出部により検出された操作入力と前記第2検出部により検出された操作入力との一方または両方に基づく操作入力を前記第1処理及び前記第2処理とは異なる予め設定された処理に適用する第3機能を制御する機能制御部と、
前記第1表示部及び前記第2表示部が表裏の位置関係に配置されている第1筐体と、
前記第1筐体に対して相対的に回動可能に接続された第2筐体と、
接続された表示装置へ映像信号を出力する映像出力部と、
を備え、
前記第1筐体と前記第2筐体とが重なりあった閉状態である場合に、前記第1筐体において、前記第2筐体に対面する側に前記第1表示部が配置され、前記第2筐体に対面する側の裏側に前記第2表示部が配置されており、
前記機能制御部は、
前記第1筐体と前記第2筐体とが前記閉状態であることが検出され、且つ前記映像出力部に前記表示装置が接続されたことを条件として前記第3機能を有効にして、前記予め設定された処理に適用し、
前記予め設定された処理は、前記第1表示部及び前記第2表示部ともに非表示にさせるとともに、前記第2検出部により検出された操作入力を前記映像出力部に接続された前記表示装置に表示されている操作対象に関連付けられている処理に適用する処理である、
電子機器。
The first display unit and the second display unit arranged in the positional relationship between the front and back, and
The first detection unit that detects the operation input to the screen of the first display unit,
A second detection unit that detects an operation input to the screen of the second display unit, and
The first function of applying the operation input detected by the first detection unit to the first process associated with the operation target displayed on the first display unit, the operation input detected by the second detection unit. Is applied to the second process associated with the operation target displayed on the second display unit, and the operation input detected by the first detection unit and the operation input detected by the second detection unit. A function control unit that controls a third function that applies an operation input based on one or both of the operation inputs to a preset process different from the first process and the second process.
The first housing in which the first display unit and the second display unit are arranged in a positional relationship between the front and back sides, and
The second housing, which is rotatably connected to the first housing,
A video output unit that outputs video signals to the connected display device,
Equipped with
When the first housing and the second housing overlap each other, the first display unit is arranged on the side facing the second housing in the first housing. The second display unit is arranged on the back side of the side facing the second housing.
The function control unit
The third function is enabled on condition that the first housing and the second housing are detected to be in the closed state and the display device is connected to the video output unit. Apply to preset processing,
The preset process hides both the first display unit and the second display unit, and the operation input detected by the second detection unit is sent to the display device connected to the video output unit. The process applied to the process associated with the displayed operation target,
Electronics.
前記機能制御部は、
前記第1検出部により検出された操作入力と第2検出部により検出された操作入力との両方に基づく特定の操作入力に基づいて、前記第1機能及び前記第2機能の一方又は両方が有効な状態から前記第3機能が有効な状態へ遷移させる、
請求項1に記載の電子機器。
The function control unit
One or both of the first function and the second function are valid based on a specific operation input based on both the operation input detected by the first detection unit and the operation input detected by the second detection unit. Transition from the state to the state in which the third function is valid.
The electronic device according to claim 1.
前記機能制御部は、
前記第3機能による処理が終了すると、前記第3機能が有効な状態から前記第1機能及び前記第2機能の一方又は両方が有効な状態へ遷移させる、
請求項2に記載の電子機器。
The function control unit
When the processing by the third function is completed, the state in which the third function is valid is changed to the state in which one or both of the first function and the second function are valid.
The electronic device according to claim 2.
前記特定の操作入力は、前記第1検出部により検出された操作入力と第2検出部により検出された操作入力とのいずれか一方に特定の方向への動きを伴う操作入力が含まれる、
請求項2または請求項3に記載の電子機器。
The specific operation input includes an operation input accompanied by a movement in a specific direction in either one of the operation input detected by the first detection unit and the operation input detected by the second detection unit.
The electronic device according to claim 2 or 3.
前記特定の操作入力は、前記画面上で第1方向へスライドさせるタッチ操作を含み、
前記予め設定された処理は、前記第1表示部及び前記第2表示部の一方又は両方の表示輝度を変更する処理である、
請求項4に記載の電子機器。
The specific operation input includes a touch operation of sliding in the first direction on the screen.
The preset process is a process of changing the display luminance of one or both of the first display unit and the second display unit.
The electronic device according to claim 4.
音を出力する音出力部、をさらに備え、
前記特定の操作入力は、前記画面上で第2方向へスライドさせるタッチ操作を含み、
前記予め設定された処理は、前記音出力部から出力される音量を変更する処理である、
請求項4に記載の電子機器。
Further equipped with a sound output unit that outputs sound,
The specific operation input includes a touch operation of sliding in a second direction on the screen.
The preset process is a process of changing the volume output from the sound output unit.
The electronic device according to claim 4.
表裏の位置関係に配置されている第1表示部及び第2表示部と、前記第1表示部及び前記第2表示部が表裏の位置関係に配置されている第1筐体と、前記第1筐体に対して相対的に回動可能に接続された第2筐体と、接続された表示装置へ映像信号を出力する映像出力部とを備える電子機器における制御方法であって、
前記第1筐体と前記第2筐体とが重なりあった閉状態である場合に、前記第1筐体において、前記第2筐体に対面する側に前記第1表示部が配置され、前記第2筐体に対面する側の裏側に前記第2表示部が配置されており、
第1検出部が、前記第1表示部の画面に対する操作入力を検出するステップと、
第2検出部が、前記第2表示部の画面に対する操作入力を検出するステップと、
機能制御部が、前記第1検出部により検出された操作入力を前記第1表示部に表示されている操作対象に関連付けられている第1処理に適用する第1機能、前記第2検出部により検出された操作入力を前記第2表示部に表示されている操作対象に関連付けられている第2処理に適用する第2機能、及び前記第1検出部により検出された操作入力と前記第2検出部により検出された操作入力との一方または両方に基づく操作入力を前記第1処理及び前記第2処理とは異なる予め設定された処理に適用する第3機能を制御するステップと、
を有し、
前記機能制御部が制御するステップにおいて、
前記第1筐体と前記第2筐体とが前記閉状態であることが検出され、且つ前記映像出力部に前記表示装置が接続されたことを条件として前記第3機能を有効にして、前記予め設定された処理に適用し、
前記予め設定された処理は、前記第1表示部及び前記第2表示部ともに非表示にさせるとともに、前記第2検出部により検出された操作入力を前記映像出力部に接続された前記表示装置に表示されている操作対象に関連付けられている処理に適用する処理である、
制御方法。
The first display unit and the second display unit arranged in the positional relationship between the front and back, the first housing in which the first display unit and the second display unit are arranged in the positional relationship between the front and back, and the first housing. It is a control method in an electronic device including a second housing that is rotatably connected to the housing and a video output unit that outputs a video signal to the connected display device.
When the first housing and the second housing overlap each other, the first display unit is arranged on the side facing the second housing in the first housing. The second display unit is arranged on the back side of the side facing the second housing.
A step in which the first detection unit detects an operation input to the screen of the first display unit, and
A step in which the second detection unit detects an operation input to the screen of the second display unit, and
The function control unit applies the operation input detected by the first detection unit to the first process associated with the operation target displayed on the first display unit, the first function, the second detection unit. The second function of applying the detected operation input to the second process associated with the operation target displayed on the second display unit, and the operation input detected by the first detection unit and the second detection. A step of controlling a third function of applying an operation input based on one or both of the operation inputs detected by the unit to a preset process different from the first process and the second process.
Have a,
In the step controlled by the function control unit
The third function is enabled on condition that the first housing and the second housing are detected to be in the closed state and the display device is connected to the video output unit. Apply to preset processing,
The preset process hides both the first display unit and the second display unit, and the operation input detected by the second detection unit is sent to the display device connected to the video output unit. The process applied to the process associated with the displayed operation target,
Control method.
JP2020128464A 2020-07-29 2020-07-29 Electronic devices and control methods Active JP6986602B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020128464A JP6986602B1 (en) 2020-07-29 2020-07-29 Electronic devices and control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020128464A JP6986602B1 (en) 2020-07-29 2020-07-29 Electronic devices and control methods

Publications (2)

Publication Number Publication Date
JP6986602B1 true JP6986602B1 (en) 2021-12-22
JP2022025562A JP2022025562A (en) 2022-02-10

Family

ID=79193177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020128464A Active JP6986602B1 (en) 2020-07-29 2020-07-29 Electronic devices and control methods

Country Status (1)

Country Link
JP (1) JP6986602B1 (en)

Also Published As

Publication number Publication date
JP2022025562A (en) 2022-02-10

Similar Documents

Publication Publication Date Title
ES2748044T3 (en) Display apparatus and control procedure thereof
TWI705361B (en) Control method, electronic device and non-transitory computer readable storage medium device
JP4818427B2 (en) Information processing apparatus and screen selection method
US20110285631A1 (en) Information processing apparatus and method of displaying a virtual keyboard
JP2011248784A (en) Electronic apparatus and display control method
US20220129037A1 (en) Information processing device and control method
JP2013015890A (en) Information processor and method for controlling the same
JP6195646B1 (en) Information processing apparatus, input method, and program
JP5851652B2 (en) Electronic device, display method and program
JP4892068B2 (en) Information processing apparatus and image display method
JP2011248465A (en) Information processing apparatus and display control method
JP6569185B1 (en) Information processing apparatus, information processing apparatus control method, and program
US20240085991A1 (en) Information processing apparatus and control method
JP6986602B1 (en) Electronic devices and control methods
US11768651B2 (en) Information processing device and control method
US20220137910A1 (en) Information processing device and control method
JP2022167480A (en) Information processing apparatus and control method
JP5242748B2 (en) Information processing apparatus and screen selection method
JP7191172B1 (en) Information processing device and control method
JP7440672B1 (en) Information processing device and control method
JP7377843B2 (en) Information processing device and control method
JP7512325B2 (en) Information processing device and control method
JP7317907B2 (en) Information processing device and control method
US11747865B2 (en) Information processing device and control method
US20230395006A1 (en) Information processing apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R150 Certificate of patent or registration of utility model

Ref document number: 6986602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350