JP2012181806A - Input device, input method, and program - Google Patents

Input device, input method, and program Download PDF

Info

Publication number
JP2012181806A
JP2012181806A JP2011046050A JP2011046050A JP2012181806A JP 2012181806 A JP2012181806 A JP 2012181806A JP 2011046050 A JP2011046050 A JP 2011046050A JP 2011046050 A JP2011046050 A JP 2011046050A JP 2012181806 A JP2012181806 A JP 2012181806A
Authority
JP
Japan
Prior art keywords
touch
display
panel
application
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011046050A
Other languages
Japanese (ja)
Inventor
Masahiro Yamazaki
正裕 山崎
Shin Aikawa
慎 相川
Koji Urawaki
浩二 浦脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2011046050A priority Critical patent/JP2012181806A/en
Publication of JP2012181806A publication Critical patent/JP2012181806A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an input device which allows contents displayed on a screen to be changed through an intuitive operation of a user.SOLUTION: An input device 1 comprises: a first display part 4 which consists of a first touch panel 42 for receiving a touch operation of a user and a first display panel 41 for displaying an image; a second display part 5 which is arranged adjacent to the first display part 4, and which consists of a second touch panel 52 for receiving the touch operation of the user and a second display panel 51 for displaying an image; and a control part 2 for controlling display. The control part 2 detects touch-panel input operations from the first touch panel 42 and the second touch panel 52; identifies displayed applications from the first display panel 41 and the second display panel 51; and controls, on the basis of the detected input operations and the identified applications, the display images of the applications.

Description

本発明は、入力装置、入力方法、及び、プログラムに関する。   The present invention relates to an input device, an input method, and a program.

携帯端末、PHS、パソコンなどの機器において、表示画面上にタッチパネルを搭載し、当該タッチパネルに指先を接触(タッチ)したり、タッチパネル上で指を移動(ドラッグ)させたり、2本以上の指で同時にタッチ(マルチタッチ)やドラッグすることで、簡単かつ直感的に操作を行う方法が知られている。例えば、特許文献1には、2つの表示画面上のそれぞれにタッチパネルを搭載し、ユーザが所定のボタン操作を行うことにより、2つの表示画面上に表示されている内容を入れ替えるように制御する技術が開示されている。   In devices such as mobile terminals, PHS, and personal computers, a touch panel is mounted on the display screen, and a fingertip touches (touches) the touch panel, or a finger moves (drags) on the touch panel, or two or more fingers. A method of performing an operation simply and intuitively by simultaneously touching (multi-touch) or dragging is known. For example, in Patent Literature 1, a touch panel is mounted on each of two display screens, and control is performed so that the contents displayed on the two display screens are switched when the user performs a predetermined button operation. Is disclosed.

特開2003−162354号公報JP 2003-162354 A

しかしながら、特許文献1に開示されている構成では、2つの表示画面上のそれぞれにタッチパネルを搭載しているが、2つの表示画面上に表示されている内容を入れ替えるために、タッチパネルを使用せずに所定のボタンを押下する必要がある。表示画面の内容を入れ替える際にタッチパネルを使用していないため、操作が直感的ではなく、ユーザによってはどのボタンを押せばよいのか分からない場合があった。そこで、タッチパネルを使用することにより、ユーザの直感的な操作によって、画面上に表示される表示内容を入れ替えることができる新たな方法が求められている。   However, in the configuration disclosed in Patent Document 1, a touch panel is mounted on each of the two display screens, but the touch panel is not used in order to replace the contents displayed on the two display screens. It is necessary to press a predetermined button. Since the touch panel is not used when switching the contents of the display screen, the operation is not intuitive, and some users may not know which button to press. Therefore, there is a need for a new method that allows the display content displayed on the screen to be switched by using the touch panel and the user's intuitive operation.

本発明は、上記問題に鑑みてなされたものであり、ユーザの直感的な操作によって、画面上に表示される表示内容を入れ替えることができる入力装置、入力方法、及び、プログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides an input device, an input method, and a program capable of switching display contents displayed on a screen by a user's intuitive operation. Objective.

上記目的を達成するため、本発明の第1の観点に係る入力装置は、
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部と、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部と、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部と、を備える、
ことを特徴とする。
In order to achieve the above object, an input device according to a first aspect of the present invention includes:
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
A control unit that controls a display image of the application based on the detected input operation and the identified application;
It is characterized by that.

本発明の第2の観点に係る入力方法は、
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、を備える入力装置における入力方法であって、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルの入力操作を検出し、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定し、
前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている場合、前記検出された入力操作を当該アプリケーションに送り、
前記第1の表示パネルと前記第2の表示パネルとのそれぞれに表示されたアプリケーションが特定されている場合、前記検出された入力操作に基づいて、当該特定されたアプリケーションの表示画像位置を変更するように前記ユーザに促す、
ことを特徴とする。
The input method according to the second aspect of the present invention is:
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image; a second touch panel that receives a touch operation from the user; and a second that displays an image. A display panel, and a second display unit arranged adjacent to the first display unit, and an input method in an input device comprising:
An input operation on the touch panel is detected from the first touch panel and the second touch panel,
The displayed application is identified from the first display panel and the second display panel,
When an application displayed across the first display panel and the second display panel is specified, the detected input operation is sent to the application,
When an application displayed on each of the first display panel and the second display panel is specified, the display image position of the specified application is changed based on the detected input operation. Prompt the user to
It is characterized by that.

本発明の第3の観点に係るプログラムは、
コンピュータを、
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部、として機能させる、
ことを特徴とする。
The program according to the third aspect of the present invention is:
Computer
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
Based on the detected input operation and the identified application, function as a control unit that controls a display image of the application,
It is characterized by that.

本発明によれば、ユーザの直感的な操作によって、画面上に表示される表示内容を入れ替えることができる。   According to the present invention, the display content displayed on the screen can be switched by a user's intuitive operation.

本発明の実施形態1に係る入力装置の構成を示す図である。It is a figure which shows the structure of the input device which concerns on Embodiment 1 of this invention. 入力装置の概略外観図である。It is a schematic external view of an input device. タッチパネルの座標例を示す図である。It is a figure which shows the coordinate example of a touchscreen. ドラッグ操作処理を説明するためのフローチャートである。It is a flowchart for demonstrating drag operation processing. タッチイベント情報の例を示した図である。It is the figure which showed the example of touch event information. アプリケーション画像の表示サイズを変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display size of an application image. アプリケーション画像の表示サイズを変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display size of an application image. アプリケーション画像の表示サイズを変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display size of an application image. 画面変更処理を説明するためのフローチャートである。It is a flowchart for demonstrating a screen change process. 1アプリ表示モードにおける画面例を示した図である。It is the figure which showed the example of a screen in 1 application display mode. 2アプリ表示モードにおける画面例を示した図である。It is the figure which showed the example of a screen in 2 application display modes. アプリ操作画面の例を示した図である。It is the figure which showed the example of the application operation screen. 画像移動処理を説明するためのフローチャートである。It is a flowchart for demonstrating an image movement process. アプリケーション画像の表示位置を変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display position of an application image. アプリケーション画像の表示位置を変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display position of an application image. アプリケーション画像の表示位置を変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display position of an application image. アプリケーション画像の表示位置を変更する操作方法を説明するための図である。It is a figure for demonstrating the operation method which changes the display position of an application image. 実施形態2に係る画面変更処理を説明するためのフローチャートである。10 is a flowchart for explaining a screen change process according to the second embodiment. 実施形態3に係る画面変更処理を説明するためのフローチャートである。10 is a flowchart for explaining a screen change process according to the third embodiment.

(実施形態1)
以下に本発明の実施形態を説明する。各種のコンピュータ、PDA(Personal Digital Assistant)、携帯端末機、電子書籍端末、車載用PND(Portable Navigation Device)などの情報処理装置において本発明を適用することができる。すなわち、以下に記載する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素または全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
(Embodiment 1)
Embodiments of the present invention will be described below. The present invention can be applied to information processing apparatuses such as various computers, PDAs (Personal Digital Assistants), portable terminals, electronic book terminals, and in-vehicle PNDs (Portable Navigation Devices). In other words, the embodiments described below are for illustrative purposes and do not limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、本発明の実施形態1に係る入力装置1の構成を示すブロック図である。また、図2は、入力装置1の概略外観図である。以下、これらの図を参照して説明する。   FIG. 1 is a block diagram showing a configuration of an input device 1 according to Embodiment 1 of the present invention. FIG. 2 is a schematic external view of the input device 1. Hereinafter, description will be given with reference to these drawings.

入力装置1は、図1に示すように、制御部2、記憶部3、第1の表示パネル41と第1のタッチパネル42とからなる第1の表示部4、第2の表示パネル51と第2のタッチパネル52とからなる第2の表示部5、通信部6、操作部7、音声出力部8、音声入力部9、タイマ部10、バス11から構成される。   As illustrated in FIG. 1, the input device 1 includes a control unit 2, a storage unit 3, a first display unit 4 including a first display panel 41 and a first touch panel 42, a second display panel 51, and a first display unit 51. The second display unit 5 includes two touch panels 52, a communication unit 6, an operation unit 7, an audio output unit 8, an audio input unit 9, a timer unit 10, and a bus 11.

制御部2は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成され、記憶部3に格納された動作プログラムに従って、入力装置1全体の動作を制御する。記憶部3に格納されている動作プログラムを実行することで、制御部2は、検出部21、特定部22などとして機能する。   The control unit 2 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 2 performs the entire operation of the input device 1 according to an operation program stored in the storage unit 3. Control. By executing the operation program stored in the storage unit 3, the control unit 2 functions as the detection unit 21, the identification unit 22, and the like.

検出部21は、第1のタッチパネル42及び第2のタッチパネル52において、ユーザの指やタッチペンが指示(タッチ)している位置を検出することにより、例えば、イベント種別(タッチ状態)を検出する。ここで、イベント種別(タッチ状態)には、例えば、ユーザがタッチパネルをタッチした状態を示す「タッチ開始」、タッチしている状態が継続している「タッチ中」、タッチを解除(終了)した状態を示す「タッチ終了」などがある。検出部21は、イベント種別を検出することにより、タッチ(接触)、ドラッグ(移動)、ドロップ(解除)、マルチタッチ(2点以上の同時接触)等を検出する。   The detection unit 21 detects, for example, an event type (touch state) by detecting a position pointed (touched) by a user's finger or touch pen on the first touch panel 42 and the second touch panel 52. Here, the event type (touch state) includes, for example, “touch start” indicating a state in which the user touches the touch panel, “touching” in which the touch state continues, and the touch is released (terminated). There is a “touch end” indicating the state. The detection unit 21 detects touch (contact), drag (movement), drop (release), multi-touch (two or more simultaneous contacts), and the like by detecting the event type.

特定部22は、第1の表示パネル41及び第2の表示パネル51に表示されているアプリケーションと特定(検出)することにより、現在の表示モードを特定する。ここで、アプリケーションとは、インターネットブラウザ、メーラ、時計、電卓等といったソフトウェア(プログラム)の単位を示す。また、表示モードとは、例えば、1アプリ表示モード、2アプリ表示モードといった、第1の表示パネル41及び第2の表示パネル51に表示されるアプリケーションの状態を示すものである。1アプリ表示モードは、第1の表示パネル41と第2の表示パネル51との両方の表示パネルを用いて、1つのアプリケーションを表示するモードである。また、2アプリ表示モードは、第1の表示パネル41と第2の表示パネル51とのそれぞれの表示パネルに1つずつのアプリケーションを表示するモードである。特定部22は、例えば、第1の表示パネル41と第2の表示パネル51との両方にまたがって、アプリケーションAが表示されている場合、1アプリ表示モードと特定し、第1の表示パネル41にはアプリケーションBが表示され、第2の表示パネル51にはアプリケーションCが表示されている場合、2アプリ表示モードと特定する。   The specifying unit 22 specifies (detects) an application displayed on the first display panel 41 and the second display panel 51 to specify the current display mode. Here, the application indicates a unit of software (program) such as an Internet browser, a mailer, a clock, and a calculator. The display mode indicates the state of applications displayed on the first display panel 41 and the second display panel 51, such as a 1-app display mode and a 2-app display mode. The 1-application display mode is a mode in which one application is displayed using both the first display panel 41 and the second display panel 51. The two-application display mode is a mode in which one application is displayed on each of the first display panel 41 and the second display panel 51. For example, when the application A is displayed across both the first display panel 41 and the second display panel 51, the specifying unit 22 specifies the 1-app display mode, and the first display panel 41 When application B is displayed and application C is displayed on the second display panel 51, it is specified as the two-application display mode.

記憶部3は、例えば、ROMやフラッシュメモリ等の不揮発性半導体メモリ、あるいはRAM等の揮発性半導体メモリから構成され、制御部2が実行する動作プログラム(アプリケーション)の他、各処理の実行に必要なデータや各処理の実行によって生成されたデータなどを記憶する。また、記憶部3は、検出部21が検出したイベント種別(タッチ状態)等を示すタッチイベント情報履歴31、特定部22が特定した表示モードを識別するための表示モードフラグ32を記憶する。   The storage unit 3 is composed of, for example, a nonvolatile semiconductor memory such as a ROM or a flash memory, or a volatile semiconductor memory such as a RAM, and is necessary for executing each process in addition to an operation program (application) executed by the control unit 2. Data and data generated by execution of each process are stored. In addition, the storage unit 3 stores a touch event information history 31 indicating an event type (touch state) detected by the detection unit 21 and a display mode flag 32 for identifying the display mode specified by the specifying unit 22.

第1の表示部4は、LCD(Liquid Crystal Display)、もしくは、有機ELパネル、及び、ドライバ回路等からなる第1の表示パネル41と、感圧式のタッチセンサパネル(タッチスクリーン)等からなる第1のタッチパネル42と、から構成され、任意のアプリケーションや画像を適宜表示する。第1の表示パネル41と第1のタッチパネル42とが重畳して配置され、第1の表示部4は、ユーザの指やタッチペンからの圧力を検出することにより、ユーザからの指示入力を受け付ける。   The first display unit 4 includes a first display panel 41 including an LCD (Liquid Crystal Display) or an organic EL panel and a driver circuit, a pressure-sensitive touch sensor panel (touch screen), and the like. 1 touch panel 42 and displays an arbitrary application or image as appropriate. The first display panel 41 and the first touch panel 42 are arranged so as to overlap each other, and the first display unit 4 receives an instruction input from the user by detecting pressure from the user's finger or touch pen.

第1のタッチパネル42は、ユーザによって触れられるパネル部とタッチパネル制御部(図示せず)から構成される。第1のタッチパネル42は、ユーザのタッチを検出すると、タッチパネル制御部がタッチイベント情報を出力する。ここで、タッチイベント情報とは、タッチされた位置を示す座標や、時刻、イベント種別、パネル番号、タッチ数などを含んだ情報である。それぞれの詳細については後述する。パネル部にはタッチを検出する電極がマトリックス状に配置されており、静電容量の変化を順次スキャンすることで、第1のタッチパネル42は、マルチタッチも検出できる。   The first touch panel 42 includes a panel unit touched by a user and a touch panel control unit (not shown). When the first touch panel 42 detects a user touch, the touch panel control unit outputs touch event information. Here, the touch event information is information including coordinates indicating the touched position, time, event type, panel number, number of touches, and the like. Details of each will be described later. The touch detection electrodes are arranged in a matrix on the panel unit, and the first touch panel 42 can also detect multi-touch by sequentially scanning the change in capacitance.

第1のタッチパネル42は、図3に示すように、それぞれタッチされた位置の横方向、縦方向を表すための座標を記憶している。例えば、第1のタッチパネル42のサイズが、ハーフVGA(Video Graphics Array)サイズの場合、横方向に320画素、縦方向に480画素となる。そして、第1のタッチパネル42の左上の点(角)を原点(0,0)とすると、右上の点の座標(319,0)、左下の点の座標(0,479)、右下の点の座標(319,479)となる。   As shown in FIG. 3, the first touch panel 42 stores coordinates for representing the horizontal and vertical directions of the touched positions. For example, when the size of the first touch panel 42 is a half VGA (Video Graphics Array) size, the horizontal size is 320 pixels and the vertical direction is 480 pixels. When the upper left point (corner) of the first touch panel 42 is the origin (0, 0), the upper right point coordinate (319, 0), the lower left point coordinate (0, 479), the lower right point Coordinates (319, 479).

第2の表示部5は、第1の表示部4と同様の機能、構成を備える。第2の表示部5は、図2に示すように、第1の表示部4と隣接するように配置される。   The second display unit 5 has the same function and configuration as the first display unit 4. As shown in FIG. 2, the second display unit 5 is disposed adjacent to the first display unit 4.

通信部6は、例えば、無線アクセスに利用されるアンテナ、通信用の無線通信回路等から構成され、所定の通信プロトコルに沿って、アンテナを介して、基地局や他の入力装置1との間で無線通信を行う。通信部6が、例えば、CDMA(Code Division Multiple Access)等のセルラー方式移動通信システムを介しての通信を行うことにより、データ通信が実現される。また、通信部6は、USB(Universal Serial Bus)などの方式(規格)に沿って、ケーブルなどを介して、各種データ等を送受信する。   The communication unit 6 includes, for example, an antenna used for wireless access, a wireless communication circuit for communication, and the like, and communicates with the base station and other input devices 1 via the antenna according to a predetermined communication protocol. Wireless communication with Data communication is realized by the communication unit 6 performing communication via a cellular mobile communication system such as CDMA (Code Division Multiple Access). The communication unit 6 transmits and receives various data and the like via a cable or the like in accordance with a method (standard) such as USB (Universal Serial Bus).

操作部7は、ユーザからの操作指示を受け付けるための各種キー、ボタンから構成され、ユーザからの操作を受け付けて、ユーザからの操作に対応した操作信号を制御部2に入力する。   The operation unit 7 includes various keys and buttons for receiving an operation instruction from the user, receives an operation from the user, and inputs an operation signal corresponding to the operation from the user to the control unit 2.

音声出力部8は、通話用スピーカ81、スピーカ82、DAC(Digital Analog Converter)等から構成され、例えば、制御部2が再生したコンテンツの音声信号にDA変換を施し、スピーカ82により放音する。通話用スピーカ81は、音声や音楽を出力するものであり、受話音声を出力する。また、スピーカ82は、音声や音楽を出力するものであり、着信時の通知音等を出力する。   The audio output unit 8 includes a call speaker 81, a speaker 82, a DAC (Digital Analog Converter), and the like. For example, the audio output unit 8 performs DA conversion on the audio signal of the content reproduced by the control unit 2 and emits sound through the speaker 82. The call speaker 81 outputs voice and music, and outputs a received voice. The speaker 82 outputs voice and music, and outputs a notification sound at the time of incoming call.

音声入力部9は、通話用マイク91、ADC(Analog Digital Converter)等から構成され、通話時等に、音声信号を収集し、通信部7に供給する。通話用マイク91は、ユーザが発した音声や周囲の音声を受け付ける。   The voice input unit 9 includes a call microphone 91, an ADC (Analog Digital Converter), and the like. The voice input unit 9 collects a voice signal during a call and supplies the collected voice signal to the communication unit 7. The call microphone 91 receives voices uttered by the user and surrounding voices.

タイマ部10は、例えば、RTC(Real Time Clock)等から構成され、日時(年月日時分秒及び曜日を含む)を計時(カウント)することにより、タイマ、カレンダーや時計として機能する。タイマ部10が一定の時間間隔で割り込みを発生させることにより、制御部2は割り込みを発生させる時間間隔を設定できる。   The timer unit 10 is composed of, for example, an RTC (Real Time Clock) or the like, and functions as a timer, a calendar, or a clock by counting time (including year / month / day / hour / minute / second and day of the week). When the timer unit 10 generates an interrupt at a constant time interval, the control unit 2 can set a time interval for generating the interrupt.

バス11は、各部間で相互にデータを伝送する。   The bus 11 transmits data between the units.

入力装置1は、例えば図2に示すような、折り畳み型の装置であり、第1の筺体101と第2の筺体102とから構成される。第1の筺体101は、第1の表示部4、操作部7、通話用スピーカ81、スピーカ82、通話用マイク91等から構成される。また、第2の筺体102は、第2の表示部5等から構成される。第1の筺体101と第2の筺体102とはヒンジ103により結合され、開いたり、折り畳んだりすることができる。入力装置1は、開いた状態では、第1の表示部4(第1の表示パネル41)と第2の表示部5(第2の表示パネル51)とに別々のアプリケーションを表示することができ、それぞれのタッチパネル(第1のタッチパネル42、第2のタッチパネル52)からユーザの操作入力を受け付けることができる。   The input device 1 is a foldable device as shown in FIG. 2, for example, and includes a first housing 101 and a second housing 102. The first casing 101 includes the first display unit 4, the operation unit 7, a call speaker 81, a speaker 82, a call microphone 91, and the like. Further, the second housing 102 includes the second display unit 5 and the like. The first casing 101 and the second casing 102 are coupled by a hinge 103, and can be opened or folded. In the open state, the input device 1 can display different applications on the first display unit 4 (first display panel 41) and the second display unit 5 (second display panel 51). The user's operation input can be received from each touch panel (the first touch panel 42 and the second touch panel 52).

次に、入力装置1の動作について説明する。図4は、2枚のタッチパネルをまたいだドラッグ操作を実現するドラッグ操作処理を説明するためのフローチャートである。以下、図面を参照して説明する。   Next, the operation of the input device 1 will be described. FIG. 4 is a flowchart for explaining a drag operation process for realizing a drag operation straddling two touch panels. Hereinafter, description will be given with reference to the drawings.

入力装置1は、ユーザに対して操作入力を行うように促して、当該ユーザからの操作入力を受け付けることにより、ドラッグ操作処理を開始する。   The input device 1 prompts the user to perform an operation input, and accepts the operation input from the user, thereby starting the drag operation process.

まず、制御部2は、検知部21を制御して、第1のタッチパネル42又は第2のタッチパネル52がタッチされたことを検出し(ステップS101)、タッチイベント情報(EVn)を取得する(ステップS102)。ここで、第1のタッチパネル42及び第2のタッチパネル52から出力されるタッチイベント情報(EVn)は、タッチイベント情報履歴31として記憶部3に記憶される。   First, the control part 2 controls the detection part 21, detects that the 1st touch panel 42 or the 2nd touch panel 52 was touched (step S101), and acquires touch event information (EVn) (step). S102). Here, touch event information (EVn) output from the first touch panel 42 and the second touch panel 52 is stored in the storage unit 3 as the touch event information history 31.

タッチイベント情報履歴31には、図5に示すように、イベント番号(イベントNo)301、時刻302、第1のタッチイベントに対する、パネル番号(パネルNo)303、X座標304、Y座標305、イベント種別306、第2のタッチイベントに対する、パネル番号(パネルNo)307、X座標308、Y座標309、イベント種別310、及び、タッチ数311などが記載される。ここで、時刻302は、タッチイベント情報(EVn)が出力された時刻である。タッチイベント情報(EVn)は、指がタッチパネルにタッチされたときのほか、ドラッグ中や、タッチパネルから離れたときにも出力される。また、パネル番号303は、どのタッチパネルから出力された情報であるかを区別するための番号である。例えば、第1のタッチパネル42のパネル番号を1、第2のタッチパネル52のパネル番号を2とする。また、イベント種別306、310は、ユーザの操作状態を示すものであり、例えば、「タッチ開始」、「タッチ中」、「タッチ終了」と区別される。また、X座標304、308及びY座標305、309は、タッチが検出された位置である。また、タッチ数311は、同時刻にタッチパネルがタッチされた回数である。タッチ数311が「2」の場合は、タッチイベント1及びタッチイベント2の2つのタッチイベントがタッチイベント情報履歴31に記載される。つまり、タッチ数311の示す値と同じ数のタッチイベントがタッチイベント情報履歴31に記載される。タッチ数311は、第1のタッチパネル42及び第2のタッチパネル52から出力される、それぞれのタッチ数の合計が記載される。タッチ数311の最大数は、第1のタッチパネル42のタッチパネル制御部と第2のタッチパネル52のタッチパネル制御部とが検出できるタッチイベントの最大数の和まで増え、例えば、10程度である。   As shown in FIG. 5, the touch event information history 31 includes an event number (event No.) 301, a time 302, a panel number (panel No.) 303, an X coordinate 304, a Y coordinate 305, an event for the first touch event. The type 306, the panel number (panel number) 307, the X coordinate 308, the Y coordinate 309, the event type 310, the number of touches 311 and the like for the second touch event are described. Here, time 302 is the time when touch event information (EVn) is output. The touch event information (EVn) is output not only when the finger is touched on the touch panel, but also when the finger is dragging or leaving the touch panel. The panel number 303 is a number for distinguishing from which touch panel the information is output. For example, the panel number of the first touch panel 42 is 1 and the panel number of the second touch panel 52 is 2. The event types 306 and 310 indicate the operation state of the user, and are distinguished from “touch start”, “touching”, and “touch end”, for example. The X coordinates 304 and 308 and the Y coordinates 305 and 309 are positions where a touch is detected. The number of touches 311 is the number of times the touch panel is touched at the same time. When the number of touches 311 is “2”, two touch events of touch event 1 and touch event 2 are described in the touch event information history 31. That is, the same number of touch events as the value indicated by the touch count 311 are described in the touch event information history 31. The number of touches 311 describes the total number of touches output from the first touch panel 42 and the second touch panel 52. The maximum number of touches 311 increases to the sum of the maximum number of touch events that can be detected by the touch panel control unit of the first touch panel 42 and the touch panel control unit of the second touch panel 52, and is about 10, for example.

なお、ステップS102の処理で取得したタッチイベント情報(EVn)は、次のタッチイベント情報(EVn+1)が取得できるまで、記憶部3に一時的に保持しておけばよいので、タッチイベント情報履歴31には記載しなくてもよい。そのため、入力装置1は、タッチイベント情報履歴31を備えていなくともよい。   Note that the touch event information (EVn) acquired in step S102 may be temporarily stored in the storage unit 3 until the next touch event information (EVn + 1) can be acquired. May not be described. Therefore, the input device 1 may not include the touch event information history 31.

次に、制御部2は、タッチイベント情報(EVn)に含まれるイベント種別306、310が「タッチ終了」であるか否かを判定する(ステップS103)。   Next, the control unit 2 determines whether or not the event types 306 and 310 included in the touch event information (EVn) are “touch end” (step S103).

イベント種別306、310が「タッチ終了」でない場合(ステップS103;No)、制御部2は、タッチイベント情報(EVn)をアプリケーションに通知して(ステップS112)、本処理を終了する。   When the event types 306 and 310 are not “touch end” (step S103; No), the control unit 2 notifies the application of touch event information (EVn) (step S112), and ends this process.

一方、イベント種別306、310が「タッチ終了」である場合(ステップS103;Yes)、制御部2は、タイマ部10を制御して、タイマを開始(始動)して(ステップS104)、次のタッチイベント情報(EVn+1)が出力されるのを待つ状態になる。そして、制御部2は、タイマ部10を制御して、次のタッチイベント情報(EVn+1)を取得する前にタイマが満了しているか否かを判定する(ステップS105)。   On the other hand, when the event types 306 and 310 are “touch end” (step S103; Yes), the control unit 2 controls the timer unit 10 to start (start) the timer (step S104). It enters a state of waiting for the touch event information (EVn + 1) to be output. Then, the control unit 2 controls the timer unit 10 to determine whether or not the timer has expired before acquiring the next touch event information (EVn + 1) (step S105).

タイマが満了している場合(ステップS105;Yes)、制御部2は、「タッチ終了」のタッチイベント情報(EVn)をアプリケーションに通知して(ステップS112)、本処理を終了する。   When the timer has expired (step S105; Yes), the control unit 2 notifies the touch event information (EVn) of “touch end” to the application (step S112), and ends this process.

一方、タイマが満了していない場合(ステップS105;No)、制御部2は、検知部21を制御して、次のタッチイベント情報(EVn+1)を取得したか否かを判定する(ステップS106)。これは、タッチパネルをまたぐドラッグ操作によって、「タッチ終了」のイベントが発生しても、すぐにアプリケーションに通知せず、次のタッチイベント情報(EVn+1)を取得することにより、連続した一連のドラッグ操作であるかどうかの判定を行うためである。   On the other hand, when the timer has not expired (step S105; No), the control unit 2 controls the detection unit 21 to determine whether or not the next touch event information (EVn + 1) has been acquired (step S106). . This is because, even if a “touch end” event occurs due to a drag operation across the touch panel, the application is not immediately notified, and the next touch event information (EVn + 1) is obtained, thereby obtaining a series of drag operations. This is to determine whether or not.

タイマが満了する前に次のタッチイベント情報(EVn+1)を取得していない場合(ステップS106;No)、制御部2は、タイマ部10を制御して、タイマが満了しているか否かを再び判定する(ステップS105)。   When the next touch event information (EVn + 1) has not been acquired before the timer expires (step S106; No), the control unit 2 controls the timer unit 10 again to determine whether or not the timer has expired. Determination is made (step S105).

一方、タイマが満了する前に次のタッチイベント情報(EVn+1)を取得した場合(ステップS106;Yes)、制御部2は、検知部21を制御して、次のタッチイベント情報(EVn+1)のパネル番号303、307とタッチイベント情報(EVn)のパネル番号303、307とが異なるか否かを判定する(ステップS107)。   On the other hand, when the next touch event information (EVn + 1) is acquired before the timer expires (step S106; Yes), the control unit 2 controls the detection unit 21 to display the next touch event information (EVn + 1) panel. It is determined whether the numbers 303 and 307 are different from the panel numbers 303 and 307 of the touch event information (EVn) (step S107).

次のタッチイベント情報(EVn+1)のパネル番号とタッチイベント情報(EVn)のパネル番号とが異ならない場合、すなわち、同一の場合(ステップS107;No)、制御部2は、タッチイベント情報(EVn)をアプリケーションにそのまま通知して(ステップS112)、本処理を終了する。   When the panel number of the next touch event information (EVn + 1) and the panel number of the touch event information (EVn) are not different, that is, when they are the same (step S107; No), the control unit 2 determines the touch event information (EVn). Is directly notified to the application (step S112), and this process is terminated.

一方、次のタッチイベント情報(EVn+1)のパネル番号とタッチイベント情報(EVn)のパネル番号とが異なる場合(ステップS107;Yes)、制御部2は、検知部21を制御して、次のタッチイベント情報(EVn+1)の座標とタッチイベント情報(EVn)の座標との距離dを算出する(ステップS108)。ここで、距離dを算出する方法は、それぞれの座標が(X1,Y1)、(X2,Y2)とした場合、距離d={(X2−X1)+(Y2−Y1)(1/2)といった2点間の距離を求める式を用いることができる。しかしここで、図3に示すように、第1のタッチパネル42と第2のタッチパネル52との原点(0,0)は異なるので、第1のタッチパネル42上の点と第2のタッチパネル52上の点とが物理的に位置(距離)が近くても、座標としては大きく異なってしまう。そこで、正面から見て右に配置される第2のタッチパネル52上にタッチされた座標のX成分に、左に配置される第1のタッチパネル42のX方向(横方向)の最大値X_max(ここでは、319)を足す。つまり、タッチイベント情報(EVn)の新たなX座標X1’=X1+X_max=X1+319とする。このように、座標を変換することにより、制御部2は、座標(X1+319,Y1)と座標(X2,Y2)との間の距離dを、前記の式により算出する。2枚のタッチパネルをまたぐドラッグ操作を行う場合、一つのタッチパネルからユーザの指が離れて他のタッチパネルに移動するため、ドラッグ操作が終了したものと判定されてしまう。しかし、パネル番号を判定し座標を変換することにより、ドラッグ操作が2枚のタッチパネルをまたいでいる場合であっても、連続した一連のドラッグ操作として処理することができる。 On the other hand, when the panel number of the next touch event information (EVn + 1) is different from the panel number of the touch event information (EVn) (step S107; Yes), the control unit 2 controls the detection unit 21 to perform the next touch. A distance d between the coordinates of the event information (EVn + 1) and the coordinates of the touch event information (EVn) is calculated (step S108). Here, the method for calculating the distance d is as follows. When the respective coordinates are (X1, Y1) and (X2, Y2), the distance d = {(X2-X1) 2 + (Y2-Y1) 2 } (1 A formula for obtaining the distance between two points such as / 2) can be used. However, as shown in FIG. 3, since the origin (0, 0) of the first touch panel 42 and the second touch panel 52 is different, the points on the first touch panel 42 and the second touch panel 52 are different. Even if the point is physically close to the position (distance), the coordinates are greatly different. Therefore, the X component (X direction) of the first touch panel 42 arranged on the left side X-max (here) is added to the X component of the coordinates touched on the second touch panel 52 arranged on the right side when viewed from the front. Then add 319). That is, the new X coordinate X1 ′ = X1 + X_max = X1 + 319 of the touch event information (EVn) is set. Thus, by converting the coordinates, the control unit 2 calculates the distance d between the coordinates (X1 + 319, Y1) and the coordinates (X2, Y2) by the above formula. When performing a drag operation straddling two touch panels, the user's finger moves away from one touch panel and moves to another touch panel, so that it is determined that the drag operation has ended. However, by determining the panel number and converting the coordinates, even if the drag operation straddles two touch panels, it can be processed as a continuous series of drag operations.

次に、制御部2は、算出した距離dが、閾値D1よりも小さいか否かを判定する(ステップS109)。ここで、閾値D1は、タッチパネルのサイズ、本体装置、表示部を結合するヒンジ等によって変化する値であり、任意の値を設定することができる。   Next, the control unit 2 determines whether or not the calculated distance d is smaller than the threshold value D1 (step S109). Here, the threshold value D1 is a value that varies depending on the size of the touch panel, the main body device, a hinge that couples the display unit, and the like, and an arbitrary value can be set.

距離dが閾値D1よりも小さい場合(ステップS109;Yes)、制御部2は、タッチイベント情報(EVn)及びタッチイベント情報(EVn+1)のイベント種別306、310を「タッチ中」に変換し(ステップS110)、それぞれのタッチイベント情報をアプリケーションに通知する(ステップS111)。そして、本処理は終了する。   When the distance d is smaller than the threshold value D1 (step S109; Yes), the control unit 2 converts the event types 306 and 310 of the touch event information (EVn) and the touch event information (EVn + 1) to “touching” (step) S110), each touch event information is notified to the application (step S111). Then, this process ends.

ここで、第1の表示部4と第2の表示部5とにまたがって、1つのアプリケーションが表示された場合に、マルチタッチ操作を行うことにより、アプリケーション画像の表示サイズを変える操作方法について説明する。図6A〜6Cに示すようなマルチタッチ操作をした場合は、タッチイベント情報履歴31には、図5に示すような値が記載される。ここで、イベント番号(イベントNo)1は、タッチした際に出力されるイベントであり、また、イベント番号7は、タッチパネルから指を離した際に出力されるイベントである。2枚のタッチパネルをまたいでドラッグする場合、まず、第1のタッチパネル42の右端付近の点で、第1のタッチパネル42から指f1が離れ(イベント番号4)、すぐに第2のタッチパネル52の左端付近の点に指f1が触れる(イベント番号5)。このとき、イベント番号4のイベント種別が「タッチ終了」であるため、従来の入力装置ではドラッグ操作が終了してしまう。本発明に係る入力装置1では、イベント番号4のタッチイベント情報が出力された時点ではアプリケーションに「タッチ終了」を通知せず、次のイベント番号5のタッチイベント情報を待ってから、通知する。その際に、イベント番号4のタッチイベント情報とイベント番号5のタッチイベント情報とは異なるタッチパネルから出力されたものであり、2つのタッチイベント情報の座標が近く、かつ、イベントが発生した時刻の差が小さい場合は、連続した一連のドラッグ操作であると判断される。そして、タッチイベント1における、イベント番号4のタッチイベント情報、及び、イベント番号5のタッチイベント情報のイベント種別をどちらも「タッチ中」に変更してアプリケーションに通知する。これにより、ドラッグ操作は終了せず、継続することができる。   Here, an operation method for changing the display size of an application image by performing a multi-touch operation when one application is displayed across the first display unit 4 and the second display unit 5 will be described. To do. When a multi-touch operation as illustrated in FIGS. 6A to 6C is performed, the touch event information history 31 includes a value as illustrated in FIG. Here, event number (event No.) 1 is an event output when touched, and event number 7 is an event output when a finger is released from the touch panel. When dragging across two touch panels, first, the finger f1 is released from the first touch panel 42 at a point near the right end of the first touch panel 42 (event number 4), and the left end of the second touch panel 52 is immediately A finger f1 touches a nearby point (event number 5). At this time, since the event type of event number 4 is “touch end”, the drag operation ends in the conventional input device. The input device 1 according to the present invention does not notify the application of “touch end” when the touch event information of event number 4 is output, and waits for the touch event information of the next event number 5 before notifying. At that time, the touch event information of event number 4 and the touch event information of event number 5 are output from different touch panels, the coordinates of the two touch event information are close, and the difference in time when the event occurred Is small, it is determined that this is a continuous series of drag operations. Then, both the touch event information of the event number 4 and the event type of the touch event information of the event number 5 in the touch event 1 are changed to “touching” and notified to the application. As a result, the drag operation can be continued without ending.

一方、距離dが閾値D1よりも小さくない場合、すわなち、大きい場合(ステップS109;No)、制御部2は、タッチイベント情報(EVn)及びタッチイベント情報(EVn+1)のイベント種別306、310を変更せずそれぞれのタッチイベント情報をアプリケーションに通知する(ステップS111)。そして、本処理は終了する。   On the other hand, when the distance d is not smaller than the threshold value D1, that is, when it is larger (step S109; No), the control unit 2 determines the event types 306 and 310 of the touch event information (EVn) and the touch event information (EVn + 1). The touch event information is notified to the application without changing (Step S111). Then, this process ends.

なお、タッチイベント情報(EVn)とタッチイベント情報(EVn+1)との座標の距離dを用いることで、精度よくドラッグ操作の終了か継続かを判断することができるが、これは必ずしも必要ではない。2つのタッチイベント情報の座標間の距離によらず、所定の時間内にタッチイベントが発生すれば、ドラッグ操作の継続と判断してもよい。その場合、ステップS108の処理及びステップS109の処理を省略すればよい。   Note that it is possible to accurately determine whether the drag operation is finished or continued by using the coordinate distance d between the touch event information (EVn) and the touch event information (EVn + 1), but this is not always necessary. Regardless of the distance between the coordinates of the two touch event information, if the touch event occurs within a predetermined time, it may be determined that the drag operation is continued. In that case, the process of step S108 and the process of step S109 may be omitted.

以上の処理により、2枚のタッチパネルをまたいだドラッグ操作をできるようになるため、操作の利便性を向上させることができる。   With the above processing, the drag operation across the two touch panels can be performed, so that the convenience of the operation can be improved.

次に、マルチタッチ操作によって、アプリケーションを表示する画面を変更する画面変更処理について、図7を参照して説明する。   Next, screen change processing for changing the screen on which an application is displayed by multi-touch operation will be described with reference to FIG.

入力装置1は、ユーザに対して操作入力を行うように促して、当該ユーザからの操作入力を受け付けることにより、画面変更処理を開始する。   The input device 1 prompts the user to perform an operation input, and accepts the operation input from the user, thereby starting the screen change process.

まず、制御部2は、検知部21を制御して、タッチを検出すると、タッチイベント情報(EVn)を取得する(ステップS201)。   First, when the control unit 2 controls the detection unit 21 to detect a touch, the control unit 2 acquires touch event information (EVn) (step S201).

次に、制御部2は、取得したタッチイベント情報(EVn)が、マルチタッチであるか否かを判定する(ステップS202)。具体的には、制御部2は、図5に示されるタッチイベント情報履歴31のタッチ数311を確認することにより判定する。タッチ数311が、2以上であればマルチタッチとなる。また、タッチ数が1の場合は、制御部2は、もう一方のタッチパネルのタッチイベント情報も取得する。そしてもし、イベント種別「タッチ中」や「タッチ開始」のタッチイベント情報(EVn)が取得できた場合は、制御部2は、マルチタッチがあったと判定する。   Next, the control unit 2 determines whether or not the acquired touch event information (EVn) is multi-touch (step S202). Specifically, the control unit 2 determines the number of touches 311 in the touch event information history 31 shown in FIG. If the number of touches 311 is 2 or more, multi-touch is performed. If the number of touches is 1, the control unit 2 also acquires touch event information of the other touch panel. If the touch event information (EVn) of the event type “touching” or “touch start” can be acquired, the control unit 2 determines that multi-touch has occurred.

マルチタッチではない場合(ステップS202;No)、制御部2は、取得したタッチイベント情報(EVn)をアプリケーションに通知して(ステップS212)、本処理を終了する。   When it is not multi-touch (step S202; No), the control part 2 notifies the acquired touch event information (EVn) to the application (step S212), and ends this process.

一方、マルチタッチである場合(ステップS202;Yes)、制御部2は、タッチイベント情報(EVn)からタッチパネル番号を検出し(ステップS203)、2つのタッチイベントにおいてパネル番号が異なるか、すなわち、マルチタッチが2画面にまたがっているか否かを検出する(ステップS204)。具体的には、制御部2は、タッチイベント情報履歴31のパネル番号303と307とが異なるかを判定する。   On the other hand, in the case of multi-touch (step S202; Yes), the control unit 2 detects the touch panel number from the touch event information (EVn) (step S203). It is detected whether or not the touch extends over two screens (step S204). Specifically, the control unit 2 determines whether the panel numbers 303 and 307 of the touch event information history 31 are different.

マルチタッチが2画面にまたがっていない場合(ステップS204;No)、制御部2は、取得したタッチイベント情報(EVn)をアプリケーションに通知して(ステップS212)、本処理を終了する。   When the multi-touch does not extend over two screens (step S204; No), the control unit 2 notifies the acquired touch event information (EVn) to the application (step S212), and ends this process.

一方、マルチタッチが2画面にまたがっている場合(ステップS204;Yes)、制御部2は、特定部22を制御して、表示モードを取得し(ステップS205)、当該表示モードが、「2アプリ表示モード」であるか否かを判定する(ステップS206)。図8Aは、「1アプリ表示モード」の画面例であり、図8Bは、「2アプリ表示モード」の画面例である。制御部2は、図8Aに示すように、2つの画面にまたがって1つのアプリケーションが表示されている場合、現在の表示モードが「1アプリ表示モード」であると判定し、図8Bに示すように、それぞれの画面に1つのアプリケーションが表示されている場合、現在の表示モードが「2アプリ表示モード」であると判定する。そして、制御部2は、現在の表示モードを、表示モードフラグ32として、記憶部3に記憶させる。   On the other hand, when multi-touch extends over two screens (step S204; Yes), the control unit 2 controls the specifying unit 22 to acquire a display mode (step S205), and the display mode is “2 apps”. It is determined whether or not the “display mode” is set (step S206). FIG. 8A is a screen example of “1 app display mode”, and FIG. 8B is a screen example of “2 app display mode”. As shown in FIG. 8A, when one application is displayed across two screens, the control unit 2 determines that the current display mode is “one-app display mode”, and as shown in FIG. 8B. In addition, when one application is displayed on each screen, it is determined that the current display mode is the “2-app display mode”. Then, the control unit 2 stores the current display mode in the storage unit 3 as the display mode flag 32.

表示モードが「2アプリ表示モード」でない場合(ステップS206;No)、制御部2は、取得したタッチイベント情報(EVn)をアプリケーションに通知して(ステップS212)、本処理を終了する。   When the display mode is not “two-app display mode” (step S206; No), the control unit 2 notifies the acquired touch event information (EVn) to the application (step S212), and ends this process.

一方、表示モードが「2アプリ表示モード」である場合(ステップS206;Yes)、制御部2は、イベント種別306、310を取得して(ステップS207)、当該イベント種別306、310が「タッチ開始」であるか否かを判定する(ステップS208)。   On the other hand, when the display mode is “2-app display mode” (step S206; Yes), the control unit 2 acquires the event types 306 and 310 (step S207), and the event types 306 and 310 indicate “touch start”. Is determined (step S208).

イベント種別が「タッチ開始」でない場合(ステップS208;「タッチ開始」以外)、制御部2は、本来あり得ない処理であるため、エラー処理を行い(ステップS213)、本処理を終了する。ここで、エラー処理は、例えば、ユーザに対して警告音、警告表示を発生する処理、所定のステップに戻る処理等、任意の処理である。   If the event type is not “touch start” (step S208; other than “touch start”), the control unit 2 performs an error process (step S213) because the process cannot be performed originally, and ends this process. Here, the error process is an arbitrary process such as a process for generating a warning sound or a warning display for the user, or a process for returning to a predetermined step.

一方、イベント種別が「タッチ開始」である場合(ステップS208;「タッチ開始」)、制御部2は、第1の表示部4及び第2の表示部5を制御して、アプリケーションを示す画像の操作をユーザに促す「アプリ操作画面」に遷移する(ステップS209)。ここで、「アプリ操作画面」とは、アプリケーションの画像(画面)の配置を変更できることを、ユーザに認知させるための画面であり、例えば、図9に示すような画面である。制御部2は、例えば、システム状態を示すプログラム上の変数の値を「アプリ操作画面」を示す値(例えば、1など)に変更する。   On the other hand, when the event type is “touch start” (step S208; “touch start”), the control unit 2 controls the first display unit 4 and the second display unit 5 to display an image indicating an application. A transition is made to an “application operation screen” prompting the user to perform an operation (step S209). Here, the “application operation screen” is a screen for allowing the user to recognize that the arrangement of the application image (screen) can be changed, and is, for example, a screen as shown in FIG. For example, the control unit 2 changes the value of the variable on the program indicating the system state to a value (for example, 1) indicating the “application operation screen”.

次に、制御部2は、タッチイベント情報のパネル番号303、307及びタッチ位置304、305、308、309(X座標、Y座標)を「アプリ操作画面」の開始点として保持する(ステップSS210)。そして、制御部2は、図9に示すように、アプリケーションが表示された画面を通常の状態よりも少し小さく表示した、「アプリ操作画面」を描画して(ステップS211)、現在の状態が「アプリ操作画面」であることをユーザに認知させ、本処理を終了する。   Next, the control unit 2 holds the panel numbers 303 and 307 and the touch positions 304, 305, 308, and 309 (X coordinate, Y coordinate) of the touch event information as the start point of the “application operation screen” (step SS210). . Then, as illustrated in FIG. 9, the control unit 2 draws an “application operation screen” in which the screen on which the application is displayed is displayed slightly smaller than the normal state (step S211), and the current state is “ The user recognizes that it is an “application operation screen”, and the process is terminated.

以上の処理により、マルチタッチ操作を用いて、アプリケーション画像の配置位置を変更するための、「アプリ操作画面」に移行することができる。また、画面を変更することにより、現在の状態がアプリケーション画像の配置位置を変更できる状態であると、ユーザが容易に認識することができる。   Through the above processing, it is possible to shift to the “application operation screen” for changing the arrangement position of the application image using the multi-touch operation. Further, by changing the screen, the user can easily recognize that the current state is a state in which the arrangement position of the application image can be changed.

次に、「アプリ操作画面」が表示されているのときに、2枚のタッチパネルをまたがるドラッグ操作を検出した場合の、アプリケーション画像を移動させる画像移動処理について、図10を参照して説明する。   Next, image movement processing for moving an application image when a drag operation across two touch panels is detected while the “application operation screen” is displayed will be described with reference to FIG.

入力装置1は、ユーザに対して操作入力を行うように促して、当該ユーザからの操作入力を受け付けることにより、画像移動処理を開始する。なお、ここでは、マルチタッチした1つの指だけドラッグして移動させ、もう1つの指は動かさない操作について説明する。   The input device 1 prompts the user to perform an operation input, and accepts the operation input from the user, thereby starting the image moving process. Here, an operation will be described in which only one multitouched finger is dragged and moved, and the other finger is not moved.

まず、制御部2は、検知部21を制御して、タッチを検出すると、タッチイベント情報(EVn)を取得する(ステップS301)。   First, when the control unit 2 controls the detection unit 21 to detect a touch, the control unit 2 acquires touch event information (EVn) (step S301).

次に、制御部2は、取得したタッチイベント情報(EVn)が、マルチタッチであるか否かを判定する(ステップS302)。マルチタッチであるか否かを判定する方法は、ステップS202の処理と同様である。   Next, the control unit 2 determines whether or not the acquired touch event information (EVn) is multi-touch (step S302). A method for determining whether or not multi-touch is performed is the same as the process in step S202.

マルチタッチではない場合(ステップS302;No)、制御部2は、本来あり得ない処理であるため、エラー処理を行い(ステップS307)、本処理を終了する。   If it is not multi-touch (step S302; No), the control unit 2 performs an error process (step S307) and ends this process because it is a process that is not possible.

一方、マルチタッチである場合(ステップS302;Yes)、制御部2は、タッチイベント情報(EVn)から、タッチ位置(X座標304、308、及び、Y座標305、309)を検出する(ステップS303)。   On the other hand, when it is multi-touch (step S302; Yes), the control part 2 detects a touch position (X coordinate 304,308 and Y coordinate 305,309) from touch event information (EVn) (step S303). ).

次に、制御部2は、タッチイベント情報(EVn)からイベント種別306、310を取得し、当該イベント種別306、310がいずれであるかを判定する(ステップS304)。   Next, the control unit 2 acquires the event types 306 and 310 from the touch event information (EVn), and determines which of the event types 306 and 310 is (step S304).

イベント種別が「タッチ中」である場合(ステップS304;「タッチ中」)、制御部2は、第1の表示部4及び第2の表示部5を制御して、「アプリ操作画面」を描画して(ステップS305)、本処理を終了する。具体的には、制御部2は、ステップS210において保持された「アプリ操作画面」の開始点と、ステップS303において検出されたタッチ位置と、の差分を計算し、その差分と同じ分だけ、アプリケーション画像の表示位置をずらして描画する。制御部2は、例えば、後述する図11Cに示すように、アプリケーション画像401の表示位置をずらして表示する。   When the event type is “touching” (step S304; “touching”), the control unit 2 controls the first display unit 4 and the second display unit 5 to draw an “application operation screen”. (Step S305), and this process is terminated. Specifically, the control unit 2 calculates the difference between the start point of the “application operation screen” held in step S210 and the touch position detected in step S303, and the application is the same as the difference. Draw images with different display positions. For example, as illustrated in FIG. 11C described later, the control unit 2 displays the application image 401 while shifting the display position.

イベント種別が「タッチ開始」である場合(ステップS304;「タッチ開始」)、制御部2は、本来あり得ない処理であるため、エラー処理を行い(ステップS307)、本処理を終了する。   If the event type is “touch start” (step S304; “touch start”), the control unit 2 performs an error process (step S307) because the process cannot be performed originally, and the process ends.

イベント種別が「タッチ終了」である場合(ステップS304;「タッチ終了」)、制御部2は、「アプリ操作画面」の描画を終了して、通常の表示状態に画面を遷移させる(ステップS306)。   When the event type is “touch end” (step S304; “touch end”), the control unit 2 finishes drawing the “application operation screen” and transitions the screen to the normal display state (step S306). .

通常の表示状態に画面が遷移した後、制御部2は、「アプリ操作画面」の開始点を取得し(ステップS308)、当該開始点のパネル番号303、307を取得する(ステップS309)。また、制御部2は、ステップS301で取得したタッチイベント情報のパネル番号303、307も取得する(ステップS309)。   After the screen transitions to the normal display state, the control unit 2 acquires the start point of the “application operation screen” (step S308), and acquires the panel numbers 303 and 307 of the start point (step S309). The control unit 2 also acquires the panel numbers 303 and 307 of the touch event information acquired in step S301 (step S309).

そして、制御部2は、「アプリ操作画面」の開始点のパネル番号303、307と、ステップS301で取得したタッチイベント情報のパネル番号303、307と、を比較することにより、パネル番号303、307が異なるか否かを判定する(ステップS310)。当該ステップにおいて、制御部2は、ユーザがアプリケーション画像をドラッグ操作して、2つの表示部をまたがって、当該アプリケーション画像を移動させたか否かを判定している。   Then, the control unit 2 compares the panel numbers 303 and 307 of the start point of the “application operation screen” with the panel numbers 303 and 307 of the touch event information acquired in step S301, so that the panel numbers 303 and 307 are compared. Are different from each other (step S310). In this step, the control unit 2 determines whether or not the user has dragged the application image to move the application image across the two display units.

パネル番号が異なる場合(ステップS310;Yes)、制御部2は、第1の表示部4及び第2の表示部5を制御して、アプリケーション画像が表示された画面の表示位置を変えて(ステップS311)、本処理を終了する。   When the panel numbers are different (Step S310; Yes), the control unit 2 controls the first display unit 4 and the second display unit 5 to change the display position of the screen on which the application image is displayed (Step S310). S311), the process is terminated.

一方、パネル番号が同一の場合、すなわち、異なっていない場合(ステップS310;No)、制御部2は、第1の表示部4及び第2の表示部5を制御して、アプリケーション画像が表示された画面の表示位置を元に戻して(ステップS312)、本処理を終了する。   On the other hand, when the panel numbers are the same, that is, when they are not different (step S310; No), the control unit 2 controls the first display unit 4 and the second display unit 5 to display the application image. The display position of the displayed screen is returned to the original (step S312), and this process is terminated.

ここで、「2アプリ表示モード」の場合において、アプリケーション画像の表示位置を変更する方法について、図11A〜11Dを用いて説明する。図11Aに示すように、第1の表示部4には、検索アプリケーション画像401が表示され、第2の表示部5には、時計アプリケーション画像501が表示されている。この状態で、指f1と指f2とでマルチタッチを開始すると、図11Bに示すように、2つのアプリケーション画像401、501のサイズが少し小さくなった「アプリ操作画面」が表示される。なお、アプリケーション画像401、501の背景には、例えば、無地の背景画像が表示される。この状態で、指f1をタッチパネル上で移動させてドラッグすると、検索アプリケーション画像401が指f1の位置に応じて移動して表示される。そして、指f1が第2の表示部5に移動すると、図11Cに示すように、検索アプリケーション画像401が、第1の表示部4と第2の表示部5とに分割されて表示される。また、検索アプリケーション画像401が表示されていた場所(位置)には、テレビアプリケーション画像402が表示される。これは、検索アプリケーションを起動する前まで、テレビアプリケーションが起動されていた場合にこのように表示される。そして、このまま指f1をタッチパネル(第2の表示部5)から離すと(ステップS304〜S310)、図11Dに示すように、検索アプリケーション画像401が第2の表示部5に表示され(ステップS311)、テレビアプリケーション画像402が第1の表示部4に表示される。なお、ここで、図11Bに示すように、タッチパネルをまたがずに、指f1をタッチパネル(第1の表示部4)から離すと、検索アプリケーション画像401が、第2の表示部5に表示されず、図11Aに示すように、第1の表示部4に表示された状態が継続する(ステップS312)。   Here, in the case of the “2-app display mode”, a method of changing the display position of the application image will be described with reference to FIGS. As shown in FIG. 11A, a search application image 401 is displayed on the first display unit 4, and a clock application image 501 is displayed on the second display unit 5. In this state, when multi-touch is started with the fingers f1 and f2, as shown in FIG. 11B, an “application operation screen” in which the sizes of the two application images 401 and 501 are slightly reduced is displayed. For example, a plain background image is displayed as the background of the application images 401 and 501. In this state, when the finger f1 is moved and dragged on the touch panel, the search application image 401 is moved and displayed according to the position of the finger f1. Then, when the finger f1 moves to the second display unit 5, the search application image 401 is divided into the first display unit 4 and the second display unit 5 and displayed as shown in FIG. 11C. Also, a television application image 402 is displayed at the place (position) where the search application image 401 was displayed. This is displayed in this way when the television application has been started up before the search application is started. If the finger f1 is then released from the touch panel (second display unit 5) (steps S304 to S310), the search application image 401 is displayed on the second display unit 5 as shown in FIG. 11D (step S311). The TV application image 402 is displayed on the first display unit 4. Here, as shown in FIG. 11B, when the finger f1 is released from the touch panel (first display unit 4) without straddling the touch panel, the search application image 401 is displayed on the second display unit 5. First, as shown in FIG. 11A, the state displayed on the first display unit 4 continues (step S312).

以上の処理により、マルチタッチ操作だけで、アプリケーション画像の表示位置を変更することができるため、操作性が向上する。また、ユーザの直感的な操作によって、画面上に表示される表示内容を入れ替えることができる。   With the above processing, the display position of the application image can be changed only by the multi-touch operation, so that the operability is improved. Moreover, the display content displayed on the screen can be switched by a user's intuitive operation.

なお、本フローチャートでは、1つの指しか動かさない場合のタッチイベント情報だけを用いた処理について説明したが、2つの指を動かした場合のタッチイベント情報を用いた処理について、同様に図9のフローチャートを用いて以下で説明する。   In this flowchart, the process using only the touch event information when only one finger is not moved has been described, but the process using the touch event information when two fingers are moved is similarly illustrated in the flowchart of FIG. Will be described below.

まず、制御部2は、タッチイベント情報を取得し(ステップS301)、マルチタッチかどうかを判定する(ステップS302)ここでは、制御部2は、2点のタッチイベント情報を取得し(ステップS301)、マルチタッチと判定する(ステップS302;Yes)。そして、制御部2は、2点のタッチイベントのタッチ位置を取得する(ステップS303)。   First, the control unit 2 acquires touch event information (step S301), and determines whether or not it is multi-touch (step S302). Here, the control unit 2 acquires two points of touch event information (step S301). Then, it is determined as multi-touch (step S302; Yes). Then, the control unit 2 acquires the touch positions of the two touch events (Step S303).

次に、制御部2は、タッチイベント情報からイベント種別306、310を判定する際に(ステップS304)、2つのタッチイベント情報のイベント種別306、310がどちらも「タッチ中」である場合は(ステップS304;「タッチ中」)、「アプリ操作画面」を描画する(ステップS305)。また、どちらか一方のイベント種別306、310が「タッチ開始」であった場合は(ステップS304;「タッチ開始」)、制御部2は、エラー処理をして(ステップS307)、本処理を終了する。また、どちらか一方のイベント種別306、310が「タッチ終了」であった場合は(ステップS304;「タッチ終了」)、制御部2は、通常の表示状態に画面を遷移させる(ステップS306)。   Next, when the control unit 2 determines the event types 306 and 310 from the touch event information (step S304), when both of the event types 306 and 310 of the two touch event information are “touching” ( Step S304: “During touch”), “App operation screen” is drawn (Step S305). If either one of the event types 306 and 310 is “touch start” (step S304; “touch start”), the control unit 2 performs an error process (step S307) and ends this process. To do. When one of the event types 306 and 310 is “touch end” (step S304; “touch end”), the control unit 2 shifts the screen to a normal display state (step S306).

その後、制御部2は、「アプリ操作画面」の開始点を2点分取得して(ステップS308)、それぞれのパネル番号303、307を取得する(ステップS309)。また、制御部2は、ステップS301おいて取得したタッチイベント情報のパネル番号303、307も2つ分取得する。そして、制御部2は、「アプリ操作画面」の2点分の開始点でのパネル番号303、307と、2つ分のタッチイベント情報のパネル番号303、307と、を比較することにより、パネル番号303、307が異なるか否かを判定する(ステップS310)。   Thereafter, the control unit 2 acquires two start points of the “application operation screen” (step S308), and acquires the respective panel numbers 303 and 307 (step S309). The control unit 2 also acquires two panel numbers 303 and 307 of the touch event information acquired in step S301. Then, the control unit 2 compares the panel numbers 303 and 307 at the two start points of the “application operation screen” with the panel numbers 303 and 307 of the two touch event information, thereby obtaining a panel. It is determined whether the numbers 303 and 307 are different (step S310).

タッチパネル番号が異なっていた場合は(ステップS310;Yes)、アプリケーション画像の表示位置を変え(ステップS311)、そうでなければ(ステップS310;No)、アプリケーション画像の表示位置を元に戻し(ステップS312)、本処理を終了する。   If the touch panel numbers are different (step S310; Yes), the display position of the application image is changed (step S311). Otherwise (step S310; No), the display position of the application image is restored (step S312). ), This process is terminated.

なお、ステップS301において、タッチイベント情報を2つ取得した場合、それぞれのタッチイベントが、どちらの「アプリ操作画面」の開始点からドラッグされた点であるのかどうかを、逐次判断しておく必要がある。例えば、まず、「アプリ操作画面」の開始点が点A0と点B0であり、次に取得したタッチイベント情報のタッチ位置がそれぞれ点A1と点B1であったとする。ここで、制御部2は、点A0と点A1との距離D1と、点B0と点A1との距離D2とを比較する。距離D1が距離D2よりも短ければ、制御部2は、点A1は点A0からドラッグ操作された点であると判断し、点B1は点B0からドラッグ操作された点であると判断する。次にまたタッチイベント情報のタッチ位置として点A2、点B2を取得した場合は、制御部2は、前回に取得した点A1と点B1との座標と、点A2と点B2との座標と、を比較して、どちらの点からの操作であるのか判断する。このようにすることで、新たに取得した複数のタッチイベント情報がどの点からのドラッグ操作であるのかどうかが判断でき、複数のドラッグ操作を制御できる。   When two pieces of touch event information are acquired in step S301, it is necessary to sequentially determine which of the “app operation screens” each drag event is dragged from. is there. For example, first, it is assumed that the start points of the “application operation screen” are the points A0 and B0, and the touch positions of the next acquired touch event information are the points A1 and B1, respectively. Here, the control unit 2 compares the distance D1 between the point A0 and the point A1 with the distance D2 between the point B0 and the point A1. If the distance D1 is shorter than the distance D2, the control unit 2 determines that the point A1 is a point dragged from the point A0, and determines that the point B1 is a point dragged from the point B0. Next, when the points A2 and B2 are acquired as the touch positions of the touch event information, the control unit 2 obtains the coordinates of the points A1 and B1 acquired previously, the coordinates of the points A2 and B2, Are compared to determine from which point the operation is performed. By doing in this way, it can be judged from which point the newly acquired plurality of pieces of touch event information are drag operations, and the plurality of drag operations can be controlled.

(実施形態2)
実施形態1に係る入力装置1では、ユーザが、1つの画面を操作している最中に、誤って他の画面を触れてしまうと、ユーザが意図しないアプリケーション画像の移動が起きる可能性があった。そこで、実施形態2に係る入力装置1では、さらに操作性を向上させるために、ユーザが意図的に操作した場合だけ、「アプリ操作画面」に遷移する場合について説明する。以下に、本実施形態に係る画面変更処理について、図12を参照して説明する。なお、実施形態1に係る入力装置1と同様の構成、動作については、説明を適宜省略する。
(Embodiment 2)
In the input device 1 according to the first embodiment, if a user accidentally touches another screen while operating one screen, there is a possibility that the application image may be unintentionally moved. It was. Thus, in the input device 1 according to the second embodiment, a case will be described in which a transition to the “application operation screen” is performed only when the user intentionally operates in order to further improve operability. The screen change process according to the present embodiment will be described below with reference to FIG. Note that the description of the same configuration and operation as those of the input device 1 according to Embodiment 1 will be omitted as appropriate.

図12に示すステップS201からS213の処理は、図7に示すステップS201からS213の処理と同様であるため、説明を省略する。本処理では、ステップS208の処理の後、タッチの時間差の判定を行う。   The processing from step S201 to S213 shown in FIG. 12 is the same as the processing from step S201 to S213 shown in FIG. In this process, after the process of step S208, the time difference of touch is determined.

ステップS208において、イベント種別306、310が「タッチ開始」である場合(ステップS208;「タッチ開始」)、制御部2は、2つのタッチイベント情報(EVn)からそれぞれ時刻302を取得し、2つの時刻302の差を算出し、当該差が所定の時間差dTよりも小さいか否かを判定する(ステップS401)。ユーザがマルチタッチを行うことによって、制御部2は、ステップS201の処理において、2つのタッチイベント情報(EVn)を取得している。制御部2は、具体的には、2つのタッチイベント情報(EVn)の時間302の差として、第1のタッチイベントの「タッチ開始」となった時刻T1と、第2のタッチイベントの「タッチ開始」となった時刻T2との差分を計算する。そして、制御部2は、|T2−T1|<dT、が成り立つか否かを判定する。   In step S208, when the event types 306 and 310 are “touch start” (step S208; “touch start”), the control unit 2 acquires the time 302 from the two touch event information (EVn), respectively, The difference between the times 302 is calculated, and it is determined whether or not the difference is smaller than a predetermined time difference dT (step S401). When the user performs multi-touch, the control unit 2 acquires two touch event information (EVn) in the process of step S201. Specifically, the control unit 2 determines the time T1 when the “touch start” of the first touch event and the “touch” of the second touch event as the difference between the times 302 of the two touch event information (EVn). The difference from the time “T2” when “start” is calculated. Then, the control unit 2 determines whether or not | T2−T1 | <dT holds.

なお、所定の時間差dTは、ユーザが2点を同時にタッチしようとした場合に生じるタッチ時刻の差の許容範囲(許容時間)であり、典型的には、0.5秒程度である。また、3点以上のマルチタッチの場合は、全てのタッチイベントの「タッチ開始」の時刻を取得し、一番時間差が大きくなる2点を選択して時間差を求めることもできる。   The predetermined time difference dT is an allowable range (allowable time) of a difference in touch time that occurs when the user tries to touch two points at the same time, and is typically about 0.5 seconds. In the case of multi-touch of 3 points or more, the time of “touch start” of all touch events can be acquired, and the time difference can be obtained by selecting two points having the largest time difference.

タッチの時間差がdT以上である場合(ステップS401;No)、ユーザの操作は「アプリ操作画面」への遷移を意図していないと判断し、制御部2は、状態遷移は行わず、取得したタッチイベント情報(EVn)をアプリケーションに通知して(ステップS212)、本処理を終了する。   If the touch time difference is equal to or greater than dT (step S401; No), it is determined that the user's operation is not intended for transition to the “app operation screen”, and the control unit 2 does not perform the state transition and acquires it. The touch event information (EVn) is notified to the application (step S212), and this process ends.

一方、タッチの時間差がdT未満である場合(ステップS401;Yes)、ユーザの操作は「アプリ操作画面」への遷移を意図していると判断して、制御部2は、第1の表示部4及び第2の表示部5を制御して、「アプリ操作画面」に遷移させる(ステップS209)。   On the other hand, when the touch time difference is less than dT (step S401; Yes), the control unit 2 determines that the user's operation is intended to transition to the “app operation screen”, and the control unit 2 performs the first display unit. 4 and the second display unit 5 are controlled to transit to the “application operation screen” (step S209).

以上の処理により、ユーザの誤操作等によって画面が遷移することを防ぐことができるため、操作の利便性を向上させることができる。   With the above processing, it is possible to prevent the screen from being changed due to a user's erroneous operation or the like, so that the convenience of operation can be improved.

(実施形態3)
実施形態1では、「1アプリ表示モード」の場合に、アプリケーション画像のサイズを変更する方法、及び、「2アプリ表示モード」の場合に、アプリケーション画像の表示位置を変更する方法について説明した。実施形態3では、ユーザがマルチタッチをした指の位置(距離)に応じて、アプリケーション画像のサイズを変更する場合とアプリケーション画像の表示位置を変更する場合とを切り替える方法について説明する。以下に、本実施形態に係る画面変更処理について、図13を参照して説明する。なお、実施形態1に係る入力装置1と同様の構成、動作については、説明を適宜省略する。
(Embodiment 3)
In the first embodiment, the method for changing the size of the application image in the “1 app display mode” and the method for changing the display position of the application image in the “2 app display mode” have been described. In the third embodiment, a method of switching between changing the size of the application image and changing the display position of the application image according to the position (distance) of the finger that the user performs multi-touch will be described. The screen change process according to the present embodiment will be described below with reference to FIG. Note that the description of the same configuration and operation as those of the input device 1 according to Embodiment 1 will be omitted as appropriate.

図13に示すステップS201からS203、ステップS205からS213の処理は、図7に示すステップS201からS203、ステップS205からS213の処理と同様であるため、説明を省略する。本処理では、ステップS204の処理において、マルチタッチが2画面にまたがっていないと判定された後(ステップS204;No)、制御部2は、検出部21を制御して、ユーザのドラッグ操作が、画面(表示部)をまたぐドラッグ操作であるか否かを判定する(ステップS501)。具体的には、制御部2は、図4に示すステップS109の処理を行い、「Yes」となった場合、ユーザのドラッグ操作が、画面をまたぐドラッグ操作であると判定する。もし、ユーザが画面をまたぐドラッグ操作を行った場合には、ユーザの2本の指は1画面をタッチしていることとなるため、ステップS204の処理において、「No」と判定される。   The processes in steps S201 to S203 and steps S205 to S213 shown in FIG. 13 are the same as the processes in steps S201 to S203 and steps S205 to S213 shown in FIG. In this process, after it is determined in step S204 that multi-touch does not extend over two screens (step S204; No), the control unit 2 controls the detection unit 21 so that the user's drag operation is performed. It is determined whether or not the drag operation straddles the screen (display unit) (step S501). Specifically, the control unit 2 performs the process of step S109 shown in FIG. 4, and when “Yes” is determined, the control unit 2 determines that the user's drag operation is a drag operation across the screen. If the user performs a drag operation across the screen, the user's two fingers are touching the screen, and therefore, “No” is determined in the process of step S204.

ユーザ操作が画面をまたぐ操作でない場合(ステップS501;No)、制御部2は、表示モードの状態遷移は行わず、取得したタッチイベント情報(EVn)をアプリケーションに通知して(ステップS212)、本処理を終了する。   When the user operation is not an operation across the screen (Step S501; No), the control unit 2 notifies the application of the acquired touch event information (EVn) without performing the state transition of the display mode (Step S212). The process ends.

一方、ユーザ操作が画面をまたぐ操作である場合(ステップS501;Yes)、制御部2は、表示モードが「2アプリ表示モード」であるか否かを判定する(ステップS502)。   On the other hand, when the user operation is an operation across the screen (step S501; Yes), the control unit 2 determines whether or not the display mode is the “2-app display mode” (step S502).

表示モードが「2アプリ表示モード」である場合(ステップS502;Yes)、制御部2は、「アプリ操作画面」を描画して(ステップS211)、現在の状態が「アプリ操作画面」であることをユーザに認知させ、本処理を終了する。   When the display mode is the “2-app display mode” (step S502; Yes), the control unit 2 draws the “app operation screen” (step S211), and the current state is the “app operation screen”. Is recognized by the user, and the process is terminated.

一方、表示モードが「2アプリ表示モード」でない場合(ステップS502;No)、制御部2は、第1の表示部4及び第2の表示部5を制御して、表示モードを「2アプリ表示モード」に変更し(ステップS503)、「アプリ操作画面」に遷移させる(ステップS209)。   On the other hand, when the display mode is not “two-app display mode” (step S502; No), the control unit 2 controls the first display unit 4 and the second display unit 5 to change the display mode to “two-app display”. The mode is changed to “mode” (step S503), and a transition is made to the “application operation screen” (step S209).

ここで、アプリケーション画像のサイズを変更した後、当該アプリケーション画像の表示位置を変更する方法について、図6A、図6B、図11C、図11Dを用いて説明する。図6Aに示すように、アプリケーション画像が第1の表示部4と第2の表示部5とにまたがった状態、すなわち、1アプリ表示モードの場合において(ステップS206;No)、指f1を右方向(第2の表示部5の方向)へスライドさせると、図6Bに示すように、検索アプリケーション画像が徐々に小さくなるように表示される(ステップS212)。指f1を右方向へとスライドさせて、図11Cに示すように、指f1が、画面をまたいで第1の表示部4から第2の表示部5に来た際に(ステップS501;Yes)、表示モードが「1アプリ表示モード」の場合(ステップS502;No)、「アプリ操作画面」へと遷移する(ステップS209)。そして、指f1をタッチパネル(第2の表示部5)から離すと、図11Dに示すように、検索アプリケーション画像401を第2の表示部5に表示することができ、アプリケーション画像の表示位置を変更することができる。   Here, a method of changing the display position of the application image after changing the size of the application image will be described with reference to FIGS. 6A, 6B, 11C, and 11D. As shown in FIG. 6A, in a state where the application image extends over the first display unit 4 and the second display unit 5, that is, in the case of the one application display mode (step S206; No), the finger f1 is moved to the right. When it is slid in the direction of the second display unit 5, the search application image is displayed so as to become gradually smaller as shown in FIG. 6B (step S212). When the finger f1 is slid rightward and the finger f1 comes from the first display unit 4 to the second display unit 5 across the screen as shown in FIG. 11C (step S501; Yes). When the display mode is “1 app display mode” (step S502; No), the screen shifts to the “app operation screen” (step S209). Then, when the finger f1 is released from the touch panel (second display unit 5), the search application image 401 can be displayed on the second display unit 5 as shown in FIG. 11D, and the display position of the application image is changed. can do.

以上の処理により、アプリケーション画像のサイズ変更と、アプリケーション画像の表示位置変更と、を一度の操作で行うことができるため、操作性を向上させることができる。   With the above processing, the size change of the application image and the display position change of the application image can be performed by one operation, so that the operability can be improved.

なお、本発明は上記の実施形態に限定されず、種々の変形及び応用が可能である。   In addition, this invention is not limited to said embodiment, A various deformation | transformation and application are possible.

通信部6が行う通信方法(方式)は任意である。例えば、IEEE(the Institute of Electrical and Electronic Engineers)802.11b、IEEE802.11g、IEEE802.11n規格等の無線LAN(Local Area Network)、赤外線通信、RFID、Bluetooth(登録商標)等の任意の通信方式により、通信を行うこともできる。   The communication method (method) performed by the communication unit 6 is arbitrary. For example, any communication system such as IEEE (the Institute of Electrical and Electronic Engineers) 802.11b, IEEE802.11g, IEEE802.11n standard wireless LAN (Local Area Network), infrared communication, RFID, Bluetooth (registered trademark), etc. Thus, communication can be performed.

第1の表示部4と第2の表示部5との2つの表示部がある場合について説明したが、表示部の数は任意である。例えば、表示部の数が1つの場合であっても、1つの表示部内に所定の境界線を設けて、ユーザのドラッグ操作が、当該境界線をまたぐドラッグ操作である場合に、当該ユーザのドラッグ操作を分離した2つの表示部をまたぐドラッグ操作とすることもできる。   Although the case where there are two display units, the first display unit 4 and the second display unit 5, has been described, the number of display units is arbitrary. For example, even when the number of display units is one, when a predetermined boundary line is provided in one display unit and the user's drag operation is a drag operation that crosses the boundary line, the user's drag The operation can also be a drag operation that straddles two display portions.

表示パネルの画素数とタッチパネルの画素数を同じにしたが、異なっていてもよい。その場合、タッチイベント情報の座標系と表示パネルの座標系が異なるため、換算すればよい。例えば、タッチパネルの画素数が表示パネルの画素数の10倍ある場合、タッチイベント情報の座標を10分の1に補正して、表示パネルの座標系に合わせればよい。そして、補正された座標をアプリケーションに通知することで、アプリケーションは表示パネルの座標系に合った位置に様々なデータを表示できる。このような制御をすることで、どのような画素数のタッチパネルでも処理が可能となる。   Although the number of pixels of the display panel is the same as the number of pixels of the touch panel, they may be different. In that case, since the coordinate system of the touch event information is different from the coordinate system of the display panel, it may be converted. For example, when the number of pixels on the touch panel is ten times the number of pixels on the display panel, the coordinates of the touch event information may be corrected to 1/10 to match the coordinate system of the display panel. Then, by notifying the application of the corrected coordinates, the application can display various data at a position that matches the coordinate system of the display panel. By performing such control, processing can be performed with any number of touch panels.

その他、前記のハードウエェア構成やフローチャートは一例であり、任意に変更および修正が可能である。   In addition, the hardware configuration and the flowchart described above are merely examples, and can be arbitrarily changed and modified.

入力装置1の処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する入力装置1を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することで入力装置1を構成してもよい。   The central part for performing the processing of the input device 1 can be realized by using a normal computer system without depending on a dedicated system. For example, a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer. Thus, the input device 1 that executes the above-described processing may be configured. Alternatively, the input device 1 may be configured by storing the computer program in a storage device included in a server device on a communication network such as the Internet and downloading it by a normal computer system.

また、入力装置1の機能を、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。   Further, when the functions of the input device 1 are realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion is stored in a recording medium or a storage device. May be.

また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS; Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。   It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS) on a communication network, and the computer program may be distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.

上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部と、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部と、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部と、を備える、
ことを特徴とする入力装置。
(Appendix 1)
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
A control unit that controls a display image of the application based on the detected input operation and the identified application;
An input device characterized by that.

(付記2)
前記第1のタッチパネルと前記第2のタッチパネルとから入力操作が検出されると、
前記制御部は、
前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている場合、前記検出された入力操作を当該アプリケーションに送り、
前記第1の表示パネルと前記第2の表示パネルとのそれぞれに表示されたアプリケーションが特定されている場合、前記検出された入力操作に基づいて、当該特定されたアプリケーションの画像位置を変更するように前記ユーザに促す、
ことを特徴とする付記1に記載の入力装置。
(Appendix 2)
When an input operation is detected from the first touch panel and the second touch panel,
The controller is
When an application displayed across the first display panel and the second display panel is specified, the detected input operation is sent to the application,
When an application displayed on each of the first display panel and the second display panel is specified, the image position of the specified application is changed based on the detected input operation. Prompt the user to
The input device according to Supplementary Note 1, wherein:

(付記3)
前記制御部は、前記アプリケーションの画像位置を変更するように前記ユーザに促す際に、前記第1のタッチパネルと前記第2のタッチパネルとをまたぐタッチ操作が検出されると、前記特定されたアプリケーションの画像位置を変更するように制御する、
ことを特徴とする付記2に記載の入力装置。
(Appendix 3)
When the control unit detects the touch operation across the first touch panel and the second touch panel when prompting the user to change the image position of the application, the control unit detects the specified application. Control to change the image position,
The input device according to Supplementary Note 2, wherein

(付記4)
前記制御部は、前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている際に、前記第1のタッチパネルと前記第2のタッチパネルとをまたぐタッチ操作が検出されると、当該特定されたアプリケーションの画像サイズを変更するよう制御する、
ことを特徴とする付記2に記載の入力装置。
(Appendix 4)
The control unit is configured to perform a touch operation across the first touch panel and the second touch panel when an application displayed across the first display panel and the second display panel is specified. Is detected, control to change the image size of the identified application,
The input device according to Supplementary Note 2, wherein

(付記5)
前記検出部は、前記第1のタッチパネルから入力操作を検出した後、所定時間内に、前記第2のタッチパネルから入力操作を検出すると、前記ユーザからのタッチ操作が同時であると検出する、
ことを特徴とする付記1乃至4のいずれか1項に記載の入力装置。
(Appendix 5)
When the detection unit detects an input operation from the second touch panel within a predetermined time after detecting the input operation from the first touch panel, the detection unit detects that the touch operation from the user is simultaneous.
The input device according to any one of supplementary notes 1 to 4, wherein

(付記6)
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、を備える入力装置における入力方法であって、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルの入力操作を検出し、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定し、
前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている場合、前記検出された入力操作を当該アプリケーションに送り、
前記第1の表示パネルと前記第2の表示パネルとのそれぞれに表示されたアプリケーションが特定されている場合、前記検出された入力操作に基づいて、当該特定されたアプリケーションの表示画像位置を変更するように前記ユーザに促す、
ことを特徴とする入力方法。
(Appendix 6)
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image; a second touch panel that receives a touch operation from the user; and a second that displays an image. A display panel, and a second display unit arranged adjacent to the first display unit, and an input method in an input device comprising:
An input operation on the touch panel is detected from the first touch panel and the second touch panel,
The displayed application is identified from the first display panel and the second display panel,
When an application displayed across the first display panel and the second display panel is specified, the detected input operation is sent to the application,
When an application displayed on each of the first display panel and the second display panel is specified, the display image position of the specified application is changed based on the detected input operation. Prompt the user to
An input method characterized by that.

(付記7)
コンピュータを、
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部、として機能させる、
ことを特徴とするプログラム。
(Appendix 7)
Computer
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
Based on the detected input operation and the identified application, function as a control unit that controls a display image of the application,
A program characterized by that.

1 入力装置
2 制御部
21 検知部
22 特定部
3 記憶部
4 第1の表示部
41 第1の表示パネル
42 第1のタッチパネル
5 第2の表示部
51 第2の表示パネル
52 第2のタッチパネル
6 通信部
7 操作部
8 音声出力部
81 通話用スピーカ
82 スピーカ
9 音声入力部
91 通話用マイク
10 タイマ部
11 バス
101 第1の筺体
102 第2の筺体
103 ヒンジ
DESCRIPTION OF SYMBOLS 1 Input device 2 Control part 21 Detection part 22 Identification part 3 Memory | storage part 4 1st display part 41 1st display panel 42 1st touch panel 5 2nd display part 51 2nd display panel 52 2nd touch panel 6 Communication unit 7 Operation unit 8 Audio output unit 81 Speaker for call 82 Speaker 9 Audio input unit 91 Microphone for call 10 Timer unit 11 Bus 101 First housing 102 Second housing 103 Hinge

Claims (7)

ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部と、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部と、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部と、を備える、
ことを特徴とする入力装置。
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
A control unit that controls a display image of the application based on the detected input operation and the identified application;
An input device characterized by that.
前記第1のタッチパネルと前記第2のタッチパネルとから入力操作が検出されると、
前記制御部は、
前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている場合、前記検出された入力操作を当該アプリケーションに送り、
前記第1の表示パネルと前記第2の表示パネルとのそれぞれに表示されたアプリケーションが特定されている場合、前記検出された入力操作に基づいて、当該特定されたアプリケーションの画像位置を変更するように前記ユーザに促す、
ことを特徴とする請求項1に記載の入力装置。
When an input operation is detected from the first touch panel and the second touch panel,
The controller is
When an application displayed across the first display panel and the second display panel is specified, the detected input operation is sent to the application,
When an application displayed on each of the first display panel and the second display panel is specified, the image position of the specified application is changed based on the detected input operation. Prompt the user to
The input device according to claim 1.
前記制御部は、前記アプリケーションの画像位置を変更するように前記ユーザに促す際に、前記第1のタッチパネルと前記第2のタッチパネルとをまたぐタッチ操作が検出されると、前記特定されたアプリケーションの画像位置を変更するように制御する、
ことを特徴とする請求項2に記載の入力装置。
When the control unit detects the touch operation across the first touch panel and the second touch panel when prompting the user to change the image position of the application, the control unit detects the specified application. Control to change the image position,
The input device according to claim 2.
前記制御部は、前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている際に、前記第1のタッチパネルと前記第2のタッチパネルとをまたぐタッチ操作が検出されると、当該特定されたアプリケーションの画像サイズを変更するよう制御する、
ことを特徴とする請求項2に記載の入力装置。
The control unit is configured to perform a touch operation across the first touch panel and the second touch panel when an application displayed across the first display panel and the second display panel is specified. Is detected, control to change the image size of the identified application,
The input device according to claim 2.
前記検出部は、前記第1のタッチパネルから入力操作を検出した後、所定時間内に、前記第2のタッチパネルから入力操作を検出すると、前記ユーザからのタッチ操作が同時であると検出する、
ことを特徴とする請求項1乃至4のいずれか1項に記載の入力装置。
When the detection unit detects an input operation from the second touch panel within a predetermined time after detecting the input operation from the first touch panel, the detection unit detects that the touch operation from the user is simultaneous.
The input device according to claim 1, wherein the input device is an input device.
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部と、前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部と、を備える入力装置における入力方法であって、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルの入力操作を検出し、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定し、
前記第1の表示パネルと前記第2の表示パネルとにまたがって表示されたアプリケーションが特定されている場合、前記検出された入力操作を当該アプリケーションに送り、
前記第1の表示パネルと前記第2の表示パネルとのそれぞれに表示されたアプリケーションが特定されている場合、前記検出された入力操作に基づいて、当該特定されたアプリケーションの表示画像位置を変更するように前記ユーザに促す、
ことを特徴とする入力方法。
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image; a second touch panel that receives a touch operation from the user; and a second that displays an image. A display panel, and a second display unit arranged adjacent to the first display unit, and an input method in an input device comprising:
An input operation on the touch panel is detected from the first touch panel and the second touch panel,
The displayed application is identified from the first display panel and the second display panel,
When an application displayed across the first display panel and the second display panel is specified, the detected input operation is sent to the application,
When an application displayed on each of the first display panel and the second display panel is specified, the display image position of the specified application is changed based on the detected input operation. Prompt the user to
An input method characterized by that.
コンピュータを、
ユーザからのタッチ操作を受け付ける第1のタッチパネルと画像を表示する第1の表示パネルとからなる第1の表示部、
前記ユーザからのタッチ操作を受け付ける第2のタッチパネルと画像を表示する第2の表示パネルとからなり、前記第1の表示部に隣接して配置される第2の表示部、
前記第1のタッチパネルと前記第2のタッチパネルとから、タッチパネルへの入力操作を検出する検出部、
前記第1の表示パネルと前記第2の表示パネルとから、表示されたアプリケーションを特定する特定部、
前記検出された入力操作と前記特定されたアプリケーションとに基づいて、当該アプリケーションの表示画像を制御する制御部、として機能させる、
ことを特徴とするプログラム。
Computer
A first display unit including a first touch panel that receives a touch operation from a user and a first display panel that displays an image;
A second display unit that includes a second touch panel that receives a touch operation from the user and a second display panel that displays an image, and is disposed adjacent to the first display unit;
A detection unit for detecting an input operation to the touch panel from the first touch panel and the second touch panel;
A specifying unit for specifying a displayed application from the first display panel and the second display panel;
Based on the detected input operation and the identified application, function as a control unit that controls a display image of the application,
A program characterized by that.
JP2011046050A 2011-03-03 2011-03-03 Input device, input method, and program Withdrawn JP2012181806A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011046050A JP2012181806A (en) 2011-03-03 2011-03-03 Input device, input method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011046050A JP2012181806A (en) 2011-03-03 2011-03-03 Input device, input method, and program

Publications (1)

Publication Number Publication Date
JP2012181806A true JP2012181806A (en) 2012-09-20

Family

ID=47012929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011046050A Withdrawn JP2012181806A (en) 2011-03-03 2011-03-03 Input device, input method, and program

Country Status (1)

Country Link
JP (1) JP2012181806A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110343A (en) * 2014-12-04 2016-06-20 キヤノン株式会社 Information processing device, information processing method in information processing device, and program
JP2019133487A (en) * 2018-02-01 2019-08-08 株式会社ワコム Sensor system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110343A (en) * 2014-12-04 2016-06-20 キヤノン株式会社 Information processing device, information processing method in information processing device, and program
US10101698B2 (en) 2014-12-04 2018-10-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2019133487A (en) * 2018-02-01 2019-08-08 株式会社ワコム Sensor system
JP7033941B2 (en) 2018-02-01 2022-03-11 株式会社ワコム Sensor system

Similar Documents

Publication Publication Date Title
JP5958215B2 (en) Information terminal device, touch coordinate determination method, and touch coordinate determination program
US8739053B2 (en) Electronic device capable of transferring object between two display units and controlling method thereof
KR101892567B1 (en) Method and apparatus for moving contents on screen in terminal
KR101523979B1 (en) Mobile terminal and method for executing function thereof
US10775869B2 (en) Mobile terminal including display and method of operating the same
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
KR101974852B1 (en) Method and apparatus for moving object in terminal having touchscreen
US20110185308A1 (en) Portable computer device
US20130076659A1 (en) Device, method, and storage medium storing program
US20130113737A1 (en) Information processing device, information processing method, and computer program
JP2013228831A (en) Portable apparatus having display function, program, and control method of portable apparatus having display function
US10048726B2 (en) Display control apparatus, control method therefor, and storage medium storing control program therefor
JP2013098826A (en) Electronic apparatus and input method
CN109933252B (en) Icon moving method and terminal equipment
KR20140004863A (en) Display method and apparatus in terminal having flexible display panel
KR20150007048A (en) Method for displaying in electronic device
US9298364B2 (en) Mobile electronic device, screen control method, and storage medium strong screen control program
KR20140019530A (en) Method for providing user&#39;s interaction using mutil touch finger gesture
EP2343632A1 (en) Touch panel device operating as if in the equivalent mode even when detected region is smaller than display region of display device
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
US20140164186A1 (en) Method for providing application information and mobile terminal thereof
EP2677413B1 (en) Method for improving touch recognition and electronic device thereof
EP2706451B1 (en) Method of processing touch input for mobile device
JP2013182463A (en) Portable terminal device, touch operation control method, and program
JP2012181806A (en) Input device, input method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513