JP2021165923A - Information processing device, computer program and information processing method - Google Patents

Information processing device, computer program and information processing method Download PDF

Info

Publication number
JP2021165923A
JP2021165923A JP2020068897A JP2020068897A JP2021165923A JP 2021165923 A JP2021165923 A JP 2021165923A JP 2020068897 A JP2020068897 A JP 2020068897A JP 2020068897 A JP2020068897 A JP 2020068897A JP 2021165923 A JP2021165923 A JP 2021165923A
Authority
JP
Japan
Prior art keywords
window
area
region
code
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020068897A
Other languages
Japanese (ja)
Other versions
JP7415168B2 (en
Inventor
輝 田那辺
Akira Tanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2020068897A priority Critical patent/JP7415168B2/en
Publication of JP2021165923A publication Critical patent/JP2021165923A/en
Priority to JP2023214159A priority patent/JP2024023730A/en
Application granted granted Critical
Publication of JP7415168B2 publication Critical patent/JP7415168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve operability in a multi-window user interface.SOLUTION: A tablet terminal 100 arranges a code window for displaying a programming code on the front, and arranges an execution window for displaying a program execution screen on the back of the code window. When performing data input after a user instructs a focus change in a function determination area, the data input to the execution window is allowed while keeping the code window on the front of the execution window.SELECTED DRAWING: Figure 1

Description

本発明は、マルチウィンドウのユーザインタフェース技術、に関する。 The present invention relates to a multi-window user interface technology.

ラップトップPC、タブレットPC、スマートフォンなどのモバイルコンピュータの登場により、コンピュータを使う機会は飛躍的に増加した。モバイルコンピュータは、軽量・省サイズを求められる。このため、モバイルコンピュータのユーザインタフェース設計においては、限られたサイズのモニタ画面に、いかに多くの情報を効率的に入出力できるかが重要なポイントとなる。 With the advent of mobile computers such as laptop PCs, tablet PCs, and smartphones, the opportunities to use computers have increased dramatically. Mobile computers are required to be lightweight and small in size. Therefore, in the user interface design of a mobile computer, how much information can be efficiently input / output to a monitor screen of a limited size is an important point.

一般的には、複数のウィンドウ(画像表示のための領域)に複数の情報を同時表示させるマルチウィンドウ方式のユーザインタフェースが採用されることが多い。各ウィンドウには「レイヤー(表示層)」が設定される。前面側(上位層)のウィンドウの背後(下)に背面側(下位層)のウィンドウの全部または一部が隠れているかのように複数のウィンドウは表示される。ユーザは最前面のウィンドウを対象としてデータを入力する。以下、データ入力の対象となるウィンドウのことを「フォーカスウィンドウ」とよぶ。 In general, a multi-window user interface that simultaneously displays a plurality of pieces of information in a plurality of windows (areas for displaying images) is often adopted. A "layer (display layer)" is set for each window. Multiple windows are displayed as if all or part of the back (lower layer) window is hidden behind (lower) the front (upper layer) window. The user enters data in the foreground window. Hereinafter, the window to be input data is referred to as a "focus window".

特開2019−168717号公報JP-A-2019-168717

情報を入力したいウィンドウが背面側にあるとき、このウィンドウを最前面のレイヤーとなるように表示順序を変更する必要がある(以下、「前面化」とよぶ)。具体的には、前面にあるウィンドウを縮小化(非アクティブ化)することにより背面のウィンドウを前面化する。あるいは、複数のウィンドウの縮小版を並列表示させる操作を行ったあと、その中からフォーカスウィンドウ(情報入力したいウィンドウ)を選ぶこともある。前面化のための操作、いいかえれば、前面化のために手数をかけることは、フォーカスウィンドウを頻繁に変更しながら情報入力を行いたいときには作業性の悪化を招きやすい。 When the window where you want to enter information is on the back side, you need to change the display order so that this window is the front layer (hereinafter referred to as "front"). Specifically, the rear window is brought to the front by reducing (deactivating) the front window. Alternatively, after performing an operation to display reduced versions of a plurality of windows in parallel, the focus window (the window in which information is to be input) may be selected from the operations. The operation for fronting, in other words, the time and effort required for fronting, tends to cause deterioration of workability when you want to input information while changing the focus window frequently.

本発明の目的は、マルチウィンドウ型のユーザインタフェースにおける操作性を向上させるための技術、を提供することにある。 An object of the present invention is to provide a technique for improving operability in a multi-window type user interface.

本発明のある態様における情報処理装置は、第1画像を表示対象とする第1領域を前面に配置し、第2画像を表示対象とする第2領域を第1領域の背面に配置する表示制御部と、第2領域を指定する第1操作と、ユーザからデータ入力のための第2操作を検出する操作検出部と、を備える。
表示制御部は、第1操作の検出後に第2操作が検出されたときには、第1領域を第2領域よりも前面に維持したまま、第2操作に基づいて第2画像を変化させる。
In the information processing apparatus according to an aspect of the present invention, a display control in which a first area for displaying a first image is arranged on the front surface and a second area for displaying a second image is arranged on the back surface of the first area. It includes a unit, a first operation for designating a second area, and an operation detection unit for detecting a second operation for data input from the user.
When the second operation is detected after the detection of the first operation, the display control unit changes the second image based on the second operation while maintaining the first area in front of the second area.

本発明によれば、マルチウィンドウ型のユーザインタフェースにおける操作性を向上させやすくなる。 According to the present invention, it becomes easy to improve the operability in the multi-window type user interface.

タブレット端末の外観図である。It is an external view of a tablet terminal. 複数のウィンドウのレイヤー構造を説明するための模式図である。It is a schematic diagram for demonstrating the layer structure of a plurality of windows. タブレット端末のハードウェア構成図である。It is a hardware configuration diagram of a tablet terminal. タブレット端末の機能ブロック図である。It is a functional block diagram of a tablet terminal. 機能判定領域の構成を説明するための外観図である。It is an external view for demonstrating the structure of the function determination area. 通常入力を説明するための模式図である。It is a schematic diagram for demonstrating a normal input. 貫通入力を説明するための模式図である。It is a schematic diagram for demonstrating the penetration input. 対象化選択領域へのタッチが検出されたときの処理過程を示すフローチャートである。It is a flowchart which shows the processing process when the touch to the targeting selection area is detected. 選択領域以外へのタッチが検出されたときの処理過程を示すフローチャートである。It is a flowchart which shows the processing process when the touch to other than the selection area is detected. デタッチが検出されたときの処理過程を示すフローチャートである。It is a flowchart which shows the processing process when a detachment is detected. データ入力対象の切り替えを説明するための外観図である。It is an external view for demonstrating the switching of a data input target. 実行ウィンドウへの貫通入力時の状態を示す第1画面図である。It is a 1st screen view which shows the state at the time of the penetration input to the execution window. コードウィンドウへの通常入力時の状態を示す第2画面図である。It is a 2nd screen figure which shows the state at the time of a normal input to a code window. コードウィンドウへの通常入力時の状態を示す第3の画面図である。It is a 3rd screen view which shows the state at the time of a normal input to a code window. 実行ウィンドウに円が描画されたときの状態を示す第4の画面図である。It is a 4th screen view which shows the state when a circle is drawn in the execution window. 機能入力の説明を表示したときの画面図である。It is a screen view when the explanation of the function input is displayed. ジェスチャー入力をするときの画面図である。It is a screen diagram when inputting a gesture. 3以上のウィンドウのフォーカスコントロールを説明するための概念図である。It is a conceptual diagram for demonstrating the focus control of 3 or more windows.

本実施形態においては複数のウィンドウが複数のレイヤーに配置されて表示される。ウィンドウは1枚のシートを模した画像領域であり、レイヤーはいわば複数枚のシートを積み重ねたときのシートの重ね位置を示す概念である。 In this embodiment, a plurality of windows are arranged and displayed on a plurality of layers. A window is an image area that imitates one sheet, and a layer is a concept that indicates the stacking position of sheets when a plurality of sheets are stacked.

まず、物理的な紙のシート1,2,3を想定してみる。シート1,2,3にはそれぞれ絵や文字などの情報が記載されている。この3枚のシートを順番に積み重ねてみる。一番上にシート1、真ん中にシート2、一番下にシート3を配置したとする。このとき、ユーザは一番上にあるシート1のすべてを見ることができる。上から2番目のシート2はシート1に重なっていない部分だけが見える。上から3番目のシート3はシート1,2のいずれとも重なっていない部分だけが見える。このような積み重ねられたシートと同様の視認性をコンピュータプログラムにより実現したものがマルチウィンドウシステムである。 First, assume physical paper sheets 1, 2, and 3. Information such as pictures and characters is described on sheets 1, 2, and 3, respectively. Let's stack these three sheets in order. It is assumed that the sheet 1 is arranged at the top, the sheet 2 is arranged in the middle, and the sheet 3 is arranged at the bottom. At this time, the user can see all of the sheet 1 at the top. In the second sheet 2 from the top, only the part that does not overlap the sheet 1 can be seen. In the third sheet 3 from the top, only the portion that does not overlap with any of the sheets 1 and 2 can be seen. A multi-window system realizes the same visibility as such stacked sheets by a computer program.

マルチウィンドウシステムにおいて、同様にして電子的なウィンドウ1,2,3を想定する。ウィンドウ1,2,3はシートと同様にして情報を表示する。このとき、シート1に対応する「一番上」のレイヤーを「最前面のレイヤー」とよぶ。「前面」とは、モニタを見るユーザから見て前側(にあるかのように見えること)を意味した表現である。3つのウィンドウを3つのレイヤーそれぞれに配置してみる。一番上のレイヤーにウィンドウ1、真ん中のレイヤーにウィンドウ2、一番下のレイヤーにウィンドウ3を配置したとする。この場合、ウィンドウ1は、ウィンドウ2,3よりも「前面」のレイヤーに配置されている、と表現する。同様にして、ウィンドウ2は、ウィンドウ1の「背面」のレイヤーに配置され、ウィンドウ3の「前面」のレイヤーに配置されているという。ウィンドウ3は「最背面」のレイヤーに配置されている、と表現する。 In a multi-window system, electronic windows 1, 2 and 3 are assumed in the same manner. Windows 1, 2 and 3 display information in the same way as a sheet. At this time, the "top" layer corresponding to the sheet 1 is called the "front layer". "Front" is an expression that means the front side (looks like it is) when viewed from the user who sees the monitor. Try arranging the three windows on each of the three layers. Suppose that window 1 is placed on the top layer, window 2 is placed on the middle layer, and window 3 is placed on the bottom layer. In this case, it is expressed that the window 1 is arranged in the layer "front" rather than the windows 2 and 3. Similarly, the window 2 is said to be arranged on the "back" layer of the window 1 and on the "front" layer of the window 3. It is expressed that the window 3 is arranged on the "backmost" layer.

ウィンドウ1,2,3のように複数のウィンドウそれぞれの複数のレイヤーそれぞれへ配置する方法を「表示順序」とよぶ。上述の例によれば「複数のウィンドウの表示順序は、最前面から順番にウィンドウ1,2,3である」のように表現する。また、表示順序の変更にともなってウィンドウのレイヤーを変更することをウィンドウの「配置変更」とよぶ。 The method of arranging on each of a plurality of layers of each of a plurality of windows, such as windows 1, 2, and 3, is called "display order". According to the above example, it is expressed as "the display order of a plurality of windows is windows 1, 2, and 3 in order from the front." Also, changing the layer of the window when the display order is changed is called "rearrangement" of the window.

以下においては、「前面化」とは、マルチウィンドウ方式のユーザインタフェースにおいて、指定されたウィンドウのレイヤーを前面に配置変更させることを意味する。「対象化」とは、指定されたウィンドウをデータ入力の対象として設定すること、いいかえれば、指定されたウィンドウをフォーカスウィンドウに設定することを意味する。ここでいう「データ入力」とはウィンドウが表示するコンテンツの追加または修正、具体的には、文字または画像を変更するための入力を意味する。「有効化」とは、特殊な機能レイヤーをオンにすることを意味する。一般的なマルチウィンドウ方式においては「前面化」と「対象化」は実質的に同一概念であるが、本実施形態においては「前面化をしない対象化」を実現する。 In the following, "fronting" means to rearrange the layer of the specified window to the front in the multi-window type user interface. "Targeting" means setting the specified window as the target for data entry, in other words, setting the specified window as the focus window. The "data input" here means an input for adding or modifying the content displayed by the window, specifically, changing a character or an image. "Activation" means turning on a special feature layer. In the general multi-window method, "fronting" and "targeting" are substantially the same concept, but in the present embodiment, "targeting without fronting" is realized.

図1は、タブレット端末100の外観図である。
タブレット端末100(情報処理装置)はモニタ画面102を備える薄型のモバイルコンピュータである。モニタ画面102にはタッチパネルが設置される。本実施形態においては、ユーザにプログラミングを教える授業を想定して説明する。生徒が、タブレット端末100のユーザとなる。
FIG. 1 is an external view of the tablet terminal 100.
The tablet terminal 100 (information processing device) is a thin mobile computer provided with a monitor screen 102. A touch panel is installed on the monitor screen 102. In this embodiment, a lesson that teaches programming to a user will be described. The student becomes a user of the tablet terminal 100.

タブレット端末100には、プログラミング教育のためのアプリケーション・ソフトウェア(以下、「学習ソフトウェア」とよぶ)があらかじめインストールされている。ユーザに簡単なプログラムコード(以下、単に「コード」とよぶ)を書かせ、作成したプログラムを実行させることでソフトウェアの仕組みに対するユーザの理解を深めることが授業の目的である。詳細は後述するが、コードを作成するためのウィンドウと、プログラムの実行画面となるウィンドウはマルチウィンドウとして別々に表示される。 Application software for programming education (hereinafter referred to as "learning software") is pre-installed on the tablet terminal 100. The purpose of the lesson is to deepen the user's understanding of the mechanism of software by having the user write a simple program code (hereinafter, simply referred to as "code") and execute the created program. The details will be described later, but the window for creating code and the window for executing the program are displayed separately as a multi-window.

以下においては、タッチパネルを前提として説明するが、タブレット端末100は、タッチパネルのほか、キーボード、マウスなどの入力デバイスを接続することもできる。タブレット端末100は、音声入力を可能としてもよい。 Hereinafter, the description will be made on the premise of a touch panel, but the tablet terminal 100 can be connected to an input device such as a keyboard and a mouse in addition to the touch panel. The tablet terminal 100 may enable voice input.

図2は、複数のウィンドウのレイヤー構造を説明するための模式図である。
学習ソフトウェアは、データの入力および出力の対象となる「通常レイヤー」として、コードウィンドウX1(第1領域)および実行ウィンドウX2(第2領域)を備える。また、コードウィンドウX1および実行ウィンドウX2に対する入力支援のための「機能レイヤー」として機能判定領域M1およびジェスチャー領域G1を含む。2つの機能レイヤーはいずれも不可視である。最前面(最上位)から、機能判定領域M1、ジェスチャー領域G1、コードウィンドウX1および実行ウィンドウX2の4つのレイヤーが並ぶ。コードウィンドウX1と実行ウィンドウX2は学習ソフトウェアの作業領域となるウィンドウである。通常、コードウィンドウX1がフォーカスウィンドウとなる。機能判定領域M1は常時有効化されており、ジェスチャー領域G1は通常無効化されている。
FIG. 2 is a schematic diagram for explaining the layer structure of a plurality of windows.
The learning software includes a code window X1 (first area) and an execution window X2 (second area) as "normal layers" for data input and output. Further, a function determination area M1 and a gesture area G1 are included as "function layers" for input support for the code window X1 and the execution window X2. Both functional layers are invisible. From the frontmost (topmost), four layers of the function determination area M1, the gesture area G1, the code window X1 and the execution window X2 are arranged. The code window X1 and the execution window X2 are windows that serve as work areas for the learning software. Normally, the code window X1 is the focus window. The function determination area M1 is always enabled, and the gesture area G1 is normally disabled.

機能判定領域M1は最前面に位置する。ユーザは、機能判定領域M1の一部に形成される選択領域にアクセスすることで実行ウィンドウX2をフォーカスウィンドウに変更できる(詳細は後述)。また、ユーザは、機能判定領域M1の一部に形成される別の選択領域にアクセスすることでジェスチャー領域G1を有効化できる。以下においては、コードウィンドウX1がフォーカスウィンドウとなる状態を「通常モード」、コードウィンドウX1の下のレイヤーに位置しているために、その表示領域が阻まれている実行ウィンドウX2がフォーカスウィンドウとなる状態を「貫通モード(特殊モード)」とよぶ。また、ジェスチャー領域G1が有効化された状態を「ジェスチャーモード」とよぶ。学習ソフトウェアのモードはこの3種類であり互いに排他的である。 The function determination area M1 is located in the foreground. The user can change the execution window X2 to a focus window by accessing a selection area formed in a part of the function determination area M1 (details will be described later). Further, the user can activate the gesture area G1 by accessing another selection area formed in a part of the function determination area M1. In the following, the state in which the code window X1 is the focus window is the "normal mode", and the execution window X2 whose display area is blocked because it is located in the layer below the code window X1 is the focus window. The state is called "penetration mode (special mode)". Further, the state in which the gesture area G1 is enabled is called "gesture mode". There are three modes of learning software, which are exclusive to each other.

ジェスチャー領域G1は機能判定領域M1の背面に位置する。ジェスチャー領域G1は不可視であり、通常は有効化されていない。後述の方法によりジェスチャー領域G1が有効化されたとき、ユーザは、モニタ画面102全体をつかってさまざまなジェスチャー入力をすることができる。ジェスチャー入力の詳細は図17に関連して後述する。 The gesture area G1 is located behind the function determination area M1. Gesture area G1 is invisible and is usually not enabled. When the gesture area G1 is activated by the method described later, the user can input various gestures using the entire monitor screen 102. The details of the gesture input will be described later in relation to FIG.

コードウィンドウX1は、半透明表示され、コードを書くための画面(第1画像)を提供する。ここでいう半透明表示とは、コードウィンドウX1の画像を視認可能であり、かつ、コードウィンドウX1を透過して背面の画像も視認可能な程度にコードウィンドウX1の透明度を調整して表示することをいう。コードウィンドウX1はジェスチャー領域G1の背面に位置するが、通常レイヤーの中では最前面である。(コードウィンドウX1および実行ウィンドウX2が共に表示されているときの)通常モードまたはジェスチャーモードにおいては、コードウィンドウX1がフォーカスウィンドウとなる。 The code window X1 is displayed semi-transparently and provides a screen (first image) for writing the code. The semi-transparent display here means that the image of the code window X1 can be visually recognized, and the transparency of the code window X1 is adjusted and displayed so that the image on the back surface can also be seen through the code window X1. To say. The code window X1 is located behind the gesture area G1, but is usually the foreground in the layer. In normal mode or gesture mode (when both code window X1 and execution window X2 are displayed), code window X1 is the focus window.

実行ウィンドウX2は、一般的なウィンドウと同様、不透明表示(通常表示)される。実行ウィンドウX2はコードウィンドウX1において作成されたプログラムの実行画面(第2画像)を提供する。実行ウィンドウX2はコードウィンドウX1の背面に位置する。コードウィンドウX1は半透明であるため、ユーザはコードウィンドウX1だけでなく、その背面にある実行ウィンドウX2も同時に視認できる。貫通モードに変更されたとき、または、実行ウィンドウX2より手前の視認可能レイヤーであるウィンドウX1が出現していないとき、実行ウィンドウX2は対象化、すなわち、フォーカスウィンドウとされる。 The execution window X2 is opaquely displayed (normally displayed) like a general window. The execution window X2 provides an execution screen (second image) of the program created in the code window X1. The execution window X2 is located behind the code window X1. Since the code window X1 is translucent, the user can see not only the code window X1 but also the execution window X2 behind it at the same time. When the mode is changed to the penetration mode, or when the visible layer window X1 in front of the execution window X2 does not appear, the execution window X2 is targeted, that is, the focus window.

まとめると、以下の通りである。
1.機能レイヤー:不可視
1−1.機能判定領域M1:常時有効。モード変更のための入力を受け付ける。
1−2.ジェスチャー領域G1:通常モードおよび貫通モードでは無効であり、機能判定領域M1により有効化される(ジェスチャーモード)。ジェスチャー入力を受け付ける。
2.通常レイヤー:可視
2−1.コードウィンドウX1:半透明表示され、通常モードにおいて対象化されている。後述するように一時的に完全透明化(不可視化)されることもある。
2−2.実行ウィンドウX2:不透明表示され、貫通モードにおいて対象化される。
In summary, it is as follows.
1. 1. Functional layer: Invisible 1-1. Function judgment area M1: Always valid. Accepts input for mode change.
1-2. Gesture area G1: It is invalid in the normal mode and the penetration mode, and is enabled by the function determination area M1 (gesture mode). Accepts gesture input.
2. Normal layer: Visible 2-1. Code window X1: Translucently displayed and targeted in normal mode. As will be described later, it may be temporarily completely transparent (invisible).
2-2. Execution window X2: Opaque and targeted in penetration mode.

コードウィンドウX1および実行ウィンドウX2の表示順序、いいかえれば、レイヤー間の位置関係は入れ替え可能としてもよいが、以下においては特に断らない限り、機能判定領域M1、ジェスチャー領域G1、コードウィンドウX1および実行ウィンドウX2の表示順序(前後関係)は入れ替わらないものとして説明する。
また、コードウィンドウX1および実行ウィンドウX2を閉じることは可能であるが、以下においては特に断らない限り、コードウィンドウX1および実行ウィンドウX2は閉じられず、かつ、通常モードにおいてはいずれも可視であるものとして説明する。
The display order of the code window X1 and the execution window X2, in other words, the positional relationship between the layers may be interchangeable, but in the following, unless otherwise specified, the function determination area M1, the gesture area G1, the code window X1 and the execution window The display order (contextual relationship) of X2 will be described as not being interchanged.
Further, although it is possible to close the code window X1 and the execution window X2, in the following, unless otherwise specified, the code window X1 and the execution window X2 are not closed and are both visible in the normal mode. It is explained as.

図3は、タブレット端末100のハードウェア構成図である。
タブレット端末100は、コンピュータプログラムを格納する不揮発性メモリとしてのストレージ312、プログラムおよびデータを展開する揮発性のメモリ304、レジスタ、演算器、命令デコーダ等を内蔵し、メモリ304からプログラムを読み出して実行するプロセッサ300(CPU:Central Processing Unit)等を含む。プロセッサ300は、比較的高速な第1バス302と接続される。第1バス302には、メモリ304のほかNIC(Network Interface Card)が接続される。第1バス302には、このほか、GPU(Graphics Processing Unit)等の他のデバイスが接続されてもよい。
FIG. 3 is a hardware configuration diagram of the tablet terminal 100.
The tablet terminal 100 has a built-in storage 312 as a non-volatile memory for storing a computer program, a volatile memory 304 for expanding programs and data, a register, an arithmetic unit, an instruction decoder, and the like, and reads and executes the program from the memory 304. The processor 300 (CPU: Central Processing Unit) and the like are included. The processor 300 is connected to a relatively high speed first bus 302. In addition to the memory 304, a NIC (Network Interface Card) is connected to the first bus 302. In addition, another device such as a GPU (Graphics Processing Unit) may be connected to the first bus 302.

第1バス302は、ブリッジ308を介して比較的低速な第2バス310と接続される。第2バス310には、ストレージ312のほか、モニタ画面102あるいはスピーカなどの出力デバイス316が接続される。また、第2バス310には、マウスやキーボードなどの入力デバイス314、プリンタなどの周辺機器318が接続されてもよい。 The first bus 302 is connected to the second bus 310, which has a relatively low speed, via a bridge 308. In addition to the storage 312, an output device 316 such as a monitor screen 102 or a speaker is connected to the second bus 310. Further, an input device 314 such as a mouse or a keyboard and a peripheral device 318 such as a printer may be connected to the second bus 310.

図4は、タブレット端末100の機能ブロック図である。
上述のように、タブレット端末100の各構成要素は、CPUおよび各種コプロセッサ(co-processor)などの演算器、メモリやストレージといった記憶装置、それらを連結する有線または無線の通信線を含むハードウェアと、記憶装置に格納され、演算器に処理命令を供給するソフトウェアによって実現される。コンピュータプログラムは、デバイスドライバ、オペレーティングシステム、それらの上位層に位置する各種アプリケーションプログラム、また、これらのプログラムに共通機能を提供するライブラリによって構成されてもよい。以下に説明する各ブロックは、ハードウェア単位の構成ではなく、機能単位のブロックを示している。
FIG. 4 is a functional block diagram of the tablet terminal 100.
As described above, each component of the tablet terminal 100 is hardware including a CPU and a computing unit such as various co-processors, a storage device such as a memory and a storage, and a wired or wireless communication line connecting them. It is realized by software that is stored in a storage device and supplies processing commands to a processor. A computer program may be composed of a device driver, an operating system, various application programs located on the upper layers thereof, and a library that provides common functions to these programs. Each block described below shows a block for each function, not a configuration for each hardware.

タブレット端末100は、ユーザインタフェース処理部104、データ処理部106、通信部126およびデータ格納部108を含む。
ユーザインタフェース処理部104は、タッチパネルを介してユーザからの操作を受け付けるほか、画像表示や音声出力など、ユーザインタフェースに関する処理を担当する。通信部126は、インターネットを介して他の装置との通信処理を担当する。データ格納部108は各種データを格納する。データ処理部106は、ユーザインタフェース処理部104や通信部126により取得されたデータ、データ格納部108に格納されているデータに基づいて各種処理を実行する。データ処理部106は、ユーザインタフェース処理部104、通信部126およびデータ格納部108のインタフェースとしても機能する。
The tablet terminal 100 includes a user interface processing unit 104, a data processing unit 106, a communication unit 126, and a data storage unit 108.
The user interface processing unit 104 accepts operations from the user via the touch panel, and is in charge of processing related to the user interface such as image display and audio output. The communication unit 126 is in charge of communication processing with other devices via the Internet. The data storage unit 108 stores various data. The data processing unit 106 executes various processes based on the data acquired by the user interface processing unit 104 and the communication unit 126 and the data stored in the data storage unit 108. The data processing unit 106 also functions as an interface for the user interface processing unit 104, the communication unit 126, and the data storage unit 108.

ユーザインタフェース処理部104は、ユーザからの入力を受け付ける操作検出部110と、ユーザに対して画像や音声等の各種情報を出力する出力部112を含む。操作検出部110は、機能入力部114、ジェスチャー入力部116およびデータ入力部118を含む。機能入力部114は、機能判定領域M1に対する所定の入力である機能選択入力(第1操作)を検出する。機能選択入力とは、有効化、対象化等、ウィンドウの内容そのものではなくウィンドウ自体の機能または状態を制御するための入力であるが詳細は図5等に関連して後述する。ジェスチャー入力部116は、ジェスチャー領域G1に対する所定の入力であるジェスチャー入力を検出する。データ入力部118は、コードウィンドウX1または実行ウィンドウX2に対するデータ入力(第2操作)を検出する。 The user interface processing unit 104 includes an operation detection unit 110 that receives input from the user and an output unit 112 that outputs various information such as images and sounds to the user. The operation detection unit 110 includes a function input unit 114, a gesture input unit 116, and a data input unit 118. The function input unit 114 detects a function selection input (first operation) which is a predetermined input to the function determination area M1. The function selection input is an input for controlling the function or state of the window itself, not the content of the window itself, such as activation and objectification, but the details will be described later in relation to FIG. 5 and the like. The gesture input unit 116 detects a gesture input which is a predetermined input to the gesture area G1. The data input unit 118 detects data input (second operation) to the code window X1 or the execution window X2.

データ格納部108は、学習ソフトウェアのほか、ユーザが作成するプログラムを格納する。 The data storage unit 108 stores the learning software and the program created by the user.

データ処理部106は、コードウィンドウX1および実行ウィンドウX2の表示を制御する表示制御部120を含む。
表示制御部120は、表示更新部122およびレイヤー管理部124を含む。表示更新部122は、コードウィンドウX1および実行ウィンドウX2における画像生成および更新を管理する。レイヤー管理部124は、各ウィンドウのレイヤー、位置、サイズを管理する。また、レイヤー管理部124は、通常モード、特殊モード、ジェスチャーモードに関するモードの管理も行う。
The data processing unit 106 includes a display control unit 120 that controls the display of the code window X1 and the execution window X2.
The display control unit 120 includes a display update unit 122 and a layer management unit 124. The display update unit 122 manages image generation and update in the code window X1 and the execution window X2. The layer management unit 124 manages the layer, position, and size of each window. The layer management unit 124 also manages modes related to the normal mode, the special mode, and the gesture mode.

図5は、機能判定領域M1の構成を説明するための外観図である。
不可視の機能判定領域M1には、選択領域128L1、選択領域128R1、選択領域128L2、選択領域128R2(以下、まとめていうときには「選択領域166」とよぶ)がモニタ画面102の四隅に設定されている。
FIG. 5 is an external view for explaining the configuration of the function determination region M1.
In the invisible function determination area M1, the selection area 128L1, the selection area 128R1, the selection area 128L2, and the selection area 128R2 (hereinafter, collectively referred to as "selection area 166") are set at the four corners of the monitor screen 102.

ユーザが選択領域128L1または選択領域128R1にタッチしたとき、いいかえれば、モニタ画面102の左下隅または右下隅をタッチしたとき、レイヤー管理部124は通常モードから貫通モード(特殊モード)に移行させる。このとき、背面側の実行ウィンドウX2が対象化される。以下、選択領域166のうち、実行ウィンドウX2を対象化させるための選択領域128L1および選択領域128R1の2つをまとめていうときには「対象化選択領域162」とよぶ。 When the user touches the selected area 128L1 or the selected area 128R1, in other words, when the lower left corner or the lower right corner of the monitor screen 102 is touched, the layer management unit 124 shifts from the normal mode to the penetration mode (special mode). At this time, the execution window X2 on the back side is targeted. Hereinafter, of the selection area 166, when the selection area 128L1 and the selection area 128R1 for targeting the execution window X2 are collectively referred to as "targeting selection area 162".

ユーザが対象化選択領域162のタッチをやめると(デタッチ)、レイヤー管理部124は貫通モードから通常モードに戻す。このとき、前面側のコードウィンドウX1が再び対象化される。 When the user stops touching the target selection area 162 (detach), the layer management unit 124 returns from the penetration mode to the normal mode. At this time, the code window X1 on the front side is targeted again.

ユーザが選択領域128L2または選択領域128R2をタッチしたとき、いいかえれば、モニタ画面102の左上隅または右上隅をタッチしたとき、レイヤー管理部124は通常モードからジェスチャーモードに移行させる。レイヤー管理部124は、ジェスチャー領域G1を有効化し、ジェスチャー入力が可能となる。以下、選択領域166のうち、ジェスチャー領域G1を有効化するための選択領域128L2および選択領域128R2をまとめていうときには「ジェスチャー有効化領域164」とよぶ。 When the user touches the selected area 128L2 or the selected area 128R2, in other words, when the upper left corner or the upper right corner of the monitor screen 102 is touched, the layer management unit 124 shifts from the normal mode to the gesture mode. The layer management unit 124 activates the gesture area G1 and enables gesture input. Hereinafter, among the selection areas 166, the selection area 128L2 and the selection area 128R2 for activating the gesture area G1 are collectively referred to as "gesture activation area 164".

ユーザがジェスチャー有効化領域164のタッチをやめると(デタッチ)、レイヤー管理部124はジェスチャーモードから通常モードに移行させる。このとき、ジェスチャー領域G1は無効化される。4つの選択領域166のいずれかをタッチすることを「機能選択入力」とよぶ。 When the user stops touching the gesture activation area 164 (detach), the layer management unit 124 shifts from the gesture mode to the normal mode. At this time, the gesture area G1 is invalidated. Touching any of the four selection areas 166 is called "function selection input".

本実施形態におけるデータ入力は通常モードにおける「通常入力」と貫通モードにおける「貫通入力(特殊入力)」の2種類がある。データ入力(主として、文字または画像の入力)は、ウィンドウ領域内への指またはスタイラスによるタッチ入力により可能であるが、マウス等の他の入力デバイスを利用することも可能である。通常モードにおいては、実行ウィンドウX2よりも前面にあるコードウィンドウX1がフォーカスウィンドウであり、ユーザはコードウィンドウX1を対象としてデータ入力を行う。これを「通常入力」とよぶ。 There are two types of data input in the present embodiment: "normal input" in the normal mode and "penetration input (special input)" in the penetration mode. Data input (mainly text or image input) is possible by touch input with a finger or stylus into the window area, but other input devices such as a mouse can also be used. In the normal mode, the code window X1 in front of the execution window X2 is the focus window, and the user inputs data to the code window X1. This is called "normal input".

ユーザが対象化選択領域162をタッチしているときには、貫通モードとなり、背面側にある実行ウィンドウX2がフォーカスウィンドウとなり、ユーザは実行ウィンドウX2を対象としてデータ入力を行う。これを「貫通入力」とよぶ。 When the user touches the targeting selection area 162, the penetration mode is set, the execution window X2 on the back side becomes the focus window, and the user inputs data to the execution window X2. This is called "penetration input".

貫通入力のとき、レイヤー管理部124はコードウィンドウX1と実行ウィンドウX2の前後関係を変更しない。いいかえれば、貫通入力においては、コードウィンドウX1が前面にあるにも関わらず、あたかも、コードウィンドウX1を突き抜けて背面にある実行ウィンドウX2を直接触っているかのような特有の操作感が提供される。この操作感については次の図6,7に関連して更に説明する。 At the time of penetration input, the layer management unit 124 does not change the context of the code window X1 and the execution window X2. In other words, in the penetrating input, even though the code window X1 is on the front side, a unique operation feeling is provided as if the code window X1 is penetrated and the execution window X2 on the back side is directly touched. .. This feeling of operation will be further described in relation to FIGS. 6 and 7 below.

図6は、通常入力を説明するための模式図である。
上述したように、ユーザから視認可能なレイヤーは、コードウィンドウX1および実行ウィンドウX2の2つ通常レイヤーである。コードウィンドウX1は前面側、実行ウィンドウX2は背面側にある。コードウィンドウX1は半透明であるため、ユーザはコードウィンドウX1だけでなく、背面にある実行ウィンドウX2も同時に視認できる。したがって、ユーザは、プログラムコードを書いたり確かめたりしながら、同時に、プログラムの実行状態を確認できる。
FIG. 6 is a schematic diagram for explaining a normal input.
As described above, the layers visible to the user are two normal layers, the code window X1 and the execution window X2. The code window X1 is on the front side, and the execution window X2 is on the back side. Since the code window X1 is translucent, the user can see not only the code window X1 but also the execution window X2 on the back side at the same time. Therefore, the user can check the execution status of the program while writing or checking the program code.

通常モードにおいては、コードウィンドウX1がフォーカスウィンドウとなっている。ユーザがモニタ画面102をタッチしたときにはデータ入力部118はこれをコードウィンドウX1(フォーカスウィンドウ)に対するデータ入力(通常入力)として判定する。ユーザは、タッチ操作によりコードウィンドウX1を対象としてデータ入力を行う。表示更新部122は入力結果にしたがってコードウィンドウX1内にて入力されたデータを表示させ、あるいは、カーソルを移動させる。また、コードウィンドウの移動または文字領域のスクロールを行うこともできる。 In the normal mode, the code window X1 is the focus window. When the user touches the monitor screen 102, the data input unit 118 determines this as a data input (normal input) for the code window X1 (focus window). The user inputs data to the code window X1 by touch operation. The display update unit 122 displays the data input in the code window X1 according to the input result, or moves the cursor. You can also move the code window or scroll the character area.

図7は、貫通入力を説明するための模式図である。
ユーザが対象化選択領域162(選択領域128L1または選択領域128R1)をタッチしているとき、通常モードから貫通モードに移行する。レイヤー管理部124はコードウィンドウX1ではなく実行ウィンドウX2をフォーカスウィンドウに設定する。この状態で、ユーザがモニタ画面102をタッチしたときには、データ入力部118はこれを実行ウィンドウX2に対するデータ入力(貫通入力)と判定する。ユーザは、タッチ操作により実行ウィンドウX2を対象としてデータ入力を行う。表示更新部122は入力結果にしたがって実行ウィンドウX2に画像を描画する。また、表示更新部122は、実行ウィンドウX2への画像入力の結果に対応してコードウィンドウX1を更新する。
FIG. 7 is a schematic diagram for explaining the penetration input.
When the user touches the targeting selection area 162 (selection area 128L1 or selection area 128R1), the mode shifts from the normal mode to the penetration mode. The layer management unit 124 sets the execution window X2 as the focus window instead of the code window X1. When the user touches the monitor screen 102 in this state, the data input unit 118 determines that this is a data input (penetration input) to the execution window X2. The user inputs data to the execution window X2 by touch operation. The display update unit 122 draws an image in the execution window X2 according to the input result. Further, the display update unit 122 updates the code window X1 in response to the result of image input to the execution window X2.

貫通モードにおいては、ユーザは、あたかも前面にあるコードウィンドウX1を自分の指が突き抜けて、背面にある実行ウィンドウX2を操作しているかのような感覚をもつ。なお、貫通モードのときには、表示更新部122はコードウィンドウX1を一時的に非表示化(完全透明化)してもよい。この場合には、ユーザは実行ウィンドウX2だけを見ながらデータ入力ができる。
以下においては、貫通モードにおいては、前面のコードウィンドウX1を非表示にするものとして説明する。
In the penetration mode, the user feels as if his or her finger penetrates the code window X1 on the front and operates the execution window X2 on the back. In the penetration mode, the display update unit 122 may temporarily hide (completely make) the code window X1. In this case, the user can input data while looking only at the execution window X2.
In the following, it will be described as assuming that the front code window X1 is hidden in the penetration mode.

図8は、対象化選択領域162へのタッチが検出されたときの処理過程を示すフローチャートである。
図8に示す処理は、モニタ画面102のうち対象化選択領域162へのタッチが検出されたときに実行される。まず、機能入力部114は、モニタ画面102へのタッチが検出されたとき、対象化選択領域162(選択領域128L1,選択領域128R1)(モニタ画面102の左下隅または右下隅)へのタッチであるか否かを判定する。対象化選択領域162へのタッチであれば、レイヤー管理部124は、貫通モードに設定する(S10)。このとき、実行ウィンドウX2がフォーカスウィンドウとなる。表示更新部122はコードウィンドウX1を非表示に設定する(S12)。すなわち、対象化選択領域162がタッチされて貫通モードに移行するとき、実行ウィンドウX2がフォーカスウィンドウとなり、実行ウィンドウX2の前面側にあるコードウィンドウX1は完全透明化(非表示化)される。コードウィンドウX1は不可視となるが、クローズされるわけでもない。また、コードウィンドウX1が実行ウィンドウX2の背面にレイヤー変更されるわけでもない。
なお、ジェスチャー有効化領域164へのタッチが検出されたときの処理については、図17に関連して後述する。
FIG. 8 is a flowchart showing a processing process when a touch to the targeting selection area 162 is detected.
The process shown in FIG. 8 is executed when a touch to the targeting selection area 162 is detected in the monitor screen 102. First, when the touch to the monitor screen 102 is detected, the function input unit 114 is a touch to the targeting selection area 162 (selection area 128L1, selection area 128R1) (lower left corner or lower right corner of the monitor screen 102). Judge whether or not. If the targeting selection area 162 is touched, the layer management unit 124 sets the penetration mode (S10). At this time, the execution window X2 becomes the focus window. The display update unit 122 sets the code window X1 to be hidden (S12). That is, when the targeting selection area 162 is touched to shift to the penetration mode, the execution window X2 becomes the focus window, and the code window X1 on the front side of the execution window X2 is completely transparent (hidden). The code window X1 is invisible, but not closed. Also, the code window X1 is not layered on the back of the execution window X2.
The process when a touch to the gesture activation area 164 is detected will be described later in relation to FIG.

図9は、選択領域166以外へのタッチが検出されたときの処理過程を示すフローチャートである。
選択領域166以外へのタッチが検出されたとき、通常モードであれば(S20:通常モード)、データ入力部118はタッチポイントがコードウィンドウX1と実行ウィンドウX2が重なる領域(以下、「重畳領域」とよぶ)であるか否かを判定する(S22)。重畳領域へのタッチであれば(S22のY)、データ入力部118はコードウィンドウX1を対象としてデータ入力を受け付ける(S24)。すなわち、コードウィンドウX1と実行ウィンドウX2の重畳領域がタッチされたときであって、コードウィンドウX1(前面側)がフォーカスウィンドウであるときには通常入力がなされる。
FIG. 9 is a flowchart showing a processing process when a touch other than the selection area 166 is detected.
When a touch other than the selection area 166 is detected, if it is in the normal mode (S20: normal mode), the data input unit 118 has a touch point in the area where the code window X1 and the execution window X2 overlap (hereinafter, "superimposition area"). It is determined whether or not it is (S22). If it is a touch to the superposed area (Y in S22), the data input unit 118 accepts data input for the code window X1 (S24). That is, when the overlapping area of the code window X1 and the execution window X2 is touched, and the code window X1 (front side) is the focus window, normal input is made.

タッチされたポイントが重畳領域でないときには(S22のN)、データ入力部118はコードウィンドウX1または実行ウィンドウX2を対象としてデータ入力を受け付ける(S26)。このとき、レイヤー管理部124はタッチ操作を受け付けるウィンドウを一時的にフォーカスウィンドウとして扱う。たとえば、タッチポイントにコードウィンドウX1のみがあるときにはコードウィンドウX1への通常入力となり、実行ウィンドウX2のみがあるときには実行ウィンドウX2への通常入力として扱われる。いずれの場合にも、コードウィンドウX1が前面、実行ウィンドウX2が背面というレイヤーの前後関係は維持される。 When the touched point is not the superposed area (N in S22), the data input unit 118 accepts data input for the code window X1 or the execution window X2 (S26). At this time, the layer management unit 124 temporarily treats the window that accepts the touch operation as the focus window. For example, when the touch point has only the code window X1, it is treated as a normal input to the code window X1, and when there is only the execution window X2, it is treated as a normal input to the execution window X2. In either case, the context of the layers with the code window X1 on the front and the execution window X2 on the back is maintained.

タッチが検出されたとき、貫通モードであれば(S20:貫通モード)、データ入力部118はタッチポイントが重畳領域であるか否かを判定する(S28)。重畳領域へのタッチであれば(S28のY)、データ入力部118は実行ウィンドウX2を対象としてデータ入力を受け付ける(S30)。すなわち、コードウィンドウX1と実行ウィンドウX2の重畳領域がタッチされたときであって、実行ウィンドウX2(背面側)がフォーカスウィンドウであるときには貫通入力がなされる。 When the touch is detected, if it is in the penetration mode (S20: penetration mode), the data input unit 118 determines whether or not the touch point is a superposition region (S28). If it is a touch to the superposed area (Y in S28), the data input unit 118 accepts data input for the execution window X2 (S30). That is, when the overlapping area of the code window X1 and the execution window X2 is touched, and the execution window X2 (back side) is the focus window, the penetration input is performed.

タッチされたポイントが重畳領域でないときには(S28のN)、データ入力部118はコードウィンドウX1または実行ウィンドウX2のうちタッチされたウィンドウを対象としてデータ入力を受け付ける(S32)。このときも、レイヤー管理部124はタッチ操作を受け付けるウィンドウを一時的にフォーカスウィンドウとして扱う。 When the touched point is not the superposed region (N in S28), the data input unit 118 accepts data input for the touched window of the code window X1 or the execution window X2 (S32). Also at this time, the layer management unit 124 temporarily treats the window that accepts the touch operation as the focus window.

図10は、デタッチが検出されたときの処理過程を示すフローチャートである。
図10に示す処理は、モニタ画面102からのデタッチ(タッチオフ)が検出されたときに実行される。まず、貫通モード中のデタッチの場合(S40のY)、表示更新部122はS12(図8)において非表示化されていたコードウィンドウX1を再表示させる(S42)。このとき、コードウィンドウX1は通常の半透明表示となる。レイヤー管理部124は、通常モードに設定する(S44)。コードウィンドウX1が対象化される。
FIG. 10 is a flowchart showing a processing process when detachment is detected.
The process shown in FIG. 10 is executed when a detach (touch-off) from the monitor screen 102 is detected. First, in the case of detachment in the penetration mode (Y in S40), the display update unit 122 redisplays the code window X1 that was hidden in S12 (FIG. 8) (S42). At this time, the code window X1 becomes a normal semi-transparent display. The layer management unit 124 sets the normal mode (S44). The code window X1 is targeted.

表示更新部122はデータ入力にしたがって、非フォーカスウィンドウのデータ更新を行う。たとえば、コードウィンドウX1へのデータ入力がなされた場合には、表示更新部122はコードウィンドウX1への入力内容に応じて実行ウィンドウX2の画像を変化させる。また、実行ウィンドウX2へのデータ入力がなされた場合には、表示更新部122は実行ウィンドウX2への入力内容に応じてコードウィンドウX1の描画像を変化させる。データ更新については図12以降に関連して詳述する。 The display update unit 122 updates the data of the non-focus window according to the data input. For example, when data is input to the code window X1, the display update unit 122 changes the image of the execution window X2 according to the input contents to the code window X1. When data is input to the execution window X2, the display update unit 122 changes the drawn image of the code window X1 according to the input contents to the execution window X2. The data update will be described in detail in connection with FIG. 12 and after.

通常モード中のデタッチの場合(S40のN)、処理はS46に移行する。 In the case of detaching in the normal mode (N in S40), the process shifts to S46.

図11は、データ入力対象の切り替えを説明するための外観図である。
ユーザは、一般的なマルチウィンドウと同様、コードウィンドウX1等の位置とサイズを自由に変更できる。図11においては、前面側のコードウィンドウX1は右下に移動している。一方、背面側の実行ウィンドウX2はモニタ画面102全面に表示されている。
FIG. 11 is an external view for explaining switching of data input targets.
The user can freely change the position and size of the code window X1 and the like as in the case of a general multi-window. In FIG. 11, the code window X1 on the front side is moved to the lower right. On the other hand, the execution window X2 on the back side is displayed on the entire surface of the monitor screen 102.

重畳領域132は、コードウィンドウX1(前面)によって実行ウィンドウX2(背面)が隠される領域を示す。露出領域134は、前面のコードウィンドウX1が右下に移動したことによって背面の実行ウィンドウX2が露出する領域を示す。ユーザが、露出領域134の点P1をタッチしたときには、貫通モードであるか否かに関わらず、背面にあって露出している実行ウィンドウX2がフォーカスウィンドウ(データ入力の対象となるウィンドウ)となる。レイヤー管理部124は、露出領域134がタッチされたときには一時的に実行ウィンドウX2をフォーカスウィンドウとして扱う。 The superimposed area 132 indicates an area in which the execution window X2 (back surface) is hidden by the code window X1 (front surface). The exposed area 134 indicates an area where the execution window X2 on the back surface is exposed by moving the code window X1 on the front surface to the lower right. When the user touches the point P1 of the exposed area 134, the exposed execution window X2 on the back becomes the focus window (the window to be input data) regardless of whether or not it is in the penetration mode. .. The layer management unit 124 temporarily treats the execution window X2 as a focus window when the exposed area 134 is touched.

ユーザが、重畳領域132の点P2をタッチしたときには、上述したように、貫通モードまたは通常モードのいずれであるかに応じて、コードウィンドウX1または実行ウィンドウX2のいずれかがフォーカスウィンドウ(データ入力の対象となるウィンドウ)となる。なお、実行ウィンドウX2が移動され、コードウィンドウX1のみが存在する領域にタッチがなされたときには、コードウィンドウX1がデータ入力の対象となる。 When the user touches the point P2 of the superimposed area 132, as described above, either the code window X1 or the execution window X2 is the focus window (data entry), depending on whether it is in the penetration mode or the normal mode. The target window). When the execution window X2 is moved and the area where only the code window X1 exists is touched, the code window X1 becomes the target of data input.

次に、ユーザインタフェースの具体例として、貫通入力と通常入力を使い分けながら、円を描くコードを作成する過程について図12〜図15に関連して説明する。 Next, as a specific example of the user interface, the process of creating a code for drawing a circle while properly using the penetration input and the normal input will be described with reference to FIGS. 12 to 15.

図12は、実行ウィンドウX2への貫通入力時の状態を示す第1画面図である。
ユーザは、右手親指で選択領域128L1(対象化選択領域162)をタッチしつつ、右手中指でモニタ画面102をタッチしている。選択領域128L1のタッチにより貫通モードとなる。選択領域128L1がタッチされたとき、表示更新部122はコードウィンドウX1を非表示化(完全透明化)する。データ入力部118は、コードウィンドウX1への貫通入力として座標(849,581)へのタッチを検出する。データ入力部118は、この座標P3へのタッチを実行ウィンドウX2への打点操作として検出する。
FIG. 12 is a first screen view showing a state at the time of penetrating input to the execution window X2.
The user is touching the selection area 128L1 (targeting selection area 162) with the thumb of the right hand and touching the monitor screen 102 with the middle finger of the right hand. By touching the selection area 128L1, the penetration mode is set. When the selection area 128L1 is touched, the display update unit 122 hides (completely makes transparent) the code window X1. The data input unit 118 detects a touch on the coordinates (849,581) as a penetrating input to the code window X1. The data input unit 118 detects the touch on the coordinates P3 as a dot operation on the execution window X2.

図13は、コードウィンドウX1への通常入力時の状態を示す第2画面図である。
ユーザが、右手親指を選択領域128L1から離すと(デタッチ)、表示更新部122はコードウィンドウX1を再表示させる。コードウィンドウX1は半透明表示されるため、ユーザは、コードウィンドウX1を通して背面にある実行ウィンドウX2の打点P3を視認できる。表示更新部122は、直前の打点操作に対応して、座標P3(849,581)の付近にコードメニュー136を表示させる。コードメニュー136は、コードウィンドウX1の一部であり、コードを作成するための複数のボタンを含む。
FIG. 13 is a second screen view showing a state at the time of normal input to the code window X1.
When the user releases the right thumb from the selection area 128L1 (detach), the display update unit 122 redisplays the code window X1. Since the code window X1 is displayed semi-transparently, the user can visually recognize the dot P3 of the execution window X2 on the back through the code window X1. The display update unit 122 displays the code menu 136 in the vicinity of the coordinates P3 (849,581) in response to the immediately preceding dot operation. The code menu 136 is a part of the code window X1 and includes a plurality of buttons for creating code.

コードメニュー136のボタンにより、さまざまなコードを作成できる。ユーザはここで円を描くコードを実行したいとする。ユーザは、まず、始点ボタン135をタッチすることで座標P3をいったん登録する。また、同様にして、実行ウィンドウX2において2点目の座標P4を貫通入力によりタッチする。以上の入力をしたあと円描画ボタン138をタッチする。このとき、座標P3が円の中心座標となり、座標P3から座標P4までの距離が円の半径となる。 Various codes can be created with the buttons on the code menu 136. The user wants to execute the code that draws a circle here. First, the user touches the start point button 135 to temporarily register the coordinates P3. Similarly, in the execution window X2, the coordinate P4 of the second point is touched by the penetration input. After inputting the above, touch the circle drawing button 138. At this time, the coordinates P3 become the center coordinates of the circle, and the distance from the coordinates P3 to the coordinates P4 becomes the radius of the circle.

図14は、コードウィンドウX1への通常入力時の状態を示す第3の画面図である。
円描画138のボタンで入力されるプログラムコードの描画色は、ユーザは、あらかじめ色選択パレット(不図示)から選択してもよいし、初期設定としてあらかじめ指定されている色であってもよい。ここでは、「半径:100」、「色:赤」を指定したとする。表示更新部122は、コードウィンドウX1にコード「drawcircle(849,581,100,color.red)」を表示させる。この「drawcircle」は円の描画を指示するためのコードであり、円描画ボタン138にあらかじめ対応づけられている。第1引数は中心点のX座標、第2引数は中心点のY座標を示す。本実施形態においては、図12の打点P3の座標(849,581)がそのまま中心点の座標として代入される。第3引数「100」は半径を示す。第4引数「color.red」は、円を「赤色」で描くことを示す。このように、ユーザは、コードメニュー136からボタンを選択することでコードを作成できる。なお、ユーザは、コード「drawcircle」をコードウィンドウX1に直接入力することもできる。
FIG. 14 is a third screen view showing a state at the time of normal input to the code window X1.
The drawing color of the program code input by the button of the circle drawing 138 may be selected in advance from the color selection palette (not shown) by the user, or may be a color specified in advance as an initial setting. Here, it is assumed that "radius: 100" and "color: red" are specified. The display update unit 122 displays the code "draw circle (849,581,100, color.red)" in the code window X1. This "draw circle" is a code for instructing the drawing of a circle, and is associated with the circle drawing button 138 in advance. The first argument shows the X coordinate of the center point, and the second argument shows the Y coordinate of the center point. In the present embodiment, the coordinates (849,581) of the hitting point P3 in FIG. 12 are substituted as they are as the coordinates of the center point. The third argument "100" indicates the radius. The fourth argument "color.red" indicates that the circle is drawn in "red". In this way, the user can create a code by selecting a button from the code menu 136. The user can also directly enter the code "draw circle" into the code window X1.

図15は、実行ウィンドウX2に円が描画されたときの状態を示す第4の画面図である。
コード「drawcircle」が入力されると、表示制御部120は実行ウィンドウX2に指定された円140を描画する。円140は、コード「drawcircle(849,581,100,color.red)」によって指示されたように、点P3(849,581)を中心とする半径100の赤い円である。図15では、コードウィンドウX1を非表示としているが、コードウィンドウX1は半透明表示のままでもよい。このように、ユーザは、コードウィンドウX1と実行ウィンドウX2を視認しつつ、打点P3の設定(実行ウィンドウX2への貫通入力)、打点P3に基づくコードの入力(コードウィンドウX1への通常入力)を行ったあと、コードの実行結果を実行ウィンドウX2において確認できる。このような制御方法によれば、コードとその実行結果のつながりを確認しやすいユーザインタフェースを提供できる。
FIG. 15 is a fourth screen view showing a state when a circle is drawn in the execution window X2.
When the code "draw circle" is input, the display control unit 120 draws the circle 140 specified in the execution window X2. Circle 140 is a red circle with a radius of 100 centered at point P3 (849,581), as indicated by the code "drawcircle (849,581,100, color.red)". In FIG. 15, the code window X1 is hidden, but the code window X1 may remain semi-transparent. In this way, the user visually recognizes the code window X1 and the execution window X2, sets the striking point P3 (penetrating input to the execution window X2), and inputs a code based on the striking point P3 (normal input to the code window X1). After doing so, the code execution result can be confirmed in the execution window X2. According to such a control method, it is possible to provide a user interface that makes it easy to confirm the connection between the code and the execution result.

ユーザは「円を描くプログラムを作りたい」と考えたとする。このとき、円の中心座標をコード「drawcircle」の引数として直接入力してもよい。しかし、プログラミング初心者にとってはコードごとにどのような引数を入力すればいいのか調べる作業は負担が大きい。そこで、本実施形態においては、プログラムの実行結果を示す実行ウィンドウX2に対して「円の中心にしたいところ(点P)」をタッチにより直接指定させている。実行ウィンドウX2に点P3、P4を打点したあとは、円描画ボタン138などの支援ツールを提供しながら、ユーザに円描画ボタン138を選ばせる。これにより、コード「drawcircle(849,581,100,color.red)」がコードウィンドウX1に表示される。 Suppose the user wants to create a program that draws a circle. At this time, the center coordinates of the circle may be directly input as an argument of the code "draw circle". However, for beginners in programming, the task of finding out what kind of arguments should be entered for each code is burdensome. Therefore, in the present embodiment, the "place to be the center of the circle (point P)" is directly specified by touching the execution window X2 showing the execution result of the program. After the points P3 and P4 are struck in the execution window X2, the user is made to select the circle drawing button 138 while providing the support tool such as the circle drawing button 138. As a result, the code "draw circle (849,581,100, color.red)" is displayed in the code window X1.

ユーザは、コード「drawcircle(849,581,100,color.red)」が半自動的に生成されることにより、円を描くためには「drawcircle」というコード(命令)を入力すればよく、そのために引数として中心点の座標、半径、色彩を指定すればいいというプログラミング常識を感覚的に理解できる。コード「drawcircle」を入力したあと、このコードにしたがって実行ウィンドウX2に実際に円が描かれるので、ユーザはコードによってイメージしたとおりの円が描かれることを確認できる。コードウィンドウX1および実行ウィンドウX2の双方の視認性と入力容易性を維持することにより、ユーザに双方のウィンドウの連動性を意識させやすくなる。このような制御方法により、ユーザに「コード」と「実行結果」の関係、いいかえれば、「どのようにコードを書くとどのようなアウトプットになるのか」をユーザに認識させることができる。 The user can enter the code (instruction) "drawcircle" to draw a circle by semi-automatically generating the code "drawcircle (849,581,100, color.red)", and therefore the center point as an argument. You can intuitively understand the common programming common sense that you only have to specify the coordinates, radius, and color of. After entering the code "draw circle", a circle is actually drawn in the execution window X2 according to this code, so the user can confirm that the circle is drawn exactly as the code imagined. By maintaining the visibility and input ease of both the code window X1 and the execution window X2, it becomes easy for the user to be aware of the interlocking of both windows. By such a control method, the user can be made to recognize the relationship between the "code" and the "execution result", in other words, "how the code is written and what kind of output is obtained".

図16は、機能入力の説明を表示したときの画面図である。
ユーザは、対象化選択領域162(選択領域128L1,128R1)をタッチすることで貫通モードを設定し、ジェスチャー有効化領域164(選択領域128L2,128R2)をタッチすることでジェスチャーモードを設定する。ユーザが選択領域128L1をタッチし続けたまま、データ入力をすることなく所定時間、たとえば、5秒間が経過したとき、表示更新部122は選択領域128L1によってアクティブとなる貫通入力機能を説明するための説明領域142を表示させる。選択領域128R1についても同様である。ジェスチャー有効化領域164(選択領域128L2,128R2)へのタッチが継続したときには、表示更新部122はジェスチャー入力に関する説明領域142を表示する。
FIG. 16 is a screen view when the explanation of the function input is displayed.
The user sets the penetration mode by touching the targeting selection area 162 (selection area 128L1, 128R1), and sets the gesture mode by touching the gesture activation area 164 (selection area 128L2, 128R2). The display update unit 122 is for explaining the penetration input function activated by the selection area 128L1 when a predetermined time, for example, 5 seconds elapses without inputting data while the user keeps touching the selection area 128L1. Display the explanation area 142. The same applies to the selection area 128R1. When the touch to the gesture activation area 164 (selection area 128L2, 128R2) is continued, the display update unit 122 displays the explanation area 142 related to the gesture input.

選択領域128の数あるいは種類が多い場合、ユーザは、モニタ画面102の4隅に不可視の選択領域128が存在することは認識しつつも、どの選択領域128が何の機能を提供するのか忘れてしまう、あるいは、理解しづらくなることも考えられる。モニタ画面102の端部にある不可視の選択領域128をしばらくタッチしつづけることで説明領域142が表示されるため、ユーザは選択領域128等の機能を簡易に確認しやすくなる。 When the number or types of selection areas 128 are large, the user recognizes that invisible selection areas 128 exist at the four corners of the monitor screen 102, but forgets which selection area 128 provides what function. It may be difficult to understand or it may be difficult to understand. Since the explanation area 142 is displayed by continuously touching the invisible selection area 128 at the end of the monitor screen 102 for a while, the user can easily check the functions such as the selection area 128.

選択領域166をタッチしたとき、表示更新部122はすぐに説明領域142を表示させてもよい。ただし、この場合、ユーザがモニタ画面102の選択領域166を触るごとに説明領域142が表示されてしまうため、選択領域166を所定時間継続してタッチしたことを条件として説明領域142を表示させる方がより好ましいと考えられる。また、ユーザが、選択領域166をタッチした状態で別の入力をしたことを条件として説明領域142を表示させてもよい。たとえば、ユーザが選択領域128L1をタッチしたあと所定単語、たとえば、「説明」と発話したときに説明領域142を表示させるとしてもよい。 When the selection area 166 is touched, the display update unit 122 may immediately display the explanation area 142. However, in this case, since the explanation area 142 is displayed every time the user touches the selection area 166 of the monitor screen 102, the explanation area 142 is displayed on condition that the selection area 166 is continuously touched for a predetermined time. Is considered to be more preferable. Further, the explanation area 142 may be displayed on condition that the user makes another input while touching the selection area 166. For example, the explanation area 142 may be displayed when the user touches the selection area 128L1 and then speaks a predetermined word, for example, "explanation".

図17は、ジェスチャー入力をするときの画面図である。
ユーザは、ジェスチャー有効化領域164(選択領域128L2,128R2)をタッチすることでジェスチャー領域G1を有効化できる。図17においては、ユーザは左手の親指で選択領域128L2をタッチしている。このとき、レイヤー管理部124はジェスチャー領域G1を有効化し、通常モードからジェスチャーモードに移行させる。ジェスチャー領域G1は有効化しても不可視のままである。表示更新部122はジェスチャーモードであることをユーザが理解しやすいように画面全体の色彩を変化させるなど表示態様を変化させてもよい。あるいは、ジェスチャーモード中であることを示すアイコンをモニタ画面102の所定領域に表示させてもよい。ジェスチャー入力部116は、ジェスチャーモード中の入力はすべてジェスチャー入力として検出する。
FIG. 17 is a screen view when performing gesture input.
The user can activate the gesture area G1 by touching the gesture activation area 164 (selection area 128L2, 128R2). In FIG. 17, the user is touching the selection area 128L2 with the thumb of the left hand. At this time, the layer management unit 124 activates the gesture area G1 and shifts from the normal mode to the gesture mode. Gesture area G1 remains invisible when enabled. The display update unit 122 may change the display mode such as changing the color of the entire screen so that the user can easily understand that the mode is the gesture mode. Alternatively, an icon indicating that the gesture mode is in progress may be displayed in a predetermined area of the monitor screen 102. The gesture input unit 116 detects all inputs in the gesture mode as gesture inputs.

ジェスチャー入力部116は、モニタ画面102におけるユーザの指の動きがあらかじめ登録されているいずれかのジェスチャーパターンに該当するか否かを判定する。ジェスチャーパターンに該当するときには、ジェスチャーパターンに応じた処理を、コードウィンドウX1(フォーカスウィンドウ)を対象として実行する。たとえば、図17に示すように、ユーザが二本の指を同時に上下スライドさせると、表示更新部122はコードウィンドウX1を上下にスクロールさせる。表示更新部122は、ジェスチャー入力により、コードウィンドウX1を通常より高速に上下にスクロールできる、としてもよい。 The gesture input unit 116 determines whether or not the movement of the user's finger on the monitor screen 102 corresponds to any of the pre-registered gesture patterns. When it corresponds to the gesture pattern, the process corresponding to the gesture pattern is executed for the code window X1 (focus window). For example, as shown in FIG. 17, when the user slides two fingers up and down at the same time, the display update unit 122 scrolls the code window X1 up and down. The display update unit 122 may be able to scroll the code window X1 up and down at a higher speed than usual by inputting a gesture.

このほかにも、以下のようなジェスチャーパターンが登録されている。
・ユーザが一本指でモニタ画面102をタップしたときには、コードウィンドウX1のタップされた箇所においてコンテキストメニューを表示させることができる。コンテキストメニューは、一般的にはマウスの右クリックのときに表示されるメニューであり、各種操作オプションをリスト表示させるものである。ユーザは、コンテキストメニューから、実行したいメニューを選ぶことができる。
・ユーザが二本指でモニタ画面102をダブルタップしたときには、表示更新部122はコードウィンドウX1を拡大または縮小表示する。
・ユーザが二本指でモニタ画面102をピンチ操作したときにも、表示更新部122はコードウィンドウX1を拡大または縮小表示する。
・ユーザが二本指を左右にスライドさせたときには、表示更新部122はコードウィンドウX1のページを変更する。
・ユーザが三本指でモニタ画面102をダブルタップしたときには、表示更新部122はコードウィンドウX1を最大化する。
以上は例示であり、これ以外にも、さまざまなジェスチャーパターンが登録されてもよい。たとえば、使用する指の本数あるいは組合せに応じて、あるいは、円形移動、線形移動、多角形型移動(例:N字型移動、W字型移動)などにおうじて多彩なジェスチャーパターンを定義可能である。
In addition to this, the following gesture patterns are registered.
-When the user taps the monitor screen 102 with one finger, the context menu can be displayed at the tapped portion of the code window X1. The context menu is generally a menu that is displayed when the mouse is right-clicked, and displays a list of various operation options. The user can select the menu he wants to execute from the context menu.
When the user double-tap the monitor screen 102 with two fingers, the display update unit 122 enlarges or reduces the code window X1.
-Even when the user pinches the monitor screen 102 with two fingers, the display update unit 122 enlarges or reduces the code window X1.
-When the user slides two fingers left and right, the display update unit 122 changes the page of the code window X1.
When the user double-tap the monitor screen 102 with three fingers, the display update unit 122 maximizes the code window X1.
The above is an example, and various gesture patterns may be registered in addition to the above. For example, various gesture patterns can be defined according to the number or combination of fingers used, or through circular movement, linear movement, polygonal movement (eg N-shaped movement, W-shaped movement), etc. be.

ジェスチャーモードに設定すれば、モニタ画面102全体をつかってさまざまなジェスチャー入力が可能となる。ユーザは、タブレット端末100を支える左手で選択領域128L2をタッチしつつ、右手でモニタ画面102全体に大きくジェスチャーを指で描くことにより、コードウィンドウX1に対してさまざまな操作を施すことができる。 If the gesture mode is set, various gesture inputs can be performed using the entire monitor screen 102. The user can perform various operations on the code window X1 by touching the selection area 128L2 with the left hand supporting the tablet terminal 100 and drawing a large gesture on the entire monitor screen 102 with the right hand.

以上、実施形態に基づいてタブレット端末100を説明した。
本実施形態のタブレット端末100によれば、コードウィンドウX1および実行ウィンドウX2が重畳表示されているとき、コードウィンドウX1および実行ウィンドウX2の前後関係を入れ替える前面化操作をしなくても、背面側の実行ウィンドウX2にデータ入力できる。
The tablet terminal 100 has been described above based on the embodiment.
According to the tablet terminal 100 of the present embodiment, when the code window X1 and the execution window X2 are superimposed and displayed, the back side of the code window X1 and the execution window X2 does not need to be fronted to switch the context. Data can be entered in the execution window X2.

従来、コードウィンドウX1を前面、実行ウィンドウX2を背面に階層表示しているとき、実行ウィンドウX2にデータ入力するためには実行ウィンドウX2を前面化する操作が必要だった。前面化操作により、実行ウィンドウX2が前面に移行し、コードウィンドウX1が背面に移行する。前面化のためには、タッチパネルやマウスなどのデバイスを「押して離す」という作業が必要だった。マウスであれば、コードウィンドウX1の「閉じるボタン」あるいは「縮小ボタン」をクリックするという操作が必要である。この場合、マウスポインターを「閉じるボタン」等の位置に移動させ、マウスの左ボタンを押し、手を離すという一連の作業が必要となる。前面化操作に際して、ユーザは「前面にある邪魔なコードウィンドウX1を排除することで背面にある実行ウィンドウX2を前面に移動させる」というレイヤー入替作業を意識する。前面化操作によりウィンドウのレイヤーを入れ替えるという点においては、ショートカットキーによる作業の場合も同様である。 Conventionally, when the code window X1 is displayed hierarchically on the front side and the execution window X2 is displayed on the back side, it is necessary to bring the execution window X2 to the front side in order to input data to the execution window X2. By the frontal operation, the execution window X2 is moved to the front side, and the code window X1 is moved to the back side. In order to bring it to the front, it was necessary to "push and release" devices such as touch panels and mice. If it is a mouse, it is necessary to click the "close button" or the "reduce button" of the code window X1. In this case, it is necessary to move the mouse pointer to a position such as a "close button", press the left mouse button, and release the hand. At the time of the front operation, the user is aware of the layer replacement work of "moving the execution window X2 on the back to the front by eliminating the obstructive code window X1 on the front". The same applies to the work using shortcut keys in that the layers of the window are replaced by the fronting operation.

一方、本実施形態におけるタブレット端末100においては、ユーザは対象化選択領域162をタッチするだけで実行ウィンドウX2を対象化できる。ユーザは、たとえば、タブレット端末100を握る左手で対象化選択領域162を触りつつ、右手で背面の実行ウィンドウX2にデータ入力できる。コードウィンドウX1にデータ入力したいときには対象化選択領域162から指を離すだけでよい。左手でフォーカスウィンドウを選びつつ、右手でデータ入力する方式のため、ユーザにとってはフォーカスウィンドウの変更時にも中断の感覚をもたずに作業を継続しやすい。特に、コードウィンドウX1および実行ウィンドウX2を頻繁に行き来しながら作業する場合、ユーザは空いている手で対象化選択領域162のタッチ・デタッチを繰り返すだけでよいのでフォーカスウィンドウの変更にともなう操作性が格段に向上する。 On the other hand, in the tablet terminal 100 of the present embodiment, the user can target the execution window X2 simply by touching the targeting selection area 162. For example, the user can input data into the execution window X2 on the back surface with the right hand while touching the targeting selection area 162 with the left hand holding the tablet terminal 100. When you want to input data to the code window X1, you only have to take your finger off the targeting selection area 162. Since the data is input with the right hand while selecting the focus window with the left hand, it is easy for the user to continue the work without feeling interruption even when the focus window is changed. In particular, when working while frequently going back and forth between the code window X1 and the execution window X2, the user only has to repeatedly touch and detach the target selection area 162 with his / her free hand, so that the operability associated with the change of the focus window is improved. It will improve dramatically.

また、フォーカスウィンドウの変更に際し、コードウィンドウX1および実行ウィンドウX2の前後関係は維持されているため、ユーザはレイヤー構造の変化を意識する必要がない。いいかえれば、多数のウィンドウがあるときにフォーカスウィンドウを次々に切り替えたとしても「どのウィンドウがどのレイヤーに移動しているか」を気にする必要がない。本実施形態においては、更に、対象化選択領域162がタッチされたときにコードウィンドウX1を非表示にすることで実行ウィンドウX2(フォーカスウィンドウ)の視認性を高めている。 Further, when the focus window is changed, the context of the code window X1 and the execution window X2 is maintained, so that the user does not need to be aware of the change in the layer structure. In other words, you don't have to worry about "which window is moving to which layer" even if you switch the focus windows one after another when there are many windows. In the present embodiment, the visibility of the execution window X2 (focus window) is further enhanced by hiding the code window X1 when the targeting selection area 162 is touched.

通常モードにおいては、コードウィンドウX1は半透明表示されるため、コードウィンドウX1および実行ウィンドウX2を同時に視認できる。コードウィンドウX1および実行ウィンドウX2を並置させたり、実行ウィンドウX2を確認するためにコードウィンドウX1を移動させたり、閉じる必要がない。 In the normal mode, since the code window X1 is displayed semi-transparently, the code window X1 and the execution window X2 can be visually recognized at the same time. There is no need to juxtapose the code window X1 and the execution window X2, move or close the code window X1 to see the execution window X2.

ユーザが選択領域166等をタッチしつづけるとき、説明領域142が表示される。機能判定領域M1は見えなくても、ユーザはモニタ画面102の端部付近をタッチすることで機能選択入力ができることを理解している。モニタ画面102の端部をタッチしつづければ説明領域142が表示されるので、ユーザはどこをタッチすればどのような機能選択入力ができるのかを簡単に理解できる。 When the user keeps touching the selected area 166 and the like, the explanation area 142 is displayed. Even if the function determination area M1 is not visible, the user understands that the function selection input can be performed by touching the vicinity of the end of the monitor screen 102. Since the explanation area 142 is displayed by continuously touching the end of the monitor screen 102, the user can easily understand what kind of function selection input can be performed by touching where.

その他のユーザ補助として、表示更新部122は、利用可能な選択領域あるいは各選択領域の役割を示す情報を表示してもよい。この情報表示は、選択領域それぞれが光り、その機能名とともに表示されてもよい。たとえば、ユーザがある機能選択入力をしたあと次の入力を行うことなく一定時間が経過したとき、いいかえれば、説明領域142の出現から更に所定時間が経過したとき、表示更新部122はこのような補助機能を有効化してもよい。 As another accessibility, the display update unit 122 may display information indicating available selection areas or the role of each selection area. In this information display, each of the selected areas may be illuminated and displayed together with the function name thereof. For example, when a certain time elapses without inputting the next function after the user inputs a certain function, in other words, when a predetermined time elapses from the appearance of the explanation area 142, the display update unit 122 has such a function. Auxiliary functions may be enabled.

ユーザは、ジェスチャー有効化領域164(選択領域128L2,128R2)をタッチすることでジェスチャー領域G1を有効化できる。ジェスチャー領域G1が有効化されると、ユーザはモニタ画面102いっぱいに指を動かしながらさまざまなジェスチャー入力が可能となる。モニタ画面102を大きくつかってジェスチャー入力ができるため、モニタ画面102が小さいときでも高い操作性を実現できる。また、ジェスチャー入力とデータ入力がジェスチャー有効化領域164のタッチ・デタッチによって切り替えられるため、ジェスチャー入力をしているときに誤ってデータ入力がなされることがない。同様にして、データ入力のための操作をジェスチャー入力と誤認識されることがない。 The user can activate the gesture area G1 by touching the gesture activation area 164 (selection area 128L2, 128R2). When the gesture area G1 is enabled, the user can input various gestures while moving his / her finger to fill the monitor screen 102. Since the monitor screen 102 can be used extensively for gesture input, high operability can be realized even when the monitor screen 102 is small. Further, since the gesture input and the data input are switched by the touch / detach of the gesture activation area 164, the data input is not erroneously performed during the gesture input. Similarly, the operation for data input is not mistakenly recognized as gesture input.

以上のように、本実施形態によれば、たとえば、右利きのユーザであれば、右利きによってデータ入力作業を行い、空いている左手をつかってモードを適宜変更できる。 As described above, according to the present embodiment, for example, a right-handed user can perform data input work by right-handedness and appropriately change the mode by using his / her free left hand.

なお、本発明は上記実施形態や変形例に限定されるものではなく、要旨を逸脱しない範囲で構成要素を変形して具体化することができる。上記実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成してもよい。また、上記実施形態や変形例に示される全構成要素からいくつかの構成要素を削除してもよい。 The present invention is not limited to the above-described embodiment or modification, and the components can be modified and embodied within a range that does not deviate from the gist. Various inventions may be formed by appropriately combining a plurality of components disclosed in the above embodiments and modifications. In addition, some components may be deleted from all the components shown in the above embodiments and modifications.

1台のタブレット端末100により学習ソフトウェアが実行されるとして説明したが、学習ソフトウェアあるいはタブレット端末100の機能の一部はサーバなどの他の装置により実現されてもよい。 Although it has been described that the learning software is executed by one tablet terminal 100, a part of the functions of the learning software or the tablet terminal 100 may be realized by another device such as a server.

[変形例]
図18は、3以上のウィンドウのフォーカスコントロールを説明するための概念図である。
図18においては、機能判定領域M1、ジェスチャー領域G1のほかに4つのウィンドウW1〜W4により6つのレイヤーが構成される。機能判定領域M1の左上部にはジェスチャー有効化領域164が設定され、下辺部にはW1選択領域150、W2選択領域152、W3選択領域154および選W4選択領域156の4つの対象化選択領域162が設定される。ジェスチャー有効化領域164をタッチしたときにはジェスチャー領域G1が有効化される。
[Modification example]
FIG. 18 is a conceptual diagram for explaining the focus control of three or more windows.
In FIG. 18, six layers are formed by four windows W1 to W4 in addition to the function determination area M1 and the gesture area G1. A gesture activation area 164 is set in the upper left part of the function determination area M1, and four targeting selection areas 162 of W1 selection area 150, W2 selection area 152, W3 selection area 154 and selection W4 selection area 156 are set in the lower side part. Is set. When the gesture activation area 164 is touched, the gesture area G1 is activated.

W1選択領域150にはウィンドウW1、W2選択領域152にはウィンドウW2、W3選択領域154にはウィンドウW3、W4選択領域156にはウィンドウW4が対応づけられる。ユーザは、W1選択領域150をタッチしたときにはウィンドウW1をフォーカスウィンドウに設定できる。同様にして、ユーザはW2選択領域152をタッチしたときにはウィンドウW2をフォーカスウィンドウに設定できる。W3選択領域154、W4選択領域156についても同様である。 The W1 selection area 150 is associated with the window W1, the W2 selection area 152 is associated with the window W2, the W3 selection area 154 is associated with the window W3, and the W4 selection area 156 is associated with the window W4. The user can set the window W1 as the focus window when the W1 selection area 150 is touched. Similarly, the user can set the window W2 as the focus window when the W2 selection area 152 is touched. The same applies to the W3 selection area 154 and the W4 selection area 156.

レイヤー管理部124は、ターゲットウィンドウが変更されてもレイヤーの変更を行わない。このため、ウィンドウW1〜W4の前後関係は維持される。たとえば、ウィンドウW1はウェブ画面、ウィンドウW2は文章作成ソフトウェアによる編集画面、ウィンドウW3は図形編集ソフトウェアの編集画面、ウィンドウW4は表計算ソフトウェアの編集画面であるとする。ユーザは、4つのソフトウェアを随時切り替えながら作業をする場合には、対象化選択領域162によってフォーカスウィンドウを随時切り替えればよい。レイヤーの前後関係が変更されないため、複数のウィンドウがあるときでも所望のウィンドウがどのレイヤーにあるかを気にする必要がない。 The layer management unit 124 does not change the layer even if the target window is changed. Therefore, the context of windows W1 to W4 is maintained. For example, it is assumed that window W1 is a web screen, window W2 is an editing screen by text creation software, window W3 is an editing screen of graphic editing software, and window W4 is an editing screen of table calculation software. When the user works while switching the four softwares at any time, the focus window may be switched at any time by the targeting selection area 162. Since the context of layers is not changed, you don't have to worry about which layer the desired window is on, even when there are multiple windows.

なお、ウィンドウW1〜W4のうち、選択されたウィンドウが前面側にあるいずれかのウィンドウによってその一部または全部が遮蔽されていることを条件として、選択されたウィンドウをフォーカスウィンドウに設定するとしてもよい。いいかえれば、前面が遮蔽されていないときには機能選択入力によるフォーカス変更を無効として扱うとしてもよい。たとえば、W3選択領域154によりウィンドウW3が選択されたとする。前面側にあるウィンドウW1またはウィンドウW2によりウィンドウW3の一部が遮蔽されているときにはレイヤー管理部124はウィンドウW3をフォーカスウィンドウに設定する。一方、ウィンドウW1およびウィンドウW2の双方が閉じられているなどの理由によりウィンドウW3の前面が遮蔽されていないときには、W3選択領域154がタッチされてもウィンドウW3をフォーカスウィンドウに設定変更しないとしてもよい。 Even if the selected window is set as the focus window on the condition that a part or all of the selected window is shielded by any of the windows on the front side among the windows W1 to W4. good. In other words, when the front surface is not shielded, the focus change by the function selection input may be treated as invalid. For example, suppose window W3 is selected by the W3 selection area 154. When a part of the window W3 is shielded by the window W1 or the window W2 on the front side, the layer management unit 124 sets the window W3 as the focus window. On the other hand, when the front surface of the window W3 is not shielded because both the window W1 and the window W2 are closed, the setting of the window W3 may not be changed to the focus window even if the W3 selection area 154 is touched. ..

本実施形態においては、コードウィンドウX1を半透明表示させ、コードウィンドウX1と実行ウィンドウX2を同時に視認できるとして説明した。変形例として、コードウィンドウX1を通常表示(不透明表示)させてもよい。 In the present embodiment, the code window X1 is displayed semi-transparently, and the code window X1 and the execution window X2 can be visually recognized at the same time. As a modification, the code window X1 may be displayed normally (opaquely displayed).

本実施形態においては、選択領域166を機能判定領域M1(モニタ画面102)の四隅に配置するとして説明した。変形例として、複数の選択領域166を機能判定領域M1の左辺部分に配列してもよいし、底辺部分に配列してもよい。このほか、上辺、右辺など、選択領域166の配置は任意に設定可能である。 In the present embodiment, it has been described that the selection area 166 is arranged at the four corners of the function determination area M1 (monitor screen 102). As a modification, a plurality of selection areas 166 may be arranged on the left side portion of the function determination region M1 or may be arranged on the bottom side portion. In addition, the arrangement of the selection area 166 such as the upper side and the right side can be arbitrarily set.

本実施形態においては、学習ソフトウェアをタブレット端末100において実行するとして説明したが、この学習ソフトウェアは、スマートフォンやラップトップPCなどの他のモバイルコンピュータにおいて実行されてもよい。同様にして、デスクトップPCなどの据置型のコンピュータにおいて学習ソフトウェアを実行してもよい。 In the present embodiment, the learning software has been described as being executed on the tablet terminal 100, but the learning software may be executed on another mobile computer such as a smartphone or a laptop PC. Similarly, the learning software may be executed on a stationary computer such as a desktop PC.

本実施形態においては、通常モードではコードウィンドウX1をフォーカスウィンドウに設定するとして説明した。変形例として、通常モードでは背面側の実行ウィンドウX2をフォーカスウィンドウに設定し、特殊モードのときに前面側のコードウィンドウX1をフォーカスウィンドウに設定変更するとしてもよい。 In the present embodiment, it has been described that the code window X1 is set as the focus window in the normal mode. As a modification, the execution window X2 on the back side may be set as the focus window in the normal mode, and the code window X1 on the front side may be set as the focus window in the special mode.

貫通モードへの変更は、対象化選択領域162へのタッチ以外の方法も考えられる。たとえば、マウスのダブルクリックや、キーボードにおける所定のキーが押されたときに貫通モードに変更してもよい。このほか、音声入力により貫通モードに変更してもよいし、ユーザがモニタ画面102の所定領域に視線を合わせたときに貫通モードに変更するとしてもよい。ペダルのような足用のデバイスをつかって貫通モードへの変更がなされてもよい。同様にして、タッチのほか、マウス、キーボード、音声等によりデータ入力がなされてもよい。 The change to the penetration mode may be a method other than touching the targeting selection area 162. For example, you may change to penetration mode when you double-click the mouse or press a certain key on the keyboard. In addition, the penetrating mode may be changed by voice input, or may be changed to the penetrating mode when the user focuses his / her line of sight on a predetermined area of the monitor screen 102. A change to penetration mode may be made using a foot device such as a pedal. Similarly, in addition to touch, data may be input by a mouse, keyboard, voice, or the like.

本実施形態においては、対象化選択領域162のタッチが継続している期間だけ貫通モードに設定されるとして説明した。変形例として、対象化選択領域162がタッチされてから所定の有効期間、たとえば、3秒間は、レイヤー管理部124は貫通モードを継続させるとしてもよい。有効期間中に貫通入力がなされれば、有効期間は更に3秒間延長されるとしてもよい。無入力が3秒間続いたとき、レイヤー管理部124は、貫通モードから通常モードに戻すとしてもよい。 In the present embodiment, it has been described that the penetration mode is set only for the period during which the touch of the targeting selection area 162 continues. As a modification, the layer management unit 124 may continue the penetration mode for a predetermined valid period, for example, 3 seconds after the targeting selection area 162 is touched. If the penetration input is made during the validity period, the validity period may be further extended for 3 seconds. When no input continues for 3 seconds, the layer management unit 124 may return from the penetration mode to the normal mode.

本実施形態においては前面にあるコードウィンドウX1を半透明表示させるとして説明した。変形例として、表示更新部122は、コードウィンドウX1を通常表示(不透明表示)としてもよい。表示更新部122は、コードウィンドウX1と実行ウィンドウX2が重なることを条件として、コードウィンドウX1を半透明表示または透明表示に変更してもよい。あるいは、コードウィンドウX1と実行ウィンドウX2が重なるとき、表示更新部122はコードウィンドウX1の重畳領域のみを半透明表示または透明表示に設定してもよい。 In the present embodiment, it has been described that the code window X1 on the front surface is displayed semi-transparently. As a modification, the display update unit 122 may display the code window X1 as a normal display (opaque display). The display update unit 122 may change the code window X1 to a semi-transparent display or a transparent display on condition that the code window X1 and the execution window X2 overlap. Alternatively, when the code window X1 and the execution window X2 overlap, the display update unit 122 may set only the superposed area of the code window X1 to semi-transparent display or transparent display.

本実施形態においては、レイヤー管理部124は、コードウィンドウX1および実行ウィンドウX2の前後関係を入れ替えないとして説明した。変形例として、レイヤー管理部124は、コードウィンドウX1および実行ウィンドウX2の前後関係を条件付きで入れ替えてもよい。実行ウィンドウX2の露出領域、いいかえれば、実行ウィンドウX2のうちコードウィンドウX1によって遮蔽されていない領域を対象としてデータ入力操作がなされたときには、レイヤー管理部124は実行ウィンドウX2とコードウィンドウX1の前後関係を入れ替えるとしてもよい。たとえば、図11の点P1(露出領域134)をタッチしたときには、レイヤー管理部124は実行ウィンドウX2をコードウィンドウX1の前面に表示させ、実行ウィンドウX2をフォーカスウィンドウに設定してもよい。 In the present embodiment, the layer management unit 124 has described that the contexts of the code window X1 and the execution window X2 are not interchanged. As a modification, the layer management unit 124 may conditionally replace the context of the code window X1 and the execution window X2. When a data input operation is performed on the exposed area of the execution window X2, in other words, the area of the execution window X2 that is not blocked by the code window X1, the layer management unit 124 has a context of the execution window X2 and the code window X1. May be replaced. For example, when the point P1 (exposed area 134) in FIG. 11 is touched, the layer management unit 124 may display the execution window X2 in front of the code window X1 and set the execution window X2 as the focus window.

貫通モードにおいて、ユーザが露出領域134の点P1をタッチしたときには、レイヤー管理部124はコードウィンドウX1と実行ウィンドウX2の前後関係をそのまま維持するとしてもよい。実行ウィンドウX2(背面)の露出領域134をタッチしたとき、貫通モードであれば前後関係を維持し、通常モードであれば実行ウィンドウX2を前面に移動させるとしてもよい。 In the penetration mode, when the user touches the point P1 of the exposed area 134, the layer management unit 124 may maintain the context of the code window X1 and the execution window X2 as they are. When the exposed area 134 of the execution window X2 (rear surface) is touched, the context may be maintained in the penetration mode, and the execution window X2 may be moved to the front in the normal mode.

本実施形態においては、貫通モードが設定されるときには半透明のコードウィンドウX1を非表示化(完全透明化)するとして説明した。変形例として、コードウィンドウX1および実行ウィンドウX2はどちらも通常表示されてもよい。そして、貫通モードが設定されたときには、表示更新部122はコードウィンドウX1の透明度を上昇させることにより、実行ウィンドウX2(フォーカスウィンドウ)の視認性を高めてもよい。 In the present embodiment, it has been described that the translucent code window X1 is hidden (completely transparent) when the penetration mode is set. As a modification, both the code window X1 and the execution window X2 may be normally displayed. Then, when the penetration mode is set, the display update unit 122 may increase the visibility of the execution window X2 (focus window) by increasing the transparency of the code window X1.

また、貫通モードに設定されたときには実行ウィンドウX2の透明度を低下させてもよい。たとえば、コードウィンドウX1および実行ウィンドウX2のどちらもが半透明表示されているとする。貫通モードが選択されたときには、フォーカスウィンドウとなる実行ウィンドウX2の透明度を低下させることにより、実行ウィンドウX2(フォーカスウィンドウ)の視認性を高めてもよい。 Further, when the penetration mode is set, the transparency of the execution window X2 may be lowered. For example, assume that both the code window X1 and the execution window X2 are translucently displayed. When the penetration mode is selected, the visibility of the execution window X2 (focus window) may be improved by reducing the transparency of the execution window X2 which is the focus window.

図18に示したように3以上のウィンドウを備える場合も同様である。一例として、ウィンドウW1〜W4をいずれも半透明表示しておく。ユーザが、ウィンドウW2を対象化したときには、ウィンドウW2の透明度を低下させれば、ユーザはウィンドウW2がフォーカスウィンドウであることを認識しやすくなる。このとき、前面にあるウィンドウW1の透明度を上昇させてもよい。 The same applies to the case where three or more windows are provided as shown in FIG. As an example, windows W1 to W4 are all displayed semi-transparently. When the user targets the window W2, if the transparency of the window W2 is reduced, the user can easily recognize that the window W2 is the focus window. At this time, the transparency of the window W1 on the front surface may be increased.

背面側のウィンドウはボタン等の入力インタフェースを備えるウィンドウ、たとえば、ダイアログボックスやソフトウェアキーボードであってもよい。ユーザは、ダイアログボックスを操作したいときには対象化選択領域162(選択領域128L1,128R1)をタッチすればよい。このときには、背面にある操作卓としてのウィンドウを貫通入力により操作し、そのあとに、前面側にあるメインのウィンドウに戻って通常入力によりこれを操作してもよい。 The window on the back side may be a window having an input interface such as a button, for example, a dialog box or a software keyboard. When the user wants to operate the dialog box, he / she may touch the targeting selection area 162 (selection area 128L1, 128R1). At this time, the window as the operation console on the back side may be operated by penetrating input, and then the main window on the front side may be returned and operated by normal input.

本実施形態においては対象化選択領域162をタッチすることによって貫通モードに移行し、その状態でデータ入力のための操作をするとして説明した。変形例として、データ入力のための操作をするときの設定に応じて、コードウィンドウX1および実行ウィンドウX2のいずれをフォーカスウィンドウとするかを動的に選択してもよい。 In the present embodiment, it has been described that the targeting selection area 162 is touched to shift to the penetration mode, and the operation for data input is performed in that state. As a modification, it is possible to dynamically select which of the code window X1 and the execution window X2 is to be the focus window according to the setting when performing the operation for data input.

一例として、タッチパネルは、タッチ圧を検出する機能を備えてもよい。この場合、レイヤー管理部124は、軽くタッチされたときはコードウィンドウX1をフォーカスウィンドウとして設定し、強くタッチされたときには実行ウィンドウX2をフォーカスウィンドウに設定してもよい。また、操作検出部110は、タッチされた指の面積により、どの指でタッチされているかを検出してもよい。たとえば、人差し指でタッチしたときにはコードウィンドウX1がフォーカスウィンドウとなり、小指でタッチしたときには実行ウィンドウX2がフォーカスウィンドウに設定されるとしてもよい。 As an example, the touch panel may have a function of detecting the touch pressure. In this case, the layer management unit 124 may set the code window X1 as the focus window when it is lightly touched, and may set the execution window X2 as the focus window when it is strongly touched. Further, the operation detection unit 110 may detect which finger is touched by the area of the touched finger. For example, the code window X1 may be set as the focus window when touched with the index finger, and the execution window X2 may be set as the focus window when touched with the little finger.

操作検出部110は、静電容量の違いにより、指とスタイラスペンのタッチを区別してもよい。この場合には、指でタッチされたときにはコードウィンドウX1がフォーカスウィンドウに設定され、スタイラスペンでタッチしたときには実行ウィンドウX2をフォーカスウィンドウに設定するとしてもよい。 The operation detection unit 110 may distinguish between the touch of the finger and the touch of the stylus pen depending on the difference in capacitance. In this case, the code window X1 may be set as the focus window when touched with a finger, and the execution window X2 may be set as the focus window when touched with the stylus pen.

スタイラスペンを複数種類用意し、操作検出部110はそれぞれを識別してもよい。複数のスタイラスペンそれぞれにウィンドウを対応づける。この場合には、複数のスタイラスペンを使い分けることで複数のウィンドウに対して、データ入力が可能となる。たとえば、下塗りのウィンドウ、素描のウィンドウ、荒描きのためのウィンドウ、仕上げのウィンドウを重ねて油絵のように絵を描くソフトウェアが考えられる。この場合には、ユーザはスタイラスペン(筆の種類)を取替えながら、半透明の4つのウィンドウを同時に操作してもよい。そして、4つの半透明のウィンドウを重ねることで絵を完成させてもよい。 A plurality of types of stylus pens may be prepared, and the operation detection unit 110 may identify each of them. Associate a window with each of multiple stylus pens. In this case, data can be input to a plurality of windows by using a plurality of stylus pens properly. For example, software that draws a picture like an oil painting by overlaying an undercoat window, a drawing window, a rough drawing window, and a finishing window can be considered. In this case, the user may operate the four translucent windows at the same time while exchanging the stylus pen (type of brush). Then, the picture may be completed by superimposing four translucent windows.

貫通モード中にジェスチャー入力を可能としてもよい。たとえば、ユーザが対象化選択領域162のみをタッチしているときにはコードウィンドウX1がジェスチャー入力の対象となる。一方、ユーザが対象化選択領域162およびジェスチャー有効化領域164を同時にタッチしているときには、ユーザによるジェスチャー入力により実行ウィンドウX2を操作できるとしてもよい。 Gesture input may be possible during the penetration mode. For example, when the user is touching only the targeting selection area 162, the code window X1 is the target of the gesture input. On the other hand, when the user is touching the targeting selection area 162 and the gesture activation area 164 at the same time, the execution window X2 may be operated by the gesture input by the user.

学習ソフトウェア以外にも、本実施形態において示した貫通入力は利用可能である。たとえば、コンピュータゲームにおいて2種類のウィンドウを用意する。1つはゲームフィールドのウィンドウであり、その背面に装備を選ぶメニューウィンドウを用意する。この場合には、ユーザは、前面側のウィンドウを操作対象としつつ、必要に応じて貫通入力によりメニューウィンドウを操作してもよい。また、複数のゲームフィールドに対応して複数のウィンドウを用意してもよい。前面のゲームフィールドと背面のゲームフィールドにおいてゲームを同時進行させ、ユーザは2つのウィンドウのフォーカスを切り替えながらゲームを進めてもよい。 In addition to the learning software, the penetration input shown in this embodiment can be used. For example, in a computer game, two types of windows are prepared. One is the game field window, and a menu window for selecting equipment is prepared on the back of the window. In this case, the user may operate the menu window by penetrating input as necessary while targeting the window on the front side. Further, a plurality of windows may be prepared corresponding to a plurality of game fields. The game may be played simultaneously in the front game field and the back game field, and the user may play the game while switching the focus of the two windows.

SNS(Social Networking Service)ソフトウェアなどでは、チャット画面の入力中にポップアップ画面が表示され、チャット画面へのデータ入力がポップアップ画面への誤入力と認識されてしまうことがある。このための対策として、通常モードにおいては、チャット画面をフォーカスウィンドウとしてもよい。チャット画面の前面にポップアップ画面が表示されても、背面側のチャット画面がフォーカスウィンドウのままなのでチャット中にポップアップ画面への入力がなされるのを防ぐことができる。ユーザは、ポップアップ画面への入力に変更したいときには選択領域166にタッチしてポップアップ画面をフォーカスウィンドウに設定すればよい。この場合にも、ポップアップ画面とチャット画面の前後関係を維持される。このような制御方法によれば、ユーザはチャット画面に入力しているつもりなのに突然あらわれたポップアップ画面への入力と解釈されてしまうのを防ぐことができる。 In SNS (Social Networking Service) software or the like, a pop-up screen is displayed while inputting a chat screen, and data input on the chat screen may be recognized as an erroneous input on the pop-up screen. As a countermeasure for this, the chat screen may be used as the focus window in the normal mode. Even if the pop-up screen is displayed in front of the chat screen, the chat screen on the back side remains the focus window, so it is possible to prevent input to the pop-up screen during chat. When the user wants to change the input to the pop-up screen, he / she may touch the selection area 166 to set the pop-up screen as the focus window. In this case as well, the context of the pop-up screen and the chat screen is maintained. According to such a control method, it is possible to prevent the user from being interpreted as input to the pop-up screen that suddenly appears even though the user intends to input to the chat screen.

100 タブレット端末、102 モニタ画面、104 ユーザインタフェース処理部、106 データ処理部、108 データ格納部、110 操作検出部、112 出力部、114 機能入力部、116 ジェスチャー入力部、118 データ入力部、120 表示制御部、122 表示更新部、124 レイヤー管理部、126 通信部、128L1 選択領域、128L2 選択領域、128R1 選択領域、128R2 選択領域、132 重畳領域、134 露出領域、135 始点ボタン、136 コードメニュー、138 円描画ボタン、140 円、142 説明領域、150 W1選択領域、152 W2選択領域、154 W3選択領域、156 W4選択領域、162 対象化選択領域、164 ジェスチャー有効化領域、166 選択領域、300 プロセッサ、302 第1バス、304 メモリ、308 ブリッジ、310 第2バス、312 ストレージ、314 入力デバイス、316 出力デバイス、318 周辺機器、G1 ジェスチャー領域、M1 機能判定領域、X1 コードウィンドウ、X2 実行ウィンドウ 100 tablet terminal, 102 monitor screen, 104 user interface processing unit, 106 data processing unit, 108 data storage unit, 110 operation detection unit, 112 output unit, 114 function input unit, 116 gesture input unit, 118 data input unit, 120 display Control unit, 122 display update unit, 124 layer management unit, 126 communication unit, 128L1 selection area, 128L2 selection area, 128R1 selection area, 128R2 selection area, 132 superimposition area, 134 exposed area, 135 start point button, 136 code menu, 138 Circle drawing button, 140 yen, 142 description area, 150 W1 selection area, 152 W2 selection area, 154 W3 selection area, 156 W4 selection area, 162 target selection area, 164 gesture activation area, 166 selection area, 300 processors, 302 1st bus, 304 memory, 308 bridge, 310 2nd bus, 312 storage, 314 input device, 316 output device, 318 peripheral device, G1 gesture area, M1 function judgment area, X1 code window, X2 execution window

Claims (14)

第1画像を表示対象とする第1領域を前面に配置し、第2画像を表示対象とする第2領域を前記第1領域の背面に配置する表示制御部と、
前記第2領域を指定する第1操作と、ユーザからデータ入力のための第2操作を検出する操作検出部と、を備え、
前記表示制御部は、前記第1操作の検出後に前記第2操作が検出されたときには、前記第1領域を前記第2領域よりも前面に維持したまま、前記第2操作に基づいて前記第2画像を変化させることを特徴とする情報処理装置。
A display control unit that arranges the first area for displaying the first image on the front side and arranges the second area for displaying the second image on the back side of the first area.
A first operation for designating the second area and an operation detection unit for detecting a second operation for data input from the user are provided.
When the second operation is detected after the detection of the first operation, the display control unit keeps the first region in front of the second region and based on the second operation, the second operation. An information processing device characterized by changing an image.
前記表示制御部は、前記第1操作の検出後、前記第1領域および前記第2領域の重畳領域内において前記第2操作が検出された場合、前記第2操作を前記第2領域に対するデータ入力と判定することを特徴とする請求項1に記載の情報処理装置。 After the detection of the first operation, when the second operation is detected in the overlapping region of the first region and the second region, the display control unit inputs the second operation to the second region. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined to be. 前記表示制御部は、前記第1操作の検出後に前記第2操作が検出されたときには、前記第2操作に基づいて前記第2画像を変化させ、更に、前記第2画像の変化に応じて前記第1画像を変化させることにより、前記第1画像および前記第2画像の双方の変化を視認可能に表示させることを特徴とする請求項1または2に記載の情報処理装置。 When the second operation is detected after the detection of the first operation, the display control unit changes the second image based on the second operation, and further, the display control unit changes the second image according to the change of the second image. The information processing apparatus according to claim 1 or 2, wherein changes in both the first image and the second image are visually displayed by changing the first image. 前記表示制御部は、前記第2領域のうち、前記第1領域が重畳されていない露出領域内において前記第2操作が検出されたときには、前記第2領域を前記第1領域よりも前面に表示変更することを特徴とする請求項1から3のいずれかに記載の情報処理装置。 When the second operation is detected in the exposed region where the first region is not superimposed on the second region, the display control unit displays the second region in front of the first region. The information processing apparatus according to any one of claims 1 to 3, wherein the information processing apparatus is changed. 前記表示制御部は、前記第1操作の検出後に前記露出領域において前記第2操作が検出されたときには、前記第1領域および前記第2領域の前後関係を維持することを特徴とする請求項4に記載の情報処理装置。 4. The display control unit maintains the context of the first region and the second region when the second operation is detected in the exposed region after the detection of the first operation. The information processing device described in. 前記表示制御部は、複数の領域を複数の表示層それぞれに設定し、ユーザからの前記第1操作としての選択指示にしたがっていずれかの領域をデータ入力の対象として選択可能に設定することを特徴とする請求項1から5のいずれかに記載の情報処理装置。 The display control unit is characterized in that a plurality of areas are set for each of the plurality of display layers, and any area can be selected as a data input target according to a selection instruction as the first operation from the user. The information processing apparatus according to any one of claims 1 to 5. 前記操作検出部は、画面上に形成される複数の選択領域のいずれかにおいてユーザからのタッチが検出されたとき、前記タッチを前記第1操作として検出し、
前記表示制御部は、前記第1操作の対象となる選択領域に対応づけられる領域をデータ入力の対象となる領域として設定することを特徴とする請求項6に記載の情報処理装置。
When a touch from the user is detected in any of a plurality of selection areas formed on the screen, the operation detection unit detects the touch as the first operation.
The information processing device according to claim 6, wherein the display control unit sets an area associated with the selection area to be the target of the first operation as an area to be the target of data input.
前記表示制御部は、前記選択指示された領域の全部または一部が前面の領域によって遮蔽されていることを条件として、前記選択指示された領域をデータ入力の対象となる領域として設定することを特徴とする請求項6または7に記載の情報処理装置。 The display control unit sets the selected area as a target area for data input on the condition that all or a part of the selected area is shielded by the front area. The information processing apparatus according to claim 6 or 7. 前記表示制御部は、前記第1操作が検出されたとき、更に、前記第1領域の透明度を上昇させることを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the display control unit further increases the transparency of the first region when the first operation is detected. 前記表示制御部は、前記第1操作が検出されたとき、更に、前記第2領域の透明度を低下させることを特徴とする請求項1または9に記載の情報処理装置。 The information processing device according to claim 1 or 9, wherein the display control unit further reduces the transparency of the second region when the first operation is detected. 前記表示制御部は、前記第1操作の継続中に前記第2操作が検出されたとき、前記第2操作にしたがって前記第2画像を変化させ、前記第1操作が終了したとき前記第2操作にしたがって前記第1画像を変化させることを特徴とする請求項1に記載の情報処理装置。 When the second operation is detected during the continuation of the first operation, the display control unit changes the second image according to the second operation, and when the first operation is completed, the second operation The information processing apparatus according to claim 1, wherein the first image is changed according to the above. 第1領域を配置し、第2領域を前記第1領域の背面に配置する表示制御部と、
ユーザからデータ入力のための第2操作を検出する操作検出部と、を備え、
前記表示制御部は、前記第1領域および前記第2領域の重複領域において前記第2操作が検出されたとき、前記第1領域および前記第2領域それぞれの表示状態を維持したまま、検出時の設定に応じて、前記第1領域または前記第2領域のいずれかを前記第2操作によるデータ入力の対象となる画像領域として選択すること特徴とする情報処理装置。
A display control unit that arranges the first area and arranges the second area on the back surface of the first area.
It is equipped with an operation detection unit that detects a second operation for data input from the user.
When the second operation is detected in the overlapping region of the first region and the second region, the display control unit at the time of detection while maintaining the display state of each of the first region and the second region. An information processing apparatus characterized in that either the first region or the second region is selected as an image region to be input by the second operation according to a setting.
第1画像を表示対象とする第1領域を配置する機能と、
第2画像を表示対象とする第2領域を前記第1領域の背面に配置する機能と、
前記第2領域を指定する第1操作を検出する機能と、
ユーザからデータ入力のための第2操作を検出する機能と、
前記第1操作の検出後に前記第2操作が検出されたときには、前記第1領域を前記第2領域よりも前面に維持したまま、前記第2操作に基づいて前記第2画像を変化させる機能と、をコンピュータに発揮させることを特徴とするコンピュータプログラム。
The function of arranging the first area for displaying the first image and
A function of arranging a second area for displaying a second image on the back surface of the first area, and
A function to detect the first operation that specifies the second area, and
A function to detect the second operation for data entry from the user,
When the second operation is detected after the detection of the first operation, the function of changing the second image based on the second operation while maintaining the first region in front of the second region. , A computer program characterized by exerting on a computer.
第1画像を表示対象とする第1領域を配置するステップと、
第2画像を表示対象とする第2領域を前記第1領域の背面に配置するステップと、
前記第2領域を指定する第1操作を検出するステップと、
ユーザからデータ入力のための第2操作を検出するステップと、
前記第1操作の検出後に前記第2操作が検出されたときには、前記第1領域を前記第2領域よりも前面に維持したまま、前記第2操作に基づいて前記第2画像を変化させるステップと、を備える情報処理方法。
The step of arranging the first area for displaying the first image and
A step of arranging a second area for displaying the second image on the back surface of the first area, and
A step of detecting the first operation of designating the second region, and
The step of detecting the second operation for data entry from the user,
When the second operation is detected after the detection of the first operation, the step of changing the second image based on the second operation while maintaining the first region in front of the second region. Information processing method including.
JP2020068897A 2020-04-07 2020-04-07 Information processing device, computer program and information processing method Active JP7415168B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020068897A JP7415168B2 (en) 2020-04-07 2020-04-07 Information processing device, computer program and information processing method
JP2023214159A JP2024023730A (en) 2020-04-07 2023-12-19 Information processing device, computer program and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068897A JP7415168B2 (en) 2020-04-07 2020-04-07 Information processing device, computer program and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023214159A Division JP2024023730A (en) 2020-04-07 2023-12-19 Information processing device, computer program and information processing method

Publications (2)

Publication Number Publication Date
JP2021165923A true JP2021165923A (en) 2021-10-14
JP7415168B2 JP7415168B2 (en) 2024-01-17

Family

ID=78022134

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020068897A Active JP7415168B2 (en) 2020-04-07 2020-04-07 Information processing device, computer program and information processing method
JP2023214159A Pending JP2024023730A (en) 2020-04-07 2023-12-19 Information processing device, computer program and information processing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023214159A Pending JP2024023730A (en) 2020-04-07 2023-12-19 Information processing device, computer program and information processing method

Country Status (1)

Country Link
JP (2) JP7415168B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178038A (en) 2002-11-25 2004-06-24 Hitachi Ltd Multi-window gui system

Also Published As

Publication number Publication date
JP7415168B2 (en) 2024-01-17
JP2024023730A (en) 2024-02-21

Similar Documents

Publication Publication Date Title
US9996176B2 (en) Multi-touch uses, gestures, and implementation
US8638315B2 (en) Virtual touch screen system
US10235039B2 (en) Touch enhanced interface
US6741267B1 (en) Keyboard for an electronic writeboard and method
US9454302B2 (en) Information processing apparatus, system and method for controlling display of windows
US20120092253A1 (en) Computer Input and Output Peripheral Device
US7730401B2 (en) Touch screen with user interface enhancement
KR101704549B1 (en) Method and apparatus for providing interface for inpputing character
US20110320978A1 (en) Method and apparatus for touchscreen gesture recognition overlay
US20110047459A1 (en) User interface
US20120218201A1 (en) User-Friendly Process for Interacting with Information Content on Touchscreen Devices
US8723821B2 (en) Electronic apparatus and input control method
CA2252302C (en) Keyboard for an electronic writeboard and method
JP2012203644A (en) Electronic device
JP2007140944A (en) Touch sense device and touch sense method
US20070018963A1 (en) Tablet hot zones
JP7415168B2 (en) Information processing device, computer program and information processing method
KR20160069909A (en) Electronic board device and recording media for thereof
TW202034166A (en) System and method for loop command bar system
Yang Blurring the boundary between direct & indirect mixed mode input environments
JPH09212300A (en) Touch panel type pen input computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7415168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150