JP2016057805A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2016057805A
JP2016057805A JP2014183161A JP2014183161A JP2016057805A JP 2016057805 A JP2016057805 A JP 2016057805A JP 2014183161 A JP2014183161 A JP 2014183161A JP 2014183161 A JP2014183161 A JP 2014183161A JP 2016057805 A JP2016057805 A JP 2016057805A
Authority
JP
Japan
Prior art keywords
windows
window
information processing
touch
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014183161A
Other languages
Japanese (ja)
Other versions
JP6598441B2 (en
Inventor
正治 小新井
Masaharu Koarai
正治 小新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014183161A priority Critical patent/JP6598441B2/en
Publication of JP2016057805A publication Critical patent/JP2016057805A/en
Application granted granted Critical
Publication of JP6598441B2 publication Critical patent/JP6598441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus configured to display a window with an intuitive touch gesture operation, and an information processing method.SOLUTION: A table display unit (10) includes: a display device (20) having a touch input section (22) configured to detect a touch operation on a display object displayed in a display section (21) to enable input; and a control apparatus (30) which controls display thereof. The control apparatus includes: an operation determination section (31) which determines the contents of a gesture operation on the basis of a touch position detected by the touch input section and touch displacement; and an operation processing execution section (32) which connects close sides of windows to join the windows for integration when a gesture operation is performed to move the windows close to each other within a predetermined distance.SELECTED DRAWING: Figure 2

Description

本発明は、テーブルディスプレイなどでジェスチャー操作によりウィンドウに対して処理を行う情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program for performing processing on a window by a gesture operation on a table display or the like.

近年、大画面の表示パネルを有し、複数の使用者が個別に操作可能なテーブディスプレイが登場してきている。必要な資料を表示し、さらに各参加者に表示されているコンテンツを移動したり、コピーしたりする操作がなされる。コンテンツとは表示対象物であり、ウィンドウ、ファイル、画像などである。   In recent years, a table display that has a display panel with a large screen and can be individually operated by a plurality of users has appeared. Necessary materials are displayed, and contents displayed for each participant are moved and copied. Content is a display object, such as a window, a file, or an image.

表示されている複数のコンテンツがある場合、これらを別々に操作するのは面倒であるので、これらを結合させて一つのコンテンツとして操作したほうが操作性がよい。しかし、メニューを表示させて結合処理を選択するなどの処理は、操作が煩雑である。   When there are a plurality of displayed contents, it is troublesome to operate them separately, and it is better to operate them as one content by combining them. However, operations such as displaying a menu and selecting a combination process are complicated.

そこで、特許文献1においては、手書編集コマンドを入力することによって、コンテンツの処理を可能とすることが記載されている。   Therefore, Patent Document 1 describes that content processing can be performed by inputting a handwriting editing command.

また、特許文献2には、マウスやキーボードのカーソル制御キーにより、ウィンドウを移動させる操作を行うことで結合・分離することが記載されている。   Japanese Patent Application Laid-Open No. 2004-228561 describes that the windows are moved and combined by a cursor control key of a mouse or keyboard.

特開平06−89327号公報Japanese Patent Application Laid-Open No. 06-89327 特開2008−9831号公報JP 2008-9831 A

しかしながら、特許文献1では、操作者が手書編集コマンドを覚えていなくてはならず、覚えていない場合は操作に際して手書編集コマンドを確認する必要があり、決して操作性が良いとは言えない面があった。   However, in Patent Document 1, the operator must remember the handwriting editing command. If the operator does not remember the handwriting editing command, it is necessary to confirm the handwriting editing command before the operation, and it cannot be said that the operability is good. There was a face.

また、特許文献2では、マウスやキーボードのカーソル制御キーを使っての操作では、操作者がコマンドなどを記憶している必要はないが、対象のウィンドウを選択する操作をしてから一つずつ操作しなければならず、操作性がよいとは言いがたい。   Further, in Patent Document 2, an operation using a cursor control key of a mouse or a keyboard does not require an operator to store a command or the like, but one by one after performing an operation of selecting a target window. It must be operated and it is hard to say that operability is good.

本発明は、斯かる実情に鑑み、直感的なタッチによるジェスチャー操作によってウィンドウを簡単に結合・分離する表示処理ができる情報処理装置、情報処理方法及びプログラムを提供しようとするものである。   In view of such circumstances, the present invention is intended to provide an information processing apparatus, an information processing method, and a program capable of performing display processing for easily combining and separating windows by intuitive touch gesture operation.

本発明は、表示部に表示されているウィンドウに対して、タッチによる操作を検出して入力を可能とするタッチ入力部を備える表示装置の表示制御処理を行う情報処理装置であって、
前記タッチ入力部で検出したタッチ位置とタッチ移動からジェスチャー操作の内容を判定する操作判定部と、複数のウィンドウを一定距離以内に近接させるジェスチャー操作が行われた場合、ウィンドウの近接する辺を接続してウィンドウを結合し一体化する操作処理実行部と、を備えることを特徴とする。
The present invention is an information processing apparatus that performs display control processing of a display device that includes a touch input unit that detects an operation by touching and allows an input to a window displayed on the display unit,
When an operation determination unit that determines the content of the gesture operation from the touch position and touch movement detected by the touch input unit and a gesture operation that brings a plurality of windows close to each other within a certain distance, the adjacent sides of the window are connected. And an operation processing execution unit that combines and integrates the windows.

また、本発明の情報処理装置において、前記操作処理実行部は、ウィンドウが一定距離に近接する場合に、ウィンドウの近接する辺同士を目立たせる表示を行うことを特徴とする。   In the information processing apparatus according to the present invention, the operation processing execution unit may perform display that makes the adjacent sides of the window stand out when the window is close to a certain distance.

また、本発明の情報処理装置において、前記操作処理実行部は、一体化したウィンドウに対する処理であれば、どの部分に操作されても、一体化したウィンドウ全体への操作とすることを特徴とする。   In the information processing apparatus according to the present invention, the operation processing execution unit may operate the entire integrated window regardless of which part is operated as long as the operation is performed on the integrated window. .

また、本発明の情報処理装置において、前記操作処理実行部は、ウィンドウが結合した場合に、接続する辺に垂直な辺の位置を合わせる処理を行うことを特徴とする。   In the information processing apparatus according to the present invention, the operation processing execution unit performs a process of aligning the position of a side perpendicular to the side to be connected when the windows are combined.

また、本発明の情報処理装置において、前記操作判定部は、一体化したウィンドウの中からタッチ移動するウィンドウを分離させるジェスチャー操作しているかを判定し、前記操作処理実行部は、前記ジェスチャー操作したと判定した場合は、一体化したウィンドウからタッチ移動したウィンドウを分離することを特徴とする。   In the information processing apparatus of the present invention, the operation determination unit determines whether a gesture operation for separating a touch-moving window from an integrated window is performed, and the operation processing execution unit performs the gesture operation. If it is determined, the window moved by touching is separated from the integrated window.

また、本発明は、表示部に表示されているウィンドウに対して、タッチによる操作を検出して入力を可能とするタッチ入力部を備える表示装置の情報処理方法であって、
前記タッチ入力部で検出したタッチ位置とタッチ移動からジェスチャー操作の内容を判定する操作判定ステップと、複数のウィンドウを一定距離以内に近接させるジェスチャー操作が行われた場合、ウィンドウの近接する辺を接続してウィンドウを結合し一体化する操作処理実行ステップと、を備えることを特徴とする。
Further, the present invention is an information processing method for a display device including a touch input unit that detects an operation by touching a window displayed on the display unit and enables input.
When an operation determination step for determining the content of the gesture operation from the touch position and touch movement detected by the touch input unit and a gesture operation for bringing a plurality of windows close to each other within a certain distance are performed, the adjacent sides of the windows are connected. And an operation processing execution step for combining and integrating the windows.

また、本発明は、コンピュータに、前記情報処理方法の各ステップを実行させるためのプログラムである。   Moreover, this invention is a program for making a computer perform each step of the said information processing method.

本発明によれば、ウィンドウ同士を良い低距離まで近接させるというタッチによるジェスチャー操作で、ウィンドウ同士を結合し一体化する処理をするので、コマンド入力などに比較して、簡単で直感的な操作が可能となり、操作性が向上する。   According to the present invention, the gesture operation by touch that brings the windows close to each other at a good low distance is processed by combining and integrating the windows. Therefore, compared with command input, the operation is simple and intuitive. This makes it possible to improve operability.

本発明に係る情報処理装置による操作表示を行うテーブルディスプレイを示す図である。It is a figure which shows the table display which performs the operation display by the information processing apparatus which concerns on this invention. 第1実施形態におけるテーブルディスプレイを示すブロック図である。It is a block diagram which shows the table display in 1st Embodiment. 第1実施形態におけるテーブルディスプレイのウィンドウを結合・分離する表示処理の全体を示すフローチャートである。It is a flowchart which shows the whole display process which couple | bonds and isolate | separates the window of a table display in 1st Embodiment. 第1実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。It is a flowchart which shows the display process which combines the window of a table display in 1st Embodiment. 第1実施形態におけるテーブルディスプレイのウィンドウを分離する表示処理を示すフローチャートである。It is a flowchart which shows the display process which isolate | separates the window of the table display in 1st Embodiment. 第1実施形態におけるウィンドウを別のウィンドウに近接させるジェスチャー操作を示す図である。It is a figure which shows the gesture operation which makes the window adjoin to another window in 1st Embodiment. 第1実施形態におけるウィンドウが別のウィンドウに一定距離以内に近接したときを示す図である。It is a figure which shows when the window in 1st Embodiment approaches another window within a fixed distance. 第1実施形態におけるウィンドウが別のウィンドウに一定距離以内で重なり合ったときを示す図である。It is a figure which shows when the window in 1st Embodiment has overlapped with another window within the fixed distance. 第1実施形態におけるウィンドウが結合したときを示す図である。It is a figure which shows when the window in 1st Embodiment couple | bonded. ウィンドウ管理テーブルのウィンドウ情報の値を説明する図である。It is a figure explaining the value of the window information of a window management table. ウィンドウ管理テーブルを示す図である。It is a figure which shows a window management table. 結合したウィンドウの移動を説明する図である。It is a figure explaining the movement of the combined window. 結合ウィンドウからウィンドウを分離させるジェスチャー操作を示す図である。It is a figure which shows gesture operation which separates a window from a joint window. 結合ウィンドウからのウィンドウの分離を示す図である。FIG. 6 is a diagram illustrating separation of a window from a combined window. 4つのウィンドウからなる結合ウィンドウからウィンドウを分離させるジェスチャー操作を示す図である。It is a figure which shows the gesture operation which isolate | separates a window from the joint window which consists of four windows. 4つのウィンドウからなる結合ウィンドウからのウィンドウの分離を示す図である。It is a figure which shows isolation | separation of the window from the joint window which consists of four windows. 第2実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。It is a flowchart which shows the display process which couple | bonds the window of a table display in 2nd Embodiment. 第1実施形態におけるウィンドウを別のウィンドウに近接させるジェスチャー操作を示す図である。It is a figure which shows the gesture operation which makes the window adjoin to another window in 1st Embodiment. 第2実施形態におけるウィンドウが別のウィンドウに一定距離以内に近接したときを示す図である。It is a figure which shows when the window in 2nd Embodiment adjoins another window within a fixed distance. 第2実施形態におけるウィンドウが結合したときを示す図である。It is a figure which shows when the window in 2nd Embodiment couple | bonded. 第3実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。It is a flowchart which shows the display process which combines the window of a table display in 3rd Embodiment. 第3実施形態におけるウィンドウが別のウィンドウに一定距離以内に近接したときを示す図である。It is a figure which shows when the window in 3rd Embodiment adjoins another window within a fixed distance. 第3実施形態におけるウィンドウが結合したときを示す図である。It is a figure which shows when the window in 3rd Embodiment couple | bonded.

以下、本発明の実施の形態を添付図面を参照して説明する。
図1は、本発明に係る情報処理装置による操作表示を行うテーブルディスプレイを示す図である。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a diagram showing a table display for performing operation display by the information processing apparatus according to the present invention.

図1に示すように、このテーブルディスプレイ10は、タッチパネルである表示装置20をテーブル全面に備え、複数のユーザ(図1では4人)が表示を見ながらタッチ操作を行い、処理を行う装置である。この表示装置20は、液晶パネルなどの表示部の上側にタッチ入力部を備える構造である。   As shown in FIG. 1, the table display 10 includes a display device 20 that is a touch panel on the entire surface of the table, and a plurality of users (four people in FIG. 1) perform a touch operation while watching the display to perform processing. is there. The display device 20 has a structure including a touch input unit on the upper side of a display unit such as a liquid crystal panel.

図1に示すように、テーブルディスプレイ10を囲んだユーザ1A,1B.1C.1Dは、表示装置20に表示されるアプリケーション・ウィンドウや画像のコンテンツに対して、タッチによるジェスチャー操作により、移動、回転やコピーなどの処理操作も行う。ジェスチャー操作とは、タッチによる手や指の特定の動きに対応付けた処理を行う機能である。
以下に、各実施形態について説明する。
As shown in FIG. 1, users 1A, 1B. 1C. The 1D also performs processing operations such as movement, rotation, and copy on the application window and image content displayed on the display device 20 by a gesture operation by touch. The gesture operation is a function that performs processing associated with a specific movement of a hand or finger by touch.
Each embodiment will be described below.

〔第1実施形態〕
第1実施形態は、操作者のジェスチャー操作に応じてウィンドウの結合・分離の表示処理を実行するものである。
[First Embodiment]
In the first embodiment, display processing for combining / separating windows is executed in accordance with an operator's gesture operation.

図2は、第1実施形態におけるテーブルディスプレイを示すブロック図である。
テーブルディスプレイ10は、表示装置20、操作に従って表示処理を制御する制御装置(情報処理装置)30、データを記憶する記憶部40を備える。
FIG. 2 is a block diagram showing a table display in the first embodiment.
The table display 10 includes a display device 20, a control device (information processing device) 30 that controls display processing according to an operation, and a storage unit 40 that stores data.

表示装置20は、上述したように液晶パネルなどの表示部21の表面側にタッチ入力部22を備える構造である。タッチ入力部22は、様々の方式があるが、操作者のタッチ入力を検出できればよく、その方式を特に限定するものではない。   As described above, the display device 20 has a structure including the touch input unit 22 on the surface side of the display unit 21 such as a liquid crystal panel. There are various methods for the touch input unit 22 as long as the touch input of the operator can be detected, and the method is not particularly limited.

制御装置30は、CPUからなり、その機能部として、タッチ入力部22で検出したタッチ位置とタッチ移動からジェスチャー操作の内容を判定する操作判定部31、判定したジェスチャー操作に基づいて操作処理を実行して表示部21に表示させる操作処理実行部32を備える。   The control device 30 includes a CPU, and as its function unit, an operation determination unit 31 that determines the content of the gesture operation from the touch position detected by the touch input unit 22 and the touch movement, and executes an operation process based on the determined gesture operation. Then, an operation processing execution unit 32 to be displayed on the display unit 21 is provided.

記憶部40は、ハードディスクやメモリなどからなる記憶装置であり、制御装置が実行するプログラム、画像データ、操作処理に関わる各種データなどを記憶し、制御装置30とデータのやり取りを行うものである。   The storage unit 40 is a storage device including a hard disk, a memory, and the like. The storage unit 40 stores programs executed by the control device, image data, various data related to operation processing, and the like, and exchanges data with the control device 30.

図3は、第1実施形態におけるテーブルディスプレイのウィンドウを結合・分離する表示処理の全体を示すフローチャートである。図4は、第1実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。図5は、第1実施形態におけるテーブルディスプレイのウィンドウを分離する表示処理を示すフローチャートである。   FIG. 3 is a flowchart showing the entire display process for combining and separating the windows of the table display in the first embodiment. FIG. 4 is a flowchart showing display processing for combining the windows of the table display in the first embodiment. FIG. 5 is a flowchart showing a display process for separating the windows of the table display in the first embodiment.

制御装置30は、以下のような処理を実行する。
テーブルディスプレイ10の表示部21には、図6に示すように、ウィンドウ61,62が表示されている。ウィンドウは、矩形状の表示領域であり、各アプリケーションに対応して、その中に内部に画像や文書を表示する機能を有する。
The control device 30 executes the following process.
As shown in FIG. 6, windows 61 and 62 are displayed on the display unit 21 of the table display 10. The window is a rectangular display area, and has a function of displaying an image and a document therein, corresponding to each application.

まず図6に示すように、操作者がウィンドウ61にタッチしてドラッグ操作を行い、それをタッチ入力部22が検出すると、制御装置30の操作判定部31が、ウィンドウ61をドラッグしたことを判定し、操作処理実行部32は、ドラッグした方向にウィンドウ61を移動させる処理を行う(ステップS11)。操作判定部31は、ウィンドウが他のウィンドウに近接するジェスチャー操作か、別のウィンドウから分離するジェスチャー操作かを判定する(ステップS12)。図6の場合は、ウィンドウ61をウィンドウ62に近づける操作であるので、ステップS13に進んでウィンドウの結合処理を行う。   First, as shown in FIG. 6, when the operator touches the window 61 to perform a drag operation and the touch input unit 22 detects the drag operation, the operation determination unit 31 of the control device 30 determines that the window 61 has been dragged. Then, the operation process execution unit 32 performs a process of moving the window 61 in the dragged direction (step S11). The operation determination unit 31 determines whether the window is a gesture operation close to another window or a gesture operation separated from another window (step S12). In the case of FIG. 6, since the operation is to bring the window 61 closer to the window 62, the process proceeds to step S13 to perform window combination processing.

次に図4のフローチャートに基づいて、ウィンドウの結合処理について説明する。
操作判定部31は、タッチが1点タッチであるかを判定する(ステップS21)。1点タッチの近接ジェスチャー操作は、ウィンドウ同士を移動した位置で接合する処理を行うものとする。
なお、このジェスチャー操作は一例として示すだけであり、他のジェスチャー操作を設定しても構わない。
Next, the window combining process will be described with reference to the flowchart of FIG.
The operation determination unit 31 determines whether the touch is a one-point touch (step S21). The proximity gesture operation of one-point touch is performed by joining the windows at the moved positions.
This gesture operation is only shown as an example, and other gesture operations may be set.

1点タッチであるならば、図7に示すように、操作判定部31は、ウィンドウ61が別のウィンドウ62に接近し、ウィンドウ間の距離が一定値g以内に近接したかを判定する(ステップS22)。ウィンドウ61がウィンドウ62に一定値g以内に近接している場合、操作処理実行部32は、互いに近接して接続可能なウィンドウ61,62の辺61a,62aを光らせる(ステップS23)。   If it is one-point touch, as shown in FIG. 7, the operation determination unit 31 determines whether the window 61 approaches another window 62 and the distance between the windows approaches within a predetermined value g (step). S22). When the window 61 is close to the window 62 within a predetermined value g, the operation processing execution unit 32 lights up the sides 61a and 62a of the windows 61 and 62 that can be connected close to each other (step S23).

ここで、一定値gは、10ドット程度(約1cm)程度である。
また、近接しつつある辺を目立つようにすればよいので、点滅させてもよいし、色を変えてもよいし、これらを組み合わせてもよい。
また、図8にあるように、ウィンドウ61を移動してウィンドウ62に重なってしまった場合にも、ウィンドウ間の距離が一定値g以内であれば、接続可能なウィンドウ61,62の辺61a,62aを光らせる。
Here, the constant value g is about 10 dots (about 1 cm).
Moreover, since it is only necessary to make the side that is approaching conspicuous, it may be blinked, the color may be changed, or these may be combined.
Further, as shown in FIG. 8, even when the window 61 is moved and overlapped with the window 62, if the distance between the windows is within a predetermined value g, the sides 61a and 61a of the connectable windows 61 and 62 are connected. Light 62a.

操作判定部31は、操作者がドラッグしていた指を画面から離したかを判定する(ステップS24)。画面から指を離した場合、ウィンドウの移動を停止し、近接する辺を光らせるのを停止する(ステップS16)。操作判定部31は、指を離した時点でウィンドウ61と別のウィンドウ62との距離が一定値g以内であるかを判定する(ステップS26)。これは指を離す時点まで、ウィンドウ61が移動しているので、ウィンドウ間の距離が一定値g以内であるかを再度確認する。   The operation determination unit 31 determines whether the finger that the operator has dragged is released from the screen (step S24). When the finger is released from the screen, the movement of the window is stopped, and the lighting of the adjacent sides is stopped (step S16). The operation determination unit 31 determines whether the distance between the window 61 and another window 62 is within a certain value g when the finger is released (step S26). This is because the window 61 is moved until the finger is released, and it is confirmed again whether the distance between the windows is within a certain value g.

この場合、図7のように、ウィンドウが離れている状態でも、図8のように重なりあっている状態でも、ウィンドウ61,62の近接している距離が一定値g以内になっていれば、図9に示すように、ウィンドウ61,62の近接する辺61a,62aを接続し、ウィンドウを結合して一体化する(ステップS27)。   In this case, as shown in FIG. 7, even if the windows are separated or overlapped as shown in FIG. 8, if the distance between the windows 61 and 62 is within a certain value g, As shown in FIG. 9, the adjacent sides 61a and 62a of the windows 61 and 62 are connected, and the windows are joined and integrated (step S27).

ステップS26において、ウィンドウ間の距離が一定値gを越える場合は、処理を終了する。   In step S26, if the distance between the windows exceeds a certain value g, the process is terminated.

なお、ウィンドウが平行に配置された場合について述べたが、ウィンドウがそれぞれ傾いて配置された場合でも、ウィンドウ間の距離が一定値g以内に近づけば、ウィンドウを回転させる処理を行って平行としてから、近接する辺を接続しウィンドウを結合する。   In addition, although the case where the windows are arranged in parallel has been described, even when the windows are inclined, if the distance between the windows is within a certain value g, the process of rotating the windows is performed to make the windows parallel. Connect adjacent edges and join windows.

一体化したウィンドウ61,62は、図10に示すように、結合ウィンドウ領域63において一つのウィンドウとして処理が行われる。図11は、ウィンドウ管理テーブルを示す図である。   The integrated windows 61 and 62 are processed as one window in the combined window area 63 as shown in FIG. FIG. 11 shows a window management table.

ウィンドウ管理テーブルは記憶部40に記憶され、操作処理実行部32は、各ウィンドウの座標などの情報に基づいて、移動、回転、拡大・縮小の操作の時に、ウィンドウ61,62が一体となって表示されるように、処理を行う。   The window management table is stored in the storage unit 40, and the operation processing execution unit 32 integrates the windows 61 and 62 when moving, rotating, and enlarging / reducing based on information such as the coordinates of each window. Process so that it is displayed.

図10に示す結合ウィンドウ領域63は、結合されたウィンドウ61とウィンドウ62を囲む矩形領域である。結合ウィンドウ領域の左上隅を原点として、座標は、X軸右方、Y軸の下方を+とする。   A combined window area 63 shown in FIG. 10 is a rectangular area surrounding the combined window 61 and window 62. With the upper left corner of the combined window area as the origin, the coordinates are set to the right of the X axis and + below the Y axis.

ウィンドウ情報は、情報識別のためのID、左上隅X座標、左上隅Y座標、ウィンドウのXサイズ、ウィンドウのYサイズの数値が管理テーブルとして記憶されている。
図10と図11から、ウィンドウ61,62は、Xサイズ=500、Yサイズ=250で全く同じサイズである。ウィンドウ62は、ウィンドウ61に対して、X方向に500、Y方向に50だけずれて配置されていることがわかる。
As window information, an ID for identifying information, an upper left corner X coordinate, an upper left corner Y coordinate, a window X size, and a window Y size numerical value are stored as a management table.
10 and 11, the windows 61 and 62 are exactly the same size with X size = 500 and Y size = 250. It can be seen that the window 62 is shifted from the window 61 by 500 in the X direction and by 50 in the Y direction.

図12に示すように、ウィンドウ62にタッチして左斜め上にドラッグした場合、ウィンドウ管理テーブルの情報に基づいて、ウィンドウ62の移動した分だけ、ウィンドウ61を移動させる処理によって、結合ウィンドウ領域63のウィンドウ61,62を一体となって移動させることができる。
また、同様に結合ウィンドウ領域63のいずれかの箇所で、回転させる処理を行えば、ウィンドウ61,62が一体となって回転するように処理を行う。
また、拡大・縮小の処理においても、結合ウィンドウ領域63内のウィンドウ61,62が一体となるように、処理が行われる。
As shown in FIG. 12, when the window 62 is touched and dragged diagonally to the left, based on the information in the window management table, the combined window area 63 is moved by the process of moving the window 61 by the amount moved. The windows 61 and 62 can be moved together.
Similarly, if a rotation process is performed at any part of the combined window area 63, the process is performed so that the windows 61 and 62 rotate together.
Also in the enlargement / reduction processing, the processing is performed so that the windows 61 and 62 in the combined window region 63 are integrated.

図3のステップS12で、操作判定部31は、ウィンドウを分離するジェスチャー操作であると判定した場合、ステップS14において、ウィンドウの分離処理を行う。   If the operation determination unit 31 determines in step S12 in FIG. 3 that the gesture operation is to separate windows, in step S14, window separation processing is performed.

次に図5のフローチャートに基づいて、ウィンドウの分離処理について説明する。
画面へのドラッグ操作は、結合処理したウィンドウからの分離であるかを判定する(ステップS31)。図13に示すように、ウィンドウ61,62が結合されている場合、これらウィンドウ61,62のそれぞれにタッチしてドラッグし分離する動作の場合に、分離ジェスチャー操作と判定する。
Next, the window separation processing will be described based on the flowchart of FIG.
It is determined whether the drag operation to the screen is separation from the combined window (step S31). As shown in FIG. 13, when the windows 61 and 62 are coupled, it is determined that the operation is to perform a separation gesture operation when the windows 61 and 62 are touched, dragged, and separated.

図14に示すように、結合ウィンドウ(ウィンドウ61,62の結合ウィンドウ)を分離すると判定された場合には、操作処理実行部32は、結合ウィンドウを移動して分離する処理を行う(ステップS32)。操作判定部31が指を画面から離したかを判定し(ステップS33)、指を画面から離した場合に、操作処理実行部32は、ウィンドウの移動を停止する(ステップS34)。   As shown in FIG. 14, when it is determined that the combined window (the combined window of the windows 61 and 62) is to be separated, the operation processing execution unit 32 performs a process of moving and separating the combined window (step S32). . The operation determination unit 31 determines whether the finger is released from the screen (step S33), and when the finger is released from the screen, the operation processing execution unit 32 stops moving the window (step S34).

また、図15に示すように、ウィンドウ64,65,66,67が結合して一体化している場合、ステップS31おける結合ウィンドウを分離するジェスチャー操作は、二つの指をタッチし、分離させたいウィンドウ65にタッチした指を分離する方向にドラッグし、他方の指を動かさないと、図16に示すように、結合ウィンドウからウィンドウ65を分離できる。   As shown in FIG. 15, when the windows 64, 65, 66, and 67 are combined and integrated, the gesture operation for separating the combined window in step S31 is performed by touching two fingers and separating the windows. If the finger touching 65 is dragged in the separating direction and the other finger is not moved, the window 65 can be separated from the combined window as shown in FIG.

こうして、ウィンドウ同士を良い低距離まで近接させるというタッチによるジェスチャー操作で、ウィンドウ同士を結合し一体化する処理をするので、コマンド入力などに比較して、簡単で直感的な操作が可能となり、操作性が向上する。また、ウィンドウの近接する辺同士を目立たせる表示処理を行うことで、操作者が接合箇所などを予め確認することができる。また、ウィンドウ間が一定の距離内に収まれば、自動的に近接する辺同士を接続するので、操作者が結合の操作をやりやすくなる。また、結合されたウィンドウは、一つのウィンドウとして扱われるので、例えば、移動や回転、拡大・縮小などの処理においては、どの箇所にタッチ操作を行っても、結合されたウィンドウ全体に処理が及ぶ。   In this way, the gesture operation by touching the windows close to each other at a good low distance is performed by combining the windows and integrating them, making it easier and more intuitive to operate compared to command input. Improves. In addition, by performing display processing that makes the adjacent sides of the window stand out, the operator can confirm the joint location in advance. If the windows are within a certain distance, the adjacent sides are automatically connected to each other, so that the operator can easily perform the coupling operation. In addition, since the combined window is handled as one window, for example, in the process of movement, rotation, enlargement / reduction, etc., regardless of where the touch operation is performed, the entire combined window is processed. .

また、結合したウィンドウを分離させるタッチによるジェスチャー操作で分離できるので、簡単で直感的な操作が可能となり、操作性が向上する。   In addition, since it can be separated by a gesture operation by touch for separating the combined windows, a simple and intuitive operation is possible, and operability is improved.

〔第2実施形態〕
第2実施形態は、結合したウィンドウの位置を自動的に調整して、接続する辺の上端や下端などの端部を合わせる処理を行うものである。
[Second Embodiment]
In the second embodiment, the position of the combined window is automatically adjusted to perform processing for aligning ends such as the upper end and the lower end of the sides to be connected.

図17は、第2実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。
操作判定部31は、図18に示すようにタッチが2点タッチであるかを判定する(ステップS41)。2点タッチの近接ジェスチャー操作は、ウィンドウ同士を接合し、さらに接合する辺の上端や下端などの端部を合わせる処理を行うものとする。
なお、このジェスチャー操作は一例として示すだけであり、他のジェスチャー操作を設定しても構わない。
FIG. 17 is a flowchart showing a display process for combining the windows of the table display in the second embodiment.
The operation determination unit 31 determines whether the touch is a two-point touch as shown in FIG. 18 (step S41). In the proximity gesture operation of two-point touch, it is assumed that the windows are joined to each other, and further, the end parts such as the upper end and the lower end of the sides to be joined are matched.
This gesture operation is only shown as an example, and other gesture operations may be set.

2点タッチであるならば、図19に示すように、操作判定部31は、ウィンドウ61が別のウィンドウ62に接近し、ウィンドウ間の距離が一定値g以内に近接したかを判定する(ステップS42)。ウィンドウ61がウィンドウ62に一定値g以内に近接している場合、操作処理実行部32は、互いに近接して接続可能なウィンドウ61,62の辺61a,62aを光らせる(ステップS43)。   If it is a two-point touch, as shown in FIG. 19, the operation determination unit 31 determines whether the window 61 approaches another window 62 and the distance between the windows approaches within a predetermined value g (step). S42). When the window 61 is close to the window 62 within the predetermined value g, the operation processing execution unit 32 lights up the sides 61a and 62a of the windows 61 and 62 that can be connected close to each other (step S43).

さらに操作判定部31は、近接辺61a,62aに垂直な辺61b、62bの距離が一定値h以内であるかを判定する(ステップS44)。近接辺61a,62aに垂直な辺61b、62bの距離が一定値h以内であれば、近接辺61a,62aに接する辺61b、62bの一部を光らせる。   Further, the operation determination unit 31 determines whether the distance between the sides 61b and 62b perpendicular to the adjacent sides 61a and 62a is within a certain value h (step S44). If the distance between the sides 61b and 62b perpendicular to the adjacent sides 61a and 62a is within a predetermined value h, a part of the sides 61b and 62b in contact with the adjacent sides 61a and 62a is illuminated.

ここで、一定値hは、10ドット程度(約1cm)程度である。
また、これは、辺61b、62bを揃えるためにその部分を目立つようにすればよいので、点滅させてもよいし、色を変えてもよいし、これらを組み合わせてもよい。
Here, the constant value h is about 10 dots (about 1 cm).
In addition, since it is only necessary to make the portion stand out in order to align the sides 61b and 62b, it may be blinked, the color may be changed, or these may be combined.

操作判定部31は、操作者がドラッグしていた指を画面から離したかを判定する(ステップS46)。画面から指を離した場合、ウィンドウの移動を停止し、辺を光らせるのを停止する(ステップS47)。操作判定部31は、指を離した時点でウィンドウ61と別のウィンドウ62との距離が一定値g以内であるかを判定する(ステップS48)。これは指を離す時点まで、ウィンドウ61が移動しているので、ウィンドウ間の距離が一定値g以内であるかを再度確認する。   The operation determining unit 31 determines whether the finger that the operator has dragged is released from the screen (step S46). When the finger is released from the screen, the movement of the window is stopped, and the lighting of the side is stopped (step S47). The operation determination unit 31 determines whether the distance between the window 61 and another window 62 is within a certain value g when the finger is released (step S48). This is because the window 61 is moved until the finger is released, and it is confirmed again whether the distance between the windows is within a certain value g.

この場合、第1実施形態と同様にウィンドウが離れている状態でも、重なりあっている状態でも、ウィンドウ61,62の近接している距離が一定値g以内になっていれば、ウィンドウ61,62の近接する辺61a,62aを接続し、ウィンドウを結合して一体化する(ステップS49)。   In this case, as in the first embodiment, the windows 61 and 62 are in a state where the windows 61 and 62 are close to each other within a certain value g, whether the windows are separated or overlapped. The adjacent sides 61a and 62a are connected, and the windows are joined and integrated (step S49).

さらに操作判定部31は、指を離した時点でウィンドウ61、62の辺61b,62bとの距離が一定値h以内であるかを判定する(ステップS50)。これは指を離す時点まで、ウィンドウ61が移動しているので、辺61b,62bの距離が一定値h以内であるかを再度確認する。   Furthermore, the operation determination part 31 determines whether the distance with the edge | sides 61b and 62b of the windows 61 and 62 is within the fixed value h at the time of releasing a finger | toe (step S50). In this case, since the window 61 has moved until the finger is released, it is confirmed again whether the distance between the sides 61b and 62b is within a certain value h.

辺61b,62bの距離が一定値h以内である場合、辺61b,62bの位置を合わせる処理を行う(ステップS51)。こうして、図20に示すように、ウィンドウ61,62の上端の辺の位置を合わせて結合する。   When the distance between the sides 61b and 62b is within the predetermined value h, a process for aligning the positions of the sides 61b and 62b is performed (step S51). In this way, as shown in FIG. 20, the positions of the top edges of the windows 61 and 62 are aligned and coupled.

ステップS48及びステップS50において、一定値g,hを越える場合は、処理を終了する。   In step S48 and step S50, when the constant values g and h are exceeded, the process is terminated.

なお、本実施形態では、接続辺の上端部分に垂直な辺を合わせる処理であったが、接続辺の下端部分に垂直辺を合わせる処理でも構わない。   In the present embodiment, the process of matching the vertical side to the upper end portion of the connection side is performed, but the process of matching the vertical side to the lower end portion of the connection side may be performed.

こうして、接合する辺に垂直な辺の端部の位置を揃えるように自動的に位置調整を行うので、操作者がウィンドウを揃える手間がはぶけ、操作性が向上する。   In this way, the position is automatically adjusted so as to align the positions of the side edges perpendicular to the sides to be joined, so that the operator is not required to align the windows and the operability is improved.

〔第3実施形態〕
第3実施形態は、結合したウィンドウのサイズを自動的に調整して、接続する辺の長さを一致させるように処理を行うものである。
[Third Embodiment]
In the third embodiment, the size of the combined window is automatically adjusted to perform processing so that the lengths of the sides to be connected match.

図21は、第3実施形態におけるテーブルディスプレイのウィンドウを結合する表示処理を示すフローチャートである。
操作判定部31は、図22に示すようにタッチが3点以上のタッチであるかを判定する(ステップS61)。3点タッチの近接ジェスチャー操作は、ウィンドウ同士を接合し、さらに接続する辺の長さが一致するようにウィンドウのサイズを調整する処理を行うものとする。
なお、このジェスチャー操作は一例として示すだけであり、他のジェスチャー操作を設定しても構わない。
FIG. 21 is a flowchart showing a display process for combining the windows of the table display in the third embodiment.
The operation determination unit 31 determines whether the touch is a touch of three or more points as shown in FIG. 22 (step S61). The proximity gesture operation of the three-point touch is performed by joining the windows and adjusting the window size so that the lengths of the sides to be connected match.
This gesture operation is only shown as an example, and other gesture operations may be set.

3点以上のタッチであるならば(図22では手の平タッチ)、図22に示すように、操作判定部31は、ウィンドウ61が別のウィンドウ62に接近し、ウィンドウ間の距離が一定値g以内に近接したかを判定する(ステップS62)。ウィンドウ61がウィンドウ62に一定値g以内に近接している場合、操作処理実行部32は、互いに近接して接続可能なウィンドウ61,62の辺61a,62aを光らせる(ステップS63)。   If the touch is three or more points (palm touch in FIG. 22), as shown in FIG. 22, the operation determination unit 31 causes the window 61 to approach another window 62 and the distance between the windows is within a predetermined value g. Is determined (step S62). When the window 61 is close to the window 62 within the predetermined value g, the operation processing execution unit 32 illuminates the sides 61a and 62a of the windows 61 and 62 that can be connected close to each other (step S63).

操作判定部31は、操作者がドラッグしていた指を画面から離したかを判定する(ステップS64)。画面から指を離した場合、ウィンドウの移動を停止し、辺を光らせるのを停止する(ステップS66)。操作判定部31は、指を離した時点でウィンドウ61と別のウィンドウ62との距離が一定値g以内であるかを判定する(ステップS67)。これは指を離す時点まで、ウィンドウ61が移動しているので、ウィンドウ間の距離が一定値g以内であるかを再度確認する。   The operation determination unit 31 determines whether the finger that the operator has dragged is released from the screen (step S64). When the finger is removed from the screen, the movement of the window is stopped, and the side is stopped from being illuminated (step S66). The operation determination unit 31 determines whether the distance between the window 61 and another window 62 is within a certain value g when the finger is released (step S67). This is because the window 61 is moved until the finger is released, and it is confirmed again whether the distance between the windows is within a certain value g.

この場合、第1実施形態と同様にウィンドウが離れている状態でも、重なりあっている状態でも、ウィンドウ61,62の近接している距離が一定値g以内になっていれば、ウィンドウ61,62の近接する辺61a,62aを接続し、ウィンドウを結合して一体化し、さらに移動してきた辺61aを、辺62bの長さに一致するように、ウィンドウ61の全体のサイズを調整する(ステップS68)。図23に、ウィンドウサイズを調整して結合した処理を示す。   In this case, as in the first embodiment, the windows 61 and 62 are in a state where the windows 61 and 62 are close to each other within a certain value g, whether the windows are separated or overlapped. The adjacent sides 61a and 62a are connected, the windows are joined and integrated, and the entire size of the window 61 is adjusted so that the moved side 61a matches the length of the side 62b (step S68). ). FIG. 23 shows processing in which window sizes are adjusted and combined.

こうして、接合するウィンドウのサイズが異なっていても、接続する辺が一致するようにサイズ調整するので、ウィンドウのサイズがほぼ一律になるので、ユーザも見やすくなる。また、操作者も、サイズ調整を個々のウィンドウに行う必要もなく、操作性が向上する。   In this way, even if the sizes of the windows to be joined are different, the size is adjusted so that the sides to be connected coincide with each other. Further, the operator does not need to adjust the size of each window, and the operability is improved.

本発明による情報処理装置で動作するプログラムは、本発明に関わる上記実施形態の機能を実現するように、CPU(Central Processing Unit)等を制御するプログラム(コンピュータを機能させるプログラム)であっても良い。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、Flash ROM(Read Only Memory)などの各種ROMやHDD(Hard Disk Drive)に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行われる。また、各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。   The program that operates in the information processing apparatus according to the present invention may be a program that controls a CPU (Central Processing Unit) or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiments related to the present invention. . Information handled by these devices is temporarily stored in RAM (Random Access Memory) during the processing, and then stored in various ROMs such as Flash ROM (Read Only Memory) and HDD (Hard Disk Drive). Reading, correction, and writing are performed by the CPU as necessary. In addition, a program for realizing the function of each component may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed to perform processing of each unit. Good. Here, the “computer system” includes an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。   The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこれらの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等された発明も含まれる。   As described above, the embodiments of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to these embodiments, and the invention may be changed in design without departing from the gist of the present invention. Is also included.

10 :テーブルディスプレイ
20 :表示装置
21 :表示部
22 :タッチ入力部
30 :制御装置
31 :操作判定部
32 :操作処理実行部
40 :記憶部
10: Table display 20: Display device 21: Display unit 22: Touch input unit 30: Control device 31: Operation determination unit 32: Operation processing execution unit 40: Storage unit

Claims (7)

表示部に表示されているウィンドウに対して、タッチによる操作を検出して入力を可能とするタッチ入力部を備える表示装置の表示制御処理を行う情報処理装置であって、
前記タッチ入力部で検出したタッチ位置とタッチ移動からジェスチャー操作の内容を判定する操作判定部と、
複数のウィンドウを一定距離以内に近接させるジェスチャー操作が行われた場合、ウィンドウの近接する辺を接続してウィンドウを結合し一体化する操作処理実行部と、
を備えることを特徴とする情報処理装置。
An information processing device that performs display control processing of a display device including a touch input unit that detects an operation by touching and enables input to a window displayed on the display unit,
An operation determination unit that determines the content of the gesture operation from the touch position and touch movement detected by the touch input unit;
When a gesture operation for bringing a plurality of windows close to each other within a certain distance is performed, an operation processing execution unit that connects adjacent sides of the windows to combine and integrate the windows;
An information processing apparatus comprising:
前記操作処理実行部は、
ウィンドウが一定距離に近接する場合に、ウィンドウの近接する辺同士を目立たせる表示を行うことを特徴とする請求項1に記載の情報処理装置。
The operation processing execution unit
The information processing apparatus according to claim 1, wherein when the windows are close to each other at a certain distance, a display that makes the adjacent sides of the windows stand out is performed.
前記操作処理実行部は、一体化したウィンドウに対する処理であれば、どの部分に操作されても、一体化したウィンドウ全体への操作とすることを特徴とする請求項1又は2に記載の情報処理装置。   3. The information processing according to claim 1, wherein the operation processing execution unit performs an operation on the entire integrated window regardless of which part is operated as long as the operation is performed on the integrated window. apparatus. 前記操作処理実行部は、ウィンドウが結合した場合に、接続する辺に垂直な辺の位置を合わせる処理を行うことを特徴とする請求項1から3のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the operation processing execution unit performs a process of aligning a position of a side perpendicular to a side to be connected when the windows are combined. 前記操作判定部は、一体化したウィンドウの中からタッチ移動するウィンドウを分離させるジェスチャー操作しているかを判定し、
前記操作処理実行部は、
前記ジェスチャー操作したと判定した場合は、一体化したウィンドウからタッチ移動したウィンドウを分離することを特徴とする請求項1に記載の情報処理装置。
The operation determination unit determines whether a gesture operation is performed to separate a touch-moving window from the integrated windows,
The operation processing execution unit
The information processing apparatus according to claim 1, wherein if it is determined that the gesture operation is performed, the touched window is separated from the integrated window.
表示部に表示されているウィンドウに対して、タッチによる操作を検出して入力を可能とするタッチ入力部を備える表示装置の情報処理方法であって、
前記タッチ入力部で検出したタッチ位置とタッチ移動からジェスチャー操作の内容を判定する操作判定ステップと、
複数のウィンドウを一定距離以内に近接させるジェスチャー操作が行われた場合、ウィンドウの近接する辺を接続してウィンドウを結合し一体化する操作処理実行ステップと、
を備えることを特徴とする情報処理方法。
An information processing method for a display device including a touch input unit that enables an input by detecting an operation by touching a window displayed on a display unit,
An operation determination step for determining the content of the gesture operation from the touch position and touch movement detected by the touch input unit;
When a gesture operation for bringing a plurality of windows close to each other within a certain distance is performed, an operation processing execution step for connecting adjacent sides of the windows and combining and integrating the windows;
An information processing method comprising:
コンピュータに、請求項6に記載の情報処理方法の各ステップを実行させるためのプログラム。   The program for making a computer perform each step of the information processing method of Claim 6.
JP2014183161A 2014-09-09 2014-09-09 Information processing apparatus, information processing method, and program Active JP6598441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014183161A JP6598441B2 (en) 2014-09-09 2014-09-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014183161A JP6598441B2 (en) 2014-09-09 2014-09-09 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016057805A true JP2016057805A (en) 2016-04-21
JP6598441B2 JP6598441B2 (en) 2019-10-30

Family

ID=55758590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014183161A Active JP6598441B2 (en) 2014-09-09 2014-09-09 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6598441B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009831A (en) * 2006-06-30 2008-01-17 Seagrand Kk Window control method and information processor
JP2008299689A (en) * 2007-06-01 2008-12-11 Fuji Xerox Co Ltd Workspace management system
US20110022958A1 (en) * 2009-07-21 2011-01-27 Lg Electronics Inc. Mobile terminal and method for controlling thereof
JP2012504837A (en) * 2008-10-06 2012-02-23 サムスン エレクトロニクス カンパニー リミテッド List management method and apparatus using multi-touch
JP2012064232A (en) * 2011-11-07 2012-03-29 Toshiba Corp Information processor and drag control method
JP2012208866A (en) * 2011-03-30 2012-10-25 Nec Corp Information processor, display update method, display update program, and information processing system
US20140229891A1 (en) * 2013-02-14 2014-08-14 Citibank, N.A. Methods and Systems for Managing a Graphical User Interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009831A (en) * 2006-06-30 2008-01-17 Seagrand Kk Window control method and information processor
JP2008299689A (en) * 2007-06-01 2008-12-11 Fuji Xerox Co Ltd Workspace management system
JP2012504837A (en) * 2008-10-06 2012-02-23 サムスン エレクトロニクス カンパニー リミテッド List management method and apparatus using multi-touch
US20110022958A1 (en) * 2009-07-21 2011-01-27 Lg Electronics Inc. Mobile terminal and method for controlling thereof
JP2012208866A (en) * 2011-03-30 2012-10-25 Nec Corp Information processor, display update method, display update program, and information processing system
JP2012064232A (en) * 2011-11-07 2012-03-29 Toshiba Corp Information processor and drag control method
US20140229891A1 (en) * 2013-02-14 2014-08-14 Citibank, N.A. Methods and Systems for Managing a Graphical User Interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
柴田 博仁,他1名: "電子文書の操作負荷を軽減させるドッキング・ウィンドウ環境", 富士ゼロックステクニカルレポート 第22号 2013年[ONLINE], JPN6018005490, 20 February 2013 (2013-02-20), pages 1 - 12, ISSN: 0003741235 *

Also Published As

Publication number Publication date
JP6598441B2 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
US11880626B2 (en) Multi-device pairing and combined display
US20210089201A1 (en) Apparatus and method of copying and pasting content in a computing device
CN106537317B (en) Adaptive sizing and positioning of application windows
US8330733B2 (en) Bi-modal multiscreen interactivity
JP6215534B2 (en) Information processing apparatus, information processing method, and computer program
US8751970B2 (en) Multi-screen synchronous slide gesture
US20120249422A1 (en) Interactive input system and method
JP2007213587A (en) Method and apparatus for merging data object
US20120162103A1 (en) Display Control Device and Display Control Method
KR101586559B1 (en) Information processing apparatus and information processing method
US9898184B2 (en) Operation method of operating system
KR102205283B1 (en) Electro device executing at least one application and method for controlling thereof
US20190220185A1 (en) Image measurement apparatus and computer readable medium
US20140285461A1 (en) Input Mode Based on Location of Hand Gesture
US20150355769A1 (en) Method for providing user interface using one-point touch and apparatus for same
US9146653B2 (en) Method and apparatus for editing layout of objects
JP6598441B2 (en) Information processing apparatus, information processing method, and program
US20110119579A1 (en) Method of turning over three-dimensional graphic object by use of touch sensitive input device
JP6859016B2 (en) Image processing device and image processing method
KR20130097624A (en) Device and method for moving display window on screen
KR101436587B1 (en) Method for providing user interface using two point touch, and apparatus therefor
US10185490B2 (en) Information processing apparatus, information processing method, and storage medium
KR20160142207A (en) Electronic device and Method for controlling the electronic device
US20140035876A1 (en) Command of a Computing Device
JP6333134B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R150 Certificate of patent or registration of utility model

Ref document number: 6598441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150