JP2011154546A - Device and method for inputting information, and program - Google Patents
Device and method for inputting information, and program Download PDFInfo
- Publication number
- JP2011154546A JP2011154546A JP2010015840A JP2010015840A JP2011154546A JP 2011154546 A JP2011154546 A JP 2011154546A JP 2010015840 A JP2010015840 A JP 2010015840A JP 2010015840 A JP2010015840 A JP 2010015840A JP 2011154546 A JP2011154546 A JP 2011154546A
- Authority
- JP
- Japan
- Prior art keywords
- user
- area
- detected
- display device
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は情報入力装置、情報入力方法及びプログラムに関し、特に、タッチパネルディスプレイ等の表示装置から情報を入力するために用いて好適な技術に関する。 The present invention relates to an information input device, an information input method, and a program, and more particularly, to a technique suitable for use in inputting information from a display device such as a touch panel display.
従来、タッチスクリーン機能を搭載したディスプレイ上に、独立に操作可能な領域を生成する技術が提案されている(例えば、特許文献1参照)。この技術によれば、ユーザによりディスプレイ面上へ操作されることによって領域を生成したりレイアウトを生成したりすることができる。 Conventionally, a technique for generating an independently operable region on a display equipped with a touch screen function has been proposed (see, for example, Patent Document 1). According to this technique, it is possible to generate a region or a layout by being operated on the display surface by the user.
タッチスクリーン機能を搭載した1つの大型のディスプレイを複数のユーザが共有して操作すると、ディスプレイ上で複数の操作が同時に行われる。この場合に特許文献1に記載の装置では、例えば、あるユーザがコピー・ペースト等を連続して操作したいときに、途中で他のユーザがコピーする操作を行うとバッファの情報が上書きされ、ユーザがコピーしようと思っていた対象が変わってしまうことがある。また、単にカーソルを合わせるだけの作業についても、他のユーザがポインティングした場合にカーソルが意図していない方向に移動してしまうことがある。このように、個々の操作が同じユーザによって行われたのか否かをディスプレイ側で把握できないため、ユーザの意図したものとは異なる動作を行ってしまうという問題点がある。 When a plurality of users share and operate one large display equipped with a touch screen function, a plurality of operations are simultaneously performed on the display. In this case, in the apparatus described in Patent Document 1, for example, when a certain user wants to continuously perform copy / paste operations, when another user performs a copy operation on the way, the buffer information is overwritten, and the user The subject that I was trying to copy may change. In addition, when the user simply points the cursor, the cursor may move in an unintended direction when another user points. Thus, since it cannot be grasped on the display side whether each operation was performed by the same user, there exists a problem that operation | movement different from what a user intended is performed.
本発明は前述の問題点に鑑み、表示装置の画面上で複数のユーザが共有して操作する場合に、ユーザごとに操作を認識できるようにすることを目的としている。 The present invention has been made in view of the above-described problems, and an object of the present invention is to make it possible to recognize an operation for each user when a plurality of users share and operate on the screen of a display device.
本発明の情報入力装置は、表示装置の近傍に位置する複数のユーザを検出するユーザ検出手段と、前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得手段と、前記ユーザ検出手段により検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定手段と、前記入力取得手段によって検出されたそれぞれのユーザによる操作を、前記領域決定手段によって決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御手段とを備えることを特徴とする。 The information input device of the present invention includes user detection means for detecting a plurality of users located in the vicinity of the display device, input acquisition means for detecting operations by the plurality of users on the screen of the display device, and the user detection Region determining means for determining an operable area for each user detected by the means, and each user's operation detected by the input acquiring means for each area determined by the area determining means. And an input control means for distributing as the operated operation.
本発明によれば、ユーザがわざわざ操作領域を確保するために特別な措置を行うことを不要にして、個々のユーザの操作が他のユーザに影響を及ぼすことを防止することができる。 According to the present invention, it is not necessary for the user to bother to secure an operation area, and it is possible to prevent the operation of an individual user from affecting other users.
(第1の実施形態)
以下、図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施形態において、情報入力装置の一例として表示型入力装置100の機能構成例を示すブロック図である。
本実施形態における表示型入力装置100は、入力取得部101、ユーザ検出部102、領域決定部103、入力制御部104、コンテンツアクセス部105、コンテンツデータベース106、及びコンテンツ表示制御部107を備えている。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
FIG. 1 is a block diagram illustrating a functional configuration example of a display-
The display-
入力取得部101は、表示装置108の画面上に対するユーザからの指またはペン等によるポインティングデバイスを表す接触操作を検出し、図3に示す入力情報301を出力する。図3は、入力情報301のデータ構造例を示す図である。入力情報301は複数の単一入力情報302から構成され、個々の単一入力情報302はポインティング情報303と操作情報304とから構成されている。さらに、ポインティング情報303は、ポインティングの発生した時刻305と表示装置108上の座標306との情報からなり、操作情報304は、カット(切り取り)又はペースト(貼り付け)のうち、いずれかを示す情報である。なお、入力取得部101は、複数の入力情報301を同時に取得できる機能を有する。このような機能は、例えばマルチタッチ型入力デバイス等の従来技術で実現可能である。
The input acquisition unit 101 detects a touch operation representing a pointing device with a finger or a pen from the user on the screen of the
ユーザ検出部102は、表示型入力装置100の近傍に位置するユーザを検出し、その位置を領域決定部103に通知する。ユーザ検出部102がユーザを検出する具体的な方法としては、カメラで撮影した撮像画像から人物を検出する方法や、赤外線センサーによって検出する方法、表示型入力装置100の周囲に巡らした圧力を検出する方法などである。
The
領域決定部103は、ユーザ検出部102により検出したユーザの位置から、当該ユーザから決められた範囲内に独立で操作可能な領域を割り当てる。入力制御部104は、入力取得部101から入力された入力情報301を領域決定部103で決定した領域ごとの操作に振り分ける。コンテンツアクセス部105は、コンテンツそのものへカット及びペーストの操作を行ったり、描画もしくはポインティング等の操作を行ったりする。コンテンツ表示制御部は、コンテンツアクセス部105により操作されたコンテンツデータをレイアウトして、画像データ(イメージデータ)をそれぞれ生成して表示装置108に表示する。
The
図2は、本実施形態に係る表示型入力装置100の主要部の物理的なハード構成例を示すブロック図である。
図2において、タッチパネルディスプレイ200は入力取得部101及び表示装置108の機能を備え無線通信装置201及びIOコントローラ203はユーザ検出部102の機能を備えている。また、HDD(Hard Disk Drive)205はコンテンツデータベース106として機能し、ディスクコントローラ204によりコンテンツデータ等が読み出される。さらに、バス209を介してCPU206、ROM207及びRAM208上で実行可能なプログラムにより図1のその他の構成がそれぞれ実現される。
FIG. 2 is a block diagram illustrating a physical hardware configuration example of a main part of the display-
In FIG. 2, the
次に、図4のフローチャートを参照しながら、ユーザを検出して当該ユーザに対しての操作領域を割り当てる処理の流れを説明する。図4は、本実施形態におけるユーザの操作領域を割り当てる処理手順の一例を示すフローチャートである。
まず、ステップS401において、ユーザ検出部102は、表示型入力装置100付近にいるユーザを検出するまで待機し、ユーザを検出すると、ステップS402において、検出したユーザの位置情報を取得する。
Next, the flow of processing for detecting a user and assigning an operation area to the user will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart illustrating an example of a processing procedure for allocating a user operation area in the present embodiment.
First, in step S401, the
次に、ステップS403において、領域決定部103は、検出したユーザの位置から一定の範囲の、表示型入力装置100の表示装置108上にユーザが操作可能な領域を確保する。このとき、複数のユーザを検出して各々の位置から一定の範囲で領域を区切る際に領域が重なる場合は、検出した各々のユーザ間の垂直二等分線で領域を切り分けるようにする。そして、処理を終了する。この結果、入力取得部101によりユーザの操作を検出すると、入力制御部104は、領域決定部103により決定された領域ごとに各ユーザの独立した操作として振り分ける。
Next, in step S <b> 403, the
さらに、以上のように図4に示した処理の流れを一定時間の間隔で更新することにより、ユーザの位置が変化した場合でも、検出したユーザ付近に操作可能な領域を移動させることができる。また、本実施形態では、ユーザの位置から一定の範囲で領域を割り当てるようにしたが、割り当てる領域は表示装置108の画面を区画で分割したり、予め決められた形の領域をユーザの位置を中心に割り当てたりしてもよい。このように、ユーザの位置から一定の範囲に限られたものではない。
Furthermore, by updating the processing flow shown in FIG. 4 at regular time intervals as described above, the operable region can be moved near the detected user even when the position of the user changes. In this embodiment, an area is allocated within a certain range from the user's position. However, the allocated area is obtained by dividing the screen of the
以上のように本実施形態によれば、表示装置108の近傍に位置するユーザを認識し、ユーザの位置からある範囲に操作領域を割り当てるようにしたので、個々のユーザの操作が他のユーザに影響を及ぼすことを防止することができる。
As described above, according to the present embodiment, a user located in the vicinity of the
(第2の実施形態)
次に、図面を参照しながら本発明に係る第2の実施形態について詳細に説明する。なお、第2の実施形態における表示型入力装置の構成は、図1及び図2に示す第1の実施形態と同様であり、その説明は省略する。以下では、第1の実施形態との差分について説明する。
(Second Embodiment)
Next, a second embodiment according to the present invention will be described in detail with reference to the drawings. Note that the configuration of the display-type input device in the second embodiment is the same as that of the first embodiment shown in FIGS. 1 and 2, and the description thereof is omitted. Below, the difference with 1st Embodiment is demonstrated.
本実施形態においては、ユーザ検出部102は表示型入力装置100付近のユーザの位置の変化のみならず、ジェスチャーをも検出する。そして、領域決定部103は、そのユーザのジェスチャーによって、検出したユーザ各々に対応する領域を変更する。これにより、操作領域があまり必要ではないユーザや表示型入力装置100の近傍にいるだけで操作していないようなユーザの操作領域を小さくすることができ、広い操作領域が必要なユーザにはより広い操作領域を割り当てることができる。
In this embodiment, the
次に、図5のフローチャートを参照しながら、ユーザのジェスチャーに応じて操作領域を変更する処理の流れを説明する。図5は、本実施形態におけるユーザの操作領域を割り当てる処理手順の一例を示すフローチャートである。
まず、ステップS501において、ユーザ検出部102は、表示型入力装置100付近にいるユーザを検出するまで待機し、ユーザを検出すると、ステップS502において、検出したユーザの位置情報を取得する。
Next, a flow of processing for changing the operation area according to the user's gesture will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart illustrating an example of a processing procedure for assigning a user operation area in the present embodiment.
First, in step S501, the
次に、ステップS503において、領域決定部103は、検出したユーザの位置から一定の範囲の、表示型入力装置100の表示装置108上にユーザが操作可能な領域を確保する。なお、検出したユーザが複数の場合は、第1の実施形態と同様に振り分ける。そして、ステップS504において、ユーザ検出部102は、ユーザのジェスチャー等を識別する。なお、ユーザのジェスチャー等を識別する方法については後述する。
Next, in step S503, the
次に、ステップS505において、ユーザ検出部102は、ユーザのジェスチャー等が操作領域のサイズを変更する対象のジェスチャー等と一致するか否かを判断する。この判断の結果、変更する対象のジェスチャー等と一致しない場合は、そのまま処理を終了する。一方、ステップS505の判断の結果、変更する対象のジェスチャー等と一致する場合は、ステップS506に進み、領域決定部103は、操作領域のサイズを変更し、処理を終了する。なお、第1の実施形態と同様に、これらの処理を一定時間の間隔で更新することにより、ユーザの位置やジェスチャー等が変化した場合も対応することができる。
Next, in step S <b> 505, the
次に、図5のステップS504に係るユーザの位置の変化やジェスチャーを識別する方法について説明する。ユーザの位置の変化やジェスチャーを識別する方法としては、例えば図6に示すように、撮像装置等を用いて画像認識を行う。具体的には、操作領域を拡張または縮小する対象となるジェスチャーや形態を予め登録しておき、ユーザ検出部102は、撮像装置等から表示型入力装置100周辺についての画像データを入力する。そして、画像認識により、ユーザの動作と登録したジェスチャー等とが一致した場合に操作領域の変更処理を行う。
Next, a method for identifying a change in the position of the user and a gesture according to step S504 in FIG. 5 will be described. As a method for identifying a change in a user's position or a gesture, for example, as shown in FIG. 6, image recognition is performed using an imaging device or the like. Specifically, a gesture or a form for expanding or reducing the operation region is registered in advance, and the
例えば、ユーザが表示型入力装置100の方を向いていない場合には、そのユーザは作業をしていないものと識別し、ステップS506において、操作領域を縮小または無くすようにする。また、ユーザが表示型入力装置100の方を向いているが、一定時間以上操作が無い場合や動きが無い場合は、ステップS506において、操作領域を縮小または無くすようにする。一方、入力取得部101が、ユーザの領域外であって他のユーザに割り当てられていない領域のコンテンツにユーザが手を伸ばしたことを検出した場合は、一時的に領域を拡大するようにする。なお、これらの画像認識技術については、従来技術により実現可能である。
For example, if the user is not facing the display-
以上のように本実施形態によれば、表示装置108の近傍に位置するユーザのジェスチャーをも認識するようにしたので、ユーザごとに効率よく操作領域を振り分けることができる。
As described above, according to the present embodiment, since the user's gesture located in the vicinity of the
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
101 入力取得部、102 ユーザ検出部、103 領域決定部、104 入力制御部、108 表示装置 DESCRIPTION OF SYMBOLS 101 Input acquisition part, 102 User detection part, 103 Area | region determination part, 104 Input control part, 108 Display apparatus
Claims (9)
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得手段と、
前記ユーザ検出手段により検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定手段と、
前記入力取得手段によって検出されたそれぞれのユーザによる操作を、前記領域決定手段によって決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御手段とを備えることを特徴とする情報入力装置。 User detection means for detecting a plurality of users located in the vicinity of the display device;
Input acquisition means for detecting operations by the plurality of users on the screen of the display device;
Area determining means for determining an operable area for each user detected by the user detecting means;
An information input device comprising: an input control unit that distributes an operation by each user detected by the input acquisition unit as an independent operation of each user for each area determined by the area determination unit.
前記領域決定手段は、前記検出した位置の変化に応じて前記各ユーザに対応する領域を移動させることを特徴とする請求項1に記載の情報入力装置。 The user detection means also detects a change in the position of the user,
The information input device according to claim 1, wherein the area determination unit moves an area corresponding to each user according to the change in the detected position.
前記領域決定手段は、前記検出したジェスチャーに応じて前記各ユーザに対応する領域を拡大または縮小することを特徴とする請求項1または2に記載の情報入力装置。 The user detection means also detects a user gesture,
The information input device according to claim 1, wherein the area determination unit enlarges or reduces an area corresponding to each user according to the detected gesture.
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得工程と、
前記ユーザ検出工程において検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定工程と、
前記入力取得工程において検出されたそれぞれのユーザによる操作を、前記領域決定工程において決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御工程とを備えることを特徴とする情報入力方法。 A user detection step of detecting a plurality of users located in the vicinity of the display device;
An input acquisition step of detecting operations by the plurality of users on the screen of the display device;
An area determining step for determining an operable area for each user detected in the user detecting step;
An information input method comprising: an input control step of assigning each user's operation detected in the input acquisition step as an independent operation of each user for each region determined in the region determination step.
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得工程と、
前記ユーザ検出工程において検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定工程と、
前記入力取得工程において検出されたそれぞれのユーザによる操作を、前記領域決定工程において決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御工程とをコンピュータに実行させることを特徴とするプログラム。 A user detection step of detecting a plurality of users located in the vicinity of the display device;
An input acquisition step of detecting operations by the plurality of users on the screen of the display device;
An area determining step for determining an operable area for each user detected in the user detecting step;
A program that causes a computer to execute an input control step that distributes an operation by each user detected in the input acquisition step as an independent operation of each user for each region determined in the region determination step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015840A JP5618554B2 (en) | 2010-01-27 | 2010-01-27 | Information input device, information input method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010015840A JP5618554B2 (en) | 2010-01-27 | 2010-01-27 | Information input device, information input method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011154546A true JP2011154546A (en) | 2011-08-11 |
JP5618554B2 JP5618554B2 (en) | 2014-11-05 |
Family
ID=44540457
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010015840A Active JP5618554B2 (en) | 2010-01-27 | 2010-01-27 | Information input device, information input method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5618554B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2685368A2 (en) | 2012-07-09 | 2014-01-15 | Konica Minolta, Inc. | Operation display device, operation display method and tangible computer-readable recording medium |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
JP2014081788A (en) * | 2012-10-16 | 2014-05-08 | Canon Inc | Hand gesture recognition device and control method thereof |
JP2015138291A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Input control apparatus, input control method, and program |
JP2015191435A (en) * | 2014-03-28 | 2015-11-02 | 株式会社ユピテル | Electronic information system and program thereof |
JP2017049984A (en) * | 2015-08-31 | 2017-03-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, control method thereof and program, and information processing system, control method thereof and program |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS619073A (en) * | 1984-06-25 | 1986-01-16 | Matsushita Electric Works Ltd | Electronic conference system |
JPH0659813A (en) * | 1992-08-07 | 1994-03-04 | Fuji Xerox Co Ltd | Electronic information picture drawing device |
WO1997035248A1 (en) * | 1996-03-15 | 1997-09-25 | Hitachi, Ltd. | Display and its operating method |
JP2005352579A (en) * | 2004-06-08 | 2005-12-22 | Fuji Photo Film Co Ltd | Image display table and image display control system |
JP2008268327A (en) * | 2007-04-17 | 2008-11-06 | Sharp Corp | Information display device |
JP2008269044A (en) * | 2007-04-17 | 2008-11-06 | Sharp Corp | Display control device and display control program |
JP2009265709A (en) * | 2008-04-22 | 2009-11-12 | Hitachi Ltd | Input device |
JP2009545050A (en) * | 2006-07-28 | 2009-12-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Private screen automatically distributed along the shop window |
WO2010035477A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
JP2012529099A (en) * | 2009-06-05 | 2012-11-15 | サムスン エレクトロニクス カンパニー リミテッド | User-specific UI providing method and device using the same |
-
2010
- 2010-01-27 JP JP2010015840A patent/JP5618554B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS619073A (en) * | 1984-06-25 | 1986-01-16 | Matsushita Electric Works Ltd | Electronic conference system |
JPH0659813A (en) * | 1992-08-07 | 1994-03-04 | Fuji Xerox Co Ltd | Electronic information picture drawing device |
WO1997035248A1 (en) * | 1996-03-15 | 1997-09-25 | Hitachi, Ltd. | Display and its operating method |
JP2005352579A (en) * | 2004-06-08 | 2005-12-22 | Fuji Photo Film Co Ltd | Image display table and image display control system |
JP2009545050A (en) * | 2006-07-28 | 2009-12-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Private screen automatically distributed along the shop window |
JP2008268327A (en) * | 2007-04-17 | 2008-11-06 | Sharp Corp | Information display device |
JP2008269044A (en) * | 2007-04-17 | 2008-11-06 | Sharp Corp | Display control device and display control program |
JP2009265709A (en) * | 2008-04-22 | 2009-11-12 | Hitachi Ltd | Input device |
WO2010035477A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
JP2012529099A (en) * | 2009-06-05 | 2012-11-15 | サムスン エレクトロニクス カンパニー リミテッド | User-specific UI providing method and device using the same |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2685368A2 (en) | 2012-07-09 | 2014-01-15 | Konica Minolta, Inc. | Operation display device, operation display method and tangible computer-readable recording medium |
JP2014016803A (en) * | 2012-07-09 | 2014-01-30 | Konica Minolta Inc | Operation display device and program |
US9791947B2 (en) | 2012-07-09 | 2017-10-17 | Konica Minolta Inc. | Operation display device, operation display method and tangible computer-readable recording medium |
JP2014081788A (en) * | 2012-10-16 | 2014-05-08 | Canon Inc | Hand gesture recognition device and control method thereof |
JP2015138291A (en) * | 2014-01-20 | 2015-07-30 | キヤノン株式会社 | Input control apparatus, input control method, and program |
JP2015191435A (en) * | 2014-03-28 | 2015-11-02 | 株式会社ユピテル | Electronic information system and program thereof |
JP2017049984A (en) * | 2015-08-31 | 2017-03-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, control method thereof and program, and information processing system, control method thereof and program |
Also Published As
Publication number | Publication date |
---|---|
JP5618554B2 (en) | 2014-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5990011B2 (en) | Information processing apparatus and control method thereof | |
US9020194B2 (en) | Systems and methods for performing a device action based on a detected gesture | |
US10042438B2 (en) | Systems and methods for text entry | |
JP6004716B2 (en) | Information processing apparatus, control method therefor, and computer program | |
JP5618554B2 (en) | Information input device, information input method and program | |
US10268361B2 (en) | Display control device and display control method | |
JP6410537B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
JP6308769B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
CN107003804B (en) | Method, system and non-transitory computer readable recording medium for providing prototype design tool | |
US9213479B2 (en) | Method and apparatus for displaying image | |
EP2418573A2 (en) | Display apparatus and method for moving displayed object | |
CN105700727A (en) | Interacting With Application layer Beneath Transparent Layer | |
TWI354223B (en) | ||
US20150077331A1 (en) | Display control device, display control method, and program | |
WO2009119716A1 (en) | Information processing system, information processing device, method, and program | |
WO2008004624A1 (en) | Handwritten input processing device, handwritten input processing method, and handwritten input processing program | |
JP2014013487A (en) | Display device and program | |
CN104503697B (en) | A kind of information processing method and electronic equipment | |
JP2014067289A (en) | Information processing apparatus and display control method | |
US9542040B2 (en) | Method for detection and rejection of pointer contacts in interactive input systems | |
JP5812582B2 (en) | Information processing apparatus and information processing method | |
US20210072884A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP5675196B2 (en) | Information processing apparatus and control method thereof | |
JP2016018428A (en) | Electronic apparatus, method and program | |
US9727236B2 (en) | Computer input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140916 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5618554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |