JP2011154546A - Device and method for inputting information, and program - Google Patents

Device and method for inputting information, and program Download PDF

Info

Publication number
JP2011154546A
JP2011154546A JP2010015840A JP2010015840A JP2011154546A JP 2011154546 A JP2011154546 A JP 2011154546A JP 2010015840 A JP2010015840 A JP 2010015840A JP 2010015840 A JP2010015840 A JP 2010015840A JP 2011154546 A JP2011154546 A JP 2011154546A
Authority
JP
Japan
Prior art keywords
user
area
detected
display device
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010015840A
Other languages
Japanese (ja)
Other versions
JP5618554B2 (en
Inventor
Maki Mizuno
真貴 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010015840A priority Critical patent/JP5618554B2/en
Publication of JP2011154546A publication Critical patent/JP2011154546A/en
Application granted granted Critical
Publication of JP5618554B2 publication Critical patent/JP5618554B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow recognition of operation in each user when a plurality of users share a display device and perform the operation on a screen of the display device. <P>SOLUTION: A user detection part 102 detects the plurality of users positioned near the display device 108, and an input obtaining part 101 detects the operation by the plurality of users on the screen of the display device 108. An area determination part 103 determines an area operable to each user detected by the user detection part 102. When the input obtaining part 101 detects the operation of the user, an input control part 104 sorts the detected operation of the user as the independent operation of each user in each area determined by the area determination part 103. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は情報入力装置、情報入力方法及びプログラムに関し、特に、タッチパネルディスプレイ等の表示装置から情報を入力するために用いて好適な技術に関する。   The present invention relates to an information input device, an information input method, and a program, and more particularly, to a technique suitable for use in inputting information from a display device such as a touch panel display.

従来、タッチスクリーン機能を搭載したディスプレイ上に、独立に操作可能な領域を生成する技術が提案されている(例えば、特許文献1参照)。この技術によれば、ユーザによりディスプレイ面上へ操作されることによって領域を生成したりレイアウトを生成したりすることができる。   Conventionally, a technique for generating an independently operable region on a display equipped with a touch screen function has been proposed (see, for example, Patent Document 1). According to this technique, it is possible to generate a region or a layout by being operated on the display surface by the user.

特開2006−65558号公報JP 2006-65558 A

タッチスクリーン機能を搭載した1つの大型のディスプレイを複数のユーザが共有して操作すると、ディスプレイ上で複数の操作が同時に行われる。この場合に特許文献1に記載の装置では、例えば、あるユーザがコピー・ペースト等を連続して操作したいときに、途中で他のユーザがコピーする操作を行うとバッファの情報が上書きされ、ユーザがコピーしようと思っていた対象が変わってしまうことがある。また、単にカーソルを合わせるだけの作業についても、他のユーザがポインティングした場合にカーソルが意図していない方向に移動してしまうことがある。このように、個々の操作が同じユーザによって行われたのか否かをディスプレイ側で把握できないため、ユーザの意図したものとは異なる動作を行ってしまうという問題点がある。   When a plurality of users share and operate one large display equipped with a touch screen function, a plurality of operations are simultaneously performed on the display. In this case, in the apparatus described in Patent Document 1, for example, when a certain user wants to continuously perform copy / paste operations, when another user performs a copy operation on the way, the buffer information is overwritten, and the user The subject that I was trying to copy may change. In addition, when the user simply points the cursor, the cursor may move in an unintended direction when another user points. Thus, since it cannot be grasped on the display side whether each operation was performed by the same user, there exists a problem that operation | movement different from what a user intended is performed.

本発明は前述の問題点に鑑み、表示装置の画面上で複数のユーザが共有して操作する場合に、ユーザごとに操作を認識できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to make it possible to recognize an operation for each user when a plurality of users share and operate on the screen of a display device.

本発明の情報入力装置は、表示装置の近傍に位置する複数のユーザを検出するユーザ検出手段と、前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得手段と、前記ユーザ検出手段により検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定手段と、前記入力取得手段によって検出されたそれぞれのユーザによる操作を、前記領域決定手段によって決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御手段とを備えることを特徴とする。   The information input device of the present invention includes user detection means for detecting a plurality of users located in the vicinity of the display device, input acquisition means for detecting operations by the plurality of users on the screen of the display device, and the user detection Region determining means for determining an operable area for each user detected by the means, and each user's operation detected by the input acquiring means for each area determined by the area determining means. And an input control means for distributing as the operated operation.

本発明によれば、ユーザがわざわざ操作領域を確保するために特別な措置を行うことを不要にして、個々のユーザの操作が他のユーザに影響を及ぼすことを防止することができる。   According to the present invention, it is not necessary for the user to bother to secure an operation area, and it is possible to prevent the operation of an individual user from affecting other users.

実施形態に係る表示型入力装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the display type input device which concerns on embodiment. 実施形態に係る表示型入力装置のハード構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the display type input device which concerns on embodiment. 入力取得部が取得する入力情報のデータ構造例を示す図である。It is a figure which shows the example of a data structure of the input information which an input acquisition part acquires. ユーザの操作領域を割り当てる手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which allocates a user's operation area | region. ユーザの操作領域を割り当てる手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure which allocates a user's operation area | region. ユーザを検知する様子を示す図である。It is a figure which shows a mode that a user is detected.

(第1の実施形態)
以下、図面を参照しながら、本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施形態において、情報入力装置の一例として表示型入力装置100の機能構成例を示すブロック図である。
本実施形態における表示型入力装置100は、入力取得部101、ユーザ検出部102、領域決定部103、入力制御部104、コンテンツアクセス部105、コンテンツデータベース106、及びコンテンツ表示制御部107を備えている。
(First embodiment)
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.
FIG. 1 is a block diagram illustrating a functional configuration example of a display-type input device 100 as an example of an information input device in the present embodiment.
The display-type input device 100 according to the present embodiment includes an input acquisition unit 101, a user detection unit 102, an area determination unit 103, an input control unit 104, a content access unit 105, a content database 106, and a content display control unit 107. .

入力取得部101は、表示装置108の画面上に対するユーザからの指またはペン等によるポインティングデバイスを表す接触操作を検出し、図3に示す入力情報301を出力する。図3は、入力情報301のデータ構造例を示す図である。入力情報301は複数の単一入力情報302から構成され、個々の単一入力情報302はポインティング情報303と操作情報304とから構成されている。さらに、ポインティング情報303は、ポインティングの発生した時刻305と表示装置108上の座標306との情報からなり、操作情報304は、カット(切り取り)又はペースト(貼り付け)のうち、いずれかを示す情報である。なお、入力取得部101は、複数の入力情報301を同時に取得できる機能を有する。このような機能は、例えばマルチタッチ型入力デバイス等の従来技術で実現可能である。   The input acquisition unit 101 detects a touch operation representing a pointing device with a finger or a pen from the user on the screen of the display device 108, and outputs input information 301 shown in FIG. FIG. 3 is a diagram illustrating a data structure example of the input information 301. The input information 301 is composed of a plurality of single input information 302, and each single input information 302 is composed of pointing information 303 and operation information 304. Further, the pointing information 303 includes information of the time 305 when the pointing occurred and the coordinates 306 on the display device 108, and the operation information 304 is information indicating either cut (paste) or paste (paste). It is. The input acquisition unit 101 has a function of acquiring a plurality of input information 301 at the same time. Such a function can be realized by a conventional technique such as a multi-touch type input device.

ユーザ検出部102は、表示型入力装置100の近傍に位置するユーザを検出し、その位置を領域決定部103に通知する。ユーザ検出部102がユーザを検出する具体的な方法としては、カメラで撮影した撮像画像から人物を検出する方法や、赤外線センサーによって検出する方法、表示型入力装置100の周囲に巡らした圧力を検出する方法などである。   The user detection unit 102 detects a user located in the vicinity of the display type input device 100 and notifies the region determination unit 103 of the position. Specific methods for detecting the user by the user detection unit 102 include a method of detecting a person from a captured image captured by a camera, a method of detecting by a infrared sensor, and a pressure around the display-type input device 100. It is a method to do.

領域決定部103は、ユーザ検出部102により検出したユーザの位置から、当該ユーザから決められた範囲内に独立で操作可能な領域を割り当てる。入力制御部104は、入力取得部101から入力された入力情報301を領域決定部103で決定した領域ごとの操作に振り分ける。コンテンツアクセス部105は、コンテンツそのものへカット及びペーストの操作を行ったり、描画もしくはポインティング等の操作を行ったりする。コンテンツ表示制御部は、コンテンツアクセス部105により操作されたコンテンツデータをレイアウトして、画像データ(イメージデータ)をそれぞれ生成して表示装置108に表示する。   The area determination unit 103 allocates an independently operable area within a range determined by the user from the position of the user detected by the user detection unit 102. The input control unit 104 distributes the input information 301 input from the input acquisition unit 101 to the operation for each region determined by the region determination unit 103. The content access unit 105 performs cut and paste operations on the content itself, and performs operations such as drawing or pointing. The content display control unit lays out the content data operated by the content access unit 105, generates image data (image data), and displays them on the display device 108.

図2は、本実施形態に係る表示型入力装置100の主要部の物理的なハード構成例を示すブロック図である。
図2において、タッチパネルディスプレイ200は入力取得部101及び表示装置108の機能を備え無線通信装置201及びIOコントローラ203はユーザ検出部102の機能を備えている。また、HDD(Hard Disk Drive)205はコンテンツデータベース106として機能し、ディスクコントローラ204によりコンテンツデータ等が読み出される。さらに、バス209を介してCPU206、ROM207及びRAM208上で実行可能なプログラムにより図1のその他の構成がそれぞれ実現される。
FIG. 2 is a block diagram illustrating a physical hardware configuration example of a main part of the display-type input device 100 according to the present embodiment.
In FIG. 2, the touch panel display 200 has the functions of the input acquisition unit 101 and the display device 108, and the wireless communication device 201 and the IO controller 203 have the functions of the user detection unit 102. An HDD (Hard Disk Drive) 205 functions as the content database 106, and content data and the like are read by the disk controller 204. Further, the other configurations in FIG. 1 are realized by programs that can be executed on the CPU 206, the ROM 207, and the RAM 208 via the bus 209.

次に、図4のフローチャートを参照しながら、ユーザを検出して当該ユーザに対しての操作領域を割り当てる処理の流れを説明する。図4は、本実施形態におけるユーザの操作領域を割り当てる処理手順の一例を示すフローチャートである。
まず、ステップS401において、ユーザ検出部102は、表示型入力装置100付近にいるユーザを検出するまで待機し、ユーザを検出すると、ステップS402において、検出したユーザの位置情報を取得する。
Next, the flow of processing for detecting a user and assigning an operation area to the user will be described with reference to the flowchart of FIG. FIG. 4 is a flowchart illustrating an example of a processing procedure for allocating a user operation area in the present embodiment.
First, in step S401, the user detection unit 102 stands by until a user in the vicinity of the display-type input device 100 is detected. When a user is detected, in step S402, the detected user position information is acquired.

次に、ステップS403において、領域決定部103は、検出したユーザの位置から一定の範囲の、表示型入力装置100の表示装置108上にユーザが操作可能な領域を確保する。このとき、複数のユーザを検出して各々の位置から一定の範囲で領域を区切る際に領域が重なる場合は、検出した各々のユーザ間の垂直二等分線で領域を切り分けるようにする。そして、処理を終了する。この結果、入力取得部101によりユーザの操作を検出すると、入力制御部104は、領域決定部103により決定された領域ごとに各ユーザの独立した操作として振り分ける。   Next, in step S <b> 403, the area determination unit 103 secures an area that can be operated by the user on the display device 108 of the display-type input device 100 within a certain range from the detected user position. At this time, when a plurality of users are detected and the regions are overlapped when the regions are divided from each position within a certain range, the regions are separated by vertical bisectors between the detected users. Then, the process ends. As a result, when the user operation is detected by the input acquisition unit 101, the input control unit 104 distributes each user as an independent operation for each region determined by the region determination unit 103.

さらに、以上のように図4に示した処理の流れを一定時間の間隔で更新することにより、ユーザの位置が変化した場合でも、検出したユーザ付近に操作可能な領域を移動させることができる。また、本実施形態では、ユーザの位置から一定の範囲で領域を割り当てるようにしたが、割り当てる領域は表示装置108の画面を区画で分割したり、予め決められた形の領域をユーザの位置を中心に割り当てたりしてもよい。このように、ユーザの位置から一定の範囲に限られたものではない。   Furthermore, by updating the processing flow shown in FIG. 4 at regular time intervals as described above, the operable region can be moved near the detected user even when the position of the user changes. In this embodiment, an area is allocated within a certain range from the user's position. However, the allocated area is obtained by dividing the screen of the display device 108 into sections, or by assigning an area of a predetermined shape to the user's position. It may be assigned to the center. Thus, it is not limited to a certain range from the user's position.

以上のように本実施形態によれば、表示装置108の近傍に位置するユーザを認識し、ユーザの位置からある範囲に操作領域を割り当てるようにしたので、個々のユーザの操作が他のユーザに影響を及ぼすことを防止することができる。   As described above, according to the present embodiment, a user located in the vicinity of the display device 108 is recognized, and an operation area is assigned to a certain range from the user's position. It is possible to prevent the influence.

(第2の実施形態)
次に、図面を参照しながら本発明に係る第2の実施形態について詳細に説明する。なお、第2の実施形態における表示型入力装置の構成は、図1及び図2に示す第1の実施形態と同様であり、その説明は省略する。以下では、第1の実施形態との差分について説明する。
(Second Embodiment)
Next, a second embodiment according to the present invention will be described in detail with reference to the drawings. Note that the configuration of the display-type input device in the second embodiment is the same as that of the first embodiment shown in FIGS. 1 and 2, and the description thereof is omitted. Below, the difference with 1st Embodiment is demonstrated.

本実施形態においては、ユーザ検出部102は表示型入力装置100付近のユーザの位置の変化のみならず、ジェスチャーをも検出する。そして、領域決定部103は、そのユーザのジェスチャーによって、検出したユーザ各々に対応する領域を変更する。これにより、操作領域があまり必要ではないユーザや表示型入力装置100の近傍にいるだけで操作していないようなユーザの操作領域を小さくすることができ、広い操作領域が必要なユーザにはより広い操作領域を割り当てることができる。   In this embodiment, the user detection unit 102 detects not only a change in the position of the user near the display-type input device 100 but also a gesture. And the area | region determination part 103 changes the area | region corresponding to each detected user with the user's gesture. As a result, the operation area of a user who does not need an operation area or a user who is not operating just by being in the vicinity of the display-type input device 100 can be reduced. A wide operation area can be assigned.

次に、図5のフローチャートを参照しながら、ユーザのジェスチャーに応じて操作領域を変更する処理の流れを説明する。図5は、本実施形態におけるユーザの操作領域を割り当てる処理手順の一例を示すフローチャートである。
まず、ステップS501において、ユーザ検出部102は、表示型入力装置100付近にいるユーザを検出するまで待機し、ユーザを検出すると、ステップS502において、検出したユーザの位置情報を取得する。
Next, a flow of processing for changing the operation area according to the user's gesture will be described with reference to the flowchart of FIG. FIG. 5 is a flowchart illustrating an example of a processing procedure for assigning a user operation area in the present embodiment.
First, in step S501, the user detection unit 102 stands by until a user in the vicinity of the display-type input device 100 is detected. When the user is detected, in step S502, the detected user position information is acquired.

次に、ステップS503において、領域決定部103は、検出したユーザの位置から一定の範囲の、表示型入力装置100の表示装置108上にユーザが操作可能な領域を確保する。なお、検出したユーザが複数の場合は、第1の実施形態と同様に振り分ける。そして、ステップS504において、ユーザ検出部102は、ユーザのジェスチャー等を識別する。なお、ユーザのジェスチャー等を識別する方法については後述する。   Next, in step S503, the region determination unit 103 secures a region that can be operated by the user on the display device 108 of the display-type input device 100 within a certain range from the detected user position. In addition, when there are a plurality of detected users, distribution is performed in the same manner as in the first embodiment. In step S504, the user detection unit 102 identifies a user's gesture or the like. A method for identifying the user's gesture and the like will be described later.

次に、ステップS505において、ユーザ検出部102は、ユーザのジェスチャー等が操作領域のサイズを変更する対象のジェスチャー等と一致するか否かを判断する。この判断の結果、変更する対象のジェスチャー等と一致しない場合は、そのまま処理を終了する。一方、ステップS505の判断の結果、変更する対象のジェスチャー等と一致する場合は、ステップS506に進み、領域決定部103は、操作領域のサイズを変更し、処理を終了する。なお、第1の実施形態と同様に、これらの処理を一定時間の間隔で更新することにより、ユーザの位置やジェスチャー等が変化した場合も対応することができる。   Next, in step S <b> 505, the user detection unit 102 determines whether or not the user's gesture or the like matches the target gesture or the like whose size of the operation area is to be changed. If the result of this determination does not match the gesture to be changed, etc., the process is terminated as it is. On the other hand, if the result of determination in step S505 is coincident with the gesture or the like to be changed, the process proceeds to step S506, where the area determination unit 103 changes the size of the operation area and ends the process. Note that, as in the first embodiment, by updating these processes at regular time intervals, it is possible to cope with a change in the user's position, gesture, or the like.

次に、図5のステップS504に係るユーザの位置の変化やジェスチャーを識別する方法について説明する。ユーザの位置の変化やジェスチャーを識別する方法としては、例えば図6に示すように、撮像装置等を用いて画像認識を行う。具体的には、操作領域を拡張または縮小する対象となるジェスチャーや形態を予め登録しておき、ユーザ検出部102は、撮像装置等から表示型入力装置100周辺についての画像データを入力する。そして、画像認識により、ユーザの動作と登録したジェスチャー等とが一致した場合に操作領域の変更処理を行う。   Next, a method for identifying a change in the position of the user and a gesture according to step S504 in FIG. 5 will be described. As a method for identifying a change in a user's position or a gesture, for example, as shown in FIG. 6, image recognition is performed using an imaging device or the like. Specifically, a gesture or a form for expanding or reducing the operation region is registered in advance, and the user detection unit 102 inputs image data about the display input device 100 from an imaging device or the like. Then, by the image recognition, when the user's action matches the registered gesture or the like, an operation area change process is performed.

例えば、ユーザが表示型入力装置100の方を向いていない場合には、そのユーザは作業をしていないものと識別し、ステップS506において、操作領域を縮小または無くすようにする。また、ユーザが表示型入力装置100の方を向いているが、一定時間以上操作が無い場合や動きが無い場合は、ステップS506において、操作領域を縮小または無くすようにする。一方、入力取得部101が、ユーザの領域外であって他のユーザに割り当てられていない領域のコンテンツにユーザが手を伸ばしたことを検出した場合は、一時的に領域を拡大するようにする。なお、これらの画像認識技術については、従来技術により実現可能である。   For example, if the user is not facing the display-type input device 100, the user is identified as not working, and the operation area is reduced or eliminated in step S506. If the user is facing the display-type input device 100 but has not been operated for a certain period of time or has not moved, the operation area is reduced or eliminated in step S506. On the other hand, if the input acquisition unit 101 detects that the user has reached out to content in an area that is outside the user's area and not assigned to another user, the area is temporarily enlarged. . Note that these image recognition techniques can be realized by conventional techniques.

以上のように本実施形態によれば、表示装置108の近傍に位置するユーザのジェスチャーをも認識するようにしたので、ユーザごとに効率よく操作領域を振り分けることができる。   As described above, according to the present embodiment, since the user's gesture located in the vicinity of the display device 108 is also recognized, the operation area can be efficiently allocated for each user.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

101 入力取得部、102 ユーザ検出部、103 領域決定部、104 入力制御部、108 表示装置 DESCRIPTION OF SYMBOLS 101 Input acquisition part, 102 User detection part, 103 Area | region determination part, 104 Input control part, 108 Display apparatus

Claims (9)

表示装置の近傍に位置する複数のユーザを検出するユーザ検出手段と、
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得手段と、
前記ユーザ検出手段により検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定手段と、
前記入力取得手段によって検出されたそれぞれのユーザによる操作を、前記領域決定手段によって決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御手段とを備えることを特徴とする情報入力装置。
User detection means for detecting a plurality of users located in the vicinity of the display device;
Input acquisition means for detecting operations by the plurality of users on the screen of the display device;
Area determining means for determining an operable area for each user detected by the user detecting means;
An information input device comprising: an input control unit that distributes an operation by each user detected by the input acquisition unit as an independent operation of each user for each area determined by the area determination unit.
前記ユーザ検出手段は、ユーザの位置の変化をも検出し、
前記領域決定手段は、前記検出した位置の変化に応じて前記各ユーザに対応する領域を移動させることを特徴とする請求項1に記載の情報入力装置。
The user detection means also detects a change in the position of the user,
The information input device according to claim 1, wherein the area determination unit moves an area corresponding to each user according to the change in the detected position.
前記ユーザ検出手段は、ユーザのジェスチャーをも検出し、
前記領域決定手段は、前記検出したジェスチャーに応じて前記各ユーザに対応する領域を拡大または縮小することを特徴とする請求項1または2に記載の情報入力装置。
The user detection means also detects a user gesture,
The information input device according to claim 1, wherein the area determination unit enlarges or reduces an area corresponding to each user according to the detected gesture.
前記ユーザ検出手段は、撮像画像から識別することにより前記ユーザのジェスチャーを検出することを特徴とする請求項3に記載の情報入力装置。   The information input device according to claim 3, wherein the user detection unit detects the user's gesture by identifying the captured image. 前記領域決定手段は、決定した領域外から前記入力取得手段により操作を検出した場合であって、前記検出した操作があった領域が他のユーザに振り分けられていない領域である場合に、前記操作があった領域を含むように前記操作を行ったユーザに対応する領域を拡大することを特徴とする請求項3または4に記載の情報入力装置。   The area determination means is a case where an operation is detected by the input acquisition means from outside the determined area, and the operation is performed when the area where the detected operation is performed is an area that is not distributed to other users. 5. The information input device according to claim 3, wherein an area corresponding to a user who performs the operation is expanded so as to include the area where the error occurred. 前記領域決定手段は、前記ユーザ検出手段により検出されたユーザの位置と前記ユーザの向きとによって、前記ユーザに対応する領域を拡大または縮小することを特徴とする請求項3〜5の何れか1項に記載の情報入力装置。   The region determination unit enlarges or reduces the region corresponding to the user according to the position of the user and the orientation of the user detected by the user detection unit. The information input device according to item. 前記ユーザ検出手段は、一定時間の間隔でユーザを検出することを特徴とする請求項1〜6の何れか1項に記載の情報入力装置。   The information input device according to claim 1, wherein the user detection unit detects a user at a constant time interval. 表示装置の近傍に位置する複数のユーザを検出するユーザ検出工程と、
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得工程と、
前記ユーザ検出工程において検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定工程と、
前記入力取得工程において検出されたそれぞれのユーザによる操作を、前記領域決定工程において決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御工程とを備えることを特徴とする情報入力方法。
A user detection step of detecting a plurality of users located in the vicinity of the display device;
An input acquisition step of detecting operations by the plurality of users on the screen of the display device;
An area determining step for determining an operable area for each user detected in the user detecting step;
An information input method comprising: an input control step of assigning each user's operation detected in the input acquisition step as an independent operation of each user for each region determined in the region determination step.
表示装置の近傍に位置する複数のユーザを検出するユーザ検出工程と、
前記表示装置の画面上における前記複数のユーザによる操作を検出する入力取得工程と、
前記ユーザ検出工程において検出されたそれぞれユーザに対する操作可能な領域を決定する領域決定工程と、
前記入力取得工程において検出されたそれぞれのユーザによる操作を、前記領域決定工程において決定された領域ごとに各ユーザの独立した操作として振り分ける入力制御工程とをコンピュータに実行させることを特徴とするプログラム。
A user detection step of detecting a plurality of users located in the vicinity of the display device;
An input acquisition step of detecting operations by the plurality of users on the screen of the display device;
An area determining step for determining an operable area for each user detected in the user detecting step;
A program that causes a computer to execute an input control step that distributes an operation by each user detected in the input acquisition step as an independent operation of each user for each region determined in the region determination step.
JP2010015840A 2010-01-27 2010-01-27 Information input device, information input method and program Active JP5618554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010015840A JP5618554B2 (en) 2010-01-27 2010-01-27 Information input device, information input method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010015840A JP5618554B2 (en) 2010-01-27 2010-01-27 Information input device, information input method and program

Publications (2)

Publication Number Publication Date
JP2011154546A true JP2011154546A (en) 2011-08-11
JP5618554B2 JP5618554B2 (en) 2014-11-05

Family

ID=44540457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010015840A Active JP5618554B2 (en) 2010-01-27 2010-01-27 Information input device, information input method and program

Country Status (1)

Country Link
JP (1) JP5618554B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2685368A2 (en) 2012-07-09 2014-01-15 Konica Minolta, Inc. Operation display device, operation display method and tangible computer-readable recording medium
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
JP2014081788A (en) * 2012-10-16 2014-05-08 Canon Inc Hand gesture recognition device and control method thereof
JP2015138291A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Input control apparatus, input control method, and program
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP2017049984A (en) * 2015-08-31 2017-03-09 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof and program, and information processing system, control method thereof and program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS619073A (en) * 1984-06-25 1986-01-16 Matsushita Electric Works Ltd Electronic conference system
JPH0659813A (en) * 1992-08-07 1994-03-04 Fuji Xerox Co Ltd Electronic information picture drawing device
WO1997035248A1 (en) * 1996-03-15 1997-09-25 Hitachi, Ltd. Display and its operating method
JP2005352579A (en) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd Image display table and image display control system
JP2008268327A (en) * 2007-04-17 2008-11-06 Sharp Corp Information display device
JP2008269044A (en) * 2007-04-17 2008-11-06 Sharp Corp Display control device and display control program
JP2009265709A (en) * 2008-04-22 2009-11-12 Hitachi Ltd Input device
JP2009545050A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Private screen automatically distributed along the shop window
WO2010035477A1 (en) * 2008-09-29 2010-04-01 パナソニック株式会社 User interface device, user interface method, and recording medium
JP2012529099A (en) * 2009-06-05 2012-11-15 サムスン エレクトロニクス カンパニー リミテッド User-specific UI providing method and device using the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS619073A (en) * 1984-06-25 1986-01-16 Matsushita Electric Works Ltd Electronic conference system
JPH0659813A (en) * 1992-08-07 1994-03-04 Fuji Xerox Co Ltd Electronic information picture drawing device
WO1997035248A1 (en) * 1996-03-15 1997-09-25 Hitachi, Ltd. Display and its operating method
JP2005352579A (en) * 2004-06-08 2005-12-22 Fuji Photo Film Co Ltd Image display table and image display control system
JP2009545050A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Private screen automatically distributed along the shop window
JP2008268327A (en) * 2007-04-17 2008-11-06 Sharp Corp Information display device
JP2008269044A (en) * 2007-04-17 2008-11-06 Sharp Corp Display control device and display control program
JP2009265709A (en) * 2008-04-22 2009-11-12 Hitachi Ltd Input device
WO2010035477A1 (en) * 2008-09-29 2010-04-01 パナソニック株式会社 User interface device, user interface method, and recording medium
JP2012529099A (en) * 2009-06-05 2012-11-15 サムスン エレクトロニクス カンパニー リミテッド User-specific UI providing method and device using the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2685368A2 (en) 2012-07-09 2014-01-15 Konica Minolta, Inc. Operation display device, operation display method and tangible computer-readable recording medium
JP2014016803A (en) * 2012-07-09 2014-01-30 Konica Minolta Inc Operation display device and program
US9791947B2 (en) 2012-07-09 2017-10-17 Konica Minolta Inc. Operation display device, operation display method and tangible computer-readable recording medium
JP2014081788A (en) * 2012-10-16 2014-05-08 Canon Inc Hand gesture recognition device and control method thereof
JP2015138291A (en) * 2014-01-20 2015-07-30 キヤノン株式会社 Input control apparatus, input control method, and program
JP2015191435A (en) * 2014-03-28 2015-11-02 株式会社ユピテル Electronic information system and program thereof
JP2017049984A (en) * 2015-08-31 2017-03-09 キヤノンマーケティングジャパン株式会社 Information processing device, control method thereof and program, and information processing system, control method thereof and program

Also Published As

Publication number Publication date
JP5618554B2 (en) 2014-11-05

Similar Documents

Publication Publication Date Title
JP5990011B2 (en) Information processing apparatus and control method thereof
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
US10042438B2 (en) Systems and methods for text entry
JP6004716B2 (en) Information processing apparatus, control method therefor, and computer program
JP5618554B2 (en) Information input device, information input method and program
US10268361B2 (en) Display control device and display control method
JP6410537B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP6308769B2 (en) Information processing apparatus, control method therefor, program, and storage medium
CN107003804B (en) Method, system and non-transitory computer readable recording medium for providing prototype design tool
US9213479B2 (en) Method and apparatus for displaying image
EP2418573A2 (en) Display apparatus and method for moving displayed object
CN105700727A (en) Interacting With Application layer Beneath Transparent Layer
TWI354223B (en)
US20150077331A1 (en) Display control device, display control method, and program
WO2009119716A1 (en) Information processing system, information processing device, method, and program
WO2008004624A1 (en) Handwritten input processing device, handwritten input processing method, and handwritten input processing program
JP2014013487A (en) Display device and program
CN104503697B (en) A kind of information processing method and electronic equipment
JP2014067289A (en) Information processing apparatus and display control method
US9542040B2 (en) Method for detection and rejection of pointer contacts in interactive input systems
JP5812582B2 (en) Information processing apparatus and information processing method
US20210072884A1 (en) Information processing apparatus and non-transitory computer readable medium
JP5675196B2 (en) Information processing apparatus and control method thereof
JP2016018428A (en) Electronic apparatus, method and program
US9727236B2 (en) Computer input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140916

R151 Written notification of patent or utility model registration

Ref document number: 5618554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151