JP5675196B2 - Information processing apparatus and control method thereof - Google Patents

Information processing apparatus and control method thereof Download PDF

Info

Publication number
JP5675196B2
JP5675196B2 JP2010166602A JP2010166602A JP5675196B2 JP 5675196 B2 JP5675196 B2 JP 5675196B2 JP 2010166602 A JP2010166602 A JP 2010166602A JP 2010166602 A JP2010166602 A JP 2010166602A JP 5675196 B2 JP5675196 B2 JP 5675196B2
Authority
JP
Japan
Prior art keywords
distance
operator
processing apparatus
information processing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010166602A
Other languages
Japanese (ja)
Other versions
JP2012027744A5 (en
JP2012027744A (en
Inventor
伊藤 光
光 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010166602A priority Critical patent/JP5675196B2/en
Publication of JP2012027744A publication Critical patent/JP2012027744A/en
Publication of JP2012027744A5 publication Critical patent/JP2012027744A5/ja
Application granted granted Critical
Publication of JP5675196B2 publication Critical patent/JP5675196B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、画面上に表示されているオブジェクトに対する、ユーザの操作性を向上する技術である。   The present invention is a technique for improving user operability with respect to an object displayed on a screen.

電子化された画像や文書等(以下オブジェクトと記載する)を大型のテーブル・ディスプレイや壁面ディスプレイに表示し、ユーザが表示されたオブジェクトに対し操作を行う装置が提案されている(特許文献1)。この装置は会議や研修等に利用され、出席者が表示されたオブジェクトに対し、拡大縮小、移動、編集、グループ化等の操作を行うことで、アイディアの整理や議論の活性化、効率化を促進する。   An apparatus has been proposed in which an electronic image, document, or the like (hereinafter referred to as an object) is displayed on a large table display or wall display, and a user operates the displayed object (Patent Document 1). . This device is used for meetings, training, etc., and by performing operations such as enlargement / reduction, movement, editing, grouping, etc. on the objects displayed by attendees, it is possible to organize ideas, activate discussions, and improve efficiency. Facilitate.

この装置のディスプレイ近傍には、タッチパネル、デジタイザ、距離センサ等が組み込まれており、画面上に表示されたオブジェクトに対し、タッチ操作やジェスチャ操作といった直感的な操作が可能である。   In the vicinity of the display of this apparatus, a touch panel, a digitizer, a distance sensor, and the like are incorporated, and an intuitive operation such as a touch operation or a gesture operation can be performed on an object displayed on the screen.

特開2006‐40271号公報JP 2006-40271 A

しかしながら、ジェスチャ操作を含む2つの操作方法で操作する場合、ジェスチャ操作と他の操作方法(例えば、タッチ操作)が干渉し、ユーザの操作性が低下するという課題がある。以下に、想定したユースケースについて説明する。   However, when operating by two operation methods including gesture operation, there exists a subject that gesture operation and other operation methods (for example, touch operation) interfere, and a user's operativity falls. The assumed use cases are described below.

画面上に表示されたオブジェクトの操作(例えば、選択操作)を行う。操作方法は、ジェスチャ操作と他の操作方法(例えば、タッチ操作)の両方を用いる。ジェスチャ操作とは、操作者の手と画面との距離に基づいて、オブジェクトを選択する。具体的には、この距離が近い場合は操作者を基準として近くのオブジェクトが選択され、遠い場合は操作者を基準として遠くのオブジェクトが選択される。タッチ操作とは、ユーザが選択したい表示オブジェクトに直接触れることで、オブジェクトを選択する。この2つの操作方法で操作する場合、タッチ操作でオブジェクトを選択する場合に、選択しようとするオブジェクトより近くにオブジェクトがあると、タッチする直前に近くのオブジェクトがジェスチャ操作により選択されてしまう。これは、タッチ操作に限らず、マウスやペンなどで操作する場合も同様で、空間的な操作であるジェスチャ操作と他の操作方法とで操作する場合に起こる課題である。   An operation (for example, selection operation) of an object displayed on the screen is performed. As the operation method, both a gesture operation and another operation method (for example, a touch operation) are used. In the gesture operation, an object is selected based on the distance between the operator's hand and the screen. Specifically, when this distance is short, a nearby object is selected with reference to the operator, and when it is far, a far object is selected with reference to the operator. The touch operation selects an object by directly touching a display object that the user wants to select. When operating with these two operation methods, when an object is selected by a touch operation, if there is an object near the object to be selected, the nearby object is selected by the gesture operation immediately before touching. This is not limited to a touch operation, and is similar to a case where an operation is performed with a mouse, a pen, or the like. This is a problem that occurs when a gesture operation that is a spatial operation and another operation method are used.

本発明は、上記課題を考慮してなされたもので、表示部に表示されたオブジェクトを、ジェスチャ操作を含む2つの操作方法で操作する際、前記2つの操作の干渉を抑制し、ユーザの操作性を高めることを目的とする。   The present invention has been made in consideration of the above-described problems. When an object displayed on the display unit is operated by two operation methods including a gesture operation, interference between the two operations is suppressed, and a user operation is performed. The purpose is to improve sex.

この課題を解決するため、本発明の情報処理装置は、ジェスチャ操作を含む複数種類の操作による入力を認識可能な情報処理装置であって、前記操作を行う操作者の位置と表示面に表示された複数のオブジェクトの表示位置との距離を取得するオブジェクト距離取得手段と、前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を取得する操作入力距離取得手段と、前記複数のオブジェクトのうち、前記オブジェクト距離取得手段で取得された距離前記操作入力距離取得手段で取得された距離より大きくなるオブジェクトを、前記ジェスチャ操作で操作可能なオブジェクトとして設定するジェスチャ操作対象設定手段を有することを特徴とする。 In order to solve this problem, an information processing apparatus according to the present invention is an information processing apparatus capable of recognizing input by a plurality of types of operations including a gesture operation, and is displayed on a position and a display surface of an operator who performs the operation. An object distance acquisition unit that acquires a distance from a display position of a plurality of objects, an operation input distance acquisition unit that acquires a distance between a position of an operator who performs the operation and an operation input position of the operator, of objects, the object distance said acquired by the object distance obtaining means becomes larger than the distance obtained by the operation input distance obtaining means, a gesture operation target setting unit for setting as an object operable by the gesture operation It is characterized by having.

本発明は、表示面に表示されたオブジェクトを、ジェスチャ操作を含む複数の操作方法で操作する際、複数ジェスチャ操作と他の操作方法との干渉を抑制し、ユーザの操作性を高めることができる。   According to the present invention, when an object displayed on the display surface is operated by a plurality of operation methods including a gesture operation, interference between the plurality of gesture operations and other operation methods can be suppressed, and the operability of the user can be improved. .

システムの概要図。FIG. 情報処理装置100のハードウェア構成図。2 is a hardware configuration diagram of the information processing apparatus 100. FIG. 情報処理装置100の機能構成図。2 is a functional configuration diagram of the information processing apparatus 100. FIG. 情報処理装置100の処理フローチャート。5 is a processing flowchart of the information processing apparatus 100. S403の詳細な処理フローチャート。The detailed process flowchart of S403. 実施例1におけるオブジェクト選択操作の概要図。FIG. 5 is a schematic diagram of an object selection operation in the first embodiment.

以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下説明する実施例は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the Example demonstrated below shows an example at the time of implementing this invention concretely, and is not restricted to this.

図1は、本実施例におけるシステム1001の概要図である。図1(a)は上面から見た図で、図1(b)は側面から見た図である。図1に示すように、システム1001は、テーブル型のディスプレイ101をユーザが利用して、アイディアの整理や議論を行うためのシステムである。ユーザは、表示部であるディスプレイ101に表示されたオブジェクト(102a〜102e)を、指や手を使ったタッチ操作、もしくはジェスチャ操作で選択し、操作する。   FIG. 1 is a schematic diagram of a system 1001 in the present embodiment. FIG. 1A is a view from the top, and FIG. 1B is a view from the side. As shown in FIG. 1, a system 1001 is a system for organizing and discussing ideas using a table-type display 101 by a user. The user selects and operates the objects (102a to 102e) displayed on the display 101 serving as a display unit by a touch operation using a finger or a hand or a gesture operation.

本実施例では、下方に投影可能なプロジェクタ104を利用して、ディスプレイ101にオブジェクトを投影する。なお、ディスプレイ101には、タッチパネルが組み込まれている。タッチパネルは、抵抗膜方式や静電容量方式等を用いる。本実施例では、ジェスチャ操作とタッチ操作の2つの操作方法で操作する例を示すが、タッチ操作の代わりに、例えば、マウスやペンなどで操作してもよい。つまり、空間的な操作であるジェスチャ操作と、接触により操作を行う他の操作であればよい。   In this embodiment, an object is projected onto the display 101 using the projector 104 that can project downward. The display 101 has a touch panel incorporated therein. The touch panel uses a resistance film method, a capacitance method, or the like. In this embodiment, an example in which the operation is performed by two operation methods of a gesture operation and a touch operation is shown. In other words, any gesture operation that is a spatial operation and other operations that perform an operation by contact may be used.

また、オブジェクトに対するジェスチャ操作を認識するためのセンサとして、画像センサ103を利用する。そして、画像センサ103から取り込んだ画像を解析し、操作者の位置や、操作入力に利用する手や指等の位置を算出する。これらの各デバイスは、情報処理装置100とネットワークもしくはUSBによって接続されており、協調して機能する。   The image sensor 103 is used as a sensor for recognizing a gesture operation on the object. Then, the image captured from the image sensor 103 is analyzed, and the position of the operator and the positions of hands and fingers used for operation input are calculated. Each of these devices is connected to the information processing apparatus 100 via a network or USB, and functions in cooperation.

本実施例では、1つのディスプレイ101と1つの画像センサ103を利用する例を示したが、その限りではなく複数利用しても良い。また、プロジェクタ104のような投影型表示装置ではなく、液晶、プラズマ、有機EL、無機EL等の異なる表示方式のディスプレイ101を利用してもよい。また、ディスプレイ101の設置方式は、テーブル型に限定せず、床面、壁面等に設置してもよい。また、画像センサ103に限定せず、赤外線センサや超音波センサ等を利用して、上記の位置算出処理を行ってもよい。   In this embodiment, an example is shown in which one display 101 and one image sensor 103 are used. However, the present invention is not limited to this, and a plurality of displays may be used. In addition, instead of a projection display device such as the projector 104, a display 101 having a different display method such as liquid crystal, plasma, organic EL, or inorganic EL may be used. Moreover, the installation method of the display 101 is not limited to the table type, and may be installed on a floor surface, a wall surface, or the like. In addition, the position calculation process may be performed using an infrared sensor or an ultrasonic sensor without being limited to the image sensor 103.

図2は、本実施例における情報処理装置100のハードウェア構成図である。情報処理装置100は、CPU200(Central Processing Unit)、RAM201(Random Access Memory)、ROM202(Read Only Memory)、バス203から構成される。さらに、ディスプレイI/F 204、ストレージI/F 205、ストレージ206、入力I/F 207から構成される。以下、情報処理装置100のハードウェア構成について、詳細に説明する。   FIG. 2 is a hardware configuration diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes a CPU 200 (Central Processing Unit), a RAM 201 (Random Access Memory), a ROM 202 (Read Only Memory), and a bus 203. Further, the display I / F 204, the storage I / F 205, the storage 206, and the input I / F 207 are configured. Hereinafter, the hardware configuration of the information processing apparatus 100 will be described in detail.

CPU200(Central Processing Unit)は、ROM202(Read Only Memory)及び/又はストレージ206に格納された制御プログラムを実行し、各デバイスを制御する。   A CPU 200 (Central Processing Unit) executes a control program stored in a ROM 202 (Read Only Memory) and / or a storage 206 to control each device.

RAM201(Random Access Memory)は、CPU200のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。   A RAM 201 (Random Access Memory) has a work area for the CPU 200, a data save area during error processing, a control program load area, and the like.

ROM202には、オペレーティングシステム(以下OS)をはじめ、本発明に係る各処理プログラム、デバイスドライバ等が記憶されている。   The ROM 202 stores an operating system (hereinafter referred to as OS), processing programs according to the present invention, device drivers, and the like.

バス203は、アドレスバス、データバス及びコントロールバスを含み、各種の通信を媒介する。   The bus 203 includes an address bus, a data bus, and a control bus, and mediates various communications.

ディスプレイI/F 204は、情報処理装置100で作成される表示画面を、ディスプレイ101が表示可能な信号に変換する。   The display I / F 204 converts a display screen created by the information processing apparatus 100 into a signal that can be displayed by the display 101.

ストレージI/F 205は、情報処理装置100で処理可能な映像データ形式と、ストレージ206に記憶する映像データ形式とを、相互に変換する。   The storage I / F 205 mutually converts the video data format that can be processed by the information processing apparatus 100 and the video data format stored in the storage 206.

入力I/F 207は、画像センサ103からの画像情報を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。   The input I / F 207 receives image information from the image sensor 103 as an input signal, and converts it into information that can be processed by the information processing apparatus 100.

ストレージ206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であり、情報処理装置100で表示するためのオブジェクトが記録されている。ストレージ206は、電子化されたマルチメディアデータを記憶している。具体的なデータの種別は、映像、静止画、音声、文書等である。これらのデータには、作成日時、編集日時、グループ等のメタデータが付与されていることが好ましい。これらのメタデータを用いて、データの表示順序を決定する。一方で、メタデータが付与されていない場合は、データファイルの名前で表示順序を決定してもよい。尚、ストレージ206は、情報処理装置100内部に搭載されていても良いし、イーサネット(登録商標)やUSB、メモリーカードI/Fなどの各種インターフェースを介して接続されていてもよい。その際、ストレージ206は複数台接続されていても構わない。   The storage 206 is a large-capacity information storage device represented by a hard disk drive device, and records objects to be displayed on the information processing apparatus 100. The storage 206 stores computerized multimedia data. Specific data types are video, still image, audio, document, and the like. These data are preferably provided with metadata such as creation date / time, edit date / time, and group. The display order of data is determined using these metadata. On the other hand, when metadata is not assigned, the display order may be determined by the name of the data file. The storage 206 may be mounted inside the information processing apparatus 100 or may be connected via various interfaces such as Ethernet (registered trademark), USB, and memory card I / F. At that time, a plurality of storages 206 may be connected.

図3は本実施例における情報処理装置100の機能構成図である。以下、図3に示した各部について説明する。尚、各機能部はハードウェア、ソフトウェアの組み合わせによって、様々な形態で実現できる。   FIG. 3 is a functional configuration diagram of the information processing apparatus 100 in the present embodiment. Hereinafter, each unit shown in FIG. 3 will be described. Each functional unit can be realized in various forms by a combination of hardware and software.

保持部301は、RAM201に相当し、表示するデータおよび関連するメタデータを、ストレージ206から読み出し、保持する。   The holding unit 301 corresponds to the RAM 201, and reads and holds data to be displayed and related metadata from the storage 206.

表示制御部302は、保持部301に保持されているデータから表示画面を生成し、ディスプレイ101に出力する。表示において、ストレージから読み出された各種データは、オブジェクトとして、ディスプレイ101に表示される。   The display control unit 302 generates a display screen from the data held in the holding unit 301 and outputs the display screen to the display 101. In the display, various data read from the storage are displayed on the display 101 as objects.

オブジェクト位置取得部303は、ディスプレイ101に表示されているオブジェクトの、画面内の位置情報を、保持部301から取得する。位置情報とは、例えば画面内におけるオブジェクトの中心点の位置座標である。ここでは、中心点に限定する必要はなく、重心点、外形上の点、任意の代表点でもよい。また座標は、例えばディスプレイ表示面の縦横の2軸から構成され、さらに高さ方向の軸を利用しても構わない。   The object position acquisition unit 303 acquires position information on the screen of the object displayed on the display 101 from the holding unit 301. The position information is, for example, position coordinates of the center point of the object in the screen. Here, it is not necessary to limit to the center point, and it may be a center of gravity point, a point on the outer shape, or an arbitrary representative point. Further, the coordinates are composed of, for example, two vertical and horizontal axes on the display surface, and an axis in the height direction may be used.

操作者位置取得部304は、画像センサ103から取り込まれた画像に画像処理を行い、ディスプレイ付近にいる操作者の位置を取得する。画像処理とは、例えば一般的な人体検出アルゴリズムを利用して、人物の位置を検出する。もしくは、一般的な顔検出アルゴリズムを利用して、顔の位置を検出する。そして、検出された顔の位置を基に、操作者の位置を算出する。これらのアルゴリズムは、ROM202に格納され、CPU200によって実行される。   The operator position acquisition unit 304 performs image processing on the image captured from the image sensor 103 and acquires the position of the operator near the display. In the image processing, for example, the position of a person is detected using a general human body detection algorithm. Alternatively, the position of the face is detected using a general face detection algorithm. Then, the position of the operator is calculated based on the detected face position. These algorithms are stored in the ROM 202 and executed by the CPU 200.

操作入力位置取得部305は、画像センサ103から取り込まれた画像を、画像処理し、操作者の腕、手もしくは指の位置を取得する。画像処理とは、例えば一般的な物体検出アルゴリズムを利用して、腕、手もしくは指の位置を検出する。このアルゴリズムは、ROM202に格納され、CPU200によって実行される。   The operation input position acquisition unit 305 performs image processing on the image captured from the image sensor 103 and acquires the position of the operator's arm, hand, or finger. In the image processing, for example, a position of an arm, a hand, or a finger is detected by using a general object detection algorithm. This algorithm is stored in the ROM 202 and executed by the CPU 200.

オブジェクト距離算出部310は、オブジェクト位置取得部303で取得されたオブジェクトの表示位置と、操作者位置取得部304で取得された操作者の位置から、オブジェクトの表示位置と操作者の位置との距離を算出する。なお、算出する距離は、ディスプレイの画面に対し平行な面における距離だけを検出することが好ましい。つまり、画面に対し高さ方向の距離は考慮せず、画面に対し縦横方向(平行)の距離のみ計算する。よって、計算する距離の成分を限定することにより、計算コストを削減することができる。   The object distance calculation unit 310 calculates the distance between the object display position and the operator position from the object display position acquired by the object position acquisition unit 303 and the operator position acquired by the operator position acquisition unit 304. Is calculated. In addition, it is preferable to detect only the distance in the plane parallel to the screen of the display. That is, the distance in the height direction with respect to the screen is not considered, and only the distance in the vertical and horizontal directions (parallel) is calculated with respect to the screen. Therefore, the calculation cost can be reduced by limiting the components of the distance to be calculated.

操作入力距離算出部311は、操作入力位置取得部305で取得された操作者の手や指等の操作入力の位置と、操作者位置取得部304で取得された操作者の位置から、操作入力の位置と操作者の位置との距離を算出する。なお、オブジェクト距離算出部310と同様、ディスプレイの画面に対し縦横方向(平行な面)の距離のみ計算することが好ましい。   The operation input distance calculation unit 311 operates from the position of the operation input such as the operator's hand or finger acquired by the operation input position acquisition unit 305 and the position of the operator acquired by the operator position acquisition unit 304. The distance between the position of the operator and the position of the operator is calculated. As with the object distance calculation unit 310, it is preferable to calculate only the distance in the vertical and horizontal directions (parallel planes) with respect to the display screen.

ジェスチャ操作対象設定部306は、オブジェクト距離算出部310で算出された距離が、操作入力距離算出部311で算出された距離より大きくなるオブジェクトを、ジェスチャ操作の操作対象とする。つまり、操作者を基準として、手や指等の操作入力の位置よりも遠くにあるオブジェクトが、ジェスチャ操作の操作対象となる。   The gesture operation target setting unit 306 sets an object whose distance calculated by the object distance calculation unit 310 is larger than the distance calculated by the operation input distance calculation unit 311 as the operation target of the gesture operation. That is, an object farther than the position of the operation input such as a hand or a finger with respect to the operator is an operation target of the gesture operation.

ジェスチャ操作認識部307は、ジェスチャ操作対象設定部306で選択されたオブジェクトに対し、ジェスチャによる選択操作を行う。ジェスチャによるオブジェクトの選択方法は、操作者の手とディスプレイの画面との距離に基づいて、オブジェクトを選択する。具体的には、遠くのオブジェクトを選択する場合は、操作者は手を画面から遠ざけ、近くのオブジェクトを選択する場合は、手を画面に近づける。上記処理に必要となる情報は、オブジェクト位置取得部303、操作者位置取得部304、操作入力位置取得部305から取得する。また、操作者が操作中に手をかざす方向を用いて、選択するオブジェクトを限定してもよい。具体的には、操作者位置と操作入力位置から上記方向が角度で算出され、算出された角度の±5°の範囲に存在するオブジェクトが選択処理の対象となる。   The gesture operation recognition unit 307 performs a selection operation using a gesture on the object selected by the gesture operation target setting unit 306. The method of selecting an object by gesture selects an object based on the distance between the operator's hand and the display screen. Specifically, when selecting a distant object, the operator moves his hand away from the screen, and when selecting a nearby object, the operator moves his hand closer to the screen. Information necessary for the above processing is acquired from the object position acquisition unit 303, the operator position acquisition unit 304, and the operation input position acquisition unit 305. Further, the objects to be selected may be limited by using the direction in which the operator holds his / her hand during the operation. Specifically, the direction is calculated as an angle from the operator position and the operation input position, and an object existing within a range of ± 5 ° of the calculated angle is a target of selection processing.

タッチ操作認識部308は、タッチパネルで検出される操作者のタッチ操作を認識し、認識された操作に基づいて、オブジェクトを選択する。具体的には、ディスプレイ101に表示されているオブジェクトを、操作者が触れる。触れる場所は、表示されているオブジェクト上が好ましいが、オブジェクト近傍でもよい。近傍にタッチした場合は、タッチした地点に最も近いオブジェクトが選択される。   The touch operation recognition unit 308 recognizes an operator's touch operation detected by the touch panel, and selects an object based on the recognized operation. Specifically, the operator touches an object displayed on the display 101. The touched place is preferably on the displayed object, but it may be near the object. When the vicinity is touched, the object closest to the touched point is selected.

オブジェクト処理部309は、タッチ操作認識部308とジェスチャ操作認識部307で選択されたオブジェクトに対して、所定の処理を行い、ディスプレイ101に表示する。尚、オブジェクトに対して処理を施さずに表示する場合は、オブジェクト処理部309は動作させずに、タッチ操作認識部308とジェスチャ操作認識部307で選択されたオブジェクトをディスプレイ101に表示する。   The object processing unit 309 performs predetermined processing on the object selected by the touch operation recognition unit 308 and the gesture operation recognition unit 307 and displays the object on the display 101. When the object is displayed without being processed, the object processing unit 309 displays the object selected by the touch operation recognition unit 308 and the gesture operation recognition unit 307 on the display 101 without operating.

図4は本実施例における情報処理装置100の処理フローチャートである。操作者が情報処理装置100の操作メニュー(図示していない)で、オブジェクト選択処理を選ぶと、上記処理が開始される。そして、操作メニューでオブジェクト選択処理以外を選ぶまで繰り返し処理を行う。   FIG. 4 is a processing flowchart of the information processing apparatus 100 in the present embodiment. When the operator selects an object selection process from an operation menu (not shown) of the information processing apparatus 100, the above process is started. Then, the process is repeated until an operation menu other than the object selection process is selected.

S401において、タッチ操作認識部308でタッチパネル上に操作者のタッチ操作があるか否かを判定する。タッチ操作がある場合はS402へ進み、無い場合はS403へ進む。   In step S <b> 401, the touch operation recognition unit 308 determines whether there is an operator's touch operation on the touch panel. If there is a touch operation, the process proceeds to S402, and if there is no touch operation, the process proceeds to S403.

S402において、タッチ操作認識部308で操作者のタッチ操作に基づいて、オブジェクトが選択される。   In S402, the touch operation recognition unit 308 selects an object based on the operator's touch operation.

S403において、ジェスチャ操作対象設定部306でジェスチャ操作の対象となるオブジェクトを設定する。詳細については、図5(A)の処理フローチャートで説明する。   In step S <b> 403, the gesture operation target setting unit 306 sets an object to be a gesture operation target. Details will be described with reference to the process flowchart of FIG.

S404において、ジェスチャ操作認識部307で、S403で操作対象となったオブジェクトの中から、ジェスチャ操作に基づいてオブジェクトが選択される。   In S404, the gesture operation recognizing unit 307 selects an object based on the gesture operation from the objects that are the operation target in S403.

図5(A)は本実施例におけるS403の詳細な処理フローチャートである。   FIG. 5A is a detailed process flowchart of S403 in the present embodiment.

S501において、操作者位置取得部304で操作者の位置を取得する。   In step S <b> 501, the operator position acquisition unit 304 acquires the operator's position.

S502において、オブジェクト位置取得部303でディスプレイ101に表示されているオブジェクトの表示位置を取得する。   In step S502, the object position acquisition unit 303 acquires the display position of the object displayed on the display 101.

S503において、オブジェクト距離算出部310で、操作者の位置とオブジェクトの表示位置との距離を算出する。   In step S503, the object distance calculation unit 310 calculates the distance between the position of the operator and the display position of the object.

S504において、操作入力位置取得部305で、ジェスチャ操作を行う操作入力の位置を取得する。   In step S <b> 504, the operation input position acquisition unit 305 acquires the position of the operation input for performing the gesture operation.

S505において、操作入力距離算出部311で、操作者の位置と操作入力の位置との距離を算出する。   In step S505, the operation input distance calculation unit 311 calculates the distance between the position of the operator and the position of the operation input.

S506において、ジェスチャ操作対象設定部306で、S503で算出された距離が、S505で算出された距離より大きくなるオブジェクトを、ジェスチャ操作の操作対象とする。つまり、操作者の位置を基準として、手の位置より遠くのオブジェクトを、ジェスチャ操作の対象とする。   In S506, the gesture operation target setting unit 306 sets an object whose distance calculated in S503 is larger than the distance calculated in S505 as the operation target of the gesture operation. That is, an object farther than the position of the hand with respect to the position of the operator is set as a gesture operation target.

尚、処理の順序として、S504とS505を、S502とS503の前にやってもよい。また、並列処理が可能であれば、S502とS503、S504とS505を並列に行ってもよい。   As the processing order, S504 and S505 may be performed before S502 and S503. If parallel processing is possible, S502 and S503, and S504 and S505 may be performed in parallel.

図6は、本実施例におけるオブジェクト選択操作の概略図である。図6(a)(b)(c)は、同一の上記処理を複数の視点から見た図である。図6(a)は上面から見た図で、図6(b)は側面から見た図で、図6(c)はオブジェクトと、ジェスチャ操作を行う手と画面からの距離とを対応付けた図である。   FIG. 6 is a schematic diagram of an object selection operation in the present embodiment. FIGS. 6A, 6B, and 6C are views of the same process as viewed from a plurality of viewpoints. 6A is a view from the top, FIG. 6B is a view from the side, and FIG. 6C associates the object, the hand performing the gesture operation, and the distance from the screen. FIG.

図6(a)では、テーブル型のディスプレイ上に、オブジェクトA、B、Cが表示されている。そして、操作者がジェスチャ操作で、これらのオブジェクトの中から任意のオブジェクトを選択している。   In FIG. 6A, objects A, B, and C are displayed on a table-type display. Then, the operator selects an arbitrary object from these objects through a gesture operation.

図6(b)では、操作者を基準として近い順に、オブジェクトA、B、Cが画面上に表示されている。操作者は、オブジェクトBを選択しようとしており、選択処理のジェスチャを行っている手の位置は、オブジェクトAとオブジェクトBの間にある。よって、オブジェクトB、Cがジェスチャ操作の操作対象となり、オブジェクトAは操作対象外となる。   In FIG. 6B, objects A, B, and C are displayed on the screen in the order from the operator as a reference. The operator is trying to select the object B, and the position of the hand performing the selection processing gesture is between the objects A and B. Therefore, the objects B and C are the operation targets for the gesture operation, and the object A is not the operation target.

図6(c)では、ジェスチャ操作の操作対象となっているオブジェクトB、Cを、ジェスチャで選択する方法を説明する。内部処理で、選択対象のオブジェクトと、ジェスチャを行う手と画面からの距離とを対応付けしている。まず、ジェスチャを行う手の移動範囲を、画面から1m以内とする。次に、画面から0.5m未満の範囲をオブジェクトBに対応付け、0.5m以上をオブジェクトCに対応付ける。よって、操作者が画面に手を近づけるとオブジェクトBが選択され、遠ざけるとオブジェクトCが選択される。   FIG. 6C illustrates a method of selecting the objects B and C that are the operation targets of the gesture operation with the gesture. In the internal processing, the object to be selected is associated with the distance from the screen and the hand performing the gesture. First, the movement range of the hand performing the gesture is set to be within 1 m from the screen. Next, a range less than 0.5 m from the screen is associated with the object B, and 0.5 m or more is associated with the object C. Therefore, the object B is selected when the operator brings his hand close to the screen, and the object C is selected when the operator moves away.

以上のことから、本発明の情報処理装置を利用することで、タッチ操作とジェスチャ操作の干渉を抑制することができる。従って、ユーザの操作性を向上することができる。   From the above, it is possible to suppress interference between the touch operation and the gesture operation by using the information processing apparatus of the present invention. Therefore, user operability can be improved.

本実施例では、実施例1と同様に、本発明の情報処理装置100を利用した場合の実施例を説明する。実施例1との違いは、オブジェクトの表示位置、操作者の位置、操作入力の位置の少なくとも1つの変化を検出する。そして、位置変化が検出された場合に、距離算出以降の処理を行う。   In the present embodiment, as in the first embodiment, an embodiment in which the information processing apparatus 100 of the present invention is used will be described. The difference from the first embodiment is that at least one change in the display position of the object, the position of the operator, and the position of the operation input is detected. Then, when a position change is detected, processing after distance calculation is performed.

図3(B)は本実施例における情報処理装置100の機能構成図である。実施例1の情報処理装置100の構成に、位置変化検出部312が追加されている。以下、実施例1の図3(A)と異なる部分のみを説明する。   FIG. 3B is a functional configuration diagram of the information processing apparatus 100 in the present embodiment. A position change detection unit 312 is added to the configuration of the information processing apparatus 100 according to the first embodiment. Hereinafter, only a different part from FIG. 3 (A) of Example 1 is demonstrated.

位置変化検出部312は、オブジェクトの表示位置、操作者の位置、操作入力の位置の少なくとも1つの変化を検出する。例えば、前回処理を実行した時のそれぞれの位置を保持部301に記憶しておき、新たに取得した位置が所定の閾値以上移動した場合に、位置変化として検出する。この位置変化検出結果は、オブジェクト距離算出部310と操作入力距離算出部311に通知される。   The position change detection unit 312 detects at least one change in the display position of the object, the position of the operator, and the position of the operation input. For example, each position when the previous process is executed is stored in the holding unit 301, and is detected as a position change when the newly acquired position moves by a predetermined threshold or more. This position change detection result is notified to the object distance calculation unit 310 and the operation input distance calculation unit 311.

オブジェクト距離算出部310と操作入力距離算出部311は、位置変化検出部312で位置変化が検出された場合に、距離を算出する。距離を算出する方法は、実施例1と同様である。   The object distance calculation unit 310 and the operation input distance calculation unit 311 calculate a distance when a position change is detected by the position change detection unit 312. The method for calculating the distance is the same as in the first embodiment.

図5(B)は本実施例におけるS403の詳細フローチャートである。実施例1の図5(A)と異なる部分は、S507が追加されている。   FIG. 5B is a detailed flowchart of S403 in the present embodiment. S507 is added to the part different from FIG. 5A of the first embodiment.

S507において、位置変化検出部312で位置変化が検出された場合は、S501へ進む。検出されなかった場合は、処理を終了する。   If a position change is detected by the position change detection unit 312 in S507, the process proceeds to S501. If not detected, the process is terminated.

以上のことから、オブジェクトの表示位置、操作者の位置、操作入力の位置の変化を検出し、位置変化が検出された時に、距離算出以降の処理を行うことで、上記処理を適切な時に実行することができる。したがって、円滑な操作性を保ちながら、計算コストを削減することができる。   Based on the above, changes in the display position of the object, the position of the operator, and the position of the operation input are detected, and when the position change is detected, the above processing is executed at an appropriate time by performing processing after the distance calculation. can do. Therefore, the calculation cost can be reduced while maintaining smooth operability.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

ジェスチャ操作を含む複数種類の操作による入力を認識可能な情報処理装置であって、前記操作を行う操作者の位置と、表示面に表示された複数のオブジェクトの表示位置との距離を取得するオブジェクト距離取得手段と、
前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を取得する操作入力距離取得手段と、
前記複数のオブジェクトのうち、前記オブジェクト距離取得手段で取得された距離前記操作入力距離取得手段で取得された距離より大きくなるオブジェクトを、前記ジェスチャ操作で操作可能なオブジェクトとして設定するジェスチャ操作対象設定手段を有することを特徴とする情報処理装置。
An information processing apparatus capable of recognizing input by a plurality of types of operations including a gesture operation, and acquiring an distance between a position of an operator who performs the operation and display positions of a plurality of objects displayed on a display surface Distance acquisition means;
Operation input distance acquisition means for acquiring a distance between the position of the operator performing the operation and the operation input position of the operator;
Among the plurality of objects, an object distance obtained by the object distance obtaining means becomes greater than the distance obtained by the operation input distance obtaining means, the gesture operation target setting to be set as an object operable by the gesture operation An information processing apparatus comprising means.
さらに、前記オブジェクトの表示位置か、前記操作者の位置か、前記操作入力位置の、少なくとも1つの位置の変化を検出する位置変化検出手段を有し、
前記位置変化検出手段により位置の変化が検出された場合に、前記オブジェクト距離取得手段と前記操作入力距離取得手段は、前記距離を取得することを特徴とする請求項1の情報処理装置。
Furthermore, it has a position change detecting means for detecting a change in at least one of the display position of the object, the position of the operator, or the operation input position.
The information processing apparatus according to claim 1, wherein when the change in position is detected by the position change detection unit, the object distance acquisition unit and the operation input distance acquisition unit acquire the distance.
前記オブジェクト距離取得手段と前記操作入力距離取得手段は、前記表示面に平行な面における距離を取得することを特徴とする請求項1の表示装置。   The display device according to claim 1, wherein the object distance acquisition unit and the operation input distance acquisition unit acquire a distance in a plane parallel to the display surface. さらに、前記複数のオブジェクトのうち、前記ジェスチャ操作対象設定手段によって前記ジェスチャ操作で操作可能なオブジェクトとして設定されていないオブジェクトに対するタッチ操作認識するタッチ操作認識手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の表示装置。   The touch operation recognition means for recognizing a touch operation on an object that is not set as an object operable by the gesture operation by the gesture operation target setting means among the plurality of objects. 4. The display device according to any one of 3. ジェスチャ操作を含む複数種類の操作による入力を認識可能な情報処理装置の制御方法であって、
オブジェクト距離取得手段が、前記操作を行う操作者の位置と表示面に表示された複数のオブジェクトの表示位置との距離を取得するオブジェクト距離取得工程段と、
操作入力距離取得手段が、前記操作を行う操作者の位置と前記操作者の操作入力位置との距離を取得する操作入力距離取得工程と、
ジェスチャ操作対象設定手段が、前記複数のオブジェクトのうち、前記オブジェクト距離取得工程で取得された距離前記操作入力距離取得工程で取得された距離より大きくなるオブジェクトを、前記ジェスチャ操作で操作可能なオブジェクトとして設定するジェスチャ操作対象設定工程を有することを特徴とする情報処理装置の制御方法。
A method for controlling an information processing apparatus capable of recognizing input by a plurality of types of operations including gesture operations,
An object distance acquisition means for acquiring a distance between the position of the operator who performs the operation and the display positions of the plurality of objects displayed on the display surface;
An operation input distance obtaining unit obtains a distance between the position of the operator who performs the operation and the operation input position of the operator,
Gesture operation target setting means, wherein among the plurality of objects, an object distance obtained by the object distance obtaining step becomes larger than the distance obtained by the operation input distance obtaining step, the object can be operated in the gesture operation A control method for an information processing apparatus, comprising: a gesture operation target setting step that is set as
コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至4のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the information processing apparatus according to claim 1 by being read and executed by the computer. 請求項6に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 6.
JP2010166602A 2010-07-24 2010-07-24 Information processing apparatus and control method thereof Expired - Fee Related JP5675196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010166602A JP5675196B2 (en) 2010-07-24 2010-07-24 Information processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010166602A JP5675196B2 (en) 2010-07-24 2010-07-24 Information processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2012027744A JP2012027744A (en) 2012-02-09
JP2012027744A5 JP2012027744A5 (en) 2013-09-05
JP5675196B2 true JP5675196B2 (en) 2015-02-25

Family

ID=45780586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010166602A Expired - Fee Related JP5675196B2 (en) 2010-07-24 2010-07-24 Information processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5675196B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6495651B2 (en) * 2014-12-25 2019-04-03 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method therefor, program, and computer-readable storage medium
JP7183975B2 (en) * 2019-06-26 2022-12-06 株式会社デンソー input device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4723799B2 (en) * 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント Control system and control method
JP4671095B2 (en) * 2004-07-30 2011-04-13 富士フイルム株式会社 Image display control apparatus and image display control program
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5207513B2 (en) * 2007-08-02 2013-06-12 公立大学法人首都大学東京 Control device operation gesture recognition device, control device operation gesture recognition system, and control device operation gesture recognition program
JP5161690B2 (en) * 2008-07-31 2013-03-13 キヤノン株式会社 Information processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2012027744A (en) 2012-02-09

Similar Documents

Publication Publication Date Title
US9529527B2 (en) Information processing apparatus and control method, and recording medium
JP6370893B2 (en) System and method for performing device actions based on detected gestures
US8743089B2 (en) Information processing apparatus and control method thereof
US8490013B2 (en) Method and apparatus for single touch zoom using spiral rotation
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
JP6207240B2 (en) Information processing apparatus and control method thereof
JP6004716B2 (en) Information processing apparatus, control method therefor, and computer program
JP6308769B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
US20120297336A1 (en) Computer system with touch screen and associated window resizing method
WO2017080258A1 (en) Method and system for controlling touch menu
US10346992B2 (en) Information processing apparatus, information processing method, and program
JP6103835B2 (en) Information processing apparatus and control method thereof
US20150185975A1 (en) Information processing device, information processing method, and recording medium
JP2013168144A (en) Image display method and device thereof
JP5618554B2 (en) Information input device, information input method and program
JP5675196B2 (en) Information processing apparatus and control method thereof
US20150268736A1 (en) Information processing method and electronic device
US9542040B2 (en) Method for detection and rejection of pointer contacts in interactive input systems
JP2017174144A (en) Program, computer device, program execution method and system
WO2016206438A1 (en) Touch screen control method and device and mobile terminal
TWI444875B (en) Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and imaging sensor
US20140035876A1 (en) Command of a Computing Device
TW201137671A (en) Vision based hand posture recognition method and system thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130724

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R151 Written notification of patent or utility model registration

Ref document number: 5675196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees