JP2011227828A - Information processor, information processing method and information processing program - Google Patents

Information processor, information processing method and information processing program Download PDF

Info

Publication number
JP2011227828A
JP2011227828A JP2010099065A JP2010099065A JP2011227828A JP 2011227828 A JP2011227828 A JP 2011227828A JP 2010099065 A JP2010099065 A JP 2010099065A JP 2010099065 A JP2010099065 A JP 2010099065A JP 2011227828 A JP2011227828 A JP 2011227828A
Authority
JP
Japan
Prior art keywords
gesture operation
identified
gesture
user
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010099065A
Other languages
Japanese (ja)
Other versions
JP2011227828A5 (en
JP5558899B2 (en
Inventor
Tomoyuki Shimizu
智之 清水
Hikari Ito
光 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010099065A priority Critical patent/JP5558899B2/en
Publication of JP2011227828A publication Critical patent/JP2011227828A/en
Publication of JP2011227828A5 publication Critical patent/JP2011227828A5/ja
Application granted granted Critical
Publication of JP5558899B2 publication Critical patent/JP5558899B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the operability in copying or moving objects to other areas with a gesture operation.SOLUTION: Information for showing a gesture operation by users and the location on a display area, where the gesture operation is performed, is acquired. A first gesture operation for instructing to select objects in the display area and a second gesture operation for instructing to select any area in the display area, are determined based on the acquired information. An object 31 selected according to the first gesture operation and an area 41 selected according to the second gesture operation are identified. A third gesture operation that instructs the process for the identified object 31 is determined, while the object 31 and area 41 are identified. If the third gesture operation is determined to be performed, the identified object 31 is copied or moved to the identified area 41.

Description

本発明は、情報処理装置、その処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, a processing method thereof, and a program.

近年、電子的に表示されたオブジェクトに対する操作として、ユーザが直感的な入力により指示を行なえるジェスチャ入力によるものが増えている。例えば、オブジェクトを利用して電子的なデータの作成・編集作業を行なう場合等には、表示されているオブジェクトを指定して、作成・編集中のデータにコピー又は移動して配置する操作が良く行なわれる。   In recent years, as an operation for an electronically displayed object, an operation using a gesture input that allows a user to give an instruction by an intuitive input is increasing. For example, when creating / editing electronic data using objects, it is often convenient to specify the displayed object and copy or move it to the data being created / edited. Done.

従来、このような操作は、表示されているオブジェクトを選択するジェスチャ動作を行なった後、オブジェクト選択状態のまま、移動先へとオブジェクトを動かすようなジェスチャ動作を行なうものが多い(特許文献1参照)。   Conventionally, such an operation often performs a gesture operation of moving an object to a movement destination in an object selection state after performing a gesture operation of selecting a displayed object (see Patent Document 1). ).

特開2005−301693号公報JP 2005-301893 A

上述したように、従来、オブジェクトを移動等させる際には、選択したオブジェクトをユーザの手に追随させて、選択した位置から移動先までオブジェクトを動かさなければならなかった。そのため、例えば、片手で届く範囲を越える位置にオブジェクトをコピー又は移動させるような場合には、ユーザは、体全体を大きく動かさなければならない。このような場合には、オブジェクトを容易に移動できる範囲が制限されてしまう。   As described above, conventionally, when an object is moved, the object must be moved from the selected position to the destination by causing the selected object to follow the user's hand. Therefore, for example, when an object is copied or moved to a position beyond the range that can be reached with one hand, the user must move the entire body greatly. In such a case, the range in which the object can be easily moved is limited.

本発明は、上記課題に鑑みてなされたものであり、ジェスチャ動作によりオブジェクトを他の領域にコピー又は移動させる際の操作性を向上させるようにした技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for improving operability when copying or moving an object to another area by a gesture operation.

上記課題を解決するため、本発明の一態様による情報処理装置は、ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する取得手段と、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段と、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段と、前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段と、前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段と、前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段とを具備することを特徴とする。   In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed. Based on the information acquired by the acquisition means, a first determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed, and the acquisition means Based on the acquired information, second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display regions has been performed, and based on the first gesture operation Identifying one of the one or more selected objects and selecting based on the second gesture action Identification means for identifying any one area from among one or a plurality of areas, and a third gesture operation for instructing processing on the identified object while the object and the area are identified are performed. Third determination means for determining whether the third gesture operation has been performed, and object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed. It is characterized by doing.

本発明によれば、ジェスチャ動作によりオブジェクトを他の領域にコピー又は移動させる際の操作性を向上させられる。   According to the present invention, it is possible to improve operability when an object is copied or moved to another area by a gesture operation.

本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the information processing apparatus 10 concerning one embodiment of this invention. 図1に示すCPU11において実現される機能的な構成の一例を示す図。The figure which shows an example of the functional structure implement | achieved in CPU11 shown in FIG. 図1に示す情報処理装置10における処理の概要を示す図。The figure which shows the outline | summary of the process in the information processing apparatus 10 shown in FIG. 図1に示す情報処理装置10の処理の流れの一例を示すフローチャート。3 is a flowchart illustrating an example of a processing flow of the information processing apparatus 10 illustrated in FIG. 1. 図1に示す情報処理装置10の処理の流れの一例を示すフローチャート。3 is a flowchart illustrating an example of a processing flow of the information processing apparatus 10 illustrated in FIG. 1. 図1に示す情報処理装置10の処理の流れの一例を示すフローチャート。3 is a flowchart illustrating an example of a processing flow of the information processing apparatus 10 illustrated in FIG. 1. 実施形態2に係わるCPU11において実現される機能的な構成の一例を示す図。FIG. 9 is a diagram illustrating an example of a functional configuration realized in a CPU 11 according to the second embodiment. 実施形態3に係わるCPU11において実現される機能的な構成の一例を示す図。FIG. 10 is a diagram illustrating an example of a functional configuration realized in a CPU 11 according to the third embodiment.

以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a hardware configuration of an information processing apparatus 10 according to an embodiment of the present invention.

情報処理装置10は、CPU11と、ROM12と、RAM13と、記憶部14と、入力I/F15と、出力I/F16と、システムバス17と、入力デバイス18と、出力デバイス19とを具備して構成される。これら各部間における通信は、システムバス17により実現される。   The information processing apparatus 10 includes a CPU 11, a ROM 12, a RAM 13, a storage unit 14, an input I / F 15, an output I / F 16, a system bus 17, an input device 18, and an output device 19. Composed. Communication between these units is realized by the system bus 17.

RAM(Random Access Memory)13は、CPU11によるプログラムの実行時にワークエリアとして使用され、各種演算結果や座標データ等を一時的に記憶する。ROM(Read Only Memory)12は、プログラムや各種データを記憶する。   A RAM (Random Access Memory) 13 is used as a work area when the CPU 11 executes a program, and temporarily stores various calculation results, coordinate data, and the like. A ROM (Read Only Memory) 12 stores programs and various data.

記憶部14は、ハードディスクドライブ(HDD)やフラッシュメモリドライブ(SSD)、着脱可能なメモリカードや光ディスク等により実現され、各種データを記憶する。記憶部14には、例えば、オペレーティングシステムやアプリケーション等の各種プログラムが記憶される。   The storage unit 14 is realized by a hard disk drive (HDD), a flash memory drive (SSD), a removable memory card, an optical disk, or the like, and stores various data. For example, various programs such as an operating system and applications are stored in the storage unit 14.

CPU(Central Processing Unit)11は、情報処理装置10の動作を統括制御する。情報処理装置10における各種処理は、例えば、CPU11がRAM13をワーク領域として記憶部14に記憶されたプログラムを読み込み実行することで行なわれる。   A CPU (Central Processing Unit) 11 performs overall control of the operation of the information processing apparatus 10. Various processes in the information processing apparatus 10 are performed, for example, when the CPU 11 reads and executes a program stored in the storage unit 14 using the RAM 13 as a work area.

入力デバイス18は、例えば、各種センサやカメラ等で実現され、入力I/F15を介して各種情報を装置内に入力する。ここで、入力デバイス18は、一般に、ジェスチャ認識で用いられるようなカメラやセンサを含むものであれば良い。本実施形態に係わる入力デバイス18は、カメラ及びセンサを用いて、人体に対して照射した赤外光の反射波を撮像し、人体各部の奥行きを含んだ外形の情報とそれらの動きとを検出する。なお、入力デバイス18は、必ずしもこのような構成に限られず、ユーザの人体範囲を特定でき、また、ジェスチャ動作(手の位置、形、動き)を検出できる構成であれば良い。例えば、空間上の位置、形、動きを検出可能なセンサを搭載したグローブを入力デバイスとして利用しても構わない。この場合、ユーザは、当該グローブを両手に装着し、ジェスチャ動作を行なう。また、例えば、通常の可視光を撮影するカメラで撮影したユーザの画像を画像認識によって処理し、それによりジェスチャ入力を行なうようにしても良い。   The input device 18 is realized by, for example, various sensors, cameras, and the like, and inputs various information into the apparatus via the input I / F 15. Here, the input device 18 may generally include a camera or a sensor that is used in gesture recognition. The input device 18 according to the present embodiment uses a camera and a sensor to image reflected waves of infrared light applied to the human body, and detects outline information including the depth of each part of the human body and their movement. To do. Note that the input device 18 is not necessarily limited to such a configuration, and may be any configuration that can specify the user's body range and can detect a gesture motion (hand position, shape, movement). For example, a glove equipped with a sensor capable of detecting a position, shape, and movement in space may be used as an input device. In this case, the user wears the glove in both hands and performs a gesture operation. In addition, for example, a user image captured by a camera that captures normal visible light may be processed by image recognition, thereby performing gesture input.

出力デバイス19は、出力I/F16を介して各種情報を装置外部に出力する。本実施形態に係わる出力デバイス19としては、例えば、ディスプレイやスクリーン等が挙げられ、比較的大きめの表示領域を有するものを想定している。以上が、情報処理装置10における機能的な構成の一例である。   The output device 19 outputs various information to the outside of the apparatus via the output I / F 16. As the output device 19 according to the present embodiment, for example, a display, a screen, or the like is cited, and a device having a relatively large display area is assumed. The above is an example of the functional configuration of the information processing apparatus 10.

次に、図2を用いて、上述したCPU11において実現される機能的な構成の一例について説明する。これら処理機能は、例えば、CPU11がRAM13をワーク領域として記憶部14に記憶されたプログラムを読み込み実行することで実現される。   Next, an example of a functional configuration realized in the above-described CPU 11 will be described with reference to FIG. These processing functions are realized, for example, when the CPU 11 reads and executes a program stored in the storage unit 14 using the RAM 13 as a work area.

CPU11には、その機能的な構成として、取得部21と、ユーザ特定部22と、ジェスチャ判定部23と、同定部27と、オブジェクト処理部28と、表示処理部29とが実現される。   As the functional configuration of the CPU 11, an acquisition unit 21, a user identification unit 22, a gesture determination unit 23, an identification unit 27, an object processing unit 28, and a display processing unit 29 are realized.

取得部21は、入力I/F15を介して入力デバイス18からジェスチャ情報を取得する。ジェスチャ情報とは、ユーザの人体範囲を示す情報と、ユーザにより行なわれたジェスチャ動作(手の位置、形、動き)と、ジェスチャ動作が行なわれた表示領域上における位置とを示す情報である。   The acquisition unit 21 acquires gesture information from the input device 18 via the input I / F 15. The gesture information is information indicating the user's body range, information indicating a gesture operation (hand position, shape, movement) performed by the user, and a position on the display area where the gesture operation is performed.

ユーザ特定部22は、オブジェクトの選択や、コピー先領域又は移動先領域の選択が、同一ユーザによって行なわれているか否かを特定(判定)する。本実施形態では、入力デバイス(センサ)18において、ユーザの外形と奥行きとを取得できるため、当該センサの出力結果を利用して人体の範囲を決定する。これにより、ユーザの特定を行なう。なお、センサではユーザの外形や奥行きまでが判断できず、複数人の重なりや、体を構成する部位の連続性が認識できない場合などには、ユーザをカメラで撮影し、画像特徴の処理によって、同一ユーザであるか否かを判定するなどしても構わない。   The user specifying unit 22 specifies (determines) whether the object is selected and the copy destination area or the movement destination area is selected by the same user. In this embodiment, since the user's external shape and depth can be acquired by the input device (sensor) 18, the range of the human body is determined using the output result of the sensor. Thereby, the user is specified. In addition, when the sensor cannot determine the outer shape and depth of the user, and when the overlap of multiple people or the continuity of the parts constituting the body cannot be recognized, the user is photographed with a camera, You may determine whether it is the same user.

ジェスチャ判定部23は、取得部21により受信されたジェスチャ情報に基づいて、いずれの処理を指示するジェスチャ動作が行なわれたのかを判定する。本実施形態においては、ユーザが行なうジェスチャ動作として、第1のジェスチャ動作と、第2のジェスチャ動作と、第3のジェスチャ動作とがある。   Based on the gesture information received by the acquisition unit 21, the gesture determination unit 23 determines which gesture operation instructing which process has been performed. In the present embodiment, the gesture operations performed by the user include a first gesture operation, a second gesture operation, and a third gesture operation.

ここで、第1のジェスチャ動作とは、表示領域におけるいずれかのオブジェクトの選択を指示するジェスチャ動作を指し、第2のジェスチャ動作とは、コピー又は移動先の領域の選択を指示するジェスチャ動作を指す。本実施形態に係わる第1のジェスチャ動作及び第2のジェスチャ動作は、同じジェスチャ動作(例えば、空間を指で掴むような動作)で行なわれる。   Here, the first gesture action refers to a gesture action that instructs selection of any object in the display area, and the second gesture action refers to a gesture action that instructs selection of a copy or movement destination area. Point to. The first gesture operation and the second gesture operation according to the present embodiment are performed by the same gesture operation (for example, an operation of grasping a space with a finger).

また、第3のジェスチャ動作とは、選択されたオブジェクトに対して処理の実施を指示するジェスチャ動作を指し、選択された領域に向けて選択されたオブジェクトをコピー又は移動させるための指示を行なうジェスチャ動作である。本実施形態に係わる第3のジェスチャ動作は、オブジェクトとコピー先領域等とが選択されている状態で、選択されたオブジェクトを選択されたコピー先領域等に向けて一定量以上移動させるような動きとなる。   The third gesture action refers to a gesture action that instructs the selected object to perform processing, and a gesture that gives an instruction to copy or move the selected object toward the selected area. Is the action. The third gesture operation according to the present embodiment is a movement that moves the selected object toward the selected copy destination area or the like by a certain amount or more in a state where the object and the copy destination area or the like are selected. It becomes.

ここで、ジェスチャ判定部23には、上述したジェスチャ動作を判定(検出)するため、第1の判定部24と、第2の判定部25と、第3の判定部26とが設けられる。   Here, the gesture determination unit 23 includes a first determination unit 24, a second determination unit 25, and a third determination unit 26 in order to determine (detect) the gesture operation described above.

第1の判定部24は、取得部21により取得されたジェスチャ情報に基づいて、ユーザにより第1のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクトが選択されていない状態で、表示領域に表示されたいずれかのオブジェクトに対して指で掴むような動作が行なわれた場合に、第1のジェスチャ動作が行なわれたと判定する。   The first determination unit 24 determines whether or not the first gesture operation has been performed by the user based on the gesture information acquired by the acquisition unit 21. More specifically, when the first gesture operation is performed when an operation is performed in which no object is selected and an object displayed in the display area is grasped with a finger. judge.

第2の判定部25は、取得部21により取得されたジェスチャ情報とユーザ特定部22によるユーザの特定結果とに基づいて、ユーザにより第2のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクトが選択された状態で(当該オブジェクトを選択したユーザと)同じユーザにより表示領域に表示されたいずれかの領域に対して指で掴むような動作が行なわれた場合に、第2のジェスチャ動作が行なわれたと判定する。   The second determination unit 25 determines whether or not the user has performed a second gesture operation based on the gesture information acquired by the acquisition unit 21 and the user identification result by the user identification unit 22. More specifically, when an object is selected (the user who selected the object) and the same user performs an operation such as grasping with one finger on any area displayed in the display area It is determined that the second gesture operation has been performed.

第3の判定部26は、取得部21により取得されたジェスチャ情報に基づいて、ユーザにより第3のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクト及び領域が選択された状態で、当該選択中のオブジェクトを当該選択中のコピー先領域等に向けて一定量以上移動させるような動作が行なわれた場合に、第3のジェスチャ動作が行なわれたと判定する。   Based on the gesture information acquired by the acquisition unit 21, the third determination unit 26 determines whether or not a third gesture operation has been performed by the user. More specifically, when the object and the area are selected and the operation of moving the selected object toward the selected copy destination area or the like by a certain amount or more is performed, the third It is determined that the gesture operation has been performed.

ここで、第3のジェスチャ動作の判定には、オブジェクトの移動量や方向に対して任意の値を有する閾値を用いる。閾値には、コピーや移動の意思が明らかに認識できる程度の値を設定すれば良い。例えば、単純に、センサを基準とした移動後と移動前の手の位置の座標と実距離とから、手の移動方向とともに移動量を距離で求める。移動量については、10cm以内などといった閾値を設定すれば良い。また、移動方向については、オブジェクトの中心と選択領域の中心とを結んだ線分と、当該線分と移動方向との角度が10度以内等といった閾値を設定すれば良い。また更に、加速度も見るようにして、無意識のうちに徐々に移動してしまったような場合には、第3のジェスチャ動作であると判定されないような仕組みを設けても構わない。   Here, for the determination of the third gesture motion, a threshold value having an arbitrary value with respect to the movement amount and direction of the object is used. The threshold value may be set to a value that can clearly recognize the intention of copying or moving. For example, the amount of movement along with the direction of movement of the hand is determined as a distance from the coordinates and actual distance of the hand position before and after movement based on the sensor. For the movement amount, a threshold value such as within 10 cm may be set. For the movement direction, a threshold value may be set such that a line segment connecting the center of the object and the center of the selection area and an angle between the line segment and the movement direction is within 10 degrees. Furthermore, a mechanism may be provided that does not determine that the movement is the third gesture operation when the user gradually moves unconsciously while looking at the acceleration.

同定部27は、第1のジェスチャ動作及び第2のジェスチャ動作が行なわれた場合に、対象となるオブジェクトや領域を同定する。すなわち、第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定する第1の同定手段として機能する。また、第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する第2の同定手段として機能する。本実施形態に係わる同定部27においては、ユーザの頭の位置と、表示領域に表示されたオブジェクトに対する手の位置及び距離とに基づいてオブジェクトや領域の同定を行なう。   The identification unit 27 identifies a target object or region when the first gesture operation and the second gesture operation are performed. That is, it functions as a first identification unit that identifies any object from one or a plurality of objects selected based on the first gesture action. Moreover, it functions as a second identification means for identifying any one region from one or a plurality of regions selected based on the second gesture operation. The identification unit 27 according to the present embodiment identifies an object or area based on the position of the user's head and the position and distance of the hand relative to the object displayed in the display area.

この同定においては、例えば、入力デバイス18を基準とした表示領域の位置を予め定めておき、ユーザの頭の位置と選択している手の位置とを結ぶ線分と、表示領域の交点付近にある対象を選択対象として同定すれば良い。この場合、頭の位置から更に目に相当するおよその位置を推定し、目の位置と手の位置とを結ぶ線分を利用するようにしても構わない。但し、同定の仕方は、これに限られず、例えば、表示領域の位置と手の位置とがごく近い場合には、手の位置の付近に存在している対象を選択対象として同定しても良い。   In this identification, for example, the position of the display area with reference to the input device 18 is determined in advance, and a line segment connecting the position of the user's head and the position of the selected hand is near the intersection of the display area. What is necessary is just to identify a certain object as a selection object. In this case, an approximate position corresponding to the eye may be further estimated from the position of the head, and a line segment connecting the eye position and the hand position may be used. However, the method of identification is not limited to this. For example, when the position of the display area and the position of the hand are very close, an object existing near the position of the hand may be identified as the selection target. .

なお、対象となるオブジェクトや領域の周辺に他のオブジェクトや領域が存在する場合、付近にある対象を誤って同定してしまうことも考えられる。そのため、同定した結果を、選択対象を強調するなどしてユーザにフィードバックし、その後のユーザのジェスチャ動作の変化から同定結果を補正するようにしても良い。例えば、同定結果として、選択対象となるオブジェクト(又は領域)を強調表示した後、ユーザがそれよりも上方にずらして第1のジェスチャ動作等を再度行なった場合、当該上方のオブジェクトを同定するようにしても良い。   If there are other objects or regions around the target object or region, it may be possible to mistakenly identify a target in the vicinity. For this reason, the identified result may be fed back to the user by emphasizing the selection target or the like, and the identification result may be corrected based on the subsequent change in the gesture operation of the user. For example, as an identification result, after highlighting an object (or region) to be selected, if the user performs a first gesture operation again after shifting upward, the upper object is identified. Anyway.

オブジェクト処理部28は、オブジェクトを処理する。より具体的には、第3の判定部26により第3のジェスチャ動作が行なわれたと判定された場合に、選択中のオブジェクトを選択中の領域にコピー又は移動させる。   The object processing unit 28 processes an object. More specifically, when the third determination unit 26 determines that the third gesture operation has been performed, the selected object is copied or moved to the selected area.

ここで、オブジェクト処理部28により実施される処理は、コピー先又は移動先の領域に応じてその処理内容が異なってくる場合がある。より具体的には、例えば、文書や画像作成用のテンプレート上のオブジェクト配置場所がコピー先又は移動先の領域であれば、ここでは、当該テンプレートを用いて作成・編集中の文書や画像の該当部分にオブジェクトを配置する処理が行なわれる。また、コピー先又は移動先の領域がフォルダであれば、当該フォルダにオブジェクトをコピー又は移動する処理が行なわれる。また、コピー先又は移動先の領域がゴミ箱であれば、オブジェクトを削除する処理が行なわれる。   Here, the processing performed by the object processing unit 28 may differ depending on the copy destination or movement destination area. More specifically, for example, if the object placement location on the document or image creation template is the copy destination or movement destination area, here, the corresponding document or image being created or edited using the template. Processing to place the object in the part is performed. If the copy destination or move destination area is a folder, a process of copying or moving an object to the folder is performed. If the copy destination or movement destination area is a trash can, a process for deleting the object is performed.

表示処理部29は、オブジェクト処理部28で行なわれた処理の結果等を出力デバイス19に表示制御する。例えば、表示されているテンプレート上に、オブジェクトが配置される態様を表示する。   The display processing unit 29 controls the output device 19 to display the result of the processing performed by the object processing unit 28. For example, a mode in which the object is arranged is displayed on the displayed template.

ここで、図3を用いて、図1に示す情報処理装置10の説明を分かり易くするために、情報処理装置10における処理の流れの一例について簡単に説明する。ここでは、第1の文書のテンプレート領域に、第2の文書(別の文書)のオブジェクトをコピーする際の処理の流れを例に挙げて説明する。   Here, in order to make the explanation of the information processing apparatus 10 shown in FIG. 1 easy to understand, an example of a processing flow in the information processing apparatus 10 will be briefly described with reference to FIG. Here, a description will be given by taking as an example a processing flow when copying an object of the second document (another document) to the template area of the first document.

ここで、出力デバイス19は、例えば、スクリーン等であり、当該スクリーンには、第1の文書30と第2の文書40とが表示されている。ユーザは、右手51を用いて、第1のジェスチャ動作を実施し、第1の文書30内のオブジェクト31を選択している。上述した通り、ユーザは、空間を指で掴むようなジェスチャ動作を行なうことにより、オブジェクト31を選択する。   Here, the output device 19 is, for example, a screen or the like, and the first document 30 and the second document 40 are displayed on the screen. The user uses the right hand 51 to perform the first gesture operation and select the object 31 in the first document 30. As described above, the user selects the object 31 by performing a gesture operation such as grasping the space with a finger.

続いて、ユーザは、左手52を用いて、オブジェクト31のコピー先となる領域41を選択する。具体的には、左手52を用いて、第2のジェスチャ動作を実施し、第2の文書40内のテンプレート上の領域を選択する。すなわち、右手51を用いて、オブジェクト31を選択した状態で、左手52を用いて、コピー先領域41を選択している。なお、左手52及び右手51は、同一ユーザの手である。   Subsequently, the user uses the left hand 52 to select the area 41 that is the copy destination of the object 31. Specifically, using the left hand 52, a second gesture operation is performed, and an area on the template in the second document 40 is selected. That is, the copy destination area 41 is selected using the left hand 52 while the object 31 is selected using the right hand 51. The left hand 52 and the right hand 51 are the same user's hands.

ここで、ユーザは、オブジェクト及び領域を選択している状態で第3のジェスチャ動作を行なう。具体的には、ユーザは、オブジェクト31を選択している右手51をコピー先領域41に向けて一定量以上移動させる。これにより、第1の文書30内のオブジェクト31が、第2の文書40内の領域41にコピーされる。   Here, the user performs the third gesture operation while the object and the area are selected. Specifically, the user moves the right hand 51 selecting the object 31 toward the copy destination area 41 by a certain amount or more. As a result, the object 31 in the first document 30 is copied to the area 41 in the second document 40.

次に、図4〜図6に示すフローチャートを用いて、図1に示す情報処理装置10における処理の流れの一例について説明する。まず、図4を用いて、オブジェクトを選択する際の処理の流れの一例について説明する。   Next, an example of the flow of processing in the information processing apparatus 10 shown in FIG. 1 will be described using the flowcharts shown in FIGS. First, an example of the flow of processing when selecting an object will be described with reference to FIG.

情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S101でYES)。ジェスチャ情報には、上述した通り、ユーザの人体範囲を示す情報と、ユーザにより行なわれたジェスチャ動作(手の位置、形、動き)と、表示領域に対するジェスチャ動作が行なわれた位置とを含む情報である。   The information processing apparatus 10 receives the gesture information from the input device 18 via the input I / F 15 in the acquisition unit 21 (YES in S101). As described above, the gesture information includes information indicating the user's body range, the gesture operation (hand position, shape, movement) performed by the user, and the position where the gesture operation is performed on the display area. It is.

ジェスチャ情報を受信すると、情報処理装置10は、第1の判定部24において、オブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する。上述した通り、オブジェクトが選択されていない状態で、表示領域に表示されたいずれかのオブジェクトに対して指で掴むような動作が行なわれた場合に、第1のジェスチャ動作が行なわれたと判定する。   When the gesture information is received, the information processing apparatus 10 determines in the first determination unit 24 whether or not a first gesture operation instructing selection of an object has been performed. As described above, it is determined that the first gesture operation has been performed when an operation such as grasping with one finger on any object displayed in the display area is performed with no object selected. .

判定(検出)の結果、第1のジェスチャ動作が行なわれていなければ(S102でNO)、情報処理装置10は、再度、S101の処理に戻り、ジェスチャ情報の受信待ちとなる。一方、第1のジェスチャ動作が行なわれた場合(S102でYES)、情報処理装置10は、同定部27において、オブジェクトの同定を行なう。すなわち、第1のジェスチャ動作が行なわれた手の位置に基づいて、表示領域におけるいずれのオブジェクトが選択されたかを同定する(S104)。その後、情報処理装置10は、ユーザ特定部22において、当該指示を行なったユーザを特定する。より具体的には、第1のジェスチャ動作を行なったユーザの人体範囲を決定する(S105)。これにより、この処理は終了する。   If the first gesture operation is not performed as a result of the determination (detection) (NO in S102), the information processing apparatus 10 returns to the process of S101 again and waits for reception of gesture information. On the other hand, when the first gesture operation is performed (YES in S102), the information processing apparatus 10 identifies an object in the identification unit 27. That is, it is identified which object in the display area is selected based on the position of the hand on which the first gesture operation has been performed (S104). Thereafter, the information processing apparatus 10 uses the user specifying unit 22 to specify the user who has given the instruction. More specifically, the human body range of the user who performed the first gesture operation is determined (S105). Thereby, this process is completed.

次に、図5を用いて、コピー先又は移動先の領域を選択する際の処理の流れの一例について説明する。この処理は、通常、図4の処理によりオブジェクトが選択されている状態で開始される。   Next, an example of a processing flow when selecting a copy destination area or a movement destination area will be described with reference to FIG. This process is normally started in a state where an object is selected by the process of FIG.

情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S201でYES)。そして、第2の判定部25において、オブジェクトが選択中であるか否かを判定する。オブジェクトが選択中でなければ(S202でNO)、情報処理装置10は、再度、S201の処理に戻り、ジェスチャ情報の受信待ちとなる。   The information processing apparatus 10 receives gesture information from the input device 18 via the input I / F 15 in the acquisition unit 21 (YES in S201). Then, the second determination unit 25 determines whether an object is being selected. If no object is being selected (NO in S202), the information processing apparatus 10 returns to the process of S201 again and waits for reception of gesture information.

オブジェクトが選択中であれば(S202でYES)、情報処理装置10は、第2の判定部25において、当該オブジェクトを選択しているユーザにより第2のジェスチャ動作が行なわれたか否かを判定する。ユーザは、例えば、オブジェクトを選択している手と別の手を用いて第2のジェスチャ動作を行なう。なお、オブジェクトを選択しているユーザと、第2のジェスチャ動作を行なったユーザが同一ユーザであるか否かは、ユーザ特定部22の特定結果に基づいて判定される。すなわち、ユーザ特定部22により決められた人体範囲内で第2のジェスチャ動作が行なわれた場合に、情報処理装置10は、同一ユーザにより第2のジェスチャ動作が行なわれたと判定する。   If the object is being selected (YES in S202), the information processing apparatus 10 determines in the second determination unit 25 whether or not the second gesture operation has been performed by the user who has selected the object. . For example, the user performs the second gesture operation using a hand different from the hand that selects the object. Whether or not the user who has selected the object and the user who has performed the second gesture operation are the same user is determined based on the identification result of the user identification unit 22. That is, when the second gesture operation is performed within the human body range determined by the user specifying unit 22, the information processing apparatus 10 determines that the second gesture operation is performed by the same user.

判定の結果、オブジェクトを選択しているユーザと別のユーザにより第2のジェスチャ動作が行なわれた等であれば(S203でNO)、情報処理装置10は、再度、S201の処理に戻り、ジェスチャ情報の受信待ちとなる。   As a result of the determination, if the second gesture operation is performed by a user other than the user who has selected the object (NO in S203), the information processing apparatus 10 returns to the process of S201 again, and performs the gesture. Waiting to receive information.

一方、オブジェクトを選択しているユーザが第2のジェスチャ動作を行なったと判定した場合(S203でYES)、情報処理装置10は、同定部27において、領域の同定を行なう。すなわち、第2のジェスチャ動作が行なわれた手の位置に基づいて、表示領域におけるいずれの領域が選択されたかを同定する(S204)。その後、この処理は終了する。   On the other hand, when it is determined that the user who has selected the object has performed the second gesture operation (YES in S203), the information processing apparatus 10 identifies an area in the identification unit 27. That is, it is identified which area in the display area has been selected based on the position of the hand on which the second gesture operation has been performed (S204). Thereafter, this process ends.

次に、図6を用いて、オブジェクトを処理する際の処理の流れの一例について説明する。この処理は、通常、図4及び図5の処理によりオブジェクト及び領域が選択されている状態で開始される。   Next, an example of the flow of processing when processing an object will be described with reference to FIG. This process is normally started in a state where an object and a region are selected by the processes of FIGS.

情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S301でYES)。そして、第3の判定部25において、オブジェクト及び領域が選択中であるか否かを判定する。オブジェクト及び領域のいずれか一方でも選択されていなければ(S302でNO)、情報処理装置10は、再度、S301の処理に戻り、ジェスチャ情報の受信待ちとなる。   The information processing apparatus 10 receives the gesture information from the input device 18 via the input I / F 15 in the acquisition unit 21 (YES in S301). Then, the third determination unit 25 determines whether an object and a region are being selected. If either one of the object and the area is not selected (NO in S302), the information processing apparatus 10 returns to the process of S301 again and waits for reception of gesture information.

オブジェクト及び領域が選択中であれば(S302でYES)、情報処理装置10は、第3の判定部26において、第3のジェスチャ動作が行なわれたか否かを判定する。すなわち、ユーザにより選択中のオブジェクトを選択集のコピー先領域等に向けて一定量以上移動させるようなジェスチャ動作がなされたか否かを判定する。   If the object and the area are being selected (YES in S302), the information processing apparatus 10 determines in the third determination unit 26 whether or not the third gesture operation has been performed. That is, it is determined whether or not the user has performed a gesture operation that moves the object being selected toward a copy destination area or the like of the selected collection by a certain amount or more.

判定(検出)の結果、第3のジェスチャ動作が行なわれていなければ(S303でNO)、情報処理装置10は、再度、S301の処理に戻り、ジェスチャ情報の受信待ちとなる。   If the third gesture operation is not performed as a result of the determination (detection) (NO in S303), the information processing apparatus 10 returns to the process of S301 again and waits for reception of gesture information.

一方、第3のジェスチャ動作が行なわれた場合(S303でYES)、情報処理装置10は、オブジェクト処理部28において、選択中のオブジェクトを選択中のコピー先領域(コピー先又は移動先領域)にコピー(又は移動)させる(S304)。このとき、情報処理装置10は、表示処理部29において、当該処理をスクリーン等に表示する。その後、この処理は終了する。   On the other hand, when the third gesture operation is performed (YES in S303), the information processing apparatus 10 causes the object processing unit 28 to set the selected object to the selected copy destination area (copy destination or movement destination area). Copy (or move) is performed (S304). At this time, the information processing apparatus 10 causes the display processing unit 29 to display the process on a screen or the like. Thereafter, this process ends.

以上説明したように実施形態1によれば、ジェスチャ動作を用いて、表示領域に表示されたオブジェクトを他の領域にコピー又は移動させる際の操作性が向上する。特に、オブジェクトとコピー又は移動先の領域との距離が片手で届く範囲を越える場合であっても、このような操作が容易に行なえる。   As described above, according to the first embodiment, the operability when the object displayed in the display area is copied or moved to another area using the gesture operation is improved. In particular, such an operation can be easily performed even when the distance between the object and the copy or movement destination area exceeds the range that can be reached with one hand.

また、オブジェクトを選択しているユーザと領域を選択しているユーザとが同一であるか否かを判定するため、第3者が意図せずに、オブジェクトや領域の選択を指示するジェスチャ動作を実施したとしても、それを起因とした誤動作の発生を抑制できる。   Further, in order to determine whether or not the user who selects the object and the user who selects the area are the same, a gesture operation that instructs the selection of the object or area without the intention of the third party is performed. Even if it is carried out, it is possible to suppress the occurrence of malfunction due to it.

(実施形態2)
次に、実施形態2について説明する。実施形態2においては、オブジェクトや領域の種別に応じてオブジェクト及び領域の同定を行なう場合について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the second embodiment, a case will be described in which an object and a region are identified according to the type of the object or region.

図7は、実施形態2に係わる情報処理装置10のCPU11において実現される機能的な構成の一例を示す図である。なお、実施形態1を説明した図2と同様の構成については同一の符号を付しており、その説明については省略する場合もある。   FIG. 7 is a diagram illustrating an example of a functional configuration realized in the CPU 11 of the information processing apparatus 10 according to the second embodiment. In addition, the same code | symbol is attached | subjected about the structure similar to FIG. 2 which demonstrated Embodiment 1, and the description may be abbreviate | omitted.

実施形態2に係わるCPU11には、その機能的な構成として、オブジェクト種別取得部61と、領域種別取得部62とが新たに設けられる。   As a functional configuration of the CPU 11 according to the second embodiment, an object type acquisition unit 61 and an area type acquisition unit 62 are newly provided.

オブジェクト種別取得部61は、第1の取得手段として機能し、同定部27により既に同定済みのオブジェクトの種別を取得する。領域種別取得部62は、第2の取得手段として機能し、第2のジェスチャ動作により選択された1又は複数の領域の種別を取得する。   The object type acquisition unit 61 functions as a first acquisition unit, and acquires the type of an object that has already been identified by the identification unit 27. The area type acquisition unit 62 functions as a second acquisition unit, and acquires the type of one or a plurality of areas selected by the second gesture operation.

同定部27は、オブジェクト種別取得部61により取得されたオブジェクトの種別と、領域種別取得部62により取得された種別とに基づいて領域の同定を行なう。ここで、領域によっては配置不可能なオブジェクトがある場合等がある。例えば、テンプレートを利用してデータの作成・編集を行なうような場合、コピー先又は移動先の領域に、予め配置可能なオブジェクトの種別が設定されている場合がある。あるテンプレート上の領域は、テキストデータのみ配置(入力)可能であり、別のテンプレート上の領域は、画像のみ配置可能であるといった設定がなされていることが考えられる。このような場合に、同定部27は、オブジェクトの種別と、コピー先又は移動先の領域に配置可能なオブジェクトの種別とが合致するように、選択対象の同定を行なう。   The identification unit 27 identifies a region based on the type of object acquired by the object type acquisition unit 61 and the type acquired by the region type acquisition unit 62. Here, depending on the area, there may be an object that cannot be placed. For example, when creating / editing data using a template, there are cases where the types of objects that can be arranged are set in advance in the copy destination or movement destination area. An area on a certain template can be set (input) only text data, and an area on another template can be set such that only an image can be arranged. In such a case, the identification unit 27 identifies the selection target such that the object type matches the object type that can be placed in the copy destination or movement destination area.

ここで、実施形態2に係わる情報処理装置10における動作は、実施形態1を説明した図4〜図6の処理と同様となる。そのため、ここでは、図を用いた説明は省略し、相違する点について簡単に説明する。相違点としては、領域同定時の処理(図5におけるS204)が挙げられる。   Here, the operation of the information processing apparatus 10 according to the second embodiment is the same as the processing in FIGS. 4 to 6 described in the first embodiment. For this reason, the description using the drawings is omitted here, and different points will be described briefly. As a difference, there is a process at the time of area identification (S204 in FIG. 5).

領域の同定に際して、情報処理装置10は、オブジェクト種別取得部61において、既に同定済みのオブジェクトの種別を取得するとともに、領域種別取得部62において、コピー先又は移動先の領域が配置可能なオブジェクトの種別を取得する。そして、同定部27において、第2のジェスチャ動作により選択された1又は複数の領域の中から当該オブジェクトを配置可能な領域を同定する。例えば、オブジェクトの種別が画像であれば、コピー又は移動先の領域としては、画像を配置可能な領域を同定する。   When identifying an area, the information processing apparatus 10 obtains the type of an already identified object in the object type obtaining unit 61, and the area type obtaining unit 62 obtains an object in which a copy destination or destination area can be placed. Get the type. Then, the identification unit 27 identifies a region where the object can be arranged from one or a plurality of regions selected by the second gesture operation. For example, if the type of the object is an image, an area where the image can be arranged is identified as the copy or movement destination area.

以上説明したように実施形態2によれば、実施形態1の効果に加えて更に、同定対象が絞り込めるようになるため、同定処理の誤りを抑制できる。   As described above, according to the second embodiment, in addition to the effects of the first embodiment, identification objects can be further narrowed down, and thus errors in identification processing can be suppressed.

(実施形態3)
次に、実施形態3について説明する。実施形態3においては、第3のジェスチャ動作をユーザの視線に基づいて行なう場合について説明する。
(Embodiment 3)
Next, Embodiment 3 will be described. In the third embodiment, a case where the third gesture operation is performed based on the user's line of sight will be described.

実施形態3に係わる情報処理装置10は、入力I/F15を介して入力デバイス(例えば、カメラ)18からユーザの眼を含む顔画像を取得する。そして、当該顔画像から視線方向を検出し、当該視線方向を利用してオブジェクトを処理する。例えば、ユーザが、選択されているオブジェクトを一定時間見た後、選択したコピー又は移動先領域を一定時間見た場合に、第3のジェスチャ動作がなされたと判定する。   The information processing apparatus 10 according to the third embodiment acquires a face image including the user's eyes from an input device (for example, a camera) 18 via the input I / F 15. Then, the gaze direction is detected from the face image, and the object is processed using the gaze direction. For example, when the user views the selected object for a certain period of time and then views the selected copy or movement destination area for a certain period of time, it is determined that the third gesture operation has been performed.

ここで、図8は、実施形態3に係わる情報処理装置10のCPU11において実現される機能的な構成の一例を示す図である。なお、実施形態1を説明した図2と同様の構成については同一の符号を付しており、その説明については省略する場合もある。   Here, FIG. 8 is a diagram illustrating an example of a functional configuration realized in the CPU 11 of the information processing apparatus 10 according to the third embodiment. In addition, the same code | symbol is attached | subjected about the structure similar to FIG. 2 which demonstrated Embodiment 1, and the description may be abbreviate | omitted.

実施形態3に係わるCPU11には、その機能的な構成として、視線判定部63が新たに設けられる。   As a functional configuration of the CPU 11 according to the third embodiment, a line-of-sight determination unit 63 is newly provided.

視線判定部63は、オブジェクト又は領域を選択中のユーザの視線が、当該オブジェクト又は領域に向いているか否かを判定する。第3の判定部26においては、ユーザの視線が選択中のオブジェクトに一定時間以上向いていた後、当該ユーザの視線が選択中の領域に一定時間以上向いていた場合に、第3のジェスチャ動作が行なわれたと判定する。なお、オブジェクトに視線が向いている時間と領域に視線が向いている時間とがそれぞれ一定以上経過したか否かの判定に際しては、それぞれ別々の閾値を用いて行なっても良い。   The line-of-sight determination unit 63 determines whether the line of sight of the user who is selecting the object or area is facing the object or area. In the third determination unit 26, when the user's line of sight is directed to the selected object for a certain period of time or more, the third gesture operation is performed when the user's line of sight is directed to the selected area for a certain period or more Is determined to have been performed. It should be noted that the determination of whether or not the time when the line of sight is directed to the object and the time when the line of sight is directed to the region may be performed using different threshold values.

以上説明したように実施形態3によれば、実施形態1の効果に加えて更に、操作性が向上する。なお、上述した説明では、実施形態2と実施形態3とを別々に説明したが、実施形態2と実施形態3とを組み合わせて実施しても勿論構わない。   As described above, according to the third embodiment, in addition to the effects of the first embodiment, the operability is further improved. In the above description, the second embodiment and the third embodiment have been described separately, but it is needless to say that the second embodiment and the third embodiment may be combined.

また、実施形態3で説明した視線による第3のジェスチャ動作と、実施形態1で説明した第3のジェスチャ動作とを組み合わせて、第3のジェスチャ動作としても良い。この場合、第3のジェスチャ動作に相当する動作が偶然行われてしまうことを起因とした誤動作の発生を抑制できる。   Further, the third gesture operation by the line of sight described in the third embodiment and the third gesture operation described in the first embodiment may be combined to form the third gesture operation. In this case, it is possible to suppress the occurrence of malfunction due to the accidental operation corresponding to the third gesture operation.

以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。   The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. .

例えば、上述した説明では、オブジェクトの選択が行なわれた後、領域の選択が行なわれる場合について説明したが、処理順番は前後しても構わない。すなわち、領域の選択を行なった後、オブジェクトの選択を行なってもよい。   For example, in the above description, the case where an area is selected after an object is selected has been described, but the processing order may be changed. In other words, the object may be selected after selecting the region.

また、上述した説明では、オブジェクトを選択する際の第1のジェスチャ動作と、領域を選択する際の第2のジェスチャ動作とが同じ動作である場合を例に挙げて説明したが、これに限られなず、それぞれ別々のジェスチャ動作としても良い。この場合、オブジェクトの選択処理と、領域の選択処理との順番が入れ替わっても明確に処理を区別することができる。例えば、第1のジェスチャ動作をオブジェクトを掴む動作とし、第2のジェスチャ動作を指で指すような動作とする等すればよい。   In the above description, the case where the first gesture operation when selecting an object and the second gesture operation when selecting an area are the same is described as an example. It is good also as each separate gesture operation. In this case, even if the order of the object selection process and the area selection process is switched, the process can be clearly distinguished. For example, the first gesture action may be an action of grasping an object, and the second gesture action may be an action of pointing with a finger.

また、上述した説明では、表示領域について詳細に言及していないが、表示領域は、2次元又は3次元のいずれを用いた表示であっても良い。例えば、奥行き方向の表示効果を加えた3次元表示であっても良い。その場合、ユーザから見た場合の見かけ上の仮想的な表示領域の位置を、入力デバイス18を基準とした場合の表示領域の位置として扱うようにすれば良い。   In the above description, the display area is not described in detail, but the display area may be a display using two-dimensional or three-dimensional display. For example, a three-dimensional display to which a display effect in the depth direction is added may be used. In that case, an apparent virtual display area position when viewed from the user may be handled as a display area position when the input device 18 is used as a reference.

また、上述した説明では、ユーザ特定部22を設け、第1のジェスチャ動作と第2のジェスチャ動作とが同じユーザにより行なわれたか否かを判定していたが、必ずしもこのような構成を採る必要はない。すなわち、場合によっては、第1のジェスチャ動作と第2のジェスチャ動作とが別々のユーザにより行われても良い。   In the above description, the user specifying unit 22 is provided, and it is determined whether or not the first gesture operation and the second gesture operation are performed by the same user. There is no. That is, depending on the case, the first gesture operation and the second gesture operation may be performed by different users.

また、上述した説明では、第3のジェスチャ動作が行なわれた場合に、オブジェクトのコピー又はオブジェクトの移動のいずれを実施するかについては明確に記載していないが、いずれの処理が実施されるかは、予め決めておくようにすればよい。また、コピー又は移動のいずれの処理が実施されるのかを切り替えるボタン等を設け、そのボタンの押下により切り替えて実施するようにしても良い。   Further, in the above description, when the third gesture operation is performed, it is not described clearly whether to copy the object or move the object, but which process is performed. May be determined in advance. Further, a button or the like for switching whether copying or moving processing is performed may be provided, and switching may be performed by pressing the button.

(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する取得手段と、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段と、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段と、
前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段と、
前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段と、
前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段と
を具備することを特徴とする情報処理装置。
Acquisition means for acquiring information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
First determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area is performed based on information acquired by the acquisition means;
Second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display areas has been performed based on the information acquired by the acquisition means;
One of the one or more objects selected based on the first gesture action is identified, and any one of the one or more areas selected based on the second gesture action is identified. An identification means for identifying the region,
Third determination means for determining whether or not a third gesture operation for instructing processing on the identified object is performed in a state where the object and the region are identified;
An information processing apparatus comprising: object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
前記第1のジェスチャ動作を行なったユーザを特定するユーザ特定手段
を更に具備し、
前記第2の判定手段は、
前記取得手段により取得された情報と前記ユーザ特定手段により特定されたユーザの情報とに基づいて、前記第1のジェスチャ動作を行なった前記ユーザにより前記第2のジェスチャ動作が行なわれたか否かを判定する
ことを特徴とする請求項1記載の情報処理装置。
A user specifying means for specifying a user who has performed the first gesture operation;
The second determination means includes
Whether the second gesture operation has been performed by the user who has performed the first gesture operation based on the information acquired by the acquisition unit and the user information specified by the user specifying unit. The information processing apparatus according to claim 1, wherein determination is made.
前記第3の判定手段は、
前記同定されているオブジェクトを前記同定されている領域に向かって一定量以上移動させるジェスチャ動作がなされた場合に前記第3のジェスチャ動作が行なわれたと判定する
ことを特徴とする請求項1記載の情報処理装置。
The third determination means includes
2. The determination according to claim 1, wherein the third gesture operation is determined to be performed when a gesture operation for moving the identified object toward the identified area by a predetermined amount or more is performed. Information processing device.
前記取得手段は、
前記ユーザの眼を含む画像を取得し、
前記第3の判定手段は、
前記同定されているオブジェクトと前記同定されている領域とに対して前記ユーザの視線がそれぞれ一定時間以上向けられた場合に前記第3のジェスチャ動作が行なわれたと判定する
ことを特徴とする請求項1記載の情報処理装置。
The acquisition means includes
Obtaining an image containing the user's eyes,
The third determination means includes
The third gesture motion is determined to be performed when the user's line of sight is directed to the identified object and the identified region for a predetermined time or more, respectively. 1. An information processing apparatus according to 1.
前記同定されているオブジェクトの種別を取得する第1の取得手段と、
前記第2のジェスチャ動作に基づいて選択された1又は複数の領域に配置可能なオブジェクトの種別をそれぞれ取得する第2の取得手段と
を更に具備し、
前記同定手段は、
前記第1の取得手段により取得された種別と、前記第2の取得手段により取得された種別とが合致する領域を前記1又は複数の領域の中から同定する
ことを特徴とする請求項1記載の情報処理装置。
First acquisition means for acquiring the type of the identified object;
Second acquisition means for acquiring each of the types of objects that can be arranged in one or a plurality of areas selected based on the second gesture action;
The identification means includes
The region where the type acquired by the first acquisition unit and the type acquired by the second acquisition unit match is identified from the one or more regions. Information processing device.
情報処理装置の処理方法であって、
取得手段が、ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する工程と、
第1の判定手段が、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する工程と、
第1の同定手段が、前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定する工程と、
第2の判定手段が、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する工程と、
第2の同定手段が、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する工程と、
第3の判定手段が、前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する工程と、
オブジェクト処理手段が、前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させる工程と
を含むことを特徴とする処理方法。
A processing method for an information processing apparatus,
An obtaining unit obtaining information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
A step of determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed based on information acquired by the acquisition unit;
First identifying means for identifying any object from one or more objects selected based on the first gesture action;
A step of determining whether or not a second gesture operation for instructing selection of any one of the display areas is performed based on the information acquired by the acquisition unit;
A step of second identification means identifying any region from among one or more regions selected based on the second gesture action;
A step of determining whether or not a third gesture operation for instructing processing on the identified object has been performed in a state where the object and the region are identified;
And a step of copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
コンピュータを、
ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する取得手段、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段、
前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段、
前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段、
前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段
として機能させるためのプログラム。
Computer
Acquisition means for acquiring information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
First determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed based on the information acquired by the acquisition means;
Second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display areas has been performed based on the information acquired by the acquisition means;
One of the one or more objects selected based on the first gesture action is identified, and any one of the one or more areas selected based on the second gesture action is identified. An identification means for identifying the region,
Third determination means for determining whether or not a third gesture operation for instructing processing on the identified object is performed in a state where the object and the region are identified;
A program for functioning as an object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
JP2010099065A 2010-04-22 2010-04-22 Information processing apparatus, processing method thereof, and program Active JP5558899B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010099065A JP5558899B2 (en) 2010-04-22 2010-04-22 Information processing apparatus, processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010099065A JP5558899B2 (en) 2010-04-22 2010-04-22 Information processing apparatus, processing method thereof, and program

Publications (3)

Publication Number Publication Date
JP2011227828A true JP2011227828A (en) 2011-11-10
JP2011227828A5 JP2011227828A5 (en) 2013-06-06
JP5558899B2 JP5558899B2 (en) 2014-07-23

Family

ID=45043073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010099065A Active JP5558899B2 (en) 2010-04-22 2010-04-22 Information processing apparatus, processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5558899B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081722A (en) * 2012-10-15 2014-05-08 Nikon Corp System, device, and method
JP2014228945A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Area designating device
JP2015011526A (en) * 2013-06-28 2015-01-19 Kddi株式会社 Action recognition system, method, and program, and recognizer construction system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133441B2 (en) 2015-11-30 2018-11-20 Kabushiki Kaisha Toshiba Electronic apparatus and method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (en) * 1992-07-27 1994-02-18 Toshiba Corp Display controller and display control method
JPH06282375A (en) * 1993-03-29 1994-10-07 Casio Comput Co Ltd Information processor and electronic pen
JPH07230350A (en) * 1994-02-17 1995-08-29 Toshiba Corp Input device
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
WO2002008881A2 (en) * 2000-07-21 2002-01-31 Qinetiq Limited Human-computer interface
JP2004030284A (en) * 2002-06-26 2004-01-29 Takenaka Komuten Co Ltd Seamless pointing system
JP2007065724A (en) * 2005-08-29 2007-03-15 Nikon Corp Information processing program and information processor
WO2008115997A2 (en) * 2007-03-19 2008-09-25 Zebra Imaging, Inc. Systems and methods for updating dynamic three-dimensional display with user input
WO2010017039A2 (en) * 2008-08-04 2010-02-11 Microsoft Corporation A user-defined gesture set for surface computing
WO2010035491A1 (en) * 2008-09-29 2010-04-01 パナソニック株式会社 User interface device, user interface method, and recording medium
JP2010182088A (en) * 2009-02-05 2010-08-19 Sharp Corp Electronic device, display control method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0644001A (en) * 1992-07-27 1994-02-18 Toshiba Corp Display controller and display control method
JPH06282375A (en) * 1993-03-29 1994-10-07 Casio Comput Co Ltd Information processor and electronic pen
JPH07230350A (en) * 1994-02-17 1995-08-29 Toshiba Corp Input device
JPH10161801A (en) * 1996-11-27 1998-06-19 Sony Corp Input device
WO2002008881A2 (en) * 2000-07-21 2002-01-31 Qinetiq Limited Human-computer interface
JP2004030284A (en) * 2002-06-26 2004-01-29 Takenaka Komuten Co Ltd Seamless pointing system
JP2007065724A (en) * 2005-08-29 2007-03-15 Nikon Corp Information processing program and information processor
WO2008115997A2 (en) * 2007-03-19 2008-09-25 Zebra Imaging, Inc. Systems and methods for updating dynamic three-dimensional display with user input
WO2010017039A2 (en) * 2008-08-04 2010-02-11 Microsoft Corporation A user-defined gesture set for surface computing
WO2010035491A1 (en) * 2008-09-29 2010-04-01 パナソニック株式会社 User interface device, user interface method, and recording medium
JP2010182088A (en) * 2009-02-05 2010-08-19 Sharp Corp Electronic device, display control method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081722A (en) * 2012-10-15 2014-05-08 Nikon Corp System, device, and method
JP2014228945A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Area designating device
JP2015011526A (en) * 2013-06-28 2015-01-19 Kddi株式会社 Action recognition system, method, and program, and recognizer construction system

Also Published As

Publication number Publication date
JP5558899B2 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
AU2013200054B2 (en) Touch free operation of devices by use of depth sensors
US9329691B2 (en) Operation input apparatus and method using distinct determination and control areas
JP6039248B2 (en) Information processing apparatus and control method thereof
EP2866123A2 (en) Screen operation apparatus and screen operation method
US10359905B2 (en) Collaboration with 3D data visualizations
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
JP6711817B2 (en) Information processing apparatus, control method thereof, program, and storage medium
KR101797260B1 (en) Information processing apparatus, information processing system and information processing method
US9715738B2 (en) Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium
CN103679788A (en) 3D image generating method and device in mobile terminal
EP2831701B1 (en) Display control device, display control method, and program
JP2009251702A (en) Information processing unit, information processing method, and information processing program
JP5558899B2 (en) Information processing apparatus, processing method thereof, and program
JP7495651B2 (en) Object attitude control program and information processing device
US20130106757A1 (en) First response and second response
CN111176421B (en) Wearable device, control method, control system and storage device thereof
JP5456817B2 (en) Display control apparatus, display control method, information display system, and program
JP5676959B2 (en) Information processing apparatus and control method thereof
JP2016139340A (en) Information input system and input device
JP2014203367A (en) Gesture input device, and method
JP2018077605A (en) Display device and control method of display device
JP2017044949A (en) Imaging apparatus, control method, and program
TW201514764A (en) Remote control method and remote control device using gestures and fingers

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140605

R151 Written notification of patent or utility model registration

Ref document number: 5558899

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151