JP2011227828A - Information processor, information processing method and information processing program - Google Patents
Information processor, information processing method and information processing program Download PDFInfo
- Publication number
- JP2011227828A JP2011227828A JP2010099065A JP2010099065A JP2011227828A JP 2011227828 A JP2011227828 A JP 2011227828A JP 2010099065 A JP2010099065 A JP 2010099065A JP 2010099065 A JP2010099065 A JP 2010099065A JP 2011227828 A JP2011227828 A JP 2011227828A
- Authority
- JP
- Japan
- Prior art keywords
- gesture operation
- identified
- gesture
- user
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置、その処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, a processing method thereof, and a program.
近年、電子的に表示されたオブジェクトに対する操作として、ユーザが直感的な入力により指示を行なえるジェスチャ入力によるものが増えている。例えば、オブジェクトを利用して電子的なデータの作成・編集作業を行なう場合等には、表示されているオブジェクトを指定して、作成・編集中のデータにコピー又は移動して配置する操作が良く行なわれる。 In recent years, as an operation for an electronically displayed object, an operation using a gesture input that allows a user to give an instruction by an intuitive input is increasing. For example, when creating / editing electronic data using objects, it is often convenient to specify the displayed object and copy or move it to the data being created / edited. Done.
従来、このような操作は、表示されているオブジェクトを選択するジェスチャ動作を行なった後、オブジェクト選択状態のまま、移動先へとオブジェクトを動かすようなジェスチャ動作を行なうものが多い(特許文献1参照)。 Conventionally, such an operation often performs a gesture operation of moving an object to a movement destination in an object selection state after performing a gesture operation of selecting a displayed object (see Patent Document 1). ).
上述したように、従来、オブジェクトを移動等させる際には、選択したオブジェクトをユーザの手に追随させて、選択した位置から移動先までオブジェクトを動かさなければならなかった。そのため、例えば、片手で届く範囲を越える位置にオブジェクトをコピー又は移動させるような場合には、ユーザは、体全体を大きく動かさなければならない。このような場合には、オブジェクトを容易に移動できる範囲が制限されてしまう。 As described above, conventionally, when an object is moved, the object must be moved from the selected position to the destination by causing the selected object to follow the user's hand. Therefore, for example, when an object is copied or moved to a position beyond the range that can be reached with one hand, the user must move the entire body greatly. In such a case, the range in which the object can be easily moved is limited.
本発明は、上記課題に鑑みてなされたものであり、ジェスチャ動作によりオブジェクトを他の領域にコピー又は移動させる際の操作性を向上させるようにした技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for improving operability when copying or moving an object to another area by a gesture operation.
上記課題を解決するため、本発明の一態様による情報処理装置は、ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する取得手段と、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段と、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段と、前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段と、前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段と、前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段とを具備することを特徴とする。 In order to solve the above problem, an information processing apparatus according to an aspect of the present invention includes an acquisition unit that acquires information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed. Based on the information acquired by the acquisition means, a first determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed, and the acquisition means Based on the acquired information, second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display regions has been performed, and based on the first gesture operation Identifying one of the one or more selected objects and selecting based on the second gesture action Identification means for identifying any one area from among one or a plurality of areas, and a third gesture operation for instructing processing on the identified object while the object and the area are identified are performed. Third determination means for determining whether the third gesture operation has been performed, and object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed. It is characterized by doing.
本発明によれば、ジェスチャ動作によりオブジェクトを他の領域にコピー又は移動させる際の操作性を向上させられる。 According to the present invention, it is possible to improve operability when an object is copied or moved to another area by a gesture operation.
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
(実施形態1)
図1は、本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of a hardware configuration of an
情報処理装置10は、CPU11と、ROM12と、RAM13と、記憶部14と、入力I/F15と、出力I/F16と、システムバス17と、入力デバイス18と、出力デバイス19とを具備して構成される。これら各部間における通信は、システムバス17により実現される。
The
RAM(Random Access Memory)13は、CPU11によるプログラムの実行時にワークエリアとして使用され、各種演算結果や座標データ等を一時的に記憶する。ROM(Read Only Memory)12は、プログラムや各種データを記憶する。
A RAM (Random Access Memory) 13 is used as a work area when the
記憶部14は、ハードディスクドライブ(HDD)やフラッシュメモリドライブ(SSD)、着脱可能なメモリカードや光ディスク等により実現され、各種データを記憶する。記憶部14には、例えば、オペレーティングシステムやアプリケーション等の各種プログラムが記憶される。
The
CPU(Central Processing Unit)11は、情報処理装置10の動作を統括制御する。情報処理装置10における各種処理は、例えば、CPU11がRAM13をワーク領域として記憶部14に記憶されたプログラムを読み込み実行することで行なわれる。
A CPU (Central Processing Unit) 11 performs overall control of the operation of the
入力デバイス18は、例えば、各種センサやカメラ等で実現され、入力I/F15を介して各種情報を装置内に入力する。ここで、入力デバイス18は、一般に、ジェスチャ認識で用いられるようなカメラやセンサを含むものであれば良い。本実施形態に係わる入力デバイス18は、カメラ及びセンサを用いて、人体に対して照射した赤外光の反射波を撮像し、人体各部の奥行きを含んだ外形の情報とそれらの動きとを検出する。なお、入力デバイス18は、必ずしもこのような構成に限られず、ユーザの人体範囲を特定でき、また、ジェスチャ動作(手の位置、形、動き)を検出できる構成であれば良い。例えば、空間上の位置、形、動きを検出可能なセンサを搭載したグローブを入力デバイスとして利用しても構わない。この場合、ユーザは、当該グローブを両手に装着し、ジェスチャ動作を行なう。また、例えば、通常の可視光を撮影するカメラで撮影したユーザの画像を画像認識によって処理し、それによりジェスチャ入力を行なうようにしても良い。
The
出力デバイス19は、出力I/F16を介して各種情報を装置外部に出力する。本実施形態に係わる出力デバイス19としては、例えば、ディスプレイやスクリーン等が挙げられ、比較的大きめの表示領域を有するものを想定している。以上が、情報処理装置10における機能的な構成の一例である。
The
次に、図2を用いて、上述したCPU11において実現される機能的な構成の一例について説明する。これら処理機能は、例えば、CPU11がRAM13をワーク領域として記憶部14に記憶されたプログラムを読み込み実行することで実現される。
Next, an example of a functional configuration realized in the above-described
CPU11には、その機能的な構成として、取得部21と、ユーザ特定部22と、ジェスチャ判定部23と、同定部27と、オブジェクト処理部28と、表示処理部29とが実現される。
As the functional configuration of the
取得部21は、入力I/F15を介して入力デバイス18からジェスチャ情報を取得する。ジェスチャ情報とは、ユーザの人体範囲を示す情報と、ユーザにより行なわれたジェスチャ動作(手の位置、形、動き)と、ジェスチャ動作が行なわれた表示領域上における位置とを示す情報である。
The
ユーザ特定部22は、オブジェクトの選択や、コピー先領域又は移動先領域の選択が、同一ユーザによって行なわれているか否かを特定(判定)する。本実施形態では、入力デバイス(センサ)18において、ユーザの外形と奥行きとを取得できるため、当該センサの出力結果を利用して人体の範囲を決定する。これにより、ユーザの特定を行なう。なお、センサではユーザの外形や奥行きまでが判断できず、複数人の重なりや、体を構成する部位の連続性が認識できない場合などには、ユーザをカメラで撮影し、画像特徴の処理によって、同一ユーザであるか否かを判定するなどしても構わない。
The
ジェスチャ判定部23は、取得部21により受信されたジェスチャ情報に基づいて、いずれの処理を指示するジェスチャ動作が行なわれたのかを判定する。本実施形態においては、ユーザが行なうジェスチャ動作として、第1のジェスチャ動作と、第2のジェスチャ動作と、第3のジェスチャ動作とがある。
Based on the gesture information received by the
ここで、第1のジェスチャ動作とは、表示領域におけるいずれかのオブジェクトの選択を指示するジェスチャ動作を指し、第2のジェスチャ動作とは、コピー又は移動先の領域の選択を指示するジェスチャ動作を指す。本実施形態に係わる第1のジェスチャ動作及び第2のジェスチャ動作は、同じジェスチャ動作(例えば、空間を指で掴むような動作)で行なわれる。 Here, the first gesture action refers to a gesture action that instructs selection of any object in the display area, and the second gesture action refers to a gesture action that instructs selection of a copy or movement destination area. Point to. The first gesture operation and the second gesture operation according to the present embodiment are performed by the same gesture operation (for example, an operation of grasping a space with a finger).
また、第3のジェスチャ動作とは、選択されたオブジェクトに対して処理の実施を指示するジェスチャ動作を指し、選択された領域に向けて選択されたオブジェクトをコピー又は移動させるための指示を行なうジェスチャ動作である。本実施形態に係わる第3のジェスチャ動作は、オブジェクトとコピー先領域等とが選択されている状態で、選択されたオブジェクトを選択されたコピー先領域等に向けて一定量以上移動させるような動きとなる。 The third gesture action refers to a gesture action that instructs the selected object to perform processing, and a gesture that gives an instruction to copy or move the selected object toward the selected area. Is the action. The third gesture operation according to the present embodiment is a movement that moves the selected object toward the selected copy destination area or the like by a certain amount or more in a state where the object and the copy destination area or the like are selected. It becomes.
ここで、ジェスチャ判定部23には、上述したジェスチャ動作を判定(検出)するため、第1の判定部24と、第2の判定部25と、第3の判定部26とが設けられる。
Here, the
第1の判定部24は、取得部21により取得されたジェスチャ情報に基づいて、ユーザにより第1のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクトが選択されていない状態で、表示領域に表示されたいずれかのオブジェクトに対して指で掴むような動作が行なわれた場合に、第1のジェスチャ動作が行なわれたと判定する。
The
第2の判定部25は、取得部21により取得されたジェスチャ情報とユーザ特定部22によるユーザの特定結果とに基づいて、ユーザにより第2のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクトが選択された状態で(当該オブジェクトを選択したユーザと)同じユーザにより表示領域に表示されたいずれかの領域に対して指で掴むような動作が行なわれた場合に、第2のジェスチャ動作が行なわれたと判定する。
The
第3の判定部26は、取得部21により取得されたジェスチャ情報に基づいて、ユーザにより第3のジェスチャ動作が行なわれたか否かを判定する。より具体的には、オブジェクト及び領域が選択された状態で、当該選択中のオブジェクトを当該選択中のコピー先領域等に向けて一定量以上移動させるような動作が行なわれた場合に、第3のジェスチャ動作が行なわれたと判定する。
Based on the gesture information acquired by the
ここで、第3のジェスチャ動作の判定には、オブジェクトの移動量や方向に対して任意の値を有する閾値を用いる。閾値には、コピーや移動の意思が明らかに認識できる程度の値を設定すれば良い。例えば、単純に、センサを基準とした移動後と移動前の手の位置の座標と実距離とから、手の移動方向とともに移動量を距離で求める。移動量については、10cm以内などといった閾値を設定すれば良い。また、移動方向については、オブジェクトの中心と選択領域の中心とを結んだ線分と、当該線分と移動方向との角度が10度以内等といった閾値を設定すれば良い。また更に、加速度も見るようにして、無意識のうちに徐々に移動してしまったような場合には、第3のジェスチャ動作であると判定されないような仕組みを設けても構わない。 Here, for the determination of the third gesture motion, a threshold value having an arbitrary value with respect to the movement amount and direction of the object is used. The threshold value may be set to a value that can clearly recognize the intention of copying or moving. For example, the amount of movement along with the direction of movement of the hand is determined as a distance from the coordinates and actual distance of the hand position before and after movement based on the sensor. For the movement amount, a threshold value such as within 10 cm may be set. For the movement direction, a threshold value may be set such that a line segment connecting the center of the object and the center of the selection area and an angle between the line segment and the movement direction is within 10 degrees. Furthermore, a mechanism may be provided that does not determine that the movement is the third gesture operation when the user gradually moves unconsciously while looking at the acceleration.
同定部27は、第1のジェスチャ動作及び第2のジェスチャ動作が行なわれた場合に、対象となるオブジェクトや領域を同定する。すなわち、第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定する第1の同定手段として機能する。また、第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する第2の同定手段として機能する。本実施形態に係わる同定部27においては、ユーザの頭の位置と、表示領域に表示されたオブジェクトに対する手の位置及び距離とに基づいてオブジェクトや領域の同定を行なう。
The
この同定においては、例えば、入力デバイス18を基準とした表示領域の位置を予め定めておき、ユーザの頭の位置と選択している手の位置とを結ぶ線分と、表示領域の交点付近にある対象を選択対象として同定すれば良い。この場合、頭の位置から更に目に相当するおよその位置を推定し、目の位置と手の位置とを結ぶ線分を利用するようにしても構わない。但し、同定の仕方は、これに限られず、例えば、表示領域の位置と手の位置とがごく近い場合には、手の位置の付近に存在している対象を選択対象として同定しても良い。
In this identification, for example, the position of the display area with reference to the
なお、対象となるオブジェクトや領域の周辺に他のオブジェクトや領域が存在する場合、付近にある対象を誤って同定してしまうことも考えられる。そのため、同定した結果を、選択対象を強調するなどしてユーザにフィードバックし、その後のユーザのジェスチャ動作の変化から同定結果を補正するようにしても良い。例えば、同定結果として、選択対象となるオブジェクト(又は領域)を強調表示した後、ユーザがそれよりも上方にずらして第1のジェスチャ動作等を再度行なった場合、当該上方のオブジェクトを同定するようにしても良い。 If there are other objects or regions around the target object or region, it may be possible to mistakenly identify a target in the vicinity. For this reason, the identified result may be fed back to the user by emphasizing the selection target or the like, and the identification result may be corrected based on the subsequent change in the gesture operation of the user. For example, as an identification result, after highlighting an object (or region) to be selected, if the user performs a first gesture operation again after shifting upward, the upper object is identified. Anyway.
オブジェクト処理部28は、オブジェクトを処理する。より具体的には、第3の判定部26により第3のジェスチャ動作が行なわれたと判定された場合に、選択中のオブジェクトを選択中の領域にコピー又は移動させる。
The
ここで、オブジェクト処理部28により実施される処理は、コピー先又は移動先の領域に応じてその処理内容が異なってくる場合がある。より具体的には、例えば、文書や画像作成用のテンプレート上のオブジェクト配置場所がコピー先又は移動先の領域であれば、ここでは、当該テンプレートを用いて作成・編集中の文書や画像の該当部分にオブジェクトを配置する処理が行なわれる。また、コピー先又は移動先の領域がフォルダであれば、当該フォルダにオブジェクトをコピー又は移動する処理が行なわれる。また、コピー先又は移動先の領域がゴミ箱であれば、オブジェクトを削除する処理が行なわれる。
Here, the processing performed by the
表示処理部29は、オブジェクト処理部28で行なわれた処理の結果等を出力デバイス19に表示制御する。例えば、表示されているテンプレート上に、オブジェクトが配置される態様を表示する。
The
ここで、図3を用いて、図1に示す情報処理装置10の説明を分かり易くするために、情報処理装置10における処理の流れの一例について簡単に説明する。ここでは、第1の文書のテンプレート領域に、第2の文書(別の文書)のオブジェクトをコピーする際の処理の流れを例に挙げて説明する。
Here, in order to make the explanation of the
ここで、出力デバイス19は、例えば、スクリーン等であり、当該スクリーンには、第1の文書30と第2の文書40とが表示されている。ユーザは、右手51を用いて、第1のジェスチャ動作を実施し、第1の文書30内のオブジェクト31を選択している。上述した通り、ユーザは、空間を指で掴むようなジェスチャ動作を行なうことにより、オブジェクト31を選択する。
Here, the
続いて、ユーザは、左手52を用いて、オブジェクト31のコピー先となる領域41を選択する。具体的には、左手52を用いて、第2のジェスチャ動作を実施し、第2の文書40内のテンプレート上の領域を選択する。すなわち、右手51を用いて、オブジェクト31を選択した状態で、左手52を用いて、コピー先領域41を選択している。なお、左手52及び右手51は、同一ユーザの手である。
Subsequently, the user uses the
ここで、ユーザは、オブジェクト及び領域を選択している状態で第3のジェスチャ動作を行なう。具体的には、ユーザは、オブジェクト31を選択している右手51をコピー先領域41に向けて一定量以上移動させる。これにより、第1の文書30内のオブジェクト31が、第2の文書40内の領域41にコピーされる。
Here, the user performs the third gesture operation while the object and the area are selected. Specifically, the user moves the
次に、図4〜図6に示すフローチャートを用いて、図1に示す情報処理装置10における処理の流れの一例について説明する。まず、図4を用いて、オブジェクトを選択する際の処理の流れの一例について説明する。
Next, an example of the flow of processing in the
情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S101でYES)。ジェスチャ情報には、上述した通り、ユーザの人体範囲を示す情報と、ユーザにより行なわれたジェスチャ動作(手の位置、形、動き)と、表示領域に対するジェスチャ動作が行なわれた位置とを含む情報である。
The
ジェスチャ情報を受信すると、情報処理装置10は、第1の判定部24において、オブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する。上述した通り、オブジェクトが選択されていない状態で、表示領域に表示されたいずれかのオブジェクトに対して指で掴むような動作が行なわれた場合に、第1のジェスチャ動作が行なわれたと判定する。
When the gesture information is received, the
判定(検出)の結果、第1のジェスチャ動作が行なわれていなければ(S102でNO)、情報処理装置10は、再度、S101の処理に戻り、ジェスチャ情報の受信待ちとなる。一方、第1のジェスチャ動作が行なわれた場合(S102でYES)、情報処理装置10は、同定部27において、オブジェクトの同定を行なう。すなわち、第1のジェスチャ動作が行なわれた手の位置に基づいて、表示領域におけるいずれのオブジェクトが選択されたかを同定する(S104)。その後、情報処理装置10は、ユーザ特定部22において、当該指示を行なったユーザを特定する。より具体的には、第1のジェスチャ動作を行なったユーザの人体範囲を決定する(S105)。これにより、この処理は終了する。
If the first gesture operation is not performed as a result of the determination (detection) (NO in S102), the
次に、図5を用いて、コピー先又は移動先の領域を選択する際の処理の流れの一例について説明する。この処理は、通常、図4の処理によりオブジェクトが選択されている状態で開始される。 Next, an example of a processing flow when selecting a copy destination area or a movement destination area will be described with reference to FIG. This process is normally started in a state where an object is selected by the process of FIG.
情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S201でYES)。そして、第2の判定部25において、オブジェクトが選択中であるか否かを判定する。オブジェクトが選択中でなければ(S202でNO)、情報処理装置10は、再度、S201の処理に戻り、ジェスチャ情報の受信待ちとなる。
The
オブジェクトが選択中であれば(S202でYES)、情報処理装置10は、第2の判定部25において、当該オブジェクトを選択しているユーザにより第2のジェスチャ動作が行なわれたか否かを判定する。ユーザは、例えば、オブジェクトを選択している手と別の手を用いて第2のジェスチャ動作を行なう。なお、オブジェクトを選択しているユーザと、第2のジェスチャ動作を行なったユーザが同一ユーザであるか否かは、ユーザ特定部22の特定結果に基づいて判定される。すなわち、ユーザ特定部22により決められた人体範囲内で第2のジェスチャ動作が行なわれた場合に、情報処理装置10は、同一ユーザにより第2のジェスチャ動作が行なわれたと判定する。
If the object is being selected (YES in S202), the
判定の結果、オブジェクトを選択しているユーザと別のユーザにより第2のジェスチャ動作が行なわれた等であれば(S203でNO)、情報処理装置10は、再度、S201の処理に戻り、ジェスチャ情報の受信待ちとなる。
As a result of the determination, if the second gesture operation is performed by a user other than the user who has selected the object (NO in S203), the
一方、オブジェクトを選択しているユーザが第2のジェスチャ動作を行なったと判定した場合(S203でYES)、情報処理装置10は、同定部27において、領域の同定を行なう。すなわち、第2のジェスチャ動作が行なわれた手の位置に基づいて、表示領域におけるいずれの領域が選択されたかを同定する(S204)。その後、この処理は終了する。
On the other hand, when it is determined that the user who has selected the object has performed the second gesture operation (YES in S203), the
次に、図6を用いて、オブジェクトを処理する際の処理の流れの一例について説明する。この処理は、通常、図4及び図5の処理によりオブジェクト及び領域が選択されている状態で開始される。 Next, an example of the flow of processing when processing an object will be described with reference to FIG. This process is normally started in a state where an object and a region are selected by the processes of FIGS.
情報処理装置10は、取得部21において、入力I/F15を介して入力デバイス18からジェスチャ情報を受信する(S301でYES)。そして、第3の判定部25において、オブジェクト及び領域が選択中であるか否かを判定する。オブジェクト及び領域のいずれか一方でも選択されていなければ(S302でNO)、情報処理装置10は、再度、S301の処理に戻り、ジェスチャ情報の受信待ちとなる。
The
オブジェクト及び領域が選択中であれば(S302でYES)、情報処理装置10は、第3の判定部26において、第3のジェスチャ動作が行なわれたか否かを判定する。すなわち、ユーザにより選択中のオブジェクトを選択集のコピー先領域等に向けて一定量以上移動させるようなジェスチャ動作がなされたか否かを判定する。
If the object and the area are being selected (YES in S302), the
判定(検出)の結果、第3のジェスチャ動作が行なわれていなければ(S303でNO)、情報処理装置10は、再度、S301の処理に戻り、ジェスチャ情報の受信待ちとなる。
If the third gesture operation is not performed as a result of the determination (detection) (NO in S303), the
一方、第3のジェスチャ動作が行なわれた場合(S303でYES)、情報処理装置10は、オブジェクト処理部28において、選択中のオブジェクトを選択中のコピー先領域(コピー先又は移動先領域)にコピー(又は移動)させる(S304)。このとき、情報処理装置10は、表示処理部29において、当該処理をスクリーン等に表示する。その後、この処理は終了する。
On the other hand, when the third gesture operation is performed (YES in S303), the
以上説明したように実施形態1によれば、ジェスチャ動作を用いて、表示領域に表示されたオブジェクトを他の領域にコピー又は移動させる際の操作性が向上する。特に、オブジェクトとコピー又は移動先の領域との距離が片手で届く範囲を越える場合であっても、このような操作が容易に行なえる。 As described above, according to the first embodiment, the operability when the object displayed in the display area is copied or moved to another area using the gesture operation is improved. In particular, such an operation can be easily performed even when the distance between the object and the copy or movement destination area exceeds the range that can be reached with one hand.
また、オブジェクトを選択しているユーザと領域を選択しているユーザとが同一であるか否かを判定するため、第3者が意図せずに、オブジェクトや領域の選択を指示するジェスチャ動作を実施したとしても、それを起因とした誤動作の発生を抑制できる。 Further, in order to determine whether or not the user who selects the object and the user who selects the area are the same, a gesture operation that instructs the selection of the object or area without the intention of the third party is performed. Even if it is carried out, it is possible to suppress the occurrence of malfunction due to it.
(実施形態2)
次に、実施形態2について説明する。実施形態2においては、オブジェクトや領域の種別に応じてオブジェクト及び領域の同定を行なう場合について説明する。
(Embodiment 2)
Next, Embodiment 2 will be described. In the second embodiment, a case will be described in which an object and a region are identified according to the type of the object or region.
図7は、実施形態2に係わる情報処理装置10のCPU11において実現される機能的な構成の一例を示す図である。なお、実施形態1を説明した図2と同様の構成については同一の符号を付しており、その説明については省略する場合もある。
FIG. 7 is a diagram illustrating an example of a functional configuration realized in the
実施形態2に係わるCPU11には、その機能的な構成として、オブジェクト種別取得部61と、領域種別取得部62とが新たに設けられる。
As a functional configuration of the
オブジェクト種別取得部61は、第1の取得手段として機能し、同定部27により既に同定済みのオブジェクトの種別を取得する。領域種別取得部62は、第2の取得手段として機能し、第2のジェスチャ動作により選択された1又は複数の領域の種別を取得する。
The object
同定部27は、オブジェクト種別取得部61により取得されたオブジェクトの種別と、領域種別取得部62により取得された種別とに基づいて領域の同定を行なう。ここで、領域によっては配置不可能なオブジェクトがある場合等がある。例えば、テンプレートを利用してデータの作成・編集を行なうような場合、コピー先又は移動先の領域に、予め配置可能なオブジェクトの種別が設定されている場合がある。あるテンプレート上の領域は、テキストデータのみ配置(入力)可能であり、別のテンプレート上の領域は、画像のみ配置可能であるといった設定がなされていることが考えられる。このような場合に、同定部27は、オブジェクトの種別と、コピー先又は移動先の領域に配置可能なオブジェクトの種別とが合致するように、選択対象の同定を行なう。
The
ここで、実施形態2に係わる情報処理装置10における動作は、実施形態1を説明した図4〜図6の処理と同様となる。そのため、ここでは、図を用いた説明は省略し、相違する点について簡単に説明する。相違点としては、領域同定時の処理(図5におけるS204)が挙げられる。
Here, the operation of the
領域の同定に際して、情報処理装置10は、オブジェクト種別取得部61において、既に同定済みのオブジェクトの種別を取得するとともに、領域種別取得部62において、コピー先又は移動先の領域が配置可能なオブジェクトの種別を取得する。そして、同定部27において、第2のジェスチャ動作により選択された1又は複数の領域の中から当該オブジェクトを配置可能な領域を同定する。例えば、オブジェクトの種別が画像であれば、コピー又は移動先の領域としては、画像を配置可能な領域を同定する。
When identifying an area, the
以上説明したように実施形態2によれば、実施形態1の効果に加えて更に、同定対象が絞り込めるようになるため、同定処理の誤りを抑制できる。 As described above, according to the second embodiment, in addition to the effects of the first embodiment, identification objects can be further narrowed down, and thus errors in identification processing can be suppressed.
(実施形態3)
次に、実施形態3について説明する。実施形態3においては、第3のジェスチャ動作をユーザの視線に基づいて行なう場合について説明する。
(Embodiment 3)
Next, Embodiment 3 will be described. In the third embodiment, a case where the third gesture operation is performed based on the user's line of sight will be described.
実施形態3に係わる情報処理装置10は、入力I/F15を介して入力デバイス(例えば、カメラ)18からユーザの眼を含む顔画像を取得する。そして、当該顔画像から視線方向を検出し、当該視線方向を利用してオブジェクトを処理する。例えば、ユーザが、選択されているオブジェクトを一定時間見た後、選択したコピー又は移動先領域を一定時間見た場合に、第3のジェスチャ動作がなされたと判定する。
The
ここで、図8は、実施形態3に係わる情報処理装置10のCPU11において実現される機能的な構成の一例を示す図である。なお、実施形態1を説明した図2と同様の構成については同一の符号を付しており、その説明については省略する場合もある。
Here, FIG. 8 is a diagram illustrating an example of a functional configuration realized in the
実施形態3に係わるCPU11には、その機能的な構成として、視線判定部63が新たに設けられる。
As a functional configuration of the
視線判定部63は、オブジェクト又は領域を選択中のユーザの視線が、当該オブジェクト又は領域に向いているか否かを判定する。第3の判定部26においては、ユーザの視線が選択中のオブジェクトに一定時間以上向いていた後、当該ユーザの視線が選択中の領域に一定時間以上向いていた場合に、第3のジェスチャ動作が行なわれたと判定する。なお、オブジェクトに視線が向いている時間と領域に視線が向いている時間とがそれぞれ一定以上経過したか否かの判定に際しては、それぞれ別々の閾値を用いて行なっても良い。
The line-of-
以上説明したように実施形態3によれば、実施形態1の効果に加えて更に、操作性が向上する。なお、上述した説明では、実施形態2と実施形態3とを別々に説明したが、実施形態2と実施形態3とを組み合わせて実施しても勿論構わない。 As described above, according to the third embodiment, in addition to the effects of the first embodiment, the operability is further improved. In the above description, the second embodiment and the third embodiment have been described separately, but it is needless to say that the second embodiment and the third embodiment may be combined.
また、実施形態3で説明した視線による第3のジェスチャ動作と、実施形態1で説明した第3のジェスチャ動作とを組み合わせて、第3のジェスチャ動作としても良い。この場合、第3のジェスチャ動作に相当する動作が偶然行われてしまうことを起因とした誤動作の発生を抑制できる。 Further, the third gesture operation by the line of sight described in the third embodiment and the third gesture operation described in the first embodiment may be combined to form the third gesture operation. In this case, it is possible to suppress the occurrence of malfunction due to the accidental operation corresponding to the third gesture operation.
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。 The above is an example of a typical embodiment of the present invention, but the present invention is not limited to the embodiment described above and shown in the drawings, and can be appropriately modified and implemented without departing from the scope of the present invention. .
例えば、上述した説明では、オブジェクトの選択が行なわれた後、領域の選択が行なわれる場合について説明したが、処理順番は前後しても構わない。すなわち、領域の選択を行なった後、オブジェクトの選択を行なってもよい。 For example, in the above description, the case where an area is selected after an object is selected has been described, but the processing order may be changed. In other words, the object may be selected after selecting the region.
また、上述した説明では、オブジェクトを選択する際の第1のジェスチャ動作と、領域を選択する際の第2のジェスチャ動作とが同じ動作である場合を例に挙げて説明したが、これに限られなず、それぞれ別々のジェスチャ動作としても良い。この場合、オブジェクトの選択処理と、領域の選択処理との順番が入れ替わっても明確に処理を区別することができる。例えば、第1のジェスチャ動作をオブジェクトを掴む動作とし、第2のジェスチャ動作を指で指すような動作とする等すればよい。 In the above description, the case where the first gesture operation when selecting an object and the second gesture operation when selecting an area are the same is described as an example. It is good also as each separate gesture operation. In this case, even if the order of the object selection process and the area selection process is switched, the process can be clearly distinguished. For example, the first gesture action may be an action of grasping an object, and the second gesture action may be an action of pointing with a finger.
また、上述した説明では、表示領域について詳細に言及していないが、表示領域は、2次元又は3次元のいずれを用いた表示であっても良い。例えば、奥行き方向の表示効果を加えた3次元表示であっても良い。その場合、ユーザから見た場合の見かけ上の仮想的な表示領域の位置を、入力デバイス18を基準とした場合の表示領域の位置として扱うようにすれば良い。
In the above description, the display area is not described in detail, but the display area may be a display using two-dimensional or three-dimensional display. For example, a three-dimensional display to which a display effect in the depth direction is added may be used. In that case, an apparent virtual display area position when viewed from the user may be handled as a display area position when the
また、上述した説明では、ユーザ特定部22を設け、第1のジェスチャ動作と第2のジェスチャ動作とが同じユーザにより行なわれたか否かを判定していたが、必ずしもこのような構成を採る必要はない。すなわち、場合によっては、第1のジェスチャ動作と第2のジェスチャ動作とが別々のユーザにより行われても良い。
In the above description, the
また、上述した説明では、第3のジェスチャ動作が行なわれた場合に、オブジェクトのコピー又はオブジェクトの移動のいずれを実施するかについては明確に記載していないが、いずれの処理が実施されるかは、予め決めておくようにすればよい。また、コピー又は移動のいずれの処理が実施されるのかを切り替えるボタン等を設け、そのボタンの押下により切り替えて実施するようにしても良い。 Further, in the above description, when the third gesture operation is performed, it is not described clearly whether to copy the object or move the object, but which process is performed. May be determined in advance. Further, a button or the like for switching whether copying or moving processing is performed may be provided, and switching may be performed by pressing the button.
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
Claims (7)
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段と、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段と、
前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段と、
前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段と、
前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段と
を具備することを特徴とする情報処理装置。 Acquisition means for acquiring information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
First determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area is performed based on information acquired by the acquisition means;
Second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display areas has been performed based on the information acquired by the acquisition means;
One of the one or more objects selected based on the first gesture action is identified, and any one of the one or more areas selected based on the second gesture action is identified. An identification means for identifying the region,
Third determination means for determining whether or not a third gesture operation for instructing processing on the identified object is performed in a state where the object and the region are identified;
An information processing apparatus comprising: object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
を更に具備し、
前記第2の判定手段は、
前記取得手段により取得された情報と前記ユーザ特定手段により特定されたユーザの情報とに基づいて、前記第1のジェスチャ動作を行なった前記ユーザにより前記第2のジェスチャ動作が行なわれたか否かを判定する
ことを特徴とする請求項1記載の情報処理装置。 A user specifying means for specifying a user who has performed the first gesture operation;
The second determination means includes
Whether the second gesture operation has been performed by the user who has performed the first gesture operation based on the information acquired by the acquisition unit and the user information specified by the user specifying unit. The information processing apparatus according to claim 1, wherein determination is made.
前記同定されているオブジェクトを前記同定されている領域に向かって一定量以上移動させるジェスチャ動作がなされた場合に前記第3のジェスチャ動作が行なわれたと判定する
ことを特徴とする請求項1記載の情報処理装置。 The third determination means includes
2. The determination according to claim 1, wherein the third gesture operation is determined to be performed when a gesture operation for moving the identified object toward the identified area by a predetermined amount or more is performed. Information processing device.
前記ユーザの眼を含む画像を取得し、
前記第3の判定手段は、
前記同定されているオブジェクトと前記同定されている領域とに対して前記ユーザの視線がそれぞれ一定時間以上向けられた場合に前記第3のジェスチャ動作が行なわれたと判定する
ことを特徴とする請求項1記載の情報処理装置。 The acquisition means includes
Obtaining an image containing the user's eyes,
The third determination means includes
The third gesture motion is determined to be performed when the user's line of sight is directed to the identified object and the identified region for a predetermined time or more, respectively. 1. An information processing apparatus according to 1.
前記第2のジェスチャ動作に基づいて選択された1又は複数の領域に配置可能なオブジェクトの種別をそれぞれ取得する第2の取得手段と
を更に具備し、
前記同定手段は、
前記第1の取得手段により取得された種別と、前記第2の取得手段により取得された種別とが合致する領域を前記1又は複数の領域の中から同定する
ことを特徴とする請求項1記載の情報処理装置。 First acquisition means for acquiring the type of the identified object;
Second acquisition means for acquiring each of the types of objects that can be arranged in one or a plurality of areas selected based on the second gesture action;
The identification means includes
The region where the type acquired by the first acquisition unit and the type acquired by the second acquisition unit match is identified from the one or more regions. Information processing device.
取得手段が、ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する工程と、
第1の判定手段が、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する工程と、
第1の同定手段が、前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定する工程と、
第2の判定手段が、前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する工程と、
第2の同定手段が、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する工程と、
第3の判定手段が、前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する工程と、
オブジェクト処理手段が、前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させる工程と
を含むことを特徴とする処理方法。 A processing method for an information processing apparatus,
An obtaining unit obtaining information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
A step of determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed based on information acquired by the acquisition unit;
First identifying means for identifying any object from one or more objects selected based on the first gesture action;
A step of determining whether or not a second gesture operation for instructing selection of any one of the display areas is performed based on the information acquired by the acquisition unit;
A step of second identification means identifying any region from among one or more regions selected based on the second gesture action;
A step of determining whether or not a third gesture operation for instructing processing on the identified object has been performed in a state where the object and the region are identified;
And a step of copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
ユーザにより行なわれたジェスチャ動作と、該ジェスチャ動作が行なわれた表示領域上の位置とを示す情報を取得する取得手段、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかのオブジェクトの選択を指示する第1のジェスチャ動作が行なわれたか否かを判定する第1の判定手段、
前記取得手段により取得された情報に基づいて、前記表示領域におけるいずれかの領域の選択を指示する第2のジェスチャ動作が行なわれたか否かを判定する第2の判定手段、
前記第1のジェスチャ動作に基づいて選択された1又は複数のオブジェクトの中からいずれかのオブジェクトを同定するとともに、前記第2のジェスチャ動作に基づいて選択された1又は複数の領域の中からいずれかの領域を同定する同定手段、
前記オブジェクト及び前記領域が同定されている状態で前記同定された前記オブジェクトに対する処理を指示する第3のジェスチャ動作が行なわれたか否かを判定する第3の判定手段、
前記第3のジェスチャ動作が行なわれたと判定された場合、前記同定されたオブジェクトを前記同定された領域にコピー又は移動させるオブジェクト処理手段
として機能させるためのプログラム。 Computer
Acquisition means for acquiring information indicating a gesture operation performed by a user and a position on a display area where the gesture operation is performed;
First determination means for determining whether or not a first gesture operation for instructing selection of any object in the display area has been performed based on the information acquired by the acquisition means;
Second determination means for determining whether or not a second gesture operation for instructing selection of any one of the display areas has been performed based on the information acquired by the acquisition means;
One of the one or more objects selected based on the first gesture action is identified, and any one of the one or more areas selected based on the second gesture action is identified. An identification means for identifying the region,
Third determination means for determining whether or not a third gesture operation for instructing processing on the identified object is performed in a state where the object and the region are identified;
A program for functioning as an object processing means for copying or moving the identified object to the identified area when it is determined that the third gesture operation has been performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010099065A JP5558899B2 (en) | 2010-04-22 | 2010-04-22 | Information processing apparatus, processing method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010099065A JP5558899B2 (en) | 2010-04-22 | 2010-04-22 | Information processing apparatus, processing method thereof, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011227828A true JP2011227828A (en) | 2011-11-10 |
JP2011227828A5 JP2011227828A5 (en) | 2013-06-06 |
JP5558899B2 JP5558899B2 (en) | 2014-07-23 |
Family
ID=45043073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010099065A Active JP5558899B2 (en) | 2010-04-22 | 2010-04-22 | Information processing apparatus, processing method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5558899B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081722A (en) * | 2012-10-15 | 2014-05-08 | Nikon Corp | System, device, and method |
JP2014228945A (en) * | 2013-05-20 | 2014-12-08 | コニカミノルタ株式会社 | Area designating device |
JP2015011526A (en) * | 2013-06-28 | 2015-01-19 | Kddi株式会社 | Action recognition system, method, and program, and recognizer construction system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10133441B2 (en) | 2015-11-30 | 2018-11-20 | Kabushiki Kaisha Toshiba | Electronic apparatus and method |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644001A (en) * | 1992-07-27 | 1994-02-18 | Toshiba Corp | Display controller and display control method |
JPH06282375A (en) * | 1993-03-29 | 1994-10-07 | Casio Comput Co Ltd | Information processor and electronic pen |
JPH07230350A (en) * | 1994-02-17 | 1995-08-29 | Toshiba Corp | Input device |
JPH10161801A (en) * | 1996-11-27 | 1998-06-19 | Sony Corp | Input device |
WO2002008881A2 (en) * | 2000-07-21 | 2002-01-31 | Qinetiq Limited | Human-computer interface |
JP2004030284A (en) * | 2002-06-26 | 2004-01-29 | Takenaka Komuten Co Ltd | Seamless pointing system |
JP2007065724A (en) * | 2005-08-29 | 2007-03-15 | Nikon Corp | Information processing program and information processor |
WO2008115997A2 (en) * | 2007-03-19 | 2008-09-25 | Zebra Imaging, Inc. | Systems and methods for updating dynamic three-dimensional display with user input |
WO2010017039A2 (en) * | 2008-08-04 | 2010-02-11 | Microsoft Corporation | A user-defined gesture set for surface computing |
WO2010035491A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
JP2010182088A (en) * | 2009-02-05 | 2010-08-19 | Sharp Corp | Electronic device, display control method, and program |
-
2010
- 2010-04-22 JP JP2010099065A patent/JP5558899B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0644001A (en) * | 1992-07-27 | 1994-02-18 | Toshiba Corp | Display controller and display control method |
JPH06282375A (en) * | 1993-03-29 | 1994-10-07 | Casio Comput Co Ltd | Information processor and electronic pen |
JPH07230350A (en) * | 1994-02-17 | 1995-08-29 | Toshiba Corp | Input device |
JPH10161801A (en) * | 1996-11-27 | 1998-06-19 | Sony Corp | Input device |
WO2002008881A2 (en) * | 2000-07-21 | 2002-01-31 | Qinetiq Limited | Human-computer interface |
JP2004030284A (en) * | 2002-06-26 | 2004-01-29 | Takenaka Komuten Co Ltd | Seamless pointing system |
JP2007065724A (en) * | 2005-08-29 | 2007-03-15 | Nikon Corp | Information processing program and information processor |
WO2008115997A2 (en) * | 2007-03-19 | 2008-09-25 | Zebra Imaging, Inc. | Systems and methods for updating dynamic three-dimensional display with user input |
WO2010017039A2 (en) * | 2008-08-04 | 2010-02-11 | Microsoft Corporation | A user-defined gesture set for surface computing |
WO2010035491A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
JP2010182088A (en) * | 2009-02-05 | 2010-08-19 | Sharp Corp | Electronic device, display control method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081722A (en) * | 2012-10-15 | 2014-05-08 | Nikon Corp | System, device, and method |
JP2014228945A (en) * | 2013-05-20 | 2014-12-08 | コニカミノルタ株式会社 | Area designating device |
JP2015011526A (en) * | 2013-06-28 | 2015-01-19 | Kddi株式会社 | Action recognition system, method, and program, and recognizer construction system |
Also Published As
Publication number | Publication date |
---|---|
JP5558899B2 (en) | 2014-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2013200054B2 (en) | Touch free operation of devices by use of depth sensors | |
US9329691B2 (en) | Operation input apparatus and method using distinct determination and control areas | |
JP6039248B2 (en) | Information processing apparatus and control method thereof | |
EP2866123A2 (en) | Screen operation apparatus and screen operation method | |
US10359905B2 (en) | Collaboration with 3D data visualizations | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
US10277544B2 (en) | Information processing apparatus which cooperate with other apparatus, and method for controlling the same | |
JP6711817B2 (en) | Information processing apparatus, control method thereof, program, and storage medium | |
KR101797260B1 (en) | Information processing apparatus, information processing system and information processing method | |
US9715738B2 (en) | Information processing apparatus recognizing multi-touch operation, control method thereof, and storage medium | |
CN103679788A (en) | 3D image generating method and device in mobile terminal | |
EP2831701B1 (en) | Display control device, display control method, and program | |
JP2009251702A (en) | Information processing unit, information processing method, and information processing program | |
JP5558899B2 (en) | Information processing apparatus, processing method thereof, and program | |
JP7495651B2 (en) | Object attitude control program and information processing device | |
US20130106757A1 (en) | First response and second response | |
CN111176421B (en) | Wearable device, control method, control system and storage device thereof | |
JP5456817B2 (en) | Display control apparatus, display control method, information display system, and program | |
JP5676959B2 (en) | Information processing apparatus and control method thereof | |
JP2016139340A (en) | Information input system and input device | |
JP2014203367A (en) | Gesture input device, and method | |
JP2018077605A (en) | Display device and control method of display device | |
JP2017044949A (en) | Imaging apparatus, control method, and program | |
TW201514764A (en) | Remote control method and remote control device using gestures and fingers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130419 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140605 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5558899 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |