JP2021162969A - Information processing apparatus, information processing system, information processing method and program - Google Patents
Information processing apparatus, information processing system, information processing method and program Download PDFInfo
- Publication number
- JP2021162969A JP2021162969A JP2020061732A JP2020061732A JP2021162969A JP 2021162969 A JP2021162969 A JP 2021162969A JP 2020061732 A JP2020061732 A JP 2020061732A JP 2020061732 A JP2020061732 A JP 2020061732A JP 2021162969 A JP2021162969 A JP 2021162969A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- state
- expected
- user
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
Description
本技術は、情報処理装置に関する。詳しくは、ユーザインターフェースを有する情報処理装置、情報処理システム、および、これらにおける情報処理方法、並びに、当該方法をコンピュータに実行さるためのプログラムに関する。 The present technology relates to an information processing device. More specifically, the present invention relates to an information processing apparatus having a user interface, an information processing system, an information processing method in these, and a program for executing the method on a computer.
従来より、ジェスチャインターフェースなど、操作の際に機器への物理的な接触を要しない非接触型のUI(User Interface)が様々な分野で用いられている。この非接触型のUIは衛生的であるが、物理的なフィードバックがないため、接触型のUIと比較して誤操作が生じやすい傾向にある。そこで、複数のランプを配列し、利用者の手の動きに追従して、それらの点灯状態を変化させることにより手の動きの補足状態を利用者に把握させる非接触型のUIが提案されている(例えば、特許文献1参照。)。 Conventionally, a non-contact type UI (User Interface) that does not require physical contact with a device during operation, such as a gesture interface, has been used in various fields. Although this non-contact UI is hygienic, it is more prone to erroneous operation than contact UI because there is no physical feedback. Therefore, a non-contact UI has been proposed in which a plurality of lamps are arranged, the user's hand movement is followed, and the lighting state of the lamps is changed so that the user can grasp the supplementary state of the hand movement. (See, for example, Patent Document 1).
上述の従来技術では、手の動きの補足状態を利用者に把握させることにより、ジェスチャ入力を行う際の誤操作の防止を図っている。しかしながら、上述のUIでは、利用者が操作に習熟していない場合に、次にどのようなジェスチャを行えばよいかがわからなくなることがあり、利便性が低下してしまうという問題がある。 In the above-mentioned conventional technique, the user is made to grasp the supplementary state of the hand movement to prevent erroneous operation when performing gesture input. However, the above-mentioned UI has a problem that if the user is not proficient in the operation, he / she may not know what kind of gesture should be performed next, which reduces convenience.
本技術はこのような状況に鑑みて生み出されたものであり、非接触のユーザインターフェースを有するシステムにおいて、利便性を向上させることを目的とする。 This technology was created in view of this situation, and aims to improve convenience in a system having a non-contact user interface.
本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、利用者に期待する姿勢である期待姿勢が表示装置に表示された後に前記利用者の姿勢を入力姿勢として検出する姿勢検出器と、前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部とを具備する情報処理装置、および、当該情報処理装置における情報処理方法、並びに、当該方法をコンピュータに実行させるためのプログラムである。これにより、次のジェスチャを利用者に把握させるという作用をもたらす。 The present technology has been made to solve the above-mentioned problems, and the first aspect thereof is to change the posture of the user after the expected posture, which is the posture expected of the user, is displayed on the display device. Information including a posture detector that detects as an input posture and a control unit that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture. It is a processing device, an information processing method in the information processing device, and a program for causing a computer to execute the method. This has the effect of making the user understand the next gesture.
また、この第1の側面において、前記ジェスチャを表示させる制御は、所定のオブジェクトを前記表示装置にアニメーション表示させる制御であってもよい。これにより、入力姿勢が期待姿勢に略一致する際に、オブジェクトがアニメーション表示されるという作用をもたらす。 Further, in the first aspect, the control for displaying the gesture may be a control for displaying a predetermined object in animation on the display device. As a result, when the input posture substantially matches the expected posture, the object is displayed as an animation.
また、この第1の側面において、前記制御部は、前記利用者の習熟度が所定の閾値より高いか否かを判定して前記習熟度が前記閾値より高い場合には前記オブジェクトをアニメーション表示させてもよい。これにより、習熟度が低い場合にアニメーション表示が省略されるという作用をもたらす。 Further, in the first aspect, the control unit determines whether or not the proficiency level of the user is higher than a predetermined threshold value, and if the proficiency level is higher than the threshold value, animates the object. You may. This has the effect of omitting the animation display when the proficiency level is low.
また、この第1の側面において、前記制御部は、時間の経過に伴う前記利用者の関節の変化を示す時系列データを解析して当該解析結果に基づいて前記習熟度が前記閾値より高いか否かを判定してもよい。これにより、時系列データの解析により習熟度が閾値より高いか否かが判定されるという作用をもたらす。 Further, in the first aspect, the control unit analyzes time-series data indicating changes in the joints of the user with the passage of time, and based on the analysis result, is the proficiency level higher than the threshold value? It may be determined whether or not. This has the effect of determining whether or not the proficiency level is higher than the threshold value by analyzing the time series data.
また、この第1の側面において、複数の状態のいずれかに移行するステートマシンをさらに具備することもできる。これにより、状態に応じた表示が行われるという作用をもたらす。 Further, in this first aspect, a state machine that shifts to any of a plurality of states can be further provided. This has the effect of displaying according to the state.
また、この第1の側面において、前記複数の状態は、未検出状態および検出状態を含み、前記姿勢検出器は、撮像された画像データ内に前記利用者の所定の部位が存在するか否かをさらに判定し、前記ステートマシンは、前記画像データ内に前記部位が存在しない場合には前記未検出状態に移行し、前記画像データ内に前記部位が存在する場合には前記検出状態に移行し、前記制御部は、前記ステートマシンが前記未検出状態に移行した場合には前記期待姿勢を示す所定のオブジェクトを前記表示装置に表示させてもよい。これにより、画像データ内に所定の部位が存在する際に検出状態に移行するという作用をもたらす。 Further, in the first aspect, the plurality of states include an undetected state and a detected state, and the posture detector determines whether or not a predetermined portion of the user exists in the captured image data. Further, the state machine shifts to the undetected state when the part does not exist in the image data, and shifts to the detected state when the part exists in the image data. When the state machine shifts to the undetected state, the control unit may display a predetermined object indicating the expected posture on the display device. This has the effect of shifting to the detection state when a predetermined portion is present in the image data.
また、この第1の側面において、前記複数の状態は、操作状態をさらに含み、前記ステートマシンは、前記入力姿勢が前記期待姿勢に略一致する場合には前記操作状態に移行し、前記制御部は、前記ステートマシンが前記操作状態に移行した場合には前記オブジェクトを前記入力姿勢に追従して移動させてもよい。これにより、入力姿勢が期待姿勢に略一致する際に操作状態に移行するという作用をもたらす。 Further, in the first aspect, the plurality of states further include an operating state, and the state machine shifts to the operating state when the input posture substantially matches the expected posture, and the control unit May move the object following the input posture when the state machine shifts to the operating state. This has the effect of shifting to the operating state when the input posture substantially matches the expected posture.
また、この第1の側面において、前記複数の状態は、動作指示状態をさらに含み、前記ステートマシンは、前記オブジェクトが所定の位置に移動した場合には前記動作指示状態に移行し、前記制御部は、前記ステートマシンが前記動作指示状態に移行した場合には前記ジェスチャを前記表示装置に表示させてもよい。これにより、オブジェクトが所定の位置に移動した際に動作指示状態に移行するという作用をもたらす。 Further, in the first aspect, the plurality of states further include an operation instruction state, and the state machine shifts to the operation instruction state when the object moves to a predetermined position, and the control unit May display the gesture on the display device when the state machine shifts to the operation instruction state. This has the effect of shifting to the operation instruction state when the object moves to a predetermined position.
また、本技術の第2の側面は、撮像画像を生成する撮像装置と、表示装置と、利用者に期待する姿勢である期待姿勢が前記表示装置に表示された後に前記撮像画像を解析して前記利用者の姿勢を入力姿勢として検出する姿勢検出器と、前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部とを具備する情報処理システムである。これにより、表示装置への表示により、次のジェスチャを利用者に把握させるという作用をもたらす。 Further, the second aspect of the present technology is to analyze the captured image after the imaging device for generating the captured image, the display device, and the expected posture, which is the posture expected of the user, are displayed on the display device. A posture detector that detects the posture of the user as an input posture, and a control that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture. It is an information processing system equipped with a unit. As a result, the display on the display device has the effect of causing the user to grasp the next gesture.
以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(入力姿勢が期待姿勢の際にアニメーション表示させる例)
2.第2の実施の形態(入力姿勢が期待姿勢の際に、習熟度に応じてアニメーション表示させる例)
Hereinafter, embodiments for carrying out the present technology (hereinafter referred to as embodiments) will be described. The explanation will be given in the following order.
1. 1. First embodiment (example of displaying animation when the input posture is the expected posture)
2. Second embodiment (an example of displaying an animation according to the proficiency level when the input posture is the expected posture)
<1.第1の実施の形態>
[情報処理システムの構成例]
図1は、本技術の第1の実施の形態における情報処理システム100の一構成例を示す全体図である。この情報処理システム100は、非接触型のUIを提供するシステムであり、撮像装置110、情報処理装置120および表示装置130を備える。情報処理システム100内の装置のそれぞれは、例えば、ドライブスルー型の店舗に設置される自動精算機内に配置される。あるいは、情報処理システム100内の装置は、例えば、券売機や自動販売機の内部に配置される。
<1. First Embodiment>
[Information processing system configuration example]
FIG. 1 is an overall view showing a configuration example of the
撮像装置110は、画像を撮像して画像データを生成するものである。撮像装置110として、CMOS(Complementary MOS)イメージセンサやToF(Time of Flight)センサが用いられる。あるいは、ミリ波センサや、LIDAR(Light Detection and Ranging Laser Imaging Detection and Ranging)が撮像装置110として用いられる。情報処理システム100の利用者200が撮像装置110の前に立っている場合には、その利用者200の身体の少なくとも一部(手など)が撮像される。撮像装置110は、撮像した画像データを信号線119を介して情報処理装置120に供給する。
The
表示装置130は、情報処理装置120の制御に従って、UI画面を表示するものである。
The
情報処理装置120は、画像データに基づいてUI画面の表示内容を制御するものである。この情報処理装置120は、UI画面の表示内容を制御するための表示制御信号を生成し、信号線129を介して表示装置130に供給する。このように画像データに基づいて情報処理装置120がUI画面の表示内容を制御することにより、利用者は非接触で情報処理システム100を操作することができ、非接触型のUIが実現される。
The
なお、情報処理システム100内の装置のそれぞれは、同一の機器(自動精算機など)内に配置することもできるし、複数の機器に分散して配置することもできる。複数の機器に分散して配置する場合、例えば、撮像装置110および表示装置130が自動精算機などに配置され、情報処理装置120は、ネットワークを介して自動精算機等に接続されたサーバなどに配置される。
Each of the devices in the
[情報処理装置の構成例]
図2は、本技術の第1の実施の形態における情報処理装置120の一構成例を示すブロック図である。この情報処理装置120は、ステートマシン121、3次元姿勢検出器122、状態差分検出器123、操作ガイドオブジェクト生成器124およびフィードバック制御部125を備える。
[Configuration example of information processing device]
FIG. 2 is a block diagram showing a configuration example of the
ステートマシン121は、3次元姿勢検出器122や状態差分検出器123の検出結果に基づいて複数の状態のいずれかに移行するものである。ここで、ステートマシン121の状態は、例えば、未検出状態、検出状態、操作状態、動作指示状態および選択状態を含む。
The
未検出状態は、3次元姿勢検出器122により利用者の所定の部位(手など)が検出されていない状態に該当する。一方、検出状態は、3次元姿勢検出器122により利用者の所定の部位(手など)が検出された状態に該当する。また、操作状態は、撮像された利用者の姿勢と、その利用者に期待される期待姿勢とが略一致する状態に該当する。ここで、「略一致」は、姿勢の差分が所定の許容値以内であることを示す。動作指示状態は、利用者に期待されるジェスチャを表示装置130に表示させる状態に該当する。選択状態は、動作指示状態で表示されたジェスチャが実行された状態に該当する。それぞれの状態への移行条件については後述する。
The undetected state corresponds to a state in which a predetermined part (hand, etc.) of the user is not detected by the three-
また、ステートマシン121は、利用者に期待する姿勢である期待姿勢を示す情報を生成して状態差分検出器123に供給するとともに、現在の状態を示す状態情報を操作ガイドオブジェクト生成器124に供給する。ここで、期待姿勢を示す情報は、例えば、3次元の座標系における人体の関節のそれぞれの座標を含む。
Further, the
3次元姿勢検出器122は、撮像装置110からの画像データを用いて、利用者の3次元的な姿勢を入力姿勢として検出するものである。まず、3次元姿勢検出器122は、画像データに対して画像認識処理を行い、画像データ内に利用者の所定の部位(手など)が存在するか否かを検出する。そして、3次元姿勢検出器122は、手などの有無を示す検出結果をステートマシン121に供給する。
The three-
画像認識により手などを検出した場合、3次元姿勢検出器122は、次に利用者の3次元的な姿勢を入力姿勢として検出し、その入力姿勢を示す情報をステートマシン121、状態差分検出器123およびフィードバック制御部125に供給する。入力姿勢を示す情報は、例えば、3次元の座標系における人体の関節のそれぞれの座標を含む。なお、3次元姿勢検出器122は、特許請求の範囲に記載の姿勢検出器の一例である。
When a hand or the like is detected by image recognition, the three-
状態差分検出器123は、ステートマシン121からの期待姿勢と、3次元姿勢検出器122からの入力姿勢との差分を検出するものである。この状態差分検出器123は、差分を示す検出信号をステートマシン121に供給する。
The
操作ガイドオブジェクト生成器124は、ステートマシン121の状態に対応するガイドオブジェクトを生成するものである。この操作ガイドオブジェクト生成器124は、生成したガイドオブジェクトを示すオブジェクト情報をフィードバック制御部125に供給する。状態毎のガイドオブジェクトの例については、後述する。
The operation
フィードバック制御部125は、操作ガイドオブジェクト生成器124からのガイドオブジェクトを表示させるための表示制御信号を生成し、表示装置130に供給するものである。なお、フィードバック制御部125は、特許請求の範囲に記載の制御部の一例である。
The
上述の情報処理装置110において、フィードバック制御部125は、まず、期待姿勢を示すガイドオブジェクトを表示装置130に表示させる。その後に、3次元姿勢検出器122は、入力姿勢を検出する。そして、入力姿勢が期待姿勢と略一致する際にフィードバック制御部125は、利用者に期待する所定のジェスチャを表示装置130に表示させる。
In the above-mentioned
[情報処理システムの動作例]
図3は、本技術の第1の実施の形態における未検出状態のときの画像データおよびUI画面の一例を示す図である。同図におけるaは、未検出状態のときの画像データ500の一例を示す図であり、同図におけるbは、未検出状態のときのUI画面600の一例を示す図である。UI画面600には、例えば、メニューボタン610を含む複数のメニューボタンが配列される。メニューボタンのそれぞれには、所定の注文が割り当てられ、その注文の内容が記載される。
[Example of operation of information processing system]
FIG. 3 is a diagram showing an example of image data and a UI screen in the undetected state in the first embodiment of the present technology. In the figure, a is a diagram showing an example of the
同図におけるaに例示するように、撮像された画像データ500内に、利用者の所定の部位(手など)が写っていないものとする。この場合に、3次元姿勢検出器122は、手の検出失敗をステートマシン121に通知し、ステートマシン121は、未検出状態に移行する。
As illustrated in a in the figure, it is assumed that a predetermined part (hand, etc.) of the user is not shown in the captured
また、同図におけるbに例示するように、操作ガイドオブジェクト生成器124は、未検出状態において期待姿勢を示す半透明の3次元のオブジェクトをガイドオブジェクト620として生成する。このガイドオブジェクト620は、例えば、UI画面600内のメニューボタン610の無い箇所(右下など)に合成される。また、例えば、期待姿勢として、手の人差し指を立て、それ以外の指を曲げた姿勢が用いられる。また、このときのガイドオブジェクト620の表示色をC1とする。
Further, as illustrated in b in the figure, the operation
図4は、本技術の第1の実施の形態における検出状態のときの画像データおよびUI画面の一例を示す図である。同図におけるaは、検出状態のときの画像データ501の一例を示す図であり、同図におけるbは、検出状態のときのUI画面601の一例を示す図である。
FIG. 4 is a diagram showing an example of image data and a UI screen in the detection state according to the first embodiment of the present technology. In the figure, a is a diagram showing an example of
同図におけるaに例示するように、撮像された画像データ501内に、利用者の所定の部位(手510など)が写ったものとする。ただし、手510の姿勢(すなわち、入力姿勢)は、全ての指を伸ばしたものであり、ガイドオブジェクト620の示す期待姿勢に略一致しないものとする。この場合に、3次元姿勢検出器122は、手の検出成功をステートマシン121に通知し、ステートマシン121は、未検出状態から検出状態に移行する。
As illustrated in a in the figure, it is assumed that a predetermined part (
また、同図におけるbに例示するように、フィードバック制御部125は、検出状態に移行した際にガイドオブジェクト620の表示色をC1からC2に変更する。この制御により、ステートマシン121が検出状態に移行したことが利用者にフィードバックされる。
Further, as illustrated in b in the figure, the
図5は、本技術の第1の実施の形態における操作状態で手の移動前の画像データおよびUI画面の一例を示す図である。同図におけるaは、操作状態で手の移動前の画像データ502の一例を示す図であり、同図におけるbは、操作状態で手の移動前のUI画面602の一例を示す図である。
FIG. 5 is a diagram showing an example of image data and a UI screen before the movement of the hand in the operating state according to the first embodiment of the present technology. In the figure, a is a diagram showing an example of
同図におけるaに例示するように、撮像された画像データ502内に利用者の所定の部位(手510など)が写り、その姿勢が、ガイドオブジェクト620の示す期待姿勢に略一致したものとする。この場合に、状態差分検出器123は、許容値以内の差分をステートマシン121に通知し、ステートマシン121は、検出状態から操作状態に移行する。
As illustrated in a in the figure, it is assumed that a predetermined part (
また、同図におけるbに例示するように、フィードバック制御部125は、操作状態に移行した際にガイドオブジェクト620の表示色をC2からC3に変更する。この制御により、ステートマシン121が操作状態に移行したことが利用者にフィードバックされる。
Further, as illustrated in b in the figure, the
図4および図5に例示したように、状態の遷移の際にフィードバック制御部125が表示色を変更することにより、利用者は、現在の状態を正確に把握することができる。これにより、誤操作を防止することができる。
As illustrated in FIGS. 4 and 5, the
図6は、本技術の第1の実施の形態における操作状態で手の移動後の画像データおよびUI画面の一例を示す図である。同図におけるaは、操作状態で手の移動後の画像データ503の一例を示す図であり、同図におけるbは、操作状態で手の移動後のUI画面603の一例を示す図である。
FIG. 6 is a diagram showing an example of image data and a UI screen after the movement of the hand in the operating state according to the first embodiment of the present technology. In the figure, a is a diagram showing an example of
同図におけるaに例示するように、操作状態において新たに撮像された画像データ503内の手510の位置が、その前の画像データ502内の位置と異なるものとする。同図におけるaの点線は、移動前の手510を示し、矢印は、移動方向および移動距離を示す。
As illustrated in a in the figure, it is assumed that the position of the
この場合に、3次元姿勢検出器122は、手510の移動後の位置をフィードバック制御部125に供給し、フィードバック制御部125は、同図におけるbに例示するように手510の移動に追従してガイドオブジェクト620を移動させる。同図におけるbの点線は、移動前のガイドオブジェクト620を示し、矢印は、移動方向および移動距離を示す。
In this case, the three-
図7は、本技術の第1の実施の形態における動作指示状態のときの画像データおよびUI画面の一例を示す図である。同図におけるaは、動作指示状態のときの画像データ504の一例を示す図であり、同図におけるbは、動作指示状態のときのUI画面604の一例を示す図である。
FIG. 7 is a diagram showing an example of image data and a UI screen in the operation instruction state in the first embodiment of the present technology. In the figure, a is a diagram showing an example of
同図におけるaに例示するように利用者が手510を期待姿勢にし、メニューボタン610に対応する位置まで移動させたものとする。
As illustrated in a in the figure, it is assumed that the user puts the
その場合、同図におけるbに例示するようにフィードバック制御部125は、手510の移動に追従してガイドオブジェクト620をメニューボタン610まで移動させる。このとき、移動後のガイドオブジェクト620の人差し指の少なくとも一部が、一定時間以上に亘ってメニューボタン610と重なったものとする。その際に、3次元姿勢検出器122は、人差し指の座標を含む入力姿勢の情報をステートマシン121に供給し、ステートマシン121は、操作状態から動作指示状態に移行する。
In that case, as illustrated in b in the figure, the
動作指示状態において、フィードバック制御部125は、ガイドオブジェクト620のアニメーション表示により、利用者に期待する所定のジェスチャをUI画面604に表示させる。ここで、「アニメーション表示」は、時間の経過に伴ってガイドオブジェクト620の形状が変化することを意味する。フィードバック制御部125は、例えば、人差し指以外の指を曲げたまま、その人差し指を上下させる内容のジェスチャを表示させる。このジェスチャは、ガイドオブジェクト620の人差し指が一定の周期で繰り返し上下する動作のアニメーションにより指示される。また、このジェスチャ(すなわち、アニメーション表示)は、メニューボタンを利用者が選択するための選択動作を示す。この制御により、次にどのようなジェスチャ(選択動作)を行えばよいかが利用者にフィードバックされる。
In the operation instruction state, the
このフィードバックにより、利用者に正しい動作を促し、誤操作を防止することができる。誤操作の防止により、操作のやり直しが少なくなり、情報処理システム100の利便性が向上する。
This feedback can encourage the user to perform correct operations and prevent erroneous operations. By preventing erroneous operations, the number of redoing operations is reduced, and the convenience of the
また、動作指示状態において、ステートマシン121は、選択動作を構成する複数の期待姿勢(例えば、人差し指を上げた姿勢と、人差し指を下げた姿勢)を状態差分検出器123に供給する。状態差分検出器123は、それらの期待姿勢と、入力姿勢との差分を検出してステートマシン121に返す。ステートマシン121は、それらの差分により、選択動作が行われたか否かを判断することができる。
Further, in the operation instruction state, the
なお、フィードバック制御部125は、ガイドオブジェクト620の人差し指が一定の周期で繰り返し上下する動作(言い換えれば、何かを押す動作)をアニメーション表示させているが、これ以外の動作をアニメーション表示させることもできる。例えば、フィードバック制御部125は、払う動作、握る動作や摘まむ動作などをアニメーション表示させることもできる。
The
また、フィードバック制御部125は、ガイドオブジェクトの表示色の変更と、アニメーション表示とによりフィードバックを行っているが、この構成に限定されない。フィードバック制御部125は、表示色の変更の代わりに、現在の状態を示すテキストを表示させることもできる。また、スピーカをさらに設け、フィードバック制御部125が、表示色の変更の代わりに、現在の状態を音声出力させることもできる。また、フィードバック制御部125は、アニメーション表示の代わりに、次のジェスチャを説明するテキストを表示させることもできる。また、スピーカをさらに設け、フィードバック制御部125が、アニメーション表示の代わりに、次のジェスチャの説明を音声出力させることもできる。さらに、表示色の変更やアニメーション表示と、テキスト表示や音声出力とを組み合わせることもできる。
Further, the
図8は、本技術の第1の実施の形態における選択状態のときの画像データおよびUI画面の一例を示す図である。同図におけるaは、選択状態のときの画像データ505の一例を示す図であり、同図におけるbは、選択状態のときのUI画面605の一例を示す図である。
FIG. 8 is a diagram showing an example of image data and a UI screen in the selected state in the first embodiment of the present technology. In the figure, a is a diagram showing an example of
同図におけるaに例示するように利用者が選択動作を行ったものとする。この選択動作に応じて、ステートマシン121は、選択状態に移行する。そして、同図におけるbに例示するように、選択状態に移行した際にフィードバック制御部125は、選択されたメニューボタン610の色を変更し、そのメニューボタン610に対応する注文を受け付けた旨のメッセージ630を表示させる。そして、情報処理システム100は、注文に係る料金の精算処理を行う。
It is assumed that the user performs the selection operation as illustrated in a in the figure. In response to this selection operation, the
図9は、本技術の第1の実施の形態における検出状態に戻ったときの画像データおよびUI画面の一例を示す図である。同図におけるaは、検出状態に戻ったときの画像データ506の一例を示す図であり、同図におけるbは、検出状態に戻ったときのUI画面606の一例を示す図である。
FIG. 9 is a diagram showing an example of image data and a UI screen when the detection state is returned to in the first embodiment of the present technology. In the figure, a is a diagram showing an example of
選択状態において、同図におけるaに例示するように、手510の姿勢がガイドオブジェクト620と不一致になったものとする。この場合に、ステートマシン121は、選択状態から検出状態に移行する。
In the selected state, as illustrated in a in the figure, it is assumed that the posture of the
また、同図におけるbに例示するように、フィードバック制御部125は、検出状態に移行した際に、ガイドオブジェクト620の表示色をC3からC2に戻す。なお、選択状態において、3次元姿勢検出器122が手の検出に失敗した場合、ステートマシン121は、選択状態から未検出状態に移行する。
Further, as illustrated in b in the figure, the
図10は、本技術の第1の実施の形態におけるステートマシン121の状態遷移図の一例である。ステートマシン121の状態は、未検出状態310、検出状態320、操作状態330、動作指示状態340および選択状態350を含む。初期状態は、例えば、未検出状態310に設定される。
FIG. 10 is an example of a state transition diagram of the
未検出状態310において、3次元姿勢検出器122が手の検出に失敗した場合、ステートマシン121は、未検出状態310のままである。一方、3次元姿勢検出器122が手の検出に成功した場合、ステートマシン121は、検出状態320に移行する。
If the three-
検出状態320において、入力姿勢が期待姿勢と不一致である場合、ステートマシン121は、検出状態320のままである。一方、入力姿勢が期待姿勢と略一致する場合、ステートマシン121は、操作状態330に移行する。
In the
操作状態330において、ガイドオブジェクトが所定位置(メニューボタン610の位置など)に無い場合、ステートマシン121は、操作状態330のままである。一方、ガイドオブジェクトが一定時間以上に亘って所定位置に存在する場合、ステートマシン121は、動作指示状態340に移行する。
In the
動作指示状態340において選択動作が行われると、ステートマシン121は、選択状態350に移行する。選択状態350において3次元姿勢検出器122が手の検出に失敗した場合、ステートマシン121は、未検出状態310に移行する。また、検出状態320、操作状態330および動作指示状態340において、3次元姿勢検出器122が手の検出に失敗した場合にも、ステートマシン121は、未検出状態310に移行する。なお、同図において、検出状態320、操作状態330および動作指示状態340から未検出状態310への移行を示す矢印と移行条件とは、記載の便宜上、省略されている。
When the selection operation is performed in the
また、操作状態330、動作指示状態340および選択状態350において、入力姿勢が期待姿勢と不一致である場合、ステートマシン121は、検出状態320に移行する。なお、同図において、操作状態330、動作指示状態340および選択状態350から検出状態320への移行を示す矢印と移行条件とは、記載の便宜上、省略されている。
Further, when the input posture does not match the expected posture in the
図11は、本技術の第1の実施の形態における情報処理システム100の動作の一例を示すフローチャートである。この動作は、例えば、ジェスチャ入力を行うための所定のアプリケーションが実行されたときに開始される。
FIG. 11 is a flowchart showing an example of the operation of the
撮像装置110は、画像データを撮影する(ステップS911)。また、情報処理装置120は、画像データに対する画像認識により入力姿勢を取得し(ステップS912)、その入力姿勢と期待姿勢との差分を検出する(ステップS913)。情報処理装置120は、検出結果に基づいて、現在の状態を判別する(ステップS914)。
The
そして、情報処理装置120は、未検出状態に移行したか否かを判断する(ステップS915)。未検出状態に移行した場合(ステップS915:Yes)、情報処理装置120は、未検出状態を通知するための表示色C1のガイドオブジェクトを生成する(ステップS916)。
Then, the
未検出状態に移行していない場合(ステップS915:No)、情報処理装置120は、検出状態に移行したか否かを判断する(ステップS917)。検出状態に移行した場合(ステップS917:Yes)、情報処理装置120は、検出状態を通知するための表示色C2のガイドオブジェクトを生成する(ステップS918)。
When the state has not shifted to the undetected state (step S915: No), the
検出状態に移行していない場合(ステップS917:No)、情報処理装置120は、操作状態に移行したか否かを判断する(ステップS919)。操作状態に移行した場合(ステップS919:Yes)、情報処理装置120は、操作状態を通知するための表示色C3のガイドオブジェクトを生成する(ステップS920)。
When the state has not shifted to the detection state (step S917: No), the
なお、検出状態や操作状態への移行時に情報処理装置120は、ガイドオブジェクトの表示色を変更しているが、この構成に限定されない。検出状態や操作状態への移行時に情報処理装置120は、ガイドオブジェクトの透過率を変更することもできる。あるいは、検出状態や操作状態への移行時に情報処理装置120は、ガイドオブジェクトの形状を、人、ロボットやキャラクターのものなどに変更することもできる。
The
操作状態に移行していない場合(ステップS919:No)、情報処理装置120は、動作指示状態に移行したか否かを判断する(ステップS921)。動作指示状態に移行した場合(ステップS921:Yes)、情報処理装置120は、ガイドオブジェクトをアニメーション表示させるための表示制御信号を生成する(ステップS922)。動作指示状態に移行していない場合(ステップS921:No)、情報処理装置120は、選択動作に応じて表示装置130を制御し、状態を利用者にフィードバックする(ステップS923)。
When the state has not shifted to the operation state (step S919: No), the
また、ステップS916、S918、S920またはS922の後に情報処理装置120は、表示装置130を制御して状態を利用者にフィードバックする(ステップS923)。ステップS923の後に情報処理装置120は、ステップS911以降を繰り返し実行する。
Further, after steps S916, S918, S920 or S922, the
このように、本技術の第1の実施の形態によれば、入力姿勢が期待姿勢に略一致する際に、利用者に期待するジェスチャを情報処理装置120が表示装置130に表示させるため、次に行うべき動作を利用者に把握させることができる。これにより、誤操作を抑制し、情報処理システム100の利便性を向上させることができる。
As described above, according to the first embodiment of the present technology, when the input posture substantially matches the expected posture, the
<2.第2の実施の形態>
上述の第1の実施の形態では、入力姿勢が前記期待姿勢に略一致する際に情報処理装置120は、表示装置130にガイドオブジェクトをアニメーション表示させていたが、アニメーション表示しない場合と比較して、表示処理に要する遅延時間が長くなるおそれがある。この第2の実施の形態の情報処理装置120は、利用者の習熟度に基づいて、必要な場合にアニメーション表示させる点において第1の実施の形態と異なる。
<2. Second Embodiment>
In the first embodiment described above, when the input posture substantially matches the expected posture, the
図12は、本技術の第2の実施の形態における情報処理システム100の動作の一例を示すフローチャートである。この第2の実施の形態の情報処理システム100の動作は、ステップS922の代わりにステップS930が実行される点において第1の実施の形態と異なる。
FIG. 12 is a flowchart showing an example of the operation of the
動作指示状態に移行した場合(ステップS921:Yes)、情報処理装置120は、アニメーション表示させるか否かを判定するためのアニメーション表示判定処理を実行する(ステップS930)。ステップS930の後に情報処理装置120は、ステップS923を実行する。
When the state shifts to the operation instruction state (step S921: Yes), the
図13は、本技術の第1の実施の形態におけるアニメーション表示判定処理の一例を示すフローチャートである。情報処理装置120内のフィードバック制御部125は、入力姿勢における利用者の関節座標の時系列上の変化を示す時系列データを生成する(ステップS931)。そして、フィードバック制御部125は、時系列データを周波数解析して、周波数が所定値以上の高周波数成分を抽出する(ステップS932)。
FIG. 13 is a flowchart showing an example of the animation display determination process according to the first embodiment of the present technology. The
フィードバック制御部125は、高周波数成分に基づいて、利用者の習熟度が所定の閾値より高いか否かを判定する(ステップS933)。例えば、高周波数成分のレベルが所定レベルより高い場合には、習熟度が閾値以下と判定され、高周波数成分のレベルが所定レべル以下の場合には、習熟度が閾値より高いと判定される。
The
習熟度が閾値以下の場合(ステップS933:No)、フィードバック制御部125は、アニメーション表示フラグをオンにする(ステップS934)。一方、習熟度が閾値より高い場合(ステップS933:Yes)、フィードバック制御部125は、アニメーション表示フラグをオフにする(ステップS935)。アニメーション表示フラグは、後段のステップS923でアニメーション表示させるか否かを示すフラグである。アニメーション表示フラグがオンの場合に、ステップS923において、ガイドオブジェクトがアニメーション表示される。
When the proficiency level is equal to or less than the threshold value (step S933: No), the
ステップS934またはS935の後に、フィードバック制御部125は、アニメーション表示判定処理を終了する。
After step S934 or S935, the
このように、本技術の第2の実施の形態によれば、利用者の習熟度が高い場合に情報処理装置120がガイドオブジェクトをアニメーション表示させないため、不要な処理を削減して遅延時間を短くすることができる。
As described above, according to the second embodiment of the present technology, the
なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。 It should be noted that the above-described embodiment shows an example for embodying the present technology, and the matters in the embodiment and the matters specifying the invention in the claims have a corresponding relationship with each other. Similarly, the matters specifying the invention within the scope of claims and the matters in the embodiment of the present technology having the same name have a corresponding relationship with each other. However, the present technology is not limited to the embodiment, and can be embodied by applying various modifications to the embodiment without departing from the gist thereof.
また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disc)、メモリカード、ブルーレイディスク(Blu-ray(登録商標)Disc)等を用いることができる。 Further, the processing procedure described in the above-described embodiment may be regarded as a method having these series of procedures, or as a program for causing a computer to execute these series of procedures or as a recording medium for storing the program. You may catch it. As this recording medium, for example, a CD (Compact Disc), MD (MiniDisc), DVD (Digital Versatile Disc), memory card, Blu-ray disc (Blu-ray (registered trademark) Disc) and the like can be used.
なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
なお、本技術は以下のような構成もとることができる。
(1)利用者に期待する姿勢である期待姿勢が表示装置に表示された後に前記利用者の姿勢を入力姿勢として検出する姿勢検出器と、
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部と
を具備する情報処理装置。
(2)前記ジェスチャを表示させる制御は、所定のオブジェクトを前記表示装置にアニメーション表示させる制御である
前記(1)記載の情報処理装置。
(3)前記制御部は、前記利用者の習熟度が所定の閾値より高いか否かを判定して前記習熟度が前記閾値より高い場合には前記オブジェクトをアニメーション表示させる
前記(2)記載の情報処理装置。
(4)前記制御部は、時間の経過に伴う前記利用者の関節の変化を示す時系列データを解析して当該解析結果に基づいて前記習熟度が前記閾値より高いか否かを判定する
前記(3)記載の情報処理装置。
(5)複数の状態のいずれかに移行するステートマシンをさらに具備する
前記(1)から(4)のいずれかに記載の情報処理装置。
(6)前記複数の状態は、未検出状態および検出状態を含み、
前記姿勢検出器は、撮像された画像データ内に前記利用者の所定の部位が存在するか否かをさらに判定し、
前記ステートマシンは、前記画像データ内に前記部位が存在しない場合には前記未検出状態に移行し、前記画像データ内に前記部位が存在する場合には前記検出状態に移行し、
前記制御部は、前記ステートマシンが前記未検出状態に移行した場合には前記期待姿勢を示す所定のオブジェクトを前記表示装置に表示させる
前記(5)記載の情報処理装置。
(7)前記複数の状態は、操作状態をさらに含み、
前記ステートマシンは、前記入力姿勢が前記期待姿勢に略一致する場合には前記操作状態に移行し、
前記制御部は、前記ステートマシンが前記操作状態に移行した場合には前記オブジェクトを前記入力姿勢に追従して移動させる
前記(6)記載の情報処理装置。
(8)前記複数の状態は、動作指示状態をさらに含み、
前記ステートマシンは、前記オブジェクトが所定の位置に移動した場合には前記動作指示状態に移行し、
前記制御部は、前記ステートマシンが前記動作指示状態に移行した場合には前記ジェスチャを前記表示装置に表示させる
前記(7)記載の情報処理装置。
(9)撮像画像を生成する撮像装置と、
表示装置と、
利用者に期待する姿勢である期待姿勢が前記表示装置に表示された後に前記撮像画像を解析して前記利用者の姿勢を入力姿勢として検出する姿勢検出器と、
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部と
を具備する情報処理システム。
(10)利用者に期待する姿勢である期待姿勢が表示装置に表示された後に前記利用者の姿勢を入力姿勢として検出する姿勢検出手順と、
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御手順と
を具備する情報処理方法。
(11)利用者に期待する姿勢である期待姿勢が表示装置に表示された後に前記利用者の姿勢を入力姿勢として検出する姿勢検出手順と、
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御手順と
をコンピュータに実行させるためのプログラム。
The present technology can have the following configurations.
(1) A posture detector that detects the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
An information processing device including a control unit that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
(2) The information processing device according to (1) above, wherein the control for displaying the gesture is a control for displaying a predetermined object in animation on the display device.
(3) The control unit determines whether or not the proficiency level of the user is higher than a predetermined threshold value, and if the proficiency level is higher than the threshold value, animates the object. Information processing device.
(4) The control unit analyzes time-series data indicating changes in the joints of the user with the passage of time, and determines whether or not the proficiency level is higher than the threshold value based on the analysis result. (3) The information processing apparatus described.
(5) The information processing apparatus according to any one of (1) to (4) above, further comprising a state machine that shifts to any of a plurality of states.
(6) The plurality of states include an undetected state and a detected state.
The posture detector further determines whether or not a predetermined portion of the user is present in the captured image data, and further determines.
The state machine shifts to the undetected state when the part does not exist in the image data, and shifts to the detected state when the part exists in the image data.
The information processing device according to (5) above, wherein the control unit displays a predetermined object indicating the expected posture on the display device when the state machine shifts to the undetected state.
(7) The plurality of states further include an operating state.
When the input posture substantially matches the expected posture, the state machine shifts to the operating state.
The information processing device according to (6), wherein the control unit moves the object according to the input posture when the state machine shifts to the operating state.
(8) The plurality of states further include an operation instruction state.
When the object moves to a predetermined position, the state machine shifts to the operation instruction state, and the state machine shifts to the operation instruction state.
The information processing device according to (7) above, wherein the control unit displays the gesture on the display device when the state machine shifts to the operation instruction state.
(9) An imaging device that generates an captured image and
Display device and
A posture detector that analyzes the captured image and detects the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
An information processing system including a control unit that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
(10) A posture detection procedure for detecting the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
An information processing method including a control procedure for controlling the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
(11) A posture detection procedure for detecting the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
A program for causing a computer to execute a control procedure for controlling the display device to display a predetermined gesture expected from the user when the input posture substantially matches the expected posture.
110 撮像装置
120 情報処理装置
121 ステートマシン
122 3次元姿勢検出器
123 状態差分検出器
124 操作ガイドオブジェクト生成器
125 フィードバック制御部
130 表示装置
110
Claims (11)
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部と
を具備する情報処理装置。 A posture detector that detects the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
An information processing device including a control unit that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
請求項1記載の情報処理装置。 The information processing device according to claim 1, wherein the control for displaying the gesture is a control for displaying a predetermined object as an animation on the display device.
請求項2記載の情報処理装置。 The information processing device according to claim 2, wherein the control unit determines whether or not the proficiency level of the user is higher than a predetermined threshold value, and if the proficiency level is higher than the threshold value, animates the object.
請求項3記載の情報処理装置。 The third aspect of claim 3, wherein the control unit analyzes time-series data indicating changes in the joints of the user with the passage of time, and determines whether or not the proficiency level is higher than the threshold value based on the analysis result. Information processing device.
請求項1記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a state machine that shifts to any of a plurality of states.
前記姿勢検出器は、撮像された画像データ内に前記利用者の所定の部位が存在するか否かをさらに判定し、
前記ステートマシンは、前記画像データ内に前記部位が存在しない場合には前記未検出状態に移行し、前記画像データ内に前記部位が存在する場合には前記検出状態に移行し、
前記制御部は、前記ステートマシンが前記未検出状態に移行した場合には前記期待姿勢を示す所定のオブジェクトを前記表示装置に表示させる
請求項5記載の情報処理装置。 The plurality of states include an undetected state and a detected state.
The posture detector further determines whether or not a predetermined portion of the user is present in the captured image data, and further determines.
The state machine shifts to the undetected state when the part does not exist in the image data, and shifts to the detected state when the part exists in the image data.
The information processing device according to claim 5, wherein the control unit displays a predetermined object indicating the expected posture on the display device when the state machine shifts to the undetected state.
前記ステートマシンは、前記入力姿勢が前記期待姿勢に略一致する場合には前記操作状態に移行し、
前記制御部は、前記ステートマシンが前記操作状態に移行した場合には前記オブジェクトを前記入力姿勢に追従して移動させる
請求項6記載の情報処理装置。 The plurality of states further include an operating state.
When the input posture substantially matches the expected posture, the state machine shifts to the operating state.
The information processing device according to claim 6, wherein the control unit moves the object according to the input posture when the state machine shifts to the operating state.
前記ステートマシンは、前記オブジェクトが所定の位置に移動した場合には前記動作指示状態に移行し、
前記制御部は、前記ステートマシンが前記動作指示状態に移行した場合には前記ジェスチャを前記表示装置に表示させる
請求項7記載の情報処理装置。 The plurality of states further include an operation instruction state.
When the object moves to a predetermined position, the state machine shifts to the operation instruction state, and the state machine shifts to the operation instruction state.
The information processing device according to claim 7, wherein the control unit displays the gesture on the display device when the state machine shifts to the operation instruction state.
表示装置と、
利用者に期待する姿勢である期待姿勢が前記表示装置に表示された後に前記撮像画像を解析して前記利用者の姿勢を入力姿勢として検出する姿勢検出器と、
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御部と
を具備する情報処理システム。 An imaging device that generates captured images and
Display device and
A posture detector that analyzes the captured image and detects the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device.
An information processing system including a control unit that controls the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御手順と
を具備する情報処理方法。 A posture detection procedure for detecting the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device, and
An information processing method including a control procedure for controlling the display device to display a predetermined gesture expected of the user when the input posture substantially matches the expected posture.
前記入力姿勢が前記期待姿勢に略一致する場合には前記利用者に期待する所定のジェスチャを前記表示装置に表示させる制御を行う制御手順と
をコンピュータに実行させるためのプログラム。 A posture detection procedure for detecting the user's posture as an input posture after the expected posture, which is the posture expected of the user, is displayed on the display device, and
A program for causing a computer to execute a control procedure for controlling the display device to display a predetermined gesture expected from the user when the input posture substantially matches the expected posture.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020061732A JP2021162969A (en) | 2020-03-31 | 2020-03-31 | Information processing apparatus, information processing system, information processing method and program |
PCT/JP2021/004973 WO2021199697A1 (en) | 2020-03-31 | 2021-02-10 | Information processing device, information processing system, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020061732A JP2021162969A (en) | 2020-03-31 | 2020-03-31 | Information processing apparatus, information processing system, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021162969A true JP2021162969A (en) | 2021-10-11 |
Family
ID=77928073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020061732A Pending JP2021162969A (en) | 2020-03-31 | 2020-03-31 | Information processing apparatus, information processing system, information processing method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021162969A (en) |
WO (1) | WO2021199697A1 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3588527B2 (en) * | 1997-01-22 | 2004-11-10 | 株式会社東芝 | User interface device and instruction input method |
JP2001216069A (en) * | 2000-02-01 | 2001-08-10 | Toshiba Corp | Operation inputting device and direction detecting method |
US20130033644A1 (en) * | 2011-08-05 | 2013-02-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and method for controlling thereof |
JP2015041317A (en) * | 2013-08-23 | 2015-03-02 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method for building model for estimating level of skill of user for operating electronic devices, method for estimating level of skill of user, method for supporting the user according to the level of skill of the user, and computers and computer programs therefor |
-
2020
- 2020-03-31 JP JP2020061732A patent/JP2021162969A/en active Pending
-
2021
- 2021-02-10 WO PCT/JP2021/004973 patent/WO2021199697A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2021199697A1 (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11385720B2 (en) | Picture selection method of projection touch | |
US11853108B2 (en) | Electronic apparatus for searching related image and control method therefor | |
EP2908220A1 (en) | Gesture recognition device and method of controlling gesture recognition device | |
US9330304B2 (en) | Information processing apparatus and method for controlling the same | |
US9619104B2 (en) | Interactive input system having a 3D input space | |
JP7279750B2 (en) | Image processing device, image processing method, and program | |
JP6131540B2 (en) | Tablet terminal, operation reception method and operation reception program | |
US10719121B2 (en) | Information processing apparatus and information processing method | |
US20160004373A1 (en) | Method for providing auxiliary information and touch control display apparatus using the same | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US10572772B2 (en) | Object detection device, object detection method, and recording medium, and recording medium | |
WO2010049785A1 (en) | Interaction using touch and non-touch gestures | |
JP6349800B2 (en) | Gesture recognition device and method for controlling gesture recognition device | |
US10402080B2 (en) | Information processing apparatus recognizing instruction by touch input, control method thereof, and storage medium | |
US11709593B2 (en) | Electronic apparatus for providing a virtual keyboard and controlling method thereof | |
JP2007034525A (en) | Information processor, information processing method and computer program | |
CN115129412A (en) | Method and device for providing prototype of graphical user interface | |
WO2021199697A1 (en) | Information processing device, information processing system, information processing method, and program | |
US20160306528A1 (en) | Display apparatus capable of accepting operation for partially selecting display content, and display method | |
CN104238915A (en) | Touch method, touch device and touch terminal | |
JP2017157046A (en) | Information processor, information processing program and information processing method | |
KR20240003467A (en) | Video content providing system based on motion recognition | |
JP2018041309A (en) | Information processing apparatus, information processing method, and program | |
JP2022134370A (en) | Display device, display method, and program | |
CN103777885A (en) | Distinguishing between impulses and continuous drag operations on a touch-sensitive surface |