JP2020177363A - Estimation system and estimation device - Google Patents

Estimation system and estimation device Download PDF

Info

Publication number
JP2020177363A
JP2020177363A JP2019078124A JP2019078124A JP2020177363A JP 2020177363 A JP2020177363 A JP 2020177363A JP 2019078124 A JP2019078124 A JP 2019078124A JP 2019078124 A JP2019078124 A JP 2019078124A JP 2020177363 A JP2020177363 A JP 2020177363A
Authority
JP
Japan
Prior art keywords
information
target information
estimation
evaluation
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019078124A
Other languages
Japanese (ja)
Other versions
JP6614545B1 (en
Inventor
継 河合
Kei Kawai
継 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crystal Method Co Ltd
Original Assignee
Crystal Method Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crystal Method Co Ltd filed Critical Crystal Method Co Ltd
Priority to JP2019078124A priority Critical patent/JP6614545B1/en
Application granted granted Critical
Publication of JP6614545B1 publication Critical patent/JP6614545B1/en
Publication of JP2020177363A publication Critical patent/JP2020177363A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an estimation system and an estimation device capable of improving the accuracy of estimating a key input.SOLUTION: An estimation system for estimating a character string inputted by using a virtual keyboard includes: acquisition means for acquiring object information including angle information on the angle of a user's finger on the basis of photographic information obtained by photographing movement of depressing the virtual keyboard by the user; a reference database storing the degree of relation of three stages or more between previously acquired past object information and reference information including character strings inputted by the past object information; evaluation means for acquiring evaluation information including a first degree of relation of three stages or more between the object information and the reference information with reference to the reference database; and generation means for generating an estimation result on the basis of the evaluation information.SELECTED DRAWING: Figure 1

Description

本発明は、仮想キーボードを用いて入力された文字列を推定する推定システム、及び推定装置に関する。 The present invention relates to an estimation system and an estimation device that estimate a character string input using a virtual keyboard.

従来、物理的なキーボードを用いずに、キー入力を制御する技術として、例えば特許文献1の情報処理装置等が提案されている。 Conventionally, as a technique for controlling key input without using a physical keyboard, for example, an information processing device of Patent Document 1 has been proposed.

特許文献1では、手を撮影する撮影部により入力される画像から手領域を抽出する抽出部と、手領域に基づき、画像内の所定線を押下基準線に決定する基準線決定部と、手領域の最下部が押下基準線を超える場合に押下と判定する判定部と、判定部により押下と判定された場合の手領域の縦横比に基づき、奥行き方向の位置を決定する第1位置決定部と、判定部により押下と判定された場合の手領域の最下部の位置に基づき、横方向の位置を決定する第2位置決定部と、決定された奥行き方向の位置及び横方向の位置により入力キーを決定する入力キー決定部と、を備える情報処理装置が開示されている。 In Patent Document 1, a hand region is extracted from an image input by a photographing unit that captures a hand, a reference line determining unit that determines a predetermined line in the image as a pressing reference line based on the hand region, and a hand. A determination unit that determines that the hand is pressed when the bottom of the area exceeds the pressing reference line, and a first position determination unit that determines the position in the depth direction based on the aspect ratio of the hand area when the determination unit determines that the hand is pressed. Based on the position of the lowermost part of the hand area when it is determined by the determination unit to be pressed, the second position determination unit that determines the lateral position, and the determined depth and lateral positions are used for input. An information processing apparatus including an input key determination unit for determining a key is disclosed.

国際公開第2012/176315号International Publication No. 2012/176315

ここで、例えば特許文献1のような情報処理装置では、1台のカメラによる1方向からの撮影画像に基づき、閾値によって入力コマンドが推定される。このため、閾値に応じたキー入力を行う必要があり、押下深度のバラつきを考慮できない懸念があり、キー入力の推定精度を向上させることが難しい。従って、キー入力を推定する精度の向上が課題として挙げられる。 Here, for example, in an information processing device such as Patent Document 1, an input command is estimated by a threshold value based on an image taken from one direction by one camera. Therefore, it is necessary to perform key input according to the threshold value, and there is a concern that variation in pressing depth cannot be taken into consideration, and it is difficult to improve the estimation accuracy of key input. Therefore, improving the accuracy of estimating key input is an issue.

そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、キー入力を推定する精度の向上を図ることができる推定システム、及び推定装置を提供することにある。 Therefore, the present invention has been devised in view of the above-mentioned problems, and an object of the present invention is to provide an estimation system and an estimation device capable of improving the accuracy of estimating key input. It is in.

仮想キーボードを用いて入力された文字列を推定する推定システムであって、ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得手段と、予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段と、前記評価情報に基づき推定結果を生成する生成手段と、を備えることを特徴とする。 It is an estimation system that estimates a character string input using a virtual keyboard, and based on shooting information obtained by photographing the action of a user pressing the virtual keyboard, target information including angle information regarding the angle of the user's finger is obtained. A reference database in which three or more levels of association between the acquisition means to be acquired, the past target information acquired in advance, and the reference information including the character string input by the past target information is stored, and the above. An evaluation means that refers to a reference database and acquires evaluation information including a first degree of association between the target information and the reference information in three or more stages, and a generation means that generates an estimation result based on the evaluation information. It is characterized by having.

第2発明に係る推定システムは、第1発明において、前記取得手段は、前記撮影情報を取得する撮影情報取得手段と、前記撮影情報から前記ユーザの指の座標データを取得する座標データ取得手段と、前記座標データから前記角度情報を取得する角度情報取得手段と、を有することを特徴とする。 In the estimation system according to the second invention, in the first invention, the acquisition means includes a shooting information acquisition means for acquiring the shooting information and a coordinate data acquisition means for acquiring the coordinate data of the user's finger from the shooting information. It is characterized by having an angle information acquisition means for acquiring the angle information from the coordinate data.

第3発明に係る推定システムは、第2発明において、前記撮影情報は、三次元カメラを用いて生成される三次元画像データを含み、前記座標データ取得手段は、前記三次元画像データから前記座標データを取得することを特徴とする。 In the second invention, the estimation system according to the third invention includes the three-dimensional image data generated by using the three-dimensional camera, and the coordinate data acquisition means obtains the coordinates from the three-dimensional image data. It is characterized by acquiring data.

第4発明に係る推定システムは、第1発明〜第3発明の何れかにおいて、前記対象情報及び前記過去の対象情報は、前記ユーザの指の動きを示すオプティカルフロー情報を含むことを特徴とする。 The estimation system according to the fourth invention is characterized in that, in any one of the first to third inventions, the target information and the past target information include optical flow information indicating the movement of the user's finger. ..

第5発明に係る推定システムは、第4発明において、前記撮影情報は、RGBカメラを用いて生成されるRGB画像を含み、前記取得手段は、複数の前記RGB画像から前記オプティカルフロー情報を取得するオプティカルフロー情報取得手段を有することを特徴とする。 In the fourth invention, the estimation system according to the fifth invention includes the RGB image generated by using the RGB camera, and the acquisition means acquires the optical flow information from the plurality of the RGB images. It is characterized by having an optical flow information acquisition means.

第6発明に係る推定システムは、第1発明〜第5発明の何れかにおいて、前記対象情報及び前記過去の対象情報は、前記仮想キーボードの種類を示すキーボード情報を含むことを特徴とする。 The estimation system according to the sixth invention is characterized in that, in any one of the first to fifth inventions, the target information and the past target information include keyboard information indicating the type of the virtual keyboard.

第7発明に係る推定システムは、第1発明〜第6発明の何れかにおいて、前記参照データベースは、機械学習により構築されたものであることを特徴とする。 The estimation system according to the seventh invention is characterized in that, in any one of the first to sixth inventions, the reference database is constructed by machine learning.

第8発明に係る推定装置は、仮想キーボードを用いて入力された文字列を推定する推定装置であって、ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得部と、予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価部と、前記評価情報に基づき推定結果を生成する生成部と、を備えることを特徴とする。 The estimation device according to the eighth invention is an estimation device that estimates a character string input by using a virtual keyboard, and is based on shooting information obtained by photographing an action of the user pressing the virtual keyboard, and is a finger of the user. Three or more levels of association between the acquisition unit that acquires the target information including the angle information regarding the angle, the past target information acquired in advance, and the reference information including the character string input by the past target information. In the evaluation unit that refers to the reference database in which is stored and the reference database, and acquires evaluation information including the first degree of association between the target information and the reference information in three or more stages, and the evaluation information. It is characterized by including a generation unit that generates an estimation result based on the above.

第1発明〜第7発明によれば、評価手段は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the first to seventh inventions, the evaluation means refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、第1発明〜第7発明によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボードに対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the first to seventh inventions, the target information includes angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

また、第2発明によれば、座標データ取得手段は、撮影情報から座標データを取得する。また、角度情報取得手段は、座標データから角度情報を取得する。このため、評価対象とするデータの容量を削減することができる。これにより、対象情報を保存する際、保存容量の増大を抑制することが可能となる。また、評価対象として必要なパラメータを抑えることができ、さらなる推定精度の向上を図ることが可能となる。 Further, according to the second invention, the coordinate data acquisition means acquires the coordinate data from the shooting information. Further, the angle information acquisition means acquires angle information from the coordinate data. Therefore, the amount of data to be evaluated can be reduced. As a result, when the target information is stored, it is possible to suppress an increase in the storage capacity. In addition, the parameters required for evaluation can be suppressed, and the estimation accuracy can be further improved.

また、第3発明によれば、撮影情報は、三次元カメラを用いて生成される三次元画像データを含む。このため、角度情報を取得する際、新たなカメラ等を設けることなく、従来の三次元カメラを利用することができる。これにより、容易にキー入力を推定する環境を整えることが可能となる。 Further, according to the third invention, the shooting information includes three-dimensional image data generated by using a three-dimensional camera. Therefore, when acquiring the angle information, a conventional three-dimensional camera can be used without providing a new camera or the like. This makes it possible to easily prepare an environment for estimating key input.

また、第4発明によれば、対象情報及び過去の対象情報は、オプティカルフロー情報を含む。このため、オプティカルフロー情報と角度情報とを組み合わせることで、ユーザ毎におけるキー入力時の動きを考慮することができる。これにより、キー入力を推定する精度のさらなる向上を図ることが可能となる。 Further, according to the fourth invention, the target information and the past target information include optical flow information. Therefore, by combining the optical flow information and the angle information, it is possible to consider the movement at the time of key input for each user. This makes it possible to further improve the accuracy of estimating the key input.

また、第5発明によれば、オプティカルフロー情報取得手段は、複数のRGB画像からオプティカルフロー情報を取得する。このため、オプティカルフロー情報を取得する際、新たなカメラ等を設けることなく、従来のRGBカメラを利用することができる。これにより、容易にキー入力の推定精度を向上させる環境を整えることが可能となる。 Further, according to the fifth invention, the optical flow information acquisition means acquires optical flow information from a plurality of RGB images. Therefore, when acquiring optical flow information, a conventional RGB camera can be used without providing a new camera or the like. This makes it possible to easily prepare an environment for improving the estimation accuracy of key input.

また、第6発明によれば、対象情報及び過去の対象情報は、キーボード情報を含む。このため、キー配列等が異なる仮想キーボードを利用した場合においても、キー入力を高精度に推定することが可能となる。 Further, according to the sixth invention, the target information and the past target information include keyboard information. Therefore, even when a virtual keyboard having a different key layout or the like is used, it is possible to estimate the key input with high accuracy.

また、第7発明によれば、参照データベースは、機械学習により構築される。このため、画像から算出された押下深度に対する閾値を設定する場合に比べて、主観を除いたキー入力の推定を実現することが可能となる。 Further, according to the seventh invention, the reference database is constructed by machine learning. Therefore, it is possible to estimate the key input excluding the subjectivity as compared with the case of setting the threshold value for the pressing depth calculated from the image.

第8発明によれば、評価部は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the eighth invention, the evaluation unit refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、第8発明によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボードに対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the eighth invention, the target information includes angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

図1(a)は、本実施形態における推定システムの一例を示す模式図であり、図1(b)は、本実施形態における推定システムの他の例を示す模式図である。FIG. 1 (a) is a schematic diagram showing an example of an estimation system in the present embodiment, and FIG. 1 (b) is a schematic diagram showing another example of the estimation system in the present embodiment. 図2は、推定システムの動作の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the operation of the estimation system. 図3は、角度情報及びオプティカルフロー情報を取得する取得手段の一例を示す模式図である。FIG. 3 is a schematic diagram showing an example of an acquisition means for acquiring angle information and optical flow information. 図4(a)は、本実施形態における推定装置の構成の一例を示す模式図であり、図4(b)は、本実施形態における推定装置の機能の一例を示す模式図である。FIG. 4A is a schematic diagram showing an example of the configuration of the estimation device according to the present embodiment, and FIG. 4B is a schematic diagram showing an example of the function of the estimation device according to the present embodiment. 図5は、本実施形態における参照データベースの一例を示す模式図である。FIG. 5 is a schematic diagram showing an example of a reference database according to the present embodiment. 図6は、本実施形態における参照データベースの第1変形例を示す模式図である。FIG. 6 is a schematic view showing a first modification of the reference database in the present embodiment. 図7は、本実施形態における参照データベースの第2変形例を示す模式図である。FIG. 7 is a schematic view showing a second modification of the reference database in the present embodiment. 図8は、本実施形態における推定システムの動作の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the operation of the estimation system according to the present embodiment.

以下、本発明を適用した実施形態における推定システム、及び推定装置の一例について、図面を参照しながら説明する。 Hereinafter, an example of the estimation system and the estimation device according to the embodiment to which the present invention is applied will be described with reference to the drawings.

図1を参照して、本実施形態における推定システム100、及び推定装置1の一例について説明する。 An example of the estimation system 100 and the estimation device 1 in the present embodiment will be described with reference to FIG.

本実施形態における推定システム100は、例えば図1(a)に示すように、推定装置1を有する。推定装置1は、例えば通信網4を介して、ユーザ端末3に接続される。推定システム100は、仮想キーボード8を用いて入力された文字列を推定する。推定システム100では、ユーザ端末3によって仮想キーボード8が投影されるほか、例えば図1(b)に示すように、推定装置1によって仮想キーボード8が投影されてもよく、他の端末等によって仮想キーボード8が投影されてもよい。 The estimation system 100 in this embodiment has an estimation device 1 as shown in FIG. 1A, for example. The estimation device 1 is connected to the user terminal 3 via, for example, the communication network 4. The estimation system 100 estimates a character string input using the virtual keyboard 8. In the estimation system 100, the virtual keyboard 8 is projected by the user terminal 3, and the virtual keyboard 8 may be projected by the estimation device 1 as shown in FIG. 1B, for example, and the virtual keyboard may be projected by another terminal or the like. 8 may be projected.

推定システム100では、例えば図2に示すように、推定装置1が対象情報を取得し、対象情報に対する推定結果を生成するものである。対象情報は、ユーザの指の角度に関する角度情報を含み、例えば撮影情報を含んでもよい。撮影情報は、ユーザが仮想キーボード8を押下する動作を撮影した画像データ、及び画像データにおけるユーザの手の位置情報を含む。対象情報は、例えばユーザの指の動きを示すオプティカルフロー情報を含んでもよい。対象情報は、ユーザ端末3によって生成されるほか、例えば推定装置1によって生成されてもよい。 In the estimation system 100, for example, as shown in FIG. 2, the estimation device 1 acquires the target information and generates an estimation result for the target information. The target information includes angle information regarding the angle of the user's finger, and may include, for example, shooting information. The shooting information includes image data obtained by shooting an operation of the user pressing the virtual keyboard 8 and position information of the user's hand in the image data. The target information may include, for example, optical flow information indicating the movement of the user's finger. The target information may be generated by the user terminal 3 or, for example, the estimation device 1.

画像データは、ユーザ端末3又は推定装置1に設けられた公知のカメラを用いて生成されるほか、ユーザ端末3又は推定装置1とは独立した公知のカメラを用いて生成されてもよい。画像データは、1つのキーを押下するユーザの手を撮像した画像を含み、例えば少なくとも1つのキーを押下する前後におけるユーザの手の動きを撮像した複数の画像(例えば動画)を含んでもよい。画像データは、ユーザの指を撮像した画像のほか、例えばユーザの指の動きを撮像した動画でもよい。画像データは、例えば仮想キーボード8の形状、投影サイズ、キー高さ、キー配列等のキーボードに関する情報(後述するキーボード情報と同等)を含む。 The image data may be generated by using a known camera provided in the user terminal 3 or the estimation device 1, or may be generated by using a known camera independent of the user terminal 3 or the estimation device 1. The image data includes an image of the user's hand pressing one key, and may include, for example, a plurality of images (for example, a moving image) of the movement of the user's hand before and after pressing at least one key. The image data may be, for example, a moving image of the movement of the user's finger, in addition to the image of the user's finger. The image data includes information about the keyboard such as the shape, projection size, key height, and key layout of the virtual keyboard 8 (equivalent to keyboard information described later).

画像データは、三次元画像データを有し、例えばRGB画像データと、赤外線画像データとを有する。三次元画像データは、公知の三次元カメラ(3Dカメラ)を用いて生成される。三次元カメラは、例えば複数のRGBカメラを用いて代用してもよい。RGB画像データは、可視光領域(例えば400nm以上800nm以下)に対応するRGBカメラを用いて生成される。赤外線画像データは、赤外光領域(例えば800nm以上1,000μm以下)に対応する赤外線カメラを用いて生成される。RGB画像データ及び赤外線画像データは、例えば可視光領域から赤外光領域まで対応する1つのマルチスペクトルカメラを用いて生成されてもよい。 The image data includes three-dimensional image data, for example, RGB image data and infrared image data. The three-dimensional image data is generated using a known three-dimensional camera (3D camera). As the three-dimensional camera, for example, a plurality of RGB cameras may be used instead. The RGB image data is generated by using an RGB camera corresponding to a visible light region (for example, 400 nm or more and 800 nm or less). Infrared image data is generated using an infrared camera corresponding to an infrared light region (for example, 800 nm or more and 1,000 μm or less). The RGB image data and the infrared image data may be generated using, for example, one multispectral camera corresponding to the visible light region to the infrared light region.

位置情報は、例えば対象物との離間距離を計測する公知の距離計測カメラを用いて生成される。位置情報は、ユーザ端末3又は推定装置1に設けられた距離計測カメラを用いて生成されるほか、ユーザ端末3又は推定装置1とは独立した距離計測カメラを用いて生成されてもよい。 The position information is generated using, for example, a known distance measuring camera that measures the distance from the object. The position information may be generated by using a distance measuring camera provided in the user terminal 3 or the estimation device 1, or may be generated by using a distance measuring camera independent of the user terminal 3 or the estimation device 1.

位置情報は、距離計測カメラと、画像データによって撮像されたユーザの手(対象物)との間の距離を示す距離データを有する。距離データは、距離計測カメラと、予め設定されたユーザの手の少なくとも一ヶ所との間の距離を示す。距離データは、例えば距離計測カメラと、ユーザの指先毎との間の距離を示してもよい。なお、ユーザの指先は、仮想キーボード8に接触すると想定される部分を示し、例えば右手の指先及び左手の指先に対応する合計10ヶ所が、距離データの対象となる。 The position information has distance data indicating the distance between the distance measuring camera and the user's hand (object) captured by the image data. The distance data indicates the distance between the distance measuring camera and at least one of the preset user's hands. The distance data may indicate, for example, the distance between the distance measuring camera and each fingertip of the user. The fingertips of the user indicate parts that are expected to come into contact with the virtual keyboard 8. For example, a total of 10 locations corresponding to the fingertips of the right hand and the fingertips of the left hand are the targets of the distance data.

距離データは、例えば画像データの撮影と同様の期間に生成される。距離データは、例えば仮想キーボード8をユーザが押下する前後の期間のみ生成されてもよい。距離データは、数値データとして生成され、ベクトル又は行列で示されてもよい。 The distance data is generated in the same period as when the image data is taken, for example. The distance data may be generated only during the period before and after the user presses the virtual keyboard 8, for example. The distance data is generated as numerical data and may be represented by a vector or a matrix.

位置情報は、例えば座標データを有してもよい。座標データは、例えば距離計測カメラの位置を基準としたx軸、y軸、z軸を用いた座標空間により示される(生成される)ほか、例えば三次元画像データから取得されてもよい。座標データは、距離データと同様に、ユーザの手の少なくとも一ヶ所の座標を示し、例えばユーザの指先毎の座標を示してもよい。座標データは、例えば画像データの撮影と同様の期間に生成される。座標データは、例えば仮想キーボード8をユーザが押下する前後の期間のみ生成されてもよい。座標データは、数値データとして生成され、ベクトル又は行列で示されてもよい。 The position information may include, for example, coordinate data. The coordinate data is shown (generated) by, for example, a coordinate space using the x-axis, y-axis, and z-axis with respect to the position of the distance measuring camera, and may be acquired from, for example, three-dimensional image data. Like the distance data, the coordinate data may indicate the coordinates of at least one place of the user's hand, for example, the coordinates of each fingertip of the user. The coordinate data is generated in the same period as when the image data is taken, for example. The coordinate data may be generated only during the period before and after the user presses the virtual keyboard 8, for example. The coordinate data is generated as numerical data and may be represented by a vector or a matrix.

角度情報は、例えば図3に示すように、三次元画像データに基づき取得される。角度情報は、三次元画像データから取得された座標データから取得されるほか、例えば距離計測カメラにより生成される座標データから取得されてもよい。角度情報は、例えば各指の座標のうち関節部分における座標を中心とした3点以上の座標から、角度を算出することで取得してもよい。角度情報の取得方法として、公知の技術を用いることができる。 The angle information is acquired based on the three-dimensional image data, for example, as shown in FIG. The angle information may be acquired from the coordinate data acquired from the three-dimensional image data, or may be acquired from the coordinate data generated by, for example, a distance measuring camera. The angle information may be obtained, for example, by calculating the angle from the coordinates of three or more points centered on the coordinates at the joint portion of the coordinates of each finger. A known technique can be used as a method for acquiring angle information.

オプティカルフロー情報は、例えば図3に示すように、RGB画像データに基づき取得される。オプティカルフロー情報は、複数のRGB画像又は動画から取得されるほか、例えば取得時間の異なる複数の座標データから取得してもよい。オプティカルフロー情報は、例えば各指先における位置の経時変化を示す。オプティカルフロー情報は、画像形式で取得されるほか、例えば行列(ベクトル)形式で取得されてもよい。オプティカルフロー情報の取得方法として、公知の技術を用いることができる。 The optical flow information is acquired based on RGB image data, for example, as shown in FIG. The optical flow information may be acquired from a plurality of RGB images or moving images, or may be acquired from, for example, a plurality of coordinate data having different acquisition times. The optical flow information indicates, for example, the time course of the position at each fingertip. The optical flow information may be acquired in an image format or, for example, in a matrix (vector) format. A known technique can be used as a method for acquiring optical flow information.

なお、上述した仮想キーボード8を投影する投影部、三次元カメラ、RGBカメラ、赤外線カメラ、及び距離計測カメラは、同一の端末(例えば推定装置1又はユーザ端末3)に備え付けられてもよい。また、上述した画像データ及び位置情報は、Kinect(登録商標)やマルチスペクトルカメラ等の公知のカメラを用いて生成されてもよく、この場合、例えば2眼以上のカメラが用いられてもよい。 The projection unit, the three-dimensional camera, the RGB camera, the infrared camera, and the distance measuring camera for projecting the virtual keyboard 8 described above may be provided in the same terminal (for example, the estimation device 1 or the user terminal 3). Further, the above-mentioned image data and position information may be generated by using a known camera such as Kinect (registered trademark) or a multispectral camera. In this case, for example, a camera having two or more eyes may be used.

対象情報は、例えばキーボード情報を含んでもよい。キーボード情報は、ユーザが用いる仮想キーボード8の種類を示す。キーボード情報は、仮想キーボード8の投影サイズのほか、例えばキーの配列、各キーの大きさ、キー高さ等を含む。 The target information may include, for example, keyboard information. The keyboard information indicates the type of virtual keyboard 8 used by the user. The keyboard information includes, for example, an array of keys, a size of each key, a key height, and the like, in addition to the projection size of the virtual keyboard 8.

対象情報は、例えば言語情報を含んでもよい。言語情報は、ユーザが仮想キーボード8を用いて入力する言語の種類を示す。推定システム100では、言語情報に基づき、入力した文字列を推定してもよい。この場合、ユーザの使用する言語に依存することなく、キー入力を高精度に推定することが可能となる。また、タイプミス等を考慮した推定結果を生成することができる。 The target information may include, for example, linguistic information. The language information indicates the type of language that the user inputs using the virtual keyboard 8. In the estimation system 100, the input character string may be estimated based on the language information. In this case, the key input can be estimated with high accuracy without depending on the language used by the user. In addition, it is possible to generate an estimation result in consideration of typos and the like.

推定結果は、ユーザが仮想キーボード8を押下したときの入力キーに対応する内容を推定した結果を示す。推定結果として、文字列が生成されるほか、例えば推定装置1又はユーザ端末3の制御コマンドが生成される。推定システム100では、対象情報に含まれる情報の種類を多くすることで、推定結果の精度を向上させることができる。特に、角度情報と、オプティカルフロー情報との組み合わせにより、ユーザの指の動きを高精度に捉えることが可能となる。 The estimation result shows the result of estimating the content corresponding to the input key when the user presses the virtual keyboard 8. As the estimation result, a character string is generated, and for example, a control command of the estimation device 1 or the user terminal 3 is generated. In the estimation system 100, the accuracy of the estimation result can be improved by increasing the types of information included in the target information. In particular, by combining the angle information and the optical flow information, it is possible to capture the movement of the user's finger with high accuracy.

(推定装置1)
次に、図4を参照して、本実施形態における推定装置1の一例を説明する。図4(a)は、本実施形態における推定装置1の構成の一例を示す模式図であり、図4(b)は、本実施形態における推定装置1の機能の一例を示す模式図である。
(Estimator 1)
Next, an example of the estimation device 1 in the present embodiment will be described with reference to FIG. FIG. 4A is a schematic diagram showing an example of the configuration of the estimation device 1 in the present embodiment, and FIG. 4B is a schematic diagram showing an example of the function of the estimation device 1 in the present embodiment.

推定装置1として、例えばパーソナルコンピュータ(PC)等の電子機器が用いられるほか、例えばスマートフォン、タブレット型端末、ウェアラブル端末、IoT(Internet of Things)デバイス等の電子機器、Raspberry Pi(登録商標)等のシングルボードコンピュータが用いられてもよい。推定装置1は、例えば図4(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105〜107とを備える。各構成101〜107は、内部バス110により接続される。 As the estimation device 1, for example, an electronic device such as a personal computer (PC) is used, and for example, an electronic device such as a smartphone, a tablet terminal, a wearable terminal, an IoT (Internet of Things) device, a Raspberry Pi (registered trademark), or the like. A single board computer may be used. As shown in FIG. 4A, for example, the estimation device 1 includes a housing 10, a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, and a storage unit. It includes 104 and I / F 105-107. Each configuration 101-107 is connected by an internal bus 110.

CPU101は、推定装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、撮影情報や対象情報等の各種情報が記憶される。保存部104として、例えばHDD(Hard Disk Drive)の他、SSD(solid state drive)やフロッピーディスク等のデータ保存装置が用いられる。なお、例えば推定装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。GPUを有することで、通常よりも高速演算処理が可能となる。 The CPU 101 controls the entire estimation device 1. The ROM 102 stores the operation code of the CPU 101. The RAM 103 is a work area used during the operation of the CPU 101. The storage unit 104 stores various information such as shooting information and target information. As the storage unit 104, for example, in addition to an HDD (Hard Disk Drive), a data storage device such as an SSD (solid state drive) or a floppy disk is used. For example, the estimation device 1 may have a GPU (Graphics Processing Unit) (not shown). Having a GPU enables faster arithmetic processing than usual.

I/F105は、インターネット等の通信網4を介して、ユーザ端末3やサーバ2等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部分108との情報の送受信を行うためのインターフェースである。入力部分108として、例えばキーボードが用いられ、推定装置1の管理者等は、入力部分108を介して、各種情報又は推定装置1の制御コマンド等を入力する。I/F107は、出力部分109との各種情報の送受信を行うためのインターフェースである。出力部分109は、保存部104に保存された各種情報、又は推定装置1の処理状況等を出力する。出力部分109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。 The I / F 105 is an interface for transmitting and receiving various information to and from the user terminal 3 and the server 2 via a communication network 4 such as the Internet. The I / F 106 is an interface for transmitting / receiving information to / from the input portion 108. For example, a keyboard is used as the input portion 108, and the administrator of the estimation device 1 inputs various information or control commands of the estimation device 1 via the input portion 108. The I / F 107 is an interface for transmitting and receiving various information to and from the output portion 109. The output unit 109 outputs various information stored in the storage unit 104, the processing status of the estimation device 1, and the like. A display is used as the output portion 109, and for example, a touch panel type may be used.

なお、例えば出力部分109が、仮想キーボード8を投影する投影部を有する場合、入力部分108は、対象情報を生成するための各種カメラ(例えば上述した三次元カメラ、RGBカメラ、赤外線カメラ、及び距離計測カメラの少なくとも何れか)を有してもよい。また、推定装置1としてスマートフォンやタブレット等の端末が用いられる場合、備え付けられた公知の投影装置(投影部)が、出力部分109の一部として用いられ、備え付けられた公知のカメラ(撮像部)が、入力部分108の一部として用いられてもよい。 For example, when the output portion 109 has a projection unit for projecting the virtual keyboard 8, the input portion 108 has various cameras for generating target information (for example, the above-mentioned three-dimensional camera, RGB camera, infrared camera, and distance). You may have at least one of the measuring cameras). Further, when a terminal such as a smartphone or a tablet is used as the estimation device 1, a known projection device (projection unit) provided is used as a part of the output unit 109, and a known camera (imaging unit) provided is used. May be used as part of the input portion 108.

<参照データベース>
保存部104には、例えば予め取得された過去の対象情報、参照情報、及び連関度が記憶された参照データベースが保存される。過去の対象情報は、上述した対象情報と同種の情報を示し、過去の角度情報を含み、例えば過去のオプティカルフロー情報、過去の画像データ、過去の位置情報、及び過去のキーボード情報の少なくとも何れかを含んでもよい。参照情報は、過去の対象情報によって入力された文字列を含み、例えば推定装置1又はユーザ端末3の制御コマンドを含む。連関度は、過去の対象情報と、参照情報との関係の度合いを示す。
<Reference database>
In the storage unit 104, for example, a reference database in which past target information, reference information, and association degree acquired in advance are stored is stored. The past target information indicates the same type of information as the above-mentioned target information, and includes past angle information, for example, at least one of past optical flow information, past image data, past position information, and past keyboard information. May include. The reference information includes a character string input by the past target information, and includes, for example, a control command of the estimation device 1 or the user terminal 3. The degree of association indicates the degree of relationship between the past target information and the reference information.

参照データベースには、例えば図5に示すように、過去の対象情報と参照情報との間における3段階以上の連関度が記憶される。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。参照データベースは、例えば過去の対象情報及び参照情報を用いて、連関度を算出できるアルゴリズムで形成される。過去の対象情報及び参照情報は、複数のデータを有し、各過去の対象情報と各参照情報との関係は、それぞれ連関度で紐づいている。 As shown in FIG. 5, for example, the reference database stores three or more levels of association between the past target information and the reference information. The degree of association is indicated by three or more stages such as percentage, 10 stages, or 5 stages, and is indicated by, for example, line characteristics (for example, thickness). The reference database is formed by an algorithm that can calculate the degree of association using, for example, past target information and reference information. The past target information and the reference information have a plurality of data, and the relationship between each past target information and each reference information is linked by the degree of association.

例えば、過去の対象情報に含まれる「情報A」は、参照情報に含まれる「参照A」との間の連関度「80%」を示し、参照情報に含まれる「参照B」との間の連関度「15%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、連関度が高いほど、各データの繋がりが強いことを示す。 For example, "information A" included in the past target information indicates a degree of association "80%" with "reference A" included in the reference information, and is between "reference B" included in the reference information. The degree of association is "15%". That is, the "degree of association" indicates the degree of connection between each data, and the higher the degree of association, the stronger the connection of each data.

なお、過去の対象情報は、画像(経時変化を示す複数の画像、動画でもよい)や文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。また、参照情報は、文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。すなわち、図5に示した「情報A」、「情報B」、「情報C」は、過去に取得された対象情報(例えば角度情報のほか、オプティカルフロー情報、RGB画像データ、赤外線画像データ、距離データ、座標データ、及びキーボード情報の少なくとも何れか)を、画像形式や行列等の形式で記憶されたデータを示し、「参照A」、「参照B」、「参照C」は、過去に取得された推定結果に対応する文字列の形式や行列等の形式で記憶されたデータを示す。 The past target information is stored in the reference database in the form of an image (a plurality of images showing changes over time, a moving image may be used) or a character string, or in a format such as a numerical value, a matrix (vector), or a histogram. It may be memorized by. Further, the reference information is stored in the reference database in a format such as a character string, or may be stored in a format such as a numerical value, a matrix (vector), or a histogram. That is, the "information A", "information B", and "information C" shown in FIG. 5 are target information acquired in the past (for example, in addition to angle information, optical flow information, RGB image data, infrared image data, distance). Data, coordinate data, and at least one of keyboard information) indicates data stored in a format such as an image format or a matrix, and "reference A", "reference B", and "reference C" have been acquired in the past. The data stored in the format of a character string or a format corresponding to the estimation result is shown.

参照データベースは、例えば機械学習を用いて構築される。この場合連関度は、機械学習を用いて算出される。機械学習には、例えば深層学習が用いられる。参照データベースは、例えばニューラルネットワークで構築され、その場合、連関度は隠れ層及び重み変数で示されてもよい。すなわち、推定システム100では、機械学習により構築された参照データベースを用いることができ、この場合、それぞれ複数のデータを有する過去の対象情報と、参照情報との間における複雑な関係性を、連関度により高精度に示すことができる。これにより、推定結果の精度を向上させることが可能となる。 The reference database is constructed using, for example, machine learning. In this case, the degree of association is calculated using machine learning. For machine learning, for example, deep learning is used. The reference database is constructed, for example, in a neural network, in which case the degree of association may be indicated by hidden layers and weight variables. That is, in the estimation system 100, a reference database constructed by machine learning can be used, and in this case, the degree of association between the past target information having a plurality of data and the reference information is complicated. It can be shown with higher accuracy. This makes it possible to improve the accuracy of the estimation result.

過去の対象情報は、例えば図6に示すように、過去の角度情報と、過去のオプティカルフロー情報とを分割して、参照データベースに記憶されてもよい。この場合、過去の角度情報及び過去のオプティカルフロー情報の組み合わせと、参照情報との間の関係に基づいて、連関度が算出される。なお、過去の対象情報は、例えば上記に加え、過去の画像データ及び過去の位置情報の少なくとも何れかを分割して、参照データベースに記憶されてもよい。 As shown in FIG. 6, for example, the past target information may be stored in the reference database by dividing the past angle information and the past optical flow information. In this case, the degree of association is calculated based on the relationship between the combination of the past angle information and the past optical flow information and the reference information. In addition to the above, the past target information may be stored in the reference database by dividing at least one of the past image data and the past position information.

例えば、過去の角度情報に含まれる「角度A」、及び過去のオプティカルフロー情報に含まれる「フローA」の組み合わせは、「参照A」との間の連関度「90%」を示し、「参照B」との間の連関度「20%」を示す。この場合、過去の角度情報及び過去のオプティカルフロー情報をそれぞれ独立してデータを記憶させることができる。このため、推定結果を生成する際、精度の向上及び選択肢の範囲を拡大させることが可能となる。 For example, the combination of "angle A" included in the past angle information and "flow A" included in the past optical flow information indicates a degree of association "90%" with "reference A", and "reference". The degree of association with "B" is "20%". In this case, the past angle information and the past optical flow information can be stored independently. Therefore, when generating the estimation result, it is possible to improve the accuracy and expand the range of options.

なお、過去の画像データは、例えば過去のRGB画像データと、過去の赤外線画像データとを分割して、参照データベースに記憶されてもよい。また、過去の位置情報は、例えば過去の距離データと、過去の座標データとを分割して、参照データベースに記憶されてもよい。 The past image data may be stored in the reference database by dividing the past RGB image data and the past infrared image data, for example. Further, the past position information may be stored in the reference database by dividing the past distance data and the past coordinate data, for example.

過去の対象情報は、例えば図7に示すように、合成データと、類似度とを含んでもよい。合成データは、過去の角度情報又は過去のオプティカルフロー情報との間における3段階以上の類似度により示される。合成データは、画像や文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列、又はヒストグラム等の形式で記憶されてもよい。 The past target information may include synthetic data and similarity, as shown in FIG. 7, for example. The synthetic data is represented by three or more levels of similarity with past angle information or past optical flow information. The composite data is stored in the reference database in the form of an image, a character string, or the like, or may be stored in a format such as a numerical value, a matrix, or a histogram.

図4(b)は、推定装置1の機能の一例を示す模式図である。推定装置1は、取得部11と、記憶部12と、評価部13と、生成部14と、出力部15とを備え、例えば更新部16を有してもよい。なお、図4(b)に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現され、例えば人工知能により制御されてもよい。 FIG. 4B is a schematic diagram showing an example of the function of the estimation device 1. The estimation device 1 includes an acquisition unit 11, a storage unit 12, an evaluation unit 13, a generation unit 14, and an output unit 15, and may include, for example, an update unit 16. Each function shown in FIG. 4B is realized by the CPU 101 executing a program stored in the storage unit 104 or the like using the RAM 103 as a work area, and may be controlled by, for example, artificial intelligence.

<取得部11>
取得部11は、対象情報を取得する。取得部11は、通信網4及びI/F105を介して、ユーザ端末3等の外部端末から対象情報を取得するほか、例えば入力部分108の有する撮像部(例えば上述した三次元カメラ、RGBカメラ、赤外線カメラ、及び距離計測カメラの少なくとも何れか)から、対象情報を取得する。取得部11は、撮影情報を取得し、撮影情報に基づく角度情報を対象情報として取得するほか、例えば角度情報等を対象情報として一括して取得してもよい。取得部11が対象情報を取得する頻度及び周期は、任意である。
<Acquisition unit 11>
The acquisition unit 11 acquires the target information. The acquisition unit 11 acquires target information from an external terminal such as a user terminal 3 via the communication network 4 and the I / F 105, and for example, an imaging unit (for example, the above-mentioned three-dimensional camera, RGB camera, etc.) included in the input unit 108 Target information is acquired from at least one of an infrared camera and a distance measurement camera). The acquisition unit 11 may acquire the shooting information and acquire the angle information based on the shooting information as the target information, or may collectively acquire, for example, the angle information or the like as the target information. The frequency and cycle for the acquisition unit 11 to acquire the target information are arbitrary.

取得部11は、例えば取得した撮影情報から座標データを取得し、座標データから角度情報を取得する。これにより、取得部11は、角度情報を含む対象情報を取得する。取得部11は、例えば取得した複数のRGB画像からオプティカルフロー情報を取得する。これにより、取得部11は、角度情報及びオプティカルフロー情報を含む対象情報を取得する。なお、取得部11は、上述した公知の技術を用いて、角度情報及びオプティカルフロー情報を取得することができる。 The acquisition unit 11 acquires coordinate data from, for example, the acquired shooting information, and acquires angle information from the coordinate data. As a result, the acquisition unit 11 acquires the target information including the angle information. The acquisition unit 11 acquires optical flow information from, for example, a plurality of acquired RGB images. As a result, the acquisition unit 11 acquires the target information including the angle information and the optical flow information. The acquisition unit 11 can acquire the angle information and the optical flow information by using the above-mentioned known technique.

取得部11は、推定装置1に送信された各種情報を受信する。取得部11は、通信網4及びI/F105を介して、ユーザ端末3等の外部端末から送信された対象情報等の各種情報を受信する。 The acquisition unit 11 receives various information transmitted to the estimation device 1. The acquisition unit 11 receives various information such as target information transmitted from an external terminal such as the user terminal 3 via the communication network 4 and the I / F 105.

<記憶部12>
記憶部12は、保存部104に保存された参照データベース等の各種情報を必要に応じて取出す。記憶部12は、各構成11、13〜16により取得又は生成された各種情報を、保存部104に保存する。
<Memory unit 12>
The storage unit 12 retrieves various information such as a reference database stored in the storage unit 104 as needed. The storage unit 12 stores various information acquired or generated by the configurations 11 and 13 to 16 in the storage unit 104.

<評価部13>
評価部13は、参照データベースを参照し、対象情報と、参照情報との間における第1連関度を含む評価情報を取得する。評価部13は、例えば図4に示した参照データベースを参照した場合、対象情報に含まれる情報と同一又は類似する過去の対象情報(例えば「情報A」:過去の第1対象情報とする)を選択する。過去の対象情報として、対象情報と一部一致又は完全一致する情報が選択されるほか、例えば類似(同一概念等を含む)する情報が選択される。対象情報が行列等の数値で表される場合、選択される過去の対象情報に含まれる数値範囲を、予め設定してもよい。
<Evaluation unit 13>
The evaluation unit 13 refers to the reference database and acquires evaluation information including the first degree of association between the target information and the reference information. When the evaluation unit 13 refers to the reference database shown in FIG. 4, for example, the evaluation unit 13 selects past target information (for example, “information A”: past first target information) that is the same as or similar to the information contained in the target information. select. As the past target information, information that partially matches or completely matches the target information is selected, and for example, information that is similar (including the same concept or the like) is selected. When the target information is represented by a numerical value such as a matrix, the numerical range included in the selected past target information may be set in advance.

評価部13は、選択した過去の第1対象情報に紐づく参照情報、及び選択した過去の対象情報と参照情報との間における連関度(第1連関度)を選択し、評価情報として取得する。なお、第1連関度は、連関度から一部が選択されるほか、評価部13によって算出されてもよい。 The evaluation unit 13 selects the reference information associated with the selected past first target information and the degree of association (first degree of association) between the selected past target information and the reference information, and acquires it as evaluation information. .. A part of the first degree of association is selected from the degree of association, and may be calculated by the evaluation unit 13.

例えば評価部13は、第1対象情報「情報A」に紐づく参照情報「参照A」、及び「情報A」と「参照A」との間における第1連関度「80%」を選択し、評価情報として取得する。なお、参照情報及び第1連関度は、複数のデータを含んでもよい。この場合、上述した「参照A」及び「80%」に加えて、第1対象情報「情報A」に紐づく参照情報「参照B」、及び「情報A」と「参照B」との間における第1連関度「15%」を選択し、「参照A」及び「80%」、並びに、「参照B」及び「15%」を評価情報として取得してもよい。 For example, the evaluation unit 13 selects the reference information "reference A" associated with the first target information "information A" and the first degree of association "80%" between "information A" and "reference A". Obtained as evaluation information. The reference information and the first degree of association may include a plurality of data. In this case, in addition to the above-mentioned "reference A" and "80%", the reference information "reference B" associated with the first target information "information A" and between "information A" and "reference B" The first degree of association "15%" may be selected, and "reference A" and "80%", and "reference B" and "15%" may be acquired as evaluation information.

評価情報は、対象情報を含んでもよい。また、第1連関度は、例えば百分率等の3段階以上で示される。例えば参照データベースがニューラルネットワークで構成される場合、第1連関度は、選択された過去の評価対象情報に紐づく重み変数を示す。 The evaluation information may include target information. Further, the first degree of association is indicated by three or more stages such as a percentage. For example, when the reference database is composed of a neural network, the first degree of association indicates a weight variable associated with the selected past evaluation target information.

<生成部14>
生成部14は、評価情報に基づき、推定結果を生成する。生成部14は、例えば予め保存部104等に記憶された出力用フォーマット等の形式データを用いて、評価結果として取得された情報に基づき、ユーザが理解できる形式(例えば文字列)に変換し、変換した情報を評価結果として生成する。
<Generator 14>
The generation unit 14 generates an estimation result based on the evaluation information. The generation unit 14 uses format data such as an output format stored in advance in the storage unit 104 or the like to convert it into a format (for example, a character string) that can be understood by the user based on the information acquired as the evaluation result. Generate the converted information as an evaluation result.

生成部14は、例えば図2に示すように、「○○さんこんにちは。」等の推定される文字列を含む推定結果を生成する。生成部14は、例えば推定装置1又はユーザ端末3を制御する制御情報を含む推定結果を生成してもよい。なお、推定結果を生成する際における形式の設定、及び評価情報から推定結果への変換方法は、例えば公知の技術(例えば人工知能技術)を用いてもよい。 Generator 14, for example, as shown in FIG. 2, to generate estimation result containing the string to be estimated such as "○○'s Hello.". The generation unit 14 may generate an estimation result including control information for controlling, for example, the estimation device 1 or the user terminal 3. For the setting of the format when generating the estimation result and the conversion method from the evaluation information to the estimation result, for example, a known technique (for example, artificial intelligence technique) may be used.

生成部14は、例えば評価情報の第1連関度に基づいて、推定結果の内容を決定する。例えば生成部14は、「50%」以上の第1連関度に紐づく参照情報に基づいて、推定結果を生成し、「50%」未満の第1連関度に紐づく参照情報を推定結果に反映しないように設定されてもよい。なお、第1連関度に基づく判定基準は、例えば管理者等が予め閾値等を設定してもよく、閾値の範囲等は任意に設定できる。また、生成部14は、例えば2以上の第1連関度を演算した結果や、2以上の第1連関度の比較に基づいて、推定結果の内容を決定してもよい。 The generation unit 14 determines the content of the estimation result, for example, based on the first degree of association of the evaluation information. For example, the generation unit 14 generates an estimation result based on the reference information associated with the first association degree of "50%" or more, and uses the reference information associated with the first association degree of less than "50%" as the estimation result. It may be set not to reflect. As for the determination criteria based on the first degree of association, for example, the administrator or the like may set a threshold value or the like in advance, and the threshold range or the like can be arbitrarily set. Further, the generation unit 14 may determine the content of the estimation result based on, for example, the result of calculating two or more first association degrees and the comparison of two or more first association degrees.

推定結果は、例えば評価情報を含んでもよい。また、推定結果は、対象情報を含んでもよい。 The estimation result may include, for example, evaluation information. Moreover, the estimation result may include the target information.

<出力部15>
出力部15は、推定結果を出力する。出力部15は、I/F107を介して出力部分109に推定結果を送信するほか、例えばI/F105を介して、ユーザ端末3等に推定結果を送信する。
<Output unit 15>
The output unit 15 outputs the estimation result. The output unit 15 transmits the estimation result to the output unit 109 via the I / F 107, and also transmits the estimation result to the user terminal 3 or the like via, for example, the I / F 105.

出力部15は、例えば推定結果に基づき、推定結果をユーザ端末3に送信するか否かを判定してもよい。判定基準は、例えば管理者等が予め閾値等を設定してもよい。 The output unit 15 may determine whether or not to transmit the estimation result to the user terminal 3, based on, for example, the estimation result. As the determination standard, for example, the administrator or the like may set a threshold value or the like in advance.

<更新部16>
更新部16は、例えば参照データベースを更新する。更新部16は、過去の対象情報と、参照情報との間の関係を新たに取得した場合には、関係を連関度に反映させる。例えば生成部14により生成された推定結果を踏まえて、ユーザがキーボード入力の推定精度を評価し、評価結果を推定装置1が取得した場合、更新部16は、評価結果に基づき参照データベースに含まれる連関度を更新する。
<Update part 16>
The update unit 16 updates, for example, the reference database. When the update unit 16 newly acquires the relationship between the past target information and the reference information, the update unit 16 reflects the relationship in the degree of association. For example, when the user evaluates the estimation accuracy of the keyboard input based on the estimation result generated by the generation unit 14 and the estimation device 1 acquires the evaluation result, the update unit 16 is included in the reference database based on the evaluation result. Update the degree of association.

<サーバ2>
サーバ2には、例えば上述した各種情報が記憶される。サーバ2には、例えば通信網4を介して送られてきた各種情報が蓄積される。サーバ2には、例えば保存部104と同様の情報が記憶され、通信網4を介して推定装置1と各種情報の送受信が行われてもよい。即ち、推定装置1は、保存部104の代わりにサーバ2を用いてもよい。
<Server 2>
For example, the server 2 stores the above-mentioned various information. Various information sent via the communication network 4, for example, is stored in the server 2. For example, the server 2 may store the same information as the storage unit 104, and may send and receive various information to and from the estimation device 1 via the communication network 4. That is, the estimation device 1 may use the server 2 instead of the storage unit 104.

<ユーザ端末3>
ユーザ端末3は、上述した仮想キーボード8を投影する投影部、対象情報を生成するためのカメラを有する。ユーザ端末3として、主に携帯電話(携帯端末)が用いられ、それ以外ではスマートフォン、タブレット型端末、ウェアラブル端末、パーソナルコンピュータ、IoTデバイス等の電子機器のほか、あらゆる電子機器で具現化されたものが用いられてもよい。ユーザ端末3は、例えば通信網4を介して推定装置1と接続されるほか、例えば推定装置1と直接接続されてもよい。ユーザは、例えばユーザ端末3を用いて、推定装置1から推定結果を取得する。なお、ユーザ端末3は、それぞれ独立して設けられた投影部や複数のカメラを含んでもよい。
<User terminal 3>
The user terminal 3 has a projection unit that projects the virtual keyboard 8 described above, and a camera for generating target information. As the user terminal 3, a mobile phone (mobile terminal) is mainly used, and other than that, it is embodied in all electronic devices in addition to electronic devices such as smartphones, tablet terminals, wearable terminals, personal computers, and IoT devices. May be used. The user terminal 3 may be connected to the estimation device 1 via, for example, the communication network 4, or may be directly connected to, for example, the estimation device 1. The user acquires the estimation result from the estimation device 1 by using, for example, the user terminal 3. The user terminal 3 may include a projection unit and a plurality of cameras provided independently of each other.

<通信網4>
通信網4は、例えば推定装置1等が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信網で実現してもよい。
<Communication network 4>
The communication network 4 is, for example, an Internet network or the like to which an estimation device 1 or the like is connected via a communication circuit. The communication network 4 may be composed of a so-called optical fiber communication network. Further, the communication network 4 may be realized by a known communication network such as a wireless communication network in addition to the wired communication network.

(推定システム100の動作の一例)
次に、本実施形態における推定システム100の動作の一例について説明する。図8は、本実施形態における推定システム100の動作の一例を示すフローチャートである。
(Example of operation of estimation system 100)
Next, an example of the operation of the estimation system 100 in this embodiment will be described. FIG. 8 is a flowchart showing an example of the operation of the estimation system 100 in the present embodiment.

<取得手段S110>
図8に示すように、角度情報を含む対象情報を取得する(取得手段S110)。取得部11は、撮影情報に基づく角度情報を含む対象情報を取得する。仮想キーボード8は、例えばユーザ端末3又は推定装置1の投影部により投影される。撮影情報は、例えばユーザ端末3又は推定装置1の有する各種カメラにより生成される。
<Acquisition means S110>
As shown in FIG. 8, the target information including the angle information is acquired (acquisition means S110). The acquisition unit 11 acquires target information including angle information based on shooting information. The virtual keyboard 8 is projected by, for example, a projection unit of the user terminal 3 or the estimation device 1. The shooting information is generated by, for example, various cameras included in the user terminal 3 or the estimation device 1.

取得部11は、撮影情報を取得し、撮影情報から角度情報を取得する。これにより、角度情報を含む対象情報を取得する。取得部11は、例えば記憶部12を介して、対象情報を保存部104に保存する。なお、取得部11は、キーボード情報及び言語情報の少なくとも何れか、を予め取得した上で、画像データ等を取得してもよい。 The acquisition unit 11 acquires the shooting information and acquires the angle information from the shooting information. As a result, the target information including the angle information is acquired. The acquisition unit 11 stores the target information in the storage unit 104, for example, via the storage unit 12. The acquisition unit 11 may acquire image data or the like after acquiring at least one of keyboard information and language information in advance.

取得部11は、撮影情報が生成される度に対象情報として取得するほか、例えば任意の期間に生成された対象情報を取得してもよい。 The acquisition unit 11 may acquire the target information as the target information each time the shooting information is generated, or may acquire the target information generated in an arbitrary period, for example.

取得手段S110は、例えば図3に示すように、撮影情報取得手段S111と、座標データ取得手段S112と、角度情報取得手段S113とを有する。撮影情報取得手段S111では、取得部11は、撮影情報を取得し、例えば三次元カメラを用いて生成された三次元画像データを取得する。座標データ取得手段S112では、取得部11は、撮影情報から座標データを取得するほか、例えば距離計測カメラで生成された座標データを取得してもよい。角度情報取得手段S113では、取得部11は、座標データから角度情報を取得する。角度情報を取得する対象については、指の第1関節を頂点とした角度や、第2関節を頂点とした角度等が用いられ、状況に応じて任意に設定することができる。 As shown in FIG. 3, for example, the acquisition means S110 includes a photographing information acquisition means S111, a coordinate data acquisition means S112, and an angle information acquisition means S113. In the shooting information acquisition means S111, the acquisition unit 11 acquires shooting information, and acquires, for example, three-dimensional image data generated by using a three-dimensional camera. In the coordinate data acquisition means S112, the acquisition unit 11 may acquire the coordinate data from the shooting information, or may acquire the coordinate data generated by, for example, the distance measurement camera. In the angle information acquisition means S113, the acquisition unit 11 acquires the angle information from the coordinate data. As the target for acquiring the angle information, an angle with the first joint of the finger as the apex, an angle with the second joint as the apex, and the like are used, and can be arbitrarily set according to the situation.

取得手段S110は、例えばオプティカルフロー情報取得手段S114を有する。オプティカルフロー情報取得手段S114では、取得部11は、RGBカメラを用いて生成されたRGB画像を取得し、複数のRGB画像からオプティカルフロー情報を取得する。 The acquisition means S110 includes, for example, an optical flow information acquisition means S114. In the optical flow information acquisition means S114, the acquisition unit 11 acquires an RGB image generated by using an RGB camera, and acquires optical flow information from a plurality of RGB images.

<評価手段S120>
次に、参照データベースを参照し、対象情報と、参照情報との間における第1連関度を含む評価情報を取得する(評価手段S120)。評価部13は、取得部11により取得された対象情報を取得し、例えば保存部104に保存された参照データベースを取得する。評価部13は、1つの対象情報に対して1つの評価情報を取得するほか、例えば複数の対象情報に対して1つの評価情報を取得してもよい。評価部13は、例えば記憶部12を介して、評価情報を保存部104に保存する。
<Evaluation means S120>
Next, the reference database is referred to, and evaluation information including the first degree of association between the target information and the reference information is acquired (evaluation means S120). The evaluation unit 13 acquires the target information acquired by the acquisition unit 11, and acquires, for example, the reference database stored in the storage unit 104. The evaluation unit 13 may acquire one evaluation information for one target information, or may acquire one evaluation information for a plurality of target information, for example. The evaluation unit 13 stores the evaluation information in the storage unit 104, for example, via the storage unit 12.

<生成手段S130>
次に、評価情報に基づき推定結果を生成する(生成手段S130)。生成部14は、評価部13により取得された評価情報を取得し、例えば保存部104に保存された出力用フォーマット等の形式データを取得する。生成部14は、1つの評価情報に対して1つの推定結果を取得するほか、例えば複数の評価情報に対して1つの推定結果を取得してもよい。生成部14は、例えば記憶部12を介して推定結果を保存部104に保存する。
<Generation means S130>
Next, an estimation result is generated based on the evaluation information (generation means S130). The generation unit 14 acquires the evaluation information acquired by the evaluation unit 13, and acquires format data such as an output format stored in the storage unit 104, for example. In addition to acquiring one estimation result for one evaluation information, the generation unit 14 may acquire one estimation result for a plurality of evaluation information, for example. The generation unit 14 stores the estimation result in the storage unit 104 via, for example, the storage unit 12.

これにより、例えば出力部15が推定結果をユーザ端末3等に送信、又は出力部分109に出力し、本実施形態における推定システム100の動作が終了する。 As a result, for example, the output unit 15 transmits the estimation result to the user terminal 3 or the like or outputs the estimation result to the output unit 109, and the operation of the estimation system 100 in the present embodiment ends.

<更新手段S140>
なお、例えば過去の対象情報と、参照情報との間の関係を新たに取得した場合には、関係を連関度に反映させてもよい(更新手段S140)。例えば生成部14により生成された推定結果を踏まえて、ユーザがキーボード入力の推定精度を評価し、評価結果を推定装置1が取得した場合、更新部16は、評価結果に基づき参照データベースに含まれる連関度を更新する。
<Update means S140>
In addition, for example, when the relationship between the past target information and the reference information is newly acquired, the relationship may be reflected in the degree of association (update means S140). For example, when the user evaluates the estimation accuracy of the keyboard input based on the estimation result generated by the generation unit 14 and the estimation device 1 acquires the evaluation result, the update unit 16 is included in the reference database based on the evaluation result. Update the degree of association.

これにより、本実施形態における推定システム100の動作が終了してもよい。なお、更新手段S140を実施する場合のタイミングは、任意である。 As a result, the operation of the estimation system 100 in the present embodiment may be completed. The timing when the update means S140 is implemented is arbitrary.

本実施形態によれば、評価手段S120は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the present embodiment, the evaluation means S120 refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、本実施形態によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボード8に対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the present embodiment, the target information includes angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard 8 can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

また、本実施形態によれば、座標データ取得手段S112は、撮影情報から座標データを取得する。また、角度情報取得手段S113は、座標データから角度情報を取得する。このため、評価対象とするデータの容量を削減することができる。これにより、対象情報を保存する際、保存容量の増大を抑制することが可能となる。 Further, according to the present embodiment, the coordinate data acquisition means S112 acquires the coordinate data from the shooting information. Further, the angle information acquisition means S113 acquires angle information from the coordinate data. Therefore, the amount of data to be evaluated can be reduced. As a result, when the target information is stored, it is possible to suppress an increase in the storage capacity.

また、本実施形態によれば、撮影情報は、三次元カメラを用いて生成される三次元画像データを含む。このため、角度情報を取得する際、新たなカメラ等を設けることなく、従来の三次元カメラを利用することができる。これにより、容易にキー入力を推定する環境を整えることが可能となる。 Further, according to the present embodiment, the shooting information includes three-dimensional image data generated by using the three-dimensional camera. Therefore, when acquiring the angle information, a conventional three-dimensional camera can be used without providing a new camera or the like. This makes it possible to easily prepare an environment for estimating key input.

また、本実施形態によれば、対象情報及び過去の対象情報は、オプティカルフロー情報を含む。このため、オプティカルフロー情報と角度情報とを組み合わせることで、ユーザ毎におけるキー入力時の動きを考慮することができる。これにより、キー入力を推定する精度のさらなる向上を図ることが可能となる。 Further, according to the present embodiment, the target information and the past target information include optical flow information. Therefore, by combining the optical flow information and the angle information, it is possible to consider the movement at the time of key input for each user. This makes it possible to further improve the accuracy of estimating the key input.

また、本実施形態によれば、取得手段S110は、複数のRGB画像からオプティカルフロー情報を取得する。このため、オプティカルフロー情報を取得する際、新たなカメラ等を設けることなく、従来のRGBカメラを利用することができる。これにより、容易にキー入力の推定精度を向上させる環境を整えることが可能となる。 Further, according to the present embodiment, the acquisition means S110 acquires optical flow information from a plurality of RGB images. Therefore, when acquiring optical flow information, a conventional RGB camera can be used without providing a new camera or the like. This makes it possible to easily prepare an environment for improving the estimation accuracy of key input.

また、本実施形態によれば、対象情報及び過去の対象情報は、キーボード情報を含む。このため、キー配列等が異なる仮想キーボード8を利用した場合においても、キー入力を高精度に推定することが可能となる。 Further, according to the present embodiment, the target information and the past target information include keyboard information. Therefore, even when a virtual keyboard 8 having a different key layout or the like is used, it is possible to estimate the key input with high accuracy.

また、本実施形態によれば、参照データベースは、機械学習により構築される。このため、画像から算出された押下深度に対する閾値を設定する場合に比べて、主観を除いたキー入力の推定を実現することが可能となる。 Further, according to the present embodiment, the reference database is constructed by machine learning. Therefore, it is possible to estimate the key input excluding the subjectivity as compared with the case of setting the threshold value for the pressing depth calculated from the image.

本実施形態によれば、評価部13は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the present embodiment, the evaluation unit 13 refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、本実施形態によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボード8に対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the present embodiment, the target information includes angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard 8 can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

なお、本実施形態によれば、対象情報及び過去の対象情報は、言語情報を含んでもよい。この場合、ユーザの使用する言語に依存することなく、キー入力を高精度に推定することが可能となる。 According to the present embodiment, the target information and the past target information may include linguistic information. In this case, the key input can be estimated with high accuracy without depending on the language used by the user.

なお、本実施形態によれば、更新手段S140は、過去の対象情報と、参照情報との間の関係を新に取得した場合には、関係を連関度に反映させてもよい。この場合、連関度を容易に更新することができ、継続した推定精度の向上を図ることが可能となる。 According to the present embodiment, when the updating means S140 newly acquires the relationship between the past target information and the reference information, the relationship may be reflected in the degree of association. In this case, the degree of association can be easily updated, and the continuous estimation accuracy can be improved.

なお、本実施形態によれば、画像データは、RGB画像データと、赤外線画像データとを有してもよい。この場合、照明等に起因する撮像環境が異なる場合においても、手の形状等を高精度に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。 According to the present embodiment, the image data may include RGB image data and infrared image data. In this case, even when the imaging environment is different due to lighting or the like, the shape of the hand or the like can be acquired with high accuracy. This makes it possible to further improve the accuracy of estimating the key input.

なお、本実施形態によれば、位置情報は、距離データを有してもよい。この場合、奥行き方向に対する手の位置を容易に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。 In addition, according to this embodiment, the position information may have distance data. In this case, the position of the hand with respect to the depth direction can be easily obtained. This makes it possible to further improve the accuracy of estimating the key input.

なお、本実施形態によれば、投影部、RGBカメラ、赤外線カメラ、及び距離計測カメラは、同一の端末に備え付けられてもよい。この場合、場所を選ばずに仮想キーボード8を利用することが可能となる。 According to the present embodiment, the projection unit, the RGB camera, the infrared camera, and the distance measurement camera may be provided in the same terminal. In this case, the virtual keyboard 8 can be used regardless of the location.

本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

1 :推定装置
2 :サーバ
3 :ユーザ端末
4 :通信網
8 :仮想キーボード
10 :筐体
11 :取得部
12 :記憶部
13 :評価部
14 :生成部
15 :出力部
16 :更新部
100 :推定システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部分
109 :出力部分
110 :内部バス
S110 :取得手段
S120 :評価手段
S130 :生成手段
S140 :更新手段
1: Estimator 2: Server 3: User terminal 4: Communication network 8: Virtual keyboard 10: Housing 11: Acquisition unit 12: Storage unit 13: Evaluation unit 14: Generation unit 15: Output unit 16: Update unit 100: Estimate System 101: CPU
102: ROM
103: RAM
104: Preservation unit 105: I / F
106: I / F
107: I / F
108: Input part 109: Output part 110: Internal bus S110: Acquisition means S120: Evaluation means S130: Generation means S140: Update means

第1発明に係る推定システムは、仮想キーボードを用いて入力された文字列を推定する推定システムであって、ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得手段と、予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記取得手段により取得された前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段と、前記評価情報に基づき推定結果を生成する生成手段と、を備え、前記指の角度は、前記ユーザの指の座標のうち関節部分における座標を中心とした3点以上の座標から算出された角度を示すことを特徴とする。 The estimation system according to the first invention is an estimation system that estimates a character string input by using a virtual keyboard, and is based on shooting information obtained by photographing an action of the user pressing the virtual keyboard, and is based on shooting information of the user's finger. Three or more levels of association between the acquisition means for acquiring the target information including the angle information regarding the angle, the past target information acquired in advance, and the reference information including the character string input by the past target information. An evaluation that refers to the reference database in which is stored and the reference database, and acquires evaluation information including a first degree of association between the target information acquired by the acquisition means and the reference information in three or more stages. A means and a generation means for generating an estimation result based on the evaluation information are provided , and the angle of the finger is calculated from the coordinates of three or more points centered on the coordinates at the joint portion of the coordinates of the user's finger. It is characterized by showing an angle .

発明に係る推定システムは、第1発明〜第発明の何れかにおいて、前記対象情報及び前記過去の対象情報は、前記仮想キーボードの種類を示すキーボード情報を含むことを特徴とする。 The estimation system according to the fifth invention is characterized in that, in any one of the first to fourth inventions, the target information and the past target information include keyboard information indicating the type of the virtual keyboard.

発明に係る推定システムは、第1発明〜第発明の何れかにおいて、前記参照データベースは、機械学習により構築されたものであることを特徴とする。 The estimation system according to the sixth invention is characterized in that, in any one of the first to fifth inventions, the reference database is constructed by machine learning.

発明に係る推定装置は、仮想キーボードを用いて入力された文字列を推定する推定装置であって、ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得部と、予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記取得部により取得された前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価部と、前記評価情報に基づき推定結果を生成する生成部と、を備え、前記指の角度は、前記ユーザの指の座標のうち関節部分における座標を中心とした3点以上の座標から算出された角度を示すことを特徴とする。 The estimation device according to the seventh invention is an estimation device that estimates a character string input by using a virtual keyboard, and is based on shooting information obtained by photographing an action of the user pressing the virtual keyboard, and is a finger of the user. Three or more levels of association between the acquisition unit that acquires the target information including the angle information related to the angle, the past target information acquired in advance, and the reference information including the character string input by the past target information. An evaluation that refers to the reference database in which is stored and the reference database, and acquires evaluation information including a first degree of association between the target information acquired by the acquisition unit and the reference information in three or more stages. A unit and a generation unit that generates an estimation result based on the evaluation information are provided , and the angle of the finger is calculated from three or more points of the coordinates of the user's finger centered on the coordinates at the joint portion. It is characterized by showing an angle .

第1発明〜第発明によれば、評価手段は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the first to sixth inventions, the evaluation means refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、第1発明〜第発明によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボードに対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the first to sixth inventions, the target information includes the angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

また、第発明によれば、対象情報及び過去の対象情報は、キーボード情報を含む。このため、キー配列等が異なる仮想キーボードを利用した場合においても、キー入力を高精度に推定することが可能となる。 Further, according to the fifth invention, the target information and the past target information include keyboard information. Therefore, even when a virtual keyboard having a different key layout or the like is used, it is possible to estimate the key input with high accuracy.

また、第発明によれば、参照データベースは、機械学習により構築される。このため、画像から算出された押下深度に対する閾値を設定する場合に比べて、主観を除いたキー入力の推定を実現することが可能となる。 Further, according to the sixth invention, the reference database is constructed by machine learning. Therefore, it is possible to estimate the key input excluding the subjectivity as compared with the case of setting the threshold value for the pressing depth calculated from the image.

発明によれば、評価部は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。 According to the seventh invention, the evaluation unit refers to the reference database and acquires the evaluation information including the first degree of association between the target information and the reference information in three or more stages. Therefore, it is possible to generate an estimation result based on the past results, and it is possible to estimate the key input in consideration of the variation in the pressing depth. This makes it possible to improve the accuracy of estimating the key input.

また、第発明によれば、対象情報は、角度情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、ユーザ毎に異なる手の特徴に関わらず、仮想キーボードに対する手の位置関係を容易に取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。 Further, according to the seventh invention, the target information includes angle information. Therefore, as compared with the case of calculating the position of the hand from one image, the positional relationship of the hand with respect to the virtual keyboard can be easily acquired regardless of the characteristics of the hand that are different for each user. This makes it possible to acquire the information necessary for estimating the key input with high accuracy.

Claims (8)

仮想キーボードを用いて入力された文字列を推定する推定システムであって、
ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得手段と、
予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、
前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段と、
前記評価情報に基づき推定結果を生成する生成手段と、
を備えることを特徴とする推定システム。
An estimation system that estimates the character string entered using a virtual keyboard.
An acquisition means for acquiring target information including angle information regarding the angle of the user's finger based on shooting information obtained by photographing the operation of the user pressing the virtual keyboard.
A reference database that stores three or more levels of association between the past target information acquired in advance and the reference information including the character string input by the past target information.
An evaluation means that refers to the reference database and acquires evaluation information including the first degree of association between the target information and the reference information in three or more stages.
A generation means for generating an estimation result based on the evaluation information, and
An estimation system characterized by being equipped with.
前記取得手段は、
前記撮影情報を取得する撮影情報取得手段と、
前記撮影情報から前記ユーザの指の座標データを取得する座標データ取得手段と、
前記座標データから前記角度情報を取得する角度情報取得手段と、
を有すること
を特徴とする請求項1記載の推定システム。
The acquisition means
A shooting information acquisition means for acquiring the shooting information and
A coordinate data acquisition means for acquiring the coordinate data of the user's finger from the shooting information, and
An angle information acquisition means for acquiring the angle information from the coordinate data,
The estimation system according to claim 1, wherein the estimation system is characterized by having.
前記撮影情報は、三次元カメラを用いて生成される三次元画像データを含み、
前記座標データ取得手段は、前記三次元画像データから前記座標データを取得すること
を特徴とする請求項2記載の推定システム。
The shooting information includes three-dimensional image data generated by using a three-dimensional camera.
The estimation system according to claim 2, wherein the coordinate data acquisition means acquires the coordinate data from the three-dimensional image data.
前記対象情報及び前記過去の対象情報は、前記ユーザの指の動きを示すオプティカルフロー情報を含むこと
を特徴とする請求項1〜3の何れか1項記載の推定システム。
The estimation system according to any one of claims 1 to 3, wherein the target information and the past target information include optical flow information indicating the movement of the user's finger.
前記撮影情報は、RGBカメラを用いて生成されるRGB画像を含み、
前記取得手段は、複数の前記RGB画像から前記オプティカルフロー情報を取得するオプティカルフロー情報取得手段を有すること
を特徴とする請求項4記載の推定システム。
The shooting information includes an RGB image generated by using an RGB camera.
The estimation system according to claim 4, wherein the acquisition means includes an optical flow information acquisition means for acquiring the optical flow information from a plurality of the RGB images.
前記対象情報及び前記過去の対象情報は、前記仮想キーボードの種類を示すキーボード情報を含むこと
を特徴とする請求項1〜5の何れか1項記載の推定システム。
The estimation system according to any one of claims 1 to 5, wherein the target information and the past target information include keyboard information indicating the type of the virtual keyboard.
前記参照データベースは、機械学習により構築されたものであること
を特徴とする請求項1〜6の何れか1項記載の推定システム。
The estimation system according to any one of claims 1 to 6, wherein the reference database is constructed by machine learning.
仮想キーボードを用いて入力された文字列を推定する推定装置であって、
ユーザが前記仮想キーボードを押下する動作を撮影した撮影情報に基づき、前記ユーザの指の角度に関する角度情報を含む対象情報を取得する取得部と、
予め取得された過去の対象情報と、前記過去の対象情報によって入力された文字列を含む参照情報との間における3段階以上の連関度が記憶された参照データベースと、
前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価部と、
前記評価情報に基づき推定結果を生成する生成部と、
を備えることを特徴とする推定装置。
An estimation device that estimates a character string input using a virtual keyboard.
An acquisition unit that acquires target information including angle information regarding the angle of the user's finger based on shooting information obtained by photographing the operation of the user pressing the virtual keyboard.
A reference database that stores three or more levels of association between the past target information acquired in advance and the reference information including the character string input by the past target information.
An evaluation unit that refers to the reference database and acquires evaluation information including the first degree of association between the target information and the reference information in three or more stages.
A generator that generates an estimation result based on the evaluation information,
An estimation device characterized by comprising.
JP2019078124A 2019-04-16 2019-04-16 Estimation system and estimation apparatus Active JP6614545B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019078124A JP6614545B1 (en) 2019-04-16 2019-04-16 Estimation system and estimation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078124A JP6614545B1 (en) 2019-04-16 2019-04-16 Estimation system and estimation apparatus

Publications (2)

Publication Number Publication Date
JP6614545B1 JP6614545B1 (en) 2019-12-04
JP2020177363A true JP2020177363A (en) 2020-10-29

Family

ID=68763484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078124A Active JP6614545B1 (en) 2019-04-16 2019-04-16 Estimation system and estimation apparatus

Country Status (1)

Country Link
JP (1) JP6614545B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133835A (en) * 2005-11-14 2007-05-31 Sharp Corp Virtual key input device, information terminal device, charger for information terminal device, and program
JP2009064375A (en) * 2007-09-10 2009-03-26 Sanyo Electric Co Ltd Projection image display device
JP2009146333A (en) * 2007-12-18 2009-07-02 Panasonic Corp Spatial input operation display apparatus
WO2012056864A1 (en) * 2010-10-28 2012-05-03 Wada Yoshihiro Input device, information apparatus provided with the input device, program for causing computer to function as input device, and method for using the input device to input characters
US20130265218A1 (en) * 2012-02-24 2013-10-10 Thomas J. Moscarillo Gesture recognition devices and methods
JP2014179032A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Virtual key input device
JP6510134B1 (en) * 2018-11-13 2019-05-08 クリスタルメソッド株式会社 Estimation system and estimation apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133835A (en) * 2005-11-14 2007-05-31 Sharp Corp Virtual key input device, information terminal device, charger for information terminal device, and program
JP2009064375A (en) * 2007-09-10 2009-03-26 Sanyo Electric Co Ltd Projection image display device
JP2009146333A (en) * 2007-12-18 2009-07-02 Panasonic Corp Spatial input operation display apparatus
WO2012056864A1 (en) * 2010-10-28 2012-05-03 Wada Yoshihiro Input device, information apparatus provided with the input device, program for causing computer to function as input device, and method for using the input device to input characters
US20130265218A1 (en) * 2012-02-24 2013-10-10 Thomas J. Moscarillo Gesture recognition devices and methods
JP2014179032A (en) * 2013-03-15 2014-09-25 Ricoh Co Ltd Virtual key input device
JP6510134B1 (en) * 2018-11-13 2019-05-08 クリスタルメソッド株式会社 Estimation system and estimation apparatus

Also Published As

Publication number Publication date
JP6614545B1 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
US11379287B2 (en) System and method for error detection and correction in virtual reality and augmented reality environments
JP5773944B2 (en) Information processing apparatus and information processing method
CN106845335B (en) Gesture recognition method and device for virtual reality equipment and virtual reality equipment
US20180253593A1 (en) Virtual reality-based apparatus and method to generate a three dimensional (3d) human face model using image and depth data
JP2021192250A (en) Real time 3d capture using monocular camera and method and system for live feedback
KR101737725B1 (en) Content creation tool
TW201814438A (en) Virtual reality scene-based input method and device
JP6013642B2 (en) Campaign optimization for experience content datasets
WO2023071964A1 (en) Data processing method and apparatus, and electronic device and computer-readable storage medium
US20210201002A1 (en) Moving image distribution computer program, server device, and method
US10713850B2 (en) System for reconstructing three-dimensional (3D) human body model using depth data from single viewpoint
KR20160138062A (en) Eye gaze tracking based upon adaptive homography mapping
JP2022510843A (en) Multimode hand location and orientation for avatar movement
US11069115B2 (en) Method of controlling display of avatar and electronic device therefor
US11422626B2 (en) Information processing device, and information processing method, for outputting sensory stimulation to a user
JP6495538B2 (en) Image content search
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
EP4191540A1 (en) 3d data system and 3d data generation method
JP6510134B1 (en) Estimation system and estimation apparatus
US10621788B1 (en) Reconstructing three-dimensional (3D) human body model based on depth points-to-3D human body model surface distance
JP6614545B1 (en) Estimation system and estimation apparatus
JP2023009344A (en) Generation method, information processing apparatus, program, and information processing system
EP3479204B1 (en) User tracking for use in virtual reality
TW201547275A (en) Depth camera system
US20230290101A1 (en) Data processing method and apparatus, electronic device, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190416

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190416

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191025

R150 Certificate of patent or registration of utility model

Ref document number: 6614545

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250