JP2020080049A - 推定システム、及び推定装置 - Google Patents

推定システム、及び推定装置 Download PDF

Info

Publication number
JP2020080049A
JP2020080049A JP2018213023A JP2018213023A JP2020080049A JP 2020080049 A JP2020080049 A JP 2020080049A JP 2018213023 A JP2018213023 A JP 2018213023A JP 2018213023 A JP2018213023 A JP 2018213023A JP 2020080049 A JP2020080049 A JP 2020080049A
Authority
JP
Japan
Prior art keywords
information
target information
estimation
moving image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018213023A
Other languages
English (en)
Other versions
JP6510134B1 (ja
Inventor
継 河合
Kei Kawai
継 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crystal Method Co Ltd
Original Assignee
Crystal Method Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Crystal Method Co Ltd filed Critical Crystal Method Co Ltd
Priority to JP2018213023A priority Critical patent/JP6510134B1/ja
Application granted granted Critical
Publication of JP6510134B1 publication Critical patent/JP6510134B1/ja
Publication of JP2020080049A publication Critical patent/JP2020080049A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】キー入力を推定する精度の向上を図ることができる推定システム、及び推定装置を提供する。【解決手段】仮想キーボードを用いて入力された文字列を推定する推定システムは、ユーザが仮想キーボードを押下する動作を撮影した動画データ、及び動画データにおけるユーザの手の位置情報を含む対象情報を取得する取得手段S110と、予め取得された過去の対象情報、過去の対象情報によって入力された文字列を含む参照情報、及び、過去の対象情報と参照情報との間における3段階以上の連関度が記憶された参照データベースと、参照データベースを参照し、対象情報と参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段S120と、評価情報に基づき推定結果を生成する生成手段S130と、を備える。【選択図】図7

Description

本発明は、仮想キーボードを用いて入力された文字列を推定する推定システム、及び推定装置に関する。
従来、物理的なキーボードを用いずに、キー入力を制御する技術として、例えば特許文献1の情報処理装置等が提案されている。
特許文献1では、手を撮影する撮影部により入力される画像から手領域を抽出する抽出部と、手領域に基づき、画像内の所定線を押下基準線に決定する基準線決定部と、手領域の最下部が押下基準線を超える場合に押下と判定する判定部と、判定部により押下と判定された場合の手領域の縦横比に基づき、奥行き方向の位置を決定する第1位置決定部と、判定部により押下と判定された場合の手領域の最下部の位置に基づき、横方向の位置を決定する第2位置決定部と、決定された奥行き方向の位置及び横方向の位置により入力キーを決定する入力キー決定部と、を備える情報処理装置が開示されている。
国際公開第2012/176315号
ここで、例えば特許文献1のような情報処理装置では、1台のカメラによる1方向からの撮影画像に基づき、閾値によって入力コマンドが推定される。このため、閾値に応じたキー入力を行う必要があり、押下深度のバラつきを考慮できない懸念があり、キー入力の推定精度を向上させることが難しい。従って、キー入力を推定する精度の向上が課題として挙げられる。
そこで本発明は、上述した問題点に鑑みて案出されたものであり、その目的とするところは、キー入力を推定する精度の向上を図ることができる推定システム、及び推定装置を提供することにある。
第1発明に係る推定システムは、仮想キーボードを用いて入力された文字列を推定する推定システムであって、ユーザが前記仮想キーボードを押下する動作を撮影した動画データ、及び前記動画データにおけるユーザの手の位置情報を含む対象情報を取得する取得手段と、予め取得された過去の対象情報、前記過去の対象情報によって入力された文字列を含む参照情報、及び、前記過去の対象情報と前記参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段と、前記評価情報に基づき推定結果を生成する生成手段と、を備えることを特徴とする。
第2発明に係る推定システムは、第1発明において、前記動画データは、可視光領域に対応するRGBカメラを用いて生成されたRGB動画データと、赤外光領域に対応する赤外線カメラを用いて生成された赤外線動画データと、を有することを特徴とする。
第3発明に係る推定システムは、第2発明において、前記位置情報は、対象物との離間距離を計測する距離計測カメラを用いて生成され、前記距離計測カメラと、前記ユーザの手との間の距離を示す距離データを有することを特徴とする。
第4発明に係る推定システムは、第3発明において、前記仮想キーボードを投影する投影部、前記RGBカメラ、前記赤外線カメラ、及び前記距離計測カメラは、同一の端末に備え付けられることを特徴とする。
第5発明に係る推定システムは、第1発明〜第4発明の何れかにおいて、前記対象情報及び前記過去の対象情報は、前記仮想キーボードの種類を示すキーボード情報を含むことを特徴とする。
第6発明に係る推定システムは、第1発明〜第5発明の何れかにおいて、前記対象情報及び前記過去の対象情報は、言語情報を含むことを特徴とする。
第7発明に係る推定システムは、第1発明〜第6発明の何れかにおいて、前記参照データベースは、機械学習により構築されたものであることを特徴とする。
第8発明に係る推定システムは、第1発明〜第7発明の何れかにおいて、前記過去の対象情報と、前記参照情報との間の関係を新たに取得した場合には、前記関係を前記連関度に反映させる更新手段をさらに備えることを特徴とする。
第9発明に係る推定装置は、仮想キーボードを用いて入力された文字列を推定する推定装置であって、ユーザが前記仮想キーボードを押下する動作を撮影した動画データ、及び前記動画データにおけるユーザの手の位置情報を含む対象情報を取得する取得部と、予め取得された過去の対象情報、前記過去の対象情報によって入力された文字列を含む参照情報、及び、前記過去の対象情報と前記参照情報との間における3段階以上の連関度が記憶された参照データベースと、前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価部と、前記評価情報に基づき推定結果を生成する生成部と、を備えることを特徴とする。
第1発明〜第8発明によれば、評価手段は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。
また、第1発明〜第8発明によれば、対象情報は、動画データ及び位置情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、仮想キーボードに対する手の詳細な位置関係を取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。
また、第2発明によれば、動画データは、RGB動画データと、赤外線動画データとを有する。このため、照明等に起因する撮像環境が異なる場合においても、手の形状等を高精度に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。
また、第3発明によれば、位置情報は、距離データを有する。このため、奥行き方向に対する手の位置を容易に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。
また、第4発明によれば、投影部、RGBカメラ、赤外線カメラ、及び距離計測カメラは、同一の端末に備え付けられる。このため、場所を選ばずに仮想キーボードを利用することが可能となる。
また、第5発明によれば、対象情報及び過去の対象情報は、キーボード情報を含む。このため、キー配列等が異なる仮想キーボードを利用した場合においても、キー入力を高精度に推定することが可能となる。
また、第6発明によれば、対象情報及び過去の対象情報は、言語情報を含む。このため、ユーザの使用する言語に依存することなく、キー入力を高精度に推定することが可能となる。
また、第7発明によれば、参照データベースは、機械学習により構築される。このため、画像から算出された押下深度に対する閾値を設定する場合に比べて、主観を除いたキー入力の推定を実現することが可能となる。
また、第8発明によれば、更新手段は、過去の対象情報と、参照情報との間の関係を新に取得した場合には、関係を連関度に反映させる。このため、連関度を容易に更新することができ、継続した推定精度の向上を図ることが可能となる。
第9発明によれば、評価部は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。
また、第9発明によれば、対象情報は、動画データ及び位置情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、仮想キーボードに対する手の詳細な位置関係を取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。
図1(a)は、本実施形態における推定システムの一例を示す模式図であり、図1(b)は、本実施形態における推定システムの他の例を示す模式図である。 図2は、推定システムの動作の一例を示す模式図である。 図3(a)は、本実施形態における推定装置の構成の一例を示す模式図であり、図3(b)は、本実施形態における推定装置の機能の一例を示す模式図である。 図4は、本実施形態における参照データベースの一例を示す模式図である。 図5は、本実施形態における参照データベースの第1変形例を示す模式図である。 図6は、本実施形態における参照データベースの第2変形例を示す模式図である。 図7は、本実施形態における推定システムの動作の一例を示すフローチャートである。
以下、本発明を適用した実施形態における推定システム、及び推定装置の一例について、図面を参照しながら説明する。
図1を参照して、本実施形態における推定システム100、及び推定装置1の一例について説明する。
本実施形態における推定システム100は、例えば図1(a)に示すように、推定装置1を有する。推定装置1は、例えば通信網4を介して、ユーザ端末3に接続される。推定システム100は、仮想キーボード8を用いて入力された文字列を推定する。推定システム100では、ユーザ端末3によって仮想キーボード8が投影されるほか、例えば図1(b)に示すように、推定装置1によって仮想キーボード8が投影されてもよく、他の端末等によって仮想キーボード8が投影されてもよい。
推定システム100では、例えば図2に示すように、推定装置1が対象情報を取得し、対象情報に対する推定結果を生成するものである。対象情報は、ユーザが仮想キーボード8を押下する動作を撮影した動画データ、及び動画データにおけるユーザの手の位置情報を含む。対象情報は、ユーザ端末3によって生成されるほか、例えば推定装置1によって生成されてもよい。
動画データは、ユーザ端末3又は推定装置1に設けられた公知のカメラを用いて生成されるほか、ユーザ端末3又は推定装置1とは独立した公知のカメラを用いて生成されてもよい。動画データは、少なくとも1つのキーを押下する前後におけるユーザの手の動きを撮像した動画を示す。動画データは、ユーザの手首から指先までの動きを撮像した動画のほか、例えば少なくともユーザの指先の動きを撮像した動画であればよい。動画データは、例えば仮想キーボード8の形状、投影サイズ、キー高さ、キー配列等のキーボードに関する情報(後述するキーボード情報と同等)を含む。
動画データは、例えばRGB動画データと、赤外線動画データとを有する。RGB動画データは、可視光領域(例えば400nm以上800nm以下)に対応するRGBカメラを用いて生成される。赤外線動画データは、赤外光領域(例えば800nm以上1,000μm以下)に対応する赤外線カメラを用いて生成される。RGB動画データ及び赤外線動画データは、例えば可視光領域から赤外光領域まで対応する1つのマルチスペクトルカメラを用いて生成されてもよい。
位置情報は、対象物との離間距離を計測する公知の距離計測カメラを用いて生成される。位置情報は、ユーザ端末3又は推定装置1に設けられた距離計測カメラを用いて生成されるほか、ユーザ端末3又は推定装置1とは独立した距離計測カメラを用いて生成されてもよい。
位置情報は、距離計測カメラと、動画データによって撮像されたユーザの手(対象物)との間の距離を示す距離データを有する。距離データは、距離計測カメラと、予め設定されたユーザの手の少なくとも一ヶ所との間の距離を示す。距離データは、例えば距離計測カメラと、ユーザの指先毎との間の距離を示してもよい。なお、ユーザの指先は、仮想キーボード8に接触すると想定される部分を示し、例えば右手の指先及び左手の指先に対応する合計10ヶ所が、距離データの対象となる。
距離データは、例えば動画データの撮影と同様の期間に生成される。距離データは、例えば仮想キーボード8をユーザが押下する前後の期間のみ生成されてもよい。距離データは、数値データとして生成され、ベクトル又は行列で示されてもよい。
位置情報は、例えば座標データを有してもよい。座標データは、例えば距離計測カメラの位置を基準としたx軸、y軸、z軸を用いた座標空間により示される。位置情報は、距離情報と同様に、ユーザの手の少なくとも一ヶ所の座標を示し、例えばユーザの指先毎の座標を示してもよい。座標データは、例えば動画データの撮影と同様の期間に生成される。座標データは、例えば仮想キーボード8をユーザが押下する前後の期間のみ生成されてもよい。座標データは、数値データとして生成され、ベクトル又は行列で示されてもよい。
なお、上述した仮想キーボード8を投影する投影部、RGBカメラ、赤外線カメラ、及び距離計測カメラは、同一の端末(例えば推定装置1又はユーザ端末3)に備え付けられてもよい。また、上述した動画データ及び位置情報は、Kinect(登録商標)やマルチスペクトルカメラ等の公知のカメラを用いて生成されてもよく、この場合、例えば2眼以上のカメラが用いられてもよい。
対象情報は、例えばキーボード情報を含んでもよい。キーボード情報は、ユーザが用いる仮想キーボード8の種類を示す。キーボード情報は、仮想キーボード8の投影サイズのほか、例えばキーの配列、各キーの大きさ、キー高さ等を含む。
対象情報は、例えば言語情報を含んでもよい。言語情報は、ユーザが仮想キーボード8を用いて入力する言語の種類を示す。推定システム100では、言語情報に基づき、入力した文字列を推定してもよい。この場合、ユーザの使用する言語に依存することなく、キー入力を高精度に推定することが可能となる。また、タイプミス等を考慮した推定結果を生成することができる。
推定結果は、ユーザが仮想キーボード8を押下したときの入力キーに対応する内容を推定した結果を示す。推定結果として、文字列が生成されるほか、例えば推定装置1又はユーザ端末3の制御コマンドが生成される。推定システム100では、対象情報に含まれる情報の種類を多くすることで、推定結果の精度を向上させることができる。特に、動画データと位置情報との組み合わせにより、ユーザの指の動きを高精度に捉えることが可能となる。
(推定装置1)
次に、図3を参照して、本実施形態における推定装置1の一例を説明する。図3(a)は、本実施形態における推定装置1の構成の一例を示す模式図であり、図3(b)は、本実施形態における推定装置1の機能の一例を示す模式図である。
推定装置1として、例えばパーソナルコンピュータ(PC)等の電子機器が用いられるほか、例えばスマートフォン、タブレット型端末、ウェアラブル端末、IoT(Internet of Things)デバイス等の電子機器、Raspberry Pi(登録商標)等のシングルボードコンピュータが用いられてもよい。推定装置1は、例えば図3(a)に示すように、筐体10と、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、保存部104と、I/F105〜107とを備える。各構成101〜107は、内部バス110により接続される。
CPU101は、推定装置1全体を制御する。ROM102は、CPU101の動作コードを格納する。RAM103は、CPU101の動作時に使用される作業領域である。保存部104は、音データ等の各種情報が記憶される。保存部104として、例えばHDD(Hard Disk Drive)の他、SSD(solid state drive)やフロッピーディスク等のデータ保存装置が用いられる。なお、例えば推定装置1は、図示しないGPU(Graphics Processing Unit)を有してもよい。GPUを有することで、通常よりも高速演算処理が可能となる。
I/F105は、インターネット等の通信網4を介して、ユーザ端末3やサーバ2等との各種情報の送受信を行うためのインターフェースである。I/F106は、入力部分108との情報の送受信を行うためのインターフェースである。入力部分108として、例えばキーボードが用いられ、推定装置1の管理者等は、入力部分108を介して、各種情報又は推定装置1の制御コマンド等を入力する。I/F107は、出力部分109との各種情報の送受信を行うためのインターフェースである。出力部分109は、保存部104に保存された各種情報、又は推定装置1の処理状況等を出力する。出力部分109として、ディスプレイが用いられ、例えばタッチパネル式でもよい。
なお、例えば出力部分109が、仮想キーボード8を投影する投影部を有する場合、入力部分108は、対象情報を生成するための各種カメラ(例えば上述したRGBカメラ、赤外線カメラ、及び距離計測カメラ)を有してもよい。また、推定装置1としてスマートフォンやタブレット等の端末が用いられる場合、備え付けられた公知の投影装置(投影部)が、出力部分109の一部として用いられ、備え付けられた公知のカメラ(撮像部)が、入力部分108の一部として用いられてもよい。
<参照データベース>
保存部104には、予め取得された過去の対象情報、参照情報、及び連関度が記憶された参照データベースが保存される。過去の対象情報は、上述した対象情報と同種の情報を示し、過去の画像データと、過去の位置情報とを含み、例えば過去のキーボード情報を含んでもよい。参照情報は、過去の対象情報によって入力された文字列を含み、例えば推定装置1又はユーザ端末3の制御コマンドを含む。連関度は、過去の対象情報と、参照情報との関係の度合いを示す。
参照データベースには、例えば図4に示すように、過去の対象情報と参照情報との間における3段階以上の連関度が記憶される。連関度は、例えば百分率、10段階、又は5段階等の3段階以上で示され、例えば線の特徴(例えば太さ等)で示される。参照データベースは、例えば過去の対象情報及び参照情報を用いて、連関度を算出できるアルゴリズムで形成される。過去の対象情報及び参照情報は、複数のデータを有し、各過去の対象情報と各参照情報との関係は、それぞれ連関度で紐づいている。
例えば、過去の対象情報に含まれる「情報A」は、参照情報に含まれる「参照A」との間の連関度「80%」を示し、参照情報に含まれる「参照B」との間の連関度「15%」を示す。すなわち、「連関度」は、各データ間における繋がりの度合いを示しており、連関度が高いほど、各データの繋がりが強いことを示す。
なお、過去の対象情報は、映像データ(経時変化を示す複数の画像データでもよい)や文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。また、参照情報は、文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列(ベクトル)、又はヒストグラム等の形式で記憶されてもよい。すなわち、図4に示した「情報A」、「情報B」、「情報C」は、過去に取得された対象情報(例えばRGB動画データ、赤外線動画データ、距離データ、座標データ、及びキーボード情報の少なくとも何れか)を、映像データの形式や行列等の形式で記憶されたデータを示し、「参照A」、「参照B」、「参照C」は、過去に取得された推定結果に対応する文字列の形式や行列等の形式で記憶されたデータを示す。
参照データベースは、例えば機械学習を用いて構築される。この場合連関度は、機械学習を用いて算出される。機械学習には、例えば深層学習が用いられる。参照データベースは、例えばニューラルネットワークで構築され、その場合、連関度は隠れ層及び重み変数で示されてもよい。すなわち、推定システム100では、機械学習により構築された参照データベースを用いることができ、この場合、それぞれ複数のデータを有する過去の対象情報と、参照情報との間における複雑な関係性を、連関度により高精度に示すことができる。これにより、推定結果の精度を向上させることが可能となる。
過去の対象情報は、例えば図5に示すように、過去の動画データと、過去の位置情報とを分割して、参照データベースに記憶されてもよい。この場合、過去の動画データ及び過去の位置情報の組み合わせと、参照情報との間の関係に基づいて、連関度が算出される。
例えば、過去の動画データに含まれる「動画A」、及び過去の位置情報に含まれる「位置A」の組み合わせは、「参照A」との間の連関度「90%」を示し、「参照B」との間の連関度「20%」を示す。この場合、過去の動画データ及び過去の位置情報をそれぞれ独立してデータを記憶させることができる。このため、推定結果を生成する際、精度の向上及び選択肢の範囲を拡大させることが可能となる。
なお、過去の動画データは、例えば過去のRGB動画データと、過去の赤外線動画データとを分割して、参照データベースに記憶されてもよい。また、過去の位置情報は、例えば過去の距離データと、過去の座標データとを分割して、参照データベースに記憶されてもよい。
過去の対象情報は、例えば図6に示すように、合成データと、類似度とを含んでもよい。合成データは、過去の動画データ又は過去の位置情報との間における3段階以上の類似度により示される。合成データは、映像データや文字列等の形式で参照データベースに記憶されるほか、例えば数値、行列、又はヒストグラム等の形式で記憶されてもよい。
図3(b)は、推定装置1の機能の一例を示す模式図である。推定装置1は、取得部11と、記憶部12と、評価部13と、生成部14と、出力部15とを備え、例えば更新部16を有してもよい。なお、図3(b)に示した各機能は、CPU101が、RAM103を作業領域として、保存部104等に記憶されたプログラムを実行することにより実現され、例えば人工知能により制御されてもよい。
<取得部11>
取得部11は、対象情報を取得する。取得部11は、通信網4及びI/F105を介して、ユーザ端末3等の外部端末から対象情報を取得するほか、例えば入力部分108の有する撮像部(例えば上述したRGBカメラ、赤外線カメラ、及び距離計測カメラの少なくとも何れか)から、対象情報を取得する。取得部11は、動画データ及び位置情報を別個に取得した上で対象情報として取得するほか、例えば動画データ及び位置情報を対象情報として一括して取得してもよい。取得部11が対象情報を取得する頻度及び周期は、任意である。
取得部11は、推定装置1に送信された各種情報を受信する。取得部11は、通信網4及びI/F105を介して、ユーザ端末3等の外部端末から送信された対象情報等の各種情報を受信する。
<記憶部12>
記憶部12は、保存部104に保存された参照データベース等の各種情報を必要に応じて取出す。記憶部12は、各構成11、13〜16により取得又は生成された各種情報を、保存部104に保存する。
<評価部13>
評価部13は、参照データベースを参照し、対象情報と、参照情報との間の第1連関度を含む評価情報を取得する。評価部13は、例えば図4に示した参照データベースを参照した場合、対象情報に含まれる情報と同一又は類似する過去の対象情報(例えば「情報A」:過去の第1対象情報とする)を選択する。過去の対象情報として、対象情報と一部一致又は完全一致する情報が選択されるほか、例えば類似(同一概念等を含む)する情報が選択される。対象情報が行列等の数値で表される場合、選択される過去の対象情報に含まれる数値範囲を、予め設定してもよい。
評価部13は、選択した過去の第1対象情報に紐づく参照情報、及び選択した過去の対象情報と参照情報との間における連関度(第1連関度)を選択し、評価情報として取得する。なお、第1連関度は、連関度から一部が選択されるほか、評価部13によって算出されてもよい。
例えば評価部13は、第1対象情報「情報A」に紐づく参照情報「参照A」、及び「情報A」と「参照A」との間における第1連関度「80%」を選択し、評価情報として取得する。なお、参照情報及び第1連関度は、複数のデータを含んでもよい。この場合、上述した「参照A」及び「80%」に加えて、第1対象情報「情報A」に紐づく参照情報「参照B」、及び「情報A」と「参照B」との間における第1連関度「15%」を選択し、「参照A」及び「80%」、並びに、「参照B」及び「15%」を評価情報として取得してもよい。
評価情報は、対象情報を含んでもよい。また、第1連関度は、例えば百分率等の3段階以上で示される。例えば参照データベースがニューラルネットワークで構成される場合、第1連関度は、選択された過去の評価対象情報に紐づく重み変数を示す。
<生成部14>
生成部14は、評価情報に基づき、推定結果を生成する。生成部14は、例えば予め保存部104等に記憶された出力用フォーマット等の形式データを用いて、評価結果として取得された情報に基づき、ユーザが理解できる形式(例えば文字列)に変換し、変換した情報を評価結果として生成する。
生成部14は、例えば図2に示すように、「○○さんこんにちは。」等の推定される文字列を含む推定結果を生成する。生成部14は、例えば推定装置1又はユーザ端末3を制御する制御情報を含む推定結果を生成してもよい。なお、推定結果を生成する際における形式の設定、及び評価情報から推定結果への変換方法は、例えば公知の技術(例えば人工知能技術)を用いてもよい。
生成部14は、例えば評価情報の第1連関度に基づいて、推定結果の内容を決定する。例えば生成部14は、「50%」以上の第1連関度に紐づく参照情報に基づいて、推定結果を生成し、「50%」未満の第1連関度に紐づく参照情報を推定結果に反映しないように設定されてもよい。なお、第1連関度に基づく判定基準は、例えば管理者等が予め閾値等を設定してもよく、閾値の範囲等は任意に設定できる。また、生成部14は、例えば2以上の第1連関度を演算した結果や、2以上の第1連関度の比較に基づいて、推定結果の内容を決定してもよい。
推定結果は、例えば評価情報を含んでもよい。また、推定結果は、対象情報を含んでもよい。
<出力部15>
出力部15は、推定結果を出力する。出力部15は、I/F107を介して出力部分109に推定結果を送信するほか、例えばI/F105を介して、ユーザ端末3等に推定結果を送信する。
出力部15は、例えば推定結果に基づき、推定結果をユーザ端末3に送信するか否かを判定してもよい。判定基準は、例えば管理者等が予め閾値等を設定してもよい。
<更新部16>
更新部16は、例えば参照データベースを更新する。更新部16は、過去の対象情報と、参照情報との間の関係を新たに取得した場合には、関係を連関度に反映させる。例えば生成部14により生成された推定結果を踏まえて、ユーザがキーボード入力の推定精度を評価し、評価結果を推定装置1が取得した場合、更新部16は、評価結果に基づき参照データベースに含まれる連関度を更新する。
<サーバ2>
サーバ2には、例えば上述した各種情報が記憶される。サーバ2には、例えば通信網4を介して送られてきた各種情報が蓄積される。サーバ2には、例えば保存部104と同様の情報が記憶され、通信網4を介して推定装置1と各種情報の送受信が行われてもよい。即ち、推定装置1は、保存部104の代わりにサーバ2を用いてもよい。
<ユーザ端末3>
ユーザ端末3は、上述した仮想キーボード8を投影する投影部、対象情報を生成するためのカメラを有する。ユーザ端末3として、主に携帯電話(携帯端末)が用いられ、それ以外ではスマートフォン、タブレット型端末、ウェアラブル端末、パーソナルコンピュータ、IoTデバイス等の電子機器のほか、あらゆる電子機器で具現化されたものが用いられてもよい。ユーザ端末3は、例えば通信網4を介して推定装置1と接続されるほか、例えば推定装置1と直接接続されてもよい。ユーザは、例えばユーザ端末3を用いて、推定装置1から推定結果を取得する。
<通信網4>
通信網4は、例えば推定装置1等が通信回路を介して接続されるインターネット網等である。通信網4は、いわゆる光ファイバ通信網で構成されてもよい。また、通信網4は、有線通信網のほか、無線通信網等の公知の通信網で実現してもよい。
(推定システム100の動作の一例)
次に、本実施形態における推定システム100の動作の一例について説明する。図7は、本実施形態における推定システム100の動作の一例を示すフローチャートである。
<取得手段S110>
図7に示すように、動画データ及び位置情報を含む対象情報を取得する(取得手段S110)。取得部11は、ユーザが仮想キーボード8を押下する動作を撮影した動画データ、及び動画データにおけるユーザの手の位置情報を含む対象情報を取得する。仮想キーボード8は、例えばユーザ端末3又は推定装置1の投影部により投影される。動画データ及び位置情報は、例えばユーザ端末3又は推定装置1の有する各種カメラにより生成される。取得部11は、例えば記憶部12を介して、対象情報を保存部104に保存する。なお、取得部11は、キーボード情報及び言語情報の少なくとも何れか、を予め取得した上で、動画データ等を取得してもよい。
取得部11は、動画データ及び位置情報の少なくとも何れかが生成される度に対象情報として取得するほか、例えば任意の期間に生成された対象情報を取得してもよい。
<評価手段S120>
次に、参照データベースを参照し、対象情報と、参照情報との間における第1連関度を含む評価情報を取得する(評価手段S120)。評価部13は、取得部11により取得された対象情報を取得し、例えば保存部104に保存された参照データベースを取得する。評価部13は、1つの対象情報に対して1つの評価情報を取得するほか、例えば複数の対象情報に対して1つの評価情報を取得してもよい。評価部13は、例えば記憶部12を介して、評価情報を保存部104に保存する。
<生成手段S130>
次に、評価情報に基づき推定結果を生成する(生成手段S130)。生成部14は、評価部13により取得された評価情報を取得し、例えば保存部104に保存された出力用フォーマット等の形式データを取得する。生成部14は、1つの評価情報に対して1つの推定結果を取得するほか、例えば複数の評価情報に対して1つの推定結果を取得してもよい。生成部14は、例えば記憶部12を介して推定結果を保存部104に保存する。
これにより、例えば出力部15が推定結果をユーザ端末3等に送信、又は出力部分109に出力し、本実施形態における推定システム100の動作が終了する。
<更新手段S140>
なお、例えば過去の対象情報と、参照情報との間の関係を新たに取得した場合には、関係を連関度に反映させてもよい(更新手段S140)。例えば生成部14により生成された推定結果を踏まえて、ユーザがキーボード入力の推定精度を評価し、評価結果を推定装置1が取得した場合、更新部16は、評価結果に基づき参照データベースに含まれる連関度を更新する。
これにより、本実施形態における推定システム100の動作が終了してもよい。なお、更新手段S140を実施する場合のタイミングは、任意である。
本実施形態によれば、評価手段S120は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。
また、本実施形態によれば、対象情報は、動画データ及び位置情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、仮想キーボード8に対する手の詳細な位置関係を取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。
また、本実施形態によれば、動画データは、RGB動画データと、赤外線動画データとを有する。このため、照明等に起因する撮像環境が異なる場合においても、手の形状等を高精度に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。
また、本実施形態によれば、位置情報は、距離データを有する。このため、奥行き方向に対する手の位置を容易に取得することができる。これにより、キー入力を推定する精度をさらに向上させることが可能となる。
また、本実施形態によれば、投影部、RGBカメラ、赤外線カメラ、及び距離計測カメラは、同一の端末に備え付けられる。このため、場所を選ばずに仮想キーボード8を利用することが可能となる。
また、本実施形態によれば、対象情報及び過去の対象情報は、キーボード情報を含む。このため、キー配列等が異なる仮想キーボード8を利用した場合においても、キー入力を高精度に推定することが可能となる。
また、本実施形態によれば、対象情報及び過去の対象情報は、言語情報を含む。このため、ユーザの使用する言語に依存することなく、キー入力を高精度に推定することが可能となる。
また、本実施形態によれば、参照データベースは、機械学習により構築される。このため、画像から算出された押下深度に対する閾値を設定する場合に比べて、主観を除いたキー入力の推定を実現することが可能となる。
また、本実施形態によれば、更新手段S140は、過去の対象情報と、参照情報との間の関係を新に取得した場合には、関係を連関度に反映させる。このため、連関度を容易に更新することができ、継続した推定精度の向上を図ることが可能となる。
本実施形態によれば、評価部13は、参照データベースを参照し、対象情報と、参照情報との間の3段階以上の第1連関度を含む評価情報を取得する。このため、過去の結果を踏まえた推定結果を生成でき、押下深度のバラつきを考慮したキー入力の推定ができる。これにより、キー入力を推定する精度の向上を図ることが可能となる。
また、本実施形態によれば、対象情報は、動画データ及び位置情報を含む。このため、1つの画像から手の位置を算出する場合に比べて、仮想キーボード8に対する手の詳細な位置関係を取得することができる。これにより、キー入力を推定するために必要な情報を、高精度に取得することが可能となる。
本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 :推定装置
2 :サーバ
3 :ユーザ端末
4 :通信網
8 :仮想キーボード
10 :筐体
11 :取得部
12 :記憶部
13 :評価部
14 :生成部
15 :出力部
16 :更新部
100 :推定システム
101 :CPU
102 :ROM
103 :RAM
104 :保存部
105 :I/F
106 :I/F
107 :I/F
108 :入力部分
109 :出力部分
110 :内部バス
S110 :取得手段
S120 :評価手段
S130 :生成手段
S140 :更新手段

Claims (9)

  1. 仮想キーボードを用いて入力された文字列を推定する推定システムであって、
    ユーザが前記仮想キーボードを押下する動作を撮影した動画データ、及び前記動画データにおけるユーザの手の位置情報を含む対象情報を取得する取得手段と、
    予め取得された過去の対象情報、前記過去の対象情報によって入力された文字列を含む参照情報、及び、前記過去の対象情報と前記参照情報との間における3段階以上の連関度が記憶された参照データベースと、
    前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価手段と、
    前記評価情報に基づき推定結果を生成する生成手段と、
    を備えることを特徴とする推定システム。
  2. 前記動画データは、
    可視光領域に対応するRGBカメラを用いて生成されたRGB動画データと、
    赤外光領域に対応する赤外線カメラを用いて生成された赤外線動画データと、
    を有すること
    を特徴とする請求項1記載の推定システム。
  3. 前記位置情報は、対象物との離間距離を計測する距離計測カメラを用いて生成され、前記距離計測カメラと、前記ユーザの手との間の距離を示す距離データを有すること
    を特徴とする請求項2記載の推定システム。
  4. 前記仮想キーボードを投影する投影部、前記RGBカメラ、前記赤外線カメラ、及び前記距離計測カメラは、同一の端末に備え付けられること
    を特徴とする請求項3記載の推定システム。
  5. 前記対象情報及び前記過去の対象情報は、前記仮想キーボードの種類を示すキーボード情報を含むこと
    を特徴とする請求項1〜4の何れか1項記載の推定システム。
  6. 前記対象情報及び前記過去の対象情報は、言語情報を含むこと
    を特徴とする請求項1〜5の何れか1項記載の推定システム。
  7. 前記参照データベースは、機械学習により構築されたものであること
    を特徴とする請求項1〜6の何れか1項記載の推定システム。
  8. 前記過去の対象情報と、前記参照情報との間の関係を新たに取得した場合には、前記関係を前記連関度に反映させる更新手段をさらに備えること
    を特徴とする請求項1〜7の何れか1項記載の推定システム。
  9. 仮想キーボードを用いて入力された文字列を推定する推定装置であって、
    ユーザが前記仮想キーボードを押下する動作を撮影した動画データ、及び前記動画データにおけるユーザの手の位置情報を含む対象情報を取得する取得部と、
    予め取得された過去の対象情報、前記過去の対象情報によって入力された文字列を含む参照情報、及び、前記過去の対象情報と前記参照情報との間における3段階以上の連関度が記憶された参照データベースと、
    前記参照データベースを参照し、前記対象情報と、前記参照情報との間の3段階以上の第1連関度を含む評価情報を取得する評価部と、
    前記評価情報に基づき推定結果を生成する生成部と、
    を備えることを特徴とする推定装置。
JP2018213023A 2018-11-13 2018-11-13 推定システム、及び推定装置 Active JP6510134B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018213023A JP6510134B1 (ja) 2018-11-13 2018-11-13 推定システム、及び推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018213023A JP6510134B1 (ja) 2018-11-13 2018-11-13 推定システム、及び推定装置

Publications (2)

Publication Number Publication Date
JP6510134B1 JP6510134B1 (ja) 2019-05-08
JP2020080049A true JP2020080049A (ja) 2020-05-28

Family

ID=66429871

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018213023A Active JP6510134B1 (ja) 2018-11-13 2018-11-13 推定システム、及び推定装置

Country Status (1)

Country Link
JP (1) JP6510134B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6614545B1 (ja) * 2019-04-16 2019-12-04 クリスタルメソッド株式会社 推定システム、及び推定装置
JP6618162B1 (ja) * 2019-06-06 2019-12-11 クリスタルメソッド株式会社 評価装置、及び評価システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133835A (ja) * 2005-11-14 2007-05-31 Sharp Corp 仮想キー入力装置、情報端末装置、情報端末装置用充電器、及びプログラム
WO2012056864A1 (ja) * 2010-10-28 2012-05-03 Wada Yoshihiro 入力装置、当該入力装置を備えた情報機器、コンピュータを入力装置として機能させるためのプログラム、および入力装置を用いて文字を入力するための方法
WO2012176315A1 (ja) * 2011-06-23 2012-12-27 富士通株式会社 情報処理装置、入力制御方法及び入力制御プログラム
JP2014179032A (ja) * 2013-03-15 2014-09-25 Ricoh Co Ltd 仮想キー入力装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007133835A (ja) * 2005-11-14 2007-05-31 Sharp Corp 仮想キー入力装置、情報端末装置、情報端末装置用充電器、及びプログラム
WO2012056864A1 (ja) * 2010-10-28 2012-05-03 Wada Yoshihiro 入力装置、当該入力装置を備えた情報機器、コンピュータを入力装置として機能させるためのプログラム、および入力装置を用いて文字を入力するための方法
WO2012176315A1 (ja) * 2011-06-23 2012-12-27 富士通株式会社 情報処理装置、入力制御方法及び入力制御プログラム
JP2014179032A (ja) * 2013-03-15 2014-09-25 Ricoh Co Ltd 仮想キー入力装置

Also Published As

Publication number Publication date
JP6510134B1 (ja) 2019-05-08

Similar Documents

Publication Publication Date Title
WO2019120032A1 (zh) 模型构建方法、拍照方法、装置、存储介质及终端
CN106845335B (zh) 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备
JP6022732B2 (ja) コンテンツ作成ツール
JP5773944B2 (ja) 情報処理装置および情報処理方法
KR102659357B1 (ko) 아바타 애니메이션을 제공하기 위한 전자 장치 및 그에 관한 방법
US9760777B2 (en) Campaign optimization for experience content dataset
KR20190101832A (ko) 전자 장치 및 아바타 기반의 커스텀 객체 운용 방법
KR102648993B1 (ko) 사용자의 감정 상태에 기반하여 아바타를 제공하기 위한 전자 장치 및 그에 관한 방법
US11069115B2 (en) Method of controlling display of avatar and electronic device therefor
KR20130117303A (ko) 증강 현실 이미지를 디스플레이하기 위한 방법 및 그 전자 장치
KR102642866B1 (ko) 이미지 인식 방법, 장치, 전자 기기 및 매체
EP4191540A1 (en) 3d data system and 3d data generation method
JP6510134B1 (ja) 推定システム、及び推定装置
CN111556337B (zh) 一种媒体内容植入方法、模型训练方法以及相关装置
JP2014157515A (ja) タッチ判定装置、タッチ判定方法、およびタッチ判定プログラム
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6655513B2 (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
JP2018109899A (ja) 情報処理装置、操作検出方法、及びコンピュータプログラム
JP6614545B1 (ja) 推定システム、及び推定装置
JP2017033556A (ja) 画像処理方法及び電子機器
US20200098178A1 (en) Reconstructing three-dimensional (3d) human body model based on depth points-to-3d human body model surface distance
US8947494B2 (en) Pointer information processing device, computer-readable recording medium and conference system
CN112529770A (zh) 图像处理方法、装置、电子设备和可读存储介质
KR102203884B1 (ko) 촬상 장치 및 제어 방법
KR102664688B1 (ko) 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181129

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181129

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R150 Certificate of patent or registration of utility model

Ref document number: 6510134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250