JPWO2019142329A1 - 情報処理装置、情報処理システム、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2019142329A1
JPWO2019142329A1 JP2019565662A JP2019565662A JPWO2019142329A1 JP WO2019142329 A1 JPWO2019142329 A1 JP WO2019142329A1 JP 2019565662 A JP2019565662 A JP 2019565662A JP 2019565662 A JP2019565662 A JP 2019565662A JP WO2019142329 A1 JPWO2019142329 A1 JP WO2019142329A1
Authority
JP
Japan
Prior art keywords
information
hand
pose
acquired
acquisition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019565662A
Other languages
English (en)
Other versions
JP6854928B2 (ja
Inventor
和之 有松
和之 有松
良徳 大橋
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019142329A1 publication Critical patent/JPWO2019142329A1/ja
Application granted granted Critical
Publication of JP6854928B2 publication Critical patent/JP6854928B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、対象者の手の位置またはポーズの少なくとも一方に関する、第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置とに接続され、第1、第2の情報取得装置からそれぞれ第1の情報及び第2の情報を受け入れ、当該受け入れた第1、第2の情報のそれぞれを取得したタイミングの情報に関連付けて保持し、共通したタイミングで取得された第1、第2の情報を対情報として抽出する情報処理装置である。

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、及びプログラムに関する。
近年、プレイヤの手の位置やポーズを認識し、ゲーム等の処理に当該認識した手の位置やポーズの情報を供する家庭用ゲーム機等の情報処理装置が開発されている。
このような情報処理装置では、プレイヤの手に把持されるデバイス(以下、コントローラデバイスと呼ぶ)に、例えばコントローラデバイス自身からプレイヤの各指までの距離等を計測させ、当該計測された、コントローラデバイスと、各指までの距離の情報、並びにコントローラデバイス自身の姿勢等の情報等を用いてプレイヤの手の位置やポーズを推定する。
また別の例では、情報処理装置は、カメラ等によりプレイヤの手の画像を撮像し、当該撮像された手の画像に基づいてプレイヤの手の位置やポーズを推定する。
この推定の処理については種々の方法があるが、例えば人工知能等の機械学習結果を用いた方法が一例として挙げられる。この機械学習の結果を用いる場合、例えば正解となるユーザの手の位置やポーズの情報を別途、上記コントローラデバイスや上記カメラ等のデバイス(以下、便宜的に推測デバイスと呼ぶ)以外のデバイス(以下便宜的に測定デバイスと呼ぶ)によって測定して取得し、当該正解の情報を教師信号とし、上記コントローラデバイスが取得した情報を入力信号として、ニューラルネットワークを学習させ、当該ニューラルネットワークを用いることとなる。
しかしながら、上記教師信号となる正解の情報を取得したり、当該正解の情報と、対応するコントローラデバイスが取得した情報を見いだしたりすることは必ずしも容易ではない。
例えば、上記測定デバイスを用いて、測定の対象者の手の位置やポーズの情報を、正解の情報として取得する場合、当該情報を取得した時点に対応して、推定デバイスが取得した情報(カメラの画像や、コントローラデバイスと、各指までの距離の情報等)を見いだす必要があるが、従来の方法では、対象者に、指定した位置に手を移動して、指定したポーズをとってもらい、測定デバイスにより情報を取得するとともに、その時点で推定デバイスによって取得した情報を対応付けて記録していた。そして、手作業で一つ一つの位置及びポーズに係る、互いに関連する、測定デバイスが取得する情報(教師信号)と、推定デバイスが取得した情報(入力信号)とを設定して、機械学習処理を行っていた。
このため、機械学習用のデータ(教師信号と対応する入力信号とを関連付けた情報)を準備するための負担が大きかった。
本発明は上記実情に鑑みて為されたもので、対象者の手の位置やポーズ等の情報を推定するための機械学習用のデータを、効率的に生成できる情報処理装置、情報処理システム、情報処理方法、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決する本発明の一態様は、情報処理装置であって、対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、前記対象者の手の位置またはポーズの少なくとも一方に関する、前記第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置とに接続され、前記第1、第2の情報取得装置からそれぞれ前記第1の情報及び第2の情報を受け入れる受入手段と、前記受け入れた第1、第2の情報のそれぞれを、前記第1、第2の情報取得装置がそれぞれ取得したタイミングの情報に関連付けて保持する保持手段と、前記保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する抽出手段と、を含み、当該抽出した対情報が、当該対情報に含まれる第1の情報を教師信号、第2の情報を入力信号として機械学習の学習処理に供されることとしたものである。
本発明によると、対象者の手の位置やポーズ等の情報を推定するための機械学習用のデータを、効率的に生成できる。
本発明の実施の形態に係る情報処理システムの構成例を表すブロック図である。 本発明の実施の形態に係る情報処理システムが用いる測定デバイスの一例を表す概要説明図である。 本発明の実施の形態に係る情報処理システムが用いる推定デバイスの一例を表す概要説明図である。 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理装置が保持する情報の例を表す説明図である。 本発明の実施の形態に係る情報処理の動作例を表すフローチャート図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理システム1は、図1に例示するように、第1の情報取得装置としての測定デバイス10と、第2の情報取得装置としての推定デバイス20と、情報処理装置30とを含んで構成される。
ここで情報処理装置30は、図1に示すように、制御部31と、記憶部32と、操作部33と、表示制御部34と、入出力部35とを含んで構成される。
また本実施の形態の一例の測定デバイス10は、図2に例示するように、測定の対象となる対象者の手の周囲に配された多数のカメラCを含み、対象者の手がどの位置で、どのようなポーズとなっていても、カメラCのうちの複数のカメラC1,C2…によって当該手を撮像可能となっているものである。またこの測定デバイス10は、パーソナルコンピュータ(PC)等の情報処理デバイスを含み、所定のタイミングごと(例えば1/60秒等の定期的なタイミングごと)に撮像された画像から、対象者の手の主要位置(例えば各指の各関節位置等)に予め貼り付けられた複数のマーカーの三次元空間内での位置をそれぞれ認識する。そして測定デバイス10は、当該認識した当該各マーカーの位置の情報(三次元の座標情報)を、撮像の時点を表すタイムスタンプ情報とともに出力する。このようなデバイスは、例えば、スパイス社のOptiTrack(登録商標)等のモーションキャプチャシステムとして知られているシステムを用いて実現できるので、ここでの詳しい説明を省略する。もっとも、この測定デバイスは、カメラを用いるものに限られず、対象者の手の位置またはポーズの少なくとも一方を必ず取得できるものであれば、筋電計や超音波などを用いる方法であっても構わない。
また、本実施の形態の一例に係る推定デバイス20は、例えば図3に例示するように、対象者の手に把持されるコントローラデバイス200である。このコントローラデバイス200は、図3の例では、細長の柱状の形状をなし、把持されたときに対象者の各指が接触する位置には、それぞれ例えば静電容量センサや、赤外線距離センサ等、指先までの位置を測定するセンサ201が配されている。
なお、図2,図3の例では説明のため対象者の手を破線で示している。
本実施の形態の一例では、このコントローラデバイス200は、各センサ201が測定した対象者の指先までの距離の情報を、所定のタイミングごと(例えば100ミリ秒等の定期的なタイミングごと)に繰り返し取得する。そしてコントローラデバイス200は、当該情報を取得するごとに、当該情報を情報処理装置30に対して送出する。
情報処理装置30の制御部31は、CPUなどのプログラム制御デバイスであり、記憶部32に格納されたプログラムに従って動作する。この制御部31は、本実施の形態においては、第1の情報取得装置である測定デバイス10から、対象者の手の各部に配したマーカーの位置を表す三次元の座標情報と、当該マーカーを撮像した時点を表すタイムスタンプ情報とを、第1の情報として受け入れる。またこの制御部31は、第2の情報取得装置としての推定デバイス20から、推定デバイス20が取得した情報を受け入れる。例えば推定デバイス20がコントローラデバイス200であれば、この制御部31は、コントローラデバイス200から、所定のタイミングごと(例えば100ミリ秒等の定期的なタイミングごと)に、コントローラデバイス200から対象者の指先までの距離の情報を第2の情報として受け入れる。
制御部31は、受け入れた第1、第2の情報のそれぞれを、第1、第2の情報取得装置である測定デバイス10及び推定デバイス20がそれぞれ第1、第2の情報を取得したタイミングの情報に関連付けて保持する。また、制御部31は、当該保持した第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する。そしてこの抽出した対情報が、当該対情報に含まれる第1の情報を教師信号、第2の情報を入力信号とした機械学習の学習処理に供される。この制御部31の詳しい動作については、後に述べる。
記憶部32は、メモリデバイスやディスクデバイス等であり、制御部31によって実行されるプログラムを保持する。このプログラムは、コンピュータ可読、かつ非一時的な記録媒体に格納されて提供され、この記憶部32に格納されたものであってもよい。またこの記憶部32は、制御部31のワークメモリとしても動作する。
操作部33は、キーボードやマウス等のデバイスに接続され、これらから利用者の指示操作の入力を受け入れて、当該指示操作の内容を表す情報を、制御部31に出力する。表示制御部34は、ディスプレイ等に接続され、制御部31から入力される指示に従って、情報を表示出力するよう、ディスプレイ等を制御する。
入出力部35は、USB等の有線またはブルートゥース(登録商標)等の無線通信により、測定デバイス10や推定デバイス20に接続され、これらのデバイスが出力する情報を受け入れて制御部31に出力する。またこの入出力部35は、制御部31から入力される指示に従い、接続されたデバイスに対して情報を出力する。
次に、制御部31の動作について説明する。本実施の形態の制御部31は、機能的には、図4に例示するように、受入部41と、前処理部42と、保持処理部43と、抽出処理部44とを含んで構成される。なお、以下の例では、情報処理装置30に接続されている推定デバイス20はコントローラデバイス200であるものとする。
受入部41は、第1の情報取得装置である測定デバイス10から、入出力部35を介して第1の情報として受け入れる。ここで第1の情報には、所定のタイミングごとに撮像された画像に基づいて認識された、対象者の手の各部に配したマーカーの位置を表す三次元の座標情報(P1,P2…)と、当該マーカーを撮像した時点を表すタイムスタンプ情報(T)とを含む。
またこの受入部41は、第2の情報取得装置としてのコントローラデバイス200から、入出力部35を介して、所定のタイミングごと(例えば100ミリ秒等の定期的なタイミングごと)に、コントローラデバイス200と対象者の各指の指先との距離の情報(FP1,FP2…)を第2の情報として受け入れる。
前処理部42は、受入部41が受け入れた第1、第2の情報を保持処理部43により保持するための前処理を実行する。本実施の形態のある例では、この前処理部42は、コントローラデバイス200から第2の情報を受け入れるごとに、当該受け入れたタイミングの情報(時刻情報)を取得する。この時刻情報は、図示しない計時回路(リアルタイムクロック(RTC)等)から取得するか、またはネットワーク等を介して時刻情報サーバから取得すればよい。
前処理部42は、処理を開始してから最初に第2の情報を受け入れたときに取得した時刻情報tを基準時刻t0として、i番目に受け入れた第2の情報を、そのときに取得した時刻情報tから基準時刻t0を差引きして得たタイミングの情報ti(i=1,2,…、従って最初の第2の情報についてはt1=0となる)を、対応する第2の情報に含めて、保持処理部43に対して出力する。またこの例では、前処理部42は、第1の情報についてはそのまま保持処理部43に出力する。
保持処理部43は、前処理部42が出力する第1,第2の情報(第2の情報についてはタイミングの情報が含められたもの)を受け入れて、これらの情報を記憶部32に蓄積して格納する。
この保持処理部43の動作により、記憶部32には、図5に例示するように、第1の情報については、タイムスタンプ情報(T1,T2…)で表されるマーカーを撮像した時点ごとに、当該時点で撮像されたマーカーに基づいて得られたマーカーの位置を表す三次元の座標情報(P1,P2…)が関連付けて記憶される。
また第2の情報については、前処理部42で得られたタイミングの情報(t1,t2…)で表される時点ごとに、当該時点で受け入れた、コントローラデバイス200と対象者の各指の指先との距離の情報(FP1,FP2…)が関連付けられて、記憶部32に蓄積して格納された状態となる。
抽出処理部44は、記憶部32に保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する。具体的に、この抽出処理部44は、例えば第1、第2の情報のうち、記録されている情報が得られたタイミングの間隔が比較的長い情報を選択する。例えば第1の情報がΔT=1/60秒(約17ミリ秒)ごとに取得されており、第2の情報がΔt=100ミリ秒ごとに取得されていれば、ΔT<Δtであるので、抽出処理部44は第2の情報を選択する。
抽出処理部44は、選択した第2の情報のうち、一つのタイミング情報に関連付けられて保持されている情報を、記憶部32から読み出す。すなわち抽出処理部44は、タイミングの情報ti(i=1,2,…)のいずれかを選択し、当該選択したタイミングの情報tiに関連付けられた対象者の各指の指先との距離の情報(FP1,FP2…)を読み出す。
抽出処理部44は、ここで選択されたタイミングの情報が表す時刻tiに最も近いタイミングを表す情報Tに関連付けられた、第1の情報(記録されている情報が得られたタイミングの間隔が比較的短い情報)を記憶部32から検索する。
ここでの例では第1の情報に含まれるタイミングの情報はタイムスタンプであり、第2の情報については、測定開始からの経過時間に相当するタイミングの情報が関連付けられている。そこで、本実施の形態の、この例に係る抽出処理部44は、第1の情報に含まれるタイムスタンプのうち、最も時間的に早い時刻を表すタイムスタンプの時点T0が、第2の情報を受け入れた際に、前処理部42が取得した基準時刻t0と等しいものとして、第1の情報に含まれるタイムスタンプTj(j=1,2…)からT0を差引きした値Tj−T0(j=1,2…)のうち、選択されたタイミングの情報が表す時刻tiに最も近いタイムスタンプTjを見いだす。
抽出処理部44は、ここで見いだしたタイムスタンプTjに関連付けられた対象者の手の各部に配したマーカーの位置を表す三次元の座標情報(P1,P2…)を記憶部32から読み出し、また、選択されたタイミングの情報が表す時刻tiに関連付けられて記憶部32に格納されている、対象者の各指の指先とコントローラデバイス200との距離の情報(FP1,FP2…)を読み出す。
抽出処理部44は、ここで読み出したマーカーの位置を表す三次元の座標情報(P1,P2…)を、正解を表す教師信号とし、対象者の各指の指先とコントローラデバイス200との距離の情報(FP1,FP2…)を入力信号として、これらを組にして、学習用情報として記憶部32に蓄積して格納する。
抽出処理部44は、第2の情報のタイミングの情報ti(i=1,2,…)ごとに、上記の処理を繰り返して、学習用情報を蓄積して記憶部32に格納する。
本実施の形態の制御部31は、以上のようにして学習用情報を生成し、この、記憶部32に蓄積して記憶された学習用情報を、ニューラルネットワーク等の機械学習処理に供する。教師信号と入力信号との組に基づいて機械学習処理を行う方法については、広く知られた方法を採用できるので、ここでの詳しい説明は省略する。
[動作]
本実施の形態の一例に係る情報処理システム1は以上の構成を備えており、この例に係る情報処理システム1は次のように動作する。測定対象者は、その手の主要位置(例えば各指の各関節位置等)にマーカーを貼り付け、コントローラデバイス200を把持した状態で、予め指定された通りに、あるいは任意に、手や指を動かして、手の位置を移動したり、ポーズを変更したりといった行動を行う。
測定デバイス10は、所定のタイミングごと(例えば1/60秒等の定期的なタイミングごと)に、この対象者の手の画像を複数の場所から撮像しており、当該撮像された画像から、対象者の手に貼り付けられた複数のマーカーの三次元空間内での位置をそれぞれ認識し、当該各マーカーの位置の情報(三次元の座標情報)を、撮像の時点を表すタイムスタンプ情報とともに出力する。なお、この出力のタイミングは、対象者がすべての行動を終了した後にまとめて出力することとしてもよい。
また、対象者の手に把持されるコントローラデバイス200は、その表面に配された各センサ201が測定した対象者の各指先までの距離の情報を、所定のタイミングごと(例えば100ミリ秒等の定期的なタイミングごと)に繰り返し取得し、当該情報を取得するごとに、当該情報を情報処理装置30に対して送出する。
情報処理装置30は、コントローラデバイス200からは、コントローラデバイス200がコントローラデバイス200と対象者の各指の指先との距離の情報(FP1,FP2…)を取得するごとに、当該情報を第2の情報として受け入れる。
そして情報処理装置30は、コントローラデバイス200から第2の情報を受け入れるごとに、当該受け入れたタイミングの情報(時刻情報)を取得し、最初に第2の情報を受け入れたときに取得した時刻情報tを基準時刻t0として、i番目に受け入れた第2の情報を、そのときに取得した時刻情報tから基準時刻t0を差引きして得たタイミングの情報ti(i=1,2,…、従って最初の第2の情報についてはt1=0となる)を、対応する第2の情報に含める。情報処理装置30は、このタイミングの情報が含められた第2の情報を、記憶部32に蓄積して格納する。
一方、情報処理装置30は、例えば測定が終了したときに、測定中に測定デバイス10が所定のタイミングごとに取得した、各マーカーの位置の情報(三次元の座標情報)をタイムスタンプ情報とともに受け入れて、対応するタイムスタンプ情報と、各マーカーの位置の情報(P1,P2…)とを関連付けて、記憶部32に蓄積して格納する。
こうして記憶部32には、図5に例示したように、第1の情報については、タイムスタンプ情報(T1,T2…)で表されるマーカーを撮像した時点ごとに、当該時点で撮像されたマーカーに基づいて得られたマーカーの位置を表す三次元の座標情報(P1,P2…)が関連付けて記憶された状態となり、第2の情報については、タイミングの情報(t1,t2…)で表される時点ごとに、当該時点で受け入れた、コントローラデバイス200と対象者の各指の指先との距離の情報(FP1,FP2…)が関連付けられて、記憶部32に蓄積して格納された状態となる。
情報処理装置30は、例えば利用者から、機械学習用の学習用情報を生成すべき旨の指示を受け入れて、学習用情報を生成する処理を開始し、第1,第2の情報のいずれかを基準として、次の処理を行う。ここで基準とする情報は、記録されている情報が得られたタイミングの間隔が比較的長い情報(得られているデータの数が少ない方の情報)を選択すればよい。以下の説明では第2の情報が選択されたものとして説明する。
情報処理装置30は、図6に例示するように、第1の情報について、記憶部32に格納されているタイムスタンプのうち、時間的に最も早い時刻を表すタイムスタンプの時点T0を取得する(S1)。
また情報処理装置30は、選択した第2の情報に含まれるタイミング情報(t1,t2…)を順次選択して、次の処理を繰り返し実行する(S2)。すなわち、情報処理装置30は選択したタイミング情報tiに最も近いタイミングを表す情報Tに関連付けられた、第1の情報(記録されている情報が得られたタイミングの間隔が比較的短い情報)を記憶部32から検索する。
具体的に情報処理装置30は、記憶部32に格納されたタイムスタンプTj(j=1,2…)のそれぞれからT0を差引きした値Tj−T0(j=1,2…)を得て、タイミング情報tiに最も近い値Tj−T0となっているタイムスタンプTjを見いだす(S3)。
そして情報処理装置30は、処理S3で見いだしたタイムスタンプTjに関連付けられているマーカーの位置を表す三次元の座標情報(P1,P2…)を読み出す(S4)。
また情報処理装置30は、処理S2で選択したタイミング情報tiに関連付けられている、対象者の各指の指先とコントローラデバイス200との距離の情報(FP1,FP2…)を読み出す(S5)。
情報処理装置30は、処理S4で読み出したマーカーの位置を表す三次元の座標情報(P1,P2…)を正解を表す教師信号とし、処理S5で読み出した対象者の各指の指先とコントローラデバイス200との距離の情報(FP1,FP2…)を入力信号として、これらを組として学習用情報として記憶部32に蓄積して格納する(S6)。
情報処理装置30は、以上の処理を、選択していないタイミング情報(t1,t2…)がなくなるまで、処理S2から繰り返して実行する。これにより、記憶部32には、第2の情報が得られたタイミングを表すタイミング情報(t1,t2…)ごとの、教師信号と入力信号との組(対情報)が保持された状態となる。
このように本実施の形態によると、手作業による教師信号と入力信号との組み合わせが必要なくなり、対象者の手の位置やポーズ等の情報を推定するための機械学習用のデータを、効率的に生成できる。
[情報の内容を参照する例]
また、ここまでの説明では、共通したタイミングで取得された第1、第2の情報を見いだすため、第2の情報については取得した時点を表すタイミングの情報を関連付けていた。そして、測定の開始時点が測定デバイス10と、推定デバイス20とで共通していることを前提に、この関連付けたタイミングの情報が表す時点に最も近い時点を表すタイムスタンプに関連付けられた第1の情報を検索する例について述べた。
しかしながら、測定デバイス10の測定開始時点と、推定デバイス20が最初に情報を出力した時点にずれがある場合、学習用の情報に誤りが生じることとなる。そこで、本実施の形態の一例では、学習用情報を生成する利用者が、予め目視で第1の情報と第2の情報とを確認し、それぞれの情報が同じ手の位置やポーズを表している時点を情報処理装置30に指定することとしてもよい。
例えば、第1の情報のタイムスタンプTkにおける情報と、第2の情報のうち、タイミングの情報tmにおける情報とが同じ手の位置やポーズを表している場合に、それらを指定する。すると、情報処理装置30は、ΔTk=Tk−T0(ここでT0は、既に述べたように、第1の情報について、記憶部32に格納されているタイムスタンプのうち、時間的に最も早い時刻を表すタイムスタンプの情報)と、tmとの差、Δ=ΔTk−tmを補正情報として取得し、上記処理S3では、記憶部32に格納されたタイムスタンプTj(j=1,2…)のそれぞれからT0を差引きした値Tj−T0(j=1,2…)を得て、タイミング情報tiに、この補正情報Δを加算した値、ti+Δに最も近い値Tj−T0となっているタイムスタンプTjを見いだす。
さらに、ここでは利用者が目視で、第1,第2の情報が同じ手の位置やポーズを表している時点を探索することとしたが、この探索を情報処理装置30が機械的に(人為的処理なしに)行ってもよい。
この場合は例えば、対象者に当初、手を握る(コントローラデバイス200に指先を接触させた状態とする)動作と、手を開く(コントローラデバイス200から指先をできるだけ離した状態とする)動作とを行ってもらう。そして、情報処理装置30は、記録している第1の情報のうち、タイムスタンプの小さい順に調べたときに、手を開いた状態であることを表す情報(例えば指ごとに貼られた各マーカーの三次元座標の点が実質的に直線状となっている情報)が最初に記録されている時点Tfまでの間にある第1の情報であって、手を握った状態であることを表す情報(例えば各マーカーの三次元座標の点を含む最小の凸包の体積が最も小さくなったときの第1の情報)に関連付けられたタイムスタンプの情報Tminを得る。
また情報処理装置30は、記録している第2の情報を記録順に(関連付けられたタイミングの情報が表す時刻が小さい順に)調べ、最初に見いだされる、手を握った状態であることを表す情報(例えば各指先までの距離が最小となっている第2の情報)に関連付けられた、タイミングの情報tminを得る。
そして、情報処理装置30は、ΔTk=Tmin−T0(ここでT0は、既に述べたように、第1の情報について、記憶部32に格納されているタイムスタンプのうち、時間的に最も早い時刻を表すタイムスタンプの情報)と、tminとの差、Δ=ΔTk−tminを補正情報として取得し、上記処理S3では、記憶部32に格納されたタイムスタンプTj(j=1,2…)のそれぞれからT0を差引きした値Tj−T0(j=1,2…)を得て、タイミング情報tiに、この補正情報Δを加算した値、ti+Δに最も近い値Tj−T0となっているタイムスタンプTjを見いだす。
これにより、保持された第1、第2の情報がそれぞれ表す対象者の手の位置またはポーズが、実質的に同一と判断されるタイミングを共通したタイミングとして、当該共通したタイミングで取得された第1、第2の情報を対情報として抽出することが可能となる。
[推定デバイスにもマーカーを貼る例]
また、ここまでの説明において、第1の情報取得装置である測定デバイス10が検出するマーカーは、対象者の手の各部に貼付されることとしていたが、本実施の形態の例では、第2の情報取得装置であるコントローラデバイス200にも、このマーカーを配してもよい。
この場合、測定デバイス10は、推定デバイス20としてのコントローラデバイス200の位置や姿勢等の情報を、対象者の手の位置やポーズに関する情報とともに取得する。そして、情報処理装置30は、対象者の手の位置やポーズに関する情報とともにコントローラデバイス200の位置や姿勢の情報を含む第1の情報を記録し、この第1の情報の記録から教師信号を取り出すとともに、当該取り出した教師信号が得られたタイミングと共通するタイミングでコントローラデバイス200が取得した第2の情報(入力信号)を取り出して、対情報として出力する。
本実施の形態のこの例では、コントローラデバイス200を把持するプレイヤの手の位置やポーズだけでなく、当該把持されているコントローラデバイス200の位置や姿勢の情報まで推定するための機械学習処理が可能となる。
[推定デバイスがカメラである例]
また、本実施の形態では、推定デバイス20は、必ずしも対象者の手に把持されるコントローラデバイス200でなくてもよい。例えば本実施の形態のある例では、推定デバイス20は、プレイヤ(対象者)に対して所定の一ヶ所の位置に対象者の方向に向けて配した一対のカメラを含むデプスカメラであってもよい。
この場合、推定デバイス20であるデプスカメラは、対象者の姿勢や手のポーズの状況によっては、対象者のすべての指が視認できるとは限らない(例えばデプスカメラから指までの間にプレイヤの手の甲が入ってしまう場合など)が、測定デバイス10は、対象者のすべての指の関節等に貼付されたすべてのマーカーの位置情報を取得できる。
この例では、第2の情報は、デプスカメラに含まれる一対のカメラが撮像した2つの画像データである。
またこの例では、前処理部42は、受入部41が第2の情報を受け入れるごとに、当該受け入れたタイミングの情報(時刻情報)を取得する。また前処理部42は、処理を開始してから最初に第2の情報を受け入れたときに取得した時刻情報tを基準時刻t0として、i番目に受け入れた第2の情報を、そのときに取得した時刻情報tから基準時刻t0を差引きして得たタイミングの情報ti(i=1,2,…、従って最初の第2の情報についてはt1=0となる)を、対応する第2の情報に含めて、保持処理部43に対して出力する。
さらに本実施の形態のこの例では、前処理部42は、第2の情報である画像データに含まれる、測定デバイス10が認識するためのマーカーの画像を除去する処理を行ってもよい。具体的にマーカーは、例えば予め定められた色で着色されているので、前処理部42は、第2の情報である画像データに含まれる当該マーカーの色の部分を抽出し、当該部分をその周囲の色で塗りつぶす処理を行う。この処理はフォトレタッチ等の画像処理として広く知られた処理を用いることができるので、ここでの詳しい説明を省略する。
このように前処理を行うと、学習用情報の入力信号にはマーカーが含まれない画像が提供される状態となる。通常、実際にこの学習用情報を用いて学習されたニューラルネットワーク等が利用される場面では、デプスカメラが撮像した画像データにはマーカーは含まれないので、学習用情報である入力信号が当該実際に利用される画像データに近いものとされていることで、より的確な推定が行われることが期待できる。
1 情報処理システム、10 測定デバイス、20 推定デバイス、30 情報処理装置、31 制御部、32 記憶部、33 操作部、34 表示制御部、35 入出力部、41 受入部、42 前処理部、43 保持処理部、44 抽出処理部、200 コントローラデバイス、201 センサ。

Claims (7)

  1. 対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、前記対象者の手の位置またはポーズの少なくとも一方に関する、前記第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置とに接続され、
    前記第1、第2の情報取得装置からそれぞれ前記第1の情報及び第2の情報を受け入れる受入手段と、
    前記受け入れた第1、第2の情報のそれぞれを、前記第1、第2の情報取得装置がそれぞれ取得したタイミングの情報に関連付けて保持する保持手段と、
    前記保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する抽出手段と、を含み、
    当該抽出した対情報が、当該対情報に含まれる第1の情報を教師信号、第2の情報を入力信号として機械学習の学習処理に供される情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記抽出手段は、前記保持された第1、第2の情報の内容に基づいて、共通したタイミングで取得された第1、第2の情報を対情報として抽出する情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記抽出手段は、前記保持された第1、第2の情報がそれぞれ表す前記対象者の手の位置またはポーズが、実質的に同一と判断されるタイミングを共通したタイミングとして、当該共通したタイミングで取得された第1、第2の情報を対情報として抽出する情報処理装置。
  4. 対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、
    前記対象者の手の位置またはポーズの少なくとも一方に関する、前記第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置と、
    情報処理装置と、を含み、
    前記情報処理装置が、
    前記第1、第2の情報取得装置からそれぞれ前記第1の情報及び第2の情報を受け入れる受入手段と、
    前記受け入れた第1、第2の情報のそれぞれを、前記第1、第2の情報取得装置がそれぞれ取得したタイミングの情報に関連付けて保持する保持手段と、
    前記保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する抽出手段と、を有し、
    当該抽出した対情報が、当該対情報に含まれる第1の情報を教師信号、第2の情報を入力信号として機械学習の学習処理に供される情報処理システム。
  5. 請求項4に記載の情報処理システムであって、
    前記第1の情報取得装置は、対象者の手に配した複数のマーカーの位置を検出し、当該検出したマーカーの位置に基づいて対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得しており、
    前記第2の情報取得装置は、対象者の手に把持されるデバイスを含み、当該デバイスが検出する情報に基づいて対象者の手の位置またはポーズの少なくとも一方に関する第2の情報を取得しており、
    前記第1の情報取得装置が検出するマーカーが、前記第2の情報取得装置の前記デバイスにも配されて、前記第1の情報取得装置は、対象者の手の位置またはポーズの少なくとも一方に関する第1の情報とともに、前記第2の情報取得装置の前記デバイスの位置または姿勢に関する情報を取得して、前記情報処理装置に出力する情報処理システム。
  6. 対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、前記対象者の手の位置またはポーズの少なくとも一方に関する、前記第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置とに接続される情報処理装置を用い、
    情報処理装置の受入手段が、前記第1、第2の情報取得装置からそれぞれ前記第1の情報及び第2の情報を受け入れる工程と、
    保持手段が前記受け入れた第1、第2の情報のそれぞれを、前記第1、第2の情報取得装置がそれぞれ取得したタイミングの情報に関連付けて保持する工程と、
    抽出手段が前記保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する工程と、を含み、
    当該抽出した対情報が、当該対情報に含まれる第1の情報を教師信号、第2の情報を入力信号として機械学習の学習処理に供される情報処理方法。
  7. 対象者の手の位置またはポーズの少なくとも一方に関する第1の情報を取得する第1の情報取得装置と、前記対象者の手の位置またはポーズの少なくとも一方に関する、前記第1の情報取得装置が取得する第1の情報とは異なる第2の情報を取得する第2の情報取得装置とに接続される情報処理装置に、
    前記第1、第2の情報取得装置からそれぞれ前記第1の情報及び第2の情報を受け入れる受入工程と、
    前記受け入れた第1、第2の情報のそれぞれを、前記第1、第2の情報取得装置がそれぞれ取得したタイミングの情報に関連付けて保持する保持工程と、
    前記保持された第1、第2の情報のうち、共通したタイミングで取得された第1、第2の情報を対情報として抽出する抽出工程と、を実行させるためのプログラム。

JP2019565662A 2018-01-19 2018-01-19 情報処理装置、情報処理システム、情報処理方法、及びプログラム Active JP6854928B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/001636 WO2019142329A1 (ja) 2018-01-19 2018-01-19 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019142329A1 true JPWO2019142329A1 (ja) 2020-09-03
JP6854928B2 JP6854928B2 (ja) 2021-04-07

Family

ID=67301404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019565662A Active JP6854928B2 (ja) 2018-01-19 2018-01-19 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11302029B2 (ja)
JP (1) JP6854928B2 (ja)
WO (1) WO2019142329A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11786809B2 (en) 2016-10-11 2023-10-17 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11992751B2 (en) 2016-10-11 2024-05-28 Valve Corporation Virtual reality hand gesture generation

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142329A1 (ja) * 2018-01-19 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2019245681A1 (en) * 2018-06-20 2019-12-26 Valve Corporation Virtual reality hand gesture generation
WO2021173725A1 (en) * 2020-02-26 2021-09-02 Magic Leap, Inc. Hand and totem input fusion for wearable systems
US11610326B2 (en) * 2020-12-14 2023-03-21 Tencent America LLC Synthesizing 3D hand pose based on multi-modal guided generative networks

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JP2012155669A (ja) * 2011-01-28 2012-08-16 Nippon Telegr & Teleph Corp <Ntt> 磁気検出装置、行動機器識別装置、行動機器識別システム、行動機器識別方法、及びプログラム
WO2016157938A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10987573B2 (en) * 2016-10-11 2021-04-27 Valve Corporation Virtual reality hand gesture generation
WO2019142329A1 (ja) * 2018-01-19 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US11400363B2 (en) * 2018-02-16 2022-08-02 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, controller device, information processing method, and program
US20210118038A1 (en) * 2019-10-22 2021-04-22 The Hillman Group, Inc. Self-service kiosk for determining glove size

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (ja) * 1990-10-19 1992-05-29 Fujitsu Ltd ニューラルネットワークを用いた人間の動作自動認識装置
JP2012155669A (ja) * 2011-01-28 2012-08-16 Nippon Telegr & Teleph Corp <Ntt> 磁気検出装置、行動機器識別装置、行動機器識別システム、行動機器識別方法、及びプログラム
WO2016157938A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11786809B2 (en) 2016-10-11 2023-10-17 Valve Corporation Electronic controller with finger sensing and an adjustable hand retainer
US11992751B2 (en) 2016-10-11 2024-05-28 Valve Corporation Virtual reality hand gesture generation

Also Published As

Publication number Publication date
US20200327693A1 (en) 2020-10-15
US11302029B2 (en) 2022-04-12
WO2019142329A1 (ja) 2019-07-25
JP6854928B2 (ja) 2021-04-07

Similar Documents

Publication Publication Date Title
JP6854928B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US8824802B2 (en) Method and system for gesture recognition
JP5159950B2 (ja) 画像処理装置、方法、プログラム
US8675972B2 (en) Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking
JP2006350577A (ja) 動作分析装置
JP5170094B2 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
US10380411B2 (en) Method for constructing a model of the face of a person, method and device for posture analysis using such a model
JP2017097577A (ja) 姿勢推定方法及び姿勢推定装置
CN107832736B (zh) 实时人体动作的识别方法和实时人体动作的识别装置
KR101636171B1 (ko) 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
CN115331314A (zh) 一种基于app筛查功能的运动效果评估方法和系统
EP3139306B1 (en) Biometric authentication device, biometric authentication method and biometric authentication program
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
KR20160035497A (ko) 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템
WO2021039642A1 (ja) 3次元再構成装置、方法及びプログラム
JP6876312B1 (ja) 学習モデル生成方法、コンピュータプログラム及び情報処理装置
Zeng et al. A new Kinect-based frontal view gait recognition method via deterministic learning
JP6256738B2 (ja) 動画選択装置、動画選択方法とプログラム
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
JP2009151516A (ja) 情報処理装置および情報処理装置用操作者指示点算出プログラム
US20240144500A1 (en) Data conversion device, moving image conversion system, data conversion method, and recording medium
JP6639001B2 (ja) 同定システム
US20220087587A1 (en) Information processing apparatus and non-transitory computer readable medium
JP7027745B2 (ja) 打具の挙動の解析装置
JP2021162888A (ja) 類似判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R150 Certificate of patent or registration of utility model

Ref document number: 6854928

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150