JP2021064320A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2021064320A
JP2021064320A JP2019190029A JP2019190029A JP2021064320A JP 2021064320 A JP2021064320 A JP 2021064320A JP 2019190029 A JP2019190029 A JP 2019190029A JP 2019190029 A JP2019190029 A JP 2019190029A JP 2021064320 A JP2021064320 A JP 2021064320A
Authority
JP
Japan
Prior art keywords
position information
information processing
processing device
information
occlusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019190029A
Other languages
English (en)
Inventor
淳 入江
Atsushi Irie
淳 入江
夏子 尾崎
Natsuko Ozaki
夏子 尾崎
悟士 尾崎
Satoshi Ozaki
悟士 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019190029A priority Critical patent/JP2021064320A/ja
Priority to PCT/JP2020/027201 priority patent/WO2021075102A1/ja
Priority to US17/760,617 priority patent/US20220334674A1/en
Publication of JP2021064320A publication Critical patent/JP2021064320A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

【課題】対象部位を高精度に認識することが可能な情報処理装置、情報処理方法、及びプログラムを提供すること。【解決手段】上記目的を達成するため、本技術の一形態に係る情報処理装置は、選択部を具備する。上記選択部は、身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する。これにより、対象部位を高精度に認識することが可能である。【選択図】図3

Description

本技術は、物体の認識等に適用可能な情報処理装置、情報処理方法、及びプログラムに関する。
特許文献1に記載の情報処理装置では、撮影された手の画像から、複数の投影方向における注目点の存在確立を示す確率マップが推定される。確率マップに基づいて、注目点の3次元位置が特定される。例えば、x方向における確率マップと、y方向における確率マップと、z方向における確率マップとに基づいて、指先や関節等の注目点の3次元位置が特定される。これにより、高精度に注目点の3次元位置を推定することが図られている(特許文献1の段落[0028][0046]図2等)。
国際公開第2018/083910号
このように、手等の対象物を高精度に認識することを可能とする技術が求められている。
以上のような事情に鑑み、本技術の目的は、対象部位を高精度に認識することが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、選択部を具備する。
上記選択部は、身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する。
この情報処理装置では、身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、第1の位置情報又は第2の位置情報が選択される。これにより、対象部位を高精度に認識することが可能である。
前記選択部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記第2の位置情報を選択してもよい。
前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの位置に基づいて規定される方向における位置情報であってもよい。
前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの測定方向における位置情報であってもよい。
前記第1の位置情報及び前記第2の位置情報の各々は、3次元座標系を構成する第1の座標軸における座標値であってもよい。
前記情報処理装置であって、さらに、センサの検出結果により得られた前記対象部位を特定するための特定情報を取得するための取得部を具備してもよい。この場合、前記選択部は、取得された前記特定情報に基づいて、前記第1の位置情報及び前記第2の位置情報の少なくとも一方を取得してもよい。
前記特定情報は、前記3次元座標系を構成する、前記第1の座標軸とは異なる第2の座標軸及び第3の座標軸の各々における前記対象部位の座標値であってもよい。
前記情報処理装置であって、さらに、前記第1の位置情報及び前記第2の位置情報に基づいて、前記対象部位に関してオクルージョンの有無を判定するオクルージョン判定部を具備してもよい。
前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記オクルージョンの有無を判定してもよい。
前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記オクルージョンが発生していると判定してもよい。
前記オクルージョン判定部は、前記測距センサの位置を基準として、前記第1の位置情報よりも前記第2の位置情報の方が大きい場合に、前記オクルージョンが発生していると判定してもよい。
前記情報処理装置であって、さらに、前記オクルージョン判定部の判定結果に基づいて、前記対象部位の状態に関する状態情報を判定する状態判定部を具備してもよい。
前記状態情報は、前記対象部位の動作及び前記対象部位の形状を含んでもよい。
前記状態判定部は、前記対象部位に関する所定の特徴点にオクルージョンが発生していると判定された場合、前記状態情報を判定してもよい。
前記情報処理装置であって、さらに、前記測距センサにより検出される前記第1の位置情報の信頼度を判定する信頼度判定部を具備してもよい。
前記信頼度判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記第1の位置情報の信頼度を判定してもよい。
前記選択部は、前記第1の位置情報の前記信頼度が所定の閾値より低い場合、前記第2の位置情報を選択してもよい。
前記対象部位は、手を含んでもよい。
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択することを含む。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択するステップ。
情報選択システムの概要を説明するための模式図である。 情報選択システム及び情報処理装置の機能的な構成例を示すブロック図である。 位置情報が選択される方法の一例を示すフローチャートである。 対象部位における特徴点の一例を示す模式図である。 位置情報の選択とオクルージョンの判定との具体例を示す表である。 対象部位の状態の判定を行うフローチャートである。 対象部位の状態の判定及び結果の具体例を示す表である。 対象部位の状態の一例を示す模式図である。 対象部位の状態の一例を示す模式図である。 位置情報が選択される方法の他の例を示すフローチャートである。 情報処理装置のハードウェア構成例を示すブロック図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[物体認識システム]
図1は、本技術に係る物体認識システムの概要を説明するための模式図である。
本技術に係る物体認識システム100は、身体に含まれる対象部位2に対して測距センサ6により検出される第1の位置情報7と、対象部位2に対して機械学習により推定される第2の位置情報8との差分に基づいて、第1の位置情報7又は第2の位置情報8を選択することが可能である。
物体認識システム100を用いることで、高精度に対象部位2を認識することが可能となる。例えば、物体認識システム100による認識結果に基づいて、対象部位2を用いた種々の操作の判定等を高精度に実行することが可能となる。
対象部位2は、身体に含まれる任意の部位である。図1に示す例では、ユーザ1の腕や手が対象部位2として設定される。もちろん対象部位2は限定されない。例えば、ユーザ1の足等の部位が対象部位2として設定されてもよい。また身体全体(ユーザ1自身)が対象部位2として設定されてもよいし、両手や両足等の複数の部位が対象部位2として設定されてもよい。
位置情報は、対象部位2の位置を示す種々の情報を含む。
位置情報として、例えば、絶対座標系(ワールド座標系)により規定される座標値(例えばXYZ座標値)が用いられてもよい。あるいは、所定の点を基準(原点)とした相対座標系により規定される座標値(例えばxyz座標値又はuvd座標値)が用いられてもよい。相対座標系が用いられる場合、基準となる原点は、任意に設定されてよい。
対象部位2の位置情報として、対象部位2に含まれる1以上の特徴点の各々の位置座標が用いられてもよい。例えば、対象部位2が手の場合、指の先端、第1関節、第2関節、及び手首等を特徴点として設定することが可能である。もちろんこれに限定される訳ではない。
第1の位置情報は、測距センサ6により検出される対象部位2の位置情報である。
本実施形態では、第1の位置情報として、所定の1方向における位置情報が算出される。所定の1方向は、測距センサ6の位置に基づいて規定される方向である。
典型的には、測距センサ6の測定方向における位置情報が用いられる。すなわち、典型的には、測距センサ6により検出される対象部位2までの距離が、第1の位置情報として用いられる。
例えば、測距センサ6の測定方向がZ座標軸の軸方向と平行となるように、測距センサ6を配置する。そして、測距センサ6により検出される対象部位2までの距離に基づいて、Z座標値を算出する。このZ座標値は、原点の位置に応じて算出される値となり、測距センサ6により検出される対象部位2までの距離に応じた値となる。このZ座標値を第1の位置情報として用いることが可能である。
測距センサ6の測定方向と、Z座標軸の軸方向とが平行でないとする。この場合でも、測距センサ6により検出される対象部位2までの距離に対して射影変換等を実行することでZ座標値を算出することが可能であり、第1の位置情報として用いることが可能である。
このように、第1の位置情報は、測距センサ6の位置に基づいて規定される方向(例えば、測定方向等)における位置情報や、3次元座標系を構成するZ座標軸における座標値等を含む。なお、3次元座標系を構成するZ座標軸は、本技術に係る第1の座標軸の一実施形態に相当する。
第2の位置情報は、機械学習により推定される対象部位2の位置情報である。
第2の位置情報は、測距センサ6により検出される対象部位2の第1の位置情報を、機械学習により推定した場合の位置情報となる。機械学習への入力されるデータ(情報)等は限定されず、任意のデータ(情報)が入力されてよい。例えば、測距センサ6により検出される対象部位2までの距離を入力として、機械学習により第2の位置情報が推定されてもよい。
例えば、第1の位置情報として、測距センサ6の位置に基づいて規定される方向における位置情報が検出されるとする。この場合には、機械学習により推定される、測距センサ6の位置に基づいて規定される方向における位置情報が、第2の位置情報として用いられる。
第1の位置情報として、測距センサ6の測定方向における位置情報が検出されるとする。この場合、機械学習により推定される、測距センサ6の測定方向における位置情報が、第2の位置情報として用いられる。
第1の位置情報として、3次元座標系を構成する第1の座標軸(例えばZ座標軸)における座標値が検出されるとする。この場合、機械学習により推定される、3次元座標系を構成する第1の座標軸(例えばZ座標軸)における座標値が、第2の位置情報として用いられる。
第2の位置情報を推定するための機械学習アルゴリズムの種類は限定されない。
例えばDNN(Deep Neural Network:深層ニューラルネットワーク)等を用いた任意の機械学習アルゴリズムを用いることが可能である。例えばディープラーニング(深層学習)を行うAI(人工知能)等を用いることで、第2の位置情報の推定精度を向上させることが可能となる。
例えば第2の位置情報を推定するために学習部及び識別部が構築される。学習部は、入力された情報(学習データ)に基づいて機械学習を行い、学習結果を出力する。また、識別部は、入力された情報と学習結果に基づいて、当該入力された情報の識別(判断や予測等)を行う。
学習部における学習手法には、例えばニューラルネットワークやディープラーニングが用いられる。ニューラルネットワークとは、人間の脳神経回路を模倣したモデルであって、入力層、中間層(隠れ層)、出力層の3種類の層から成る。
ディープラーニングとは、多層構造のニューラルネットワークを用いたモデルであって、各層で特徴的な学習を繰り返し、大量データの中に潜んでいる複雑なパターンを学習することができる。
ディープラーニングは、例えば画像内のオブジェクトや音声内の単語を識別する用途として用いられる。例えば、画像や動画の認識に用いられる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)等が用いられる。
また、このような機械学習を実現するハードウェア構造としては、ニューラルネットワークの概念を組み込まれたニューロチップ/ニューロモーフィック・チップが用いられ得る。
機械学習の問題設定には、教師あり学習、教師なし学習、半教師学習、強化学習、逆強化学習、能動学習、転移学習等がある。
例えば教師あり学習は、与えられたラベル付きの学習データ(教師データ)に基づいて特徴量を学習する。これにより、未知のデータのラベルを導くことが可能となる。
また、教師なし学習は、ラベルが付いていない学習データを大量に分析して特徴量を抽出し、抽出した特徴量に基づいてクラスタリングを行う。これにより、膨大な未知のデータに基づいて傾向の分析や未来予測を行うことが可能となる。
また、半教師学習は、教師あり学習と教師なし学習を混在させたものであって、教師あり学習で特徴量を学ばせた後、教師なし学習で膨大な訓練データを与え、自動的に特徴量を算出させながら繰り返し学習を行う方法である。
また、強化学習は、ある環境内におけるエージェントが現在の状態を観測して取るべき行動を決定する問題を扱うものである。エージェントは、行動を選択することで環境から報酬を習得し、一連の行動を通じて報酬が最も多く得られるような方策を学習する。このように、ある環境における最適解を学習することで、人間の判断力を再現し、また、人間を超える判断力をコンピュータに習得させることが可能となる。
機械学習によって、仮想的なセンシングデータを生成することも可能である。例えば、入力された画像情報から位置情報を生成するなど、あるセンシングデータから別のセンシングデータを予測して入力情報として使用することが可能である。
また、複数のセンシングデータから別のセンシングデータを生成することも可能である。また、必要な情報を予測し、センシングデータから所定の情報を生成することも可能である。
また、上記の機械学習とは異なる任意の学習アルゴリズム等が用いられてよい。例えば、対象部位2における第2の位置情報の平均値が予め登録されたルールベースにより第2の位置情報が推定されてもよい。所定の学習アルゴリズムに従って第2の位置情報を推定することで、第2の位置情報の推定精度を向上させることが可能となる。もちろん学習アルゴリズムが用いられる場合に限定される訳ではない。
なお学習アルゴリズムの適用は、本開示内の任意の処理に対して実行されてよい。
図1に示すように物体認識システム100は、センサ部5と、情報処理装置10と、プロジェクタ20とを含む。
センサ部5、情報処理装置10、及びプロジェクタ20は、有線又は無線を介して、通信可能に接続されている。各デバイス間の接続形態は限定されず、例えばWiFi等の無線LAN通信や、Bluetooth(登録商標)等の近距離無線通信を利用することが可能である。
物体認識システム100は、テーブル25に表示物3を表示する。表示物3は、ユーザ1が操作可能なように表示される。このように、テーブル25の天面26に表示物3を表示する方式をプロジェクション型とも称する。またテーブル25の天面26に表示物3を表示する方式はテーブルトップスクリーンとも称される。
表示物3は、プロジェクタやディスプレイ等に表示されるオブジェクトを含む。例えば、表示物3は、スクリーンやテーブル等に投影される画像及び動画を含む。もちろんこれに限定されず、ホログラム等の虚像、及びAR(Augmented Reality)等の仮想オブジェクトも表示物3に含まれる。
ユーザ1は、プロジェクタ20がテーブル25に表示する表示物3に対して、対象部位2などによって各種の操作を行うことができる。また、ユーザ1は、テーブル25の天面26に物体を置き、センサ部5に物体を認識させることによって、物体認識システム100に、その物体に関する種々の処理を実行させることが可能である。
センサ部5は、測距センサ6及び撮像装置(符号は省略)を含み、対象部位2に関する種々のデータを検出することが可能である。
例えば、カメラ等の撮像装置により対象部位2を含む動画像を取得することが可能である。動画像は、動画及び画像を含む。
測距センサ6は、測定対象物までの距離を測定可能な任意の装置を含む。例えば、測距センサ6としては、ToF(Time of Flight)カメラ、パッシブステレオ、アクティブステレオ、ステレオカメラ、レーザ測距センサ、及びLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)等が用いられる。
これ以外にも、センサ部5は任意の装置が用いられてもよい。例えば、デジタルカメラ、単眼カメラ、赤外線カメラ、偏光カメラ、及びその他の撮像装置が用いられる。また接触センサ、超音波センサ、ソナー、照度計及び生体センサ等のセンサデバイスが用いられてもよい。
またセンサ部5は、ユーザ1による操作に関する情報やテーブル25に置かれている物体の形状や模様等に関する情報を取得する。
図1に示された例では、センサ部5及びプロジェクタ20が、テーブル25の上方に、天井から吊り下げられた状態で設けられている。このように、テーブル25の上方からプロジェクタ20によって照射し、テーブル25の天面26に情報を表示する方式を上方プロジェクション型とも称する。センサ部5としては、1つのレンズでテーブル25を撮像するカメラが用いられてもよいし、2つのレンズでテーブル25を撮像してZ軸方向の情報を記録することが可能なステレオカメラが用いられてもよいし、ユーザ1が発する音声や環境音を収音するためのマイクロフォンが用いられてもよい。
またセンサ部5として、1つのレンズでテーブル25を撮像するカメラが用いられる場合、撮像された画像が解析されることによって、テーブル25に置かれた物体が認識されてもよい。またセンサ部5としてステレオカメラが用いられる場合、ステレオカメラにより取得された高さに基づいて、テーブル25の上に置かれた対象部位2の認識が可能になる。
またセンサ部5としてマイクロフォンが用いられる場合、そのマイクロフォンは特定の方向の音声を収音するためのマイクロフォンアレイが用いられてもよい。センサ部5としてマイクロフォンアレイが用いられる場合、収音方向が任意の方向に調整されてもよい。
情報処理装置10は、例えばCPUやGPU、DSP等のプロセッサ、ROMやRAM等のメモリ、HDD等の記憶デバイス等、コンピュータの構成に必要なハードウェアを有する(図11参照)。例えばCPUがROM等に予め記録されている本技術に係るプログラムをRAMにロードして実行することにより、本技術に係る情報処理方法が実行される。
例えばPC(Personal Computer)等の任意のコンピュータにより、情報処理装置10を実現することが可能である。もちろんFPGA、ASIC等のハードウェアが用いられてもよい。
本実施形態では、CPUが所定のプログラムを実行することで、機能ブロックとしての位置情報選択部17が構成される。もちろん機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが用いられてもよい。
プログラムは、例えば種々の記録媒体を介して情報処理装置10にインストールされる。あるいは、インターネット等を介してプログラムのインストールが実行されてもよい。
プログラムが記録される記録媒体の種類等は限定されず、コンピュータが読み取り可能な任意の記録媒体が用いられてよい。例えば、コンピュータが読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
情報処理装置10は、対象部位2の第1の位置情報7及び第2の位置情報8を取得する。なお、本開示において、情報の取得は、外部から送信された情報を受信する事、及び情報処理装置10自身により情報を生成することの両方を含む。
図1に例示する情報処理装置10は、取得された対象部位2の第1の位置情報7と対象部位2の第2の位置情報8の差分に基づいて、第1の位置情報7又は第2の位置情報8を選択する。
図2は、物体認識システム100及び情報処理装置10の機能的な構成例を示すブロック図である。
情報処理装置10は、特徴点推定部11、第1の位置情報生成部12、特徴点比較部13、信頼度判定部14、オクルージョン判定部15、状態判定部16、位置情報選択部17、及びコマンド実行部18を有する。
特徴点推定部11は、対象部位2の特徴点を推定する。本実施形態では、センサ部5の検出結果により得られた対象部位2における特徴点を推定する。また特徴点推定部11は、機械学習により対象部位2における特徴点の第2の位置情報を推定することが可能である。すなわち、対象部位2における特徴点の第2の位置情報が生成されるとも言える。
特徴点の推定は、特徴点の種々の情報を取得することも含む。例えば、特徴点の位置を示す座標や、特徴点同士の位置関係等が推定されてもよい。
なお、特徴点を推定するための任意の技術(アルゴリズム等)が採用されてよい。また特徴点推定部11により推定された特徴点に対して、機械学習により第2の位置情報を生成する第2の位置情報生成部が構成されてもよい。
第1の位置情報生成部12は、対象部位2に対して第1の位置情報を生成する。本実施形態では、第1の位置情報生成部12は、測距センサ6の検出結果を取得し、検出結果に基づいて第1の位置情報を生成する。例えば、特徴点推定部11により推定された特徴点のXY座標に基づいて、特徴点のZ座標が検出される。
すなわち、第1の位置情報生成部12は、特徴点のX座標及びY座標を特定情報として取得する。特定情報は、センサ部5の検出結果により得られた対象部位2を特定するための情報である。例えば、特定情報は、3次元座標系を構成する、第1の座標軸とは異なる第2の座標軸及び第3の座標軸の各々における座標値である。
なお、本実施形態において、X軸方向及びY軸方向における座標は、第2の座標軸及び第3の座標軸の各々における座標値に相当する。
特徴点比較部13は、特徴点における第1の位置情報と第2の位置情報とを比較する。本実施形態では、特徴点推定部11により推定された特徴点における、測距センサ6により検出されたZ座標と機械学習により推定されたZ座標との差分が比較される。
信頼度判定部14は、位置情報の信頼度を判定する。本実施形態では、測距センサ6により検出される第1の位置情報の信頼度が判定される。例えば、測距センサ6により得られたRGB画像やIR(Infra-Red)画像等に基づいて、第1の位置情報の信頼度が判定される。具体的な信頼度の判定方法は図10で説明する。
第1の位置情報の信頼度が下がる原因の例は、例えば、太陽光(日差し)が強い屋外等で、測距センサ6としてTOFが用いられた場合が挙げられる。
また例えば、同一色の背景等のパターンがない、又は同じ物体が並んでいる等の似たパターンで、測距センサ6としてパッシブステレオが用いられた場合が挙げられる。
また例えば、黒い物体や影、照明で白飛びしてる等のパターンが見えない、又は同じ物体が並んでいる等の似たパターンで、測距センサ6としてアクティブステレオが用いられた場合が挙げられる。
信頼度判定部14により判定された第1の位置情報の信頼度が位置情報選択部17に出力される。
オクルージョン判定部15は、第1の位置情報及び第2の位置情報に基づいて、対象部位2に関してオクルージョンの有無を判定する。本実施形態では、特徴点比較部13により比較された各特徴点のZ座標の差分に基づいて、対象部位2における各特徴点がオクルージョンの有無が判定される。例えば、手が対象部位2として設定された場合、特徴点である指の先端がオクルージョンの有無が判定される。
オクルージョンとは、手前にある物体が背後にある物体を隠している(見えない)状態である。例えば、手を閉じている状態の時、手の甲から見て、指の先端が手の甲等により見えない場合である。このような、対象物を所定の点から見た(センサにより検出された)場合に、対象物が見えない(センサにより検出されない)場合がオクルージョンに含まれる。
もちろん、これ以外の状態がオクルージョンとして判定されてもよい。例えば、遮光性の高い筐体の内部に収容された対象物がオクルージョンとして判定されてもよい。すなわち、センサの検出結果の信頼度が低い場合がオクルージョンと判定されてもよい。
なお、以下の記載では、オクルージョン又はオクルージョンが発生していることを隠れていると記載することがある。またオクルージョンではない場合を隠れていないと記載することがある。
状態判定部16は、対象部位2の状態に関する状態情報を判定する。本実施形態では、オクルージョン判定部15の判定結果に基づいて、対象部位2の状態情報が判定される。具体的な例を図7で説明する。
状態情報は、対象部位2の動作、及び対象部位2の形状を含む。例えば、対象部位2における所定の特徴点がオクルージョンと判定された場合、対象部位2である手がグー(手が閉じられた状態)と判定される。
対象部位2の動作は、水平又は垂直方向の移動、振動、回転等の種々の動作を含む。これ以外にも、スポーツ等で用いられるハンドシグナル等の様々な動作が含まれてもよい。
対象部位2の形状は、例えば、対象部位2が手の場合、チョキ(人差指及び中指のみが伸びている状態)、パー(手が開かれている状態)等を含む。これ以外にも、対象部位2に応じて様々な形状が含まれてもよい。
位置情報選択部17は、第1の位置情報又は第2の位置情報を選択する。本実施形態では、特徴点比較部13により比較された第1の位置情報及び第2の位置情報の差分に基づいて、第1の位置情報又は第2の位置情報が選択される。
また本実施形態では、信頼度判定部14により判定された第1の位置情報の信頼度に基づいて、第1の位置情報又は第2の位置情報が選択される。
具体的な第1の位置情報及び第2の位置情報の選択方法は図5で説明する。
コマンド実行部18は、ユーザ1の行った行動に対応するコマンドを実行する。例えば、ユーザ1がテーブル25の天面26に表示された表示物3に対してタッチした状態で指を動かした場合、指の動きに追従するように表示物3を移動させる。なお、実行されるコマンドの種類は、実行されるアプリケーションに応じて適宜変更されてもよい。
プロジェクタ20は、種々の表示物3を出力することが可能である。本実施形態では、コマンド実行部18により実行されるコマンドに基づいてテーブル25の天面26に表示物3を出力する。なお、プロジェクタ20によって表示物3が出力される領域は、テーブル25の天面26に限定されない。例えば、プロジェクタ20によって表示物3が出力される領域は、床面であってもよいし、壁面であってもよいし、物体などであってもよい。またプロジェクタ20は、スピーカや照明装置等を含んでもよい。
なお、本実施形態において、位置情報選択部17は、身体に含まれる対象部位に対して測距センサ6により検出される第1の位置情報と、対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、第1の位置情報又は第2の位置情報を選択する選択部に相当する。
また本実施形態において、特徴点推定部11は、センサの検出結果により得られた対象部位を特定するための特定情報を取得するための取得部に相当する。
また本実施形態において、信頼度判定部14は、測距センサ6により検出される第1の位置情報の信頼度を判定する信頼度判定部に相当する。
また本実施形態において、オクルージョン判定部15は、第1の位置情報及び第2の位置情報に基づいて、対象部位に関してオクルージョンの有無を判定するオクルージョン判定部に相当する。
また本実施形態において、状態判定部16は、オクルージョン判定部の判定結果に基づいて、対象部位の状態に関する状態情報を判定する状態判定部に相当する。
図3は、位置情報が選択される方法の一例を示すフローチャートである。図4は、対象部位2における特徴点の一例を示す模式図である。図4では、手30が対象部位2として設定される。
特徴点推定部11により、センサ部5から得られた検出結果に基づいて、機械学習により特徴点が推定される(ステップ101)。また推定された特徴点における第2の位置情報が生成される。
図4Aは、Z軸方向から見た対象部位2の模式図である。
図4Aに示すように、特徴点推定部11により、手30に対して特徴点が推定される。図4Aでは、手30の手首、指先、第1関節、第2関節、指の付け根、手首等に特徴点が図示されている。
例えば図4Aでは、Z方向から見た場合に、親指の第1関節、親指の先端31、中指の第1関節、中指の先端32、薬指の第1関節、薬指の第2関節、薬指の先端33、小指の第1関節、小指の第2関節、及び小指の先端34は隠れているため白丸で図示されている。
またZ方向から見た場合に、手首、指の付け根、人差し指の第1関節、人差し指の第2関節、及び人差し指の先端35の特徴点は隠れていないため黒丸で図示されている。
なお、図4における隠れているとは、Z方向から見た場合に、オクルージョン判定部15により特徴点にオクルージョンが発生していると判定されることを含む。
第1の位置情報生成部12により、推定された各特徴点における第1の位置情報が生成される(ステップ102)。本実施形態では、図4Aに図示される黒丸の特徴点における第1の位置情報と第2の位置情報とが生成される。また白丸の特徴点における第1の位置情報と第2の位置情報とが生成される。
特徴点比較部13により、特徴点における第1の位置情報と第2の位置情報とが比較される(ステップ103)。本実施形態では、測距センサ6により検出される特徴点のZ座標と、機械学習により推定される特徴点のZ座標とが比較される。また本実施形態では、センサ部5を原点として設定される。すなわち、Z座標は、センサ部5と特徴点との距離である。
図4Bは、X軸方向から見た対象部位2の模式図である。なお、図4Bでは図4Aに図示された特徴点の一部が説明のために省略されている。
図4Bに示すように、人差し指の先端の特徴点35の測距センサ6により検出されるZ座標36と、機械学習により推定されるZ座標とが比較される。また中指の先端の特徴点32の測距センサ6により検出されるZ座標37と、機械学習により推定されるZ座標とが比較される。
例えば、人差し指の先端の特徴点35のZ座標と、測距センサ6により検出される特徴点35のZ座標36との差分aが設定された閾値よりも小さい場合(ステップ103のNO)、位置情報選択部17により第1の位置情報(特徴点35のZ座標36)が選択される(ステップ104)。
また例えば、中指の先端の特徴点32のZ座標と、測距センサ6により検出される特徴点32のZ座標37との差分bが設定された閾値よりも大きい場合(ステップ103のYES)、特徴点比較部13により機械学習により推定された値(特徴点32のZ座標)が測距センサ6により検出された値(特徴点32のZ座標37)よりセンサ部5に対して離れているかが判定される(ステップ105)。
特徴点32の機械学習により推定された値が、特徴点32の測距センサ6により検出された値よりセンサ部5(測距センサ6)に対して離れている場合(ステップ105のYES)、オクルージョン判定部15により特徴点32が隠れていると判定される(ステップ106)。また位置情報選択部17により、特徴点32の第2の位置情報が選択される(ステップ108)。
また特徴点の機械学習により推定された値が、測距センサ6により検出された値よりセンサ部5に対して離れていない場合(ステップ105のNO)、オクルージョン判定部15により特徴点が隠れていないと判定される(ステップ107)。
また位置情報選択部17により、特徴点の第2の位置情報が選択される(ステップ108)。なお、位置情報が選択されるステップは限定されない。例えば、ステップ107のオクルージョン判定部15により特徴点が隠れていないと判定された場合、ステップ104の第1の位置情報が選択されてもよい。
図5は、位置情報の選択とオクルージョンの判定との具体例を示す表である。図5では、ステップ103及び105の具体的な判定例が図示される。
ここで設定された閾値をtと記載する。また測距センサ6により検出される特徴点のZ座標の値を測距センサの値と記載する。また機械学習により推定された特徴点のZ座標の値を機械学習推定値と記載する。なお、閾値は任意に設定されてもよい。例えば、子供の手の大きさを考慮して閾値が設定されてもよい。
特徴点における機械学習推定値と測距センサの値との差分の絶対値が閾値t以下の場合、位置情報選択部17により第1の位置情報が選択される。またオクルージョン判定部15により特徴点隠れていないと判定される。
特徴点における機械学習推定値と測距センサの値との差分の絶対値が閾値tより大きい場合、位置情報選択部17により第2の位置情報が選択される。またオクルージョン判定部15により特徴点が隠れていると判定される。
特徴点における機械学習推定値が測距センサの値よりも大きく、かつ機械学習推定値と測距センサの値との差分の絶対値が閾値tより大きい場合、位置情報選択部17により第2の位置情報が選択される。またオクルージョン判定部15により特徴点が隠れていると判定される。
特徴点における機械学習推定値が測距センサの値よりも小さく、かつ機械学習推定値と測距センサの値との差分の絶対値が閾値tより大きい場合、位置情報選択部17により第2の位置情報が選択される。またオクルージョン判定部15により特徴点が隠れていないと判定される。
なお、特徴点のオクルージョン判定の基準は限定されない。例えば、画像認識や機械学習等により特徴点のオクルージョンが判定されてもよい。また「より大きい」は、「以上」を含んでもよい。また「より小さい」は、「以下」及び「未満」を含んでもよい。またオクルージョンの判定基準は「より大きい」「より小さい」「以上」「以下」「未満」が任意に組み合わされてもよい。
なお、位置情報の選択に用いられる閾値と、特徴点のオクルージョン判定の基準に用いられる閾値とが異なっていてもよい。
図6は、対象部位2の状態の判定を行うフローチャートである。図6では、図3に示すフローチャートのステップ101〜108の説明を簡略化する。
オクルージョン判定部15により特徴点が隠れていると判定された場合(ステップ106)、状態判定部16により対象部位2の状態情報が判定される(ステップ201)。本実施形態では、対象部位2である手の状態情報が判定される。
図7は、対象部位2の状態の判定及び結果の具体例を示す表である。図8は、対象部位2の状態の一例を示す模式図である。図9は、対象部位2の状態の一例を示す模式図である。
図8Aに示すように、特徴点推定部11により手40の親指41と人差し指42に特徴点が推定される。図8Aの左図では、親指41と人差し指42とが離れている状態である。ここで手を回転させ、センサ部5から見た手が図8Aの右図になったとする。すなわち、センサ部5からは親指41と人差し指42とが隠れている状態である。この場合、状態判定部16により手が予め指定した形状と判定される。または手40が図8Aの左図の形状(過去の状態)をキープ(維持)していると判定される。
例えば、図8Bの左図では、手45の親指46と人差し指47とが接触している状態である。ここで図8Aと同様に手を回転させ、センサ部5からは親指46と人差し指47とが隠れている状態となったとする。状態判定部16は、手45が親指46と人差し指47とが接触している状態と判定する。すなわち、手45が図8Bの左図の形状をキープしていると判定される。
またこれ以外にも、所定の特徴点が隠れた場合に、手の形状を予め指定した形状として判定されてもよい。これにより、信頼性の低い隠れた特徴点を用いることでの誤動作を抑制できる。
また本実施形態では、隠れている特徴点の数や特徴点に対応する対象部位2の箇所に応じて、手の状態が判定される。例えば、関節と手中心との特徴点が隠れている場合、状態判定部16により手が物体を把持していると判定される。また例えば、所定の特徴点の1つ又は複数が隠れている場合、状態判定部16により手が物体を把持していると判定される。
図9Aは、手50が物体51を把持している状態の模式図である。
図9Aに示すように、親指の先端、親指の関節、人差し指の先端、中指の先端、薬指の先端、及び小指の先端における隠れていない特徴点52と、人差し指の関節、中指の関節、薬指の関節、小指の関節、及び手中心における隠れている特徴点53とが図示される。
例えば、センサ部5の検出結果により物体51がオブジェクト認識され、かつ関節と手中心との特徴点が隠れている場合、状態判定部16により手50が物体51を把持していると判定される。
また例えば、センサ部5の検出結果により物体51がオブジェクト認識され、かつ所定の特徴点が隠れている場合、状態判定部16により手50が物体51を把持していると判定される。
なお、物体51の認識方法は限定されない。例えば、機械学習等で物体51がオブジェクト認識されてもよい。
図9Bは、手55が所定の形状の状態の模式図である。なお、図9Bでは、親指の第1関節や中指の第1関節等の特徴点が省略されている。
図9Bに示すように、手55の形状は人差し指を伸ばし、その他の指を閉じている状態である。なお、この手55の形状をポインティング形状と記載する。
図9Bでは、オクルージョン判定部15により親指の先端56、中指の先端57、薬指の先端58、及び小指の先端59の特徴点が隠れていると判定される。状態判定部16により隠れている特徴点がある状態と判定される。この場合、状態判定部16により判定結果がコマンド実行部18に出力される。コマンド実行部18により隠れている特徴点に対応する指の種々の入力が行われないように制御される。すなわち、手55の形状がポインティング形状の場合、突出している人差し指の入力のみが受け付けられる。
例えば、コマンド実行部18は、親指の先端56、中指の先端57、薬指の先端58、及び小指の先端59の表示物3を触れるタッチ操作等の入力を受け付けないようにすることが可能である。これにより、隠れた特徴点に対応する対象部位2の誤操作を防ぐことが可能となる。
また状態判定部16により指定した指の特徴点が隠れているため、隠れている指に応じた形状と判定される。例えば、人差し指の先端及び中指の先端以外の指の先端の特徴点が隠れていると判定された場合、手がピースサイン(人差し指及び中指のみが伸びている状態)と判定される。これにより、信頼性の低い隠れた特徴点の誤タッチを防ぐことができる。また対象部位2の簡単に形状を判断できる。
以上、本実施形態に係る情報処理装置10は、身体に含まれる対象部位2に対してセンサ部5により検出される第1の位置情報7と、対象部位2に対して機械学習により推定される第2の位置情報8との差分に基づいて、第1の位置情報7又は第2の位置情報8が選択される。これにより、対象部位を高精度に認識することが可能となる。
機械学習による3次元座標系の特徴点の検出において、測距センサから得られる距離情報が機械学習で求めたZ値より精度が良い場合がある。機械学習の場合、隠れている場所の特徴点を推定することが可能である。しかし、学習データに対する期待値が求まるため、学習データが少ない場合や分布に偏りがある場合に、機械学習の結果が正確ではない場合がある。
一方で、測距センサから得られる距離情報は、見えている表面であれば正確に求められる。しかし、隠れている場所の特徴点に対しては測定ができない。また太陽光や特徴のないパターン等の影響で正確に距離情報が得られない可能性がある。
そこで、本技術では、測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、第1の位置情報又は第2の位置情報を選択する。これにより、対象部位を高精度に認識することが可能となる。また1つのセンサ部による同視点の検出においても、オクルージョン等に頑健な認識を可能とする。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記の実施形態では、オクルージョン判定部15により特徴点のオクルージョンの有無が判定された。これに限定されず、特徴点のオクルージョンの判定は任意の方法が採用されてもよい。例えば、手の形状から予め登録されたルールベースにより特徴点のオクルージョンの有無が判定されてもよい。また機械学習を用いて特徴点のオクルージョンの有無が判定されてもよい。
また上記の実施形態では、オクルージョン判定部15により特徴点のオクルージョンの有無が判定された後に、位置情報選択部17により第2の位置情報が選択された。これに限定されず、特徴点のオクルージョンの有無が判定されなくてもよい。
図10は、位置情報が選択される方法の他の例を示すフローチャートである。
特徴点推定部11により、センサ部5から得られた検出結果に基づいて、機械学習により特徴点が推定される(ステップ301)。また推定された特徴点における第2の位置情報が生成される。
第1の位置情報生成部12により、推定された各特徴点における第1の位置情報が生成される(ステップ302)。
信頼度判定部14により、第1の位置情報の信頼度が所定の閾値より大きいかが判定される(ステップ303)。
対象部位2の第1の位置情報が検出される際に測距センサ6としてTOFが用いられたとする。この場合、信頼度判定部14は、照度計の値に基づいて、第1の位置情報の信頼度を判定する。例えば、照度計の値が高い場合、第1の位置情報の信頼度が低く判定される。
対象部位2の第1の位置情報が検出される際に測距センサ6としてパッシブステレオが用いられたとする。この場合、信頼度判定部14は、予め設定された領域ごとの輝度のヒストグラムに基づいて、第1の位置情報の信頼度を判定する。もしくは、信頼度判定部14は、所定の領域のパターンに対して行われたパターンマッチングに基づいて、第1の位置情報の信頼度を判定する。例えば、パターンマッチングにより対象部位2に似た物体があったと判定された場合に、第1の位置情報の信頼度が高く判定される。
対象部位2の第1の位置情報が検出される際に測距センサ6としてアクティブステレオが用いられたとする。この場合、信頼度判定部14は、予め設定された領域ごとの輝度のヒストグラムに基づいて、第1の位置情報の信頼度を判定する。もしくは、信頼度判定部14は、所定の領域のパターンに対して行われたパターンマッチングに基づいて、第1の位置情報の信頼度を判定する。例えば、パターンマッチングにより対象部位2に似た物体があったと判定された場合に、第1の位置情報の信頼度が高く判定される。
なお、第1の位置情報の信頼度の判定方法は限定されない。例えば、濃淡や色の輝度値に基づいて、信頼度が判定されてもよい。
第1の位置情報の信頼度が所定の閾値より小さい場合(ステップ303のNO)、位置情報選択部17により、特徴点の第2の位置情報が選択される(ステップ305)。
第1の位置情報の信頼度が所定の閾値より大きい場合(ステップ303のYES)、特徴点比較部13により、特徴点における第1の位置情報と第2の位置情報とが比較される(ステップ304)。
特徴点における第1の位置情報と第2の位置情報との差分が設定した閾値より大きい場合(ステップ304のYES)、位置情報選択部17により、特徴点の第2の位置情報が選択される(ステップ305)。
特徴点における第1の位置情報と第2の位置情報との差分が設定した閾値より小さい場合(ステップ304のNO)、位置情報選択部17により、特徴点の第2の位置情報が選択される(ステップ306)。
なお、閾値は任意に設定されてもよい。例えば、センサ部5の性能や周囲の環境に基づいて設定されてもよい。また閾値が設定されなくてもよい。例えば、上記の信頼度が低くなる要因が検出された場合に、ステップ303のNOの処理が実行されてもよい。もちろん信頼度が低くなる要因が検出されない場合は、ステップ303のYESの処理が実行されてもよい。
上記の実施形態では、センサ部5(測距センサ6)が対象部位2に対してZ軸方向上に配置された。これに限定されず、センサ部5は任意に配置されてもよい。この場合、例えば、対象部位2の特徴点における第2の位置情報がセンサ部5の測定方向に応じた座標値に射影変換等が実行されてもよい。またセンサ部5とテーブル25が正対していない等の座標系が異なる場合、回転行列や並進ベクトル等が用いられ計算されてもよい。例えば、テーブル25の天面26に垂直な法線ベクトルとセンサ部5の測定方向のベクトルとを一致させるために計算されてもよい。もちろんこれ以外にも回転ベクトル、並進行列、クォータニオン(4元数)、オイラー角等が用いられて計算されてもよい。
上記の実施形態では、対象部位2の形状が特徴点のオクルージョンの有無により判定された。これに限定されず、任意の方法で対象部位2の形状が判定されてもよい。例えば対象部位2が手の場合、手のテクスチャから突端を指先として、突端の数から予め登録されたルールベースにより形状が認識されてもよい。また骨格推定が実行されてもよい。骨格推定は、ボーン推定やスケルトン推定ともいわれ、周知の技術を用いて実行可能である。
上記の実施形態では、第1の位置情報の信頼度が判定された。これに限定されず、第2の位置情報の信頼度が判定されてもよい。例えば、機械学習の学習データが少ない場合に、第2の位置情報の信頼度が低く判定されてもよい。また例えば、機械学習により推定された値が実際の値に対して分布に偏りがある場合に、第2の位置情報の信頼度が低く判定されてもよい。
上記の実施形態では、特徴点のXY座標に基づいて、測距センサ6により検出されたZ座標の座標値と機械学習により推定されたZ座標の座標値とが比較された。これに限定されず、機械学習により推定された特徴点に対して所定の範囲内の測距センサ6により検出されたZ座標の座標値と、機械学習により推定されたZ座標の座標値とが比較されてもよい。
上記の実施形態では、表示物3がプロジェクタ20により表示された。これに限定されず、表示物3を表示するデバイスは、タッチパネル式のディスプレイであってもよいし、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどであってもよい。
上記の実施形態では、物体認識システム100には上方プロジェクション型の形態が用いられた。これに限定されず、プロジェクタ20がテーブル25の下方から表示物を照射することで、テーブル25の天面26に表示物3が表示されてもよい。この場合、テーブル25の天面26は、ガラス板やプラスチック板等の半透明な材質によって形成されてもよい。このような、プロジェクタ20がテーブル25の下方から表示物を照射することで、テーブル25の天面26に表示物3が表示される方式をリアプロジェクション型とも称する。
図11は、情報処理装置10のハードウェア構成例を示すブロック図である。
情報処理装置10は、CPU61、ROM(Read Only Memory)62、RAM63、入出力インタフェース65、及びこれらを互いに接続するバス64を備える。入出力インタフェース65には、表示部66、入力部67、記憶部68、通信部69、及びドライブ部70等が接続される。
表示部66は、例えば液晶、EL等を用いた表示デバイスである。入力部67は、例えばキーボード、ポインティングデバイス、タッチパネル、その他の操作装置である。入力部67がタッチパネルを含む場合、そのタッチパネルは表示部66と一体となり得る。
記憶部68は、不揮発性の記憶デバイスであり、例えばHDD、フラッシュメモリ、その他の固体メモリである。ドライブ部70は、例えば光学記録媒体、磁気記録テープ等、リムーバブルの記録媒体71を駆動することが可能なデバイスである。
通信部69は、LAN、WAN等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部69は、有線及び無線のどちらを利用して通信するものであってもよい。通信部69は、情報処理装置10とは別体で使用される場合が多い。
本実施形態では、通信部69により、ネットワークを介した他の装置との通信が可能となる。
上記のようなハードウェア構成を有する情報処理装置10による情報処理は、記憶部68またはROM62等に記憶されたソフトウェアと、情報処理装置10のハードウェア資源との協働により実現される。具体的には、ROM62等に記憶された、ソフトウェアを構成するプログラムをRAM63にロードして実行することにより、本技術に係る情報処理方法が実現される。
プログラムは、例えば記録媒体61を介して情報処理装置10にインストールされる。あるいは、グローバルネットワーク等を介してプログラムが情報処理装置10にインストールされてもよい。その他、コンピュータ読み取り可能な非一過性の任意の記憶媒体が用いられてよい。
通信端末に搭載されたコンピュータとネットワーク等を介して通信可能な他のコンピュータとが連動することにより本技術に係る情報処理装置、情報処理方法、及びプログラムが実行され、本技術に係る情報処理装置が構築されてもよい。
すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお、本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理装置、情報処理方法、及びプログラムの実行は、例えば、位置情報の生成、特徴点の比較、及び位置情報の選択等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部又は全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理装置、情報処理方法、及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
各図面を参照して説明した信頼度判定部、オクルージョン判定部、状態判定部、位置情報選択部等の各構成、通信システムの制御フロー等はあくまで一実施形態であり、本技術の趣旨を逸脱しない範囲で、任意に変形可能である。すなわち本技術を実施するための他の任意の構成やアルゴリズム等が採用されてよい。
なお、本開示中に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。上記の複数の効果の記載は、それらの効果が必ずしも同時に発揮されるということを意味しているのではない。条件等により、少なくとも上記した効果のいずれかが得られることを意味しており、もちろん本開示中に記載されていない効果が発揮される可能性もある。
以上説明した各形態の特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。
本開示において、「中心」「中央」「均一」「等しい」「同じ」「直交」「平行」「対称」「延在」「軸方向」「円柱形状」「円筒形状」「リング形状」「円環形状」等の、形状、サイズ、位置関係、状態等を規定する概念は、「実質的に中心」「実質的に中央」「実質的に均一」「実質的に等しい」「実質的に同じ」「実質的に直交」「実質的に平行」「実質的に対称」「実質的に延在」「実質的に軸方向」「実質的に円柱形状」「実質的に円筒形状」「実質的にリング形状」「実質的に円環形状」等を含む概念とする。
例えば「完全に中心」「完全に中央」「完全に均一」「完全に等しい」「完全に同じ」「完全に直交」「完全に平行」「完全に対称」「完全に延在」「完全に軸方向」「完全に円柱形状」「完全に円筒形状」「完全にリング形状」「完全に円環形状」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
なお、本技術は以下のような構成も採ることができる。
(1)
身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する選択部
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記選択部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記第2の位置情報を選択する
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの位置に基づいて規定される方向における位置情報である
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの測定方向における位置情報である
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記第1の位置情報及び前記第2の位置情報の各々は、3次元座標系を構成する第1の座標軸における座標値である
情報処理装置。
(6)(1)から(5)のうちいずれか1つに記載の情報処理装置であって、さらに、
センサの検出結果により得られた前記対象部位を特定するための特定情報を取得するための取得部を具備し、
前記選択部は、取得された前記特定情報に基づいて、前記第1の位置情報及び前記第2の位置情報の少なくとも一方を取得する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記特定情報は、前記3次元座標系を構成する、前記第1の座標軸とは異なる第2の座標軸及び第3の座標軸の各々における前記対象部位の座標値である
情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記第1の位置情報及び前記第2の位置情報に基づいて、前記対象部位に関してオクルージョンの有無を判定するオクルージョン判定部を具備する
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記オクルージョンの有無を判定する
情報処理装置。
(10)(8)又は(9)に記載の情報処理装置であって、
前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記オクルージョンが発生していると判定する
情報処理装置。
(11)(8)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記オクルージョン判定部は、前記測距センサの位置を基準として、前記第1の位置情報よりも前記第2の位置情報の方が大きい場合に、前記オクルージョンが発生していると判定する
情報処理装置。
(12)(8)から(11)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記オクルージョン判定部の判定結果に基づいて、前記対象部位の状態に関する状態情報を判定する状態判定部を具備する
情報処理装置。
(13)(12)に記載の情報処理装置であって、
前記状態情報は、前記対象部位の動作及び前記対象部位の形状を含む
情報処理装置。
(14)(12)又は(13)に記載の情報処理装置であって、
前記状態判定部は、前記対象部位に関する所定の特徴点にオクルージョンが発生していると判定された場合、前記状態情報を判定する
情報処理装置。
(15)(1)から(14)のうちいずれか1つに記載の情報処理装置であって、さらに、
前記測距センサにより検出される前記第1の位置情報の信頼度を判定する信頼度判定部を具備する
情報処理装置。
(16)(15)に記載の情報処理装置であって、
前記信頼度判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記第1の位置情報の信頼度を判定する
情報処理装置。
(17)(15)又は(16)に記載の情報処理装置であって、
前記選択部は、前記第1の位置情報の前記信頼度が所定の閾値より低い場合、前記第2の位置情報を選択する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記対象部位は、手を含む
情報処理装置。
(19)
身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する
ことをコンピュータシステムが実行する情報処理方法。
(20)
体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択するステップ
をコンピュータシステムに実行させるプログラム。
2…対象部位
5…センサ部
10…情報処理装置
11…特徴点推定部
14…信頼度判定部
15…オクルージョン判定部
16…状態判定部
17…位置情報選択部
100…情報選択システム

Claims (20)

  1. 身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する選択部
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記選択部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記第2の位置情報を選択する
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの位置に基づいて規定される方向における位置情報である
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記第1の位置情報及び前記第2の位置情報の各々は、前記測距センサの測定方向における位置情報である
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記第1の位置情報及び前記第2の位置情報の各々は、3次元座標系を構成する第1の座標軸における座標値である
    情報処理装置。
  6. 請求項1に記載の情報処理装置であって、さらに、
    センサの検出結果により得られた前記対象部位を特定するための特定情報を取得するための取得部を具備し、
    前記選択部は、取得された前記特定情報に基づいて、前記第1の位置情報及び前記第2の位置情報の少なくとも一方を取得する
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記特定情報は、前記3次元座標系を構成する、前記第1の座標軸とは異なる第2の座標軸及び第3の座標軸の各々における前記対象部位の座標値である
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、さらに、
    前記第1の位置情報及び前記第2の位置情報に基づいて、前記対象部位に関してオクルージョンの有無を判定するオクルージョン判定部を具備する
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記オクルージョンの有無を判定する
    情報処理装置。
  10. 請求項8に記載の情報処理装置であって、
    前記オクルージョン判定部は、前記第1の位置情報と前記第2の位置情報との差分が所定の閾値より大きい場合、前記オクルージョンが発生していると判定する
    情報処理装置。
  11. 請求項8に記載の情報処理装置であって、
    前記オクルージョン判定部は、前記測距センサの位置を基準として、前記第1の位置情報よりも前記第2の位置情報の方が大きい場合に、前記オクルージョンが発生していると判定する
    情報処理装置。
  12. 請求項8に記載の情報処理装置であって、さらに、
    前記オクルージョン判定部の判定結果に基づいて、前記対象部位の状態に関する状態情報を判定する状態判定部を具備する
    情報処理装置。
  13. 請求項12に記載の情報処理装置であって、
    前記状態情報は、前記対象部位の動作及び前記対象部位の形状を含む
    情報処理装置。
  14. 請求項12に記載の情報処理装置であって、
    前記状態判定部は、前記対象部位に関する所定の特徴点にオクルージョンが発生していると判定された場合、前記状態情報を判定する
    情報処理装置。
  15. 請求項1に記載の情報処理装置であって、さらに、
    前記測距センサにより検出される前記第1の位置情報の信頼度を判定する信頼度判定部を具備する
    情報処理装置。
  16. 請求項15記載の情報処理装置であって、
    前記信頼度判定部は、前記第1の位置情報と前記第2の位置情報との差分に基づいて、前記第1の位置情報の信頼度を判定する
    情報処理装置。
  17. 請求項15に記載の情報処理装置であって、
    前記選択部は、前記第1の位置情報の前記信頼度が所定の閾値より低い場合、前記第2の位置情報を選択する
    情報処理装置。
  18. 請求項1に記載の情報処理装置であって、
    前記対象部位は、手を含む
    情報処理装置。
  19. 身体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択する
    ことをコンピュータシステムが実行する情報処理方法。
  20. 体に含まれる対象部位に対して測距センサにより検出される第1の位置情報と、前記対象部位に対して機械学習により推定される第2の位置情報との差分に基づいて、前記第1の位置情報又は前記第2の位置情報を選択するステップ
    をコンピュータシステムに実行させるプログラム。
JP2019190029A 2019-10-17 2019-10-17 情報処理装置、情報処理方法、及びプログラム Pending JP2021064320A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019190029A JP2021064320A (ja) 2019-10-17 2019-10-17 情報処理装置、情報処理方法、及びプログラム
PCT/JP2020/027201 WO2021075102A1 (ja) 2019-10-17 2020-07-13 情報処理装置、情報処理方法、及びプログラム
US17/760,617 US20220334674A1 (en) 2019-10-17 2020-07-13 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019190029A JP2021064320A (ja) 2019-10-17 2019-10-17 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021064320A true JP2021064320A (ja) 2021-04-22

Family

ID=75486369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019190029A Pending JP2021064320A (ja) 2019-10-17 2019-10-17 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20220334674A1 (ja)
JP (1) JP2021064320A (ja)
WO (1) WO2021075102A1 (ja)

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8845110B1 (en) * 2010-12-23 2014-09-30 Rawles Llc Powered augmented reality projection accessory display device
JP6065433B2 (ja) * 2012-07-12 2017-01-25 株式会社リコー 投影装置、投影システム、プログラム
US9857166B2 (en) * 2012-09-19 2018-01-02 Canon Kabushiki Kaisha Information processing apparatus and method for measuring a target object
US20150286341A1 (en) * 2012-11-21 2015-10-08 The Board Of Trustees Of The Leland Stanford Junior University multi-touch ultrasonic touch screen
JP6201379B2 (ja) * 2013-04-02 2017-09-27 富士通株式会社 位置算出システム、位置算出プログラム、および、位置算出方法
US9411432B2 (en) * 2013-04-18 2016-08-09 Fuji Xerox Co., Ltd. Systems and methods for enabling gesture control based on detection of occlusion patterns
US20150185850A1 (en) * 2013-12-27 2015-07-02 Farzin Guilak Input detection
JP6417702B2 (ja) * 2014-05-01 2018-11-07 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6569449B2 (ja) * 2015-10-08 2019-09-04 セイコーエプソン株式会社 表示システム、プロジェクター及び表示システムの制御方法
JP6575400B2 (ja) * 2016-03-02 2019-09-18 富士通株式会社 指先位置推定装置、操作判定装置、指先位置推定システム、指先位置推定プログラム及び指先位置推定方法
JP6723061B2 (ja) * 2016-04-15 2020-07-15 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US11244467B2 (en) * 2016-11-07 2022-02-08 Sony Corporation Information processing apparatus, information processing mei'hod, and recording medium
US10061441B2 (en) * 2016-12-27 2018-08-28 Microvision, Inc. Touch interactivity with occlusions in returned illumination data
US10761188B2 (en) * 2016-12-27 2020-09-01 Microvision, Inc. Transmitter/receiver disparity for occlusion-based height estimation
US11002855B2 (en) * 2016-12-27 2021-05-11 Microvision, Inc. Occlusion-based height estimation
US11402909B2 (en) * 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
CN110622217B (zh) * 2017-05-12 2023-04-18 富士通株式会社 距离图像处理装置以及距离图像处理系统
WO2018230645A1 (ja) * 2017-06-14 2018-12-20 株式会社東芝 異常検知装置、異常検知方法、およびプログラム
CN108182730B (zh) * 2018-01-12 2022-08-12 北京小米移动软件有限公司 虚实对象合成方法及装置
JP7094702B2 (ja) * 2018-01-12 2022-07-04 キヤノン株式会社 画像処理装置及びその方法、プログラム
US20210326586A1 (en) * 2018-05-09 2021-10-21 Nviso Sa Image Processing System for Extracting a Behavioral Profile from Images of an Individual Specific to an Event
EP3579138B1 (en) * 2018-06-04 2020-11-11 CogVis Software und Consulting GmbH Method for determining a type and a state of an object of interest
US11113571B2 (en) * 2018-10-11 2021-09-07 Kognition Llc Target object position prediction and motion tracking
JP6532631B1 (ja) * 2018-10-15 2019-06-19 三菱電機株式会社 タッチパネル入力装置、タッチパネル入力方法、及びプログラム
US20200167005A1 (en) * 2018-11-28 2020-05-28 Seiko Epson Corporation Recognition device and recognition method
JP7349793B2 (ja) * 2019-02-15 2023-09-25 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP7238456B2 (ja) * 2019-02-21 2023-03-14 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
WO2020261403A1 (ja) * 2019-06-26 2020-12-30 日本電気株式会社 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
US11151408B2 (en) * 2019-09-10 2021-10-19 Snap Inc. Occlusion detection system
CA3149544A1 (en) * 2019-09-17 2021-03-25 Samuel COLACHIS Activity assistance system
US11287926B1 (en) * 2020-09-25 2022-03-29 Apple Inc. System and machine learning method for detecting input device distance from touch sensitive surfaces
TWI806217B (zh) * 2021-07-19 2023-06-21 美商惠普發展公司有限責任合夥企業 觸碰相關汙染狀態判定技術
US20230033151A1 (en) * 2021-07-30 2023-02-02 Samsung Electronics Co., Ltd. Wearable electronic device including projection display

Also Published As

Publication number Publication date
US20220334674A1 (en) 2022-10-20
WO2021075102A1 (ja) 2021-04-22

Similar Documents

Publication Publication Date Title
US11861070B2 (en) Hand gestures for animating and controlling virtual and graphical elements
US20220206588A1 (en) Micro hand gestures for controlling virtual and graphical elements
US10394334B2 (en) Gesture-based control system
US20220326781A1 (en) Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
CN107428004B (zh) 对象数据的自动收集和标记
US10019074B2 (en) Touchless input
US20190235636A1 (en) Systems and Methods of Creating a Realistic Displacement of a Virtual Object in Virtual Reality/Augmented Reality Environments
US10540812B1 (en) Handling real-world light sources in virtual, augmented, and mixed reality (xR) applications
JP5887775B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
JP2016503220A (ja) ジェスチャ認識のためのパーツ及び状態検出
US20150153835A1 (en) Initializing predictive information for free space gesture control and communication
JP2004246578A (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
WO2021075102A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Guliani et al. Gesture controlled mouse navigation: Hand landmark approach
US11595568B2 (en) System for generating a three-dimensional scene of a physical environment
WO2021075103A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20220182777A1 (en) Augmented reality spatial audio experience
Ansari et al. Air Pose Canvas with Hand Pose Estimation using Machine Learning
Susantok et al. Android-based Touch Screen Projector Design Using a 3D Camera
Srivastava et al. Design and Development of Gesture Recognition Based Virtual Mouse System
Diaz et al. Preliminary experimental study of marker-based hand gesture recognition system
Sharma Hand Gesture Recognition System: As Assistive Technology to Control Machines
CN115981492A (zh) 三维笔迹生成方法、设备及系统
Asgarov Check for updates 3D-CNNs-Based Touchless Human-Machine Interface
KR20240035281A (ko) 현실 공간에서 객체를 제어하는 증강 현실 서비스를 제공하는 증강 현실 디바이스 및 그 동작 방법