JP2020119024A - 情報処理装置、情報処理方法、及び、記録媒体 - Google Patents

情報処理装置、情報処理方法、及び、記録媒体 Download PDF

Info

Publication number
JP2020119024A
JP2020119024A JP2019007068A JP2019007068A JP2020119024A JP 2020119024 A JP2020119024 A JP 2020119024A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2020119024 A JP2020119024 A JP 2020119024A
Authority
JP
Japan
Prior art keywords
information processing
state
detection unit
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019007068A
Other languages
English (en)
Inventor
脩 繁田
Osamu Shigeta
脩 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019007068A priority Critical patent/JP2020119024A/ja
Priority to PCT/JP2019/051425 priority patent/WO2020149147A1/ja
Publication of JP2020119024A publication Critical patent/JP2020119024A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の一部分の認識精度を向上させる。【解決手段】情報処理装置は、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を備える。本技術は、例えば、スマートフォン、タブレットコンピュータ等に適用できる。【選択図】図2

Description

本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、物体の一部分の認識精度を向上させるようにした情報処理装置、情報処理方法、及び、記録媒体に関する。
近年、画像内の人の顔を認識する顔認識技術の普及が進んでいる(例えば、特許文献1参照)。
特開2017−91059号公報
しかしながら、顔認識技術では、人の顔以外の部分を認識することはできない。また、一般的に、顔認識技術のように画像を用いた物体認識技術は、顔のように視覚的な特徴が多い部分の認識は得意であるが、視覚的な特徴が少ない部分の認識は不得意である。
本技術は、このような状況に鑑みてなされたものであり、物体の一部分の認識精度を向上させるようにするものである。
本技術の一側面の情報処理装置は、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を備える。
本技術の一側面の情報処理方法は、情報処理装置が、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する。
本技術の一側面の記録媒体に記録されているプログラムは、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する処理をコンピュータに実行させる。
本技術の一側面においては、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域が認識される。
本技術を適用した情報処理システムの一実施の形態を示すブロック図である。 情報処理部の構成例を示すブロック図である。 撮影部の構成例及び設置例を示す図である。 認識処理を説明するためのフローチャートである。 相互相関係数の計算結果の例を示す図である。 対象領域の認識例を説明するための図である。 対象領域の認識例を説明するための図である。 対象領域の認識例を説明するための図である。 対象領域の認識例を説明するための図である。 認識処理の第1の変形例を説明するための図である。 認識処理の第2の変形例を説明するための図である。 認識処理の第3の変形例を説明するための図である。 コンピュータの構成例を示す図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
<<1.実施の形態>>
まず、図1乃至図9を参照して、本技術の実施の形態について説明する。
<情報処理システム11の構成例>
情報処理システム11は、物体認識処理を行うシステムである。特に、情報処理システム11は、物体全体だけでなく、物体の一部分の認識が可能である。
情報処理システム1は、検出部21−1乃至検出部21−m、撮影部22、及び、情報処理部23を備える。
検出部21−1は、対象物12−1に設けられ、対象物12−1の一部分(以下、対象部分と称する)の状態に関するデータを検出する。対象部分は、検出部21−1の検出対象となる部分であって、検出部21−1を含む部分である。
検出部21−1は、検出結果を示す検出データを情報処理部23に送信する。なお、検出データの送信には、任意の方式の有線通信又は無線通信を用いることができる。
検出部21−2乃至検出部21−mも、検出部21−1と同様に、それぞれ対象物12−2乃至対象物12−mの対象部分の状態に関するデータを検出し、検出結果を示す検出データを情報処理部23に送信する。
なお、以下、対象物12−1乃至対象物12−m、及び、検出部21−1乃至検出部21−mを個々に区別する必要がない場合、単に、対象物12及び検出部21と称する。
撮影部22は、対象物12、及び、非対象物13−1乃至非対象物13−nを含む空間(以下、撮影空間と称する)内の撮影を行う。すなわち、撮影部22は、撮影空間内の対象物12−1乃至対象物12−m及び非対象物13−1乃至非対象物13−nを含む画像(以下、撮影画像と称する)を撮影する。撮影部22は、撮影画像を含むデータである撮影画像データを情報処理部23に送信する。なお、撮影画像データの送信には、任意の方式の有線通信又は無線通信を用いることができる。
なお、非対象物13−1乃至非対象物13−nは、撮影空間内に存在する対象物12以外の物体であり、その種類は問わない。また、以下、非対象物13−1乃至非対象物13−nを個々に区別する必要がない場合、単に非対象物13と称する。
情報処理部23は、例えば、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ、ゲーム端末等の情報処理装置により構成される。情報処理部23は、各検出部21からの検出データ、及び、撮影部22からの撮影画像データに基づいて、各対象物12の認識処理を行う。より具体的には、情報処理部23は、撮影画像内の各対象物12の対象部分に対応する領域(以下、対象領域と称する)の認識処理を行う。情報処理部23は、各対象物12の対象領域の認識結果を示すデータを出力する。
なお、対象物12は、検出部21を設けることが可能な物体であれば、その種類は特に限定されない。また、対象物12は、動体でも静止物でもよい。
さらに、検出部21の検出対象となる状態は、撮影画像でも検出可能な状態であれば、特に限定されない。例えば、対象部分の位置、姿勢、動き、属性等のうち1つ以上が検出される。対象部分の動きとしては、例えば、対象部分の速度、加速度、角速度、角加速度等が想定される。対象部分の属性としては、例えば、対象部分の形状、色、材質、温度等が想定される。
また、検出部21を設置する位置は、対象部分の状態に関するデータが検出可能な位置であればよく、特に制限はない。例えば、検出部21は、対象物12の表面又は内部のいずれに設けられてもよい。また、例えば、対象物12が人である場合、検出部21を各種のセンサを備えるウエアラブルデバイスにより構成し、対象物12が検出部21を装着するようにしてもよい。
さらに、撮影画像は、各検出部21の検出対象となる状態と同じ種類の状態が検出可能な画像であれば、その種類は特に問わない。
また、各対象物12は、必ずしも全て同じ種類の物体でなくてもよい。さらに、各検出部21の検出対象となる状態の種類は、必ずしも全て同じでなくてもよい。
<情報処理部23の構成例>
図2は、図1の情報処理システム11の情報処理部23の構成例を示すブロック図である。
情報処理部23は、受信部51、記憶部52、状態検出部53、及び、認識部54を備える。状態検出部53は、状態検出部53A及び状態検出部53Bを備える。
受信部51は、各検出部21の通信方式、及び、撮影部22の通信方式に対応した通信が可能である。受信部51は、各検出部21から送信される検出データ、及び、撮影部22から送信される撮影画像データを受信し、記憶部52に記憶させる。
状態検出部53Aは、記憶部52に記憶されている撮影画像データに基づいて、撮影画像内の各部の状態を検出する。状態検出部53Aは、検出結果を示すデータを認識部54に供給する。
状態検出部53Bは、記憶部52に記憶されている検出データに基づいて、各対象物12の対象部分の状態を検出する。状態検出部53Bは、検出結果を示すデータを認識部54に供給する。
認識部54は、撮影画像内の各部の状態、及び、各対象物12の対象部分の状態に基づいて、撮影画像において各対象物12の対象部分に対応する対象領域の認識処理を行う。認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。
<撮影部22の構成例及び設置例>
図3は、撮影部22の具体的な構成例及び設置例を示す模式図である。
ここでは、撮影部22がデプスセンサ101を備える例が示されている。
デプスセンサ101は、例えば、撮影空間内の天井に設置され、撮影空間を見下ろすように撮影する。また、デプスセンサ101は、IMU(Inertial Measurement Unit)を備えており、デプスセンサ101の光軸方向とIMUの設置方向との関係は既知であるものとする。IMUは、例えば、加速度センサ及び角速度センサを備え、さらに必要に応じて、地磁気センサ等を備える。従って、デプスセンサ101は、IMUを用いて光軸に対する重力方向を検出することが可能である。デプスセンサ101は、撮影により得られた撮影画像(デプス画像)、及び、重力方向の検出結果を含む撮影画像データを情報処理システム11に送信する。
なお、以下、この例のように、撮影部22がデプスセンサ101を備える場合について説明する。
また、以下、各検出部21がIMUを備え、状態検出部53Aが撮影画像内の各部の姿勢を検出し、状態検出部53Bが各対象物12の対象部分の姿勢を検出する場合について説明する。
<認識処理>
次に、図4のフローチャートを参照して、情報処理システム11により実行される認識処理について説明する。
なお、この処理は、例えば、情報処理部23の電源がオンされたとき開始され、情報処理部23の電源がオフされたとき終了する。
ステップS1において、情報処理システム11は、撮影画像データ及び検出データの取得を開始する。
具体的には、デプスセンサ101は、撮影空間の撮影及び重力方向の検出を開始する。デプスセンサ101は、得られた撮影画像(デプス画像)及び重力方向の検出結果を含む撮影画像データを情報処理部23に送信する。
各検出部21は、各対象物12の対象部分の加速度及び角速度、並びに、重力方向の検出を開始する。各検出部21は、検出結果を示す検出データを情報処理部23に送信する。
情報処理部23の受信部51は、撮影画像データ及び検出データを受信し、記憶部52に記憶させる。
ステップS2において、状態検出部53Aは、撮影画像内の各部の状態を検出する。
具体的には、状態検出部53Aは、撮影画像を複数の領域に分割する。
なお、撮影画像の領域の分割には、任意の手法を用いることができる。
例えば、状態検出部53Aは、撮影画像内の特徴点を検出し、検出した特徴点を複数フレームにわたって追跡し、同様の動きをする特徴点を含む領域を検出することにより、撮影画像を複数の領域に分割する。特徴点の種類は特に限定されないが、例えば、コーナ、人の顔のパーツ等が用いられる。
例えば、状態検出部53Aは、オプティカルフローを用いて、撮影画像内の各部の追跡を複数フレームにわたって行い、同様の動きをする領域を検出することにより、撮影画像を複数の領域に分割する。
例えば、状態検出部53Aは、セマンティックセグメンテーション等の任意の手法を用いて、撮影画像を複数のセグメンテーション領域に分割する。
例えば、状態検出部53Aは、ボーントラッキングを用いて、撮影画像内の人やロボット等の骨格の動きを追跡することにより、撮影画像内の人やロボット等をパーツ毎に分割する。
次に、状態検出部53Aは、撮影画像内の各領域(以下、分割領域と称する)の法線ベクトルを算出する。なお、撮影画像は、デプス画像であり、各画素が奥行き方向の情報を有するため、各分割領域の法線ベクトルの算出は容易である。状態検出部53Aは、次式(1)を用いて、算出した法線ベクトルの重力方向に対する角度θc(t)を算出する。
θc(t)=arccos((n・g)/|n||g|) ・・・(1)
なお、nは法線ベクトルを示し、gは重力方向を示す重力ベクトルを示している。
このようにして、時刻tにおける各分割領域の姿勢(角度θc(t))が検出される。
状態検出部53Aは、撮影画像内の各分割領域の姿勢の検出結果を示すデータを認識部54に供給する。
ステップS3において、状態検出部53Bは、各対象物12の一部分の状態を検出する。
例えば、状態検出部53Bは、各対象物12の一部分である対象部分の角速度及び加速度の検出結果に基づいて、各対象物12の対象部分の姿勢を算出する。例えば、状態検出部53Bは、時刻tにおける各対象物12の対象部分の重力方向に対する角度θo(t)を算出する。
状態検出部53Bは、各対象物12の対象部分の姿勢の検出結果を示すデータを認識部54に供給する。
ステップS4において、認識部54は、撮影画像内の各部の状態と、各対象物12の一部分の状態との相関関係を求める。具体的には、例えば、認識部54は、状態検出部53Aにより検出された撮影画像内の各分割領域の姿勢(角度θc(t))と、状態検出部53Bにより検出された各対象物12の対象部分の姿勢(角度θo(t))との全ての組合せについて、相関係数を算出する。
例えば、認識部54は、撮影画像内の分割領域のうちの1つ、及び、各対象物12の対象部分のうちの1つを選択する。認識部54は、次式(2)を用いて、選択した分割領域の姿勢と、選択した対象部分の姿勢との相互相関係数r(m)を算出する。
Figure 2020119024
なお、f(n)は、基準時刻t0からn番目の対象部分の姿勢のサンプル値(検出値)を示している。h(n+m)は、基準時刻t0からn+m番目の分割領域の姿勢のサンプル値(検出値)を示している。Nは、相互相関係数r(m)の算出に用いるサンプルの総数を示している。従って、式(1)により、対象部分のN個の姿勢のサンプル値と、対象部分よりmサンプル後の分割領域のN個の姿勢のサンプル値との間の相互相関係数が算出される。
認識部54は、現在の時刻tから所定の時間前の時刻を基準時刻t0に設定するとともに、シフト量mを0に設定し、選択した分割領域の姿勢と対象部分の姿勢との相互相関係数r(0)を算出する。その後、認識部54は、シフト量mを所定の最大値まで1つずつシフトしながら、選択した分割領域の姿勢と対象部分の姿勢との間の相互相関係数r(m)を算出する。
図5は、相互相関係数r(m)の計算結果の例を示している。横軸はシフト量mを示し、奥行き方向の軸は時刻tを示し、高さ方向の軸は相互相関係数r(m)を示している。
また、グラフ内の曲線は、各時刻tにおける相互相関係数r(m)の波形を示し、波形上の丸は相互相関係数r(m)のピークを示している。
例えば、撮影画像内の分割領域の姿勢と、対象物12の対象部分の姿勢とを検出するタイミングに時間差があったとしても、図5に示されるように、シフト量mを調整することにより、両者の間の相互相関係数r(m)を正確に求めることができる。
そして、認識部54は、例えば、算出した相互相関係数r(m)のうちの最大値(以下、最大相互相関係数と称する)を求める。
認識部54は、同様の処理により、撮影画像内の各分割領域と、各対象物12の対象部分との全ての組合せについて、最大相互相関係数を算出する。
ステップS5において、認識部54は、対象領域を認識する。
例えば、認識部54は、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域を撮影画像から抽出する。そして、認識部54は、抽出した領域を対象物12−1の対象部分に対応する対象領域として認識する。これにより、対象物12−1の対象部分と姿勢が相関する分割領域が、対象領域として認識される。例えば、対象物12−1の対象部分と同様の姿勢をとる分割領域、又は、対象物12−1の対象部分或いは検出部21−1と同様の動きをする分割領域が、対象領域として認識される。
なお、複数の分割領域が抽出された場合、すなわち、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が複数存在する場合、例えば、認識部54は、最大相互相関係数の平均値が最大となる分割領域を対象領域として認識する。このとき、最大相互相関係数の平均値が最大となる分割領域の周囲の分割領域も抽出されている場合、例えば、認識部54は、その周囲の分割領域も含む連続した領域を対象領域として認識するようにしてもよい。
また、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が存在しない場合、例えば、認識部54は、対象物12−1の対象部分は、撮影画像内に存在しない(デプスセンサ101の撮影空間の外に存在する)と認識する。
認識部54は、対象物12−2乃至対象物12−mについても同様の処理を行う。これにより、撮影画像において、各対象物12の対象部分に対応する対象領域が認識される。
なお、対象領域は、必ずしも固定されておらず、対象物12の動きにより変化する場合がある。
例えば、図6は、人が対象物12である場合に、IMUを備える検出部21としての指輪型デバイス203が、対象物12の手201の人差し指202の第2関節と第3関節の間に装着されている例を示している。
例えば、人差し指202の関節が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、人差し指202の第2関節と第3関節との間の部分の姿勢の変化と略一致する。この場合、人差し指202の第2関節と第3関節との間の部分が対象部分となり、図7に示されるように、当該対象部分を含む領域211が対象領域として認識される。
一方、例えば、人差し指202の関節を動かさずに手201全体が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、手201全体の姿勢の変化と略一致する。この場合、手201全体が対象部分となり、図8に示されるように、手201全体を含む領域212が対象領域として認識される。
例えば、図9は、人が対象物12である場合に、IMUを備える検出部21としてのイヤホン型デバイス233が、対象物12の頭部231の耳232に装着されている例を示している。
例えば、頭部231のみが動かされた場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、頭部231の姿勢の変化と略一致する。この場合、頭部231が対象部分となり、頭部231を含む領域211が対象領域として認識される。
一方、例えば、対象物12が歩いて移動した場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、対象物12の腕及び脚を除く部分の姿勢の変化と略一致する。この場合、対象物12の腕及び脚を除く部分が対象部分となり、当該対象部分を含む領域が対象領域として認識される。
なお、例えば、対象物12の対象部分と連なる他の物体又は他の物体の一部分が、対象部分と同じ姿勢をとったり、同じ動きをしたりする場合、対象部分と、他の物体又は他の物体の一部分とを含む領域が対象領域として認識される。例えば、対象物12が人で、対象部分が手である場合、手と、手に持っている物体又は手に持っている物体の一部分とを含む領域が対象領域として認識される場合がある。
認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。
その後、処理はステップS2に戻り、ステップS2乃至ステップS5の処理が繰り返し実行される。
以上のようにして、各対象物12の一部分(対象部分)の認識精度が向上する。
例えば、対象物12の視覚的に特徴のない部分にマーカ(例えば、再帰性反射マーカ、カラーマーカ、不可視マーカ等)等を付けなくても、当該部分を正確に認識することが可能になる。例えば、対象物12が単色の模様がない物体である場合に、その対象物12の一部分を正確に認識することが可能になる。具体的には、例えば、複数の関節を備えるマニピュレータ等のロボットが単色で模様がない場合に、そのロボットの骨組みの一部を正確に認識することが可能になる。また、上述したようにマーカの付加が不要なのに加えて、IMUは対象物12に内蔵できるため、対象物12の外観を損ねることなく、対象物12の一部分を認識することが可能になる。
例えば、同じような外観を持つものの中から、特定の対象物12の一部分を正確に認識することができる。例えば、同じ外観の対象物12が複数ある場合に、その中の特定の対象物12の一部分を正確に認識することができる。具体的には、例えば、同じ製品が陳列されている場合、そのうちの特定の製品の一部分を正確に認識することが可能になる。
また、対象物12が動物や多関節のロボット等の複雑な動きをする物体であっても、対象物12の一部分を正確に認識することが可能になる。また、対象物12が剛体ではなく変形する場合にも、対象物12の一部分を正確に認識することが可能になる。
さらに、例えば、対象物12又は対象部分に関する情報を検出データに含ませることにより、対象部分を認識するだけでなく、対象物12又は対象部分に関する情報まで認識することが可能になる。例えば、対象物12又は対象部分の名称等の属性を認識することが可能になる。
また、例えば、対象部分が他の物体により隠れていても、対象物12又は対象部分に関する情報に基づいて、撮影画像内において対象部分が存在する領域を推定することができる。例えば、上述した処理では、対象物12を握った状態で手が動かされた場合、その手を含む領域が対象領域として認識されることが想定される。この場合、例えば、対象物12又は対象部分に関する情報に基づいて、その手の中に対象物12が存在すると推定することが可能になる。
さらに、例えば、速度又は加速度に基づいて対象部分を認識する場合、対象部分が一定時間以上連続して動かないと、対象部分(に対応する対象領域)を認識することは困難である。また、対象部分の動きが小さいと、対象部分の認識精度が低下する。そのため、例えば、対象物12がゲームのコントローラ等の操作デバイスである場合、対象物12を大きく動かす必要が生じ、ユーザの負担が増大する。また、撮影画像内に移動体が多数存在する場合、各移動体の動きを検出するための負荷が増大する。一方、負荷を軽減するために移動体の動きの検出精度を落とすと、移動体のうちの1つである対象部分の認識精度が低下する。また、撮影部22の位置により、対象部分の動きの検出が困難な方向が生じ、対象部分がその方向に動く場合、対象部分の認識精度が低下する場合がある。
一方、情報処理システム11のように、対象部分の姿勢に基づいて対象部分を認識する場合、対象部分が静止していても、対象部分を正確に認識することが可能になる。ただし、対象部分と同じ姿勢の物体が多数存在する場合、例えば、対象物12を含め多数の物体が同じ机の上に置かれている場合、対象部分の認識が困難になる可能性がある。しかし、この場合でも、対象部分が少しでも動けば、対象部分を正確に認識することが可能になる。また、撮影部22の位置が対象部分の姿勢の検出精度に与える影響は小さい。そのため、撮影部22の位置に関わらず、対象部分の認識精度が良好に保たれる。
また、図5を参照して上述したように、検出部21と撮影部22の同期を取らなくても、撮影画像内の分割領域の姿勢と対象物12の対象部分の姿勢との間の相互相関係数を算出し、対象部分を認識することが可能である。さらに、対象部分の重力方向に対する姿勢を検出すればよく、対象部分のワールド座標系における姿勢を検出する必要がない。そのため、情報処理部23において、姿勢の検出に必要な装備や負荷を削減することが可能になる。
<<2.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
以上の説明では、撮影画像にデプス画像を用いて、撮影画像内の各領域の姿勢を検出する例を示したが、別の方法により撮影画像内の各領域の姿勢を検出したり、画像以外の視覚情報を用いて、視覚情報内の各領域の姿勢を検出したりするようにしてもよい。
例えば、事前に登録された対象物12の画像と撮影画像内の対象物12の画像に基づいて、対象物12の各部の姿勢を検出するようにしてもよい。
例えば、ポイントクラウドのような3次元の視覚情報を用いて、視覚情報内の各領域の姿勢を検出するようにしてもよい。
また、以上の説明では、撮影画像内の各領域の姿勢と対象物12の対象部分の姿勢との相関関係に基づいて対象領域を認識する例を示したが、本技術では、視覚情報と検出部21の検出データの両方で検出可能な状態であれば、任意の状態の相関関係を用いることが可能である。
例えば、IMUを用いることにより、物体の角度以外に、速度、加速度、角速度、及び、位置を検出することが可能である。そこで、例えば、角度、速度、加速度、角速度、及び、位置のうち1つ以上の状態の相関関係を用いることが可能である。
また、図10は、回転運動を行う対象物12aの認識処理を行う例を示している。
例えば、対象物12aは、回転部251、及び、回転部251の回転量を検出するロータリエンコーダ(不図示)を備えている。
撮影部22はカメラ252を備えており、カメラ252は、対象物12aの撮影が可能である。
状態検出部53Aは、カメラ252からの撮影画像内の各領域の角度及び角加速度を検出する。
状態検出部53Bは、ロータリエンコーダからの検出データに基づいて、回転部251の角度及び角加速度を検出する。
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の角度及び角加速度と、状態検出部53Bにより検出された回転部251の角度及び角加速度との相関関係に基づいて、回転部251に対応する対象領域を認識する。
図11は、並進運動を行う対象物12bの認識処理を行う例を示している。
例えば、対象物12bは、台261の上を並進運動する可動部262、並びに、可動部262の位置を検出するリニアエンコーダ(不図示)を備えている。
撮影部22はカメラ263を備えており、カメラ263は、対象物12bの撮影が可能である。
状態検出部53Aは、カメラ263からの撮影画像の各領域の位置、速度、及び、加速度を検出する。
状態検出部53Bは、リニアエンコーダからの検出データに基づいて、可動部262の位置、速度、及び、加速度を検出する。
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の位置、速度、及び、加速度と、状態検出部53Bにより検出された可動部262の位置、速度、及び、加速度との相関関係に基づいて、可動部262に対応する対象領域を認識する。
図12は、対象物12cの温度に基づいて対象領域の認識処理を行う例を示している。
対象物12cは、温度センサ301を備えている。
撮影部22はサーマルセンサ302を備えている。サーマルセンサ302は、対象物12cの表面の温度を検出し、検出した温度の分布を示すサーマル画像を生成する。
状態検出部53Aは、サーマルセンサ302からのサーマル画像内の各領域の温度を検出する。
状態検出部53Bは、温度センサ301からの検出データに基づいて、対象物12cの温度センサ301付近の温度を検出する。
認識部54は、状態検出部53Aにより検出されたサーマル画像内の各領域の温度と、状態検出部53Bにより検出された対象物12cの温度センサ301付近の温度との相関関係に基づいて、サーマル画像において対象物12cの温度センサ301付近を含む対象領域を認識する。
例えば、対象物12cが、可動部(例えば、モータ等)を備える物体(例えば、ドローン等)である場合、可動部付近に温度センサ301が設けられる。これにより、可動部が動くことにより発生する熱による温度変化に基づいて、可動部を含む領域を対象領域として認識することが可能である。
例えば、対象物12cが食器である場合、食器内に温度センサ301が内蔵される。そして、例えば、食器に料理が盛り付けられたときの温度変化に基づいて、食器の温度センサ301を含む領域を対象領域として認識することが可能である。
例えば、対象物12cが、ペルチェ素子等の熱電素子を備える場合、熱電素子付近に温度センサ301が設けられる。例えば、対象物12cが、VR(Virtual Reality)グローブ等の触覚デバイスである場合、温度の変化を用いてユーザ体験を高めるために熱電素子が設けられる。そして、例えば、熱電素子により発生する温度変化に基づいて、熱電素子を含む領域を対象領域として認識することが可能である。
なお、対象部分の温度変化が少ない場合、対象部分に熱電素子を設け、能動的に対象部分の温度を変化させるようにしてもよい。これにより、サーマル画像内において、対象物12の温度変化が少ない部分を正確に認識することが可能になる。
さらに、例えば、ソフトアクチュエータのように変形可能な変形デバイスを対象物12が備える場合、対象物12の変形デバイスを備える部分の認識が可能である。
例えば、変形デバイスは、自身の形状を検出し、検出結果を示す検出データを送信する。
状態検出部53Aは、撮影画像内の各領域の形状を検出する。
状態検出部53Bは、検出データに基づいて、変形デバイスの形状を検出する。
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の形状と、状態検出部53Bにより検出された対象物12の変形デバイスを備える部分の形状との相関関係に基づいて、撮影画像において対象物12の変形デバイスを備える部分を含む対象領域を認識する。
また、例えば、物体の姿勢はクォータニオンで表現されることが一般的であるが、例えば、クォータニオンの姿勢変化量の相関関係を用いることが可能である。例えば、時間的な角速度の変化に基づく相関関係や、外積ベクトルの方向変化に基づく相関関係を用いることが可能である。この場合、3次元方向の角度に基づいて相関関係を求めるようにしてもよいし、2次元方向の角度に基づいて相関関係を求めるようにしてもよい。
なお、相関関係の演算には、上述した相互相関係数以外の相関係数を用いたり、相関係数以外の方法を用いたりすることも可能である。
さらに、以上の説明では、デプスセンサ101にIMUを設けて重力方向を検出する例を示したが、異なる方法により重力方向を検出するようにしてもよい。
例えば、撮影画像内の壁や床に基づいて、重量方向を推定するようにしてもよい。また、例えば、デプスセンサ101が固定される場合、事前にデプスセンサ101の光軸に対する重力方向を測定し、測定結果を情報処理部23に与えておくようにしてもよい。
また、撮影部22が備えるイメージセンサの種類や数は、検出対象となる状態に応じて変更することが可能である。例えば、上述したデプスセンサ101以外にも、通常の可視光を検出するイメージセンサ、赤外線の検出が可能な赤外センサ、超音波センサ、法線ベクトルの検出が可能な偏光センサ等を用いることが可能である。
さらに、撮影画像以外の視覚情報を用いることが可能である。例えば、上述したサーマル画像、ポイントクラウド、磁気センサにより検出される磁場画像等を用いることが可能である。
また、例えば、状態検出部53Aを撮影部22に設け、撮影部22が、撮影画像内の各領域の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。
さらに、例えば、状態検出部53Bを検出部21に設け、検出部21が、検出データに基づいて対象部分の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。
また、例えば、1つの対象物12に複数の検出部21を設けるようにしてもよい。これにより、1つの対象物12の複数の対象部分を認識することができる。
さらに、検出部21と対象部分が離れていてもよい。すなわち、検出部21が、対象物12において検出部21から離れた部分の状態を検出し、検出部21から離れた部分に対応する対象領域が認識されるようにしてもよい。
また、例えば、対象物12の対象部分の動きを認識することにより、対象部分を用いたタンジブルなユーザインタフェースを実現することが可能である。
さらに、例えば、検出部21の検出データに基づいて対象物12全体の状態を検出可能な場合、本技術は、対象物12全体の認識処理にも適用することが可能である。例えば、対象物12がシンプルな構成であり、検出部21の検出データに基づいて対象物12全体の姿勢が検出される場合、対象物12全体に対応する対象領域を認識することが可能である。
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を
備える情報処理装置。
(2)
前記認識部は、前記視覚情報内の各領域の状態と、前記検出データに基づく前記物体の一部分の状態との相関関係に基づいて、前記対象領域を認識する
前記(1)に記載の情報処理装置。
(3)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の姿勢と同様の姿勢をとる前記視覚情報内の領域を前記対象領域として認識する
前記(2)に記載の情報処理装置。
(4)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の動きと同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(2)又は(3)に記載の情報処理装置。
(5)
前記物体の一部分は、前記検出部の検出対象となる部分である
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記物体の一部分は、前記検出部を含む部分である
前記(5)に記載の情報処理装置。
(7)
前記認識部は、前記検出部と同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(6)に記載の情報処理装置。
(8)
前記状態は、姿勢、速度、加速度、角速度、角加速度、位置、形状、及び、温度のうち少なくとも1つを含む
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記検出部は、加速度センサ及び角速度センサを備え、
前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(10)
前記視覚情報は、温度の分布を示す画像であるサーマル画像であり、
前記検出部は、温度センサを備え、
前記状態は、温度を含む
前記(8)に記載の情報処理装置。
(11)
前記検出部は、エンコーダを含み、
前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(12)
前記物体の一部分は、変形可能なデバイスを備え、
前記検出部は、前記デバイスの形状を検出するセンサを備え、
前記状態は、形状を含む
前記(8)に記載の情報処理装置。
(13)
前記視覚情報内の各領域の状態、及び、前記物体の一部分の状態のうち少なくとも1つを検出する状態検出部を
さらに備える前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記検出データを受信する受信部を
さらに備え、
前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
前記(13)に記載の情報処理装置。
(15)
情報処理装置が、
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
情報処理方法。
(16)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
11 情報処理システム, 12,12a,12b,12c 対象物, 13 非対象物, 21 検出部, 22 撮影部, 23 情報処理部, 51 受信部, 53,53A,53B 状態検出部, 54 認識部, 101 デプスセンサ, 251 回転部, 252 カメラ, 262 可動部, 263 カメラ, 301 温度センサ, 302 サーマルセンサ

Claims (16)

  1. 視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を
    備える情報処理装置。
  2. 前記認識部は、前記視覚情報内の各領域の状態と、前記検出データに基づく前記物体の一部分の状態との相関関係に基づいて、前記対象領域を認識する
    請求項1に記載の情報処理装置。
  3. 前記認識部は、前記検出データに基づいて検出される前記物体の一部分の姿勢と同様の姿勢をとる前記視覚情報内の領域を前記対象領域として認識する
    請求項2に記載の情報処理装置。
  4. 前記認識部は、前記検出データに基づいて検出される前記物体の一部分の動きと同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
    請求項2に記載の情報処理装置。
  5. 前記物体の一部分は、前記検出部の検出対象となる部分である
    請求項1に記載の情報処理装置。
  6. 前記物体の一部分は、前記検出部を含む部分である
    請求項5に記載の情報処理装置。
  7. 前記認識部は、前記検出部と同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
    請求項6に記載の情報処理装置。
  8. 前記状態は、姿勢、速度、加速度、角速度、角加速度、位置、形状、及び、温度のうち少なくとも1つを含む
    請求項1に記載の情報処理装置。
  9. 前記検出部は、加速度センサ及び角速度センサを備え、
    前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
    請求項8に記載の情報処理装置。
  10. 前記視覚情報は、温度の分布を示す画像であるサーマル画像であり、
    前記検出部は、温度センサを備え、
    前記状態は、温度を含む
    請求項8に記載の情報処理装置。
  11. 前記検出部は、エンコーダを含み、
    前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
    請求項8に記載の情報処理装置。
  12. 前記物体の一部分は、変形可能なデバイスを備え、
    前記検出部は、前記デバイスの形状を検出するセンサを備え、
    前記状態は、形状を含む
    請求項8に記載の情報処理装置。
  13. 前記視覚情報内の各領域の状態、及び、前記物体の一部分の状態のうち少なくとも1つを検出する状態検出部を
    さらに備える請求項1に記載の情報処理装置。
  14. 前記検出データを受信する受信部を
    さらに備え、
    前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
    請求項13に記載の情報処理装置。
  15. 情報処理装置が、
    視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
    情報処理方法。
  16. 視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
    処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2019007068A 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体 Pending JP2020119024A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019007068A JP2020119024A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体
PCT/JP2019/051425 WO2020149147A1 (ja) 2019-01-18 2019-12-27 情報処理装置、情報処理方法、及び、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007068A JP2020119024A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体

Publications (1)

Publication Number Publication Date
JP2020119024A true JP2020119024A (ja) 2020-08-06

Family

ID=71614432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007068A Pending JP2020119024A (ja) 2019-01-18 2019-01-18 情報処理装置、情報処理方法、及び、記録媒体

Country Status (2)

Country Link
JP (1) JP2020119024A (ja)
WO (1) WO2020149147A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286821A1 (ja) 2021-07-15 2023-01-19 積水メディカル株式会社 Tarcを含有する組成物、希釈液、tarcのキャリーオーバー抑制方法、吸着防止剤、及び連続的分析方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286821A1 (ja) 2021-07-15 2023-01-19 積水メディカル株式会社 Tarcを含有する組成物、希釈液、tarcのキャリーオーバー抑制方法、吸着防止剤、及び連続的分析方法

Also Published As

Publication number Publication date
WO2020149147A1 (ja) 2020-07-23

Similar Documents

Publication Publication Date Title
KR102296267B1 (ko) 3d 공간에서의 포즈 추정
WO2020054442A1 (ja) 関節位置の取得方法及び装置、動作の取得方法及び装置
GB2557465A (en) Method for calibrating a camera and calibration system
TWI722280B (zh) 用於多個自由度之控制器追蹤
Ribo et al. A new optical tracking system for virtual and augmented reality applications
CN107577451B (zh) 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质
EP3252714A1 (en) Camera selection in positional tracking
WO2017043181A1 (ja) センサ装置、センサシステム及び情報処理装置
CN107111885A (zh) 用于确定便携式设备的位置的方法
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
KR101896827B1 (ko) 사용자 자세 추정 장치 및 방법
JPWO2016027627A1 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
EP3269302A1 (en) Information processing apparatus and information processing method
CN203630822U (zh) 虚拟影像与真实场景相结合的舞台交互集成系统
KR20220063847A (ko) 대상자의 보행 패턴을 식별하는 방법 및 이를 수행하는 전자 장치
KR102456872B1 (ko) 영상센서와 관성센서의 강결합 융합을 이용한 손동작 추적시스템 및 방법
WO2020149147A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体
JP5863034B2 (ja) 情報端末装置
Carraro et al. Real-time marker-less multi-person 3d pose estimation in rgb-depth camera networks
JP2018009918A (ja) 自己位置検出装置、移動体装置及び自己位置検出方法
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
Rasouli et al. Dynamic posture estimation in a network of depth sensors using sample points
Lin et al. Development of a binocular vision-based catcher robot system using DSP platform
JP6034671B2 (ja) 情報表示装置、その制御方法およびプログラム
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム