JP2020119024A - Information processing device, information processing method, and recording medium - Google Patents
Information processing device, information processing method, and recording medium Download PDFInfo
- Publication number
- JP2020119024A JP2020119024A JP2019007068A JP2019007068A JP2020119024A JP 2020119024 A JP2020119024 A JP 2020119024A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2020119024 A JP2020119024 A JP 2020119024A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- state
- detection unit
- target
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、物体の一部分の認識精度を向上させるようにした情報処理装置、情報処理方法、及び、記録媒体に関する。 The present technology relates to an information processing device, an information processing method, and a recording medium, and particularly to an information processing device, an information processing method, and a recording medium that improve the recognition accuracy of a part of an object.
近年、画像内の人の顔を認識する顔認識技術の普及が進んでいる(例えば、特許文献1参照)。 In recent years, face recognition technology for recognizing a human face in an image has become widespread (for example, see Patent Document 1).
しかしながら、顔認識技術では、人の顔以外の部分を認識することはできない。また、一般的に、顔認識技術のように画像を用いた物体認識技術は、顔のように視覚的な特徴が多い部分の認識は得意であるが、視覚的な特徴が少ない部分の認識は不得意である。 However, the face recognition technology cannot recognize a part other than the human face. In general, an object recognition technique using an image such as a face recognition technique is good at recognizing a portion having many visual features such as a face, but is not good at recognizing a portion having few visual features. I am not good at it.
本技術は、このような状況に鑑みてなされたものであり、物体の一部分の認識精度を向上させるようにするものである。 The present technology has been made in view of such a situation, and is to improve the recognition accuracy of a part of an object.
本技術の一側面の情報処理装置は、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を備える。 The information processing device according to one aspect of the present technology is based on the state of each area in the visual information and the state of a part of the object based on the detection data detected by the detection unit included in the visual information included in the object. , A recognition unit that recognizes a target area corresponding to a part of the object in the visual information.
本技術の一側面の情報処理方法は、情報処理装置が、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する。 An information processing method according to an aspect of the present technology is that an information processing device includes a state of each region in visual information, and a part of the object based on detection data detected by a detection unit included in the visual information. A target area corresponding to a part of the object in the visual information is recognized based on the state of.
本技術の一側面の記録媒体に記録されているプログラムは、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する処理をコンピュータに実行させる。 The program recorded on the recording medium according to one aspect of the present technology is a state of each area in visual information, and a part of the object based on detection data detected by a detection unit included in the visual information included in the object. The computer is caused to execute a process of recognizing a target area corresponding to a part of the object in the visual information, based on the state.
本技術の一側面においては、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域が認識される。 In one aspect of the present technology, based on a state of each area in visual information and a state of a part of the object based on detection data detected by a detection unit included in the visual information included in the object, the visual A target area corresponding to a portion of the object in the information is recognized.
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
Hereinafter, modes for carrying out the present technology will be described. The description will be given in the following order.
1.
<<1.実施の形態>>
まず、図1乃至図9を参照して、本技術の実施の形態について説明する。
<<1. Embodiment>>
First, an embodiment of the present technology will be described with reference to FIGS. 1 to 9.
<情報処理システム11の構成例>
情報処理システム11は、物体認識処理を行うシステムである。特に、情報処理システム11は、物体全体だけでなく、物体の一部分の認識が可能である。
<Example of configuration of
The
情報処理システム1は、検出部21−1乃至検出部21−m、撮影部22、及び、情報処理部23を備える。
The
検出部21−1は、対象物12−1に設けられ、対象物12−1の一部分(以下、対象部分と称する)の状態に関するデータを検出する。対象部分は、検出部21−1の検出対象となる部分であって、検出部21−1を含む部分である。 The detection unit 21-1 is provided on the target object 12-1 and detects data regarding the state of a part of the target object 12-1 (hereinafter referred to as the target part). The target portion is a portion to be detected by the detection unit 21-1 and includes the detection unit 21-1.
検出部21−1は、検出結果を示す検出データを情報処理部23に送信する。なお、検出データの送信には、任意の方式の有線通信又は無線通信を用いることができる。
The detection unit 21-1 transmits the detection data indicating the detection result to the
検出部21−2乃至検出部21−mも、検出部21−1と同様に、それぞれ対象物12−2乃至対象物12−mの対象部分の状態に関するデータを検出し、検出結果を示す検出データを情報処理部23に送信する。
Similarly to the detection unit 21-1, the detection units 21-2 to 21-m also detect data regarding the states of the target portions of the target objects 12-2 to 12-m, respectively, and detect the detection results. The data is transmitted to the
なお、以下、対象物12−1乃至対象物12−m、及び、検出部21−1乃至検出部21−mを個々に区別する必要がない場合、単に、対象物12及び検出部21と称する。
Note that, hereinafter, when it is not necessary to individually distinguish the object 12-1 to the object 12-m and the detection unit 21-1 to the detection unit 21-m, they are simply referred to as the
撮影部22は、対象物12、及び、非対象物13−1乃至非対象物13−nを含む空間(以下、撮影空間と称する)内の撮影を行う。すなわち、撮影部22は、撮影空間内の対象物12−1乃至対象物12−m及び非対象物13−1乃至非対象物13−nを含む画像(以下、撮影画像と称する)を撮影する。撮影部22は、撮影画像を含むデータである撮影画像データを情報処理部23に送信する。なお、撮影画像データの送信には、任意の方式の有線通信又は無線通信を用いることができる。
The
なお、非対象物13−1乃至非対象物13−nは、撮影空間内に存在する対象物12以外の物体であり、その種類は問わない。また、以下、非対象物13−1乃至非対象物13−nを個々に区別する必要がない場合、単に非対象物13と称する。
The non-target object 13-1 to the non-target object 13-n are objects other than the
情報処理部23は、例えば、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ、ゲーム端末等の情報処理装置により構成される。情報処理部23は、各検出部21からの検出データ、及び、撮影部22からの撮影画像データに基づいて、各対象物12の認識処理を行う。より具体的には、情報処理部23は、撮影画像内の各対象物12の対象部分に対応する領域(以下、対象領域と称する)の認識処理を行う。情報処理部23は、各対象物12の対象領域の認識結果を示すデータを出力する。
The
なお、対象物12は、検出部21を設けることが可能な物体であれば、その種類は特に限定されない。また、対象物12は、動体でも静止物でもよい。
The type of the
さらに、検出部21の検出対象となる状態は、撮影画像でも検出可能な状態であれば、特に限定されない。例えば、対象部分の位置、姿勢、動き、属性等のうち1つ以上が検出される。対象部分の動きとしては、例えば、対象部分の速度、加速度、角速度、角加速度等が想定される。対象部分の属性としては、例えば、対象部分の形状、色、材質、温度等が想定される。
Furthermore, the state to be detected by the
また、検出部21を設置する位置は、対象部分の状態に関するデータが検出可能な位置であればよく、特に制限はない。例えば、検出部21は、対象物12の表面又は内部のいずれに設けられてもよい。また、例えば、対象物12が人である場合、検出部21を各種のセンサを備えるウエアラブルデバイスにより構成し、対象物12が検出部21を装着するようにしてもよい。
Further, the position where the
さらに、撮影画像は、各検出部21の検出対象となる状態と同じ種類の状態が検出可能な画像であれば、その種類は特に問わない。
Further, the captured image may be of any type as long as it can detect the same type of state as the state to be detected by each
また、各対象物12は、必ずしも全て同じ種類の物体でなくてもよい。さらに、各検出部21の検出対象となる状態の種類は、必ずしも全て同じでなくてもよい。
In addition, each
<情報処理部23の構成例>
図2は、図1の情報処理システム11の情報処理部23の構成例を示すブロック図である。
<Example of Configuration of
FIG. 2 is a block diagram showing a configuration example of the
情報処理部23は、受信部51、記憶部52、状態検出部53、及び、認識部54を備える。状態検出部53は、状態検出部53A及び状態検出部53Bを備える。
The
受信部51は、各検出部21の通信方式、及び、撮影部22の通信方式に対応した通信が可能である。受信部51は、各検出部21から送信される検出データ、及び、撮影部22から送信される撮影画像データを受信し、記憶部52に記憶させる。
The
状態検出部53Aは、記憶部52に記憶されている撮影画像データに基づいて、撮影画像内の各部の状態を検出する。状態検出部53Aは、検出結果を示すデータを認識部54に供給する。
The
状態検出部53Bは、記憶部52に記憶されている検出データに基づいて、各対象物12の対象部分の状態を検出する。状態検出部53Bは、検出結果を示すデータを認識部54に供給する。
The
認識部54は、撮影画像内の各部の状態、及び、各対象物12の対象部分の状態に基づいて、撮影画像において各対象物12の対象部分に対応する対象領域の認識処理を行う。認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。
The
<撮影部22の構成例及び設置例>
図3は、撮影部22の具体的な構成例及び設置例を示す模式図である。
<Structural Example and Installation Example of
FIG. 3 is a schematic diagram showing a specific configuration example and installation example of the
ここでは、撮影部22がデプスセンサ101を備える例が示されている。
Here, an example in which the
デプスセンサ101は、例えば、撮影空間内の天井に設置され、撮影空間を見下ろすように撮影する。また、デプスセンサ101は、IMU(Inertial Measurement Unit)を備えており、デプスセンサ101の光軸方向とIMUの設置方向との関係は既知であるものとする。IMUは、例えば、加速度センサ及び角速度センサを備え、さらに必要に応じて、地磁気センサ等を備える。従って、デプスセンサ101は、IMUを用いて光軸に対する重力方向を検出することが可能である。デプスセンサ101は、撮影により得られた撮影画像(デプス画像)、及び、重力方向の検出結果を含む撮影画像データを情報処理システム11に送信する。
The
なお、以下、この例のように、撮影部22がデプスセンサ101を備える場合について説明する。
Note that, hereinafter, a case where the
また、以下、各検出部21がIMUを備え、状態検出部53Aが撮影画像内の各部の姿勢を検出し、状態検出部53Bが各対象物12の対象部分の姿勢を検出する場合について説明する。
Further, hereinafter, a case will be described in which each
<認識処理>
次に、図4のフローチャートを参照して、情報処理システム11により実行される認識処理について説明する。
<Recognition processing>
Next, the recognition processing executed by the
なお、この処理は、例えば、情報処理部23の電源がオンされたとき開始され、情報処理部23の電源がオフされたとき終了する。
Note that this process starts, for example, when the
ステップS1において、情報処理システム11は、撮影画像データ及び検出データの取得を開始する。
In step S1, the
具体的には、デプスセンサ101は、撮影空間の撮影及び重力方向の検出を開始する。デプスセンサ101は、得られた撮影画像(デプス画像)及び重力方向の検出結果を含む撮影画像データを情報処理部23に送信する。
Specifically, the
各検出部21は、各対象物12の対象部分の加速度及び角速度、並びに、重力方向の検出を開始する。各検出部21は、検出結果を示す検出データを情報処理部23に送信する。
Each
情報処理部23の受信部51は、撮影画像データ及び検出データを受信し、記憶部52に記憶させる。
The receiving
ステップS2において、状態検出部53Aは、撮影画像内の各部の状態を検出する。
In step S2, the
具体的には、状態検出部53Aは、撮影画像を複数の領域に分割する。
Specifically, the
なお、撮影画像の領域の分割には、任意の手法を用いることができる。 Any method can be used to divide the area of the captured image.
例えば、状態検出部53Aは、撮影画像内の特徴点を検出し、検出した特徴点を複数フレームにわたって追跡し、同様の動きをする特徴点を含む領域を検出することにより、撮影画像を複数の領域に分割する。特徴点の種類は特に限定されないが、例えば、コーナ、人の顔のパーツ等が用いられる。
For example, the
例えば、状態検出部53Aは、オプティカルフローを用いて、撮影画像内の各部の追跡を複数フレームにわたって行い、同様の動きをする領域を検出することにより、撮影画像を複数の領域に分割する。
For example, the
例えば、状態検出部53Aは、セマンティックセグメンテーション等の任意の手法を用いて、撮影画像を複数のセグメンテーション領域に分割する。
For example, the
例えば、状態検出部53Aは、ボーントラッキングを用いて、撮影画像内の人やロボット等の骨格の動きを追跡することにより、撮影画像内の人やロボット等をパーツ毎に分割する。
For example, the
次に、状態検出部53Aは、撮影画像内の各領域(以下、分割領域と称する)の法線ベクトルを算出する。なお、撮影画像は、デプス画像であり、各画素が奥行き方向の情報を有するため、各分割領域の法線ベクトルの算出は容易である。状態検出部53Aは、次式(1)を用いて、算出した法線ベクトルの重力方向に対する角度θc(t)を算出する。
Next, the
θc(t)=arccos((n・g)/|n||g|) ・・・(1) θc(t)=arccos((n·g)/|n||g|) (1)
なお、nは法線ベクトルを示し、gは重力方向を示す重力ベクトルを示している。 In addition, n shows a normal vector and g has shown the gravity vector which shows a gravity direction.
このようにして、時刻tにおける各分割領域の姿勢(角度θc(t))が検出される。 In this way, the attitude (angle θc(t)) of each divided area at time t is detected.
状態検出部53Aは、撮影画像内の各分割領域の姿勢の検出結果を示すデータを認識部54に供給する。
The
ステップS3において、状態検出部53Bは、各対象物12の一部分の状態を検出する。
In step S3, the
例えば、状態検出部53Bは、各対象物12の一部分である対象部分の角速度及び加速度の検出結果に基づいて、各対象物12の対象部分の姿勢を算出する。例えば、状態検出部53Bは、時刻tにおける各対象物12の対象部分の重力方向に対する角度θo(t)を算出する。
For example, the
状態検出部53Bは、各対象物12の対象部分の姿勢の検出結果を示すデータを認識部54に供給する。
The
ステップS4において、認識部54は、撮影画像内の各部の状態と、各対象物12の一部分の状態との相関関係を求める。具体的には、例えば、認識部54は、状態検出部53Aにより検出された撮影画像内の各分割領域の姿勢(角度θc(t))と、状態検出部53Bにより検出された各対象物12の対象部分の姿勢(角度θo(t))との全ての組合せについて、相関係数を算出する。
In step S4, the
例えば、認識部54は、撮影画像内の分割領域のうちの1つ、及び、各対象物12の対象部分のうちの1つを選択する。認識部54は、次式(2)を用いて、選択した分割領域の姿勢と、選択した対象部分の姿勢との相互相関係数r(m)を算出する。
For example, the
なお、f(n)は、基準時刻t0からn番目の対象部分の姿勢のサンプル値(検出値)を示している。h(n+m)は、基準時刻t0からn+m番目の分割領域の姿勢のサンプル値(検出値)を示している。Nは、相互相関係数r(m)の算出に用いるサンプルの総数を示している。従って、式(1)により、対象部分のN個の姿勢のサンプル値と、対象部分よりmサンプル後の分割領域のN個の姿勢のサンプル値との間の相互相関係数が算出される。 Note that f(n) represents a sample value (detection value) of the posture of the n-th target portion from the reference time t0. h(n+m) indicates a sample value (detection value) of the posture of the n+m-th divided area from the reference time t0. N indicates the total number of samples used for calculating the cross-correlation coefficient r(m). Therefore, the cross-correlation coefficient between the sample values of the N postures of the target portion and the sample values of the N postures of the divided area m samples after the target portion is calculated by the equation (1).
認識部54は、現在の時刻tから所定の時間前の時刻を基準時刻t0に設定するとともに、シフト量mを0に設定し、選択した分割領域の姿勢と対象部分の姿勢との相互相関係数r(0)を算出する。その後、認識部54は、シフト量mを所定の最大値まで1つずつシフトしながら、選択した分割領域の姿勢と対象部分の姿勢との間の相互相関係数r(m)を算出する。
The recognizing
図5は、相互相関係数r(m)の計算結果の例を示している。横軸はシフト量mを示し、奥行き方向の軸は時刻tを示し、高さ方向の軸は相互相関係数r(m)を示している。 FIG. 5 shows an example of the calculation result of the cross-correlation coefficient r(m). The horizontal axis represents the shift amount m, the depth axis represents the time t, and the height axis represents the cross-correlation coefficient r(m).
また、グラフ内の曲線は、各時刻tにおける相互相関係数r(m)の波形を示し、波形上の丸は相互相関係数r(m)のピークを示している。 The curve in the graph shows the waveform of the cross-correlation coefficient r(m) at each time t, and the circle on the waveform shows the peak of the cross-correlation coefficient r(m).
例えば、撮影画像内の分割領域の姿勢と、対象物12の対象部分の姿勢とを検出するタイミングに時間差があったとしても、図5に示されるように、シフト量mを調整することにより、両者の間の相互相関係数r(m)を正確に求めることができる。
For example, even if there is a time difference between the timing of detecting the posture of the divided area in the captured image and the posture of the target portion of the
そして、認識部54は、例えば、算出した相互相関係数r(m)のうちの最大値(以下、最大相互相関係数と称する)を求める。
Then, the
認識部54は、同様の処理により、撮影画像内の各分割領域と、各対象物12の対象部分との全ての組合せについて、最大相互相関係数を算出する。
The
ステップS5において、認識部54は、対象領域を認識する。
In step S5, the
例えば、認識部54は、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域を撮影画像から抽出する。そして、認識部54は、抽出した領域を対象物12−1の対象部分に対応する対象領域として認識する。これにより、対象物12−1の対象部分と姿勢が相関する分割領域が、対象領域として認識される。例えば、対象物12−1の対象部分と同様の姿勢をとる分割領域、又は、対象物12−1の対象部分或いは検出部21−1と同様の動きをする分割領域が、対象領域として認識される。
For example, the
なお、複数の分割領域が抽出された場合、すなわち、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が複数存在する場合、例えば、認識部54は、最大相互相関係数の平均値が最大となる分割領域を対象領域として認識する。このとき、最大相互相関係数の平均値が最大となる分割領域の周囲の分割領域も抽出されている場合、例えば、認識部54は、その周囲の分割領域も含む連続した領域を対象領域として認識するようにしてもよい。
In addition, when a plurality of divided areas are extracted, that is, there are a plurality of divided areas in which the maximum cross-correlation coefficient with the target portion of the object 12-1 continues for a predetermined time or more and is a predetermined threshold or more. In this case, for example, the
また、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が存在しない場合、例えば、認識部54は、対象物12−1の対象部分は、撮影画像内に存在しない(デプスセンサ101の撮影空間の外に存在する)と認識する。
Further, when there is no divided area in which the maximum cross-correlation coefficient between the target portion of the target object 12-1 and the maximum cross-correlation coefficient continues for the predetermined time or longer, for example, the
認識部54は、対象物12−2乃至対象物12−mについても同様の処理を行う。これにより、撮影画像において、各対象物12の対象部分に対応する対象領域が認識される。
The
なお、対象領域は、必ずしも固定されておらず、対象物12の動きにより変化する場合がある。
The target area is not always fixed and may change depending on the movement of the
例えば、図6は、人が対象物12である場合に、IMUを備える検出部21としての指輪型デバイス203が、対象物12の手201の人差し指202の第2関節と第3関節の間に装着されている例を示している。
For example, in FIG. 6, when a person is the
例えば、人差し指202の関節が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、人差し指202の第2関節と第3関節との間の部分の姿勢の変化と略一致する。この場合、人差し指202の第2関節と第3関節との間の部分が対象部分となり、図7に示されるように、当該対象部分を含む領域211が対象領域として認識される。
For example, when the joint of the
一方、例えば、人差し指202の関節を動かさずに手201全体が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、手201全体の姿勢の変化と略一致する。この場合、手201全体が対象部分となり、図8に示されるように、手201全体を含む領域212が対象領域として認識される。
On the other hand, for example, when the
例えば、図9は、人が対象物12である場合に、IMUを備える検出部21としてのイヤホン型デバイス233が、対象物12の頭部231の耳232に装着されている例を示している。
For example, FIG. 9 illustrates an example in which the
例えば、頭部231のみが動かされた場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、頭部231の姿勢の変化と略一致する。この場合、頭部231が対象部分となり、頭部231を含む領域211が対象領域として認識される。
For example, when only the
一方、例えば、対象物12が歩いて移動した場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、対象物12の腕及び脚を除く部分の姿勢の変化と略一致する。この場合、対象物12の腕及び脚を除く部分が対象部分となり、当該対象部分を含む領域が対象領域として認識される。
On the other hand, for example, when the
なお、例えば、対象物12の対象部分と連なる他の物体又は他の物体の一部分が、対象部分と同じ姿勢をとったり、同じ動きをしたりする場合、対象部分と、他の物体又は他の物体の一部分とを含む領域が対象領域として認識される。例えば、対象物12が人で、対象部分が手である場合、手と、手に持っている物体又は手に持っている物体の一部分とを含む領域が対象領域として認識される場合がある。
Note that, for example, when another object or a part of another object connected to the target portion of the
認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。
The
その後、処理はステップS2に戻り、ステップS2乃至ステップS5の処理が繰り返し実行される。 After that, the process returns to step S2, and the processes of steps S2 to S5 are repeatedly executed.
以上のようにして、各対象物12の一部分(対象部分)の認識精度が向上する。
As described above, the recognition accuracy of a part (target part) of each
例えば、対象物12の視覚的に特徴のない部分にマーカ(例えば、再帰性反射マーカ、カラーマーカ、不可視マーカ等)等を付けなくても、当該部分を正確に認識することが可能になる。例えば、対象物12が単色の模様がない物体である場合に、その対象物12の一部分を正確に認識することが可能になる。具体的には、例えば、複数の関節を備えるマニピュレータ等のロボットが単色で模様がない場合に、そのロボットの骨組みの一部を正確に認識することが可能になる。また、上述したようにマーカの付加が不要なのに加えて、IMUは対象物12に内蔵できるため、対象物12の外観を損ねることなく、対象物12の一部分を認識することが可能になる。
For example, even if a marker (for example, a retroreflective marker, a color marker, an invisible marker, etc.) is not attached to a visually uncharacteristic portion of the
例えば、同じような外観を持つものの中から、特定の対象物12の一部分を正確に認識することができる。例えば、同じ外観の対象物12が複数ある場合に、その中の特定の対象物12の一部分を正確に認識することができる。具体的には、例えば、同じ製品が陳列されている場合、そのうちの特定の製品の一部分を正確に認識することが可能になる。
For example, it is possible to accurately recognize a part of the
また、対象物12が動物や多関節のロボット等の複雑な動きをする物体であっても、対象物12の一部分を正確に認識することが可能になる。また、対象物12が剛体ではなく変形する場合にも、対象物12の一部分を正確に認識することが可能になる。
Further, even if the
さらに、例えば、対象物12又は対象部分に関する情報を検出データに含ませることにより、対象部分を認識するだけでなく、対象物12又は対象部分に関する情報まで認識することが可能になる。例えば、対象物12又は対象部分の名称等の属性を認識することが可能になる。
Furthermore, for example, by including information about the
また、例えば、対象部分が他の物体により隠れていても、対象物12又は対象部分に関する情報に基づいて、撮影画像内において対象部分が存在する領域を推定することができる。例えば、上述した処理では、対象物12を握った状態で手が動かされた場合、その手を含む領域が対象領域として認識されることが想定される。この場合、例えば、対象物12又は対象部分に関する情報に基づいて、その手の中に対象物12が存在すると推定することが可能になる。
Further, for example, even if the target portion is hidden by another object, the region in which the target portion exists in the captured image can be estimated based on the information about the
さらに、例えば、速度又は加速度に基づいて対象部分を認識する場合、対象部分が一定時間以上連続して動かないと、対象部分(に対応する対象領域)を認識することは困難である。また、対象部分の動きが小さいと、対象部分の認識精度が低下する。そのため、例えば、対象物12がゲームのコントローラ等の操作デバイスである場合、対象物12を大きく動かす必要が生じ、ユーザの負担が増大する。また、撮影画像内に移動体が多数存在する場合、各移動体の動きを検出するための負荷が増大する。一方、負荷を軽減するために移動体の動きの検出精度を落とすと、移動体のうちの1つである対象部分の認識精度が低下する。また、撮影部22の位置により、対象部分の動きの検出が困難な方向が生じ、対象部分がその方向に動く場合、対象部分の認識精度が低下する場合がある。
Furthermore, for example, when recognizing a target portion based on velocity or acceleration, it is difficult to recognize (the target area corresponding to) the target portion unless the target portion continuously moves for a certain period of time or longer. In addition, if the movement of the target portion is small, the recognition accuracy of the target portion decreases. Therefore, for example, when the
一方、情報処理システム11のように、対象部分の姿勢に基づいて対象部分を認識する場合、対象部分が静止していても、対象部分を正確に認識することが可能になる。ただし、対象部分と同じ姿勢の物体が多数存在する場合、例えば、対象物12を含め多数の物体が同じ机の上に置かれている場合、対象部分の認識が困難になる可能性がある。しかし、この場合でも、対象部分が少しでも動けば、対象部分を正確に認識することが可能になる。また、撮影部22の位置が対象部分の姿勢の検出精度に与える影響は小さい。そのため、撮影部22の位置に関わらず、対象部分の認識精度が良好に保たれる。
On the other hand, when the target portion is recognized based on the orientation of the target portion as in the
また、図5を参照して上述したように、検出部21と撮影部22の同期を取らなくても、撮影画像内の分割領域の姿勢と対象物12の対象部分の姿勢との間の相互相関係数を算出し、対象部分を認識することが可能である。さらに、対象部分の重力方向に対する姿勢を検出すればよく、対象部分のワールド座標系における姿勢を検出する必要がない。そのため、情報処理部23において、姿勢の検出に必要な装備や負荷を削減することが可能になる。
Further, as described above with reference to FIG. 5, even if the
<<2.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
<<2. Modification>>
Hereinafter, modified examples of the embodiment of the present technology described above will be described.
以上の説明では、撮影画像にデプス画像を用いて、撮影画像内の各領域の姿勢を検出する例を示したが、別の方法により撮影画像内の各領域の姿勢を検出したり、画像以外の視覚情報を用いて、視覚情報内の各領域の姿勢を検出したりするようにしてもよい。 In the above description, an example in which the depth image is used as a captured image to detect the orientation of each region in the captured image has been shown, but another method is used to detect the orientation of each region in the captured image, and other methods. The visual information may be used to detect the posture of each area in the visual information.
例えば、事前に登録された対象物12の画像と撮影画像内の対象物12の画像に基づいて、対象物12の各部の姿勢を検出するようにしてもよい。
For example, the posture of each part of the
例えば、ポイントクラウドのような3次元の視覚情報を用いて、視覚情報内の各領域の姿勢を検出するようにしてもよい。 For example, the posture of each area in the visual information may be detected using three-dimensional visual information such as a point cloud.
また、以上の説明では、撮影画像内の各領域の姿勢と対象物12の対象部分の姿勢との相関関係に基づいて対象領域を認識する例を示したが、本技術では、視覚情報と検出部21の検出データの両方で検出可能な状態であれば、任意の状態の相関関係を用いることが可能である。
Further, in the above description, an example in which the target region is recognized based on the correlation between the posture of each region in the captured image and the posture of the target portion of the
例えば、IMUを用いることにより、物体の角度以外に、速度、加速度、角速度、及び、位置を検出することが可能である。そこで、例えば、角度、速度、加速度、角速度、及び、位置のうち1つ以上の状態の相関関係を用いることが可能である。 For example, the IMU can be used to detect the velocity, acceleration, angular velocity, and position in addition to the angle of the object. Therefore, for example, it is possible to use a correlation of one or more states among an angle, a velocity, an acceleration, an angular velocity, and a position.
また、図10は、回転運動を行う対象物12aの認識処理を行う例を示している。 In addition, FIG. 10 illustrates an example of performing the recognition process of the object 12a that performs the rotational movement.
例えば、対象物12aは、回転部251、及び、回転部251の回転量を検出するロータリエンコーダ(不図示)を備えている。
For example, the object 12a includes a
撮影部22はカメラ252を備えており、カメラ252は、対象物12aの撮影が可能である。
The photographing
状態検出部53Aは、カメラ252からの撮影画像内の各領域の角度及び角加速度を検出する。
The
状態検出部53Bは、ロータリエンコーダからの検出データに基づいて、回転部251の角度及び角加速度を検出する。
The
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の角度及び角加速度と、状態検出部53Bにより検出された回転部251の角度及び角加速度との相関関係に基づいて、回転部251に対応する対象領域を認識する。
The
図11は、並進運動を行う対象物12bの認識処理を行う例を示している。
FIG. 11 illustrates an example of performing the recognition process of the
例えば、対象物12bは、台261の上を並進運動する可動部262、並びに、可動部262の位置を検出するリニアエンコーダ(不図示)を備えている。
For example, the
撮影部22はカメラ263を備えており、カメラ263は、対象物12bの撮影が可能である。
The
状態検出部53Aは、カメラ263からの撮影画像の各領域の位置、速度、及び、加速度を検出する。
The
状態検出部53Bは、リニアエンコーダからの検出データに基づいて、可動部262の位置、速度、及び、加速度を検出する。
The
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の位置、速度、及び、加速度と、状態検出部53Bにより検出された可動部262の位置、速度、及び、加速度との相関関係に基づいて、可動部262に対応する対象領域を認識する。
The
図12は、対象物12cの温度に基づいて対象領域の認識処理を行う例を示している。
FIG. 12 shows an example in which the target region recognition processing is performed based on the temperature of the
対象物12cは、温度センサ301を備えている。
The
撮影部22はサーマルセンサ302を備えている。サーマルセンサ302は、対象物12cの表面の温度を検出し、検出した温度の分布を示すサーマル画像を生成する。
The
状態検出部53Aは、サーマルセンサ302からのサーマル画像内の各領域の温度を検出する。
The
状態検出部53Bは、温度センサ301からの検出データに基づいて、対象物12cの温度センサ301付近の温度を検出する。
The
認識部54は、状態検出部53Aにより検出されたサーマル画像内の各領域の温度と、状態検出部53Bにより検出された対象物12cの温度センサ301付近の温度との相関関係に基づいて、サーマル画像において対象物12cの温度センサ301付近を含む対象領域を認識する。
The
例えば、対象物12cが、可動部(例えば、モータ等)を備える物体(例えば、ドローン等)である場合、可動部付近に温度センサ301が設けられる。これにより、可動部が動くことにより発生する熱による温度変化に基づいて、可動部を含む領域を対象領域として認識することが可能である。
For example, when the
例えば、対象物12cが食器である場合、食器内に温度センサ301が内蔵される。そして、例えば、食器に料理が盛り付けられたときの温度変化に基づいて、食器の温度センサ301を含む領域を対象領域として認識することが可能である。
For example, when the
例えば、対象物12cが、ペルチェ素子等の熱電素子を備える場合、熱電素子付近に温度センサ301が設けられる。例えば、対象物12cが、VR(Virtual Reality)グローブ等の触覚デバイスである場合、温度の変化を用いてユーザ体験を高めるために熱電素子が設けられる。そして、例えば、熱電素子により発生する温度変化に基づいて、熱電素子を含む領域を対象領域として認識することが可能である。
For example, when the
なお、対象部分の温度変化が少ない場合、対象部分に熱電素子を設け、能動的に対象部分の温度を変化させるようにしてもよい。これにより、サーマル画像内において、対象物12の温度変化が少ない部分を正確に認識することが可能になる。
If the temperature change of the target portion is small, a thermoelectric element may be provided in the target portion to actively change the temperature of the target portion. This makes it possible to accurately recognize a portion of the
さらに、例えば、ソフトアクチュエータのように変形可能な変形デバイスを対象物12が備える場合、対象物12の変形デバイスを備える部分の認識が可能である。
Further, for example, when the
例えば、変形デバイスは、自身の形状を検出し、検出結果を示す検出データを送信する。 For example, the deformation device detects its own shape and transmits detection data indicating the detection result.
状態検出部53Aは、撮影画像内の各領域の形状を検出する。
The
状態検出部53Bは、検出データに基づいて、変形デバイスの形状を検出する。
The
認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の形状と、状態検出部53Bにより検出された対象物12の変形デバイスを備える部分の形状との相関関係に基づいて、撮影画像において対象物12の変形デバイスを備える部分を含む対象領域を認識する。
The
また、例えば、物体の姿勢はクォータニオンで表現されることが一般的であるが、例えば、クォータニオンの姿勢変化量の相関関係を用いることが可能である。例えば、時間的な角速度の変化に基づく相関関係や、外積ベクトルの方向変化に基づく相関関係を用いることが可能である。この場合、3次元方向の角度に基づいて相関関係を求めるようにしてもよいし、2次元方向の角度に基づいて相関関係を求めるようにしてもよい。 Further, for example, the posture of an object is generally represented by a quaternion, but it is possible to use the correlation of the posture change amount of the quaternion, for example. For example, it is possible to use the correlation based on the change in the angular velocity over time or the correlation based on the change in the direction of the outer product vector. In this case, the correlation may be obtained based on the angle in the three-dimensional direction, or the correlation may be obtained based on the angle in the two-dimensional direction.
なお、相関関係の演算には、上述した相互相関係数以外の相関係数を用いたり、相関係数以外の方法を用いたりすることも可能である。 Note that it is possible to use a correlation coefficient other than the above-described cross-correlation coefficient or a method other than the correlation coefficient for the calculation of the correlation.
さらに、以上の説明では、デプスセンサ101にIMUを設けて重力方向を検出する例を示したが、異なる方法により重力方向を検出するようにしてもよい。
Further, in the above description, the example in which the IMU is provided in the
例えば、撮影画像内の壁や床に基づいて、重量方向を推定するようにしてもよい。また、例えば、デプスセンサ101が固定される場合、事前にデプスセンサ101の光軸に対する重力方向を測定し、測定結果を情報処理部23に与えておくようにしてもよい。
For example, the weight direction may be estimated based on the wall or floor in the captured image. Further, for example, when the
また、撮影部22が備えるイメージセンサの種類や数は、検出対象となる状態に応じて変更することが可能である。例えば、上述したデプスセンサ101以外にも、通常の可視光を検出するイメージセンサ、赤外線の検出が可能な赤外センサ、超音波センサ、法線ベクトルの検出が可能な偏光センサ等を用いることが可能である。
Further, the type and number of image sensors included in the
さらに、撮影画像以外の視覚情報を用いることが可能である。例えば、上述したサーマル画像、ポイントクラウド、磁気センサにより検出される磁場画像等を用いることが可能である。 Furthermore, it is possible to use visual information other than the captured image. For example, it is possible to use the above-mentioned thermal image, point cloud, magnetic field image detected by a magnetic sensor, or the like.
また、例えば、状態検出部53Aを撮影部22に設け、撮影部22が、撮影画像内の各領域の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。
Further, for example, the
さらに、例えば、状態検出部53Bを検出部21に設け、検出部21が、検出データに基づいて対象部分の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。
Further, for example, the
また、例えば、1つの対象物12に複数の検出部21を設けるようにしてもよい。これにより、1つの対象物12の複数の対象部分を認識することができる。
Further, for example, one
さらに、検出部21と対象部分が離れていてもよい。すなわち、検出部21が、対象物12において検出部21から離れた部分の状態を検出し、検出部21から離れた部分に対応する対象領域が認識されるようにしてもよい。
Furthermore, the
また、例えば、対象物12の対象部分の動きを認識することにより、対象部分を用いたタンジブルなユーザインタフェースを実現することが可能である。
Further, for example, by recognizing the movement of the target portion of the
さらに、例えば、検出部21の検出データに基づいて対象物12全体の状態を検出可能な場合、本技術は、対象物12全体の認識処理にも適用することが可能である。例えば、対象物12がシンプルな構成であり、検出部21の検出データに基づいて対象物12全体の姿勢が検出される場合、対象物12全体に対応する対象領域を認識することが可能である。
Furthermore, for example, when the state of the
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Computer configuration example>
The series of processes described above can be executed by hardware or software. When the series of processes is executed by software, a program forming the software is installed in the computer. Here, the computer includes a computer incorporated in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.
図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 13 is a block diagram showing a configuration example of hardware of a computer that executes the series of processes described above by a program.
コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
In a
バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。
An input/
入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。
The
以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
In the
コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer 1000 (CPU 1001) can be provided by being recorded in the removable medium 1011 as a package medium or the like, for example. In addition, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。
In the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all the constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. ..
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present technology.
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology may have a configuration of cloud computing in which one device is shared by a plurality of devices via a network and processes jointly.
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above-described flowcharts can be executed by one device or shared by a plurality of devices.
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when one step includes a plurality of processes, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
<Combination example of configuration>
The present technology may also be configured as below.
(1)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を
備える情報処理装置。
(2)
前記認識部は、前記視覚情報内の各領域の状態と、前記検出データに基づく前記物体の一部分の状態との相関関係に基づいて、前記対象領域を認識する
前記(1)に記載の情報処理装置。
(3)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の姿勢と同様の姿勢をとる前記視覚情報内の領域を前記対象領域として認識する
前記(2)に記載の情報処理装置。
(4)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の動きと同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(2)又は(3)に記載の情報処理装置。
(5)
前記物体の一部分は、前記検出部の検出対象となる部分である
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記物体の一部分は、前記検出部を含む部分である
前記(5)に記載の情報処理装置。
(7)
前記認識部は、前記検出部と同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(6)に記載の情報処理装置。
(8)
前記状態は、姿勢、速度、加速度、角速度、角加速度、位置、形状、及び、温度のうち少なくとも1つを含む
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記検出部は、加速度センサ及び角速度センサを備え、
前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(10)
前記視覚情報は、温度の分布を示す画像であるサーマル画像であり、
前記検出部は、温度センサを備え、
前記状態は、温度を含む
前記(8)に記載の情報処理装置。
(11)
前記検出部は、エンコーダを含み、
前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(12)
前記物体の一部分は、変形可能なデバイスを備え、
前記検出部は、前記デバイスの形状を検出するセンサを備え、
前記状態は、形状を含む
前記(8)に記載の情報処理装置。
(13)
前記視覚情報内の各領域の状態、及び、前記物体の一部分の状態のうち少なくとも1つを検出する状態検出部を
さらに備える前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記検出データを受信する受信部を
さらに備え、
前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
前記(13)に記載の情報処理装置。
(15)
情報処理装置が、
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
情報処理方法。
(16)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(1)
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing apparatus including a recognition unit that recognizes a corresponding target area.
(2)
The information processing according to (1), wherein the recognition unit recognizes the target area based on a correlation between a state of each area in the visual information and a state of a part of the object based on the detection data. apparatus.
(3)
The information processing apparatus according to (2), wherein the recognition unit recognizes, as the target area, an area in the visual information that has the same attitude as the attitude of a part of the object detected based on the detection data.
(4)
The recognizing unit recognizes, as the target area, an area in the visual information that makes a movement similar to the movement of a part of the object detected based on the detection data. (2) or (3) Information processing device.
(5)
The information processing device according to any one of (1) to (4), wherein the part of the object is a part to be detected by the detection unit.
(6)
The information processing device according to (5), wherein a part of the object is a part including the detection unit.
(7)
The information processing apparatus according to (6), wherein the recognition unit recognizes, as the target region, a region in the visual information that moves in the same manner as the detection unit.
(8)
The information processing device according to any one of (1) to (7), wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, an angular acceleration, a position, a shape, and a temperature.
(9)
The detection unit includes an acceleration sensor and an angular velocity sensor,
The information processing device according to (8), wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, and an angular acceleration.
(10)
The visual information is a thermal image that is an image showing the temperature distribution,
The detection unit includes a temperature sensor,
The information processing device according to (8), wherein the state includes temperature.
(11)
The detection unit includes an encoder,
The information processing device according to (8), wherein the state includes at least one of velocity, acceleration, angular velocity, angular acceleration, and position.
(12)
A portion of the object comprises a deformable device,
The detection unit includes a sensor that detects the shape of the device,
The information processing device according to (8), wherein the state includes a shape.
(13)
The information processing apparatus according to any one of (1) to (12), further including a state detection unit that detects at least one of a state of each area in the visual information and a state of a part of the object.
(14)
Further comprising a receiving unit for receiving the detection data,
The information processing device according to (13), wherein the state detection unit detects the state of a part of the object based on the received detection data.
(15)
The information processing device
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing method for recognizing a corresponding target area.
(16)
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information A computer-readable recording medium in which a program for executing processing for recognizing a corresponding target area is recorded.
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and may have other effects.
11 情報処理システム, 12,12a,12b,12c 対象物, 13 非対象物, 21 検出部, 22 撮影部, 23 情報処理部, 51 受信部, 53,53A,53B 状態検出部, 54 認識部, 101 デプスセンサ, 251 回転部, 252 カメラ, 262 可動部, 263 カメラ, 301 温度センサ, 302 サーマルセンサ 11 information processing system, 12, 12a, 12b, 12c target object, 13 non-target object, 21 detection unit, 22 imaging unit, 23 information processing unit, 51 reception unit, 53, 53A, 53B state detection unit, 54 recognition unit, 101 depth sensor, 251 rotating part, 252 camera, 262 movable part, 263 camera, 301 temperature sensor, 302 thermal sensor
Claims (16)
備える情報処理装置。 Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing apparatus including a recognition unit that recognizes a corresponding target area.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the recognition unit recognizes the target area based on a correlation between a state of each area in the visual information and a state of a part of the object based on the detection data. ..
請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the recognition unit recognizes, as the target area, an area in the visual information that has the same attitude as the attitude of a part of the object detected based on the detection data.
請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the recognition unit recognizes, as the target area, an area in the visual information that makes a movement similar to the movement of the part of the object detected based on the detection data.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein a part of the object is a part to be detected by the detection unit.
請求項5に記載の情報処理装置。 The information processing device according to claim 5, wherein a part of the object is a part including the detection unit.
請求項6に記載の情報処理装置。 The information processing apparatus according to claim 6, wherein the recognition unit recognizes an area in the visual information that moves in the same manner as the detection unit as the target area.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, an angular acceleration, a position, a shape, and a temperature.
前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
請求項8に記載の情報処理装置。 The detection unit includes an acceleration sensor and an angular velocity sensor,
The information processing apparatus according to claim 8, wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, and an angular acceleration.
前記検出部は、温度センサを備え、
前記状態は、温度を含む
請求項8に記載の情報処理装置。 The visual information is a thermal image that is an image showing the distribution of temperature,
The detection unit includes a temperature sensor,
The information processing apparatus according to claim 8, wherein the state includes temperature.
前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
請求項8に記載の情報処理装置。 The detection unit includes an encoder,
The information processing apparatus according to claim 8, wherein the state includes at least one of velocity, acceleration, angular velocity, angular acceleration, and position.
前記検出部は、前記デバイスの形状を検出するセンサを備え、
前記状態は、形状を含む
請求項8に記載の情報処理装置。 A portion of the object comprises a deformable device,
The detection unit includes a sensor that detects the shape of the device,
The information processing apparatus according to claim 8, wherein the state includes a shape.
さらに備える請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, further comprising a state detection unit configured to detect at least one of a state of each area in the visual information and a state of a part of the object.
さらに備え、
前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
請求項13に記載の情報処理装置。 Further comprising a receiver for receiving the detection data,
The information processing device according to claim 13, wherein the state detection unit detects a state of a part of the object based on the received detection data.
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
情報処理方法。 The information processing device
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing method for recognizing a corresponding target area.
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information A computer-readable recording medium in which a program for executing processing for recognizing a corresponding target area is recorded.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007068A JP2020119024A (en) | 2019-01-18 | 2019-01-18 | Information processing device, information processing method, and recording medium |
PCT/JP2019/051425 WO2020149147A1 (en) | 2019-01-18 | 2019-12-27 | Information processing device, information processing method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019007068A JP2020119024A (en) | 2019-01-18 | 2019-01-18 | Information processing device, information processing method, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020119024A true JP2020119024A (en) | 2020-08-06 |
Family
ID=71614432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019007068A Pending JP2020119024A (en) | 2019-01-18 | 2019-01-18 | Information processing device, information processing method, and recording medium |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020119024A (en) |
WO (1) | WO2020149147A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023286821A1 (en) | 2021-07-15 | 2023-01-19 | 積水メディカル株式会社 | Composition containing tarc, diluted solution, method for preventing carry over of tarc, adsorption-preventing agent, and continuous analysis method |
-
2019
- 2019-01-18 JP JP2019007068A patent/JP2020119024A/en active Pending
- 2019-12-27 WO PCT/JP2019/051425 patent/WO2020149147A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023286821A1 (en) | 2021-07-15 | 2023-01-19 | 積水メディカル株式会社 | Composition containing tarc, diluted solution, method for preventing carry over of tarc, adsorption-preventing agent, and continuous analysis method |
Also Published As
Publication number | Publication date |
---|---|
WO2020149147A1 (en) | 2020-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102296267B1 (en) | Pose estimation in 3D space | |
CN108156450B (en) | Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium | |
JP7209333B2 (en) | Joint position acquisition method and device, movement acquisition method and device | |
TWI722280B (en) | Controller tracking for multiple degrees of freedom | |
Ribo et al. | A new optical tracking system for virtual and augmented reality applications | |
JP2018522348A (en) | Method and system for estimating the three-dimensional posture of a sensor | |
JP6793151B2 (en) | Object tracking device, object tracking method and object tracking program | |
CN107577451B (en) | Multi-Kinect human body skeleton coordinate transformation method, processing equipment and readable storage medium | |
EP3252714A1 (en) | Camera selection in positional tracking | |
KR20150088636A (en) | Apparatus and method for estimating position | |
JP7162079B2 (en) | A recording medium for recording a method, system and computer program for remotely controlling a display device via head gestures | |
WO2017043181A1 (en) | Sensor device, sensor system, and information-processing device | |
JPWO2016027627A1 (en) | Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program | |
KR101896827B1 (en) | Apparatus and Method for Estimating Pose of User | |
KR20220063847A (en) | Electronic device for identifying human gait pattern and method there of | |
EP3269302A1 (en) | Information processing apparatus and information processing method | |
Chae et al. | Collision detection method using image segmentation for the visually impaired | |
WO2020149147A1 (en) | Information processing device, information processing method, and recording medium | |
Carraro et al. | Real-time marker-less multi-person 3d pose estimation in rgb-depth camera networks | |
JP2018009918A (en) | Self-position detection device, moving body device, and self-position detection method | |
KR102456872B1 (en) | System and method for tracking hand motion using strong coupling fusion of image sensor and inertial sensor | |
Lin et al. | Development of a binocular vision-based catcher robot system using DSP platform | |
JP6034671B2 (en) | Information display device, control method thereof, and program | |
US11783492B2 (en) | Human body portion tracking method and human body portion tracking system | |
Rasouli et al. | Dynamic posture estimation in a network of depth sensors using sample points |