JP2020119024A - Information processing device, information processing method, and recording medium - Google Patents

Information processing device, information processing method, and recording medium Download PDF

Info

Publication number
JP2020119024A
JP2020119024A JP2019007068A JP2019007068A JP2020119024A JP 2020119024 A JP2020119024 A JP 2020119024A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2019007068 A JP2019007068 A JP 2019007068A JP 2020119024 A JP2020119024 A JP 2020119024A
Authority
JP
Japan
Prior art keywords
information processing
state
detection unit
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019007068A
Other languages
Japanese (ja)
Inventor
脩 繁田
Osamu Shigeta
脩 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019007068A priority Critical patent/JP2020119024A/en
Priority to PCT/JP2019/051425 priority patent/WO2020149147A1/en
Publication of JP2020119024A publication Critical patent/JP2020119024A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

To improve recognition accuracy for a part of an object.SOLUTION: An information processing device comprises and a recognition unit which recognizes an object region corresponding to a part of an object in visual information, on the basis of the condition of each region in the visual information, and the condition of the part of the object based on detection data detected by a detection unit included in the object contained in the visual information. This technology is applicable to, for example, a smartphone, a tablet computer, etc.SELECTED DRAWING: Figure 2

Description

本技術は、情報処理装置、情報処理方法、及び、記録媒体に関し、特に、物体の一部分の認識精度を向上させるようにした情報処理装置、情報処理方法、及び、記録媒体に関する。 The present technology relates to an information processing device, an information processing method, and a recording medium, and particularly to an information processing device, an information processing method, and a recording medium that improve the recognition accuracy of a part of an object.

近年、画像内の人の顔を認識する顔認識技術の普及が進んでいる(例えば、特許文献1参照)。 In recent years, face recognition technology for recognizing a human face in an image has become widespread (for example, see Patent Document 1).

特開2017−91059号公報JP, 2017-91059, A

しかしながら、顔認識技術では、人の顔以外の部分を認識することはできない。また、一般的に、顔認識技術のように画像を用いた物体認識技術は、顔のように視覚的な特徴が多い部分の認識は得意であるが、視覚的な特徴が少ない部分の認識は不得意である。 However, the face recognition technology cannot recognize a part other than the human face. In general, an object recognition technique using an image such as a face recognition technique is good at recognizing a portion having many visual features such as a face, but is not good at recognizing a portion having few visual features. I am not good at it.

本技術は、このような状況に鑑みてなされたものであり、物体の一部分の認識精度を向上させるようにするものである。 The present technology has been made in view of such a situation, and is to improve the recognition accuracy of a part of an object.

本技術の一側面の情報処理装置は、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を備える。 The information processing device according to one aspect of the present technology is based on the state of each area in the visual information and the state of a part of the object based on the detection data detected by the detection unit included in the visual information included in the object. , A recognition unit that recognizes a target area corresponding to a part of the object in the visual information.

本技術の一側面の情報処理方法は、情報処理装置が、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する。 An information processing method according to an aspect of the present technology is that an information processing device includes a state of each region in visual information, and a part of the object based on detection data detected by a detection unit included in the visual information. A target area corresponding to a part of the object in the visual information is recognized based on the state of.

本技術の一側面の記録媒体に記録されているプログラムは、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する処理をコンピュータに実行させる。 The program recorded on the recording medium according to one aspect of the present technology is a state of each area in visual information, and a part of the object based on detection data detected by a detection unit included in the visual information included in the object. The computer is caused to execute a process of recognizing a target area corresponding to a part of the object in the visual information, based on the state.

本技術の一側面においては、視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域が認識される。 In one aspect of the present technology, based on a state of each area in visual information and a state of a part of the object based on detection data detected by a detection unit included in the visual information included in the object, the visual A target area corresponding to a portion of the object in the information is recognized.

本技術を適用した情報処理システムの一実施の形態を示すブロック図である。It is a block diagram showing an embodiment of an information processing system to which this art is applied. 情報処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an information processing part. 撮影部の構成例及び設置例を示す図である。It is a figure which shows the structural example and installation example of an imaging|photography part. 認識処理を説明するためのフローチャートである。It is a flow chart for explaining recognition processing. 相互相関係数の計算結果の例を示す図である。It is a figure which shows the example of the calculation result of a cross correlation coefficient. 対象領域の認識例を説明するための図である。It is a figure for demonstrating the example of recognition of a target area. 対象領域の認識例を説明するための図である。It is a figure for demonstrating the example of recognition of a target area. 対象領域の認識例を説明するための図である。It is a figure for demonstrating the example of recognition of a target area. 対象領域の認識例を説明するための図である。It is a figure for demonstrating the example of recognition of a target area. 認識処理の第1の変形例を説明するための図である。It is a figure for demonstrating the 1st modification of a recognition process. 認識処理の第2の変形例を説明するための図である。It is a figure for demonstrating the 2nd modification of a recognition process. 認識処理の第3の変形例を説明するための図である。It is a figure for demonstrating the 3rd modification of recognition processing. コンピュータの構成例を示す図である。FIG. 13 is a diagram illustrating a configuration example of a computer.

以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.実施の形態
2.変形例
3.その他
Hereinafter, modes for carrying out the present technology will be described. The description will be given in the following order.
1. Embodiment 2. Modification 3. Other

<<1.実施の形態>>
まず、図1乃至図9を参照して、本技術の実施の形態について説明する。
<<1. Embodiment>>
First, an embodiment of the present technology will be described with reference to FIGS. 1 to 9.

<情報処理システム11の構成例>
情報処理システム11は、物体認識処理を行うシステムである。特に、情報処理システム11は、物体全体だけでなく、物体の一部分の認識が可能である。
<Example of configuration of information processing system 11>
The information processing system 11 is a system that performs object recognition processing. In particular, the information processing system 11 can recognize not only the entire object but also a part of the object.

情報処理システム1は、検出部21−1乃至検出部21−m、撮影部22、及び、情報処理部23を備える。 The information processing system 1 includes a detection unit 21-1 to a detection unit 21-m, a photographing unit 22, and an information processing unit 23.

検出部21−1は、対象物12−1に設けられ、対象物12−1の一部分(以下、対象部分と称する)の状態に関するデータを検出する。対象部分は、検出部21−1の検出対象となる部分であって、検出部21−1を含む部分である。 The detection unit 21-1 is provided on the target object 12-1 and detects data regarding the state of a part of the target object 12-1 (hereinafter referred to as the target part). The target portion is a portion to be detected by the detection unit 21-1 and includes the detection unit 21-1.

検出部21−1は、検出結果を示す検出データを情報処理部23に送信する。なお、検出データの送信には、任意の方式の有線通信又は無線通信を用いることができる。 The detection unit 21-1 transmits the detection data indicating the detection result to the information processing unit 23. Note that wired communication or wireless communication of any method can be used to transmit the detection data.

検出部21−2乃至検出部21−mも、検出部21−1と同様に、それぞれ対象物12−2乃至対象物12−mの対象部分の状態に関するデータを検出し、検出結果を示す検出データを情報処理部23に送信する。 Similarly to the detection unit 21-1, the detection units 21-2 to 21-m also detect data regarding the states of the target portions of the target objects 12-2 to 12-m, respectively, and detect the detection results. The data is transmitted to the information processing unit 23.

なお、以下、対象物12−1乃至対象物12−m、及び、検出部21−1乃至検出部21−mを個々に区別する必要がない場合、単に、対象物12及び検出部21と称する。 Note that, hereinafter, when it is not necessary to individually distinguish the object 12-1 to the object 12-m and the detection unit 21-1 to the detection unit 21-m, they are simply referred to as the object 12 and the detection unit 21. ..

撮影部22は、対象物12、及び、非対象物13−1乃至非対象物13−nを含む空間(以下、撮影空間と称する)内の撮影を行う。すなわち、撮影部22は、撮影空間内の対象物12−1乃至対象物12−m及び非対象物13−1乃至非対象物13−nを含む画像(以下、撮影画像と称する)を撮影する。撮影部22は、撮影画像を含むデータである撮影画像データを情報処理部23に送信する。なお、撮影画像データの送信には、任意の方式の有線通信又は無線通信を用いることができる。 The image capturing unit 22 captures an image of the object 12 and a space including the non-objects 13-1 to 13-n (hereinafter, referred to as an imaging space). That is, the image capturing unit 22 captures an image (hereinafter, referred to as a captured image) including the target object 12-1 to the target object 12-m and the non-target object 13-1 to the non-target object 13-n in the shooting space. .. The image capturing unit 22 transmits captured image data, which is data including a captured image, to the information processing unit 23. Note that wired communication or wireless communication of any method can be used to transmit the captured image data.

なお、非対象物13−1乃至非対象物13−nは、撮影空間内に存在する対象物12以外の物体であり、その種類は問わない。また、以下、非対象物13−1乃至非対象物13−nを個々に区別する必要がない場合、単に非対象物13と称する。 The non-target object 13-1 to the non-target object 13-n are objects other than the target object 12 existing in the imaging space, and their types are not limited. Further, hereinafter, when it is not necessary to individually distinguish the non-target object 13-1 to the non-target object 13-n, they are simply referred to as the non-target object 13.

情報処理部23は、例えば、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ、ゲーム端末等の情報処理装置により構成される。情報処理部23は、各検出部21からの検出データ、及び、撮影部22からの撮影画像データに基づいて、各対象物12の認識処理を行う。より具体的には、情報処理部23は、撮影画像内の各対象物12の対象部分に対応する領域(以下、対象領域と称する)の認識処理を行う。情報処理部23は、各対象物12の対象領域の認識結果を示すデータを出力する。 The information processing unit 23 is configured by an information processing device such as a personal computer, a smartphone, a tablet computer, a game terminal, or the like. The information processing unit 23 performs a recognition process of each target object 12 based on the detection data from each detection unit 21 and the captured image data from the imaging unit 22. More specifically, the information processing unit 23 performs a recognition process of a region (hereinafter, referred to as a target region) corresponding to a target portion of each target object 12 in the captured image. The information processing unit 23 outputs data indicating the recognition result of the target area of each target object 12.

なお、対象物12は、検出部21を設けることが可能な物体であれば、その種類は特に限定されない。また、対象物12は、動体でも静止物でもよい。 The type of the target object 12 is not particularly limited as long as it is an object to which the detection unit 21 can be provided. The object 12 may be a moving object or a stationary object.

さらに、検出部21の検出対象となる状態は、撮影画像でも検出可能な状態であれば、特に限定されない。例えば、対象部分の位置、姿勢、動き、属性等のうち1つ以上が検出される。対象部分の動きとしては、例えば、対象部分の速度、加速度、角速度、角加速度等が想定される。対象部分の属性としては、例えば、対象部分の形状、色、材質、温度等が想定される。 Furthermore, the state to be detected by the detection unit 21 is not particularly limited as long as it can be detected even in a captured image. For example, one or more of the position, orientation, movement, attribute, etc. of the target portion are detected. As the movement of the target portion, for example, velocity, acceleration, angular velocity, angular acceleration, etc. of the target portion are assumed. As the attribute of the target portion, for example, the shape, color, material, temperature, etc. of the target portion are assumed.

また、検出部21を設置する位置は、対象部分の状態に関するデータが検出可能な位置であればよく、特に制限はない。例えば、検出部21は、対象物12の表面又は内部のいずれに設けられてもよい。また、例えば、対象物12が人である場合、検出部21を各種のセンサを備えるウエアラブルデバイスにより構成し、対象物12が検出部21を装着するようにしてもよい。 Further, the position where the detection unit 21 is installed is not particularly limited as long as the data regarding the state of the target portion can be detected. For example, the detection unit 21 may be provided on either the surface or the inside of the object 12. Further, for example, when the object 12 is a person, the detection unit 21 may be configured by a wearable device including various sensors, and the object 12 may be equipped with the detection unit 21.

さらに、撮影画像は、各検出部21の検出対象となる状態と同じ種類の状態が検出可能な画像であれば、その種類は特に問わない。 Further, the captured image may be of any type as long as it can detect the same type of state as the state to be detected by each detection unit 21.

また、各対象物12は、必ずしも全て同じ種類の物体でなくてもよい。さらに、各検出部21の検出対象となる状態の種類は、必ずしも全て同じでなくてもよい。 In addition, each target 12 does not necessarily have to be the same type of object. Further, the types of states to be detected by the detection units 21 do not necessarily have to be the same.

<情報処理部23の構成例>
図2は、図1の情報処理システム11の情報処理部23の構成例を示すブロック図である。
<Example of Configuration of Information Processing Unit 23>
FIG. 2 is a block diagram showing a configuration example of the information processing unit 23 of the information processing system 11 of FIG.

情報処理部23は、受信部51、記憶部52、状態検出部53、及び、認識部54を備える。状態検出部53は、状態検出部53A及び状態検出部53Bを備える。 The information processing unit 23 includes a reception unit 51, a storage unit 52, a state detection unit 53, and a recognition unit 54. The state detection unit 53 includes a state detection unit 53A and a state detection unit 53B.

受信部51は、各検出部21の通信方式、及び、撮影部22の通信方式に対応した通信が可能である。受信部51は、各検出部21から送信される検出データ、及び、撮影部22から送信される撮影画像データを受信し、記憶部52に記憶させる。 The reception unit 51 is capable of communication corresponding to the communication system of each detection unit 21 and the communication system of the imaging unit 22. The reception unit 51 receives the detection data transmitted from each detection unit 21 and the captured image data transmitted from the imaging unit 22, and stores the data in the storage unit 52.

状態検出部53Aは、記憶部52に記憶されている撮影画像データに基づいて、撮影画像内の各部の状態を検出する。状態検出部53Aは、検出結果を示すデータを認識部54に供給する。 The state detection unit 53A detects the state of each unit in the captured image based on the captured image data stored in the storage unit 52. The state detection unit 53A supplies data indicating the detection result to the recognition unit 54.

状態検出部53Bは、記憶部52に記憶されている検出データに基づいて、各対象物12の対象部分の状態を検出する。状態検出部53Bは、検出結果を示すデータを認識部54に供給する。 The state detection unit 53B detects the state of the target portion of each target object 12 based on the detection data stored in the storage unit 52. The state detection unit 53B supplies data indicating the detection result to the recognition unit 54.

認識部54は、撮影画像内の各部の状態、及び、各対象物12の対象部分の状態に基づいて、撮影画像において各対象物12の対象部分に対応する対象領域の認識処理を行う。認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。 The recognition unit 54 performs recognition processing of a target area corresponding to the target portion of each target 12 in the captured image based on the state of each unit in the captured image and the state of the target portion of each target 12. The recognition unit 54 outputs data indicating the recognition result of the target area of each target object 12.

<撮影部22の構成例及び設置例>
図3は、撮影部22の具体的な構成例及び設置例を示す模式図である。
<Structural Example and Installation Example of Imaging Unit 22>
FIG. 3 is a schematic diagram showing a specific configuration example and installation example of the imaging unit 22.

ここでは、撮影部22がデプスセンサ101を備える例が示されている。 Here, an example in which the image capturing unit 22 includes the depth sensor 101 is shown.

デプスセンサ101は、例えば、撮影空間内の天井に設置され、撮影空間を見下ろすように撮影する。また、デプスセンサ101は、IMU(Inertial Measurement Unit)を備えており、デプスセンサ101の光軸方向とIMUの設置方向との関係は既知であるものとする。IMUは、例えば、加速度センサ及び角速度センサを備え、さらに必要に応じて、地磁気センサ等を備える。従って、デプスセンサ101は、IMUを用いて光軸に対する重力方向を検出することが可能である。デプスセンサ101は、撮影により得られた撮影画像(デプス画像)、及び、重力方向の検出結果を含む撮影画像データを情報処理システム11に送信する。 The depth sensor 101 is installed, for example, on the ceiling in the shooting space, and shoots while looking down on the shooting space. Further, the depth sensor 101 includes an IMU (Inertial Measurement Unit), and the relationship between the optical axis direction of the depth sensor 101 and the installation direction of the IMU is known. The IMU includes, for example, an acceleration sensor and an angular velocity sensor, and further includes a geomagnetic sensor and the like as necessary. Therefore, the depth sensor 101 can detect the gravity direction with respect to the optical axis using the IMU. The depth sensor 101 transmits captured image data (depth image) obtained by capturing and captured image data including a detection result of the gravity direction to the information processing system 11.

なお、以下、この例のように、撮影部22がデプスセンサ101を備える場合について説明する。 Note that, hereinafter, a case where the image capturing unit 22 includes the depth sensor 101 as in this example will be described.

また、以下、各検出部21がIMUを備え、状態検出部53Aが撮影画像内の各部の姿勢を検出し、状態検出部53Bが各対象物12の対象部分の姿勢を検出する場合について説明する。 Further, hereinafter, a case will be described in which each detection unit 21 includes an IMU, the state detection unit 53A detects the posture of each unit in the captured image, and the state detection unit 53B detects the posture of the target portion of each target object 12. ..

<認識処理>
次に、図4のフローチャートを参照して、情報処理システム11により実行される認識処理について説明する。
<Recognition processing>
Next, the recognition processing executed by the information processing system 11 will be described with reference to the flowchart in FIG.

なお、この処理は、例えば、情報処理部23の電源がオンされたとき開始され、情報処理部23の電源がオフされたとき終了する。 Note that this process starts, for example, when the information processing unit 23 is powered on, and ends when the information processing unit 23 is powered off.

ステップS1において、情報処理システム11は、撮影画像データ及び検出データの取得を開始する。 In step S1, the information processing system 11 starts acquisition of captured image data and detection data.

具体的には、デプスセンサ101は、撮影空間の撮影及び重力方向の検出を開始する。デプスセンサ101は、得られた撮影画像(デプス画像)及び重力方向の検出結果を含む撮影画像データを情報処理部23に送信する。 Specifically, the depth sensor 101 starts photographing the photographing space and detecting the gravity direction. The depth sensor 101 transmits captured image data including the obtained captured image (depth image) and the detection result of the gravity direction to the information processing unit 23.

各検出部21は、各対象物12の対象部分の加速度及び角速度、並びに、重力方向の検出を開始する。各検出部21は、検出結果を示す検出データを情報処理部23に送信する。 Each detection unit 21 starts detection of the acceleration and angular velocity of the target portion of each target object 12, and the direction of gravity. Each detection unit 21 transmits the detection data indicating the detection result to the information processing unit 23.

情報処理部23の受信部51は、撮影画像データ及び検出データを受信し、記憶部52に記憶させる。 The receiving unit 51 of the information processing unit 23 receives the captured image data and the detection data, and stores them in the storage unit 52.

ステップS2において、状態検出部53Aは、撮影画像内の各部の状態を検出する。 In step S2, the state detection unit 53A detects the state of each unit in the captured image.

具体的には、状態検出部53Aは、撮影画像を複数の領域に分割する。 Specifically, the state detection unit 53A divides the captured image into a plurality of areas.

なお、撮影画像の領域の分割には、任意の手法を用いることができる。 Any method can be used to divide the area of the captured image.

例えば、状態検出部53Aは、撮影画像内の特徴点を検出し、検出した特徴点を複数フレームにわたって追跡し、同様の動きをする特徴点を含む領域を検出することにより、撮影画像を複数の領域に分割する。特徴点の種類は特に限定されないが、例えば、コーナ、人の顔のパーツ等が用いられる。 For example, the state detection unit 53A detects a feature point in a captured image, tracks the detected feature point over a plurality of frames, and detects a region including a feature point that makes similar movements, thereby detecting a plurality of captured images. Divide into areas. The type of feature points is not particularly limited, but, for example, corners, human face parts, and the like are used.

例えば、状態検出部53Aは、オプティカルフローを用いて、撮影画像内の各部の追跡を複数フレームにわたって行い、同様の動きをする領域を検出することにより、撮影画像を複数の領域に分割する。 For example, the state detection unit 53A divides the captured image into a plurality of regions by tracking each part in the captured image over a plurality of frames using an optical flow and detecting a region having the same movement.

例えば、状態検出部53Aは、セマンティックセグメンテーション等の任意の手法を用いて、撮影画像を複数のセグメンテーション領域に分割する。 For example, the state detection unit 53A divides the captured image into a plurality of segmentation regions by using an arbitrary method such as semantic segmentation.

例えば、状態検出部53Aは、ボーントラッキングを用いて、撮影画像内の人やロボット等の骨格の動きを追跡することにより、撮影画像内の人やロボット等をパーツ毎に分割する。 For example, the state detection unit 53A uses bone tracking to track the movement of the skeleton of a person, a robot, or the like in the captured image, thereby dividing the person, the robot, or the like in the captured image into parts.

次に、状態検出部53Aは、撮影画像内の各領域(以下、分割領域と称する)の法線ベクトルを算出する。なお、撮影画像は、デプス画像であり、各画素が奥行き方向の情報を有するため、各分割領域の法線ベクトルの算出は容易である。状態検出部53Aは、次式(1)を用いて、算出した法線ベクトルの重力方向に対する角度θc(t)を算出する。 Next, the state detection unit 53A calculates a normal vector of each area (hereinafter, referred to as a divided area) in the captured image. Since the captured image is a depth image and each pixel has information in the depth direction, it is easy to calculate the normal vector of each divided area. The state detection unit 53A calculates the angle θc(t) of the calculated normal vector with respect to the direction of gravity using the following equation (1).

θc(t)=arccos((n・g)/|n||g|) ・・・(1) θc(t)=arccos((n·g)/|n||g|) (1)

なお、nは法線ベクトルを示し、gは重力方向を示す重力ベクトルを示している。 In addition, n shows a normal vector and g has shown the gravity vector which shows a gravity direction.

このようにして、時刻tにおける各分割領域の姿勢(角度θc(t))が検出される。 In this way, the attitude (angle θc(t)) of each divided area at time t is detected.

状態検出部53Aは、撮影画像内の各分割領域の姿勢の検出結果を示すデータを認識部54に供給する。 The state detection unit 53A supplies the recognition unit 54 with data indicating the detection result of the posture of each divided area in the captured image.

ステップS3において、状態検出部53Bは、各対象物12の一部分の状態を検出する。 In step S3, the state detection unit 53B detects the state of a part of each object 12.

例えば、状態検出部53Bは、各対象物12の一部分である対象部分の角速度及び加速度の検出結果に基づいて、各対象物12の対象部分の姿勢を算出する。例えば、状態検出部53Bは、時刻tにおける各対象物12の対象部分の重力方向に対する角度θo(t)を算出する。 For example, the state detection unit 53B calculates the posture of the target portion of each target 12 based on the detection result of the angular velocity and acceleration of the target portion that is a part of each target 12. For example, the state detection unit 53B calculates an angle θo(t) with respect to the gravity direction of the target portion of each target object 12 at time t.

状態検出部53Bは、各対象物12の対象部分の姿勢の検出結果を示すデータを認識部54に供給する。 The state detection unit 53B supplies the recognition unit 54 with data indicating the detection result of the posture of the target portion of each target object 12.

ステップS4において、認識部54は、撮影画像内の各部の状態と、各対象物12の一部分の状態との相関関係を求める。具体的には、例えば、認識部54は、状態検出部53Aにより検出された撮影画像内の各分割領域の姿勢(角度θc(t))と、状態検出部53Bにより検出された各対象物12の対象部分の姿勢(角度θo(t))との全ての組合せについて、相関係数を算出する。 In step S4, the recognition unit 54 obtains the correlation between the state of each part in the captured image and the state of a part of each target object 12. Specifically, for example, the recognition unit 54 detects the posture (angle θc(t)) of each divided area in the captured image detected by the state detection unit 53A, and the target object 12 detected by the state detection unit 53B. Correlation coefficients are calculated for all combinations with the orientation (angle θo(t)) of the target portion of.

例えば、認識部54は、撮影画像内の分割領域のうちの1つ、及び、各対象物12の対象部分のうちの1つを選択する。認識部54は、次式(2)を用いて、選択した分割領域の姿勢と、選択した対象部分の姿勢との相互相関係数r(m)を算出する。 For example, the recognition unit 54 selects one of the divided areas in the captured image and one of the target portions of each target object 12. The recognition unit 54 calculates the cross-correlation coefficient r(m) between the posture of the selected divided area and the posture of the selected target portion using the following equation (2).

Figure 2020119024
Figure 2020119024

なお、f(n)は、基準時刻t0からn番目の対象部分の姿勢のサンプル値(検出値)を示している。h(n+m)は、基準時刻t0からn+m番目の分割領域の姿勢のサンプル値(検出値)を示している。Nは、相互相関係数r(m)の算出に用いるサンプルの総数を示している。従って、式(1)により、対象部分のN個の姿勢のサンプル値と、対象部分よりmサンプル後の分割領域のN個の姿勢のサンプル値との間の相互相関係数が算出される。 Note that f(n) represents a sample value (detection value) of the posture of the n-th target portion from the reference time t0. h(n+m) indicates a sample value (detection value) of the posture of the n+m-th divided area from the reference time t0. N indicates the total number of samples used for calculating the cross-correlation coefficient r(m). Therefore, the cross-correlation coefficient between the sample values of the N postures of the target portion and the sample values of the N postures of the divided area m samples after the target portion is calculated by the equation (1).

認識部54は、現在の時刻tから所定の時間前の時刻を基準時刻t0に設定するとともに、シフト量mを0に設定し、選択した分割領域の姿勢と対象部分の姿勢との相互相関係数r(0)を算出する。その後、認識部54は、シフト量mを所定の最大値まで1つずつシフトしながら、選択した分割領域の姿勢と対象部分の姿勢との間の相互相関係数r(m)を算出する。 The recognizing unit 54 sets a time that is a predetermined time before the current time t to the reference time t0, sets the shift amount m to 0, and sets the mutual relationship between the posture of the selected divided region and the posture of the target portion. Calculate the number r(0). Then, the recognizing unit 54 calculates the cross-correlation coefficient r(m) between the posture of the selected divided area and the posture of the target portion while shifting the shift amount m one by one to a predetermined maximum value.

図5は、相互相関係数r(m)の計算結果の例を示している。横軸はシフト量mを示し、奥行き方向の軸は時刻tを示し、高さ方向の軸は相互相関係数r(m)を示している。 FIG. 5 shows an example of the calculation result of the cross-correlation coefficient r(m). The horizontal axis represents the shift amount m, the depth axis represents the time t, and the height axis represents the cross-correlation coefficient r(m).

また、グラフ内の曲線は、各時刻tにおける相互相関係数r(m)の波形を示し、波形上の丸は相互相関係数r(m)のピークを示している。 The curve in the graph shows the waveform of the cross-correlation coefficient r(m) at each time t, and the circle on the waveform shows the peak of the cross-correlation coefficient r(m).

例えば、撮影画像内の分割領域の姿勢と、対象物12の対象部分の姿勢とを検出するタイミングに時間差があったとしても、図5に示されるように、シフト量mを調整することにより、両者の間の相互相関係数r(m)を正確に求めることができる。 For example, even if there is a time difference between the timing of detecting the posture of the divided area in the captured image and the posture of the target portion of the target object 12, by adjusting the shift amount m as shown in FIG. The cross-correlation coefficient r(m) between the two can be accurately obtained.

そして、認識部54は、例えば、算出した相互相関係数r(m)のうちの最大値(以下、最大相互相関係数と称する)を求める。 Then, the recognition unit 54 obtains the maximum value (hereinafter, referred to as the maximum cross-correlation coefficient) of the calculated cross-correlation coefficient r(m), for example.

認識部54は、同様の処理により、撮影画像内の各分割領域と、各対象物12の対象部分との全ての組合せについて、最大相互相関係数を算出する。 The recognition unit 54 calculates the maximum cross-correlation coefficient for all combinations of each divided region in the captured image and the target portion of each target 12 by the same process.

ステップS5において、認識部54は、対象領域を認識する。 In step S5, the recognition unit 54 recognizes the target area.

例えば、認識部54は、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域を撮影画像から抽出する。そして、認識部54は、抽出した領域を対象物12−1の対象部分に対応する対象領域として認識する。これにより、対象物12−1の対象部分と姿勢が相関する分割領域が、対象領域として認識される。例えば、対象物12−1の対象部分と同様の姿勢をとる分割領域、又は、対象物12−1の対象部分或いは検出部21−1と同様の動きをする分割領域が、対象領域として認識される。 For example, the recognition unit 54 extracts a divided area in which the maximum cross-correlation coefficient between the target portion of the target object 12-1 and the target portion continues for a predetermined time or more and is a predetermined threshold value or more from the captured image. Then, the recognition unit 54 recognizes the extracted region as a target region corresponding to the target portion of the target object 12-1. As a result, the divided area in which the posture and the target portion of the target object 12-1 are correlated is recognized as the target area. For example, a divided area having the same posture as the target portion of the object 12-1 or a target portion of the object 12-1 or a divided area having the same movement as the detection unit 21-1 is recognized as the target area. It

なお、複数の分割領域が抽出された場合、すなわち、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が複数存在する場合、例えば、認識部54は、最大相互相関係数の平均値が最大となる分割領域を対象領域として認識する。このとき、最大相互相関係数の平均値が最大となる分割領域の周囲の分割領域も抽出されている場合、例えば、認識部54は、その周囲の分割領域も含む連続した領域を対象領域として認識するようにしてもよい。 In addition, when a plurality of divided areas are extracted, that is, there are a plurality of divided areas in which the maximum cross-correlation coefficient with the target portion of the object 12-1 continues for a predetermined time or more and is a predetermined threshold or more. In this case, for example, the recognition unit 54 recognizes the divided area having the maximum average value of the maximum cross-correlation coefficients as the target area. At this time, when the divided area around the divided area where the average value of the maximum cross-correlation coefficient is the maximum is also extracted, for example, the recognition unit 54 sets the continuous area including the divided area around the divided area as the target area. You may recognize.

また、対象物12−1の対象部分との間の最大相互相関係数が所定の時間以上継続して所定の閾値以上となる分割領域が存在しない場合、例えば、認識部54は、対象物12−1の対象部分は、撮影画像内に存在しない(デプスセンサ101の撮影空間の外に存在する)と認識する。 Further, when there is no divided area in which the maximum cross-correlation coefficient between the target portion of the target object 12-1 and the maximum cross-correlation coefficient continues for the predetermined time or longer, for example, the recognition unit 54 determines that the target object 12-1 It is recognized that the target portion of -1 does not exist in the captured image (exists outside the capturing space of the depth sensor 101).

認識部54は、対象物12−2乃至対象物12−mについても同様の処理を行う。これにより、撮影画像において、各対象物12の対象部分に対応する対象領域が認識される。 The recognition unit 54 performs the same process on the objects 12-2 to 12-m. As a result, the target area corresponding to the target portion of each target 12 is recognized in the captured image.

なお、対象領域は、必ずしも固定されておらず、対象物12の動きにより変化する場合がある。 The target area is not always fixed and may change depending on the movement of the target object 12.

例えば、図6は、人が対象物12である場合に、IMUを備える検出部21としての指輪型デバイス203が、対象物12の手201の人差し指202の第2関節と第3関節の間に装着されている例を示している。 For example, in FIG. 6, when a person is the target object 12, the ring type device 203 as the detection unit 21 including the IMU is provided between the second joint and the third joint of the index finger 202 of the hand 201 of the target object 12. An example of being attached is shown.

例えば、人差し指202の関節が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、人差し指202の第2関節と第3関節との間の部分の姿勢の変化と略一致する。この場合、人差し指202の第2関節と第3関節との間の部分が対象部分となり、図7に示されるように、当該対象部分を含む領域211が対象領域として認識される。 For example, when the joint of the index finger 202 is moved, the change in the posture detected based on the detection data from the ring-shaped device 203 is changed in the posture of the portion between the second joint and the third joint of the index finger 202. Almost matches. In this case, the portion between the second joint and the third joint of the index finger 202 is the target portion, and as shown in FIG. 7, the area 211 including the target portion is recognized as the target area.

一方、例えば、人差し指202の関節を動かさずに手201全体が動かされた場合、指輪型デバイス203からの検出データに基づいて検出される姿勢の変化が、手201全体の姿勢の変化と略一致する。この場合、手201全体が対象部分となり、図8に示されるように、手201全体を含む領域212が対象領域として認識される。 On the other hand, for example, when the entire hand 201 is moved without moving the joint of the index finger 202, the change in the posture detected based on the detection data from the ring-shaped device 203 is substantially the same as the change in the posture of the entire hand 201. To do. In this case, the entire hand 201 is the target portion, and the region 212 including the entire hand 201 is recognized as the target region, as shown in FIG.

例えば、図9は、人が対象物12である場合に、IMUを備える検出部21としてのイヤホン型デバイス233が、対象物12の頭部231の耳232に装着されている例を示している。 For example, FIG. 9 illustrates an example in which the earphone type device 233 as the detection unit 21 including the IMU is attached to the ear 232 of the head 231 of the target 12 when the person is the target 12. ..

例えば、頭部231のみが動かされた場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、頭部231の姿勢の変化と略一致する。この場合、頭部231が対象部分となり、頭部231を含む領域211が対象領域として認識される。 For example, when only the head 231 is moved, the change in the posture detected based on the detection data from the earphone type device 233 substantially matches the change in the posture of the head 231. In this case, the head 231 is the target portion, and the area 211 including the head 231 is recognized as the target area.

一方、例えば、対象物12が歩いて移動した場合、イヤホン型デバイス233からの検出データに基づいて検出される姿勢の変化が、対象物12の腕及び脚を除く部分の姿勢の変化と略一致する。この場合、対象物12の腕及び脚を除く部分が対象部分となり、当該対象部分を含む領域が対象領域として認識される。 On the other hand, for example, when the target object 12 walks and moves, the change in the posture detected based on the detection data from the earphone device 233 substantially matches the change in the posture of the part of the target object 12 excluding the arms and legs. To do. In this case, the part of the target object 12 excluding the arms and legs is the target part, and the region including the target part is recognized as the target region.

なお、例えば、対象物12の対象部分と連なる他の物体又は他の物体の一部分が、対象部分と同じ姿勢をとったり、同じ動きをしたりする場合、対象部分と、他の物体又は他の物体の一部分とを含む領域が対象領域として認識される。例えば、対象物12が人で、対象部分が手である場合、手と、手に持っている物体又は手に持っている物体の一部分とを含む領域が対象領域として認識される場合がある。 Note that, for example, when another object or a part of another object connected to the target portion of the target object 12 has the same posture or the same movement as the target portion, the target portion and the other object or another object A region including a part of is recognized as the target region. For example, when the target object 12 is a person and the target portion is a hand, an area including the hand and an object held in the hand or a part of the object held in the hand may be recognized as the target area.

認識部54は、各対象物12の対象領域の認識結果を示すデータを出力する。 The recognition unit 54 outputs data indicating the recognition result of the target area of each target object 12.

その後、処理はステップS2に戻り、ステップS2乃至ステップS5の処理が繰り返し実行される。 After that, the process returns to step S2, and the processes of steps S2 to S5 are repeatedly executed.

以上のようにして、各対象物12の一部分(対象部分)の認識精度が向上する。 As described above, the recognition accuracy of a part (target part) of each target object 12 is improved.

例えば、対象物12の視覚的に特徴のない部分にマーカ(例えば、再帰性反射マーカ、カラーマーカ、不可視マーカ等)等を付けなくても、当該部分を正確に認識することが可能になる。例えば、対象物12が単色の模様がない物体である場合に、その対象物12の一部分を正確に認識することが可能になる。具体的には、例えば、複数の関節を備えるマニピュレータ等のロボットが単色で模様がない場合に、そのロボットの骨組みの一部を正確に認識することが可能になる。また、上述したようにマーカの付加が不要なのに加えて、IMUは対象物12に内蔵できるため、対象物12の外観を損ねることなく、対象物12の一部分を認識することが可能になる。 For example, even if a marker (for example, a retroreflective marker, a color marker, an invisible marker, etc.) is not attached to a visually uncharacteristic portion of the object 12, the portion can be accurately recognized. For example, when the object 12 is an object without a monochrome pattern, it is possible to accurately recognize a part of the object 12. Specifically, for example, when a robot such as a manipulator having a plurality of joints is monochromatic and has no pattern, it is possible to accurately recognize a part of the skeleton of the robot. Further, as described above, the addition of the marker is unnecessary, and since the IMU can be built in the object 12, it is possible to recognize a part of the object 12 without spoiling the appearance of the object 12.

例えば、同じような外観を持つものの中から、特定の対象物12の一部分を正確に認識することができる。例えば、同じ外観の対象物12が複数ある場合に、その中の特定の対象物12の一部分を正確に認識することができる。具体的には、例えば、同じ製品が陳列されている場合、そのうちの特定の製品の一部分を正確に認識することが可能になる。 For example, it is possible to accurately recognize a part of the specific target object 12 from objects having a similar appearance. For example, when there are a plurality of objects 12 having the same appearance, it is possible to accurately recognize a part of the specific object 12 among them. Specifically, for example, when the same product is displayed, it is possible to accurately recognize a part of the specific product.

また、対象物12が動物や多関節のロボット等の複雑な動きをする物体であっても、対象物12の一部分を正確に認識することが可能になる。また、対象物12が剛体ではなく変形する場合にも、対象物12の一部分を正確に認識することが可能になる。 Further, even if the object 12 is an object that makes complicated movements such as an animal or an articulated robot, a part of the object 12 can be accurately recognized. Further, even when the object 12 is not a rigid body but deforms, a part of the object 12 can be accurately recognized.

さらに、例えば、対象物12又は対象部分に関する情報を検出データに含ませることにより、対象部分を認識するだけでなく、対象物12又は対象部分に関する情報まで認識することが可能になる。例えば、対象物12又は対象部分の名称等の属性を認識することが可能になる。 Furthermore, for example, by including information about the object 12 or the target portion in the detection data, it becomes possible to recognize not only the target portion but also the information about the object 12 or the target portion. For example, it becomes possible to recognize the attribute such as the name of the target object 12 or the target portion.

また、例えば、対象部分が他の物体により隠れていても、対象物12又は対象部分に関する情報に基づいて、撮影画像内において対象部分が存在する領域を推定することができる。例えば、上述した処理では、対象物12を握った状態で手が動かされた場合、その手を含む領域が対象領域として認識されることが想定される。この場合、例えば、対象物12又は対象部分に関する情報に基づいて、その手の中に対象物12が存在すると推定することが可能になる。 Further, for example, even if the target portion is hidden by another object, the region in which the target portion exists in the captured image can be estimated based on the information about the target object 12 or the target portion. For example, in the above-described processing, when the hand is moved while grasping the target object 12, it is assumed that the area including the hand is recognized as the target area. In this case, for example, it is possible to presume that the target object 12 is present in the hand based on the information about the target object 12 or the target portion.

さらに、例えば、速度又は加速度に基づいて対象部分を認識する場合、対象部分が一定時間以上連続して動かないと、対象部分(に対応する対象領域)を認識することは困難である。また、対象部分の動きが小さいと、対象部分の認識精度が低下する。そのため、例えば、対象物12がゲームのコントローラ等の操作デバイスである場合、対象物12を大きく動かす必要が生じ、ユーザの負担が増大する。また、撮影画像内に移動体が多数存在する場合、各移動体の動きを検出するための負荷が増大する。一方、負荷を軽減するために移動体の動きの検出精度を落とすと、移動体のうちの1つである対象部分の認識精度が低下する。また、撮影部22の位置により、対象部分の動きの検出が困難な方向が生じ、対象部分がその方向に動く場合、対象部分の認識精度が低下する場合がある。 Furthermore, for example, when recognizing a target portion based on velocity or acceleration, it is difficult to recognize (the target area corresponding to) the target portion unless the target portion continuously moves for a certain period of time or longer. In addition, if the movement of the target portion is small, the recognition accuracy of the target portion decreases. Therefore, for example, when the target object 12 is an operation device such as a game controller, the target object 12 needs to be largely moved, which increases the burden on the user. Further, when many moving objects are present in the captured image, the load for detecting the movement of each moving object increases. On the other hand, if the detection accuracy of the movement of the moving body is reduced in order to reduce the load, the recognition accuracy of the target portion, which is one of the moving bodies, decreases. Further, depending on the position of the image capturing unit 22, a direction in which the movement of the target portion is difficult to detect occurs, and when the target portion moves in that direction, the recognition accuracy of the target portion may decrease.

一方、情報処理システム11のように、対象部分の姿勢に基づいて対象部分を認識する場合、対象部分が静止していても、対象部分を正確に認識することが可能になる。ただし、対象部分と同じ姿勢の物体が多数存在する場合、例えば、対象物12を含め多数の物体が同じ机の上に置かれている場合、対象部分の認識が困難になる可能性がある。しかし、この場合でも、対象部分が少しでも動けば、対象部分を正確に認識することが可能になる。また、撮影部22の位置が対象部分の姿勢の検出精度に与える影響は小さい。そのため、撮影部22の位置に関わらず、対象部分の認識精度が良好に保たれる。 On the other hand, when the target portion is recognized based on the orientation of the target portion as in the information processing system 11, the target portion can be accurately recognized even when the target portion is stationary. However, when there are many objects having the same posture as the target portion, for example, when many objects including the target object 12 are placed on the same desk, it may be difficult to recognize the target portion. However, even in this case, if the target portion moves even a little, the target portion can be accurately recognized. Further, the position of the image capturing unit 22 has little influence on the detection accuracy of the posture of the target portion. Therefore, regardless of the position of the imaging unit 22, the recognition accuracy of the target portion is kept good.

また、図5を参照して上述したように、検出部21と撮影部22の同期を取らなくても、撮影画像内の分割領域の姿勢と対象物12の対象部分の姿勢との間の相互相関係数を算出し、対象部分を認識することが可能である。さらに、対象部分の重力方向に対する姿勢を検出すればよく、対象部分のワールド座標系における姿勢を検出する必要がない。そのため、情報処理部23において、姿勢の検出に必要な装備や負荷を削減することが可能になる。 Further, as described above with reference to FIG. 5, even if the detection unit 21 and the image capturing unit 22 are not synchronized, the postures of the divided regions in the captured image and the postures of the target portion of the target object 12 are not changed. It is possible to calculate the correlation coefficient and recognize the target portion. Furthermore, it suffices to detect the orientation of the target portion in the gravity direction, and it is not necessary to detect the orientation of the target portion in the world coordinate system. Therefore, in the information processing unit 23, it is possible to reduce the equipment and load necessary for detecting the posture.

<<2.変形例>>
以下、上述した本技術の実施の形態の変形例について説明する。
<<2. Modification>>
Hereinafter, modified examples of the embodiment of the present technology described above will be described.

以上の説明では、撮影画像にデプス画像を用いて、撮影画像内の各領域の姿勢を検出する例を示したが、別の方法により撮影画像内の各領域の姿勢を検出したり、画像以外の視覚情報を用いて、視覚情報内の各領域の姿勢を検出したりするようにしてもよい。 In the above description, an example in which the depth image is used as a captured image to detect the orientation of each region in the captured image has been shown, but another method is used to detect the orientation of each region in the captured image, and other methods. The visual information may be used to detect the posture of each area in the visual information.

例えば、事前に登録された対象物12の画像と撮影画像内の対象物12の画像に基づいて、対象物12の各部の姿勢を検出するようにしてもよい。 For example, the posture of each part of the object 12 may be detected based on the image of the object 12 registered in advance and the image of the object 12 in the captured image.

例えば、ポイントクラウドのような3次元の視覚情報を用いて、視覚情報内の各領域の姿勢を検出するようにしてもよい。 For example, the posture of each area in the visual information may be detected using three-dimensional visual information such as a point cloud.

また、以上の説明では、撮影画像内の各領域の姿勢と対象物12の対象部分の姿勢との相関関係に基づいて対象領域を認識する例を示したが、本技術では、視覚情報と検出部21の検出データの両方で検出可能な状態であれば、任意の状態の相関関係を用いることが可能である。 Further, in the above description, an example in which the target region is recognized based on the correlation between the posture of each region in the captured image and the posture of the target portion of the target object 12 has been shown. If the state is detectable by both of the detection data of the unit 21, it is possible to use the correlation of any state.

例えば、IMUを用いることにより、物体の角度以外に、速度、加速度、角速度、及び、位置を検出することが可能である。そこで、例えば、角度、速度、加速度、角速度、及び、位置のうち1つ以上の状態の相関関係を用いることが可能である。 For example, the IMU can be used to detect the velocity, acceleration, angular velocity, and position in addition to the angle of the object. Therefore, for example, it is possible to use a correlation of one or more states among an angle, a velocity, an acceleration, an angular velocity, and a position.

また、図10は、回転運動を行う対象物12aの認識処理を行う例を示している。 In addition, FIG. 10 illustrates an example of performing the recognition process of the object 12a that performs the rotational movement.

例えば、対象物12aは、回転部251、及び、回転部251の回転量を検出するロータリエンコーダ(不図示)を備えている。 For example, the object 12a includes a rotating unit 251, and a rotary encoder (not shown) that detects the amount of rotation of the rotating unit 251.

撮影部22はカメラ252を備えており、カメラ252は、対象物12aの撮影が可能である。 The photographing unit 22 includes a camera 252, and the camera 252 can photograph the target object 12a.

状態検出部53Aは、カメラ252からの撮影画像内の各領域の角度及び角加速度を検出する。 The state detection unit 53A detects the angle and the angular acceleration of each area in the captured image from the camera 252.

状態検出部53Bは、ロータリエンコーダからの検出データに基づいて、回転部251の角度及び角加速度を検出する。 The state detecting unit 53B detects the angle and the angular acceleration of the rotating unit 251 based on the detection data from the rotary encoder.

認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の角度及び角加速度と、状態検出部53Bにより検出された回転部251の角度及び角加速度との相関関係に基づいて、回転部251に対応する対象領域を認識する。 The recognition unit 54, based on the correlation between the angle and the angular acceleration of each region in the captured image detected by the state detection unit 53A, and the angle and the angular acceleration of the rotation unit 251 detected by the state detection unit 53B, The target area corresponding to the rotating unit 251 is recognized.

図11は、並進運動を行う対象物12bの認識処理を行う例を示している。 FIG. 11 illustrates an example of performing the recognition process of the object 12b that performs translational movement.

例えば、対象物12bは、台261の上を並進運動する可動部262、並びに、可動部262の位置を検出するリニアエンコーダ(不図示)を備えている。 For example, the object 12b includes a movable portion 262 that moves in translation on the base 261 and a linear encoder (not shown) that detects the position of the movable portion 262.

撮影部22はカメラ263を備えており、カメラ263は、対象物12bの撮影が可能である。 The image capturing unit 22 includes a camera 263, and the camera 263 can capture the object 12b.

状態検出部53Aは、カメラ263からの撮影画像の各領域の位置、速度、及び、加速度を検出する。 The state detection unit 53A detects the position, speed, and acceleration of each area of the captured image from the camera 263.

状態検出部53Bは、リニアエンコーダからの検出データに基づいて、可動部262の位置、速度、及び、加速度を検出する。 The state detection unit 53B detects the position, speed, and acceleration of the movable unit 262 based on the detection data from the linear encoder.

認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の位置、速度、及び、加速度と、状態検出部53Bにより検出された可動部262の位置、速度、及び、加速度との相関関係に基づいて、可動部262に対応する対象領域を認識する。 The recognition unit 54 recognizes the position, velocity, and acceleration of each area in the captured image detected by the state detection unit 53A and the position, velocity, and acceleration of the movable unit 262 detected by the state detection unit 53B. The target area corresponding to the movable portion 262 is recognized based on the correlation.

図12は、対象物12cの温度に基づいて対象領域の認識処理を行う例を示している。 FIG. 12 shows an example in which the target region recognition processing is performed based on the temperature of the target object 12c.

対象物12cは、温度センサ301を備えている。 The object 12c includes a temperature sensor 301.

撮影部22はサーマルセンサ302を備えている。サーマルセンサ302は、対象物12cの表面の温度を検出し、検出した温度の分布を示すサーマル画像を生成する。 The imaging unit 22 includes a thermal sensor 302. The thermal sensor 302 detects the temperature of the surface of the object 12c and generates a thermal image showing the distribution of the detected temperature.

状態検出部53Aは、サーマルセンサ302からのサーマル画像内の各領域の温度を検出する。 The state detection unit 53A detects the temperature of each area in the thermal image from the thermal sensor 302.

状態検出部53Bは、温度センサ301からの検出データに基づいて、対象物12cの温度センサ301付近の温度を検出する。 The state detection unit 53B detects the temperature of the object 12c near the temperature sensor 301 based on the detection data from the temperature sensor 301.

認識部54は、状態検出部53Aにより検出されたサーマル画像内の各領域の温度と、状態検出部53Bにより検出された対象物12cの温度センサ301付近の温度との相関関係に基づいて、サーマル画像において対象物12cの温度センサ301付近を含む対象領域を認識する。 The recognition unit 54 performs thermal detection based on the correlation between the temperature of each region in the thermal image detected by the state detection unit 53A and the temperature near the temperature sensor 301 of the object 12c detected by the state detection unit 53B. A target area including the vicinity of the temperature sensor 301 of the target object 12c is recognized in the image.

例えば、対象物12cが、可動部(例えば、モータ等)を備える物体(例えば、ドローン等)である場合、可動部付近に温度センサ301が設けられる。これにより、可動部が動くことにより発生する熱による温度変化に基づいて、可動部を含む領域を対象領域として認識することが可能である。 For example, when the object 12c is an object (for example, a drone) including a movable portion (for example, a motor), the temperature sensor 301 is provided near the movable portion. Accordingly, it is possible to recognize the area including the movable portion as the target area based on the temperature change due to the heat generated by the movement of the movable portion.

例えば、対象物12cが食器である場合、食器内に温度センサ301が内蔵される。そして、例えば、食器に料理が盛り付けられたときの温度変化に基づいて、食器の温度センサ301を含む領域を対象領域として認識することが可能である。 For example, when the object 12c is tableware, the temperature sensor 301 is built in the tableware. Then, for example, it is possible to recognize the region including the temperature sensor 301 of the tableware as the target region based on the temperature change when the dish is served with the dish.

例えば、対象物12cが、ペルチェ素子等の熱電素子を備える場合、熱電素子付近に温度センサ301が設けられる。例えば、対象物12cが、VR(Virtual Reality)グローブ等の触覚デバイスである場合、温度の変化を用いてユーザ体験を高めるために熱電素子が設けられる。そして、例えば、熱電素子により発生する温度変化に基づいて、熱電素子を含む領域を対象領域として認識することが可能である。 For example, when the object 12c includes a thermoelectric element such as a Peltier element, the temperature sensor 301 is provided near the thermoelectric element. For example, when the object 12c is a tactile device such as a VR (Virtual Reality) glove, a thermoelectric element is provided to enhance the user experience by using the change in temperature. Then, for example, the region including the thermoelectric element can be recognized as the target region based on the temperature change generated by the thermoelectric element.

なお、対象部分の温度変化が少ない場合、対象部分に熱電素子を設け、能動的に対象部分の温度を変化させるようにしてもよい。これにより、サーマル画像内において、対象物12の温度変化が少ない部分を正確に認識することが可能になる。 If the temperature change of the target portion is small, a thermoelectric element may be provided in the target portion to actively change the temperature of the target portion. This makes it possible to accurately recognize a portion of the object 12 in which the temperature change is small in the thermal image.

さらに、例えば、ソフトアクチュエータのように変形可能な変形デバイスを対象物12が備える場合、対象物12の変形デバイスを備える部分の認識が可能である。 Further, for example, when the object 12 includes a deformable device such as a soft actuator, the part of the object 12 including the deformable device can be recognized.

例えば、変形デバイスは、自身の形状を検出し、検出結果を示す検出データを送信する。 For example, the deformation device detects its own shape and transmits detection data indicating the detection result.

状態検出部53Aは、撮影画像内の各領域の形状を検出する。 The state detection unit 53A detects the shape of each area in the captured image.

状態検出部53Bは、検出データに基づいて、変形デバイスの形状を検出する。 The state detection unit 53B detects the shape of the deformable device based on the detection data.

認識部54は、状態検出部53Aにより検出された撮影画像内の各領域の形状と、状態検出部53Bにより検出された対象物12の変形デバイスを備える部分の形状との相関関係に基づいて、撮影画像において対象物12の変形デバイスを備える部分を含む対象領域を認識する。 The recognition unit 54, based on the correlation between the shape of each region in the captured image detected by the state detection unit 53A, and the shape of the portion including the deformation device of the object 12 detected by the state detection unit 53B, A target area including a portion of the object 12 including the deformation device is recognized in the captured image.

また、例えば、物体の姿勢はクォータニオンで表現されることが一般的であるが、例えば、クォータニオンの姿勢変化量の相関関係を用いることが可能である。例えば、時間的な角速度の変化に基づく相関関係や、外積ベクトルの方向変化に基づく相関関係を用いることが可能である。この場合、3次元方向の角度に基づいて相関関係を求めるようにしてもよいし、2次元方向の角度に基づいて相関関係を求めるようにしてもよい。 Further, for example, the posture of an object is generally represented by a quaternion, but it is possible to use the correlation of the posture change amount of the quaternion, for example. For example, it is possible to use the correlation based on the change in the angular velocity over time or the correlation based on the change in the direction of the outer product vector. In this case, the correlation may be obtained based on the angle in the three-dimensional direction, or the correlation may be obtained based on the angle in the two-dimensional direction.

なお、相関関係の演算には、上述した相互相関係数以外の相関係数を用いたり、相関係数以外の方法を用いたりすることも可能である。 Note that it is possible to use a correlation coefficient other than the above-described cross-correlation coefficient or a method other than the correlation coefficient for the calculation of the correlation.

さらに、以上の説明では、デプスセンサ101にIMUを設けて重力方向を検出する例を示したが、異なる方法により重力方向を検出するようにしてもよい。 Further, in the above description, the example in which the IMU is provided in the depth sensor 101 to detect the gravity direction has been described, but the gravity direction may be detected by a different method.

例えば、撮影画像内の壁や床に基づいて、重量方向を推定するようにしてもよい。また、例えば、デプスセンサ101が固定される場合、事前にデプスセンサ101の光軸に対する重力方向を測定し、測定結果を情報処理部23に与えておくようにしてもよい。 For example, the weight direction may be estimated based on the wall or floor in the captured image. Further, for example, when the depth sensor 101 is fixed, the gravity direction with respect to the optical axis of the depth sensor 101 may be measured in advance and the measurement result may be given to the information processing unit 23.

また、撮影部22が備えるイメージセンサの種類や数は、検出対象となる状態に応じて変更することが可能である。例えば、上述したデプスセンサ101以外にも、通常の可視光を検出するイメージセンサ、赤外線の検出が可能な赤外センサ、超音波センサ、法線ベクトルの検出が可能な偏光センサ等を用いることが可能である。 Further, the type and number of image sensors included in the image capturing unit 22 can be changed according to the state to be detected. For example, in addition to the depth sensor 101 described above, an image sensor that detects normal visible light, an infrared sensor that can detect infrared rays, an ultrasonic sensor, a polarization sensor that can detect a normal vector, and the like can be used. Is.

さらに、撮影画像以外の視覚情報を用いることが可能である。例えば、上述したサーマル画像、ポイントクラウド、磁気センサにより検出される磁場画像等を用いることが可能である。 Furthermore, it is possible to use visual information other than the captured image. For example, it is possible to use the above-mentioned thermal image, point cloud, magnetic field image detected by a magnetic sensor, or the like.

また、例えば、状態検出部53Aを撮影部22に設け、撮影部22が、撮影画像内の各領域の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。 Further, for example, the state detecting unit 53A may be provided in the image capturing unit 22, and the image capturing unit 22 may detect the state of each region in the captured image and transmit the data indicating the detection result to the information processing unit 23. ..

さらに、例えば、状態検出部53Bを検出部21に設け、検出部21が、検出データに基づいて対象部分の状態を検出し、検出結果を示すデータを情報処理部23に送信するようにしてもよい。 Further, for example, the state detection unit 53B may be provided in the detection unit 21 so that the detection unit 21 detects the state of the target portion based on the detection data and transmits the data indicating the detection result to the information processing unit 23. Good.

また、例えば、1つの対象物12に複数の検出部21を設けるようにしてもよい。これにより、1つの対象物12の複数の対象部分を認識することができる。 Further, for example, one target 12 may be provided with a plurality of detection units 21. Accordingly, it is possible to recognize a plurality of target portions of one target object 12.

さらに、検出部21と対象部分が離れていてもよい。すなわち、検出部21が、対象物12において検出部21から離れた部分の状態を検出し、検出部21から離れた部分に対応する対象領域が認識されるようにしてもよい。 Furthermore, the detection unit 21 and the target portion may be separated. That is, the detection unit 21 may detect the state of the portion of the object 12 that is distant from the detection unit 21, and the target region corresponding to the portion that is distant from the detection unit 21 may be recognized.

また、例えば、対象物12の対象部分の動きを認識することにより、対象部分を用いたタンジブルなユーザインタフェースを実現することが可能である。 Further, for example, by recognizing the movement of the target portion of the target object 12, it is possible to realize a tangible user interface using the target portion.

さらに、例えば、検出部21の検出データに基づいて対象物12全体の状態を検出可能な場合、本技術は、対象物12全体の認識処理にも適用することが可能である。例えば、対象物12がシンプルな構成であり、検出部21の検出データに基づいて対象物12全体の姿勢が検出される場合、対象物12全体に対応する対象領域を認識することが可能である。 Furthermore, for example, when the state of the entire target 12 can be detected based on the detection data of the detection unit 21, the present technology can be applied to the recognition processing of the entire target 12. For example, when the target object 12 has a simple configuration and the posture of the entire target object 12 is detected based on the detection data of the detection unit 21, it is possible to recognize the target area corresponding to the entire target object 12. ..

<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<Computer configuration example>
The series of processes described above can be executed by hardware or software. When the series of processes is executed by software, a program forming the software is installed in the computer. Here, the computer includes a computer incorporated in dedicated hardware and, for example, a general-purpose personal computer capable of executing various functions by installing various programs.

図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。 FIG. 13 is a block diagram showing a configuration example of hardware of a computer that executes the series of processes described above by a program.

コンピュータ1000において、CPU(Central Processing Unit)1001,ROM(Read Only Memory)1002,RAM(Random Access Memory)1003は、バス1004により相互に接続されている。 In a computer 1000, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, and a RAM (Random Access Memory) 1003 are connected to each other by a bus 1004.

バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記録部1008、通信部1009、及びドライブ1010が接続されている。 An input/output interface 1005 is further connected to the bus 1004. An input unit 1006, an output unit 1007, a recording unit 1008, a communication unit 1009, and a drive 1010 are connected to the input/output interface 1005.

入力部1006は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部1007は、ディスプレイ、スピーカなどよりなる。記録部1008は、ハードディスクや不揮発性のメモリなどよりなる。通信部1009は、ネットワークインタフェースなどよりなる。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア1011を駆動する。 The input unit 1006 includes an input switch, a button, a microphone, an image sensor, and the like. The output unit 1007 includes a display, a speaker and the like. The recording unit 1008 includes a hard disk, a non-volatile memory, or the like. The communication unit 1009 includes a network interface or the like. The drive 1010 drives a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.

以上のように構成されるコンピュータ1000では、CPU1001が、例えば、記録部1008に記録されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。 In the computer 1000 configured as described above, the CPU 1001 loads the program recorded in the recording unit 1008 into the RAM 1003 via the input/output interface 1005 and the bus 1004 and executes the program. A series of processing is performed.

コンピュータ1000(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。 The program executed by the computer 1000 (CPU 1001) can be provided by being recorded in the removable medium 1011 as a package medium or the like, for example. In addition, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータ1000では、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記録部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記録部1008にインストールすることができる。その他、プログラムは、ROM1002や記録部1008に、あらかじめインストールしておくことができる。 In the computer 1000, the program can be installed in the recording unit 1008 via the input/output interface 1005 by mounting the removable medium 1011 in the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the recording unit 1008. In addition, the program can be installed in the ROM 1002 or the recording unit 1008 in advance.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program in which processing is performed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。 In this specification, the system means a set of a plurality of constituent elements (devices, modules (parts), etc.), and it does not matter whether or not all the constituent elements are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. ..

さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present technology.

例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。 For example, the present technology may have a configuration of cloud computing in which one device is shared by a plurality of devices via a network and processes jointly.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。 In addition, each step described in the above-described flowcharts can be executed by one device or shared by a plurality of devices.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。 Further, when one step includes a plurality of processes, the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.

<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
<Combination example of configuration>
The present technology may also be configured as below.

(1)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を
備える情報処理装置。
(2)
前記認識部は、前記視覚情報内の各領域の状態と、前記検出データに基づく前記物体の一部分の状態との相関関係に基づいて、前記対象領域を認識する
前記(1)に記載の情報処理装置。
(3)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の姿勢と同様の姿勢をとる前記視覚情報内の領域を前記対象領域として認識する
前記(2)に記載の情報処理装置。
(4)
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の動きと同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(2)又は(3)に記載の情報処理装置。
(5)
前記物体の一部分は、前記検出部の検出対象となる部分である
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記物体の一部分は、前記検出部を含む部分である
前記(5)に記載の情報処理装置。
(7)
前記認識部は、前記検出部と同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
前記(6)に記載の情報処理装置。
(8)
前記状態は、姿勢、速度、加速度、角速度、角加速度、位置、形状、及び、温度のうち少なくとも1つを含む
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記検出部は、加速度センサ及び角速度センサを備え、
前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(10)
前記視覚情報は、温度の分布を示す画像であるサーマル画像であり、
前記検出部は、温度センサを備え、
前記状態は、温度を含む
前記(8)に記載の情報処理装置。
(11)
前記検出部は、エンコーダを含み、
前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
前記(8)に記載の情報処理装置。
(12)
前記物体の一部分は、変形可能なデバイスを備え、
前記検出部は、前記デバイスの形状を検出するセンサを備え、
前記状態は、形状を含む
前記(8)に記載の情報処理装置。
(13)
前記視覚情報内の各領域の状態、及び、前記物体の一部分の状態のうち少なくとも1つを検出する状態検出部を
さらに備える前記(1)乃至(12)のいずれかに記載の情報処理装置。
(14)
前記検出データを受信する受信部を
さらに備え、
前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
前記(13)に記載の情報処理装置。
(15)
情報処理装置が、
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
情報処理方法。
(16)
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
(1)
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing apparatus including a recognition unit that recognizes a corresponding target area.
(2)
The information processing according to (1), wherein the recognition unit recognizes the target area based on a correlation between a state of each area in the visual information and a state of a part of the object based on the detection data. apparatus.
(3)
The information processing apparatus according to (2), wherein the recognition unit recognizes, as the target area, an area in the visual information that has the same attitude as the attitude of a part of the object detected based on the detection data.
(4)
The recognizing unit recognizes, as the target area, an area in the visual information that makes a movement similar to the movement of a part of the object detected based on the detection data. (2) or (3) Information processing device.
(5)
The information processing device according to any one of (1) to (4), wherein the part of the object is a part to be detected by the detection unit.
(6)
The information processing device according to (5), wherein a part of the object is a part including the detection unit.
(7)
The information processing apparatus according to (6), wherein the recognition unit recognizes, as the target region, a region in the visual information that moves in the same manner as the detection unit.
(8)
The information processing device according to any one of (1) to (7), wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, an angular acceleration, a position, a shape, and a temperature.
(9)
The detection unit includes an acceleration sensor and an angular velocity sensor,
The information processing device according to (8), wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, and an angular acceleration.
(10)
The visual information is a thermal image that is an image showing the temperature distribution,
The detection unit includes a temperature sensor,
The information processing device according to (8), wherein the state includes temperature.
(11)
The detection unit includes an encoder,
The information processing device according to (8), wherein the state includes at least one of velocity, acceleration, angular velocity, angular acceleration, and position.
(12)
A portion of the object comprises a deformable device,
The detection unit includes a sensor that detects the shape of the device,
The information processing device according to (8), wherein the state includes a shape.
(13)
The information processing apparatus according to any one of (1) to (12), further including a state detection unit that detects at least one of a state of each area in the visual information and a state of a part of the object.
(14)
Further comprising a receiving unit for receiving the detection data,
The information processing device according to (13), wherein the state detection unit detects the state of a part of the object based on the received detection data.
(15)
The information processing device
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing method for recognizing a corresponding target area.
(16)
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information A computer-readable recording medium in which a program for executing processing for recognizing a corresponding target area is recorded.

なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and may have other effects.

11 情報処理システム, 12,12a,12b,12c 対象物, 13 非対象物, 21 検出部, 22 撮影部, 23 情報処理部, 51 受信部, 53,53A,53B 状態検出部, 54 認識部, 101 デプスセンサ, 251 回転部, 252 カメラ, 262 可動部, 263 カメラ, 301 温度センサ, 302 サーマルセンサ 11 information processing system, 12, 12a, 12b, 12c target object, 13 non-target object, 21 detection unit, 22 imaging unit, 23 information processing unit, 51 reception unit, 53, 53A, 53B state detection unit, 54 recognition unit, 101 depth sensor, 251 rotating part, 252 camera, 262 movable part, 263 camera, 301 temperature sensor, 302 thermal sensor

Claims (16)

視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する認識部を
備える情報処理装置。
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing apparatus including a recognition unit that recognizes a corresponding target area.
前記認識部は、前記視覚情報内の各領域の状態と、前記検出データに基づく前記物体の一部分の状態との相関関係に基づいて、前記対象領域を認識する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the recognition unit recognizes the target area based on a correlation between a state of each area in the visual information and a state of a part of the object based on the detection data. ..
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の姿勢と同様の姿勢をとる前記視覚情報内の領域を前記対象領域として認識する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recognition unit recognizes, as the target area, an area in the visual information that has the same attitude as the attitude of a part of the object detected based on the detection data.
前記認識部は、前記検出データに基づいて検出される前記物体の一部分の動きと同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the recognition unit recognizes, as the target area, an area in the visual information that makes a movement similar to the movement of the part of the object detected based on the detection data.
前記物体の一部分は、前記検出部の検出対象となる部分である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein a part of the object is a part to be detected by the detection unit.
前記物体の一部分は、前記検出部を含む部分である
請求項5に記載の情報処理装置。
The information processing device according to claim 5, wherein a part of the object is a part including the detection unit.
前記認識部は、前記検出部と同様の動きをする前記視覚情報内の領域を前記対象領域として認識する
請求項6に記載の情報処理装置。
The information processing apparatus according to claim 6, wherein the recognition unit recognizes an area in the visual information that moves in the same manner as the detection unit as the target area.
前記状態は、姿勢、速度、加速度、角速度、角加速度、位置、形状、及び、温度のうち少なくとも1つを含む
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, an angular acceleration, a position, a shape, and a temperature.
前記検出部は、加速度センサ及び角速度センサを備え、
前記状態は、姿勢、速度、加速度、角速度、及び、角加速度のうち少なくとも1つを含む
請求項8に記載の情報処理装置。
The detection unit includes an acceleration sensor and an angular velocity sensor,
The information processing apparatus according to claim 8, wherein the state includes at least one of a posture, a velocity, an acceleration, an angular velocity, and an angular acceleration.
前記視覚情報は、温度の分布を示す画像であるサーマル画像であり、
前記検出部は、温度センサを備え、
前記状態は、温度を含む
請求項8に記載の情報処理装置。
The visual information is a thermal image that is an image showing the distribution of temperature,
The detection unit includes a temperature sensor,
The information processing apparatus according to claim 8, wherein the state includes temperature.
前記検出部は、エンコーダを含み、
前記状態は、速度、加速度、角速度、角加速度、及び、位置のうち少なくとも1つを含む
請求項8に記載の情報処理装置。
The detection unit includes an encoder,
The information processing apparatus according to claim 8, wherein the state includes at least one of velocity, acceleration, angular velocity, angular acceleration, and position.
前記物体の一部分は、変形可能なデバイスを備え、
前記検出部は、前記デバイスの形状を検出するセンサを備え、
前記状態は、形状を含む
請求項8に記載の情報処理装置。
A portion of the object comprises a deformable device,
The detection unit includes a sensor that detects the shape of the device,
The information processing apparatus according to claim 8, wherein the state includes a shape.
前記視覚情報内の各領域の状態、及び、前記物体の一部分の状態のうち少なくとも1つを検出する状態検出部を
さらに備える請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising a state detection unit configured to detect at least one of a state of each area in the visual information and a state of a part of the object.
前記検出データを受信する受信部を
さらに備え、
前記状態検出部は、受信した前記検出データに基づいて、前記物体の一部分の状態を検出する
請求項13に記載の情報処理装置。
Further comprising a receiver for receiving the detection data,
The information processing device according to claim 13, wherein the state detection unit detects a state of a part of the object based on the received detection data.
情報処理装置が、
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
情報処理方法。
The information processing device
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information An information processing method for recognizing a corresponding target area.
視覚情報内の各領域の状態、及び、前記視覚情報に含まれる物体が備える検出部により検出される検出データに基づく前記物体の一部分の状態に基づいて、前記視覚情報内の前記物体の一部分に対応する対象領域を認識する
処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
Based on the state of each area in the visual information, and the state of the part of the object based on the detection data detected by the detection unit included in the object included in the visual information, to the part of the object in the visual information A computer-readable recording medium in which a program for executing processing for recognizing a corresponding target area is recorded.
JP2019007068A 2019-01-18 2019-01-18 Information processing device, information processing method, and recording medium Pending JP2020119024A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019007068A JP2020119024A (en) 2019-01-18 2019-01-18 Information processing device, information processing method, and recording medium
PCT/JP2019/051425 WO2020149147A1 (en) 2019-01-18 2019-12-27 Information processing device, information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019007068A JP2020119024A (en) 2019-01-18 2019-01-18 Information processing device, information processing method, and recording medium

Publications (1)

Publication Number Publication Date
JP2020119024A true JP2020119024A (en) 2020-08-06

Family

ID=71614432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019007068A Pending JP2020119024A (en) 2019-01-18 2019-01-18 Information processing device, information processing method, and recording medium

Country Status (2)

Country Link
JP (1) JP2020119024A (en)
WO (1) WO2020149147A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286821A1 (en) 2021-07-15 2023-01-19 積水メディカル株式会社 Composition containing tarc, diluted solution, method for preventing carry over of tarc, adsorption-preventing agent, and continuous analysis method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286821A1 (en) 2021-07-15 2023-01-19 積水メディカル株式会社 Composition containing tarc, diluted solution, method for preventing carry over of tarc, adsorption-preventing agent, and continuous analysis method

Also Published As

Publication number Publication date
WO2020149147A1 (en) 2020-07-23

Similar Documents

Publication Publication Date Title
KR102296267B1 (en) Pose estimation in 3D space
CN108156450B (en) Method for calibrating a camera, calibration device, calibration system and machine-readable storage medium
JP7209333B2 (en) Joint position acquisition method and device, movement acquisition method and device
TWI722280B (en) Controller tracking for multiple degrees of freedom
Ribo et al. A new optical tracking system for virtual and augmented reality applications
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
JP6793151B2 (en) Object tracking device, object tracking method and object tracking program
CN107577451B (en) Multi-Kinect human body skeleton coordinate transformation method, processing equipment and readable storage medium
EP3252714A1 (en) Camera selection in positional tracking
KR20150088636A (en) Apparatus and method for estimating position
JP7162079B2 (en) A recording medium for recording a method, system and computer program for remotely controlling a display device via head gestures
WO2017043181A1 (en) Sensor device, sensor system, and information-processing device
JPWO2016027627A1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program
KR101896827B1 (en) Apparatus and Method for Estimating Pose of User
KR20220063847A (en) Electronic device for identifying human gait pattern and method there of
EP3269302A1 (en) Information processing apparatus and information processing method
Chae et al. Collision detection method using image segmentation for the visually impaired
WO2020149147A1 (en) Information processing device, information processing method, and recording medium
Carraro et al. Real-time marker-less multi-person 3d pose estimation in rgb-depth camera networks
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
KR102456872B1 (en) System and method for tracking hand motion using strong coupling fusion of image sensor and inertial sensor
Lin et al. Development of a binocular vision-based catcher robot system using DSP platform
JP6034671B2 (en) Information display device, control method thereof, and program
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
Rasouli et al. Dynamic posture estimation in a network of depth sensors using sample points