JP7074447B2 - モデル推定装置 - Google Patents

モデル推定装置 Download PDF

Info

Publication number
JP7074447B2
JP7074447B2 JP2017195102A JP2017195102A JP7074447B2 JP 7074447 B2 JP7074447 B2 JP 7074447B2 JP 2017195102 A JP2017195102 A JP 2017195102A JP 2017195102 A JP2017195102 A JP 2017195102A JP 7074447 B2 JP7074447 B2 JP 7074447B2
Authority
JP
Japan
Prior art keywords
feature amount
model
shape
unit
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017195102A
Other languages
English (en)
Other versions
JP2019067336A (ja
Inventor
虎太郎 長濱
裕明 矢口
雅幸 稲葉
佳佑 竹下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Toyota Motor Corp
Original Assignee
University of Tokyo NUC
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC, Toyota Motor Corp filed Critical University of Tokyo NUC
Priority to JP2017195102A priority Critical patent/JP7074447B2/ja
Publication of JP2019067336A publication Critical patent/JP2019067336A/ja
Application granted granted Critical
Publication of JP7074447B2 publication Critical patent/JP7074447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、操作対象物の操作モデルを推定するモデル推定装置に関する。
ロボットの操作により動作する操作対象物の動作方法を示す操作モデルを推定するモデル推定装置が知られている(例えば、特許文献1参照)。
特許第5785074号公報
上述したようなモデル推定装置は、静止状態の操作対象物の3次元点群データだけなく、操作対象物を実際に動作させ、その動作時の操作対象物の3次元点群データを用いて、操作対象物の操作モデルを推定している。このため、必要なデータ量が増加するという問題がある。
本発明は、かかる課題を解決するためになされたものであり、操作対象物を動作させる必要がないため必要なデータ量を低く抑え、操作対象物の操作モデルを高精度に推定できるモデル推定装置を提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、
ロボットの操作により動作する操作対象物の動作方法を示す操作モデルを推定するモデル推定装置であって、
前記操作対象物の3次元点群データを取得するデータ取得手段と、
前記データ取得手段により取得された操作対象物の3次元点群データに基づいて、前記操作対象物の外形状に対する、該操作対象物上に設けられ前記ロボットが接触し操作を行う操作部の相対位置の特徴を示す操作位置特徴量、及び、該操作部の形状の特徴を示す操作形状特徴量を算出する特徴量算出手段と、
前記操作位置特徴量、及び、前記操作形状特徴量を入力値とし、該入力値に対応付けられた前記操作モデルを出力値とし、前記入力値及び出力値に基づいて学習を行う学習器を含むと共に、前記特徴量算出手段により算出された操作位置特徴量及び操作形状特徴量を入力値として、前記学習器に入力し、該学習器から出力された出力値に基づいて、前記操作対象物の操作モデルを推定する推定手段と、
を備える、ことを特徴とするモデル推定装置
である。
本発明によれば、操作対象物を動作させる必要がないため必要なデータ量を低く抑え、操作対象物の操作モデルを高精度に推定できるモデル推定装置を提供することができる。
本発明の一実施形態に係るモデル推定装置の概略的なシステム構成を示すブロック図である。 操作モデル毎に操作位置特徴量を2次元座標系にプロットした図である。 本発明の一実施形態に係るモデル推定方法のフローを示すフローチャートである。 操作モデルの学習工程を説明するための図である。 操作モデルの推定工程を説明するための図である。 本発明の一実施形態に係るモデル推定装置が搭載されたロボットの概略的構成を示すブロック図である。
以下、図面を参照して本発明の実施形態について説明する。
可動部を動作させる物体のモデル化は、例えば人の生活を支援するロボット等の分野において、重要な意義を有する。このようなロボットには、日常環境に存在する様々な物体を認識し、操作する機能が要求される。このような物体の中でも、食器や衣類などの物品を収納する家具等は、引出しや扉などの可動構造の操作対象物を有していることが多い。そこで、かかるロボットには、かかる家具等の操作対象物の外面形状だけでなく、その動作方法を示す操作モデルについての知識も持たせておく必要がある。
本発明の一実施形態に係るモデル推定装置は、上述したような、ロボットの操作により動作する操作対象物の動作方法を示す操作モデルを推定するものである。例えば、ロボットは、モデル推定装置により推定された操作対象物の操作モデルを用いて、操作対象物を高精度かつ安全に操作できる。
操作対象物は、例えば、家具などに設けられた矩形状の扉や、引出しの取っ手が設けられた前面板、などのロボットによって操作され動作する可動構造の物体である。操作モデルは、例えば、家具などに設けられる、前後に引出し及び引戻される引出し、左方向へスライドする左スライドドア、右方向へスライドする右スライドドア、左側にヒンジを回転軸として回動する左ヒンジ扉、右側のヒンジを回転軸として回動する右ヒンジ扉などの、操作対象物の動作方法を示す可動構造モデルである。
図1は、本発明の一実施形態に係るモデル推定装置の概略的なシステム構成を示すブロック図である。本実施形態に係るモデル推定装置1は、操作対象物の3次元点群データを取得するデータ取得部2と、後述の操作位置特徴量、及び、操作形状特徴量を算出する特徴量算出部3と、操作対象物の操作モデルを推定するモデル推定部4と、を備えている。
なお、モデル推定装置1は、例えば、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ、外部と信号の入出力を行うインターフェイス部(I/F)、などからなるマイクロコンピュータを中心にして、それぞれ、ハードウェア構成されている。CPU、メモリ、及びインターフェイス部は、データバスなどを介して相互に接続されている。
データ取得部2は、データ取得手段の一具体例である。データ取得部2は、例えば、3次元距離センサ等を用いて、操作対象物の3次元点群データを取得する。3次元距離センサは、操作対象物の外面形状を計測するための装置である。3次元距離センサは、計測結果として、当該座標を示す点データの集合である3次元点群データを出力する。
特徴量算出部3は、特徴量算出手段の一具体例である。特徴量算出部3は、データ取得部2から出力された操作対象物の3次元点群データに基づいて、操作対象物の操作位置特徴量、及び、操作形状特徴量を算出する。
操作位置特徴量とは、操作対象物の外形状に対する、操作部の相対位置の特徴を示す特徴量である。操作部は、例えば、扉などの操作対象物上に設けられ、ロボットのハンドなどが接触し、把持、押圧、引張などの操作を行う部分である。操作部は、例えば、扉などに設けられた、取っ手やドアノブなどである。操作形状特徴量とは、操作部の形状の特徴を示す特徴量である。
特徴量算出部3は、データ取得部2から出力された操作対象物の3次元点群データに基づいて、操作対象物の形状及び操作部の位置を算出する。特徴量算出部3は、算出した操作対象物の形状及び操作部の位置に基づいて、操作位置特徴量を算出する。特徴量算出部3は、算出した操作部の形状に基づいて、操作形状特徴量を算出する。
ここで、上述した操作部の位置及び操作部の形状の算出方法の一例を詳細に説明する。
特徴量算出部3は、操作対象物周辺の3次元点群データに対して平面検出処理を行う。平面検出処理とは、3次元点群データから平面を実際に検出する処理である。特徴量算出部3は、例えば、PCL(Point Cloud Library)に含まれるSACSegmentationアルゴリズムを用いて、平面検出処理を行う。SACSegmentationは、点群データの中からランダムに選んだ点の組から法線ベクトルを求めることにより、平面を構成する点群を抽出する処理である。
特徴量算出部3は、上述の平面検出処理を用いて、平面上の点群のみを抽出し、その点群に対して主成分分析を行う。特徴量算出部3は、平面法線をZ軸、第1主成分方向をX軸とする座標系へ、主成分分析を行った平面上の点群を、座標変換する。特徴量算出部3は、座標変換された点群のAABB(Axis‐Aligned Bounding Box)を算出する。算出されたAABBの中央は、操作部の位置を示す。AABBは、操作部の形状を示す。
次に、上述した操作対象物の形状の算出方法の一例を説明する。
特徴量算出部3は、例えば、操作対象物の形状を矩形状と仮定し、平面座標系で直交する2軸方向に対して、エッジ存在位置の分布を示すヒストグラムを作成することで、操作対象物の形状を算出する。なお、本処理方法の詳細は、本出願人が既に提案した特開2015-049776号公報に開示されており、これを援用できるものとする。
続いて、上述した操作位置特徴量の算出方法の一例を詳細に説明する。
特徴量算出部3は、算出した操作対象物の形状に基づいて、操作対象物の幅及び高さを算出する。特徴量算出部3は、算出した操作部の位置に基づいて、操作部の水平位置を操作対象物の幅で除算し、その除算結果を正規化した値Pwを算出する。また、特徴量算出部3は、算出した操作部の位置に基づいて、操作部の垂直位置を操作対象物の高さで除算し、その除算結果を正規化した値Phを算出する。特徴量算出部3は、算出した値Pw、Phの2次元座標(Pw、Ph)を、操作位置特徴量として出力する。
図2は、上述のように算出した操作モデル毎に操作位置特徴量を2次元座標系にプロットした図である。図2において、横軸は、Pwであり、縦軸はPhである。(a)は、操作モデルが右ヒンジ扉である場合の操作位置特徴量の分布を示す。(b)は、操作モデルが引出しである場合の操作位置特徴量の分布を示す。(c)は、操作モデルが左ヒンジ扉である場合の操作位置特徴量の分布を示す。図2に示す如く、操作モデル毎に操作位置特徴量の分布に特徴が表れていることが分かる。
続いて、上述した操作形状特徴量の算出方法の一例を詳細に説明する。
例えば、操作部が矩形状の取っ手とする。特徴量算出部3は、算出した操作部の形状に基づいて、操作部の縦及び横の長さを算出する。特徴量算出部3は、算出した操作部の縦及び横の長さに基づいて、操作部の縦横の長さ比を算出し、算出した比を操作形状特徴量として出力する。なお、例えば、操作部が円形状のドアノブの場合、特徴量算出部3は、円形状の操作部に外接する外接矩形に基づいて、その外接矩形の縦及び横の長さ比を算出してもよい。円形状の場合、その縦及び横の長さの比は1/1=1となる。
このように、本実施形態においては、操作モデルの特徴をよく表し、その操作モデルを推定するのに最適な操作位置特徴量、及び操作形状特徴量を算出する。そして、後述の如く、これら特徴量を用いて、操作対象物の操作モデルを推定している。これにより、少ないデータ量及び計算リソースで操作モデルを効率的に推定できる。
モデル推定部4は、モデル推定手段の一具体例である。モデル推定部4は、操作モデルを学習する学習器41を含む。モデル推定部4は、学習器41を用いて、操作対象物の操作モデルを推定する。
学習器41は、操作位置特徴量、及び、操作形状特徴量を入力値とし、該入力値に対応付けられた操作モデルを出力値とし、複数組の入力値及び出力値に基づいて学習を行う。学習器41は、例えば、予め対応付けられた操作位置特徴量、操作形状特徴量、及び操作モデルからなる複数組の学習データを用いて学習を行う。学習器41は、例えば、SVM(Support Vector Machine)やニューラルネットワークなどである。
学習データは、例えば、予めメモリに記憶されていて、学習器41がメモリから適宜読み込む構成であってもよい。また、特徴量算出部3が、例えば、自動的に、インターネットなどを介して、家具などの操作対象物の通販ページの画像データや外寸データを取得し、取得したデータに基づいて、操作位置特徴量及び操作形状特徴量を算出し、操作モデルと対応付けて学習データを生成してもよい。この場合、特徴量算出部3は、例えば、家具などの操作対象物の画像データを実際の外寸に変換するような透視変換を行い、変換画像上で、操作対象物の形状、操作部の位置及び形状、操作モデルを入力できるインターフェースを実装していてもよい。
モデル推定部4は、特徴量算出部3により算出された操作対象物の操作位置特徴量及び操作形状特徴量を入力値として、学習器41に入力し、学習器41から出力された出力値(操作モデル)を、操作対象物の操作モデルとして推定する。
ところで、従来のモデル推定装置においては、静止状態の操作対象物の3次元点群データだけなく、操作対象物を実際に動作させ、その動作時の操作対象物の3次元点群データを用いて、操作対象物の操作モデルを推定している。このため、必要なデータ量が増加するという問題がある。
これに対し、本実施形態に係るモデル推定装置1においては、上述の如く、データ取得部2は、操作対象物の3次元点群データを取得する。特徴量算出部3は、データ取得部2により取得された操作対象物の3次元点群データに基づいて、操作対象物の形状に対する操作部の位置の特徴を示す操作位置特徴量、及び、操作部の形状の特徴を示す操作形状特徴量を算出する。モデル推定部4は、操作位置特徴量、及び、操作形状特徴量を入力値とし、該入力値に対応付けられた操作モデルを出力値とし、入力値及び出力値に基づいて学習を行う学習器41を含む。モデル推定部4は、特徴量算出部3により算出された操作位置特徴量及び操作形状特徴量を入力値として、学習器41に入力し、学習器41から出力された出力値に基づいて、操作対象物の操作モデルを推定する。
本実施形態に係るモデル推定装置1によれば、学習器41が、予め対応付けられた操作対象物の操作位置特徴量、操作形状特徴量及び操作モデルの学習データを学習し、モデル推定部4は、その学習した学習器41を用いて、操作対象物の操作モデルを推定する。したがって、操作対象物を動作させる必要がないため必要なデータ量を低く抑えることができ、さらに、操作モデルを学習した学習器41を用いて操作対象物の操作モデルを高精度に推定できる。
また、本実施形態に係るモデル推定装置1によれば、事前に、操作対象物の形状に対する操作部の位置の特徴を示す操作位置特徴量、及び、操作部の形状の特徴を示す操作形状特徴量を算出し、これら特徴量を用いて、操作対象物の操作モデルを推定している。このように、操作モデルを推定するのに最適な特徴量を算出し、操作対象物の操作モデルを推定することで、少ないデータ量及び計算リソースで操作モデルを効率的に推定できる。
さらに、本実施形態に係るモデル推定装置1によれば、上述の如く、事前に学習データにより学習器41に学習させ、その学習器41を用いて、操作対象物の操作モデルを推定することで、例えば、個々の家具毎にモデルを作成する必要がなくなる。
図3は、本実施形態に係るモデル推定方法のフローを示すフローチャートである。
本実施形態に係るモデル推定方法は、以下の2つの工程で構成されている。
(1)操作モデルの学習工程において、学習器41は、予め対応付けられた操作位置特徴量、操作形状特徴量、及び操作モデルから構成される学習データを学習する。
次に、(2)操作モデルの推定工程において、モデル推定部4は、特徴量算出部3により算出された操作対象物の操作位置特徴量及び操作形状特徴量に基づいて、学習した学習器41を用いて、操作対象物の操作モデルを推定する。
続いて、操作モデルの学習工程(1)及び推定工程(2)を、図4及び図5を用いて詳細に説明する。
(1)(操作モデルの学習工程)
学習器41は、図4に示す如く、メモリなどから、予め対応付けられた操作位置特徴量、操作形状特徴量、及び操作モデルから構成される学習データを取得する(ステップS101)。
学習器41は、学習データの操作位置特徴量、及び、操作形状特徴量を入力値とし、該入力値に対応付けられた操作モデルを出力値とし、入力値及び出力値に基づいて学習を行う(ステップS102)。
(2)(操作モデルの推定工程)
データ取得部2は、3次元距離センサ等を用いて、操作対象物の3次元点群データを取得し、特徴量算出部3に出力する(ステップS103)。
特徴量算出部3は、図5に示す如く、データ取得部2から出力された操作対象物の3次元点群データに基づいて、操作対象物及び操作部を検出し、検出した操作対象物の形状及び操作部の位置を算出する(ステップS104)。特徴量算出部3は、算出した操作対象物の形状及び操作部の位置に基づいて、操作位置特徴量を算出し、モデル推定部4に出力する(ステップS105)。
特徴量算出部3は、算出した操作部の形状に基づいて、操作形状特徴量を算出し、モデル推定部4に出力する(ステップS106)。
モデル推定部4は、特徴量算出部3から出力された操作対象物の操作位置特徴量及び操作形状特徴量を入力値として、学習器41に入力し、学習器41から出力された出力値(操作モデル)を、操作対象物の操作モデルとして推定する(ステップS107)。
図6は、本実施形態に係るモデル推定装置が搭載されたロボットの概略的構成を示すブロック図である。
例えば、ロボット10は、モデル推定装置1のモデル推定部4により推定された操作対象物の操作モデルを使って、操作対象物の操作を行う。ロボット10は、制御部11や記憶部12、アクチュエータ13等を備えており、ロボット10の記憶部12に、推定された操作対象物の操作モデルを記憶する。制御部11が操作モデルにしたがってアクチュエータ13等の動作を制御する。例えば、ロボット10は、扉などの操作対象物の操作モデル(左ヒンジ扉など)にしたがい、取っ手などの操作部を操作し矩形状の扉の開閉を行う。こにれより、ロボット10は、モデル推定装置1により推定された操作対象物の操作モデルを用いて、操作対象物を高精度かつ安全に操作できる。
なお、本実施形態において、モデル推定装置1は、ロボット10に搭載される構成であるが、これに限定されない。モデル推定装置1は、ロボット10に搭載されない構成であってもよい。この場合、モデル推定装置1は、推定した操作モデルを、有線あるいは無線を介して、ロボット10に送信してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他のさまざまな形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本発明は、例えば、図3に示す処理を、CPUにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 モデル推定装置、2 データ取得部、3 特徴量算出部、4 モデル推定部、41 学習器

Claims (1)

  1. ロボットの操作により動作する可動構造の操作対象物の動作方法を示す操作モデルを推定するモデル推定装置であって、
    前記操作対象物の3次元点群データを取得するデータ取得手段と、
    前記データ取得手段により取得された操作対象物の3次元点群データに基づいて、前記操作対象物の外形状に対する、該操作対象物上に設けられ前記ロボットが接触し操作を行う該操作対象物の一部の操作部の相対位置の特徴を示す操作位置特徴量、及び、該操作部の形状の特徴を示す操作形状特徴量を算出する特徴量算出手段と、
    前記操作位置特徴量、及び、前記操作形状特徴量を入力値とし、該入力値に対応付けられた前記操作モデルを出力値とし、前記入力値及び出力値に基づいて学習を行う学習器を含むと共に、前記特徴量算出手段により算出された操作位置特徴量及び操作形状特徴量を入力値として、前記学習器に入力し、該学習器から出力された出力値に基づいて、前記操作対象物の操作モデルを推定する推定手段と、
    を備える、ことを特徴とするモデル推定装置。
JP2017195102A 2017-10-05 2017-10-05 モデル推定装置 Active JP7074447B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017195102A JP7074447B2 (ja) 2017-10-05 2017-10-05 モデル推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017195102A JP7074447B2 (ja) 2017-10-05 2017-10-05 モデル推定装置

Publications (2)

Publication Number Publication Date
JP2019067336A JP2019067336A (ja) 2019-04-25
JP7074447B2 true JP7074447B2 (ja) 2022-05-24

Family

ID=66340633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017195102A Active JP7074447B2 (ja) 2017-10-05 2017-10-05 モデル推定装置

Country Status (1)

Country Link
JP (1) JP7074447B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102534748B1 (ko) * 2020-12-10 2023-05-22 광운대학교 산학협력단 3차원 정보를 이용한 고정밀 스켈레톤 추출 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007245326A (ja) 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
JP2014138964A (ja) 2013-01-21 2014-07-31 Toyota Motor Corp ロボットハンドの制御装置及び制御方法
JP2017087317A (ja) 2015-11-04 2017-05-25 トヨタ自動車株式会社 操作対象物の状態推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007245326A (ja) 2006-02-17 2007-09-27 Toyota Motor Corp ロボットとロボットの制御方法
JP2014138964A (ja) 2013-01-21 2014-07-31 Toyota Motor Corp ロボットハンドの制御装置及び制御方法
JP2017087317A (ja) 2015-11-04 2017-05-25 トヨタ自動車株式会社 操作対象物の状態推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Adrian Llopart, et al.,Door and cabinet recognition using Convolutional Neural Nets and real-time method fusion for handle detection and grasping,2017 3rd International Conference on Control, Automation and Robotics (ICCAR),IEEE,2017年04月26日,pp.144-149,https://ieeexplore.ieee.org/document/7942676

Also Published As

Publication number Publication date
JP2019067336A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
US9089966B2 (en) Workpiece pick-up apparatus
JP5724919B2 (ja) 軌道生成装置、移動体、軌道生成方法及びプログラム
CN113409384B (zh) 一种目标物体的位姿估计方法和系统、机器人
JP2019087229A5 (ja)
JP5785074B2 (ja) モデル生成装置、モデル生成方法及びモデル生成プログラム
JP2018501973A5 (ja)
JP2011198349A5 (ja)
CN104123746B (zh) 一种三维扫描点云中实时法向量的计算方法
JP2015100866A (ja) ロボットシミュレーション装置、プログラム、記録媒体及び方法
KR20130088507A (ko) 인체의 관절구조를 추정하기 위한 장치 및 방법
JP2010040037A5 (ja)
JP2014199584A5 (ja)
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP5650021B2 (ja) 3次元環境復元装置、その処理方法、及びプログラム
Patil et al. Extraction of weld seam in 3d point clouds for real time welding using 5 dof robotic arm
CN109955244A (zh) 一种基于视觉伺服的抓取控制方法、装置和机器人
JP7074447B2 (ja) モデル推定装置
JP2020004260A (ja) 観測位置推定装置、その推定方法、及びプログラム
JP2015093532A5 (ja)
CN100444191C (zh) 基于活动形状模型的多表情整脸轮廓检测方法
Fäulhammer et al. Temporal integration of feature correspondences for enhanced recognition in cluttered and dynamic environments
JP2019060695A (ja) 3次元物体検出装置、ロボット、及びプログラム
Lin et al. Cloud robotic grasping of Gaussian mixture model based on point cloud projection under occlusion
JP5960642B2 (ja) 3次元情報取得方法及び3次元情報取得装置
De Gregorio et al. Robotfusion: Grasping with a robotic manipulator via multi-view reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220512

R150 Certificate of patent or registration of utility model

Ref document number: 7074447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150