JP2002215655A - 情報検索方法、情報検索装置およびロボットの動作制御装置 - Google Patents

情報検索方法、情報検索装置およびロボットの動作制御装置

Info

Publication number
JP2002215655A
JP2002215655A JP2001006350A JP2001006350A JP2002215655A JP 2002215655 A JP2002215655 A JP 2002215655A JP 2001006350 A JP2001006350 A JP 2001006350A JP 2001006350 A JP2001006350 A JP 2001006350A JP 2002215655 A JP2002215655 A JP 2002215655A
Authority
JP
Japan
Prior art keywords
information
tag
camera
robot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001006350A
Other languages
English (en)
Other versions
JP4694701B2 (ja
Inventor
Shigeru Ando
繁 安藤
Shiyuuken Mototani
秀堅 本谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2001006350A priority Critical patent/JP4694701B2/ja
Publication of JP2002215655A publication Critical patent/JP2002215655A/ja
Application granted granted Critical
Publication of JP4694701B2 publication Critical patent/JP4694701B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】カメラで撮影した対象物に関する情報を入手す
るようにした情報検索装置を得る。 【解決手段】パソコン11はカメラ12を備え、カメラ
12は対象物31を撮影する。カメラ12で撮影された
画像データはパソコン11で画像処理される。パソコン
11はネットワークインターフェイス回路を介してネッ
トワーク41に接続される。ネットワーク41にはデー
タベース42,43,44が接続される。対象物31に
はタグ310が設けられる。タグ310は抽出が容易
で、対象物31の属性情報が与えられる。属性情報は対
象物31を製造したメーカ名、商品名、対象物31に関
する情報が提供されるURLを有する。パソコン11は
カメラ12で撮影される画像データの中からタグ310
を抽出し、属性情報を読み取って対象物31を特定す
る。パソコン11はさらに、ネットワーク41にアクセ
スして対象物31に関する情報を検索して得る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、対象物を特定し、
特定した対象物に関する情報を検索する情報検索方法、
情報検索装置およびロボットの動作制御装置に関する。
【0002】
【従来の技術】カメラなどのセンサを塔載するパソコン
で対象物の特定を行う場合を考える。パソコンは、カメ
ラで撮像される画像データの中に、自らが記憶している
対象物のデータと一致するデータがあるか否かを判定し
て対象物を特定する。この場合には、あらかじめパソコ
ンに対して、対象物の形状、対象物の大きさなどの
情報を記憶させておく必要がある。
【0003】
【発明が解決しようとする課題】このようなパソコンで
は、パソコンに特定させようとする対象物の数を多くす
るほど、あらかじめパソコンに記憶させておく情報量が
多くなる。
【0004】本発明の目的は、あらかじめ記憶させてお
く情報量をさほど増やすことなく、数多くの対象物を特
定するようにした情報検索方法、情報検索装置、および
ロボットの動作制御装置を提供することにある。
【0005】
【課題を解決するための手段】一実施の形態を示す図
1、図8に対応づけて本発明を説明する。 (1)請求項1に記載の発明による情報検索方法は、画
像情報の中から対象物31に設けられている識別標識3
10を抽出し、抽出した識別標識310から対象物31
を特定し、特定した対象物31に関する情報を検索する
ことにより、上述した目的を達成する。 (2)請求項2に記載の発明による情報検索装置は、対
象物31を撮像して画像情報を出力する撮像手段12
と、対象物31に設けられる識別標識310を画像情報
の中から抽出する識別標識抽出手段11と、識別標識抽
出手段11により抽出される識別標識310から対象物
31を特定する対象物特定手段11と、対象物特定手段
11により特定される対象物31に関する情報を情報蓄
積手段42〜44から入手する情報入手手段11とを有
することにより、上述した目的を達成する。 (3)請求項3に記載の発明は、請求項2に記載の情報
検索装置において、識別標識310は、情報蓄積手段4
2〜44に対するアクセスに必要な情報を備えることを
特徴とする。 (4)請求項4に記載の発明は、請求項2または3に記
載の情報検索装置において、対象物31に関する情報
は、対象物31の位置情報を含むことを特徴とする。 (5)請求項5に記載の発明は、請求項2〜4のいずれ
かに記載の情報検索装置において、対象物31に関する
情報は、対象物31に対する操作方法に関する情報を含
むことを特徴とする。 (6)請求項6に記載の発明によるロボットの動作制御
装置は、対象物32〜38を撮像して画像情報を出力す
る撮像手段12と、対象物32〜38に設けられる識別
標識320〜380を画像情報の中から抽出する識別標
識抽出手段11Aと、識別標識抽出手段11Aにより抽
出される識別標識320〜380から対象物32〜38
を特定する対象物特定手段11Aと、対象物特定手段1
1Aにより特定される対象物32〜38に関する情報を
情報蓄積手段42から入手する情報入手手段11Aと、
情報入手手段11Aにより入手される情報に基づいて対
象物特定手段11Aにより特定される対象物32をハン
ドリングする動作制御手段11Aとを備えることによ
り、上述した目的を達成する。
【0006】なお、上記課題を解決するための手段の項
では、本発明をわかりやすく説明するために実施の形態
の図と対応づけたが、これにより本発明が実施の形態に
限定されるものではない。
【0007】
【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。 −第一の実施の形態− 図1は、本発明の第一の実施の形態による情報検索装置
の概念を表す図である。図1において、パソコン11は
カメラ12を備え、カメラ12は対象物31を撮影す
る。カメラ12で撮影された画像データは、パソコン1
1内の不図示の演算回路により画像処理される。パソコ
ン11には不図示のネットワークインターフェイス回路
が備えられており、ネットワークインターフェイス回路
を介して、たとえば、インターネットによるネットワー
ク41に接続されている。ネットワーク41には、デー
タベース42,43,44が接続されている。データベ
ース42〜44の少なくとも1つには、対象物31に関
する情報が記憶されている。
【0008】対象物31には、タグ310が設けられて
いる。タグ310は、抽出が容易な特徴が付与されたも
ので、たとえば、バーコードのように画像データから容
易に抽出できるような幾何学的図形や色の組み合わせな
どによって表わされる。タグ310には、対象物31の
属性情報が与えられている。属性情報は、たとえば、対
象物31を製造したメーカ名、商品名、対象物31に関
する情報が提供されているURL(Uniform Resource L
ocator)などである。タグ310によって異なる対象物
31の属性情報を表す場合は、タグ310の幾何学的図
形の組み合わせや色の組み合わせなどを変化させるだけ
で、タグ310が有する特徴は同じである。
【0009】パソコン11は、カメラ12で撮影され
る画像データの中からタグ310を抽出し(発見段階)、
抽出したタグ310によって与えられる属性情報を読
み取る(読み取り段階)。パソコン11は、必要に応じて
カメラ12のズーミングを調整し、タグ310から属性
情報を読みとれるようにする。属性情報が読みとれない
ものは、タグではないとみなす。パソコン11は、タグ
310から対象物31の属性情報を読み取ることによ
り、対象物31を特定する。パソコン11はさらに、
ネットワーク41にアクセスして、データベース42〜
44から対象物31に関する情報を検索する(情報取得
段階)。対象物31に関する情報は、タグ310によっ
て与えられる製造メーカが提供するコンテンツ、タグ3
10によって与えられる情報提供者のURLのいずれか
ら検索してもよい。
【0010】対象物31にタグ310を設けると、パソ
コン11は対象物31を特定するとき、画像データの中
から対象物31の画像ではなく、タグ310の画像を探
せばよい。タグは、上述したように抽出が容易である上
に、それぞれが異なる対象物に設けられているタグであ
っても共通の特徴を有する。したがって、パソコン11
はタグの形状のデータのみをあらかじめメモリに記憶
し、カメラ12で撮影される画像データの中から、記憶
している形状データと一致するタグ310の画像を探
す。この結果、パソコン11は、タグ310が設けられ
ている対象物31の形状に係わらず、画像データからタ
グ310のみを探せばよいので、探す処理に要する時間
が短縮される。
【0011】複数の対象物が用意されているとき、これ
らの複数の対象物の中から特定の対象物31を選択する
場合は、選択すべき対象物の属性情報をあらかじめパソ
コン11のメモリに記憶しておく。パソコン11は、対
象物が複数存在する場合でも、画像データの中からタグ
のみを抽出し、タグによって与えられる属性情報がメモ
リに記憶されている属性情報と一致するタグを探す。パ
ソコン11は、属性情報が一致するタグが設けられてい
る対象物を、選択すべき対象物31として特定する。パ
ソコン11は、タグによって与えられる属性情報がメモ
リに記憶されている属性情報と一致しなければ、画像デ
ータの中から別のタグを探す。
【0012】もし、対象物31にタグ310が設けられ
ていないと、パソコン11は特定する対象物31の形状
のデータをあらかじめメモリに記憶し、カメラ12で撮
影される画像データの中から、あらかじめ記憶している
形状データと一致する対象物31の画像を探すことが必
要になる。特定しようとする対象物31の形状が複雑で
あったり、特定しようとする対象物の種類が多くなる
と、あらかじめパソコン11のメモリに記憶させておく
形状データが多くなる。また、画像データの中から対象
物31の全体の形状を抽出するので、画像データからタ
グ310のみを抽出する場合に比べて、処理に時間がか
かる。
【0013】タグ310によって属性情報が与えられる
ことで、パソコン11が対象物31の情報を入手するた
めに要する時間が短縮される。たとえば、タグ310に
より対象物31の製造メーカが特定できる場合は、画像
データ内の対象物31が「A社製品のうちのどの製品
か」を判断すればよい。対象物31の製造メーカが特定
できない場合は、画像データ内の対象物31が「全ての
メーカの製品のうちのどの製品か」を判断する必要があ
る。すなわち、タグ310が与える属性情報を使えば、
対象物31に関する情報の検索範囲を限定することがで
きる。
【0014】なお、タグ310が付与されている対象物
31に関する情報は、製造メーカや情報提供者によっ
て、データベース42〜44に随時蓄積、更新されてい
る。データベース42〜44に蓄積されている情報は、
ネットワーク41を経由して利用することができる。
【0015】タグがバーコードで表される場合を例にあ
げて、タグの抽出処理について説明する。図2は、バー
コード310が印刷されている箱の一部を撮影した画像
である。この画像データに周知の処理を施して微分画像
を生成すると、図3の微分画像が得られる。パソコン1
1は、この微分画像データを用いてバーコードの特徴の
抽出を行う。この場合の特徴は、単方向領域(UNIVAR)の
性質、全方向領域(OMNIVAR)の性質、無変動領域(NOVAR)
の性質とする。単方向領域の性質については、単方向に
領域をベタに埋め尽くす応答、およびエッジに沿った応
答(これらをPEGと記す)を算出して抽出する。ここ
で、エッジとは画像の濃淡値が急激に変化するところで
ある。全方向領域の性質については、端点やコーナでの
孤立的応答、端点列に沿った帯状の応答、および等方的
テクスチャ領域をベタに埋め尽くす応答(これらをQE
Gと記す)を算出して抽出する。単方向領域(UNIVAR)お
よび全方向領域(OMNIVAR)に属さないところが無変動領
域(NOVAR)である。画像データの単方向領域(UNIVAR)、
全方向領域(OMNIVAR)、および無変動領域(NOVAR)には、
次式(1)〜(4)の関係が成立する。
【数1】 UNIVAR+OMNIVAR+NOVAR=画像全体 (1) UNIVAR・OMNIVAR=φ (2) OMNIVAR・NOVAR=φ (3) UNIVAR・NOVAR=φ (4)
【0016】図3において、単方向領域(UNIVAR)の性質
を示す応答PEGが所定の面積以上、所定の充填率以
上、および所定の一様性をもって得られるとき、これら
の単方向性領域を連結した連結領域310Bをバーコー
ドの候補とする。図4はバーコードの例である。図4に
おいて、バーによる明暗変化に情報を符号化した方向を
コード軸、コード軸に直交する方向をバー軸とする。パ
ソコン11は、バーの変化方向θEGの均質性からバー
軸を検出し、バーコード(ここではバーコードの候補)の
形状の平行四辺形への適合度からコード軸を検出する。
パソコン11はさらに、バーコードの候補の対向する2
辺が無変動領域(NOVAR)に隣接していることをチェック
する。
【0017】図4のバーコードをカメラ12で撮影する
場合の幾何学モデルは図5のようになる。図5におい
て、カメラ12によって撮影される像面120の中にバ
ーコード310の像310Aがある。空間座標(X,Y,
Z)の点の像面座標(x,y)は、次式(5)で表される。な
お、図5は幾何学モデルを表すもので、カメラ12のレ
ンズなどのカメラのパラメータについては省略されてい
る。
【数2】 バーコード310の中心座標をvR0=(X0,Y0,Z
0)、コード軸の単位ベクトルをvu=(ux,uy,u
z)、バー軸の単位ベクトルをvv=(vx,vy,vz)
とする。なお、符号の先頭の「v」はベクトルを表す。
バーコード310の表面に上記単位ベクトルvuおよび
vvで張られる座標を(ξ,η)とすると、バーコード3
10上の点(ξ,η)の3次元座標(X,Y,Z)は次式(6)
〜(8)で表される。
【数3】 ただし、ux2+uy2+uz2=1,vx2+vy2
+vz2=1である。
【0018】したがって、像面120上のバーコード3
10の像310Aの座標は、次式(9)、(10)となる。
【数4】 すなわち、バーコードの像310Aの中心の像面座標
(x0,y0)、バーコードの像310Aのコード軸上の
単位ベクトル、およびバーコードの像310Aのバー軸
上の単位ベクトルは、それぞれ次式(11)〜(13)で表
される。
【数5】 パソコン11は、画像データにおけるバーコードの像3
10Aの座標を上述したように表して、バーコードの候
補の抽出処理と、周知の技術によりバーコードの属性情
報を読み取る読み取り処理と、バーコードの形状の検出
処理とを行う。パソコン11は、バーコードの候補から
属性情報が読みとれないものは、バーコードでない、す
なわち、タグではないとみなす。バーコード(タグ)の形
状検出については後述する。
【0019】図6は、パソコン11による特定結果がデ
ィスプレイ110に表示される例を表す図である。図6
において、カメラ12で対象物31が撮影される。上述
したように、パソコン11は、カメラ12で撮影された
画像データの中からタグ310を抽出し、タグ310に
よって与えられる属性情報を用いて対象物31に関する
情報をネットワーク41に設けられているデータベース
42を使用して検索する。パソコン11は、カメラ12
で撮影された画像111と、特定結果112と、検索し
て入手した情報113とをディスプレイ110に同時に
表示する。
【0020】上述したパソコン11で行われる情報検索
処理の流れを示すフローチャートを図7に示す。図7の
ステップS11において、パソコン11は、カメラ12
で撮影される画像データの中からタグ310を抽出した
か否かを判定する。パソコン11がタグを抽出(発見)し
て肯定判定するとステップS12へ進み、タグを抽出で
きずに否定判定するとステップS17へ進む。ステップ
S12において、パソコン11は、属性情報を読み取る
ことが可能か否かを判定する。パソコン11が属性情報
を読み取り可能であると肯定判定するとステップS13
へ進み、読み取り不可能であると否定判定するとステッ
プS11へ戻って別のタグを抽出する。ステップS13
において、パソコン11は、タグ310から属性情報を
読み取ってステップS14へ進む。
【0021】ステップS14において、パソコン11
は、読み取った属性情報から対象物31の製造メーカお
よび商品名を特定してステップS15へ進む。ステップ
S15において、パソコン11は、属性情報に含まれる
URLによってネットワーク41上のデータベース42
〜44を検索し、対象物31に関する情報を得る。ステ
ップS16において、パソコン11は、検索して入手し
た情報をカメラ12による画像とともにディスプレイ1
10に表示させて図7の処理を終了する。
【0022】上述したステップS11で否定判定されて
進むステップS17において、パソコン11は、タイム
アウトか否かを判定する。パソコン11は、図7の処理
が開始されて所定時間が経過している場合に肯定判定し
て図7の処理を終了する。これは、画像データにタグが
発見されない場合に相当する。一方、パソコン11は、
ステップS17において否定するとステップS18に進
む。ステップS18において、パソコン11は、カメラ
12の向きを変えてステップS11へ戻り、画像データ
の中からタグを抽出する。
【0023】以上説明した第一の実施の形態によれば、
次の作用効果が得られる。 (1)対象物31に抽出が容易な特徴を付与したタグ3
10を設け、パソコン11のカメラ12で撮影される画
像データの中から、対象物31に設けられているタグ3
10の画像を探して対象物31を特定するようにした。
タグ310を抽出容易にした結果、画像データの中から
対象物31の画像を探す場合に比べて、短い時間で対象
物31を抽出できる。また、対象物31の画像を探すた
めに必要な対象物31の形状データに比べて、タグ31
0の画像を探すために必要なタグ310の形状データの
方が少ないので、記憶に必要なメモリの容量を少なくで
きる。 (2)対象物31の属性情報をタグ310が有するよう
にしたので、パソコン11は、タグ310から与えられ
る属性情報によってタグ310が設けられている対象物
31を特定することができる。したがって、対象物ごと
に異なる属性情報を有するタグを設ければ、パソコン1
1は、タグが設けられている対象物の形状に関係なく対
象物を特定することができる。また、属性情報に対象物
31に関する情報が提供されているURLを含めたの
で、パソコン11は、ネットワーク41にアクセスし
て、データベース42〜44から対象物31に関する情
報を検索することが可能になる。
【0024】タグ310は、バーコードを例に説明した
が、カメラ12で撮影した画像データから検出しやすい
形状や色を有するパターン、商標でもよい。
【0025】以上の説明では、ネットワーク41をイン
ターネットとして説明したが、ネットワーク41は、イ
ントラネットのようにオフィスや学校内などにおいて閉
じたものにしてもよい。
【0026】また、データベース42〜44をパソコン
11のデータストレージ装置として構成し、ネットワー
ク41を介さずに対象物に関する情報を入手するように
してもよい。
【0027】−第二の実施の形態− 第二の実施の形態は、ロボットハンドを備えるロボット
システムに本発明を適用した場合の例である。ロボット
は、あらかじめティーチング操作することなしに対象物
を特定し、特定した対象物をロボットハンドで掴む。図
8は、第二の実施の形態によるロボット11Aの概念図
である。図8において、壁34,35および36に囲ま
れた部屋の中に、載置台33が備えられている。載置台
33の上に対象物32が載置されている。壁36と壁3
8との間には通路37が設けられている。壁34〜3
6、載置台33,対象物32、壁38および通路37に
は、それぞれタグ340〜360,330,320,3
80および370が設けられている。
【0028】ロボット11Aは、カメラ12と、ロボッ
トハンド13と、移動装置14とを備える。カメラ12
は対象物31などを撮影する。カメラ12で撮影された
画像データは、ロボット11A内の不図示の演算回路に
より画像処理される。ロボットハンド13は対象物32
を把持する。ロボットハンド13は不図示の駆動機構を
有し、ロボット11Aの演算回路からの指令により駆動
される。駆動装置14は、ロボット11Aの演算回路か
ら指令が送られると、ロボット11Aを任意の方向に移
動させる。また、ロボット11Aは不図示のネットワー
クインターフェイス回路を有し、ネットワークインター
フェイス回路を介してネットワーク41に接続されてい
る。ネットワーク41には、対象物32に関する情報を
記憶している少なくとも1つのデータベース42が接続
されている。
【0029】ロボット11Aは、上述したタグの発見
段階、属性情報の読み取り段階、対象物に関する情
報取得段階の他に、タグの形状に関するデータとカメ
ラ12により撮影されたタグの画像とを比較して、タグ
が設けられている対象物の姿勢を求め(幾何学情報の取
得段階)、発見したタグの情報をデータベース42へ
蓄積する。
【0030】ロボット11Aは、カメラ12で撮影され
た画像データの中からタグを抽出する。壁34〜36、
37および通路37に設けられるタグには、現在地など
の位置を表す属性情報も与えておく。ロボット11A
は、壁34〜36、37および通路に設けられたタグを
抽出することで、建物の中でどの位置を移動しているか
を検知する。ロボット11Aは、位置を表す属性情報を
入手すると、ロボット11Aがその場所で抽出したタグ
の情報をデータベース42に送って蓄積させる。これに
より、タグが付与されている対象物の位置情報が、位置
を表す属性情報に関連してデータベース42に蓄積され
る。
【0031】データベース42には、その場所でどのよ
うに行動するかという情報も記憶させておく。たとえ
ば、通路37のタグ370を抽出した場所では、ロボッ
トハンド13をたたむという情報を記憶させておく。ロ
ボット11Aは、タグ370を抽出してデータベース4
2にアクセスし、ロボットハンド13をたたむという情
報を得るとロボットハンド13をたたむ。
【0032】ロボット11Aには、あらかじめ対象物3
2を探すようにプログラムされている。カメラ12で撮
影された画像データから抽出したタグが対象物32のタ
グ320でない場合、ロボット11Aは新たなタグを探
す。カメラ12で撮影される画像データに新たなタグが
抽出されなくなると、ロボット11Aの演算回路の不図
示の演算回路は、駆動装置14に指令を出してロボット
11Aの向きを変える。
【0033】ロボット11Aが対象物32のタグ320
を抽出すると、タグ320によって与えられる属性情報
を用いて対象物32に関する情報をデータベース42か
ら検索する。ロボット11Aが取得する情報は、対象
物32のCADデータ(外形および寸法)、対象物32上
でタグ320が付与されている位置、対象物32の把
持すべき箇所(接触してはいけない箇所)、対象物32
を把持する際の力などである。ロボット11Aはさら
に、カメラ12により撮影される画像データにおけるタ
グ320の形状に基づいて、対象物32とカメラ12と
の間の3次元的な位置関係を推定する。
【0034】位置関係の推定は、タグ320の外縁を用
いて行う。たとえば、タグ320がバーコードの場合を
例にとれば、カメラ12がタグ320を正面から撮影す
ると、タグ320の外縁が長方形になる。カメラ12の
位置がタグ320の正面から外れると、タグ320の外
縁は、カメラ12の位置がタグ320の正面から外れた
距離に応じて変化し、近似平行四辺形として撮影され
る。ロボット11Aは、撮影されたタグ320の外縁の
歪み具合、すなわち、タグ320の形状からカメラ12
とタグ320との位置関係を推定する。すなわち、タグ
320の外縁である近似平行四辺形と、上述したバーの
変化方向θEGを利用して算出される空間二次曲線とを
当てはめて、タグ320をどの方向から撮影しているか
を推定する。
【0035】対象物32が直方体である場合を例にあげ
ると、カメラ12の位置座標と姿勢とパラメータ、およ
び対象物32の位置座標と姿勢は以下のように推定され
る。ロボット11Aは、データベース42から対象物3
2の3次元モデルを取得すると、取得した3次元モデル
から平面上にない少なくとも4点の頂点位置情報を得
る。たとえば、タグ320が設置された面の輪郭線の頂
点から3点、その面に接続する別な面の、タグ320の
設置面の交線とは異なる輪郭線の頂点から1点を選ぶ。
ロボット11Aは、カメラ12により撮影される画像デ
ータにおいて、これら4つの頂点に相当する位置を探索
し、タグ320の検出時に得られた対象物32の概略の
位置と姿勢を利用して探索範囲を絞り込む。これによ
り、画像データにおける頂点の位置座標と3次元モデル
上の頂点の位置座標との対応関係を検出し、カメラ12
の正確な位置座標と姿勢とパラメータ、および対象物3
2の正確な位置座標と姿勢を推定する。
【0036】ロボット11Aは、推定したタグ320の
撮影方向と、ネットワーク41を介して取得した対象物
32の外形および寸法の情報と、対象物32上でタグ3
20が付与されている位置の情報とから、カメラ12に
よって撮影される対象物32のイメージデータをシミュ
レートする。すなわち、カメラ12に備えられるレンズ
の焦点距離などを考慮して、カメラ12を通して撮影さ
れたタグ320の像310A(図5)の大きさからカメラ
12と対象物32との距離を推定し、対象物32のイメ
ージデータを生成する。対象物32までの距離がロボッ
トハンド13で掴める距離より長い場合は、駆動装置1
4を駆動して対象物32に近づく。
【0037】ロボット11Aは、実際にカメラ12によ
って撮影された画像データと、生成したイメージデータ
とがぴったり一致するように、対象物32とカメラ12
との3次元的な位置関係の推定精度を向上させる。カメ
ラ12による画像データが生成したデータと一致するか
否かの判定は、たとえば、対象物32の輪郭部分を用い
て行う。位置関係の推定精度の向上は、対象物32まで
の距離や対象物32を撮影する方向などを表す値を修正
し、再度イメージデータを生成することにより行う。対
象物32の姿勢および位置関係を推定すると、ネットワ
ーク41を介して得た対象物32の把持すべき箇所(接
触してはいけない箇所)の情報を参照し、ロボットハン
ド13を駆動して対象物32を把持する。
【0038】以上のロボット11Aで行われる制御処理
の流れを示すフローチャートを図9に示す。図9のステ
ップS21〜ステップS25までは図7の処理と同じた
め説明を省略する。ステップS26において、ロボット
11Aは、特定した対象物が探している対象物32であ
るか否かを判定する。ステップS26において、特定し
た対象物が探している対象物32であると肯定判定する
とステップS27へ進み、否定判定するとステップS3
1へ進む。ステップS27において、ロボット11A
は、対象物32の姿勢を推定する。ステップS28にお
いて、ロボット11Aは、対象物32がロボットハンド
13で掴める範囲内にあるか否かを判定する。ステップ
S28において、対象物32が掴める範囲内にあると肯
定判定するとステップS29へ進む。ステップS29に
おいて、ロボット11Aは、ロボットハンド13を駆動
して対象物32を把持し、図9の処理を終了する。
【0039】ステップS28において、対象物32が掴
める範囲内にないと否定判定されるとステップS30へ
進む。ステップS30において、ロボット11Aは、駆
動装置14を駆動して対象物32に近づく。再びステッ
プS27に戻り、ロボット11Aは対象物32の姿勢を
推定する。上述したステップS26において、特定した
対象物が探している対象物32でないと否定判定される
と、ステップS31へ進む。ステップS31において、
ロボット11Aは、特定した対象物が壁または通路か否
かを判定する。ステップS31において、壁または通路
であると肯定判定されるとステップS32へ進む。ステ
ップS32において、ロボット11Aは、ステップS2
5における情報検索で得られた「その場でどのように行
動するかの情報」にしたがって、たとえば、ロボットハ
ンド13をたたむ。ロボットハンド13がたたまれると
ステップS33へ進む。
【0040】また、ステップS31において否定判定す
る場合にもステップS33に進む。ステップS33にお
いて、ロボット11Aは、抽出(発見)したタグの情報を
データベース42へ送る。タグの情報がデータベース4
2へ送られるとステップS21へ戻り、ステップS21
において、画像データから新たなタグが抽出される。
【0041】上述したステップS21で否定判定されて
進むステップS34において、ロボット11Aは、タイ
ムアウトか否かを判定する。ロボット11Aは、図9の
処理が開始されて所定時間が経過している場合に肯定判
定して図9の処理を終了する。これは、画像データに対
象物32のタグ320が発見されない場合に相当する。
一方、ステップS34において否定されるとステップS
35に進む。ステップS35において、ロボット11A
は、駆動装置14を制御して移動する。再びステップS
21へ戻り、ロボット11Aは、画像データの中から新
たなタグを抽出する。
【0042】以上説明した第二の実施の形態によれば、
次の作用効果が得られる。 (1)対象物32の属性情報をタグ320が有するよう
にしたので、ロボット11Aは、タグ320から与えら
れる属性情報によってタグ320が設けられている対象
物32を特定することができる。また、壁34〜36、
37および通路37に設けられるタグは、現在地などの
位置を表す属性情報を有するようにしたので、ロボット
11Aは、壁34〜36、37および通路に設けられた
タグを抽出することで、建物の中でどの位置を移動して
いるかを検知することができる。 (2)ロボット11Aがネットワーク41を介して検索
するデータベース42に、タグが設けられている対象物
に関する情報、タグが設けられている場所でどのように
行動するかという情報、などを記憶させておくようにし
たので、ロボット11A内のメモリにこれらの情報をあ
らかじめ記憶させておく必要がない。情報の追加や変更
などはデータベース42側で行えばよいので、情報を管
理しやすい。 (3)カメラ12により撮影されるタグ320の形状に
基づいて推定したタグ320の撮影方向と、ネットワー
ク41を介して取得した対象物32の外形および寸法の
情報と、対象物32上でタグ320が付与されている位
置の情報とから、カメラ12によって撮影される対象物
32までの距離を推定し、カメラ12で撮影される対象
物32のイメージデータを生成する。そして、実際にカ
メラ12によって撮影された画像データと、生成したイ
メージデータとがぴったり一致するように対象物32と
カメラ12との3次元的な位置関係の推定精度を向上さ
せるようにしたので、ロボットハンド13を駆動して正
確に対象物32を把持することができる。
【0043】ロボット11Aと同様の複数のロボットを
用いるようにしてもよい。複数のロボットでタグを抽出
するとき、他のロボットが検知した情報もデータベース
42に蓄えれば、タグが設けられている全ての物体の配
置位置を知るのに要する時間は、ロボットを1台のみ用
いる場合より短くできる。そして、ロボットに対して特
定の対象物32を掴むように命令するとき、たとえば、
対象物32に最寄りのロボットに命じることにより、所
要時間を最短にすることもできる。
【0044】以上の説明では、ロボットハンド13は対
象物を掴むように説明したが、スイッチなどの操作部材
を操作するようにしてもよい。この場合には、対象物と
なる操作部材にタグを設けておき、対象物をどのように
取り扱うか、すなわち、操作部材をどのように操作する
かの情報をデータベースに記憶しておく。ロボット11
Aは操作部材のタグを抽出すると操作部材に関する情報
をデータベースから取得し、操作部材を操作する。この
ようなロボット11Aは、ベッドの操作部材や食器など
にタグを設けておけば介護ロボットとして利用できる。
また、工場などで人が近づけない環境下に配設されてい
るパイプや操作部材などにタグを設けておけば、日常点
検や非常時に復旧を行う作業ロボットとして利用でき
る。
【0045】−第三の実施の形態− 複数の対象物に同じタグが設けられている場合に、デー
タベースに記憶されている情報と一致する対象物を特定
することもできる。図7において、ロボット11Aが対
象物のタグを抽出すると、タグによって与えられる属性
情報を用いて対象物に関する情報を検索する。この場合
には、対象物のCADデータ(外形および寸法)と、対
象物上でタグが付与されている位置の情報を取得する。
【0046】ロボット11Aは、カメラ12により撮影
される画像データにおける各々のタグの形状に基づい
て、それぞれの対象物とカメラ12との間の3次元的な
位置関係を推定する。そして、推定したタグの撮影方向
と、ネットワーク41を介して取得した対象物の外形お
よび寸法の情報と、対象物上でタグが付与されている位
置の情報とを用いて、各々の対象物のイメージデータを
シミュレートする。実際にカメラ12によって撮影され
る画像データとぴったり一致するイメージデータは、デ
ータベースの情報と一致するタグから生成されたもので
ある。すなわち、このタグが設けられている対象物が、
データベースの情報と一致するものである。
【0047】なお、一つの視点からとらえた画像データ
からでは判断できないときには、判断しやすい視点はど
こかをCADデータより算出し、その視点へカメラ12を
動かせばよい。たとえば、CRTディスプレイと液晶デ
ィスプレイとを特定するとき、正面から撮影すると特定
しにくいが、ディスプレイを横から撮影すると特定しや
すくなる。
【0048】カメラ12で撮影された画像において、画
像からエッジを抽出すると、対象物の輪郭線を含む数多
くのエッジが抽出される。対象物とカメラ12との位置
関係および対象物の外形が分かっていると、エッジを含
めたイメージデータを生成できる。この場合、どのエッ
ジが対象物の輪郭線に相当するかを検出することは容易
であるので、実際にカメラ12によって撮影される画像
データと、エッジがぴったり一致するイメージデータを
探すことができる。
【0049】カメラ12で撮影される対象物の一部が、
障害物などで隠蔽されていても、ロボット11Aはデー
タベースから取得した対象物の外形データから隠蔽され
ている部分の形状をシミュレートできる。これにより、
カメラ12をどちらに動かせば、すなわち、ロボット1
1Aがどちらに移動すれば、対象物を隠蔽されることな
く撮影できるかを判断できる。
【0050】以上説明した第三の実施の形態によれば、
カメラ12により撮影されるタグの形状に基づいて推定
したタグの撮影方向と、ネットワーク41を介して取得
した対象物の外形および寸法の情報と、対象物上でタグ
が付与されている位置の情報とから、カメラ12によっ
て撮影される対象物までの距離を推定し、カメラ12で
撮影される対象物のイメージデータを生成する。そし
て、実際にカメラ12によって撮影された対象物の画像
データが、生成したイメージデータとぴったり一致する
か否かを判定することにより、複数の異なる対象物の中
からデータベースに記憶されている情報と一致する対象
物を特定できる。これは、たとえば、同一メーカ製の新
旧製品の中から、データベースと一致するモデルがどれ
かを探す場合に適用できる。
【0051】−第四の実施の形態− 対象物が破損および変形していないか、あるいは汚れて
いないかを検査することもできる。図7において、ロボ
ット11Aが対象物32のタグ320を抽出すると、タ
グ320によって与えられる属性情報を用いて対象物3
2に関する情報を検索する。この場合には、対象物の
CADデータ(外形、寸法、および色)と、対象物32上
でタグ320が付与されている位置の情報をネットワー
ク41上のデータベース42から取得する。
【0052】ロボット11Aは、カメラ12により撮影
される画像データにおけるタグ320の形状に基づい
て、対象物32とカメラ12との間の3次元的な位置関
係を推定する。そして、推定したタグ320の撮影方向
と、ネットワーク41を介して取得した対象物32の外
形、寸法および色の情報と、対象物32上でタグ320
が付与されている位置の情報とを用いて、対象物32の
3次元のイメージデータをシミュレートする。実際にカ
メラ12によって撮影される画像データとぴったり一致
すれば異常なしと判定し、不一致の部分があれば何らか
の異常が生じていると判定する。実際にカメラ12によ
って撮影された画像データは、検査結果としてネットワ
ーク41を介してデータベース42に保存しておき、時
間的な変化を蓄積する。
【0053】1つの視点からとらえた画像だけでは、対
象物の3次元形状を検査できない。一般に、3次元形状
の検査はステレオの原理を用いて行われる。この検査
は、カメラ12(ロボット11A)を移動させて、異なる
2つ以上の視点から対象物32を撮影する。どの視点か
ら対象物32を撮影するかは、対象物32の形状に依存
する。したがって、対象物32の検査したい箇所や複雑
な形状を有する箇所の情報と、これらの箇所の3次元形
状を検査するのに有効な視点の情報、すなわち、カメラ
12を移動させる情報とを、データベース42に記憶し
ておく。この場合には、ロボット11Aは、タグ320
によって与えられる属性情報を用いてネットワーク41
にアクセスして情報を検索するとき、3次元形状の検査
に必要な情報も取得する。
【0054】以上説明した第四の実施の形態によれば、
カメラ12により撮影されるタグの形状に基づいて推定
したタグの撮影方向と、ネットワーク41を介して取得
した対象物32の外形、寸法および色の情報と、対象物
32上でタグ320が付与されている位置の情報とか
ら、カメラ12によって撮影される対象物までの距離を
推定し、カメラ12で撮影される対象物の3次元イメー
ジデータを生成する。そして、実際にカメラ12によっ
て撮影された対象物の画像データが、生成したイメージ
データとぴったり一致するか否かを判定することによ
り、対象物の検査を行うことができる。これは、工場な
どの製品検査に適用できる。
【0055】以上の説明では、ロボット11Aが有線接
続によるネットワーク41を介して情報を取得するよう
にしたが、無線接続によって情報を取得するようにして
もよい。
【0056】特許請求の範囲における各構成要素と、発
明の実施の形態における各構成要素との対応について説
明すると、画像データが画像情報に、タグ310、32
0〜380が識別標識に、カメラ12が撮像手段に、パ
ソコン11およびロボット11Aが識別標識抽出手段、
対象物特定手段および情報入手手段に、データベース4
2〜44が情報蓄積手段に、ロボット11Aが動作制御
手段に、それぞれ対応する。
【0057】
【発明の効果】以上詳細に説明したように本発明によれ
ば、次のような効果を奏する。 (1)請求項1〜6に記載の発明では、画像情報の中か
ら対象物に設けられる識別標識を抽出し、抽出した識別
標識から対象物を特定するようにした。したがって、画
像情報の中から対象物の画像を抽出し、対象物の画像か
ら対象物を特定する場合に比べて、対象物の特定が容易
になる。さらに、対象物を特定すると対象物に関する情
報を検索(入手)するようにしたので、特定した対象物に
対するさらに詳しい情報を得ることができる。 (2)とくに、請求項2〜5に記載の発明による情報検
索装置では、たとえば、対象物の外形および寸法の情報
を情報蓄積手段から入手すれば、画像情報の中の対象物
の外形および大きさに基づいて、対象物と情報検索装置
との間の位置関係を求めることが可能になる。 (3)請求項6に記載の発明によるロボットの動作制御
装置では、たとえば、対象物の外形および寸法の情報を
情報蓄積手段から入手すれば、画像情報の中の対象物の
外形および大きさに基づいて、対象物とロボットとの間
の位置関係を求めることが可能になる。そして、対象物
をどのようにハンドリングするかの情報を情報蓄積手段
から入手すれば、あらかじめハンドリング情報を記憶し
ていなくても対象物をハンドリングすることが可能にな
る。
【図面の簡単な説明】
【図1】第一の実施の形態による情報検索装置の概念を
表す図である。
【図2】バーコードが印刷されている箱の一部の画像を
表す図である。
【図3】図2の微分画像を表す図である。
【図4】バーコードの例を表す図である。
【図5】バーコードをカメラで撮影する場合の幾何学モ
デルを表す図である。
【図6】特定結果がディスプレイに表示される例を表す
図である。
【図7】パソコンによる情報検索処理の流れを示すフロ
ーチャートである。
【図8】第二の実施の形態によるロボットの概念図であ
る。
【図9】ロボットによる制御処理の流れを示すフローチ
ャートである。
【符号の説明】
11…パソコン、 11A…ロボ
ット、12…カメラ、 13…
ロボットハンド、14…移動装置、
31,32…対象物、33…載置台、
34〜36,38…壁、37…通路、
41…ネットワーク、42〜4
4…データベース、 110…ディスプレ
イ、111…カメラで撮影された画像、 112…
特定結果、113…検索して得た情報、310,320,
330,340,350,360,370,380…タグ
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 3C007 CS08 JS03 KS08 KS16 KT00 KT01 KT04 LT06 MT10 WA28 5B075 KK03 KK07 KK13 KK33 KK37 ND03 ND20 ND23 NK10 NK13 NK24 PP10 PP12 PP30 PQ02 PQ05 QP10 QS03 UU40

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】画像情報の中から対象物に設けられている
    識別標識を抽出し、 抽出した前記識別標識から前記対象物を特定し、 特定した前記対象物に関する情報を検索することを特徴
    とする情報検索方法。
  2. 【請求項2】対象物を撮像して画像情報を出力する撮像
    手段と、 前記対象物に設けられる識別標識を前記画像情報の中か
    ら抽出する識別標識抽出手段と、 前記識別標識抽出手段により抽出される前記識別標識か
    ら前記対象物を特定する対象物特定手段と、 前記対象物特定手段により特定される前記対象物に関す
    る情報を情報蓄積手段から入手する情報入手手段とを有
    することを特徴とする情報検索装置。
  3. 【請求項3】請求項2に記載の情報検索装置において、 前記識別標識は、前記情報蓄積手段に対するアクセスに
    必要な情報を備えることを特徴とする情報検索装置。
  4. 【請求項4】請求項2または3に記載の情報検索装置に
    おいて、 前記対象物に関する情報は、前記対象物の位置情報を含
    むことを特徴とする情報検索装置。
  5. 【請求項5】請求項2〜4のいずれかに記載の情報検索
    装置において、 前記対象物に関する情報は、前記対象物に対する操作方
    法に関する情報を含むことを特徴とする情報検索装置。
  6. 【請求項6】対象物を撮像して画像情報を出力する撮像
    手段と、 前記対象物に設けられる識別標識を前記画像情報の中か
    ら抽出する識別標識抽出手段と、 前記識別標識抽出手段により抽出される前記識別標識か
    ら前記対象物を特定する対象物特定手段と、 前記対象物特定手段により特定される前記対象物に関す
    る情報を情報蓄積手段から入手する情報入手手段と、 前記情報入手手段により入手される情報に基づいて前記
    対象物特定手段により特定される対象物をハンドリング
    する動作制御手段とを備えることを特徴とするロボット
    の動作制御装置。
JP2001006350A 2001-01-15 2001-01-15 情報検索方法、情報検索装置およびロボットの動作制御装置 Expired - Lifetime JP4694701B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001006350A JP4694701B2 (ja) 2001-01-15 2001-01-15 情報検索方法、情報検索装置およびロボットの動作制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001006350A JP4694701B2 (ja) 2001-01-15 2001-01-15 情報検索方法、情報検索装置およびロボットの動作制御装置

Publications (2)

Publication Number Publication Date
JP2002215655A true JP2002215655A (ja) 2002-08-02
JP4694701B2 JP4694701B2 (ja) 2011-06-08

Family

ID=18874247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001006350A Expired - Lifetime JP4694701B2 (ja) 2001-01-15 2001-01-15 情報検索方法、情報検索装置およびロボットの動作制御装置

Country Status (1)

Country Link
JP (1) JP4694701B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078619A (ja) * 2002-08-19 2004-03-11 Kazuhisa Kondo 汎用コードを用いたデータ検索システム
JP2004345053A (ja) * 2003-05-23 2004-12-09 Sony Corp 情報収集システム及びロボット装置
JP2005088137A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology ロボット及び物体処理方法
JP2005088095A (ja) * 2003-09-12 2005-04-07 Denso Corp 車載ロボットハンド
JP2005279804A (ja) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International 対象物認識装置
JP2006015433A (ja) * 2004-06-30 2006-01-19 Honda Motor Co Ltd 商品説明ロボット
JP2006102881A (ja) * 2004-10-06 2006-04-20 Nagasaki Prefecture 把持ロボット装置
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JPWO2006006624A1 (ja) * 2004-07-13 2008-05-01 松下電器産業株式会社 物品保持システム、ロボット及びロボット制御方法
JP2009050970A (ja) * 2007-08-28 2009-03-12 Nec Access Technica Ltd ロボットシステム、レスキューロボット
US7769203B2 (en) 2004-12-14 2010-08-03 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2010228064A (ja) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体
JP2012022457A (ja) * 2010-07-13 2012-02-02 Japan Science & Technology Agency タスク指示システム
JP2012123434A (ja) * 2010-09-28 2012-06-28 Kankyosekkei Co Ltd 設備管理システム
JP2012228756A (ja) * 2011-04-27 2012-11-22 Seiko Epson Corp ロボット制御方法、ロボット制御装置およびプログラム
JP2013544383A (ja) * 2010-09-16 2013-12-12 アルカテル−ルーセント コンテンツに自動的にタグ付けするコンテンツ取込みデバイスおよび方法
JP2017146993A (ja) * 2017-05-19 2017-08-24 エンパイア テクノロジー ディベロップメント エルエルシー バーチャルリアリティアプリケーション
JP2018134687A (ja) * 2017-02-20 2018-08-30 大日本印刷株式会社 ロボット、プログラム及びマーカ
WO2024019105A1 (ja) * 2022-07-21 2024-01-25 興和株式会社 ピッキング制御システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148797A (ja) * 1998-08-31 2000-05-30 Sony Corp 画像処理装置、画像処理方法、および画像処理プログラム格納媒体
JP2000254883A (ja) * 1999-03-05 2000-09-19 Sony Corp 道具装置と道具認識方法および自動動作装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148797A (ja) * 1998-08-31 2000-05-30 Sony Corp 画像処理装置、画像処理方法、および画像処理プログラム格納媒体
JP2000254883A (ja) * 1999-03-05 2000-09-19 Sony Corp 道具装置と道具認識方法および自動動作装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004078619A (ja) * 2002-08-19 2004-03-11 Kazuhisa Kondo 汎用コードを用いたデータ検索システム
JP2004345053A (ja) * 2003-05-23 2004-12-09 Sony Corp 情報収集システム及びロボット装置
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2005088095A (ja) * 2003-09-12 2005-04-07 Denso Corp 車載ロボットハンド
JP2005088137A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology ロボット及び物体処理方法
JP2005279804A (ja) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International 対象物認識装置
JP2006015433A (ja) * 2004-06-30 2006-01-19 Honda Motor Co Ltd 商品説明ロボット
JPWO2006006624A1 (ja) * 2004-07-13 2008-05-01 松下電器産業株式会社 物品保持システム、ロボット及びロボット制御方法
JP2006102881A (ja) * 2004-10-06 2006-04-20 Nagasaki Prefecture 把持ロボット装置
US7769203B2 (en) 2004-12-14 2010-08-03 Honda Motor Co., Ltd. Target object detection apparatus and robot provided with the same
JP2009050970A (ja) * 2007-08-28 2009-03-12 Nec Access Technica Ltd ロボットシステム、レスキューロボット
JP2010228064A (ja) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology 福祉用ロボット装置のロボットアーム操作方法、ロボットアーム操作プログラム、及び、記録媒体
JP2012022457A (ja) * 2010-07-13 2012-02-02 Japan Science & Technology Agency タスク指示システム
JP2013544383A (ja) * 2010-09-16 2013-12-12 アルカテル−ルーセント コンテンツに自動的にタグ付けするコンテンツ取込みデバイスおよび方法
JP2012123434A (ja) * 2010-09-28 2012-06-28 Kankyosekkei Co Ltd 設備管理システム
JP2012228756A (ja) * 2011-04-27 2012-11-22 Seiko Epson Corp ロボット制御方法、ロボット制御装置およびプログラム
JP2018134687A (ja) * 2017-02-20 2018-08-30 大日本印刷株式会社 ロボット、プログラム及びマーカ
JP2017146993A (ja) * 2017-05-19 2017-08-24 エンパイア テクノロジー ディベロップメント エルエルシー バーチャルリアリティアプリケーション
WO2024019105A1 (ja) * 2022-07-21 2024-01-25 興和株式会社 ピッキング制御システム

Also Published As

Publication number Publication date
JP4694701B2 (ja) 2011-06-08

Similar Documents

Publication Publication Date Title
JP4694701B2 (ja) 情報検索方法、情報検索装置およびロボットの動作制御装置
Liu et al. Keypose: Multi-view 3d labeling and keypoint estimation for transparent objects
CN112476434B (zh) 一种基于协作机器人的视觉3d取放方法及系统
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
WO2019189661A1 (ja) 学習データセット作製方法及び装置
US7280687B2 (en) Device for detecting position/orientation of object
US9082017B2 (en) Robot apparatus and position and orientation detecting method
JP2011198349A (ja) 情報処理方法及びその装置
JP2013217893A (ja) モデル生成装置、位置姿勢推定装置、情報処理装置、モデル生成方法、位置姿勢推定方法、情報処理方法
CN114097004A (zh) 基于视觉嵌入的自主任务性能
JP5699697B2 (ja) ロボット装置、位置姿勢検出装置、位置姿勢検出プログラム、および位置姿勢検出方法
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6506483B1 (ja) テクスチャなし物体の姿勢を推定するシステム及び方法
CN111958604A (zh) 一种高效的基于cad模型的异形毛刷单目视觉示教抓取方法
CN105426901A (zh) 用于对摄像头视野中的已知物体进行分类的方法
JP2020163502A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP7385747B2 (ja) 物体の把持点の三次元位置、ローカル参照フレーム及び把持パターンを求める方法及びシステム
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
Stefańczyk et al. WUT visual perception dataset: a dataset for registration and recognition of objects
US20230297068A1 (en) Information processing device and information processing method
JP3548652B2 (ja) 物体形状復元装置及びその方法
Xie et al. Three-dimensional object recognition system for enhancing the intelligence of a KUKA robot
Tomizawa et al. Object posture recognition for remote book browsing robot system
Martinson Interactive training of object detection without imagenet
GB2375675A (en) System for automatically detecting and masking device features in the field of view of an imaging device.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4694701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term