JP3415868B2 - Apparatus for detecting external shape of three-dimensional object - Google Patents

Apparatus for detecting external shape of three-dimensional object

Info

Publication number
JP3415868B2
JP3415868B2 JP02535093A JP2535093A JP3415868B2 JP 3415868 B2 JP3415868 B2 JP 3415868B2 JP 02535093 A JP02535093 A JP 02535093A JP 2535093 A JP2535093 A JP 2535093A JP 3415868 B2 JP3415868 B2 JP 3415868B2
Authority
JP
Japan
Prior art keywords
dimensional
image
target object
moving
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02535093A
Other languages
Japanese (ja)
Other versions
JPH06241748A (en
Inventor
正人 小沢
豊 小倉
繁 安藤
Original Assignee
ジューキ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジューキ株式会社 filed Critical ジューキ株式会社
Priority to JP02535093A priority Critical patent/JP3415868B2/en
Publication of JPH06241748A publication Critical patent/JPH06241748A/en
Application granted granted Critical
Publication of JP3415868B2 publication Critical patent/JP3415868B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • CCHEMISTRY; METALLURGY
    • C04CEMENTS; CONCRETE; ARTIFICIAL STONE; CERAMICS; REFRACTORIES
    • C04BLIME, MAGNESIA; SLAG; CEMENTS; COMPOSITIONS THEREOF, e.g. MORTARS, CONCRETE OR LIKE BUILDING MATERIALS; ARTIFICIAL STONE; CERAMICS; REFRACTORIES; TREATMENT OF NATURAL STONE
    • C04B28/00Compositions of mortars, concrete or artificial stone, containing inorganic binders or the reaction product of an inorganic and an organic binder, e.g. polycarboxylate cements
    • C04B28/14Compositions of mortars, concrete or artificial stone, containing inorganic binders or the reaction product of an inorganic and an organic binder, e.g. polycarboxylate cements containing calcium sulfate cements

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、例えば、任意形状の革
等の被縫製物の重ね合せ部分の輪郭を自動的に検出し、
これによって、ミシンにて縫い合わせるために用いる、
その縫合軌跡データを生成する際にも用いることができ
る、予め用意された基準データ等を用いることなく、3
次元物体の被測定対象物体の外形形状をより効果的に検
出することができる3次元物体の外形形状検出装置に関
する。 【0002】 【従来の技術】LSI(large scale integrated circu
it)の設計技術や、LSIに組み込まれるデジタル回路
の設計技術、又、LSIの製造技術等、様々なデジタル
技術の進歩には目覚ましいものがある。例えば、近年に
おいては、非常に高性能なCPU(central processing
unit )がワンチップ化されている。又、画像処理等、
比較的特殊な処理を専用に行う演算回路が組み込まれた
LSIも提供されている。更に、半導体記憶装置の記憶
容量の増加にも目覚ましいものがあり、様々な面でデジ
タル技術が急速に進歩している。 【0003】又、前述のようなCPU等の処理能力の向
上や、画像処理技術の進歩に伴い、例えば、工場におけ
る部品検査や、医療分野における血球の検査、細胞診等
において、検査対象の画像中の部品の数や、血球、細胞
の数を計数するということが行われるようになってきて
いる。 【0004】画像処理による検査や物体の認識には、例
えば、テンプレートマッチングと称する手法がある。従
来から行われている該テンプレートマッチングは、例え
ば、予め用意されている2次元のテンプレートを、検査
対象あるいは認識対象となる2次元画像中で上下あるい
は左右に移動させながら、該テンプレートとの類似性を
評価していくというものである。例えば、このようにテ
ンプレートを移動しながら為される類似性の評価に基づ
いて、例えばこれによって得られる相関関数の値の大小
によって、対象となる画像の検査や認識を行うというも
のである。 【0005】更に、所定の画像処理によって、3次元物
体の検査や認識等も行われている。例えば、多眼視によ
って得られる複数画像、例えば両眼テレビカメラで撮影
されたステレオ画像対によって、3次元物体の検査や認
識を行うというものがある。これは、例えば、多眼視に
よって得られた複数画像それぞれについて、前述のよう
なテンプレートマッチングを行うことによって、又、こ
のようにして得られた複数のテンプレートマッチングの
結果を総合することによって、対象となる3次元物体の
検査や認識を行うというものである。 【0006】このような3次元物体の検査や認識によれ
ば、テンプレートマッチングに関するデータ等、予め用
意されている基準データとの比較によって、予め定めら
れている3次元物体について、その配置位置や方向等を
認識することができる。又、このような3次元物体につ
いて、その検査や認識の際に、いわゆる人工知能的な手
法を用いるということも行われている。 【0007】 【発明が達成しようとする課題】しかしながら、前述し
たもの等、従来の3次元物体の検査や認識は、テンプレ
ートマッチングに関するデータ等、予め準備された基準
データ等を用いるというものであった。例えば、前述の
ようなテンプレートマッチングではないものでも、何等
かの基準データを用いるものであった。例えば、3次元
対象物体に対して、所定パターン、例えばストライプ状
のパターンを投影し、これを両眼テレビカメラで撮影し
たステレオ画像対を用い、3次元物体の外形形状を測定
する場合、従来は3次元対象物に関する何等かの基準面
についての予め準備されているデータが用いられるもの
である。 【0008】このように、テンプレートマッチングに関
するデータ等、予め用意された基準データを用いる3次
元物体の検査や認識においては、種々の問題がある。 【0009】例えば、対象となる3次元物体について
は、これは予め特定されていなければならず、又、これ
に関するデータが予め得られていなければならず、検査
対象等が限られたものとなってしまう。又、その検査内
容や認識内容も限定されたものとなってしまう。例え
ば、任意形状の革等の被縫製物の重ね合せ部分の輪郭を
自動的に検出し、これによって、ミシンにて縫い合わせ
るために用いる、その縫合軌跡データを生成することは
困難であった。 【0010】更に、前述のようなテンプレートマッチン
グにおいては、その結果が出るまでの時間が不定であっ
たり、その演算量が増大してしまう等の問題があった。
例えば、テンプレートを移動させながらその類似性を評
価する際には、その相関関数の値が所定値以上となる箇
所が見出されるまで、繰り返し処理を実行しなければな
らない。 【0011】本発明は、前記従来の問題点を解決するべ
く成されたもので、テンプレートマッチングに関するデ
ータ等、予め用意された基準データを用いることなく、
3次元対象物体の外形形状をより効果的に検出すること
ができる3次元物体の外形形状検出装置を提供すること
を目的とする。 【0012】 【課題を達成するための手段】本発明は、3次元物体の
外型形状検出装置において、3次元対象物体に対して、
所定パターンを投影する照明装置と、前記所定パターン
が投影されている前記3次元対象物体を撮影し、2次元
影像を得る撮影装置と、前記3次元対象物体と前記撮影
装置との相対位置関係を一定としたまま、前記照明装置
から前記3次元対象物体への前記所定パターンの投影状
態を変化させるべく、前記3次元対象物体及び前記撮影
装置に対する前記照明装置の位置をZ軸方向に変化させ
る照明動装置と、前記撮影装置に対する前記3次元対
象物体の相対位置関係をX軸方向に所定移動量だけ変化
させる対象物体移動装置と、所定連続撮影パターンに
て、前記照明装置をZ軸方向に移動させながら撮影し、
前記撮影装置から得た複数の前記2次元影像を記憶する
第1影像メモリと、該第1影像メモリに記憶する前記2
次元影像を得た後、この時に作動させなかった前記対象
物体移動装置を1回だけ作動させて、前記撮影装置に対
する前記3次元対象物体の相対位置関係をX軸方向に所
定移動量だけ1回変化させ、前記所定連続撮影パターン
にて、前記照明装置をZ軸方向に移動させながら撮影
し、前記撮影装置から得た複数の前記2次元影像を記憶
する第2影像メモリと、前記第1影像メモリ及び前記第
2影像メモリに記憶する複数の前記2次元影像を得る際
に、前記照明駆動装置及び前記対象物体移動装置を制御
する移動制御装置と、前記第1影像メモリに記憶される
前記2次元影像、及び、前記第2影像メモリに記憶され
る前記2次元影像に対して、画素間の微分処理を行う演
算手段と、前記微分処理結果に対して積和演算処理を実
施し、前期3次元対象物体の外形形状データを出力する
積和演算手段とを備えたことにより、前記課題を達成し
ものである。 【0013】 【作用】本発明は、本発明の発明者の一人を含む論文に
て発表されている理論を、実際の3次元物体の外形形状
検出装置として具体化するようにしたものである。該論
文として、「ステレオ画像の微分常等式を用いた形状再
現システム」安藤繁、計測自動制御学会論文集、23−
4、319/325、1987年(以降、論文Aと称す
る);「画像の時空間微分算法を用いた速度ベクトル分
布計測システム」安藤繁、計測軌道制御学会論文集、2
2−12、1330/1336、1986年(以降、論
文Bと称する);「両眼強度差を検出する微分両眼立体
視法とその光沢知覚への応用」安藤繁、計測自動制御学
会論文集、23−6、619/624、1987年(以
降、論文Cと称する);「動的な3次元累積合成機構を
有する微分両眼手法」安藤繁及び田部井俊幸、計測自動
制御学会論文集、24−6、628/634、1988
年(以降、論文Dと称する)がある。 【0014】又、本発明においては、テンプレートマッ
チングに関するデータ等、予め用意された基準データを
用いることなく3次元対象物体の外形形状をより効果的
に検出するため、前述のような論文にて発表された理論
に加え、詳しく後述するように、第1影像群と第2影像
群、あるいはこれ以上の影像群による、複数組の影像を
用いるようにしている。これら影像群は、後述する照明
動装置や後述する対象物体移動装置によって照明装置
移動させながら、あるいは3次元対象物体を移動させ
得られるものである。これによって、予め用意された基
準データを用いることなく、より精度良く、対象となる
3次元物体の外形形状を検出できるようにしている。 【0015】図1は、本発明の要旨を示す機器配置図で
ある。 【0016】この図1においては、3次元対象物体1に
対して、本発明の外形形状検出装置に用いられる照明装
置12及び撮影装置14の配置が示されている。 【0017】単数又は複数の前記照明装置12は、3次
元対象物体1に対して、所定パターンを投影するもので
ある。該照明装置12にて投影される所定パターンにつ
いて、本発明はこれを具体的に限定するものではない。
該所定パターンは、1つの外形形状検出中に、そのパタ
ーンが一定であればよい。 【0018】例えば、該所定パターンは、格子状のパタ
ーンや、ストライプ状のパターン、水玉状のパターン、
あるいは周期性のないランダムな何等かのパターンであ
ってもよい。投影される該所定パターンは、外形形状検
出対象となる3次元物体の形状(その主なものの形状)
や配置位置、後述する照明動装置による照明装置の位
置の移動方向や、後述する対象物体移動装置の移動方向
等を配慮して決定することが好ましい。例えば、前記照
動装置による照明装置の移動方向や前記対象物体移
動装置の移動方向に対して、そのパターンの濃淡変化の
細かさが確保されている方が望ましい。なお、該所定パ
ターンについては、前記撮影装置14の解像度等も配慮
して決定されるものである。 【0019】前記撮影装置14は、前記照明装置12に
て前記所定パターンが投影されている前記3次元対象物
体を撮影し、2次元影像を得るものである。該撮影装置
14としては、例えば、CCD(charge coupled devic
e )等を用いたテレビカメラ等を用いることができる。 【0020】前記3次元対象物体1へと前述のような所
定パターンを投影しながら、前記撮影装置14にて2次
元影像を得る際、本発明においては、前記論文A〜論文
Dで示される理論に基づいて、前記照明装置12の位置
又は傾動角を変化させる。即ち、該照明装置12の位置
を変化させながら、前記撮影装置14にて、複数の2次
元影像を得るというものである。得られたこれら複数の
2次元映像は、従って、その撮影時における前記照明装
置12の位置が互いに異なるものとなり、前記3次元対
象物体1に投影されるパターンの状態も互いに異なる。
例えば、この図1に示されるZ軸方向に前記照明装置1
2を移動させたりしながら、複数の前記2次元影像を得
る。 【0021】更に、本発明においては、前述のような前
記照明装置12の位置を変化させながら行う前述のよう
な複数の2次元影像の撮影を、前記撮影装置14に対す
る前記3次元対象物体1の相対位置関係を変化させて、
複数回行うようにしている。このような複数の2次元影
像の撮影を複数回行うことは、前記論文A〜論文Dでは
発表されていない点である。 【0022】例えば、所定連続撮影パターンにて、前記
照明動装置を動させながら、前記撮影装置14にて
撮影し、得られた複数の前記2次元画像をまず第1影像
メモリへと記憶する。これを、このときに作動させなか
った前記対象物体移動装置を、一定量だけ作動させ、前
記所定連続撮影パターンにて、前記照明動装置を作動
させながら、前記撮影装置14にて撮影し、得られた複
数の前記2次元影像の第2影像メモリへと記憶するよう
にする。 【0023】更に、本発明においては、前記第1影像メ
モリに記憶される複数の前記2次元画像、及び、前記第
2影像メモリに記憶される複数の前記2次元影像に対し
て、即ち、前記照明動装置の動又は前記対象物体移
動装置の作動に伴って得られた複数の2次元影像に対し
て、所定の画素間の微分処理を行うようにしている。
又、このような微分処理結果に対して、所定の積和演算
を行い、前記3次元対象物体の外形形状データを出力す
るようにしている。 【0024】このように、本発明においては、複数の2
次元影像を得る前述のような所定連続撮影パターンによ
る撮影を少なくとも2回行い、この結果に対する微分処
理及び積和演算を行うことで、前記3次元対象物体上に
おける、勾配パターンを得るようにしている。例えば、
前記図1におけるZ軸方向の変化量、即ち、例えば高さ
の変化量のパターンを求めるようにしている。該勾配パ
ターンは、相対量であり、例えばZ軸方向の絶対的な高
さを示す数値とは異なるものである。 【0025】本発明においては、前述のような所定連続
撮影パターンを複数回行い、この結果に対する微分処理
及び積和演算によって得られる相対値的性質を有する勾
配パターンのデータを得ることによって、例えばテンプ
レートマッチングに関するデータ等、予め用意された基
準データを用いることなく、3次元物体の外形形状を検
出することができるようにしている。 【0026】本発明においては、このように予め用意さ
れた基準データを必要としないため、例えば任意形状の
3次元物体の形状検出をも行うことができる。例えば、
任意形状の革等の被縫製物の重ね合せ部分の輪郭につい
ても、これを自動的に検出し、例えばミシンにて縫い合
わせるために用いる、その縫合軌跡データをも生成する
際に用いることができる。即ち、この場合、前述のよう
な革等の被縫製物の形状については、その概略形状等を
予め登録しておく必要もない。 【0027】 【実施例】以下、図を用いて本発明の実施例を詳細に説
明する。 【0028】図2は、本発明の3次元物体の外形形状検
出装置の実施例の構成を示すブロック図である。 【0029】この図2に示される如く、本実施例の外形
形状検出装置は、撮影装置14と、照明移動装置16
と、対象物体移動装置18と、第1影像メモリ22と、
第2影像メモリ24と、移動制御装置26と、微分演算
器32と、積和演算器34とにより構成されている。
又、本実施例の外形形状検出装置は、前記図1に示され
たような、前記3次元対象物体1を投影する前記照明装
置12をも備えている。 【0030】なお、本実施例の前記撮影装置14は、前
記図1に示される如く、当該図2には図示されない前記
3次元対象物体1を撮影する。その撮影範囲は約25cm
×16cmである。又、前記撮影装置14と前記3次元対
象物1との距離は、約50cmである。該撮影装置14の
有効画素数は640×480で、各画素について8ビッ
トの明度データを出力する。得られた画像は、(2×2
=4)画素毎に、8ビットの1画素明度データへと平均
化され、縮小する。これは、ビデオ撮像の飛越走査によ
る影響を低減するための平均化である。 【0031】本実施例において、前記照明装置12は、
対象表面上で2mmピッチのストライプ状の所定パターン
を、前記3次元対象物体1上へと投影する。ストライプ
状の該所定パターンは、そのストライプが前記図1のX
軸方向に対して直交するものとなっている。 【0032】又、本実施例において、前記照明移動装置
16は、前記3次元対象物体と前記撮影装置14との相
対位置関係を一定としたまま、前記照明装置12から前
記3次元対象物体への前記所定パターンの投影状態を変
化させるべく、前記照明装置12を、前記図1のZ軸方
向に速度v にて移動させるものである。具体的には、前
記撮影装置14にて1フレーム撮影する毎に、約200
μm 移動させるという速度である(約200μm /フレ
ームの速度)。 【0033】前記対象物体移動装置18は、前記撮影装
置14に対する前記3次元対象物体3の相対位置関係を
変化させるべく、前記図1のX軸方向へと、前記3次元
対象物体1を所定移動量だけ移動させるものである。具
体的には、該所定移動量は、約0.25mmである。該対
象物体移動装置18は、具体的には、前記3次元対象物
体1を搭載した、前記図1に示されるテーブル18a 及
び該テーブル18a をX軸方向へと移動させる駆動装置
及びこのための制御装置にて構成されている(移動分解
能約5μm )。 【0034】前記移動制御装置26は、前記照明装置1
2を速度v の一定速度にて移動させながら、前記撮影装
置14にて複数の2次元影像を撮影する、所定の連続撮
影パターンに関する制御を行う。又、該移動制御装置2
6は、このような所定連続撮影パターンを、前記対象物
体移動装置18にて、所定移動量だけ移動させながら複
数回行う際、該対象物体移動装置18の移動開始を行
う。又、このような前記照明移動装置16や前記対象物
体移動装置18の制御と共に、前述のような所定連続撮
影パターンにて得られる複数の前記2次元影像を前記第
1影像メモリ22や前記第2影像メモリ24へと記憶さ
せるための、タイミングの制御も行っている。 【0035】前記第1影像メモリ22は、前述のように
所定連続撮影パターンにて行われる前記撮影装置14に
よる撮影にて得た複数の前記2次元影像を記憶するもの
である。又、前記第2影像メモリ24は、このような前
記第1影像メモリ22への前記2次元影像の記録の後、
又、前記対象物体移動装置18にて所定移動量だけ前記
3次元対象物体1を移動させた後、前述のような所定連
続撮影パターンにて前記撮影装置14から得られた複数
の前記2次元影像を記憶するものである。なお、以降、
前記第1影像メモリ22に記憶される複数の前記2次元
影像を、第1影像群と称する。一方、前記第2影像メモ
リ24に記憶される、前述のような複数の前記2次元影
像を、以降、第2影像群と称する。 【0036】本実施例においては、前記第1影像群と前
記第2影像群とに対して、画素間についての所定の微分
処理を行う。即ち、前述のようにして得られた前記第1
影像群及び前記第2影像群に対して、後述する(20)
式〜(22)式に示されるような所定の微分処理を行
う。 【0037】又、前記積和演算器34は、前記微分演算
器32の前述のような微分処理結果に対して、所定の積
和演算を行い、前記3次元物体の外形形状データを出力
する。該積和演算器34では、具体的には、後述する
(23)式に示されるような処理を行うことによって、
前記3次元対象物体1の、前記撮影装置14から見られ
る各位置における勾配パターンに関するデータを得る。 【0038】図3は、本実施例における3次元物体の外
形形状検出処理のフローチャートである。 【0039】この図3のフローチャートにおいて、ま
ず、ステップ104では、前記第1影像群の撮影を行
う。これは、前記照明装置12にて所定パターンを投影
しながら、又、前記照明移動装置16にて、前記照明装
置12を所定の移動開始点Sから前記移動速度v にて移
動させながら、前記撮影装置14にて複数の前記2次元
影像を撮影し得るというものである。例えば、本実施例
では、該第1影像群としては、又、該第2撮像郡とし
て、前記照明装置14を約200μm 移動させる毎に1
フレーム撮影し、最終的には、それぞれの撮像群毎に、
合計128フレームの2次元影像が撮影される。 【0040】この後、ステップ106では、前記照明移
動装置16の復帰動作が行われる。該復帰動作によっ
て、前記照明装置12の位置は、前記移動開始点Sへと
復帰される。 【0041】次に、ステップ108では、前記対象物体
移動装置18にて、前記3次元対象物体1を、所定移動
量だけ移動させる。即ち、前記図1のX軸方向へと、所
定移動量、本実施例では約0.25mmだけ移動される。 【0042】ステップ112では、前記第2撮像郡とし
て、前記照明移動装置16にて前記照明装置12を前記
移動開始点Sから前記移動速度v (前記第1撮像郡と同
様、約200μm /フレーム)にて移動させながら、
又、該照明装置12にて所定パターンを投影しながら、
前記撮影装置14にて複数の前記2次元影像を得る。例
えば、本実施例では、前記第1撮像郡と同様、合計12
8フレームの2次元影像を得る。このとき得られた2次
元映像は、前記第2影像群として、前記第2影像メモリ
24へと記憶される。 【0043】続いて、ステップ114では、前記微分演
算器32によって、前記第1影像群及び前記第2影像群
に対する所定の微分処理を行う。又、ステップ116で
は、このような微分処理結果に対して、前記積和演算器
34によって、所定の積和演算を行い、前記3次元対象
物体の外形形状データを得る。 【0044】又、次のステップ118では、前記ステッ
プ116で得られた外形形状データ、即ち方向勾配パタ
ーンのデータと、所定閾値とを比較することによって、
段部の検出を行う。これは、例えば、ある革等の被縫製
物の上面に、他の革等の被縫製物が重ね合せられたもの
に対して、上側の該被縫製物の輪郭を得るというもので
ある。 【0045】又、ステップ122では、前記ステップ1
18にて得られた段部の輪郭に基づいて、ミシンにて縫
い合わせるために用いる、その縫合軌跡データを生成す
る。 【0046】以下、本実施例の原理を、数式を用いなが
ら説明する。 【0047】まず、前記図1に示される如く、前記照明
装置12にて前記3次元対象物体1へと前述のようなス
トライプ状のパターンを投影することによって、該照明
装置12から投射される光は、明暗の3次元分布を形成
する。即ち、該照明装置12から照明(投射ないしは投
影)される該照明装置12の前方では、前記3次元対象
物体1が配置されている表面のみならず、その空間に、
投影する前述のようなストライプ状のパターンに従った
光の明暗の3次元分布を形成する。 【0048】又、このような光の明暗の3次元分布は、
前記照明装置12の移動と共に移動される。即ち、前記
照明装置12をZ軸方向へと移動することによって、こ
れと平行に、前述のような光の明暗の3次元分布を移動
する。 【0049】ここで、前記照明移動装置16が原位置
(移動開始点S)であって、前記対象物体移動装置18
が原位置である初期状態、即ち移動開始時刻t =0にお
いて、前述のような光の明暗の3次元分布をi (x ,y
,z )とする。又、前記照明移動装置16にて前記照
明装置12をZ軸方向に移動するその移動速度をv とす
ると、ある時刻t における光の明暗の3次元分布は、i
(x ,y ,z −vt)と表わすことができる。又、このよ
うな光の明暗の3次元分布と前記3次元対象物体1との
交わり、即ち、i (x ,y ,z −vt)で表わされる3次
元分布によって求められる前記3次元対象物体1の表面
上の位置での空間の明るさに従って、該3次元対象物体
1の表面への入射光強度が定まる。 【0050】ここで、前記3次元対象物体1の表面の標
高分布を、基準面となるX−Y座標の関数として、h
(x ,y )とする。又、該3次元対象物体1の表面の反
射係数分布については、同じく基準面となるx −y 座標
の関数として、r (x ,y )で表わすとする。前述のよ
うな前記3次元対象物体1の表面の標高分布に従って、
該3次元対象物体1の表面への入射光強度は、i (x ,
y ,z −vt−h (x ,y))と表わすことができる。 【0051】ここで、前記3次元対象物体1の表面が完
全拡散面、即ち、入射した光が、これが特定方向からの
ものであったとしても、その反射は全方向に均一に反射
するという表面状態であったとし、又、前記照明装置1
2の所定パターンの投影方向が、Z軸方向に対してθの
角度とされていると仮定すると、前記照明装置12から
の所定パターンの投影による、前記3次元対象物体1の
表面輝度分布 f1 (x,y ,t )は、次式のように表わ
すことができる。 【0052】 f1 (x ,y ,t ) =i (x ,y ,z −vt−h (x +Δcos θ,y +Δsin θ)) ×r (x +Δcos θ,y +Δsin θ) …(1a ) 【0053】上記(1a )式について、Δが十分に小さ
いものとし、θ方向微分をとると、次式のようになる。 【0054】 f1 (x ,y ,t )= iz (x ,y ,z ) ×(z −vt− hdif ・deg (x+Δcos θ,y +Δsin θ)) ×r (x +Δcos θ,y +Δsin θ)+i (x ,y ,z ) × rdif ・deg (x +Δcos θ;y +Δsin θ) =− iz hdif ・deg + i rdif ・deg …(1b ) 【0055】従って、Taylor 展開の1次項までとるよ
うにして、 f1 (x ,y ,t )を近似すると、次式のよ
うに表わすることができる。 【0056】 f1 (x ,y ,t )〜ir+Δ(− iz hdif ・deg + i rdif ・deg ) =ir−Δ iz rhdif ・deg +Δirdif ・deg …(2) 【0057】なお、上記(1a )、(1b )、(2)式
において、添字z は、Z方向微分を表わす。添字dif ・
deg は、θ方向微分を表わす。又、上記(2)式におい
て、irは、Taylor 展開の0次項である。Δ(− iz h
dif ・deg + i rdif ・deg)は、1次項である。 【0058】上記(1)式及び(2)式で表わされる表
面輝度分布 f1 (x ,y ,t )を、前述のような前記第
1影像群に対応するものとする。このとき、前記3次元
対象物体1をZ軸方向に所定移動量だけ移動させた後の
表面輝度分布、即ち、前記第2影像群の表面輝度分布 f
2 (x ,y ,t )は、次式のように表わすことができ
る。 【0059】 f2 (x ,y ,t ) =i (x ,y ,z −vt−h (x −Δcos θ,y −Δsin θ)) ×r (x −Δcos θ,y −Δsin θ) …(3) 【0060】上記(3)式においても、前記(1)式と
同様の近似を行うことができる。即ち、上記(3)式は
次式のように近似することができる。 【0061】 f2 (x ,y ,t )〜ir+Δ iz rhdif ・deg −Δirdif ・deg …(4) 【0062】なお、前記(1)式〜(4)式において
は、前記標高分布h (x ,y )による、前記撮影装置1
4にて得られた2次元影像での位置ずれを無視するよう
にしている。前記3次元対象物体1の表面は、前記標高
分布h (x ,y )で表わされるように、その表面が凹凸
している。従って、前記撮影装置14にて得られる2次
元影像において、X−Y基準面に対するその位置での前
記3次元対象物体1の表面の位置が異なるものとなる
が、前記撮影装置14が十分遠方にあるものとし、この
ような歪みは副次的な問題であるとして無視するように
している。 【0063】次に、前記(2)式と前記(4)式の和に
ついて、次式のように f+ と定義する。 【0064】f1 + f2 = f+ …(5a ) 【0065】又、上記(5a )式に示される f+ は、次
式のように表わすことができる。 【0066】f+ =2ir …(5b ) 【0067】更に、前記(2)式と前記(4)式との差
について、次式に示すように、 f-を定義する。 【0068】 f1 − f2 = f- …(6a ) 【0069】又、上記(6a )式に示される f- は、次
式のように表わすことができる。 【0070】 f- =−2Δ iz rhdif ・deg +2Δirdif ・deg …(6b ) 【0071】まず、 f(x ,y ,t )は、次の様に微分
する。 【0072】 ft (x ,y ,t )=(δ/δt ) f(x ,y ,t ) =(δ/δt ){(x ,y ,z −vt− h(x ,y )) × r(x ,y )} = iz (x ,y ,z −vt− h(x ,y ))×(−v )× r(x ,y ) =− v iz (x ,y ,z −vt− h(x ,y ))×r (x ,y ) …(7) 【0073】上記(7)式において、 h(x ,y )を h
(x ±Δcos θ、 y±Δsin θ)に置換え、 r(x ,y
)を r(x ±Δcos θ, y±Δsin θ)に置換えたも
のが、f1t(x ,y ,t )あるいは f2t(x ,y ,t )
である。これら f1t(x ,y ,t )及び f2t(x ,y ,
t )について、前記(1)式から前記(2)式への近似
と同様に、Taylor 展開の1次項までとる近似を行う
と、次式のとおりとなる。 【0074】 f1t(x ,y ,t )〜− v iz r +Δ v izz hdif ・deg −Δ v iz rdif ・deg …(7a ) f2t(x ,y ,t )〜− v iz r +Δ v izz hdif ・deg +Δ v iz rdif ・deg …(7b ) 【0075】従って、 f1t+ f2tを ft と定義すると、
次式の様に計算することができる。 【0076】 ft = f1t+ f2t〜−2 v iz r …(8) 【0077】又、前記(6b )を、順次、次のとおり変
型する。 【0078】 f- 〜Δ(−2 v iz r ) hdif ・deg +Δ(2ir)( rdif ・deg /r ) =Δ ft hdif ・deg +Δv f+ ( rdif ・deg /r ) =ΔT ft hdif ・deg +ΔT f+ ρdif ・deg …(9) 【0079】なお、上記(9)式において、ΔT及びρ
は、それぞれ次に示すとおりである。 【0080】ΔT=Δ …(10a ) ρ=log r …(10b ) 【0081】このようにして、 f+ と f- と ft を定義
した後には、共分散行列を用いながら、方向勾配パター
ンを順次求める。ここで、時間軌跡群(時空間勾配分
布)を、3次元ベクトル( f+ , ft , f- T として
定義する。又、前記照明装置12をZ軸方向に移動しな
がら前記撮影装置14による撮影を行っている全時間、
及び着目点の近傍画素に関する、観測窓Γについて、こ
れに関する共分散行列(ベクトルS)は、次式のように
表わすことができる。 【0082】 【数1】 【0083】前述の観測窓Γの選び方については、対象
となる前記3次元対象物体1の特性等、その応用に依存
したものである。以下の説明では、前記照明装置12の
移動時間を十分に長くとるものとし、着目点となる空間
は単一画素として扱い、測定の空間分解能を重視した条
件としている。 【0084】上記(11)式に示されるS++、Stt及び
+-によって、判定量JDET を次式のように定義する。
又、該判定量JDET と所定閾値JMIN とを、次式に示さ
れるように比較することによって、有意な分布を形成す
るか判定する。即ち、3次元ベクトル( f+ , ft , f
- T が、有意な分布を形成するか否かを判定する。 【0085】 JDET =S++tt−S2 +->JMIN …(12) 【0086】上記(12)式にて棄却された場合、本実
施例においては、不定(測定不能)領域のラベルを付
し、着目点での処理を終了する。一方、上記(12)式
において有意なものとして判定された場合、所定の平面
分布を形成する際には、 f+ 、ft 、 f- の間には、何
等かの線形関係が存在することとなる。 【0087】このような線形関係が存在する場合、次式
に示す如く、前記(9)式に関する最小2乗法によっ
て、凹凸勾配 hdif ・deg 及び対数反射係数勾配ρ
dif ・degを解くことができる。 【0088】 【数2】 【0089】上記(13)式によって解かれた解は、前
述の(ベクトルS)の行列要素を用いて、次式のように
表わすことができる。 【0090】 ΔTh dif ・deg =−(S++t-−S+t+-)/JDET …(14) Δρdif ・deg =−(Stt+-−S+tt-)/JDET …(15) 【0091】ここで、上記(14)式で示されるΔTh
dif ・deg は、方向勾配パターンを表わすものである。
一方、ΔTρdif ・deg は、前記3次元対象物体1の表
面における反射係数を表わすものである。 【0092】ここで、JERR を、次式のように定義す
る。 【0093】 JERR =(ΔTh dif ・deg t-+Δρdif ・deg +-+S--)S/JDET …(16a ) 【0094】又、特定の平面分布を形成するか否かの判
定、即ち有効領域であるか否かの判定は、ΔTh
dif ・deg の誤差分散推定量JERR と閾値JMAX とによ
って、次式のように行うことができる。 【0095】JERR <JMAX …(16b ) 【0096】なお、上記(16b )式に示される判定、
及び、JDET とJERR との意味について、又、前記閾値
MAX の算出方法については、前記論文B及び論文Cに
言及されている通りである。 【0097】なお、上記(16b )式にて表面分布を形
成していないと判定される原因は、第1には、前記対象
物体移動装置18にて、前記3次元対象物体1を例えば
2Δだけ移動させた際に、 f1 (x ,y ,t )から f2
(x ,y ,t )へのシフト的画像変化2Δ iz rh
dif ・deg が、1次近似の範囲を超えることである。 【0098】ここで、f (x ,y ,t +Δt )′を次式
の如く定義する。 【0099】 f (x ,y ,t )′=f (x ,y ,t +Δt ) …(17a ) 【0100】又、前記照明装置12をZ軸方向へと移動
させながら得た複数の2次元影像でなる画像系列の時間
軸のΔt だけのシフトは、前記3次元対象物体1の表面
の標高のZ軸方向へのシフトv Δt に等しいと言える。
このため、f (x ,y ,t +Δt )及びf (x ,y ,t
)′について、次式のように表わすことができる。 【0101】 f (x ,y ,t )′ =f (x ,y ,t +Δt ) =i (x ,y ,z −vt−(h (x ,y )+v Δt ))r (x ,y ) …(17b ) 【0102】従って、前述のように平面分布が形成され
なくなってしまうことを防止するため、 f1 と f2 の標
本化時刻を互いにずらすことは有効である。このように
ずらすことによって、容易に前述のような過剰なシフト
を相殺することができる。 【0103】又、Δt を、前記照明装置12を移動しな
がら行う複数の2次元影像の撮影時間間隔の整数倍にと
るようにすれば、得られた複数の2次元影像の選択にて
対応することができる。即ち、フレーム番号等の付け替
えだけ行えばよく、再撮影の必要はない。 【0104】このため、前記(16)式の判定にて棄却
された着目点については、時刻t を順次シフトさせなが
ら、その分布の平面性の出現位置を探索するようにす
る。即ち、時刻t に対するΔt を、次式に示される如く
順次増大させつつ、前記(12)式から前記(16b )
式までの処理を、前記(16b )式にて表面分布が形成
されていると判定されるまで繰り返し、分布の平面性の
出現位置を探索するようにする。 【0105】このようにして平面性が見出された場合、
検出された凹凸勾配に、意図的なシフト量v Δt を加算
して、次式に示すように凹凸勾配を求める。 【0106】 Δt =±Δt 0 ,±2Δt 0 ,・・・,±NΔt 0 …(18) ΔT hdif ・deg ′=ΔTh dif ・deg +v Δt …(19) 【0107】このように、本実施例においては、前記
(15)式によって、あるいは、平面分布の形成が直ち
に判定されない場合には前記(19)式によって、前記
3次元対象物体1の凹凸勾配ΔTh dif ・deg (あるい
はΔTh dif ・deg ′)を求めることができる。又、該
凹凸勾配ΔTh dif ・deg を積分することによって、凹
凸勾配マップ hdif ・deg (x ,y )を求めることも可
能である。又、更に、対数反射率勾配マップρ
dif ・deg (x ,y )及び測定誤差分散マップJ
ERR (x,y )を求めることも可能である。該測定誤差
分散マップJERR (x ,y )は、最終的に得られた前述
のような凹凸勾配ΔTh dif ・deg や、前述のような凹
凸勾配マップ hdif ・deg についても、その値の信頼度
(精度)を表わすものである。 【0108】以下、前記(1)式〜(19)式を用いて
以上説明した、本実施例で行われる外形形状検出の理論
に基づいた、本実施例で実際に行われている計算機処理
を説明する。 【0109】まず、本実施例においては、前記照明装置
12をZ軸方向へと移動させながら、図4に示される第
1フレーム〜第k フレーム、第(k +1)フレーム〜第
128フレームの、複数の2次元映像の撮影を前記撮影
装置14にて行う。このようにして得られた各2次元映
像は、前記図4では、m ×n 画素で構成されるものとす
る(実際は、前述の如く、有効画素数640×480
を、2×2画素から1画素へ平均化したもの)。従っ
て、ある特定のフレームの、ある特定の画素について
は、(i ,j ,k )で表わすことができる。 【0110】又、本実施例においては、このように12
8フレームの2次元映像を得ることを、前記3次元対象
物体1のX軸方向へと所定移動量だけ移動させてから、
前述の如く都合合計2回行うものとなっている。即ち、
このようにして得られた第1回目のものは、前述の第1
映像群であり、第2回目のものは、前述の如く第2映像
群である。従って、前記第1映像群中のあるフレームの
ある画素は、 f1 (i,j ,k )と表わすことができ
る。又、前記第2映像群について、あるフレームのある
画素については、 f2 (i ,j ,k )と表わすことがで
きる。 【0111】本実施例では、式を用いて前述したような
理論に基づいたものであり、特に、ある特定画素の隣接
画素についての、前述のような観測窓Γに関して、次式
に示される如く、まず、計算機処理にて行われる差分法
によって、 f+ 、 f- 及び f t を求める。 【0112】 f+ 〜 f1 (i ,j ,k +1)+ f1 (i ,j ,k ) + f2 (i ,j ,k +1)+ f2 (i ,j ,k ) …(20) f- 〜 f1 (i ,j ,k +1)+ f1 (i ,j ,k ) − f2 (i ,j ,k +1)− f2 (i ,j ,k ) …(21) ft 〜 f1 (i ,j ,k +1)− f1 (i ,j ,k ) + f2 (i ,j ,k +1)− f2 (i ,j ,k ) …(22) 【0113】上記式にて f+ 、 f- 及び ft が求められ
れば、前記(11)式に示されるような積和演算に該当
する演算を行う。該(11)式に相当する演算は、本実
施例においては、次式に示されるような単純な積和演算
を、計算機処理として行うようにしている。 【0114】 【数3】 【0115】なお、上記(23)式に示される積和演算
以降については、乗算演算におけるデータのダイナミッ
クレンジが倍増するため、演算精度の低下を避けるた
め、本実施例においては、32ビット整数型あるいは単
精度実数型にて演算処理を行うようにしている。又、前
記(11)式や前記(23)式等によって、S++
+t、S+-・・・等が求められると、又、前記(12)
式〜(19)式に相当する演算を行うことによって、所
定の計算機処理にて前述のような凹凸勾配ΔTh dif
・deg や前述のような凹凸勾配マップ hdif ・deg (x
,y )等を求めるようにしている。 【0116】図5は、ある3次元対象物体における f1
に関する注目画素及びこれに隣接する画素を示す線図で
ある。又、図6は、これと同じ3次元対象物体の f2
注目画素及びこれに隣接する画素を示す線図である。 【0117】これら図5及び図6において、符号5で示
される注目画素に隣接する画素及び近傍の画素、合計1
6個の画素がそれぞれ示されている。又、符号3は、前
記3次元対象物体1上にある段部である。 【0118】前記図5に示される f1 の前記注目画素5
と、前記図6に示される f2 の前記注目画素5とは、互
いに対応するものとなっている。即ち、例えば、前記図
5のf1 の第k フレームの前記注目画素5と、前記図6
の f2 の第k フレームの前記注目画素5とは、その位置
及びその撮影時刻t が対応している。従って、スリット
の暗部も互いに同一箇所となっている。又、前記図5の
f1 の第(k +1)フレームの前記注目画素5と、前記
図6の f2 の第(k +1)フレームの注目画素5とにつ
いても、その画素の位置及びその撮影時刻t について、
互いに対応するものとなっている。 【0119】前記図5の f2 について、その撮影時刻t
の経過に従って、スリットの暗部は移動している。又、
前記図6の f2 についても、第k フレームと第(k +
1)フレームとでは、その撮影時刻t の経過に従って、
そのスリットの暗部の位置は移動している。 【0120】図7は、本実施例の前記3次元対象物体の
一例を示す平面図である。又、図8は、該3次元対象物
体の斜視図である。 【0121】これら図7及び図8に示される前記3次元
対象物体1は、本実施例が対象とするものの一例であ
り、革被縫製物1a の上面に対して、革被縫製物1b 及
び1cを上乗せしたものである。又、これら革被縫製物
1b 及び1c は、その重ね合せ部分の輪郭に従って、前
記革被縫製物1a に対して縫着するものである。又、前
記図3のフローチャートを用いて前述した通り、本実施
例の3次元物体の外形形状検出装置は、このような縫着
を行うための縫合軌跡データを生成するために、前述の
ような重ね合せ部分の輪郭を自動的に検出するものであ
る。 【0122】図9は、前記3次元対象物体の一例での、
段差部分検出結果を示す平面図である。 【0123】この図9においては、前記図7や前記図8
にて示した本実施例が対象とする前記3次元対象物体1
の一例について、本実施例の外形形状検出装置にて得ら
れた段部が示されている。この図9において、一点鎖線
u 、w は、左側が右側よりも高い段部である。破線1v
は、左側が右側よりも低い段部である。 【0124】このような段部検出結果は、前記図5や前
記図6に示される実際の前記3次元対象物体1に合致し
たものであり、正確な段部の検出が行われている。 【0125】なお、図10は、前記3次元対象物体の一
例に対して得られた凹凸勾配ΔTh dif ・deg を積分し
た凹凸マップ hdif ・deg (x ,y )が示されている。 【0126】この図10に示される凹凸マップ h
dif ・deg (x ,y )についても、前記図7や前記図8
に示される前記3次元対象物体1の実際の形状に合致し
たものとなっている。又、この図10においては、前記
革被縫製物1b や1c の表面状態が、前記革被縫製物1
a の表面状態に比べ、凹凸が多い状況も示されている。 【0127】以上説明した通り、本実施例の3次元物体
の外形形状検出装置によれば、本発明を適用し、前述の
ような複数の2次元影像でなる第1映像群と、同じく複
数の2次元影像でなる第2影像群とを用いて、前記微分
演算器32による微分処理や、前記積和演算器34によ
る積和演算にて、前記凹凸勾配ΔTh dif ・deg 等を求
めることができる。又、これに基づいて、重ね合せられ
た革被縫製物のその重ね合せ部分の輪郭を自動的に検出
することができる。又、これに基づいて、ミシンにて縫
い合せるために用いる、その縫合軌跡データを生成する
ことが可能である。 【0128】本実施例で用いるデータは、主として、前
記撮影装置14にて得られた前記第1影像群と前記第2
影像群に関するデータであり、従来技術が必要としてい
たような、例えばテンプレートマッチングに関するデー
タ等、予め用意された基準データを必要としない。又、
前述の如く、凹凸マップ hdif ・deg (x ,y )を求め
る際にも、例えば従来必要としていた基準面等に関する
予め用意された基準データを必要としない。 【0129】従って、本実施例によれば、前述のように
重ね合せられた革被縫製物の形状は任意のものでよく、
その形状やその形状に類似したものやこれに関するデー
タを予め用意する必要がない。従って、本実施例によれ
ば、任意形状の革等の被縫製物の重ね合せ部分の輪郭を
能率良く自動的に検出することができ、作業能率を向上
させることができる。 【0130】又、本実施例の試験によって、前述のよう
に重ね合せられた革被縫製物同士が同色であっても、効
果的にその段部が認識できることが確認されている。
又、検出できる段部の形状は、直線や曲線等、自由な形
状のものが効果的に検出することができることが確認さ
れている。又、本実施例によれば、このような革被縫製
物の輪郭形状だけでなく、自由曲面の外形も検出できる
ことが確認されている。 【0131】 【発明の効果】以上説明した通り、本発明によれば、テ
ンプレートマッチングに関するデータ等、予め用意され
た基準データを用いることなく、3次元対象物体の外形
形状をより効果的に検出することができるという優れた
効果を得ることができる。
DETAILED DESCRIPTION OF THE INVENTION [0001] BACKGROUND OF THE INVENTION 1. Field of the Invention
Automatically detects the contour of the overlapping part of the sewing object such as
With this, it is used for sewing with a sewing machine,
It can also be used to generate the suture locus data
Without using previously prepared reference data, etc.
More effectively detect the external shape of the three-dimensional object
For detecting the external shape of a three-dimensional object that can be output
I do. [0002] 2. Description of the Related Art LSI (large scale integrated circu)
it) design technology and digital circuits embedded in LSI
Various digital technologies such as design technology of LSI and LSI manufacturing technology
Technological progress is remarkable. For example, in recent years
Is a very high performance CPU (central processing
 unit) is one chip. Also, image processing, etc.
An arithmetic circuit that performs relatively special processing exclusively
An LSI is also provided. Furthermore, the storage of the semiconductor storage device
There is also a remarkable increase in capacity, and digital
Technology is rapidly evolving. In addition, the processing capability of the CPU and the like as described above is improved.
As the image processing technology advances, for example, in factories,
Parts inspection, blood cell inspection in medical field, cytology, etc.
, The number of parts in the image to be inspected, blood cells, cells
Counting the number of
I have. [0004] For inspection and object recognition by image processing,
For example, there is a technique called template matching. Obedience
The template matching that has been performed since then
Inspection of a two-dimensional template prepared in advance
Up and down in the two-dimensional image to be recognized or recognized
Moves left and right to find similarity with the template
It is to evaluate. For example,
Based on the similarity assessment performed while moving the template
And, for example, the magnitude of the value of the correlation function obtained by this
Inspecting and recognizing target images
It is. Further, a three-dimensional object can be
Examination and recognition of the body are also performed. For example, by multi-view
Multiple images obtained, for example, shot with a binocular TV camera
3D object inspection and recognition
There is something to do insight. This is, for example,
Therefore, for each of the multiple images obtained,
In addition, by performing
Of multiple template matchings obtained as
By integrating the results, the target 3D object
Inspection and recognition are performed. [0006] Inspection and recognition of such a three-dimensional object
For example, data on template matching
By comparison with the reference data
For the three-dimensional object,
Can be recognized. Also, for such a three-dimensional object,
In the inspection and recognition, so-called artificial intelligence
The use of the law is also practiced. [0007] SUMMARY OF THE INVENTION However, as described above,
Inspection and recognition of conventional three-dimensional objects, such as
Standards prepared in advance, such as data on partner matching
It was to use data and the like. For example,
Anything that is not template matching like this
The reference data was used. For example, three-dimensional
For the target object, a predetermined pattern, for example, a stripe shape
And shoot it with a binocular TV camera.
Of the external shape of a three-dimensional object using a pair of stereo images
In the past, some reference planes for 3D objects
Using data prepared in advance for
It is. As described above, the template matching
Tertiary using reference data prepared in advance, such as data to perform
There are various problems in inspecting and recognizing the original object. For example, for a target three-dimensional object
Must be specified in advance and
Data must be obtained in advance and the inspection
The objects are limited. Also within the inspection
The contents and the recognition contents are also limited. example
For example, the contour of the overlapping part of the sewing object such as leather of arbitrary shape
Automatically detects and stitches with sewing machine
To generate the suture trajectory data
It was difficult. [0010] Further, a template match as described above.
The time until the result is uncertain
And the amount of calculation increases.
For example, moving a template and evaluating its similarity
The value of the correlation function is greater than or equal to a predetermined value.
Iterative processing must be performed until a location is found.
No. The present invention is to solve the above-mentioned conventional problems.
Data on template matching.
Data without using reference data prepared in advance.
More effectively detecting the external shape of a three-dimensional target object
To provide a three-dimensional object external shape detection device capable of
With the goal. [0012] SUMMARY OF THE INVENTION The present invention providesOf three-dimensional objects
In the outer shape detection device,For a three-dimensional target object,
An illumination device for projecting a predetermined pattern, and the predetermined pattern
Is photographed of the three-dimensional object on which
An imaging device for obtaining an image, the three-dimensional object, and the imaging
The lighting device, while maintaining a relative positional relationship with the device,
Projection of the predetermined pattern from the object onto the three-dimensional object
The three-dimensional object and the imaging to change the state
Position of the lighting device with respect to the deviceIn the Z-axis directionChange
LightingTransferMoving device and the three-dimensional pair for the imaging device
The relative position of the elephant objectA predetermined amount of movement in the X-axis directionchange
The target object moving device to be
And saidClear dressPlaceMove in Z axis directionShooting while letting
Storing a plurality of the two-dimensional images obtained from the photographing device;
A first image memory, and the second image memory stored in the first image memory.
Said object which was not activated at this time after obtaining the dimensional image
Object moving deviceActivated only once,
The relative positional relationship of the three-dimensional target object
Changes once by the fixed travel distanceThe predetermined continuous shooting pattern
In the above,Clear dressPlaceMove in Z axis directionShooting while letting
And storing a plurality of the two-dimensional images obtained from the photographing device.
A second image memory, and the first image memory and the second image memory.
When obtaining a plurality of two-dimensional images stored in a two-image memory
Controlling the illumination driving device and the target object moving device
Movement control device, and the first image memory
The two-dimensional image, and stored in the second image memory
The two-dimensional imageOf performing differential processing between pixels
Calculating means for performing a product-sum operation on the differential processing result.
And output the external shape data of the three-dimensional target object
Sum of productsWith arithmetic meansBy achieving the above task
WasThings. [0013] The present invention is based on a paper including one of the inventors of the present invention.
Of the theory published in the literature, the actual shape of the three-dimensional object
This is embodied as a detection device. The argument
As a sentence, "Reconstruction of stereo images using differential
Current System ”Shigeru Ando, Transactions of the Society of Instrument and Control Engineers, 23-
4, 319/325, 1987 (hereinafter referred to as Paper A)
"Velocity vector component using spatio-temporal differentiation of image
Cloth Measurement System "Shigeru Ando, Transactions of the Society of Instrument and Trajectory Control, 2
2-12, 1330/1336, 1986
"Sentence B"); "Differential binocular stereo to detect binocular intensity difference
Visualization and Its Application to Gloss Perception "Shigeru Ando, Measurement Automatic Control
Transactions, 23-6, 619/624, 1987 (hereinafter
"The dynamic three-dimensional cumulative synthesis mechanism
Differential binocular method with Shigeru Ando and Toshiyuki Tabei, automatic measurement
Transactions of the Society of Control Engineers, 24-6, 628/634, 1988
Year (hereinafter referred to as thesis D). In the present invention, the template map
Reference data prepared in advance, such as data on
More effective external shape of 3D object without using
The theory published in the above-mentioned paper to detect
In addition, as described in detail later, a first image group and a second image group
Multiple sets of images from groups or more
I use it. These image groups are
TransferLighting device by a moving device or a target object moving device described later
ToMoveWhile moving or moving the 3D object
It is obtained. As a result, the previously prepared
Targeted with higher accuracy without using quasi-data
The external shape of the three-dimensional object can be detected. FIG. 1 is a device layout diagram showing the gist of the present invention.
is there. In FIG. 1, a three-dimensional object 1 is
On the other hand, an illumination device used in the external shape detection device of the present invention.
The arrangement of the device 12 and the photographing device 14 is shown. The one or more lighting devices 12 are tertiary.
A predetermined pattern is projected onto the original target object 1.
is there. The predetermined pattern projected by the illumination device 12
Therefore, the present invention does not specifically limit this.
The predetermined pattern is detected when one external shape is detected.
It is only necessary that the cycle is constant. For example, the predetermined pattern is a grid-like pattern.
Pattern, stripe pattern, polka dot pattern,
Or some random pattern with no periodicity
You may. The predetermined pattern to be projected is determined by detecting the outer shape.
The shape of the three-dimensional object to be output (the shape of the main object)
And arrangement position, lighting described laterTransferOf lighting system by moving device
Direction of movement of the target object moving device
It is preferable to determine in consideration of the above. For example,
LightTransferThe direction of movement of the lighting device by the
The change in the shading of the pattern
It is desirable that fineness is ensured. Note that the predetermined
For the turn, consider the resolution of the photographing device 14
Is determined. The photographing device 14 is connected to the lighting device 12.
The three-dimensional object on which the predetermined pattern is projected
A two-dimensional image is obtained by photographing the body. The photographing device
14 is, for example, a CCD (charge coupled device).
e) A television camera or the like using the method can be used. The above-mentioned place to the three-dimensional object 1 is
While projecting a fixed pattern, the second
When obtaining the original image, in the present invention,
Based on the theory indicated by D, the position of the lighting device 12
Alternatively, the tilt angle is changed. That is, the position of the lighting device 12
Is changed by the photographing device 14,
This is to obtain an original image. Got these multiple
The two-dimensional image, therefore, is
The positions of the positions 12 are different from each other, and the three-dimensional pair
The states of the patterns projected on the elephant object 1 are also different from each other.
For example, in the Z-axis direction shown in FIG.
2 to obtain a plurality of two-dimensional images
You. Further, in the present invention, the aforementioned
As described above, which is performed while changing the position of the lighting device 12.
The photographing of a plurality of two-dimensional images is performed by the photographing device 14.
Changing the relative positional relationship of the three-dimensional target object 1
I try to do it multiple times. Such two-dimensional shadows
Performing image capturing a plurality of times is described in the above articles A to D.
It has not been announced. For example, in a predetermined continuous photographing pattern,
illuminationTransferMotion deviceWorkWhile moving, with the photographing device 14
First, a plurality of two-dimensional images obtained by shooting
Store in memory. Do not activate this at this time
Operating the target object moving device by a fixed amount,
In the predetermined continuous shooting pattern, the illuminationTransferActivate the moving device
While photographing with the photographing device 14,
Storing a number of said two-dimensional images in a second image memory.
To Further, in the present invention, the first image
A plurality of the two-dimensional images stored in a memory;
2 For a plurality of the two-dimensional images stored in the image memory
I.e. the lightingTransferOf motionWorkMoving or moving the target object
For two-dimensional images obtained with the operation of the motion device
Thus, differentiation processing between predetermined pixels is performed.
Also, a predetermined product-sum operation is performed on such a differential processing result.
And output the external shape data of the three-dimensional object.
I am trying to. As described above, in the present invention, a plurality of 2
According to the aforementioned predetermined continuous photographing pattern for obtaining a two-dimensional image,
At least two times, and differentiate the results
By performing logical and product-sum operations, the three-dimensional object
To obtain a gradient pattern. For example,
The change amount in the Z-axis direction in FIG. 1, that is, for example, the height
The pattern of the amount of change is determined. The gradient
A turn is a relative quantity, for example, an absolute height in the Z-axis direction.
It is different from the numerical value indicating the value. In the present invention, the predetermined continuous
Performs a shooting pattern multiple times and differentiates the results
And a gradient with relative value property obtained by multiply-accumulate operation
By obtaining layout pattern data, for example,
Bases prepared in advance, such as data on rate matching
Detects the external shape of a three-dimensional object without using quasi-data.
To be able to get out. In the present invention, the pre-prepared
Since no reference data is required, for example,
The shape of a three-dimensional object can also be detected. For example,
The outline of the overlapping part of the sewing object such as leather of arbitrary shape
Even if this is detected automatically, the
Also generate the suture locus data used for
Can be used at the time. That is, in this case,
Regarding the shape of the sewing material such as
There is no need to register in advance. [0027] BRIEF DESCRIPTION OF THE DRAWINGS FIG.
I will tell. FIG. 2 is a diagram showing the outer shape of a three-dimensional object according to the present invention.
It is a block diagram showing composition of an example of an output device. As shown in FIG. 2, the outer shape of the present embodiment
The shape detection device includes the imaging device 14, ShineLight moving device 16
A target object moving device 18, a first image memory 22,
Second image memory 24, movement control device 26, differential operation
And a product-sum calculator 34.
Further, the external shape detecting device of the present embodiment is shown in FIG.
The illumination device for projecting the three-dimensional object 1 as described above.
A device 12 is also provided. The photographing device 14 of the present embodiment is
As shown in FIG. 1, the above-mentioned not shown in FIG.
The three-dimensional target object 1 is photographed. The shooting range is about 25cm
× 16 cm. Further, the photographing device 14 and the three-dimensional pair
The distance from the elephant 1 is about 50 cm. Of the photographing device 14
The number of effective pixels is 640 x 480, with 8 bits for each pixel.
Output the brightness data of the The obtained image is (2 × 2
= 4) For each pixel, average to 8-bit 1-pixel brightness data
And shrink. This is due to the interlaced scanning of video imaging.
Averaging to reduce the effect of In the present embodiment, the lighting device 12
Prescribed 2mm pitch stripe pattern on the surface
Is projected onto the three-dimensional target object 1. stripe
The predetermined pattern has a stripe shape of X in FIG.
It is orthogonal to the axial direction. In the present embodiment, the illumination moving device
16 is a phase between the three-dimensional object and the photographing device 14.
While keeping the positional relationship constant, the lighting device 12
The projection state of the predetermined pattern on the three-dimensional object is changed.
In order to make the lighting device 12
In the direction v. Specifically, before
Each time one frame is photographed by the photographing device 14, about 200
μm (about 200 μm / frame
Speed). The target object moving device 18 includes the photographing device.
The relative positional relationship of the three-dimensional object 3 with respect to the
In order to change, in the X-axis direction of FIG.
The target object 1 is moved by a predetermined movement amount. Ingredient
Physically, the predetermined movement amount is about 0.25 mm. The pair
The elephant object moving device 18 is, specifically, the three-dimensional object.
The table 18a and the table 18a shown in FIG.
And a driving device for moving the table 18a in the X-axis direction.
And a control device for this purpose (mobile disassembly
About 5 μm). The movement control device 26 includes the illumination device 1
2 at a constant speed of v
A plurality of two-dimensional images at a predetermined position,
Controls shadow patterns. The movement control device 2
6 shows such a predetermined continuous photographing pattern,
With the body moving device 18,
When performing several times, the movement of the target object moving device 18 is started.
U. In addition, such an illumination moving device 16 or the object
Along with the control of the body moving device 18, the predetermined continuous shooting as described above is performed.
A plurality of the two-dimensional images obtained by the shadow pattern
Stored in the first image memory 22 or the second image memory 24
It also controls the timing to make it work. The first image memory 22 is provided as described above.
For the photographing device 14 performed in a predetermined continuous photographing pattern,
For storing a plurality of two-dimensional images obtained by shooting
It is. Further, the second image memory 24 stores
After recording the two-dimensional image in the first image memory 22,
Further, the target object moving device 18 moves the predetermined amount of movement.
After moving the three-dimensional target object 1,
A plurality of images obtained from the photographing device 14 in a continuous photographing pattern
Is stored. In the following,
The plurality of two-dimensional images stored in the first image memory 22
The image is referred to as a first image group. On the other hand, the second image memo
A plurality of the two-dimensional shadows as described above stored in the
The image is hereinafter referred to as a second image group. In this embodiment, the first image group and the
A predetermined differential between pixels with respect to the second image group
Perform processing. That is, the first obtained as described above
The image group and the second image group will be described later (20).
A predetermined differentiation process as shown in Expressions (22) to (22) is performed.
U. Further, the product-sum calculator 34 calculates the differential operation.
A predetermined product is added to the differential processing result
Performs a sum operation and outputs the external shape data of the three-dimensional object
I do. Specifically, the product-sum calculator 34 will be described later.
By performing the processing as shown in Expression (23),
The three-dimensional target object 1 viewed from the photographing device 14
Data on the gradient pattern at each position. FIG. 3 is a view showing the outside of a three-dimensional object in this embodiment.
It is a flowchart of a shape detection process. In the flowchart of FIG.
In step 104, the first image group is photographed.
U. This means that the illumination device 12 projects a predetermined pattern.
Meanwhile, the lighting device is
The device 12 is moved from the predetermined moving start point S at the moving speed v.
While moving, a plurality of the two-dimensional
That is, a shadow image can be taken. For example, in this embodiment
Then, the first image group is referred to as the second imaging group.
Every time the illumination device 14 is moved by about 200 μm.
Frame shooting, and finally, for each imaging group,
A two-dimensional image of a total of 128 frames is captured. Thereafter, at step 106, the illumination transfer is performed.
The return operation of the moving device 16 is performed. The return operation
Thus, the position of the lighting device 12 is shifted to the movement start point S.
Is restored. Next, in step 108, the target object
The moving device 18 moves the three-dimensional target object 1 by a predetermined amount.
Move by the amount. That is, in the X-axis direction in FIG.
It is moved by a constant moving amount, about 0.25 mm in this embodiment. In step 112, the second imaging group is set.
Then, the lighting device 12 is
From the movement start point S to the movement speed v (same as the first imaging group)
While moving at about 200μm / frame)
Also, while projecting a predetermined pattern by the lighting device 12,
A plurality of the two-dimensional images are obtained by the photographing device. An example
For example, in the present embodiment, a total of 12
An eight-frame two-dimensional image is obtained. The secondary obtained at this time
The original image is stored in the second image memory as the second image group.
24. Subsequently, at step 114, the differential operation is performed.
The first image group and the second image group are calculated by an arithmetic unit 32.
Is subjected to a predetermined differentiation process. Also, at step 116
Is the product-sum operation unit for such a differential processing result.
34, a predetermined product-sum operation is performed, and the three-dimensional object
Obtain the external shape data of the object. In the next step 118, the above step
Shape data obtained in step 116, that is, the direction gradient pattern
By comparing the data of the
The step is detected. This is, for example, the sewing of certain leather
What is sewn, such as other leather, is superimposed on the upper surface of the object
To obtain the contour of the upper sewn object
is there. Also, in step 122, step 1
Sewing on the sewing machine based on the contour of the step
Generate the suture locus data to be used
You. Hereinafter, the principle of the present embodiment will be described with reference to mathematical expressions.
Will be described. First, as shown in FIG.
The device 12 sends the three-dimensional object 1 to the
By projecting a tripe-like pattern, the illumination
Light projected from the device 12 forms a three-dimensional distribution of light and dark
I do. That is, illumination (projection or projection) from the illumination device 12 is performed.
In front of the lighting device 12, which is shadowed, the three-dimensional object
Not only on the surface where the object 1 is placed, but also in that space,
According to the above-mentioned stripe pattern to be projected
A three-dimensional distribution of light and dark is formed. Further, such a three-dimensional distribution of light and darkness of light is as follows.
It is moved with the movement of the lighting device 12. That is,
By moving the illumination device 12 in the Z-axis direction,
In parallel with this, move the three-dimensional distribution of light intensity as described above
I do. Here, the illumination moving device 16 is located at the original position.
(Movement start point S), and the target object moving device 18
In the initial state, ie, the movement start time t = 0.
And the three-dimensional distribution of light intensity as described above is i (x, y
 , Z). Also, the illumination moving device 16 controls the illumination.
Let v be the speed at which the lighting device 12 moves in the Z-axis direction.
Then, the three-dimensional distribution of light brightness at a certain time t is i
(X, y, z−vt). Also this
Between the three-dimensional distribution of light and darkness of the light and the three-dimensional object 1
Intersection, that is, the third order represented by i (x, y, z−vt)
Surface of the three-dimensional target object 1 determined by the original distribution
The three-dimensional object according to the brightness of the space at the upper position
The intensity of light incident on the surface of No. 1 is determined. Here, the landmark on the surface of the three-dimensional object 1 is
The height distribution is expressed as a function of the XY coordinates serving as a reference plane, h
(X, y). Also, the surface of the three-dimensional object 1
X-y coordinate, which is also the reference plane
Let r (x, y) be a function of I mentioned earlier
According to the altitude distribution of the surface of the three-dimensional object 1,
The intensity of light incident on the surface of the three-dimensional target object 1 is i (x,
y, z −vt−h (x, y)). Here, the surface of the three-dimensional object 1 is completed.
The total diffusion surface, that is, the incident light
Even if it is a thing, its reflection is uniformly reflected in all directions
And the lighting device 1
2, the projection direction of the predetermined pattern is θ
Assuming that it is an angle, from the lighting device 12
Of the three-dimensional object 1 by projection of the predetermined pattern
Surface luminance distribution f1(X, y, t) is expressed as
Can be [0052]      f1(X, y, t)           = I (x, y, z − vt − h (x + Δcos θ, y + Δsin θ))             × r (x + Δcos θ, y + Δsin θ) (1a) In the above equation (1a), Δ is sufficiently small.
When the derivative in the θ direction is taken, the following equation is obtained. [0054]      f1(X, y, t) = iz(X, y, z)           × (z −vt− hdif ・ deg(x + Δcos θ, y + Δsin θ))           × r (x + Δcos θ, y + Δsin θ) + i (x, y, z)           × rdif ・ deg(X + Δcos θ; y + Δsin θ)           = −iz hdif ・ deg+ I rdif ・ deg              … (1b) Therefore, the first order term of the Taylor expansion is taken.
Then f1By approximating (x, y, t),
Can be expressed as follows. [0056]      f1(X, y, t) to ir + Δ (−iz hdif ・ deg+ I rdif ・ deg)           = Ir-Δizrhdif ・ deg+ Δirdif ・ deg            … (2) The above equations (1a), (1b) and (2)
In, the subscript z represents the Z-direction derivative. Subscript dif
deg represents the derivative in the θ direction. Also, in the above formula (2)
Ir is the zero-order term of the Taylor expansion. Δ (− iz h
dif ・ deg+ I rdif ・ deg) Is the first order term. Tables represented by the above equations (1) and (2)
Surface luminance distribution f1(X, y, t) is replaced by the first
It corresponds to one image group. At this time, the three-dimensional
After moving the target object 1 by a predetermined amount of movement in the Z-axis direction
Surface luminance distribution, that is, the surface luminance distribution f of the second image group
Two(X, y, t) can be expressed as
You. [0059]      fTwo(X, y, t)           = I (x, y, z − vt − h (x − Δcos θ, y − Δsin θ))             × r (x −Δcos θ, y −Δsin θ) (3) In the above equation (3), the above equation (1) is also used.
A similar approximation can be made. That is, the above equation (3) is
It can be approximated by the following equation. [0061]      fTwo(X, y, t)-ir + Δizrhdif ・ deg−Δirdif ・ deg  … (4) In the above equations (1) to (4),
Is the photographing device 1 based on the altitude distribution h (x, y).
Disregard the displacement in the two-dimensional image obtained in step 4.
I have to. The surface of the three-dimensional object 1 is at the elevation
As shown by the distribution h (x, y), the surface
are doing. Therefore, the second order obtained by the photographing device 14
In the original image, before that position relative to the XY reference plane
The position of the surface of the three-dimensional target object 1 is different.
However, assuming that the photographing device 14 is sufficiently far away,
Distortion is a secondary problem and should be ignored
are doing. Next, the sum of equations (2) and (4) is
Then, f+Is defined. F1+ FTwo= F+      … (5a) Further, the value of f shown in the above equation (5a)+Is
It can be expressed as an equation. F+= 2ir ... (5b) Further, the difference between the above equation (2) and the above equation (4) is obtained.
For f-Is defined. [0068] f1−fTwo= F-                    … (6a) Further, the value of f shown in the above equation (6a)-Is
It can be expressed as an equation. [0070]      f-= -2Δizrhdif ・ deg+ 2Δirdif ・ deg      … (6b) First, f (x, y, t) is differentiated as follows.
I do. [0072]      ft(X, y, t) = (δ / δt) f (x, y, t)           = (Δ / δt) {(x, y, z −vt−h (x, y))           × r (x, y)}           = Iz(X, y, z−vt−h (x, y)) × (−v) × r (x, y)           = −v iz(X, y, z−vt−h (x, y)) × r (x, y)                                                                 … (7) In the above equation (7), h (x, y) is expressed as h
(X ± Δcos θ, y ± Δsin θ), and r (x, y
 ) Is replaced by r (x ± Δcos θ, y ± Δsin θ)
Is f1t(X, y, t) or f2t(X, y, t)
It is. These f1t(X, y, t) and f2t(X, y,
t), approximation from the above equation (1) to the above equation (2)
Performs an approximation to the first order of the Taylor expansion, as in
And the following equation. [0074]      f1t(X, y, t) ~ -vizr + Δv izz hdif ・ deg                         −Δv iz rdif ・ deg              … (7a)      f2t(X, y, t) ~ -vizr + Δv izz hdif ・ deg                         + Δv iz rdif ・ deg              … (7b) Therefore, f1t+ F2tTo ftIs defined as
It can be calculated as follows. [0076] ft= F1t+ F2t~ -2 v iz r… (8) The above (6b) is sequentially changed as follows.
Type. [0078]      f-~ Δ (-2 vizr) hdif ・ deg+ Δ (2ir) (rdif ・ deg/ R)           = Δft hdif ・ deg+ Δv f+(Rdif ・ deg/ R)           = ΔT ft hdif · deg +ΔT f+ρdif ・ deg        … (9) In the above equation (9), ΔT and ρ
Are as follows. ΔT = Δ (10a) ρ = log r… (10b) Thus, f+And f-And ftDefine
After that, while using the covariance matrix,
In order. Here, the time trajectory group (spatio-temporal gradient
Cloth) into a three-dimensional vector (f+, Ft, F-)TAs
Define. Also, do not move the illumination device 12 in the Z-axis direction.
All the time during which the photographing by the photographing device 14 is performed,
And the observation window に 関 す る for the pixels near the point of interest.
The covariance matrix (vector S) for this is
Can be represented. [0082] (Equation 1) The above-mentioned method of selecting the observation window 前述
Depends on the application, such as the characteristics of the three-dimensional object 1
It was done. In the following description, the illumination device 12
Space to be a point of interest, with a sufficiently long travel time
Is treated as a single pixel, and the emphasis is placed on the spatial resolution of the measurement.
Case. The S shown in the above equation (11)++, Sttas well as
S+-By the judgment amount JDETIs defined as follows.
Also, the determination amount JDETAnd the predetermined threshold JMINAnd
Form a significant distribution by comparing
Is determined. That is, a three-dimensional vector (f+, Ft, F
-)TForm a significant distribution. [0085] JDET= S++Stt-STwo +-> JMIN      … (12) When rejected by the above equation (12),
In the examples, labels for indeterminate (measurable) areas
Then, the processing at the point of interest ends. On the other hand, the above equation (12)
If determined to be significant in the given plane
When forming the distribution, f+, Ft, F-What is in between
An equal linear relationship exists. When such a linear relationship exists, the following equation is obtained.
As shown in FIG.
And the unevenness gradient hdif ・ degAnd the logarithmic reflection coefficient gradient ρ
dif ・ degCan be solved. [0088] (Equation 2) The solution solved by the above equation (13) is
Using the matrix element of the (vector S) described above,
Can be represented. [0090]     ΔThdif ・ deg=-(S++St--S+ tS+-) / JDET      … (14)     Δρdif ・ deg=-(SttS+--S+ tSt-) / JDET        … (15) Here, ΔTh expressed by the above equation (14)
dif ・ degRepresents a directional gradient pattern.
On the other hand, ΔTρdif ・ degIs a table of the three-dimensional object 1
It represents the reflection coefficient at the surface. Here, JERRIs defined as
You. [0093]     JERR= (ΔThdif ・ degSt-+ Δρdif ・ degS+-+ S-) S / JDET                                                             … (16a) Further, it is determined whether or not to form a specific plane distribution.
Constant, that is, whether or not the area is an effective area is determined by ΔTh
dif ・ degError variance estimator JERRAnd threshold JMAXAnd by
Therefore, the following equation can be used. JERR<JMAX      … (16b) Note that the judgment shown in the above equation (16b)
And JDETAnd JERRAnd the threshold
JMAXFor the calculation method of
As mentioned. The surface distribution is expressed by the above equation (16b).
First, the cause that is determined not to be
In the object moving device 18, the three-dimensional target object 1 is
When moved by 2Δ, f1(X, y, t) to fTwo
Shift image change 2Δi to (x, y, t)zrh
dif ・ degExceeds the range of the first order approximation. Here, f (x, y, t + Δt) ′ is expressed by the following equation.
Is defined as [0099]     f (x, y, t) '= f (x, y, t + .DELTA.t) (17a) Further, the illumination device 12 is moved in the Z-axis direction.
Time of image sequence consisting of multiple 2D images obtained while performing
The shift of the axis by Δt is caused by shifting the surface of the three-dimensional object 1
Can be said to be equal to the shift v Δt of the altitude in the Z-axis direction.
For this reason, f (x, y, t + Δt) and f (x, y, t
 ) 'Can be expressed as follows: [0101]     f (x, y, t) '         = F (x, y, t + Δt)         = I (x, y, z −vt− (h (x, y) + vΔt)) r (x, y)                                                             … (17b) Therefore, the planar distribution is formed as described above.
F to prevent loss1And fTwoMark
It is effective to shift the realization times from each other. in this way
Shifting can easily cause excessive shifting as described above.
Can be offset. Further, Δt is changed while the lighting device 12 is not moved.
To an integral multiple of the time interval for capturing two-dimensional images
So that the selection of a plurality of obtained two-dimensional images
Can respond. That is, replacement of frame numbers etc.
You only need to do this, there is no need to retake. For this reason, rejection is made in the determination of the above equation (16).
For the point of interest, the time t is shifted sequentially.
Search for the position where the flatness of the distribution appears.
You. That is, Δt with respect to time t is calculated as shown in the following equation.
While gradually increasing, from the equation (12), the equation (16b)
The surface distribution is formed by the above equation (16b).
Repeat until it is determined that
Search for the appearance position. When flatness is found in this way,
Add intentional shift amount v Δt to detected unevenness gradient
Then, an unevenness gradient is obtained as shown in the following equation. [0106]     Δt = ± Δt0, ± 2Δt0, ..., ± NΔt0        … (18)     ΔThdif ・ deg'= ΔThdif ・ deg+ V Δt (19) As described above, in the present embodiment,
According to the equation (15) or the formation of the plane distribution is immediately
If not determined by the above (19),
Unevenness gradient ΔTh of the three-dimensional target object 1dif ・ deg(I want
Is ΔThdif ・ deg'). Also,
Unevenness gradient ΔThdif ・ degBy integrating
Convex gradient map hdif ・ deg(X, y) can also be calculated
Noh. Further, a logarithmic reflectance gradient map ρ
dif ・ deg(X, y) and measurement error dispersion map J
ERR(X, y) can also be determined. The measurement error
Dispersion map JERR(X, y) is the final obtained
Asperity gradient ΔThdif ・ degOr concave as described above
Convex gradient map hdif ・ degAlso the reliability of that value
(Precision). Hereinafter, using the above equations (1) to (19),
The theory of the outer shape detection performed in the present embodiment described above
Based on the computer processing actually performed in this embodiment
Will be described. First, in this embodiment, the lighting device
12 while moving it in the Z-axis direction,
1st frame to kth frame, (k + 1) th frame to
The above-mentioned shooting of a plurality of two-dimensional images of 128 frames
This is performed by the device 14. Each two-dimensional image obtained in this way
In FIG. 4, the image is composed of m × n pixels.
(Actually, as described above, the number of effective pixels is 640 × 480.
Is averaged from 2 × 2 pixels to 1 pixel). Follow
For a particular pixel in a particular frame
Can be represented by (i, j, k). In the present embodiment, as shown in FIG.
Obtaining a two-dimensional image of eight frames is based on the three-dimensional object.
After moving the object 1 in the X-axis direction by a predetermined movement amount,
As described above, the operation is performed twice in total. That is,
The first one obtained in this way is the first one described above.
The second one is the second video as described above.
Group. Therefore, a certain frame in the first video group
Some pixels have f1(I, j, k)
You. In the second video group, there is a certain frame.
For pixels, fTwo(I, j, k)
Wear. In the present embodiment, as described above using equations
It is based on theory, in particular, adjacent to a particular pixel.
For the observation window Γ as described above for pixels,
First, the difference method performed in the computer processing as shown in
By f+, F-And f tAsk for. [0112]      f+~ F1(I, j, k + 1) + f1(I, j, k)                 + FTwo(I, j, k + 1) + fTwo(I, j, k) ... (20)      f-~ F1(I, j, k + 1) + f1(I, j, k)                 −fTwo(I, j, k + 1)-fTwo(I, j, k) ... (21)      ft~ F1(I, j, k + 1)-f1(I, j, k)                 + FTwo(I, j, k + 1)-fTwo(I, j, k) ... (22) In the above equation, f+, F-And ftIs required
Then, it corresponds to the product-sum operation as shown in the above equation (11).
Perform the operation to be performed. The operation corresponding to the equation (11) is
In the embodiment, a simple multiply-accumulate operation as shown in the following equation is used.
Is performed as a computer process. [0114] (Equation 3) The product-sum operation shown in the above equation (23)
In the following, the dynamics of the data in the multiplication operation
Since the cleansing is doubled, it is necessary to
Therefore, in this embodiment, a 32-bit integer type or a single
Arithmetic processing is performed with a precision real number type. Again
By the expression (11) and the expression (23), S++,
S+ t, S+-… Etc. are required, the above (12)
By performing an operation corresponding to Expressions (19) to (19),
The constant gradient ΔThdif
・ DegAnd the unevenness gradient map hdif ・ deg(X
 , Y) and so on. FIG. 5 shows that f1
FIG. 4 is a diagram showing a pixel of interest and a pixel adjacent thereto.
is there. FIG. 6 shows the fTwoof
FIG. 3 is a diagram illustrating a target pixel and pixels adjacent thereto. In FIGS. 5 and 6, reference numeral 5 is used.
Pixels adjacent to and adjacent to the target pixel to be
Each of the six pixels is shown. Reference numeral 3 is
It is a step on the three-dimensional target object 1. The f shown in FIG.1The noted pixel 5 of
And f shown in FIG.TwoAnd the noted pixel 5 of
It has become a thing corresponding to. That is, for example,
5 f16 of the k-th frame of FIG.
The fTwoThe noted pixel 5 of the k-th frame
And its photographing time t. Therefore, the slit
Are also identical to each other. In addition, FIG.
 f1The pixel of interest 5 of the (k + 1) th frame of the
F in Figure 6TwoOf the pixel of interest 5 in the (k + 1) th frame
However, for the position of the pixel and the shooting time t,
They correspond to each other. In FIG.TwoAbout the shooting time t
As the time elapses, the dark part of the slit moves. or,
F in FIG.TwoFor the kth frame and the (k +
1) With the frame, as the shooting time t elapses,
The position of the dark part of the slit is moving. FIG. 7 shows the three-dimensional object of the present embodiment.
It is a top view showing an example. FIG. 8 shows the three-dimensional object.
It is a perspective view of a body. The three-dimensional data shown in FIG. 7 and FIG.
The target object 1 is an example of the target of the present embodiment.
And the leather sewn object 1b and the upper surface of the leather sewn object 1a.
And 1c. In addition, these leather sewing products
1b and 1c follow the contour of the overlap
The sewing is performed on the leather sewing object 1a. Again
As described above with reference to the flowchart of FIG.
The example three-dimensional object outer shape detection device uses such a sewing method.
To generate the suture trajectory data for performing
This is to automatically detect the contour of the overlapping part.
You. FIG. 9 shows an example of the three-dimensional object.
It is a top view showing a step difference detection result. In FIG. 9, FIG. 7 and FIG.
The three-dimensional target object 1 targeted by the present embodiment shown in FIG.
The example was obtained by the external shape detection device of this embodiment.
An indented step is shown. In FIG. 9, a dashed line
u and w are steps that are higher on the left than on the right. Broken line 1v
Is a step on the left side lower than the right side. The result of such step detection is shown in FIG.
The actual 3D target object 1 shown in FIG.
Therefore, accurate detection of the step is performed. FIG. 10 shows an example of the three-dimensional object.
The unevenness gradient ΔTh obtained for the example dif ・ degAnd integrate
Bumpy map hdif ・ deg(X, y) are shown. The unevenness map h shown in FIG.
dif ・ degAs for (x, y), FIG.
Matches the actual shape of the three-dimensional object 1 shown in FIG.
It has become. Also, in FIG.
The surface condition of the leather sewn object 1b or 1c
There is also shown a situation where there are more irregularities than the surface condition of a. As described above, the three-dimensional object of this embodiment
According to the external shape detection device of the present invention,
A first video group consisting of a plurality of two-dimensional images
Using a second image group consisting of a number of two-dimensional images,
The differential processing by the arithmetic unit 32 and the product-sum arithmetic unit 34
In the product-sum operation, the irregularity gradient ΔThdif ・ degAsk for etc.
Can be Also, based on this,
Automatic detection of the outline of the overlapped part of the leather sewing product
can do. Also, based on this, sewing with a sewing machine
Generate the suture locus data to be used for joining
It is possible. The data used in this embodiment is mainly
The first image group obtained by the photographing device 14 and the second image group
This is data on the image group, and requires
Such as data on template matching
It does not require reference data prepared in advance such as data. or,
As described above, the unevenness map hdif ・ deg(X, y)
For example, when using
It does not require reference data prepared in advance. Therefore, according to the present embodiment, as described above,
The shape of the superimposed leather sewn product may be arbitrary,
The shape, data similar to the shape,
There is no need to prepare the data in advance. Therefore, according to this embodiment,
For example, the contour of the overlapping part of the sewing object such as leather of arbitrary shape
Automatic detection with high efficiency and improved work efficiency
Can be done. Further, according to the test of the present embodiment,
Even if the leather sewn items superimposed on
As a result, it has been confirmed that the step can be recognized.
The shape of the step that can be detected can be any shape such as a straight line or a curve.
Shape can be detected effectively
Have been. Further, according to the present embodiment, such leather sewing
It can detect not only the contour of an object but also the outer shape of a free-form surface
That has been confirmed. [0131] As described above, according to the present invention, the
Template matching data, etc.
3D target object outline without using reference data
Excellent shape can be detected more effectively
The effect can be obtained.

【図面の簡単な説明】 【図1】本発明の3次元物体の外形形状検出装置に用い
る照明装置及び撮影装置の配置を示す側面図 【図2】本発明の3次元物体の外形形状検出装置の実施
例の構成を示すブロック図 【図3】前記実施例での外形形状検出処理を示すフロー
チャート 【図4】前記実施例の撮影装置で得られる2次元影像の
画素構成を示す線図 【図5】前記実施例の f1 に関する注目画素を示す線図 【図6】前記実施例の f2 に関する注目画素を示す線図 【図7】前記実施例が対象とする3次元対象物体の一例
の平面図 【図8】前記3次元対象物体の斜視図 【図9】前記3次元対象物体の本実施例での段部検出結
果を示す平面図 【図10】前記3次元物体の前記実施例にて得られた凹
凸マップを示す線図 【符号の説明】 1…3次元物体 3…段部 5…注目画素 12…照明装置 14…撮影装置 16…照明移動装置 18…対象物体移動装置 22…第1影像メモリ 24…第2影像メモリ 26…移動制御装置 32…微分演算器 34…積和演算器
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a side view showing an arrangement of a lighting device and a photographing device used in a three-dimensional object outer shape detection device of the present invention. FIG. 2 is a three-dimensional object outer shape detection device of the present invention. FIG. 3 is a block diagram showing a configuration of an outer shape detection process in the embodiment; FIG. 4 is a diagram showing a pixel configuration of a two-dimensional image obtained by the photographing apparatus in the embodiment; 5 is a diagram showing a pixel of interest with respect to f 1 of the embodiment. FIG. 6 is a diagram showing a pixel of interest with respect to f 2 of the embodiment. FIG. 7 is an example of a three-dimensional target object which is a target of the embodiment. FIG. 8 is a perspective view of the three-dimensional target object. FIG. 9 is a plan view showing a step detection result of the three-dimensional target object in this embodiment. FIG. 10 is a plan view of the three-dimensional object. Diagram showing the concavo-convex map obtained by the above description [Description of reference numerals] 1. Part 5: Target pixel 12: Illumination device 14: Imaging device 16: Illumination moving device 18: Target object moving device 22: First image memory 24 ... Second image memory 26: Movement control device 32: Differential calculator 34: Sum of products Arithmetic unit

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−147001(JP,A) 特開 平3−209112(JP,A) 特開 昭57−24810(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-4-147001 (JP, A) JP-A-3-209112 (JP, A) JP-A-57-24810 (JP, A) (58) Field (Int.Cl. 7 , DB name) G01B 11/00-11/30

Claims (1)

(57)【特許請求の範囲】 【請求項1】3次元対象物体に対して、所定パターンを
投影する照明装置と、 前記所定パターンが投影されている前記3次元対象物体
を撮影し、2次元影像を得る撮影装置と、 前記3次元対象物体と前記撮影装置との相対位置関係を
一定としたまま、前記照明装置から前記3次元対象物体
への前記所定パターンの投影状態を変化させるべく、前
記3次元対象物体及び前記撮影装置に対する前記照明装
置の位置をZ軸方向に変化させる照明動装置と、 前記撮影装置に対する前記3次元対象物体の相対位置関
係をX軸方向に所定移動量だけ変化させる対象物体移動
装置と、 所定連続撮影パターンにて、前記照明装置をZ軸方向に
移動させながら撮影し、前記撮影装置から得た複数の前
記2次元影像を記憶する第1影像メモリと、 該第1影像メモリに記憶する前記2次元影像を得た後、
この時に作動させなかった前記対象物体移動装置を1回
だけ作動させて、前記撮影装置に対する前記3次元対象
物体の相対位置関係をX軸方向に所定移動量だけ1回変
させ、前記所定連続撮影パターンにて、前記照明装
Z軸方向に移動させながら撮影し、前記撮影装置から
得た複数の前記2次元影像を記憶する第2影像メモリ
と、 前記第1影像メモリ及び前記第2影像メモリに記憶する
複数の前記2次元影像を得る際に、前記照明駆動装置及
び前記対象物体移動装置を制御する移動制御装置と、 前記第1影像メモリに記憶される前記2次元影像、及
び、前記第2影像メモリに記憶される前記2次元影像
対して、画素間の微分処理を行う演算手段と、 前記微分処理結果に対して積和演算処理を実施し、前期
3次元対象物体の外形形状データを出力する積和 演算手
段と を備えたことを特徴とする3次元物体の外形形状検出装
置。
(57) Claims 1. An illuminating device for projecting a predetermined pattern onto a three-dimensional target object, photographing the three-dimensional target object on which the predetermined pattern is projected, and A photographing device that obtains a shadow image, and while changing a relative position relationship between the three-dimensional target object and the photographing device, to change a projection state of the predetermined pattern from the lighting device to the three-dimensional target object, the position of the lighting device with respect to the three-dimensional object and said imaging device and an illumination moving device for varying the Z-axis direction, a predetermined amount of movement of the relative positional relationship of the three-dimensional object in the X-axis direction with respect to the imaging device changes and the target object moving device which, at a predetermined continuous shooting pattern, the irradiation AkiraSo location in the Z-axis direction
After obtaining a first image memory for storing a plurality of the two-dimensional images obtained from the image capturing apparatus while taking a picture while moving the image capturing apparatus, and obtaining the two-dimensional image to be stored in the first image memory,
The object moving apparatus once that did not operate at this time
Only actuate the three-dimensional object with respect to the imaging device
Change the relative positional relationship of the object once in the X-axis direction by a predetermined movement amount
It is of at predetermined continuous shooting pattern, the irradiation AkiraSo location shot while moving in the Z axis direction, and a second imaging memory for storing a plurality of the two-dimensional shadow image obtained from the imaging device, the first When obtaining a plurality of the two-dimensional images stored in the first image memory and the second image memory, a movement control device that controls the illumination driving device and the target object moving device, and is stored in the first image memory. the two-dimensional imaging, and, in the two-dimensional imaging to be stored in the second imaging memory
On the other hand, a calculating means for performing a differentiation process between pixels, and a product-sum calculation process on the result of the differentiation process,
Outer shape detection device of a three-dimensional object, characterized by comprising: a product-sum operation means for outputting the external shape data of a three-dimensional object.
JP02535093A 1993-02-15 1993-02-15 Apparatus for detecting external shape of three-dimensional object Expired - Fee Related JP3415868B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02535093A JP3415868B2 (en) 1993-02-15 1993-02-15 Apparatus for detecting external shape of three-dimensional object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02535093A JP3415868B2 (en) 1993-02-15 1993-02-15 Apparatus for detecting external shape of three-dimensional object

Publications (2)

Publication Number Publication Date
JPH06241748A JPH06241748A (en) 1994-09-02
JP3415868B2 true JP3415868B2 (en) 2003-06-09

Family

ID=12163423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02535093A Expired - Fee Related JP3415868B2 (en) 1993-02-15 1993-02-15 Apparatus for detecting external shape of three-dimensional object

Country Status (1)

Country Link
JP (1) JP3415868B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011194042A (en) 2010-03-19 2011-10-06 Brother Industries Ltd Sewing machine
JP2011194043A (en) 2010-03-19 2011-10-06 Brother Industries Ltd Sewing machine

Also Published As

Publication number Publication date
JPH06241748A (en) 1994-09-02

Similar Documents

Publication Publication Date Title
US20180322623A1 (en) Systems and methods for inspection and defect detection using 3-d scanning
Wöhler 3D computer vision: efficient methods and applications
Irani et al. About direct methods
Hernández et al. Non-rigid photometric stereo with colored lights
US8600192B2 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
CN101198964A (en) Creating 3D images of objects by illuminating with infrared patterns
US20130106833A1 (en) Method and apparatus for optical tracking of 3d pose using complex markers
US20120147149A1 (en) System and method for training a model in a plurality of non-perspective cameras and determining 3d pose of an object at runtime with the same
Olague et al. A new accurate and flexible model based multi-corner detector for measurement and recognition
Xiao et al. A prism-based single-lens stereovision system: From trinocular to multi-ocular
KR20180014676A (en) System and method for automatic selection of 3d alignment algorithms in a vision system
CN110398215A (en) Image processing apparatus and method, system, article manufacturing method, storage medium
JP3415868B2 (en) Apparatus for detecting external shape of three-dimensional object
Li et al. A camera on-line recalibration framework using SIFT
Shao A Monocular SLAM System Based on the ORB Features
JP3221384B2 (en) 3D coordinate measuring device
Belhumeur et al. Tracking in 3D: Image variability decomposition for recovering object pose and illumination
Nover et al. ESPReSSo: efficient slanted PatchMatch for real-time spacetime stereo
JP3253328B2 (en) Distance video input processing method
Zhang et al. Kinect-based universal range sensor for laboratory experiments
JPH05141930A (en) Three-dimensional shape measuring device
Chandrashekar et al. Structure-from-motion and RGBD depth fusion
Alhwarin Fast and robust image feature matching methods for computer vision applications
Chen et al. Automated robot-based large-scale 3D surface imaging
Pietikäinen et al. Progress in trinocular stereo

Legal Events

Date Code Title Description
S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees