JP3860525B2 - Shape recognition apparatus, shape recognition method, and recording medium recording computer program - Google Patents
Shape recognition apparatus, shape recognition method, and recording medium recording computer program Download PDFInfo
- Publication number
- JP3860525B2 JP3860525B2 JP2002265214A JP2002265214A JP3860525B2 JP 3860525 B2 JP3860525 B2 JP 3860525B2 JP 2002265214 A JP2002265214 A JP 2002265214A JP 2002265214 A JP2002265214 A JP 2002265214A JP 3860525 B2 JP3860525 B2 JP 3860525B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- dimensional
- distance
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、物体の立体形状を認識する形状認識装置に関する。
【0002】
【従来の技術】
従来、物体の3次元形状(立体形状)の認識を行う一つの方法として、光切断法が利用されている。図11は、光切断法による立体の形状認識装置の例を示す図である。図11において、形状認識装置は、回転台33に載置された形状認識対象となる物体Aと、この物体Aの表面上にスリット状のレーザ光Sを投光する投光装置32と、撮像面を物体Aに向けて配置された撮像装置(撮像CCD)34(図11には撮像面のみ図示)と、撮像装置34に接続された図示せぬプロセッサ装置(コンピュータ)とからなる。
【0003】
そして、この形状認識装置は、物体Aの形状認識を行う場合には、以下の一連の動作を行う。即ち、投光装置32からスリット状のレーザ光Sが発せられると、物体の表面には、その表面形状に沿った高輝度線Lが生じる。ここで、図11に示される例では、物体Aが球体であるので、円弧状の高輝度線Lが生じる。この高輝度線Lが撮像装置34に撮像されると、プロセッサ装置が、高輝度線L上の各点の空間座標データを物体Aの表面形状データとして算出し、図示せぬ記憶装置に格納する。
【0004】
以上の一連の動作は、回転台33を回転させることによって物体Aの表面上における高輝度線Lの位置を変えて複数回行われ、夫々の場合における各物体Aの表面形状データが図示せぬ記憶装置に記憶される。そして、図示せぬプロセッサ装置が各表面形状データ同士を物体Aに対する高輝度線Lの位置を参照しつつ組み合わせる処理や各表面形状データ間を補間する処理を行うことによって、物体Aの立体形状データが作成される。このようにして、物体Aの立体形状が認識されている。
【0005】
【発明が解決しようとする課題】
しかしながら、従来における形状認識装置には以下の問題があった。すなわち、光切断法を用いた形状認識装置では、上述したように物体Aの表面に生じる高輝度線Lの位置を変える必要があるので、形状認識装置には、上述した回転台33等の物体Aを回転させる構成,或いは、物体Aを中心として投光装置32と撮像装置34とを円軌跡を描いて周回させる構成が必要であった。
【0006】
ところが、形状認識装置に回転台33を設けた場合には、その回転台33の形状や回転台33を回転させるモータの性能によって回転台33に載置できる物体Aの制限が生じるので、形状認識装置を使用可能な物体Aが制限される場合があった。一方、形状認識装置に投光装置32と撮像装置34とを周回させる構成を設けた場合には、形状認識装置が大型化するとともに、投光装置32と撮像装置34とが周回する円の直径よりも大きい物体Aについては使用できない場合が生じていた。
【0007】
また、上述した形状認識装置の一連の動作により得られる表面形状データは、高輝度線L上の各点の空間座標データであるので、物体Aの立体形状データを得るには、多数の表面形状データを組み合わせることを必要としていた。特に、物体Aの形状が複雑である場合には、表面形状データ間の補間処理によっては適正な立体形状データを得られない場合があるので、さらに多数の表面形状データを取得する必要があった。このため、光切断法を用いた形状認識装置によって立体形状データを作成するには多くの処理や時間を要していた。
【0008】
本発明は、上記した問題に鑑みなされたものであり、立体形状認識対象となる物体を回転させる構成,或いは物体を中心として形状認識装置を周回させる構成を特に不要として小型化を図ることができ、且つ従来に比し容易に物体の立体形状データを得ることのできる形状認識装置を提供することを課題とする。
【0009】
【課題を解決するための手段】
本発明は、上述した問題を解決するために以下の構成を採用する。すなわち、本発明は、物体の立体形状を認識する装置であって、前記物体の2次元の画像データを取得する撮像手段と、前記物体と前記撮像手段との間の距離を測距データとして取得する測距手段と、前記物体の2次元の画像データを前記測距データに基づいて物体の3次元の画像データに変換する変換手段とを備える。
【0010】
本発明によれば、撮像手段が物体の2次元の画像データを取得する。また、測距手段が物体と撮像手段との間の距離を測距データとして取得する。そして、変換手段が物体の2次元の画像データを測距データに基づいて3次元の画像データに変換する。これによって、物体の3次元形状が認識される。測距データは、例えば、コンピュータが前記2次元の画像データに基づいて測距ポイントを特定し、該測距ポイントと前記2次元の画像データとを対応づけた測距ポイントデータとする。
【0011】
ここに、撮像手段には、CCDカメラやデジタルカメラ等を挙げることができる。また、測距手段は、例えば、認識対象たる物体に対して光源と撮像手段とを所定の距離をおいて配置し三角測量の原理を用いて物体と撮像手段との距離を測定する構成が好ましいが、光源から投光された光が戻ってくるまでの時間を測定しその時間に対応する距離を求める方法や、光源から物体に対する投射光と物体の反射光との位相差を測定してその位相差に対応する距離を求める方法によって物体と撮像手段との距離を測定する構成であっても良い。
【0012】
変換手段は、例えば、CPUが所定の制御プログラムを実行することによって実現される機能として構成できる。変換手段は、例えば、前記物体の2次元の画像データに基づいてこの物体の2次元の輪郭線ベクトルデータを算出し、前記輪郭線ベクトルで囲まれた領域内の境界ベクトルデータを算出するとともに、これらの輪郭線ベクトルデータ及び境界ベクトルデータを前記測距データに基づいて3次元ベクトルデータに変換することによって前記物体の3次元の画像データを得るように構成する。
【0013】
本発明は、物体の立体形状を認識する装置であって、複数の画素からなる撮像面を有し各画素毎に前記物体の2次元の画像データを夫々取得する撮像手段と、前記各画素に対応づけて前記撮像面に設定された複数の物体の測距ポイントと前記物体との距離を測距データとして夫々取得する測距手段と、前記各物体の2次元の画像データを各測距データに基づいて物体の3次元の画像データに夫々変換する変換手段とを備える。
【0014】
また、本発明による形状認識装置は、変換手段によって変換された物体の3次元の画像データを編集させる編集手段を有していても良く、物体の3次元の画像データに基づいて、テクスチャデータやカラーパレットデータを作成する手段を有していても良い。
【0015】
本発明は、物体の立体形状を認識する形状認識方法であって、前記物体を撮像することによって前記物体の2次元の画像データを取得するステップと、前記物体と前記撮像位置との間の距離を測距データとして取得するステップと、前記物体の2次元の画像データを前記測距データに基づいて物体の3次元の画像データに変換するステップとを含む。
【0016】
本発明は、物体の立体形状を認識する形状認識方法であって、複数の画素からなる撮像面を有する撮像手段によって各画素毎の前記物体の2次元の画像データを夫々取得するステップと、前記各画素に対応づけて前記撮像面に複数の物体の測距ポイントを特定するステップと、前記物体と前記測距ポイントとの距離を測距データとして夫々取得するステップと、前記物体の2次元の画像データを測距データに基づいて物体の3次元の画像データに夫々変換するステップとを含む。
【0017】
本発明による形状認識方法は、物体の3次元の画像データが、前記物体の2次元の画像データに基づいてこの物体の2次元の輪郭線ベクトルデータを算出し、前記輪郭線ベクトルで囲まれた領域内の境界ベクトルデータを算出するとともに、これらの輪郭線ベクトルデータ及び境界ベクトルデータを前記測距データに基づいて3次元ベクトルデータに変換することによって得られることを含む。
【0018】
本発明は、物体の立体形状を認識する処理を実行させるコンピュータプログラムを記録した記録媒体であって、コンピュータに、前記物体を撮像することによって得られた前記物体の2次元の画像データを読み出すステップと、前記2次元の画像データに基づいて測距ポイントを特定するステップと、前記物体と前記測距ポイントとの間の距離を測定して得られた測距データを読み出すステップと、前記物体の2次元の画像データを前記測距データに基づいて物体の3次元の画像データに変換するステップとを実行させるコンピュータプログラムを記録している。
【0019】
ここに、記録媒体には、例えば、ROM,RAM,CD−ROM,光磁気ディスク,フロッピーディスク,ハードディスク,PD,磁気テープ等の各種の記憶装置が含まれる。
【0020】
本発明は、物体の立体形状を認識する処理を実行させるコンピュータプログラムを記録した記録媒体であって、コンピュータに、複数の画素からなる撮像面を有する撮像手段によって得られた各画素毎の物体の2次元の画像データを夫々読み出すステップと、前記各画素に対応づけて前記撮像面に複数の物体の測距ポイントを特定するステップと、前記物体と前記測距ポイントとの距離を測定して得られた測距データを夫々読み出すステップと、前記各物体の2次元の画像データを各測距データに基づいて物体の3次元の画像データに夫々変換するステップとを実行させるコンピュータプログラムを記録している。
【0021】
本発明の記録媒体に記録されたコンピュータプログラムは、物体の2次元の画像データを物体の3次元の画像データに変換するステップとして、前記物体の2次元の画像データに基づいてこの物体の2次元の輪郭線ベクトルデータを算出し、前記輪郭線ベクトルで囲まれた領域内の境界ベクトルデータを算出するステップと、これらの輪郭線ベクトルデータ及び境界ベクトルデータを前記測距データに基づいて3次元ベクトルデータに変換するステップとをコンピュータに実行させる。
【0022】
【発明の実施の形態】
以下、図面を参照して、本発明の実施形態を説明する。
〈形状認識装置の構成〉
最初に、本実施形態による形状認識装置の構成を説明する。図1は、形状認識装置の構成例を示す図である。図1において、形状認識装置は、制御装置1と、この制御装置1に接続された撮像装置(撮像CCD)21,赤外光投光装置22,回転台装置23,照明装置24,ディスプレイ25,アクチュエータ26,キーボード27,及びマウス28とからなる。
【0023】
ここに、制御装置1は、CPU10と、このCPU10にバス(コントロールバス,アドレスバス,及びデータバス)Bを介して相互に接続された撮像装置ドライバ11a,A/D変換回路11b,赤外光投光装置ドライバ12,回転台装置ドライバ13,照明装置ドライバ14,表示回路15,アクチュエータドライバ16,ROM17,及びRAM18とからなる。
【0024】
撮像CCD装置21は、撮像CCD装置ドライバ11aとA/D変換回路11bとに接続され、赤外光投光装置22は、赤外光投光装置ドライバ12に接続されている。また、回転台装置23は、回転台装置ドライバ13に接続され、照明装置24は、照明装置ドライバ14に接続されている。また、ディスプレイ25は、表示回路15に接続され、アクチュエータ26は、アクチュエータドライバ16に接続されている。そして、キーボード27とマウス28とは、夫々バスBに直接接続されている。
【0025】
ROM17には、制御装置1のオペレーションシステム等の基本プログラムや形状認識装置の制御プログラム等の各種のコンピュータプログラム,及び各種プログラムの実行に際して使用されるデータが格納されている。また、RAM18は、CPU10の作業領域であり、ROM17に記憶された各種プログラムやデータが適宜ロードされる。また、RAM18は、CPU10によって処理されたデータを記憶する。また、表示回路15は、CPU10からの命令に基づいて、A/D変換回路11aによって変換された画像データや、RAM18に記憶された画像データをRGB信号に変換する。また、ディスプレイ25は、表示回路15から転送されたRGB信号に基づいてその画面に映像(画像)を表示するCRTである。さらに、キーボード27,及びマウス28は、形状認識装置の使用者が指示やデータ等を入力するための入力装置である。
【0026】
図2は、撮像装置21から形状認識対象である物体(オブジェクト)Bまでの距離を測定するための構成を示す図である。図2には、形状認識装置と物体Bとを上方から平面的に見た図が示されている。
【0027】
図2において、回転台装置23は、撮像装置21及び赤外光投光装置22の夫々と所定距離をおいて配置されている。この回転台装置23は、紙面に対して垂直に配置された回転軸(図示せず),この回転軸に取り付けられた回転台23a,図示せぬ回転軸を駆動させる駆動装置(図示せず)からなる。回転台23aの上面には、立体の形状認識対象たる物体Bが載置されている。本実施形態に係る物体Bは、直方体からその直方体より体積の小さい直方体が除かれた形状を有している(図6参照)。
【0028】
図1に示された回転台ドライバ13は、CPU10からの指示データに従って回転台装置23の図示せぬ駆動装置に制御信号を与え、図示せぬ回転軸を回転させる。これによって、回転台23aが所定の回転角度(例えば、180゜)回転し、これに伴って物体Bが回転台23aの回転角度と同じ角度だけ回転する。
【0029】
また、図2に示されるように、赤外光投光装置22は、LED22a,X−Yテーブル22b,及び投光レンズ22cからなる。X−Yテーブル22bは、物体Bに対向して配置される平面40を有しており、この平面40は、図2の紙面の左右方向(図2のY方向)と紙面に対して垂直な方向(図2のX方向)とに沿って移動可能となっている。
【0030】
LED22aは、上述した平面40上に固定した状態で設けられており、X−Yテーブル22bのX方向またはY方向への移動に伴って移動する。このLED22aは、その発光によって、物体Bに対して物体Bと撮像CCD21aの撮像面41との距離を測定するための赤外線を照射する。
【0031】
投光レンズ22cは、LED22aと物体Bとの間の光路上に配置されており、LED22aから発せられた赤外光を集光し物体Bに対して射出する。この投光レンズ22cとLED22aとは、所定の距離をおいて夫々配置されており、投光レンズ22cの射出端面から射出される赤外光の焦点は、物体Bの近傍に位置する。
【0032】
図1に示された赤外光投光装置ドライバ12は、CPU10からの指示データに従って、X−Yテーブル22bをX方向又はY方向に移動させる。これに伴って赤外光LED22aがX方向又はY方向に移動する。すると、図2に示されたLED22aから発せられた赤外光の光軸と投光レンズ22cの中心軸とがなす角度θ1が変化する。
【0033】
また、図2に示されるように、LED22aと物体Bとの光路上には、照明装置24が、図示せぬアクチュエータによって進退自在に配置されている。照明装置24は、形状認識装置が赤外光を照射する間は、LED22aと物体Bとの光路外に退避する。一方、撮像装置21によって物体Bの撮像を行う間は、照明装置24は、LED22aと物体Bとの光路上に進出するとともに、撮像CCD21aが物体Bを撮像するための白色光を物体Bに対して照射する。
【0034】
また、図2に示されるように、撮像装置21は、X−Yテーブル22bのX方向に沿って赤外光投光装置22と所定間隔をおいて配置されている。この撮像装置21は、撮像CCD21a,撮像レンズ21b,及び可視光カットフィルタ26aからなる。
【0035】
ここに、撮像CCD21aは、矩形の撮像面41を有する平板状に形成されており、撮像面41が物体Bに向けて配置されている。図3は、撮像面41の構成図である。図3において、撮像面41は、マトリックス状に配置された複数のCCD素子(画素)31からなり、図3における撮像面41の左上コーナー(図2の撮像面41の右上コーナー)をなすCCD素子31が原点(0,0)をなすCCD素子31として設定されている。また、撮像面41は、図3の紙面の左右方向が撮像面41のX方向として設定され、紙面の上下方向が撮像面41のY方向として設定されている。
【0036】
また、図3に示されるように、撮像面41には、各CCD素子31の配列に従って、隣合う4つのCCD素子31(矩形をなす4つのCCD素子31)毎に、物体Bと撮像CCD21aとの距離を測定するための測距ポイント32が設定されている。この各CCD素子31と測距ポイント32との対応は、CPU10が制御プログラムを実行する際に、測距ポイントデータとしてRAM18に格納される。
【0037】
また、本実施形態では、CCD素子31と同じ数の記憶領域からなる画像データ記憶用の表示バッファ領域がRAM18に形成されている。各CCD素子31の出力に対応する画像データは、夫々表示バッファ領域の各記憶領域に記憶される。なお、本実施形態による撮像CCD21aには、カラーCCDが用いられているが、モノクロのCCDが用いられていても良い。また、一つの測距ポイント32に対応するCCD素子31の数は適宜設定可能である。
【0038】
撮像レンズ21bは、図2に示されるように、物体Bと撮像CCD21aとの光路上に配置されている。また、この撮像レンズ21bと上述した投光レンズ22cとは、撮像レンズ21bの中心軸と投光レンズ22cの中心軸とに夫々直交する同一平面上に所定距離をおいて夫々配置されている。
【0039】
この撮像レンズ21bの入射端面には、物体Bの反射光が入射される。また、撮像レンズ21bの射出端面からの焦点位置は、撮像CCD21aの撮像面41上に設定されている。また、この撮像レンズ21bから射出される光の光軸と撮像レンズ21bの中心軸との間の角度θ2は、上述したLED22aの移動に伴う角度θ1の変動に応じて変動する。このような撮像CCD21aは、撮像面41に入射する像をCCD素子31毎に光電変換し、図1に示されるA/D変換回路11bに転送する。A/D変換回路11bは、撮像CCD21aからの出力をアナログ−デジタル変換することによって物体Bの2次元の画像データを取得する。
【0040】
可視光カットフィルタ26aは、CPU10からの命令を受けたアクチュエータ26の駆動によって、撮像CCD21aと撮像レンズ21bとの間の光路上に進退自在となっている。即ち、可視光カットフィルタ26aは、赤外光が物体Bに照射される際に、撮像レンズ21bと撮像CCD21aとの間の光路上に進出し、撮像レンズ21bから射出される物体Bの反射光から可視光成分を除去し、赤外光成分のみを撮像CCD21aに入射させる。
【0041】
CPU10は、形状認識装置の電源投入によって起動し、ROM17に記憶された制御プログラムを実行することによって、形状認識装置全体の制御を行う。具体的には、CPU10は、アクチュエータ装置ドライバ16に可視光カットフィルタ26aを進退させるための指示データを入力する処理,撮像装置ドライバ11aに物体Bの像を撮像する指示データを入力する処理,A/D変換回路11bから出力された画像データに対する処理,照明装置ドライバ14を介して照明装置24を制御する処理,アクチュエータドライバ16を介して可視光カットフィルタ26aを進退させる処理,RAM18に対して各種のデータを読み書きする処理,表示回路15に画像データを転送する処理,及びキーボード27やマウス28からの入力信号を受け付ける処理等を行う。
〈形状認識装置の動作〉
次に、上述した形状認識装置の動作を説明する。図4及び図5は、形状認識装置の動作時におけるCPU10の処理が示された流れ図である。形状認識装置は、その図示せぬ電源が投入されることによって動作を開始する。
【0042】
最初に、形状認識装置のCPU10が起動する。CPU10は、ROM17に記憶されたオペレーティングシステムに基づいて、制御装置1の各部(RAM18,各ドライバ,A/D変換回路11a等)の初期設定を行う。この初期設定が終了すると、CPU10は、ROM17に記憶された制御プログラムをRAM18にロードし、その制御プログラムを実行する。これによって、ディスプレイ25の表示画面に、例えば、「物体Bの認識処理を開始しますか?[Y/N]」の文字が表示される。
【0043】
このとき、形状認識装置の使用者が、物体Bを回転台23a上に載置し、例えば、キーボード27の「Y」のキーを押すと、物体Bの形状認識処理命令が、キーボード27,バスBを介してCPU10に入力される。これによって、CPU10が、図4に示される処理をスタートする。但し、このスタート時においては、照明装置24は、投光レンズ22cと物体Bとの光路上から退避した状態にあり、且つ、可視光カットフィルタ26aは、撮像CCD21aと撮像レンズ21bとの間の光路上から退避した状態にあるものとする。
【0044】
図4において、S001では、CPU40が、アクチュエータ装置ドライバ16に対して所定の指示データを入力する。このS001の処理によって、アクチュエータ26が駆動し、可視光カットフィルタ26aを、撮像CCD21aと撮像レンズ21bとの間の光路上に挿入させる。
【0045】
次のS002では、CPU10は、撮像装置21に撮像開始の指示データを入力する。このS002の処理によって、赤外光投光装置22のLED22aから赤外線が発せられる。この赤外線は、投光レンズ22cを介して物体Bの表面に照射される。そして、物体Bによって反射された赤外光の反射光が、撮像レンズ21b,及び可視光カットフィルタ26aを介して撮像CCD21aに入射する。これによって、撮像CCD21aが物体Bの像を撮像する。この撮像CCD21aの出力(各CCD素子31の出力)は、A/D変換回路21aによって物体Bの画像データ(各CCD素子31の輝度データ)に変換される。そして、CPU10は、各画像データを第1画像データとしてRAM18の表示用バッファ領域に格納する。
【0046】
次のS003では、CPU10は、RAM18に格納された第1画像データに基づいて、測距ポイント32の特定を行う。即ち、CPU10は、第1画像データから各CCD素子31(画素)の輝度分布を算出するとともに、各CCD素子31の輝度データの平均値をとることによって、各CCD素子31の輝度のしきい値を算出する。
【0047】
続いて、CPU10は、第1画像データをなす各CCD素子31の輝度データと算出したしきい値とを比較し、しきい値以上の輝度データを出力したCCD素子31を検出する。このとき、物体Bの反射光が入射されたCCD素子31の輝度データは、しきい値以上の値となるため、撮像CCD21aの撮像面41に投影される物体Bのおおよその輪郭が取得されることとなる。
【0048】
続いて、CPU10は、RAM18から測距ポイントデータを読み出すとともに、この測距ポイントデータに基づいて、検出した画素に対応する単数又は複数の測距ポイント32を取得する。そして、CPU10は、取得した各測距ポイント32(の位置情報)と、各測距ポイント32に囲まれた各CCD素子31の位置情報(画素の位置情報)とを対応づけて測距ポイントデータとし、各測距ポイントデータに番号をつけてRAM18に夫々格納する。このとき、CPU10は、測距ポイントデータのうち、最も若い番号のデータにおける測距ポイント32を特定する。
【0049】
次のS004では、CPU10は、S003にて特定した測距ポイント32に赤外光が当たるようにLED22aを移動させる。即ち、CPU10は、RAM18から特定した測距ポイント32の測距ポイントデータを読み出し、この測距ポイントデータに対応する指示データを赤外光投光装置ドライバ12に与える。すると、赤外光投光装置ドライバ12が、X−Yテーブル22bを移動させてLED22aを適宜の位置に配置する。これによって、LED22aから発せられる赤外光の反射光が、特定した測距ポイント32に対応する各CCD素子31に入射する。
【0050】
次のS005では、CPU10は、赤外光LED22aの位置及びS003にて特定した測距ポイント32の位置に基づいて、物体Bから撮像面41(各測距ポイント32)までの距離を測定する。即ち、CPU10は、S004の処理によって移動したLED22aの位置を取得し、このLED22aの位置情報に基づいて、LED22aから物体Bの表面に照射される赤外光の光軸と投光レンズ22cの中心軸との間の角度(図2中のθ1)を算出する。また、CPU10は、赤外線の反射光が入射する測距ポイント32のCCD素子31(画素)の位置データに基づいて、当該CCD素子31に入射する反射光の光軸と撮像レンズ21bの中心軸との間の角度(θ2)を算出する。
【0051】
続いて、CPU10は、角度θ1と,角度θ2と,投光レンズ22cから撮像レンズ21bまでの水平方向(図2の紙面の左右方向(Y方向))における距離データとに基づいて、物体Bの表面から該当する測距ポイント32までの距離を算出する。即ち、CPU10は、三角測量の原理を用いて物体Bと測距ポイント32との間の距離を測定する。そして、CPU10は、算出した各距離に測距ポイントデータの番号を対応付けて測距データとし、これらの測距データをRAM18に格納する。
【0052】
次のS006では、CPU10は、全ての測距ポイント32について測距をおこなったかの判断を行う。即ち、CPU10は、S005にて測距した測距ポイントデータ番号より大きな番号の測距ポイントデータがあるか否かを判定する。このとき、CPU10は、大きな番号の測距ポイントデータがあると判定した場合(S006;YES)には、処理をS007へ進める。
【0053】
これに対し、CPU10は、大きな番号の測距ポイントデータがないと判定した場合(S006;NO)には、処理をS003へ戻し、このS006にてYESの判定がなされるまでS003〜S006の処理を繰り返し行う。但し、2巡目以降のS003〜S006の処理は、S003にて取得された複数の測距ポイントデータのうち、前回のS003〜S006の処理対象となった測距ポイントデータの番号の次に大きい番号の測距ポイントデータに対して行われる。
【0054】
S007へ処理が進んだ場合には、CPU10は、アクチュエータドライバ16に可視光カットフィルタ26aを撮像装置21から取り出す指示データを入力する。これによって、可視光カットフィルタ26aが、アクチュエータ26の駆動によって、撮像CCD21aと撮像レンズ21bとの間の光路上から退避する。このとき、CPU10は、赤外光投光装置ドライバ12と照明装置ドライバ14とにそれぞれ命令を発する。これによって、LED22aの発光が停止する。
【0055】
次のS008では、CPU10は、撮像装置ドライバ11bと照明装置ドライバ14とにレリーズ命令を入力する。すると、照明装置24が投光レンズ22cと物体Bとの光路上に進出し、物体Bに対して白色光を照射する。これによって、物体Bによる白色光のの反射光が、撮像レンズ21bを介して撮像CCD21aの撮像面41に入射する。この撮像CCD21aからの出力(各CCD素子31(画素)の出力)は、A/D変換回路11aにおいてアナログ−デジタル変換され、1画面分の物体Bの2次元の画像データとなる。CPU10は、この画像データを第2画像データとしてRAM18の表示用バッファ領域に格納する。
【0056】
次のS009では、CPU10は、S005にて得た各測距データと画素の位置データとを関連付ける。即ち、CPU10は、各測距ポイントデータに含まれる測距ポイント32の位置情報に基づいて、第2画像データ中から該当する画素を検出する。続いて、CPU10は、検出した各画素に各測距ポイント32の測距データを対応付ける。
【0057】
次のS010では、CPU10は、物体Bの輪郭をトレースする。即ち、CPU10は、第2画像データから輝度分布を算出しその平均値をとることによって、その輝度分布からしきい値を算出する。続いて、CPU10は、画像データの原点(0,0)を起点とし、(0,1)・・・(0,n)の順で各画素の輝度値としきい値とを比較する(図3参照)。このとき、CPU10は、第0行において、最初に検出された画素,及び最後に検出された画素を検出し(この処理にて検出された画素を「輪郭画素」という。)、輪郭データとしてRAM18に格納する。CPU10は、上述した処理を第1行〜第n行についても同様に行う。
【0058】
続いて、CPU10は、画像データの原点(0,0)を起点とし、(1,0),(2,0)・・・(n,0)の順で各画素の輝度値としきい値とを比較する。この場合においても、CPU10は、第0列において、最初に検出された画素,及び最後に検出された画素を検出し(この処理にて検出された画素を「輪郭画素」という。)、輪郭データとしてRAM18に格納する。CPU10は、上述した処理を第1列〜第n列についても同様に行う。
【0059】
次のS011では、CPU10は、S010にて得た輪郭データに基づいて、物体Bの2次元の輪郭線ベクトルデータを算出する。即ち、CPU10は、各輪郭データに含まれる各輪郭画素の位置情報を、いわゆるHOUGH方程式に代入する(HOUGH変換を行う)。続いて、CPU10は、各輪郭画素についてのHOUGH方程式の計算結果を夫々比較する。そして、CPU10は、比較結果と輪郭データとに基づいて、ベクトルの始点画素及びベクトルの終点画素をそれぞれ有する物体Bの2次元の輪郭線ベクトルデータをそれぞれ算出する。
【0060】
次のS012では、CPU10は、S011にて算出した各輪郭線ベクトルデータをRAM18に格納する。図5に示されるように、次のS013では、CPU10は、S010にて検出された各輪郭画素の内部の方向に向かって、輝度の境界(物体Bの表面をなす面の境界)をトレースする。即ち、各輪郭画素に囲まれた画素とS010にて検出したしきい値とを比較して、しきい値以上の輝度値をもつ画素を検出する(この処理によって検出された画素を「境界画素」という。)。続いて、CPU10は、検出した各画素を境界データとしてRAM18に格納する。
【0061】
次のS014では、CPU10は、S013にて得た境界データに基づいて、S011と同様の手法によって、物体Bの2次元の境界ベクトルデータを算出する。即ち、CPU10は、各境界データに含まれる境界画素の位置情報を、HOUGH方程式に代入する(HOUGH変換を行う)。続いて、CPU10は、各境界画素についてのHOUGH方程式の計算結果を夫々比較する。続いて、CPU10は、この比較結果と境界データとに基づいて、ベクトルの始点画素及びベクトルの終点画素をそれぞれ有する物体Bの2次元の境界ベクトルデータを算出する。
【0062】
次のS015では、CPU10は、S014にて算出された各境界ベクトルデータをRAM18に格納する。次のS016では、CPU10は、S005にて得た測距データに基づいて、S014にて得た2次元の境界ベクトルデータを3次元ベクトル化する。即ち、CPU10は、各2次元の境界ベクトルデータの始点画素又は終点画素に対応する測距ポイント32をそれぞれ算出する。続いて、CPU10は、算出した各測距ポイント32に対応する各測距データを、当該測距ポイント32に対応する始点画素又は終点画素の位置とすることによって、3次元の境界ベクトルデータにそれぞれ変換する。
【0063】
このように、CPU10は、2次元の境界ベクトルデータ(2次元座標)を対応する測距データに基づいて、3次元の境界ベクトルデータ(3次元座標)に変換する。そして、CPU10は、各変換結果を該当する表示バッファ領域の各記憶領域に格納する。
【0064】
S017では、CPU10は、S011にて得た物体Bの2次元の輪郭線ベクトルデータを用いて物体Bのモデリングデータを作成する。即ち、CPU10は、2次元の輪郭線ベクトルデータに基づいて、輪郭線ベクトルで囲まれた画素のうち、2次元の輪郭線ベクトルに沿って位置する画素を一定間隔毎に検出する。続いて、CPU10は、検出した各画素と輪郭線ベクトルとを、測距データに基づいて3次元ベクトルデータに変換する。
【0065】
即ち、CPU10は、S016と同様の手法を用いて、2次元の輪郭線ベクトルデータ(2次元座標)を、対応する測距データに基づいて3次元の輪郭線ベクトルデータ(3次元座標)に変換する。そして、CPU10は、変換された3次元の輪郭線ベクトルデータを、該当する表示バッファ領域の各記憶領域にそれぞれ格納する。これによって、RAM18の表示用バッファ領域には、モデリングデータをなす物体Bの3次元のベクトルデータが格納されることとなる。
【0066】
次のS018では、CPU10は、S017にて得られたモデリングデータをディスプレイ25に表示する旨の命令を表示回路15に与える。これによって、物体Bの3次元画像が、ディスプレイ25に表示される。
【0067】
次のS019では、CPU10は、形状認識装置の使用者の操作指示をディスプレイ25に表示させる。即ち、CPU10は、ディスプレイ25に、例えば、「モデリングデータの編集を行う場合には“M”のキーを、細分化処理を行う場合には“S”のキーを、何れも行わない場合には“E”のキーを押して下さい」のテキスト文字をディスプレイ25に表示させる。
【0068】
次のS020では、CPU10は、キーボード27の“M”,“S”,又は“E”のキーの何れかが押されるのを受け付ける。そして、これらのキーの何れかが押された場合には、CPU10は処理をS021へ進める。次のS021では、CPU10は、“M”のキーが押されたか否かを判定する。このとき、“M”のキーが押されたと判定した場合には、CPU10は、処理をS022へ進め、モデリングデータの編集処理を行う。例えば、使用者からキーボード27又はマウス28から入力される指示に従って、モデリングデータの補正を行う処理等を行う。そして、S022の処理が終了すると、CPU10は、処理をS019へ戻す。これに対し、“M”以外のキーが押されたと判定した場合(S021;NO)には、CPU10は、処理をS023へ進める。
【0069】
S023へ処理が進んだ場合には、CPU10は、“S”のキーが押されたか否かを判定する。このとき、“S”のキーが押されたと判定した場合(S023;YES)には、CPU10は、処理をS024へ進める。これに対し、“S”のキー以外のキーが押されたと判定した場合(S023;NO)には、CPU10は、処理をS026へ進める。
【0070】
S024へ処理が進んだ場合には、CPU10は、輪郭線ベクトルと境界ベクトルとに囲まれた各面について細分化を行う。CPU10は、輪郭線ベクトルと境界ベクトルとに囲まれた部分を、画像データの列方向,行方向に一定間隔毎に画素を取り出す。CPU10は、取り出した画素にこれと対応する測距データを加える。
【0071】
S025では、CPU10は、S024の処理によって細分化された物体Bの画像データをテクスチャデータ,カラーパレットデータとしてRAM18に格納する。
【0072】
S024では、CPU10は、ディスプレイ25に、例えば「処理を終了しますか[Y/N]」のテキスト文字を表示させるとともに、キーボード27から“Y”又は“N”のキーが押されるのを待つ。そして、“Y”のキーが押された場合には、CPU10の処理が終了するとともに、形状認識装置の動作が終了する。これに対し、“N”のキーが押された場合には、CPU10は、処理をS027へ進める。
【0073】
S027では、CPU10は、ディスプレイ25に、例えば「回転台を回転させますか?[180〜359/N]」のテキスト文字を表示させるとともに、使用者から180〜359の数字及びリターンキー,又は“N”のキーが押されるのを待つ。そして、“N”のキーが押された場合(S027;NO)には、CPU10は、処理をS019へ戻す。これに対し、180〜359の何れかの数字とリターンキーとが押された場合には、CPU10は、処理をS028へ進める。
【0074】
S028へ処理が進んだ場合には、CPU10は、回転台装置ドライバ23へ命令を入力し、入力された数字に相当する回転角度だけ回転台23を回転させる。そして、CPU10は、処理をS001へ戻す。このとき、例えば、180の数字がキーボード27から入力された場合には、回転台23が180゜回転し、物体Bを180゜回転させる。この後、S001〜S026の処理が行われ、前回のS001〜026の処理によって得られたデータと組み合わせれば、RAM28には、物体Bの完全な3次元形状のモデリングデータが格納される状態となる。
〈実施形態による作用〉
次に、本実施形態による形状認識装置によって、物体Bのモデリングデータ,及びテクスチャデータ等が作成されるまでの過程を説明する。
【0075】
上述したように、物体Bの形状認識に先だって、使用者は物体Bを形状認識装置の回転台23aに載置し、キーボート27又はマウス28を介して立体形状認識を開始する旨の指示データを入力する。すると、CPU10は、図のS001,S002の処理を経て、S003〜S006までのループを繰り返す。ここで、CPU10は、物体Bと各測距ポイント32との間の測距データを取得する。
【0076】
物体Bに設定された全ての測距ポイント32に対する測距データの取得が完了したら、CPU10は、S007,S008の処理を行い、物体Bの画像データを取得する。図6は、S008の処理終了後にディスプレイ25に表示される画像データの表示例である。
【0077】
次に、CPU10は、S009〜S012までの処理を行い、取得した画像データに基づいて物体Bの輪郭線ベクトルデータを算出する。図7は、ディスプレイ装置25に表示される輪郭線ベクトルデータである。続いてCPU10は、S013〜S015までの処理を行い、境界ベクトルデータを算出する。
【0078】
続いて、CPU10は、S016〜S018までの処理を行い、輪郭線ベクトルデータに基づいてモデリングデータを作成する。図8は、S018の処理終了後にディスプレイ25に表示されるモデリングデータの画面表示例である。
【0079】
更に、CPU10は、S020にて“M”のキーが押された場合には、モデリングデータについて編集を行う(S022)。また、CPU10は、S024,S025の処理を行い、輪郭線ベクトルと境界ベクトルとに囲まれた各面を細分化して、テクスチャデータを作成する。
【0080】
このように、本実施形態によれば、物体Bの1画面分の各CCD素子31(画素)毎の画像データ(2次元画像データ)を取得するとともに、各画素に対応する測距ポイント32の測距データを取得し、各2次元の画像データを各測距データに基づいて3次元変換するすることによって、物体Bのモデリングデータを作成する。即ち、物体Bの立体形状を認識する。
【0081】
このため、従来のように物体Bを回転,又は撮像装置21等を回転させなくても物体Bの立体形状を認識することができる。また、本実施形態では、回転台装置23が設けてあるので、例えば物体を180゜回転させることによって、完全な物体Bの立体形状を認識することができる。従って、光切断法を用いた形状認識装置に比し、物体Bを回転させる回数を著しく減少させることができるとともに、形状認識装置の処理(動作)数を簡略化でき、処理時間の短縮化を図ることができる。
【0082】
ところで、本発明による形状認識装置は、上述したように、物体Bを回転させる構成(回転台装置23)等を特に必要としないので、図9に示されるように、例えば、デジタルカメラK1とこのデジタルカメラK1にケーブルC及びインターフェイス(図示せず)を介して接続されたノート型パーソナルコンピュータ(パソコン)K2とから構成することもできる。この場合には、図10に示されるように、例えば、撮像装置21,赤外光投光装置22,照明装置24,及びアクチュエータ26をデジタルカメラK1が備えるとともに、制御装置1,液晶ディスプレイ25,キーボード27,及びマウス28をパソコンK2が備えるように構成する。
【0083】
そして、デジタルカメラK1によって、上述した物体Bの2次元の画像データ(撮像CCD21aの出力)及び物体Bと測距ポイント32との距離(測距データ)とが取得され、これらのデータがパソコンK2に転送され、パソコンK2の制御装置1(CPU10)によって、デジタルカメラK1から転送された各データに基づいて物体Bの3次元の画像データ(モデリングデータ)が作成されるように構成する。このような構成とすれば、形状認識装置の小型化が図られるので、その携帯性が向上するとともに、容易に物体Bのモデリングデータを作成することが可能となる。なお、図9に示される形状認識装置において、デジタルカメラK1とパソコンK2との間のデータ転送は、無線によるものであっても良い。
【0084】
また、本発明による形状認識装置は、例えば、CCDカメラを搭載したモバイルコンピュータ(例えば、電子手帳)の記憶装置に上述した制御プログラムを記憶させることで構成することもできる。この場合には、例えば、上述したモデリングデータが作成されるまでの処理をモバイルコンピュータ上で行うように構成するのが好ましい。そして、モバイルコンピュータで作成されたモデリングデータを、パソコンやワークステーション等の上位コンピュータに転送し、これらの上位コンピュータによって実行されるモデリングソフトやCADソフト上で、モデリングデータの編集や細分化等が行われるようにしても良い。このようにすれば、形状認識装置の携帯性をさらに高めることができる。
【0085】
【発明の効果】
本発明の形状認識装置,形状認識方法,及びコンピュータプログラムを記録した記録媒体によれば、立体形状認識対象となる物体を回転させる構成,或いは物体を中心として形状認識装置を周回させる構成を特に不要として小型化を図ることができ、且つ従来に比し容易に物体の立体形状データを得ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態による形状認識装置の構成例を示す図
【図2】形状認識装置の測距を行う構成の説明図
【図3】撮像CCDの撮像面を示す図
【図4】形状認識装置のCPUの処理を示す流れ図
【図5】形状認識装置のCPUの処理を示す流れ図
【図6】ディスプレイの画面表示例
【図7】ディスプレイの画面表示例
【図8】ディスプレイの画面表示例
【図9】形状認識装置の変形例を示す図
【図10】形状認識装置の変形例を示す図
【図11】従来の形状認識装置の説明図
【符号の説明】
B 物体
K1 デジタルカメラ
K2 パーソナルコンピュータ
1 制御装置
10 CPU(変換手段)
17 ROM
18 RAM
21 撮像装置(撮像手段)
22 赤外光投光装置(測距手段)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a shape recognition device that recognizes a three-dimensional shape of an object.
[0002]
[Prior art]
Conventionally, a light cutting method has been used as one method for recognizing a three-dimensional shape (three-dimensional shape) of an object. FIG. 11 is a diagram illustrating an example of a three-dimensional shape recognition apparatus using a light cutting method. In FIG. 11, the shape recognition device includes an object A that is a shape recognition target placed on a
[0003]
The shape recognition apparatus performs the following series of operations when recognizing the shape of the object A. That is, when the slit-like laser light S is emitted from the
[0004]
The series of operations described above is performed a plurality of times by rotating the
[0005]
[Problems to be solved by the invention]
However, the conventional shape recognition apparatus has the following problems. That is, in the shape recognition device using the light cutting method, it is necessary to change the position of the high luminance line L generated on the surface of the object A as described above. A configuration in which A is rotated, or a configuration in which the
[0006]
However, when the rotary table 33 is provided in the shape recognition apparatus, the shape of the rotary table 33 and the performance of the motor that rotates the rotary table 33 limit the object A that can be placed on the rotary table 33. In some cases, the object A that can use the apparatus is limited. On the other hand, when the shape recognizing device is provided with a configuration in which the
[0007]
Further, since the surface shape data obtained by the series of operations of the shape recognition device described above is the spatial coordinate data of each point on the high luminance line L, in order to obtain the solid shape data of the object A, a number of surface shapes are obtained. We needed to combine the data. In particular, when the shape of the object A is complicated, it may be impossible to obtain appropriate three-dimensional shape data depending on the interpolation processing between the surface shape data, and thus it is necessary to acquire a larger number of surface shape data. . For this reason, a lot of processing and time are required to create the three-dimensional shape data by the shape recognition device using the light cutting method.
[0008]
The present invention has been made in view of the above-described problems, and it is possible to reduce the size by eliminating the need for a configuration that rotates an object that is a three-dimensional shape recognition target or a configuration that rotates a shape recognition device around the object. It is another object of the present invention to provide a shape recognition device that can easily obtain three-dimensional shape data of an object as compared with the prior art.
[0009]
[Means for Solving the Problems]
The present invention employs the following configuration in order to solve the above-described problems. That is, the present invention is an apparatus for recognizing a three-dimensional shape of an object, and acquires, as distance measurement data, an imaging unit that acquires two-dimensional image data of the object, and a distance between the object and the imaging unit. And ranging means for converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data.
[0010]
According to the present invention, the imaging means acquires two-dimensional image data of an object. Further, the distance measuring means acquires the distance between the object and the imaging means as distance measurement data. Then, the conversion means converts the two-dimensional image data of the object into three-dimensional image data based on the distance measurement data. Thereby, the three-dimensional shape of the object is recognized.The distance measurement data is, for example, distance measurement point data in which a computer specifies a distance measurement point based on the two-dimensional image data and associates the distance measurement point with the two-dimensional image data.
[0011]
Here, examples of the imaging means include a CCD camera and a digital camera. The distance measuring means preferably has a configuration in which, for example, the light source and the imaging means are arranged at a predetermined distance from the object to be recognized and the distance between the object and the imaging means is measured using the principle of triangulation. However, the time until the light projected from the light source returns and the distance corresponding to that time is obtained, or the phase difference between the light projected from the light source and the reflected light of the object is measured. The configuration may be such that the distance between the object and the imaging means is measured by a method for obtaining the distance corresponding to the phase difference.
[0012]
For example, the conversion unit can be configured as a function realized by the CPU executing a predetermined control program. The conversion unit calculates, for example, two-dimensional contour vector data of the object based on two-dimensional image data of the object, calculates boundary vector data in a region surrounded by the contour vector, These contour line vector data and boundary vector data are converted into three-dimensional vectors based on the distance measurement data.Convert to dataBy doing so, three-dimensional image data of the object is obtained.
[0013]
The present invention is an apparatus for recognizing a three-dimensional shape of an object, having an imaging surface composed of a plurality of pixels, and acquiring each two-dimensional image data of the object for each pixel; Ranging means for acquiring distances between the distance measuring points of the plurality of objects set on the imaging surface and the objects as distance measurement data, and two-dimensional image data of each object as distance measurement data Conversion means for converting the object into three-dimensional image data of the object.
[0014]
In addition, the shape recognition apparatus according to the present invention may include an editing unit that edits the three-dimensional image data of the object converted by the conversion unit, and based on the three-dimensional image data of the object, texture data, There may be provided means for creating color palette data.
[0015]
The present invention is a shape recognition method for recognizing a three-dimensional shape of an object, the step of acquiring two-dimensional image data of the object by imaging the object, and a distance between the object and the imaging position Are obtained as distance measurement data, and two-dimensional image data of the object is converted into three-dimensional image data of the object based on the distance measurement data.
[0016]
The present invention relates to a shape recognition method for recognizing a three-dimensional shape of an object, the step of acquiring two-dimensional image data of the object for each pixel by an imaging unit having an imaging surface composed of a plurality of pixels, Corresponding to each pixel on the imaging surfaceIdentifying ranging points for multiple objects;The object andThe distance measuring point andEach of the above-mentioned distance as distance measurement data, and the step of converting the two-dimensional image data of the object into the three-dimensional image data of the object based on the distance measurement data, respectively.Including.
[0017]
In the shape recognition method according to the present invention, three-dimensional image data of an object is calculated based on the two-dimensional image data of the object, and the two-dimensional contour vector data of the object is calculated. Boundary vector data in the area is calculated, and these contour line vector data and boundary vector data are converted into three-dimensional vectors based on the distance measurement dataConvert to dataTo be obtained by doing.
[0018]
The present invention is a recording medium recording a computer program for executing processing for recognizing a three-dimensional shape of an object, and reading out two-dimensional image data of the object obtained by imaging the object to the computer When,Identifying a ranging point based on the two-dimensional image data;The object and theRanging pointReading distance measurement data obtained by measuring the distance between the object and converting the two-dimensional image data of the object into three-dimensional image data of the object based on the distance measurement data The computer program to be recorded is recorded.
[0019]
Here, the recording medium includes various storage devices such as ROM, RAM, CD-ROM, magneto-optical disk, floppy disk, hard disk, PD, and magnetic tape.
[0020]
The present invention is a recording medium recording a computer program for executing processing for recognizing a three-dimensional shape of an object, and the computer stores an object for each pixel obtained by an imaging unit having an imaging surface composed of a plurality of pixels. A step of reading out each of the two-dimensional image data,Identifying ranging points of a plurality of objects on the imaging surface;The object andThe distance measuring point andA step of reading distance measurement data obtained by measuring the distance of the object, and a step of converting the two-dimensional image data of each object into the three-dimensional image data of the object based on the distance measurement data, respectively. The computer program to be recorded is recorded.
[0021]
The computer program recorded on the recording medium of the present invention converts the two-dimensional image data of the object into the three-dimensional image data of the object based on the two-dimensional image data of the object. And calculating boundary vector data in a region surrounded by the contour vector, and calculating the contour vector data and the boundary vector data based on the distance measurement data.Convert to dataAnd causing the computer to execute
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Configuration of shape recognition device>
First, the configuration of the shape recognition apparatus according to the present embodiment will be described. FIG. 1 is a diagram illustrating a configuration example of a shape recognition device. In FIG. 1, the shape recognition device includes a
[0023]
Here, the
[0024]
The
[0025]
The
[0026]
FIG. 2 is a diagram illustrating a configuration for measuring a distance from the
[0027]
In FIG. 2, the
[0028]
The
[0029]
As shown in FIG. 2, the infrared
[0030]
LED22a is provided in the state fixed on the
[0031]
The
[0032]
The infrared
[0033]
Further, as shown in FIG. 2, an
[0034]
As shown in FIG. 2, the
[0035]
Here, the imaging CCD 21 a is formed in a flat plate shape having a
[0036]
Further, as shown in FIG. 3, on the
[0037]
In the present embodiment, a display buffer area for storing image data composed of the same number of storage areas as the
[0038]
As shown in FIG. 2, the imaging lens 21b is disposed on the optical path between the object B and the imaging CCD 21a. The imaging lens 21b and the
[0039]
The reflected light of the object B is incident on the incident end face of the imaging lens 21b. The focal position from the exit end surface of the imaging lens 21b is set on the
[0040]
The visible light cut
[0041]
The
<Operation of shape recognition device>
Next, the operation of the shape recognition apparatus described above will be described. 4 and 5 are flowcharts showing the processing of the
[0042]
First, the
[0043]
At this time, when the user of the shape recognition apparatus places the object B on the turntable 23a and presses the “Y” key of the
[0044]
4, in S001, the
[0045]
In next S <b> 002, the
[0046]
In the next step S003, the
[0047]
Subsequently, the
[0048]
Subsequently, the
[0049]
In next S004, the
[0050]
In next S005, the
[0051]
Subsequently, the
[0052]
In next S006, the
[0053]
On the other hand, when the
[0054]
When the process proceeds to S007, the
[0055]
In the next S008, the
[0056]
In next S009, the
[0057]
In the next S010, the
[0058]
Subsequently, the
[0059]
In next S011, the
[0060]
In next S012, the
[0061]
In next S014, the
[0062]
In next S015, the
[0063]
As described above, the
[0064]
In S017, the
[0065]
That is, the
[0066]
In next S018, the
[0067]
In the next S019, the
[0068]
In the next S020, the
[0069]
When the process proceeds to S023, the
[0070]
When the process proceeds to S024, the
[0071]
In S025, the
[0072]
In S024, the
[0073]
In S027, the
[0074]
When the process proceeds to S028, the
<Operation according to the embodiment>
Next, a process until the modeling data of the object B, texture data, etc. are produced by the shape recognition apparatus by this embodiment is demonstrated.
[0075]
As described above, prior to the shape recognition of the object B, the user places the instruction data indicating that the object B is placed on the turntable 23a of the shape recognition device and the three-dimensional shape recognition is started via the
[0076]
When acquisition of distance measurement data for all distance measurement points 32 set on the object B is completed, the
[0077]
Next, the
[0078]
Subsequently, the
[0079]
Further, when the “M” key is pressed in S020, the
[0080]
As described above, according to the present embodiment, image data (two-dimensional image data) for each CCD element 31 (pixel) for one screen of the object B is acquired, and the
[0081]
For this reason, the three-dimensional shape of the object B can be recognized without rotating the object B or rotating the
[0082]
By the way, as described above, the shape recognition device according to the present invention does not particularly require a configuration for rotating the object B (the turntable device 23) or the like. Therefore, for example, as shown in FIG. It can also be constituted by a notebook personal computer (personal computer) K2 connected to the digital camera K1 via a cable C and an interface (not shown). In this case, as shown in FIG. 10, for example, the digital camera K1 includes the
[0083]
The digital camera K1 acquires the above-described two-dimensional image data of the object B (output of the imaging CCD 21a) and the distance between the object B and the ranging point 32 (ranging data), and these data are stored in the personal computer K2. The three-dimensional image data (modeling data) of the object B is created based on each data transferred from the digital camera K1 by the control device 1 (CPU 10) of the personal computer K2. With such a configuration, the shape recognition device can be downsized, so that its portability is improved and modeling data of the object B can be easily created. In the shape recognition apparatus shown in FIG. 9, data transfer between the digital camera K1 and the personal computer K2 may be performed wirelessly.
[0084]
The shape recognition apparatus according to the present invention can also be configured by storing the control program described above in a storage device of a mobile computer (for example, an electronic notebook) equipped with a CCD camera, for example. In this case, for example, it is preferable that the processing until the above-described modeling data is created is performed on the mobile computer. Then, the modeling data created on the mobile computer is transferred to a higher-level computer such as a personal computer or workstation, and the modeling data is edited or subdivided on the modeling software or CAD software executed by these higher-level computers. You may be made to be. In this way, the portability of the shape recognition device can be further enhanced.
[0085]
【The invention's effect】
According to the shape recognition device, the shape recognition method, and the recording medium storing the computer program of the present invention, there is no need for a configuration for rotating an object that is a three-dimensional shape recognition object or a configuration for rotating the shape recognition device around the object. As a result, the three-dimensional shape data of the object can be obtained more easily than in the prior art.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of a shape recognition apparatus according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram of a configuration for performing distance measurement of a shape recognition device.
FIG. 3 is a diagram showing an imaging surface of an imaging CCD
FIG. 4 is a flowchart showing processing of the CPU of the shape recognition apparatus.
FIG. 5 is a flowchart showing processing of the CPU of the shape recognition apparatus.
FIG. 6 is a screen display example of the display.
FIG. 7 is a screen display example of the display.
FIG. 8: Display screen example
FIG. 9 is a diagram showing a modification of the shape recognition device
FIG. 10 is a diagram showing a modification of the shape recognition device
FIG. 11 is an explanatory diagram of a conventional shape recognition device.
[Explanation of symbols]
B Object
K1 digital camera
K2 personal computer
1 Control device
10 CPU (conversion means)
17 ROM
18 RAM
21. Imaging device (imaging means)
22 Infrared light projector (ranging means)
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002265214A JP3860525B2 (en) | 2002-09-11 | 2002-09-11 | Shape recognition apparatus, shape recognition method, and recording medium recording computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002265214A JP3860525B2 (en) | 2002-09-11 | 2002-09-11 | Shape recognition apparatus, shape recognition method, and recording medium recording computer program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12731297A Division JP3380709B2 (en) | 1997-05-16 | 1997-05-16 | Shape recognition device, shape recognition method, and recording medium recording computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003157427A JP2003157427A (en) | 2003-05-30 |
JP3860525B2 true JP3860525B2 (en) | 2006-12-20 |
Family
ID=19196819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002265214A Expired - Lifetime JP3860525B2 (en) | 2002-09-11 | 2002-09-11 | Shape recognition apparatus, shape recognition method, and recording medium recording computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3860525B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101288971B1 (en) | 2007-02-16 | 2013-07-24 | 삼성전자주식회사 | Method and apparatus for 3 dimensional modeling using 2 dimensional images |
RU2014111793A (en) * | 2014-03-27 | 2015-10-10 | ЭлЭсАй Корпорейшн | PROCESSOR OF PROCESSING IMAGES WITH RECOGNITION OF STATIC POSES OF HAND USING TRIANGULATION AND SMOOTHING OF CIRCUITS |
CN105279293B (en) * | 2014-06-30 | 2019-02-22 | 上海神机软件有限公司 | Construction project model three-dimensional checks system and method, row's modular system and method |
-
2002
- 2002-09-11 JP JP2002265214A patent/JP3860525B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2003157427A (en) | 2003-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5453000B2 (en) | Method and apparatus for 3D digitizing an object | |
US10937179B2 (en) | System and method for 3D scene reconstruction with dual complementary pattern illumination | |
KR102461093B1 (en) | Depth image providing apparatus and method | |
US9432655B2 (en) | Three-dimensional scanner based on contours from shadow images | |
EP3007134B1 (en) | Three-dimensional scan recovery | |
US20120176380A1 (en) | Forming 3d models using periodic illumination patterns | |
US10607397B2 (en) | Generating three dimensional models | |
EP3382645B1 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
US20170019659A1 (en) | 3D scanning control apparatus based on FPGA and control method and system thereof | |
WO2015054273A2 (en) | Integrated tracking with fiducial-based modeling | |
Pagliari et al. | Kinect fusion improvement using depth camera calibration | |
JP6541920B1 (en) | INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD | |
JP2021128658A (en) | Position detection method, position detection device, and position detection system | |
US10852396B2 (en) | Turntable peripheral for 3D scanning | |
JP2006098256A (en) | Three-dimensional surface model preparing system, image processing system, program, and information recording medium | |
JP2021128660A (en) | Operation detection method, operation detection device, and display system | |
JP5059503B2 (en) | Image composition apparatus, image composition method, and image composition program | |
JP3860525B2 (en) | Shape recognition apparatus, shape recognition method, and recording medium recording computer program | |
JP2007315777A (en) | Three-dimensional shape measurement system | |
US8340466B2 (en) | Arrangement for the imaging of surface structures of three-dimensional objects | |
JP3380709B2 (en) | Shape recognition device, shape recognition method, and recording medium recording computer program | |
JP6428694B2 (en) | Projection control apparatus, program, and projection system | |
JPH06109437A (en) | Measuring apparatus of three-dimensional shape | |
JP2004170277A (en) | 3-dimensional measurement method, 3-dimensional measurement system, image processing apparatus, and computer program | |
JP3900319B2 (en) | Image measuring apparatus and image display method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050304 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050705 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050905 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20051020 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20051126 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20060118 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060412 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060921 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090929 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090929 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R360 | Written notification for declining of transfer of rights |
Free format text: JAPANESE INTERMEDIATE CODE: R360 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100929 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110929 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120929 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120929 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120929 Year of fee payment: 6 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130929 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |