JP2006003263A - Visual information processor and application system - Google Patents

Visual information processor and application system Download PDF

Info

Publication number
JP2006003263A
JP2006003263A JP2004181135A JP2004181135A JP2006003263A JP 2006003263 A JP2006003263 A JP 2006003263A JP 2004181135 A JP2004181135 A JP 2004181135A JP 2004181135 A JP2004181135 A JP 2004181135A JP 2006003263 A JP2006003263 A JP 2006003263A
Authority
JP
Japan
Prior art keywords
cad data
data
image information
point
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004181135A
Other languages
Japanese (ja)
Inventor
Keiji Tanaka
敬二 田中
Koji Kikuchi
孝司 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004181135A priority Critical patent/JP2006003263A/en
Publication of JP2006003263A publication Critical patent/JP2006003263A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a visual information processor and an application system capable of automatically generating and utilizing as-built 3D-CAD data in real time. <P>SOLUTION: The visual information processor has the function of inputting image information of a movable imaging apparatus and processes the input image to automatically generate CAD data of an object existing in a movement space, and the function of automatically updating the CAD data, and also has the function of inputting a command signal for retrieving the CAD data and retrieves the CAD data in accordance with the command signal, and the function of outputting information of the retrieved CAD data. Furthermore, a variety of autonomous control type automatic machines are made up by combining the visual information processor with a robot control device and the like. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、視覚情報処理装置と該視覚情報処理装置を適用したシステムに関するものである。特にアズビルトの3D−CADデータの自動生成やロボット等自動機械の視覚誘導制御装置や移動検査装置、監視サービスシステムに好適な視覚情報処理装置である。   The present invention relates to a visual information processing apparatus and a system to which the visual information processing apparatus is applied. In particular, this is a visual information processing device suitable for automatic generation of as-built 3D-CAD data, visual guidance control devices, mobile inspection devices, and monitoring service systems for automatic machines such as robots.

撮像装置で撮影して得た画像情報に基づいて3D−CADデータの生成手法としては、複数枚の写真から3次元の座標を求める手法がある。例えば、米国の3D Construction Companyで開発され、日本では(株)ケイ・ジー・ティーから販売されている3D Builderというソフトウェアなどがある。複数枚の写真間の対応する点をオペレータが一つ一つ入力すると、その点と撮影した撮像装置のカメラの位置と向きが3次元座標として計算され、対話形式でCADデータを作成したり、テクスチャマッピングを行なうことができる。   As a technique for generating 3D-CAD data based on image information obtained by photographing with an imaging device, there is a technique for obtaining three-dimensional coordinates from a plurality of photographs. For example, there is a software called 3D Builder, which was developed by 3D Construction Company in the US and sold in Japan by K.G. When the operator inputs corresponding points between a plurality of photos one by one, the point and the position and orientation of the camera of the imaging device that took the image are calculated as three-dimensional coordinates, and CAD data can be created interactively. Texture mapping can be performed.

また、特開2002−32741号公報および特開2002−32742号公報には、初期画像で特徴点(ウィンドウ)を指定または特徴点位置設定データに基づき最初に特徴点を最初に設定すれば、連続的に入力される画像の中で特徴点を自動追跡させて、対応点をオペレータが一つ一つ入力しないで済むようにして、3次元座標を計算し、それらの点データを結んでテクスチャマッピングを行なうことができるシステムの概念が開示されている。   In Japanese Patent Laid-Open Nos. 2002-32741 and 2002-32742, if feature points (windows) are designated in an initial image or feature points are first set based on feature point position setting data, continuous Feature points are automatically tracked in the input image, so that the operator does not have to input corresponding points one by one, three-dimensional coordinates are calculated, and the point data are connected to perform texture mapping. A concept of a system that can be disclosed is disclosed.

また、ステレオ計測の対応点探索の方法として、特公平8−16930号公報には、画像の相関をとって相関係数、残差自乗和によってマッチングの良くない箇所の対応点をオペレータが入力するようにした方法が開示されている。   In addition, as a method for searching for corresponding points in stereo measurement, Japanese Examined Patent Publication No. 8-16930 discloses the correlation between images, and an operator inputs corresponding points at locations where matching is not good due to the correlation coefficient and the sum of squared residuals. Such a method is disclosed.

特開2002−32741号公報JP 2002-32741 A 特開2002−32742号公報JP 2002-32742 A 特公平8−16930号公報Japanese Patent Publication No. 8-16930 特開平02−137072号公報Japanese Patent Laid-Open No. 02-137072

3D Builder (株)ケイ・ジー・ティーから販売されているソフトウェアSoftware sold by 3D Builder, KK TG 情報通信電子学会論文誌 D−II Vol.J80−D−II No.5 PP.1136−1143、1997年5月IEICE Transactions D-II Vol. J80-D-II No. 5 PP. 1136-1143, May 1997 情報処理学会研究報告 コンピュータビジョンとイメージメディア、No. 131-022、2001年IPSJ Research Report Computer Vision and Image Media, No. 131-022, 2001

しかしながら、複数枚の写真の中の対応する特徴点を正確に自動で探索させたり、オペレータが入力設定しないで済むようにしたり、テクスチャマッピングをしないで正確なCADデータを生成させることや、撮像装置の撮影カメラを積極的に移動させてCADデータをより正確に生成するようにすることや、ロボット等の制御にも利用できるように最初はそれなりの精度で生成させて撮影カメラを前後左右に近づけたり移動させることで精度を向上させていくことをリアルタイムで行なえるようにすることや、複数の撮影カメラを移動させて生成したCADデータを統合させることなどについては考えられていなかった。また、更にアズビルトのCADデータを生成した後あるいは生成しながら、任意のCADデータを探索させる機能と組み合わせて、ロボット等の自動機械の視覚誘導制御装置や自動車などのナビゲーションシステム、移動検査装置、監視サービスシステムなどに適用することや、自律制御型ロボットなどに適用することなども考えられていなかった。   However, a corresponding feature point in a plurality of photographs can be searched automatically and accurately, an operator can avoid input setting, accurate CAD data can be generated without texture mapping, and an imaging device The CAD camera is actively moved so that CAD data can be generated more accurately, and it can be used for control of robots, etc. so that the camera can be generated with a certain degree of accuracy at the beginning to bring the shooting camera closer to the front, back, left, and right It has not been considered to make it possible to improve the accuracy in real time by moving or moving, or to integrate CAD data generated by moving a plurality of photographing cameras. In addition, after or while generating CAD data of as-built, combined with the function to search for arbitrary CAD data, it can be combined with a function to search for arbitrary CAD data, navigation systems such as automobiles, navigation systems, mobile inspection devices, monitoring, etc. It was not considered to be applied to service systems or to autonomous control robots.

本発明の目的は、アズビルト3D−CADデータをリアルタイムで自動生成可能とし、また、CADデータの探索機能と組み合わせて、ロボット等の各種自動機械の視覚誘導制御装置として、また、ナビゲーションシステム、移動検査装置、監視サービスシステムなどとして適用可能な視覚情報処理装置およびそのシステムを提供することにある。   An object of the present invention is to enable automatic generation of as-built 3D-CAD data in real time, and in combination with a CAD data search function, as a visual guidance control device for various automatic machines such as robots, navigation systems, and mobile inspections An object of the present invention is to provide a visual information processing apparatus applicable as a device, a monitoring service system, and the like, and a system thereof.

発明者等は、前記目的を達成するための基本的な手段として、特願2002−368134号の明細書および図面に記載したような視覚情報処理装置を開発した。本発明は、この基本的な手段を基礎として更なる手段を提案するものである。   The inventors have developed a visual information processing apparatus as described in the specification and drawings of Japanese Patent Application No. 2002-368134 as a basic means for achieving the above object. The present invention proposes further means based on this basic means.

第1の手段は、移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、前記画像情報処理装置に、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能をもたせたことを特徴とする。   The first means includes an image information processing device that inputs image information obtained by photographing an object with a movable imaging device and generates CAD data of the object, and a storage device that stores the generated CAD data. In the visual information processing apparatus, the image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of already generated CAD data, and an existing target to be updated. A CAD data accuracy comparison processing function for comparing the accuracy of CAD data and new CAD data, and CAD for updating existing CAD data with new CAD data when the accuracy of new CAD data is higher than the accuracy of existing CAD data to be updated It is characterized by having a data update processing function.

この第1の手段は、視覚情報処理装置において、移動可能な撮像装置によって得た画像情報を入力とし、入力画像を処理して移動空間に存在する物体のCADデータを生成する機能をもたせたので、移動空間に存在するいろいろな物体のCADデータを容易生成することが可能となる。   This first means has a function in the visual information processing device that receives image information obtained by a movable imaging device as an input and processes the input image to generate CAD data of an object existing in the moving space. CAD data of various objects existing in the moving space can be easily generated.

また、生成された新生CADデータが既に生成されている既成CADデータの更新対象となるか否かの更新対象判別処理機能と、新生CADデータが既成CADデータの更新対象となる場合には、新生CADデータの精度と更新対象の以前に生成された既成CADデータの精度を比較して精度が良くなる場合には該CADデータを更新する機能ももたせたことによって、撮像装置が移動しながら物体に近づいて該物体のより詳細部の画像情報を得ることにより、物体のより詳細なCADデータを生成しながら更新することが可能となる。また、移動する撮像装置は、物体の上下左右および裏面の画像情報を入力することができるので、物体の正面だけの色や形状だけでなく、上下左右、更には裏面の色や形状までをCADデータとして生成することが可能となる。新生CADデータが既成CADデータの更新対象となるか否かの更新対象判別処理機能は、例えば、CADデータの生成後に、同じ個所に以前に生成されたCADデータが存在しない場合には更新対象とせずにそのままCADデータを追加し、存在する場合には更新対象とするものである。新生CADデータが既成CADデータの更新対象となった場合には新生CADデータの精度と更新対象の既成CADデータの精度を比較し、精度が良くなる場合にはCADデータを更新することにより、毎回同じ部位のCADデータが生成されてもより精度が良くなる場合以外には更新されることはなく、より精度が良くなる場合には更新されるので、この処理を繰り返し行なうようにすることで、移動空間に存在する物体は、そのCADデータが更新されるたびにより精度が良くなり、最終的には精度の良いCADデータを得ることができるようになる。このように、CADデータの精度が良くなる更新のみを行なうようになれば、CADデータは、撮像装置が対象から離れている段階で撮影して得た画像情報からはそれなりの精度で生成されるが、撮像装置が対象の近くへ寄って撮影した画像情報によれば生成精度をそれなりに上げることができるようになる。   Further, when the generated new CAD data is an update target determination function for determining whether or not the existing CAD data is already generated, and when the new CAD data is an update target of the existing CAD data, When the accuracy of the CAD data is compared with the accuracy of the existing CAD data generated before the update target and the accuracy is improved, a function for updating the CAD data is also provided. By approaching and obtaining image information of a more detailed portion of the object, it becomes possible to update while generating more detailed CAD data of the object. In addition, since the moving imaging apparatus can input image information of the top, bottom, left, and right sides and the back side of the object, not only the color and shape of the front side of the object, but also the top and bottom, left and right sides, and even the color and shape of the back side, CAD It can be generated as data. The update target determination processing function for determining whether or not the new CAD data is an update target of the existing CAD data is, for example, an update target when there is no previously generated CAD data at the same location after the CAD data is generated. CAD data is added as it is, and if it exists, it is to be updated. By comparing the accuracy of the new CAD data with the accuracy of the existing CAD data to be updated when the new CAD data is an update target of the existing CAD data, and updating the CAD data every time when the accuracy is improved, Even if CAD data of the same part is generated, it is not updated except when the accuracy is improved, and is updated when the accuracy is improved. By repeating this processing, The accuracy of the object existing in the moving space is improved every time the CAD data is updated, and finally, the CAD data with high accuracy can be obtained. As described above, if only the update that improves the accuracy of the CAD data is performed, the CAD data is generated with a certain degree of accuracy from the image information obtained when the imaging apparatus is away from the target. However, according to the image information taken by the imaging device close to the object, the generation accuracy can be improved accordingly.

運用においても、CADデータの精度が良くない場合には、例えば、遠方の対象に対する大雑把な位置決め制御にCADデータを利用することができるし、その後、近くに寄れば、精度の上がったCADデータを使用して更に精度の良い位置決め制御を行なうことが可能となるので、精度の良くない最初の段階からでもCADデータを連続的に有効に利用することが可能となる。   Even in operation, if the accuracy of the CAD data is not good, for example, the CAD data can be used for rough positioning control with respect to a distant object. Since it is possible to perform positioning control with higher accuracy by using the CAD data, CAD data can be continuously and effectively used even from the first stage with lower accuracy.

また、このようなCADデータの更新機能があれば、移動していない物体の同じ部位については、CADデータが何度生成されても同じようなCADデータが沢山蓄積されることはなく、同じような物体が幾つも生成される場合は、移動物体が含まれる場合であるので、トラッキングなどで移動前後の対応が取れるようにすることにより、煙や湯気などの動く対象物体の動きとか、移動するスポットライトあるいは移動する影などの追従も、CADデータが逐次更新されていくので、その更新履歴を参照することで、容易に行なうことが可能となる。   In addition, with such a CAD data update function, a lot of similar CAD data is not accumulated regardless of how many times CAD data is generated for the same part of a non-moving object. If a large number of objects are generated, it is a case where moving objects are included. Therefore, the movement of the moving target object such as smoke or steam moves by tracking and so on. Tracking of spotlights or moving shadows can be easily performed by referring to the update history because CAD data is sequentially updated.

第2の手段は、前記第1の手段を適用して構成した視覚情報処理装置において、CADデータは輪郭線と実際の線を区別するようにすることである。   The second means is to distinguish the contour line from the actual line in the CAD data in the visual information processing apparatus configured by applying the first means.

このような第2の手段は、前記第1の手段を適用して構成した視覚情報処理装置において、CADデータは、輪郭線と実際の線を区別するようにしていることから、物体の形状データを取り込む場合には輪郭線として検出された線もその物体の形状を示す線であるので、形状データとして蓄積しておくことができる。また、模様の線のように実際にそこに線が存在する場合の該線は、絶対的な位置の情報を有する形状データともなるし、その物体の模様を形成する模様の情報でもある。従って、生成されたCADデータで輪郭線と実際の線を区別して管理しておけば、形状データを取り扱いたい場合には、輪郭線と実際の線の両方を用いたより多くの情報を用いてより正確な形状を認識処理することが可能となる。   In such a second means, in the visual information processing apparatus configured by applying the first means, the CAD data distinguishes the contour line from the actual line. In the case of capturing a line, since the line detected as the contour line is also a line indicating the shape of the object, it can be stored as shape data. In addition, when a line actually exists like a pattern line, the line is also shape data having absolute position information, and is also pattern information forming the pattern of the object. Therefore, if the generated CAD data is managed by distinguishing between the contour line and the actual line, if you want to handle the shape data, use more information using both the contour line and the actual line. An accurate shape can be recognized and processed.

一方、パターンマッチングなどである模様を探索しようとする場合には、輪郭線のデータを一緒に取り扱うと模様にはない線が含まれてしまうので正しいマッチングがとれずに探索し難いが、そのような場合には、実際の線データのみを使用して探したい模様とのマッチングを行なえば、容易に模様を探索することができるようになる。それは、輪郭線と実際の線を区別して管理しておくので、必要な線の方だけを必要なときに効率良く使用することが可能となる。従って、模様のある物体と模様のない物体が混在する環境においても、CADデータの生成と探索を効率的に行なうことができるようになる。また、スポットライトや影の輪郭線は、それがライトが当たっている面の輪郭や当たっていない影の輪郭と分かっている場合には輪郭線になるが、光源や光源からの光を遮る物体が移動しなければ撮像装置が移動しただけでは変化しないので模様として取り扱える両方の特徴をもつので、分かった時点で実際(模様)の線から輪郭線に区別内容を変更しても良いし、光源や遮る物体が動くことが分かっていてもCADデータを利用する時間の間隔では動かない場合には、影をパターンマッチングの模様にするケースを考慮して、影等の輪郭線は、他の輪郭線や実際の線とは区別して管理するようにしても良い。   On the other hand, when trying to search for patterns that are pattern matching, etc., it is difficult to search without matching because it does not include correct lines because the data of contour lines are handled together. In this case, the pattern can be easily searched for by matching with the pattern to be searched using only the actual line data. Since the contour line and the actual line are distinguished and managed, only the necessary line can be efficiently used when necessary. Accordingly, CAD data can be efficiently generated and searched even in an environment where a patterned object and an unpatterned object are mixed. Also, the spotlight or shadow outline is an outline if it is known as the outline of the surface that the light is on or the outline of the shadow that is not, but it is an object that blocks light from the light source or light source. If it does not move, it will not change if the imaging device is moved, so it has both features that can be handled as a pattern. When it is understood, the distinction contents may be changed from the actual (pattern) line to the contour line. If it is known that the obstructing object moves but does not move at the time interval using CAD data, the shadow and other contour lines are considered as other contours in consideration of the case where the shadow is used as a pattern matching pattern. You may make it manage separately from a line or an actual line.

また、輪郭線と実際の線との区別は、異なる複数の視点から撮像して得た画像情報から当該線分の位置、具体的には線分を構成する特徴点を計測するわけであるが、輪郭線の場合は、異なる複数の視点から撮影して抽出した当該輪郭線は厳密には対象物の違う部位を同じ輪郭線として3次元計測するので、ステレオ計測であれば対応する点が厳密にはずれる(ずれに相当する誤差を有する)ことになる。実際線の場合には、そのずれは極めて小さくなる。そこで、その対応点のずれの程度を求めて、ずれが所定の大きさ以上の場合は輪郭線として、未満の場合は実際の線と区別することでも良いが、その対応点のずれの程度をCADデータに持たせて、実際の線と輪郭線と線の種類で区別するかわりに、そのずれの程度で当該線分を区別するようにしても良い。   Further, the distinction between the contour line and the actual line is that the position of the line segment, specifically, the feature points constituting the line segment is measured from image information obtained by imaging from a plurality of different viewpoints. In the case of contour lines, since the contour lines photographed and extracted from a plurality of different viewpoints are strictly measured three-dimensionally using different parts of the object as the same contour line, the corresponding points are strict in stereo measurement. (There is an error corresponding to the deviation). In the case of an actual line, the deviation is extremely small. Therefore, the degree of deviation of the corresponding point may be obtained by determining the degree of deviation of the corresponding point. Instead of giving it to the CAD data and distinguishing between the actual line, the contour line, and the line type, the line segment may be distinguished by the degree of deviation.

第3の手段は、前記第1〜第2の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに該CADデータを生成した時間に関する情報をもたせるようにすることである。   The third means is to allow the CAD information to have information relating to the time when the CAD data is generated in the visual information processing apparatus configured by selectively applying the first and second means.

このような第3の手段は、前記第1〜第2の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに生成された時間に関する情報をもたせるようにしているので、生成されたCADデータを参照したときに該CADデータが生成された時刻を参照することができるようになる。従って、例えば、現在生成した同じ場所のCADデータと前に生成されていたCADデータを比較したときに、違いがあった場合には、現在の時刻と前のCADデータに登録されていた時刻とから何時間前からの状態から変化したかということを認識することが可能となる。CADデータを生成しながら生成されているCADデータを参照する場合に、生成時刻がCADデータにあれば、どちらが先に生成されたCADデータかも確認することができる。   Such a third means is a visual information processing apparatus configured by selectively applying the first to second means, so that information relating to the time generated in the CAD data is provided. When the generated CAD data is referred to, the time when the CAD data is generated can be referred to. Therefore, for example, if there is a difference when comparing the CAD data generated at the same place with the CAD data generated before, the current time and the time registered in the previous CAD data It becomes possible to recognize how many hours ago the state has changed. When referring to CAD data generated while generating CAD data, if the generation time is in the CAD data, it can be confirmed which is the CAD data generated earlier.

第4の手段は、前記第1〜3の手段を選択的に適用して構成した視覚情報処理装置において、移動可能な撮像装置からの画像情報を入力とし、入力した画像情報を処理して移動空間に存在する物体のCADデータを自動的に生成する機能を備え、このCADデータを自動生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現するようにしたことである。   In a visual information processing apparatus configured by selectively applying the first to third means, the fourth means receives image information from a movable imaging device as an input, processes the input image information, and moves A function of automatically generating CAD data of an object existing in space is provided, and the function of automatically generating CAD data is a function of associating feature points in image information of a plurality of imaging devices captured at the same time with image information. The stereo measurement is performed from the characteristic part of the three-dimensional object, and at least three points among the points measured in stereo are tracked to follow the corresponding points in the image information due to the movement of the imaging device so as to relate the three-dimensional. This is realized by executing a method for obtaining coordinate data.

第4の手段では、前記第1〜3の手段を選択的に適用して構成した視覚情報処理装置において、移動可能な撮像装置の画像情報を入力とし、入力した画像情報を処理して移動空間に存在する物体のCADデータを自動的に生成する機能を備え、このCADデータを自動生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現するようにしたので、まずステレオ計測によって最初に撮影した画像情報の中の特徴点の3次元位置の計測が容易にでき、一度にたくさんの特徴点の3次元位置の計測ができるので、その中からもっとも計測時の精度良い安定した3点が撮像装置が移動した次の時点で撮影した画像情報の中からトラッキング抽出することができれば、3点の3次元位置の既知データがあるので移動前のカメラ座標系と移動後のカメラ座標系の座標変換を行う計算式の全ての係数は既知となるので、移動後の画像情報で計測した移動後のカメラ座標系での全ての特徴点の3次元位置情報は容易に移動前のカメラ座標系の位置情報に変換することが容易に可能となる。また、少なくとも3点のトラッキングを行うときに2次元の画像情報の中で対応する点を探索することもできるが、対応点候補が複数残ってその中の一つをプログラムにより自動的に特定できないような場合にも移動後の位置での全特徴点の3次元位置を移動後のカメラ座標系でステレオ計測で求めることができるので、複数候補の対応点の中より3点を選択して座標変換を行う計算式の全て係数を求めてその変換計算式で移動後のカメラ座標系の全特徴点を移動前の座標系に変換したときに一致する特徴点の数が一番多い3点の組み合わせが正しい対応する3点であることを容易に判定することができるので、候補点全ての3点の選択組み合わせを確認することで正しい座標変換計算式を容易に得ることができるようになり、撮像装置が移動して新たに画像情報を取り込んでいくことを繰り返すことによって、3次元空間に存在する物体の3次元CADデータを容易に生成することができるようになる。更に、同じ点と思われる特徴点を、再度、3次元計測した場合は、計測した条件に基づき計測精度がより向上する場合には当該特徴点の計測した位置情報を更新するようにすれば、撮像装置を移動して計測対象に近づくことによってより精度の良い3次元CADデータを自動的に生成できるようになる。また、毎回撮像装置が移動するごとにステレオ計測で特徴点の3次元座標を計測する方法のみでも良いが、本手段を用いれば、以前に撮影した画像情報を残しておき、前述のトラッキングによって残しておいた画像情報を撮影した位置から十分離れた位置へ移動したときの撮像画像情報を用いてあらためて3次元計測を行うこともできるので、より計測精度を向上させることができる。この場合、撮像装置の位置がステレオ計測を行っている撮像装置間の間隔より十分広い間隔で再度3次元計測ができるので、計測精度を容易に向上させることができる。   In the fourth means, in the visual information processing apparatus configured by selectively applying the first to third means, the image information of the movable imaging device is input, the input image information is processed, and the moving space is processed. The function of automatically generating the CAD data of the object existing in the image data, and the function of automatically generating the CAD data are the correspondence of the feature points in the image information of the plurality of imaging devices captured at the same time. Three-dimensional coordinates are obtained by performing stereo measurement from the characteristic part and tracking corresponding points in the image information due to movement of the imaging device by tracking at least three stable points among the points measured in stereo. Since it has been realized by executing a method for obtaining data, it is easy to measure the three-dimensional position of the feature point in the image information first taken by stereo measurement. Since the three-dimensional position of many feature points can be measured at a time, the three stable points with the highest accuracy during measurement are extracted from the image information captured at the next time when the imaging device moves. If there can be, since there is known data of the three-dimensional position of the three points, all the coefficients of the calculation formula for performing the coordinate transformation between the camera coordinate system before the movement and the camera coordinate system after the movement are known. The three-dimensional position information of all feature points in the camera coordinate system after movement measured by the image information can be easily converted into position information in the camera coordinate system before movement. It is also possible to search for corresponding points in the two-dimensional image information when tracking at least three points, but a plurality of corresponding point candidates remain and one of them cannot be automatically specified by the program. Even in such a case, since the three-dimensional positions of all feature points at the moved position can be obtained by stereo measurement in the moved camera coordinate system, coordinates can be selected by selecting three points from corresponding points of a plurality of candidates. Find all the coefficients of the calculation formula that performs the conversion, and use the conversion calculation formula to calculate the three feature points that have the largest number of matching feature points when all the feature points of the camera coordinate system after movement are converted to the coordinate system before movement. Since it is possible to easily determine that the combination is the correct three corresponding points, it becomes possible to easily obtain the correct coordinate transformation calculation formula by confirming the selected combination of all three candidate points, The imaging device Newly by repeating that we incorporate the image information, it is possible to easily generate three-dimensional CAD data of an object existing in the three-dimensional space. Furthermore, when the feature point that seems to be the same point is measured again three-dimensionally, if the measurement accuracy is further improved based on the measured condition, the measured position information of the feature point is updated. By moving the imaging apparatus and approaching the measurement target, it is possible to automatically generate more accurate three-dimensional CAD data. In addition, only the method of measuring the three-dimensional coordinates of the feature points by stereo measurement every time the image pickup apparatus moves may be used. However, if this means is used, the previously captured image information is retained and the above-described tracking is performed. Since the three-dimensional measurement can be performed again using the captured image information when the image information is moved to a position sufficiently away from the position where the image information was taken, the measurement accuracy can be further improved. In this case, since the three-dimensional measurement can be performed again at an interval sufficiently wider than the interval between the imaging devices that perform stereo measurement, the measurement accuracy can be easily improved.

第5の手段は、移動する物体により画像情報内の特徴点位置が変化する、あるいは撮像装置が移動するために画像情報内の特徴点位置が変化する、あるいは複数の撮像装置で撮影することにより各撮像装置から得られる画像情報内での特徴点の位置が変化する特徴点の対応付けを行う対応点の探索方法において、撮像装置から得られる画像情報を特徴点を結ぶ色境界線分から構成される2次元のCADデータに変換して、色境界線分が区分する少なくとも背景領域を除く領域内の特徴部位の類似度を比較して高いものを対応点候補として絞り込むようにしたことである。   The fifth means is that the position of the feature point in the image information changes due to the moving object, or the position of the feature point in the image information changes due to the movement of the imaging device, or the image is taken by a plurality of imaging devices. In the corresponding point search method for associating feature points that change the position of feature points in image information obtained from each imaging device, the image information obtained from the imaging devices is composed of color boundary line segments that connect the feature points. In other words, the similarity of feature parts in the region excluding at least the background region divided by the color boundary line segment is compared, and a higher one is narrowed down as a corresponding point candidate.

この第5の手段では、移動する物体により画像情報内の特徴点位置が変化する、あるいは撮像装置が移動するために画像情報内の特徴点位置が変化する、あるいは複数の撮像装置で撮影することにより各撮像装置から得られる画像情報内での特徴点の位置が変化する特徴点の対応付けを行う対応点の探索方法において、撮像装置から得られる画像情報を特徴点を結ぶ色境界線分から構成される2次元のCADデータに変換して、色境界線分が区分する少なくとも背景領域を除く領域内の特徴部位の類似度を比較して高いものを対応点候補として絞り込むようにするので、撮影対象に対する撮像装置の位置や角度によって変形する背景を含む局部的2次元の画像情報を使用しないで十分な確度で対応点の探索を容易に行うことができるようになる。具体的にその容易さが実現される作用を説明する。2次元のCADデータの線分で構成される線画の局部的な特徴部位とは線分の特徴点の位置や線分が境界線として線を引いた両側の色情報や線分の繋がりの状態などである。位置に関しては、例えば移動するカメラの微小時間間隔で画像を取り込むようにした場合は、撮像装置の移動速度にも関係するが特徴点の移動範囲は前回撮影した特徴点の近くの微小領域内である。画像情報を取り込む周期が小さくなればなるほどその微小領域は小さくなるので対応点を探索する場合の候補点の数はより多く絞りこむことが可能となる。また、一方、ステレオ計測のように、あらかじめ撮影位置の異なる撮像装置の位置関係が既知の場合には、探索する対応点は必ず探索する相手側の特徴点の位置に関連する所定の直線上に存在するので、その直線上にある点を候補点として絞り込むことができる。そして更に、その候補点の中から特徴点が構成する線分の左右の色情報が一致するかどうかで対応点を更に絞り込むことができる。このとき、かならずしも両側の色情報が一致するという条件のみでふるいわけをするのではなく、片側でも一致すれば十分に対応点の候補となる。それは、当該線分が実際線である場合は両側の色情報が一致するが、当該線が輪郭線である場合には、どちらか一方は背景の色情報であるためにかならずしも一致しない。それは、背景の色情報は、その輪郭を撮影する角度によってその輪郭線の隣に見える背景が違ってくるためである。しかし、当該線分のかならず一方の側は輪郭を生成する手前の物体の色情報になるために、撮影する角度が変わっても対応する点の色情報は一致する。従って、両側の色情報が一致する場合にはそれは対応点候補となり、また、片側の色情報が一致する場合にも対応点候補となる。色情報は、1画素オーダーの局部的な領域で類似度を比較する場合には境界の反対側の色情報になるが、局部領域を数画素のオーダーにして処理を行う場合には、当該点から広がる境界線分が構成する微小領域ごとの相関をとって背景の微小領域を除く部分の微小領域の相関値の高い微小領域の存在する対応候補の点を対応点と判別するようにしても良い。以上のように、位置と両側あるいは境界線の微小領域の色情報で絞り込んだ対応点の候補点について、更に線分情報の繋がり情報、繋がっている線分の色情報が一致している場合には、それはより対応点の候補として絞り込めることになる。それでステレオ計測などのステレオ計測のように、あらかじめ撮影位置の異なる撮像装置の位置関係が既知の場合には、絞り込まれた対応点候補の中より3点の組み合わせを順次行って座標変換計算式の係数を求めて多くの特徴点が一致する3点の組み合わせが確実に正しい対応のとれた3点であるということから、正しい対応点を精度良く容易に得られるようになる。また、ここで、ステレオ計測で対応点が一致した場合でも錯覚で一致している場合もあるので、引き続き撮像装置が移動して異なる視点からステレオ計測しても同じように対応点として一致している場合にはそれは安定な点として識別管理するようにして次のトラッキングするときに用いる3点に優先的に選ぶようにするのが良い。   In the fifth means, the feature point position in the image information changes due to the moving object, or the feature point position in the image information changes because the image pickup apparatus moves, or the image pickup is performed by a plurality of image pickup apparatuses. In the corresponding point search method for associating feature points that change the position of feature points in the image information obtained from each imaging device, the image information obtained from the imaging device is composed of color boundary line segments connecting the feature points Image data is converted into two-dimensional CAD data, and the similarity of feature parts in the region excluding the background region at least separated by the color boundary line is compared to narrow down the higher ones as corresponding point candidates. It becomes possible to easily search for corresponding points with sufficient accuracy without using local two-dimensional image information including a background that changes depending on the position and angle of the imaging device with respect to the target. . The effect | action in which the ease is implement | achieved concretely is demonstrated. The local feature part of a line drawing composed of two-dimensional CAD data line segments is the position of the feature points of the line segments, the color information on both sides of the line segment drawn as a boundary line, and the connection state of the line segments Etc. Regarding the position, for example, when an image is captured at a minute time interval of the moving camera, the moving range of the feature point is within a minute region near the previously photographed feature point although it is related to the moving speed of the imaging device. is there. The smaller the period for capturing image information, the smaller the micro area, so that the number of candidate points when searching for corresponding points can be narrowed down. On the other hand, when the positional relationship between imaging devices with different shooting positions is known in advance, such as stereo measurement, the corresponding points to be searched for are always on a predetermined straight line related to the positions of the feature points on the other side to be searched. Since it exists, the points on the straight line can be narrowed down as candidate points. Further, the corresponding points can be further narrowed down by checking whether the color information on the left and right of the line segment constituted by the feature points matches among the candidate points. At this time, the screening is not necessarily performed only on the condition that the color information on both sides is matched, but if the values match on one side, the corresponding points are sufficiently candidates. That is, when the line segment is an actual line, the color information on both sides matches, but when the line is a contour line, either one does not necessarily match because it is background color information. This is because the background color information has a different background that appears next to the contour line depending on the angle at which the contour is photographed. However, since one side of the line segment is always the color information of the object in front of which the contour is generated, the color information of the corresponding points match even if the shooting angle changes. Therefore, when the color information on both sides matches, it becomes a corresponding point candidate, and when the color information on one side matches, it becomes a corresponding point candidate. The color information becomes color information on the opposite side of the boundary when comparing the similarity in a local area of one pixel order. However, when the processing is performed with the local area on the order of several pixels, It is also possible to determine the corresponding candidate points where there is a minute region with a high correlation value of the minute region excluding the background minute region by taking a correlation for each minute region formed by the boundary line segment extending from good. As described above, for the candidate points of the corresponding points narrowed down by the color information of the position and both sides or the minute area of the boundary line, when the connection information of the line segment information and the color information of the connected line segments match It will be more narrowed down as a corresponding point candidate. Therefore, when the positional relationship between imaging devices with different shooting positions is known in advance, such as stereo measurement such as stereo measurement, the combination of three points is sequentially performed from the narrowed-down corresponding point candidates, and the coordinate conversion calculation formula Since the combination of the three points where many feature points coincide with each other when the coefficients are obtained is the three points with the correct correspondence, the correct corresponding points can be easily obtained with high accuracy. Here, even if the corresponding points match in stereo measurement, they may match in the illusion, so even if the imaging device continues to move and stereo measurement from different viewpoints, the corresponding points match in the same way. If so, it is better to identify and manage it as a stable point and to preferentially select the three points used for the next tracking.

一方、ステレオ計測でなくトラッキングによる計測の場合には、サンプリング速度を早くして探索範囲を微小にすることによって対応点候補を絞り込むのが有効である。しかしながら、処理速度との関係でそれほど高速化が困難の場合には、同様にある範囲の位置情報、線分の両側の色情報、更には線分の繋がり情報や周囲との位置関係の類似性より絞り込んで、最終的には対応点候補の中より総合的な一致度の高いものから3点を選択して座標変換計算式の係数をもとめて他の対応候補のある全ての点を同じ座標系に変換したときに一致する対応点候補の数の多い3点が最も確実な対応点であると判別して処理を連続継続させる。また、ステレオ計測のトラッキングの場合には、対応点探索の前にステレオ計測により3次元の位置情報を求めてトラッキングの移動前後のカメラ座標系により計測した3次元の特徴点群の3次元CADデータ上で特徴点群のマッチング性の一番高い座標変換計算式の係数を正しい変換係数とすることでトラッキングを精度良く継続させることが可能となる。このようにすれば容易に確実に対応点の探索を自動で行うことが可能となる。ここで、確からしい対応点が3点得られなかった場合は、同撮像装置といっしょに動くように加速度センサやジャイロセンサを設けてそれらのセンサの情報により特徴点のトラッキングができない期間の撮像装置の移動情報を得るようにして補間するようにするのが良い。   On the other hand, in the case of measurement by tracking instead of stereo measurement, it is effective to narrow down the corresponding point candidates by increasing the sampling speed and reducing the search range. However, if it is difficult to increase the processing speed in relation to the processing speed, the position information of a certain range, the color information on both sides of the line segment, and the connection information of the line segment and the similarity of the positional relationship with the surroundings Narrow down further, and finally select three points from the corresponding point candidates that have a higher overall match and obtain the coefficients of the coordinate conversion calculation formula to find all the other corresponding candidate points at the same coordinates. Three points having a large number of corresponding point candidates that match when converted into a system are determined to be the most reliable corresponding points, and the process is continuously continued. In the case of tracking by stereo measurement, the three-dimensional CAD data of the three-dimensional feature points measured by the camera coordinate system before and after tracking movement is obtained by stereo measurement before searching for corresponding points. By making the coefficient of the coordinate transformation calculation formula having the highest matching of the feature points above the correct conversion coefficient, tracking can be continued with high accuracy. In this way, it is possible to automatically and reliably search for corresponding points. Here, when three probable corresponding points are not obtained, an imaging device in a period in which an acceleration sensor or a gyro sensor is provided so as to move together with the imaging device and the feature point cannot be tracked by information of these sensors It is preferable to interpolate so as to obtain the movement information.

第6の手段は、前記第5の手段で比較する特徴部位の類似度は、対応点候補から引いた他の特徴点までのベクトルの類似度、あるいはベクトルの類似度とベクトル先端の特徴点の有する色情報の類似度を用いて類似度が高いものを対応点として絞り込む方法と組み合わせるようにすることである。   In the sixth means, the similarity of the feature parts compared in the fifth means is the similarity of the vector to the other feature points subtracted from the corresponding point candidates, or the similarity between the vector and the feature point of the vector tip. It is to be combined with a method of narrowing down the corresponding points as the corresponding points using the similarity of the color information.

この第6の手段では、前記第5の手段で比較する特徴部位の類似度は、対応点候補から引いた他の特徴点までのベクトルの類似度、あるいはベクトルの類似度(同じ方向で同じ長さのベクトルの本数の大小)とベクトル先端の特徴点の有する色情報の類似度(上下左右の色情報の一致度)を用い類似度が高いものを対応点として絞り込む方法と組み合わせるようにするので、2次元のCADデータに置き換わった画像情報(データ)のマッチング処理を高速に行うことが可能となる。ここで、従来の2次元配列の画像情報どおしでマッチングする場合は、2次元の相関係数を求めたり、1回のマッチング計算に多くの時間を必要とするが、データ量は、CADデータに置き換えられた時点で、2次元の画像情報量から特徴点の数だけに低減されており、それらのベクトルは、方向と距離の2つの数値を比較することでベクトルの類似度は求められるので、2次元の画像情報のマッチング計算と比較して簡単になる。また、ベクトルの方向と距離の他にベクトル先端の特徴点の色情報の類似度を比較する場合でも特徴点1点の周辺の色情報のみであり、1点の対応点候補から引くベクトルの本数が数十から数百本になったとしても2次元の画像での相関係数を求める計算量よりは少なくできるので、正確なマッチングをより早く容易に行うことができるようになる。この場合も、第5の手段で述べたように、背景と背景でない色境界線分の区分けする領域ごとのベクトルの類似度を比較するようにする。   In the sixth means, the similarity of the feature parts compared in the fifth means is the similarity of the vector to the other feature point subtracted from the corresponding point candidate or the similarity of the vector (the same length in the same direction). This is combined with the method of narrowing down the corresponding points as the corresponding points using the similarity of the color information of the feature point at the tip of the vector (the degree of coincidence of the color information on the top, bottom, left and right). Matching processing of image information (data) replaced with two-dimensional CAD data can be performed at high speed. Here, in the case of matching with conventional image information of a two-dimensional array, a two-dimensional correlation coefficient is obtained or a long time is required for one matching calculation, but the amount of data is CAD At the time of replacement with data, the two-dimensional image information amount has been reduced to the number of feature points, and the vector similarity can be obtained by comparing two numerical values of direction and distance. Therefore, it becomes simpler than the matching calculation of two-dimensional image information. In addition to the vector direction and distance, even when comparing the color information similarity of the feature point at the tip of the vector, only the color information around one feature point is obtained, and the number of vectors subtracted from one corresponding point candidate Even if the number of tens of hundreds is several hundred, the amount of calculation for obtaining the correlation coefficient in a two-dimensional image can be reduced, so that accurate matching can be performed more quickly and easily. Also in this case, as described in the fifth means, the vector similarity is compared for each of the regions to be divided into the background and non-background color boundary line segments.

第7の手段は、前記第5,6の手段の色境界線分の抽出方法は、輝度信号などの画像情報の変曲点の繋がりを色境界線分として行うようにしたことである。   The seventh means is that the color boundary line segment extracting method of the fifth and sixth means performs the connection of the inflection points of the image information such as the luminance signal as the color boundary line segment.

この第7の手段では、前記第5,6の手段の色境界線分の抽出方法は、輝度信号などの画像情報の変曲点の繋がりを色境界線分として実行するようにするので、感度良く、また、安定に線分を抽出することができる。ここでの輝度信号とは、白黒画像の輝度信号は勿論であるが、明るさが距離情報に対応した輝度信号でも良いし、カラー画像情報の色情報(R,G,Bなど)の輝度信号でも良いし、X線CTで物体内部の透過率を計測した輝度信号でも良い。色情報の場合のように複数の輝度情報を扱う場合には、同じ処理で得られる特徴点を合成して使用するようにする。変曲点は、左右の色情報の変化率が変わる部位であるために、照明条件が変わって全体的に明るさが変化しても、また、照明の明るさが連続的に変る条件においても撮影対象物に変曲点が生じるような部位が存在する個所には変曲点が生じるので、照明条件が多少変化しても、その影響を受けないで変曲点が生じるような部位が存在する個所は線分として安定に容易に検出できるようになる。また、感度は、撮影画像全体で一定感度にしても良いが、局部的に周囲の輝度情報に応じて変曲点を変曲点として検出する閾値を変化させて画面全体でどこでも最高の感度で検出できるようにして良い。また、処理速度の観点から、撮影画像情報の中の検出線分の本数が所定の数量程度になるように感度を自動調整するようにしても良い。そうすることによって、常に適当な量の線分(特徴点)が得られるのでトラッキングなどを安定して連続に行うことができ、かつ、線分の物量が処理速度以上に増えることも抑制することができる。特徴点の抽出は、安定に行なわれる必要があるので、抽出した変曲点は、照明のみでなく撮影視点によっても微妙に変化するので、安定化するために変曲点から線分を生成するときに最小二乗法などでフィッティリングさせて線分を生成させても良いし、線分を延長して延長した先の線分の交点を特徴点とするようにしても良い。また、生成する線分は、閉ループが生成されれば面データがたくさん定義できるので、2次元の撮影画像の色グループ化処理を行い撮影画像情報の全体をもれなく閉ループの色領域境界線分で区分けする処理を行い、その境界線分の分岐点や鋭角な曲がり点などを特徴点としても良いが、更に、その境界線分に変曲点から生成させた線分を対応させて境界線分を参考にして閉ループの線分をよりたくさん生成するようにしても良い。   In this seventh means, the color boundary line segment extraction method of the fifth and sixth means executes the connection of the inflection points of the image information such as the luminance signal as the color boundary line segment. The line segment can be extracted well and stably. The luminance signal here is not limited to a luminance signal of a monochrome image, but may be a luminance signal whose brightness corresponds to distance information, or a luminance signal of color information (R, G, B, etc.) of color image information. Alternatively, a luminance signal obtained by measuring the transmittance inside the object by X-ray CT may be used. When handling a plurality of pieces of luminance information as in the case of color information, feature points obtained by the same process are synthesized and used. The inflection point is a part where the rate of change of the left and right color information changes, so even if the lighting conditions change and the overall brightness changes, or even under conditions where the illumination brightness changes continuously An inflection point occurs where there is an inflection point on the object being photographed, so there is an inflection point that is not affected by a slight change in lighting conditions. The place to do can be detected stably and easily as a line segment. The sensitivity may be constant for the entire captured image, but the highest sensitivity can be obtained anywhere on the entire screen by locally changing the threshold for detecting the inflection point as an inflection point according to the surrounding luminance information. It may be possible to detect. From the viewpoint of processing speed, the sensitivity may be automatically adjusted so that the number of detected line segments in the captured image information is about a predetermined number. By doing so, an appropriate amount of line segments (feature points) can always be obtained, so tracking can be performed stably and continuously, and the amount of line segments can be prevented from increasing beyond the processing speed. Can do. Since feature points need to be extracted stably, the extracted inflection points change slightly depending not only on the lighting but also the shooting viewpoint, so a line segment is generated from the inflection points in order to stabilize. Sometimes, a line segment may be generated by fitting using a least square method or the like, or an intersection of a previous line segment extended by extending the line segment may be used as a feature point. In addition, since a lot of surface data can be defined for a line segment to be generated if a closed loop is generated, color grouping processing of a two-dimensional captured image is performed, and the entire captured image information is divided into closed loop color region boundary line segments. The boundary line segment branch point or sharp bend point may be used as a feature point, but the boundary line segment is further associated with the line segment generated from the inflection point. You may make it produce more closed-loop line segments as a reference.

第8の手段は、撮像装置から得られる画像情報を直接あるいは間接的に取り込んで該画像情報内の特徴点を抽出する方法において、特徴点として線分の特徴点と、閉ループ図形の特徴点の両方を特徴点として抽出するようにしたことである。   The eighth means is a method for extracting feature points in the image information by directly or indirectly taking image information obtained from the imaging device, and for feature points of line segments and feature points of closed-loop figures. Both are extracted as feature points.

この第8の手段では、撮像装置から得られる画像情報を直接あるいは間接的に取り込んで該画像情報内の特徴点を抽出する方法において、特徴点として線分の特徴点と、閉ループ図形の特徴点の両方を特徴点として抽出するようにするので、閉ループを生成していない線分は、線分の端点や分岐点や鋭角の折曲がり点などが特徴点として抽出されて3次元座標の計測やトラッキングに使用されるだけではなく、閉ループ図形の境界線分であり、端点が存在しないで、かつ、分岐点もなく、かつ、鋭角の折曲がり点もないと特徴点を抽出することができないが、そういう場合には、基本図形の例えば中心とか、基本図形の向きなどを組み合わせて閉ループ図形の特徴点とすれば、閉ループ図形が混在する画像情報の中で数多くの特徴点を抽出して3次元座標の計測やトラッキングに使用することができるようになる。   In the eighth means, in the method of directly or indirectly taking the image information obtained from the imaging device and extracting the feature point in the image information, the feature point of the line segment and the feature point of the closed-loop figure are used as the feature points. Since both are extracted as feature points, line segments that do not generate a closed loop are extracted as feature points at the end points, branch points, and sharp bent points of the line segments. Not only is it used for tracking, but it is a boundary line of a closed-loop figure, and there are no end points, no branch points, and no sharp corners, so it is not possible to extract feature points. In such a case, if features such as the center of the basic figure, the orientation of the basic figure, etc. are combined into a feature point of the closed loop figure, a large number of feature points are extracted from the image information that contains the closed loop figure. It is possible to use the measurement and tracking of the three-dimensional coordinates.

また、線分の例えば端点などを特徴点として検出してトラッキングを続けている途中で線分が閉ループに繋がった場合には、閉ループの基本図形の特徴点(図心とか向きの情報など)に切り替えてトラッキングを継続して行うこともできるようになる。再度、また、途中で閉ループが切れた場合には、端点が現れるので端点を特徴点としたトラッキングに切り替えて継続トラッキングを行うことができるようになる。   In addition, if a line segment is connected to a closed loop while tracking, such as an end point, is detected as a feature point, the feature point (centroid or orientation information, etc.) of the basic figure of the closed loop is used. It is possible to continue tracking by switching. Again, if the closed loop is broken halfway, an end point appears, so that it is possible to switch to tracking with the end point as a feature point and perform continuous tracking.

第9の手段は、前記第1〜4の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに対応付けてカメラの撮影位置と画像情報を記録するようにしたことである。   A ninth means is that in the visual information processing apparatus configured by selectively applying the first to fourth means, the photographing position of the camera and the image information are recorded in association with the CAD data. .

この第9の手段では、前記第1〜4の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに対応付けてカメラの撮影位置と画像情報を記録するようにするので、抽出される線分データの数が少ない場合や閉ループを構成する線分データが定義する面データがたくさん生成されない場合でも撮影対象の色情報(テクスチャ情報)を利用してそれまで生成されたCADデータを表示したり、利用したりすることが容易にできるようになる。具体的には、線分データのCADデータをモニタ画面に表示する場合に、背景にその線分を計測したときのテクスチャ情報(具体的は2次元の画像情報)を重ねて表示すれば、十分な情報がCADデータに変換生成されていない場合でもモニタ画面を見る操作者にはCADデータの線分が画像上のどの線に相当するCADデータなのかが容易に分かるようになる。また、CADデータのもつ3次元位置情報と画像情報の色情報を組み合わせてロボットの制御や検査結果データの編集などにプログラム上で使用することも可能となる。テクスチャである画像情報は、撮像装置の位置と対応付けて記録しているので、モニタ画面に表示するときに、表示するときの視点の位置に画像データを変換して表示すれば、違和感のない背景を表示させることができる。また、各線分データに対応する画像データが割り付けられるようにすれば、モニタ画面の視点の位置に一番近い位置で撮影したテクスチャ(画像情報)を表示に利用することができるようになる。基本的には面に対する法線方向から撮影した画像情報を記録するようにするが、まだ、面が生成されていない場合には、複数の線分から推定できる推定面に対する法線方向から撮影した画像情報を記録するようにする。何れの場合にも、全て法線方向から撮影した画像情報を記録できるわけではないので、撮像装置が移動しながら撮影を繰り返す中で、より法線方向に近い画像情報、より近くから撮影した画像情報が得られた場合には、古い画像情報を消去して新しい画像情報にテクスチャ情報も随時更新するようにして良い。   In the ninth means, in the visual information processing apparatus configured by selectively applying the first to fourth means, the shooting position of the camera and the image information are recorded in association with the CAD data. CAD data generated so far using the color information (texture information) of the object to be photographed even when the number of line segment data to be extracted is small or a lot of surface data defined by the line segment data constituting the closed loop is not generated. Can be displayed and used easily. Specifically, when CAD data of line segment data is displayed on the monitor screen, it is sufficient to display the texture information (specifically, two-dimensional image information) obtained by measuring the line segment on the background. Even if such information is not converted into CAD data, the operator who sees the monitor screen can easily understand which line on the image the line segment of the CAD data corresponds to. In addition, the three-dimensional position information of the CAD data and the color information of the image information can be combined and used on the program for controlling the robot and editing the inspection result data. Since the image information that is a texture is recorded in association with the position of the imaging device, there is no sense of incongruity when the image data is converted and displayed at the viewpoint position when displayed on the monitor screen. The background can be displayed. If image data corresponding to each line segment data is assigned, texture (image information) taken at a position closest to the viewpoint position on the monitor screen can be used for display. Basically, image information taken from the normal direction to the surface is recorded, but if the surface has not yet been generated, the image is taken from the normal direction to the estimated surface that can be estimated from multiple line segments. Try to record information. In any case, not all image information taken from the normal direction can be recorded, so while the imaging device moves repeatedly, image information closer to the normal direction and images taken from closer When the information is obtained, the old image information may be deleted, and the texture information may be updated with new image information as needed.

第10の手段は、前記第1〜第9の手段を選択的に適用して構成した視覚情報処理装置および視覚情報処理システムにおいて、画像情報処理装置は、移動する撮像装置の位置または姿勢あるいはその両方の情報を求める機能と、求めた位置情報あるいは姿勢情報あるいはその両方を出力する機能を有するようにすることである。   A tenth means is a visual information processing apparatus and visual information processing system configured by selectively applying the first to ninth means, wherein the image information processing apparatus is a position or orientation of a moving imaging device or its position It is to have a function for obtaining both pieces of information and a function for outputting the obtained position information and / or posture information.

このような第10の手段は、前記第1〜第9の選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、移動する撮像装置の位置または姿勢あるいはその両方の情報を求める機能と、求めた位置情報または姿勢情報あるいはその両方を出力する機能を有するので、撮像装置の位置および姿勢情報を別のCPU等のアプリケーションシステム側で利用することが可能となる。ロボット等の自動機械の視覚誘導制御装置として適用する場合には、対象物体にアクセスするロボットハンドなどの先端に撮像装置を取り付けることで、この撮像装置とロボットハンドの相対取り付け位置関係は既知であることから、撮像装置の位置と姿勢がわかればロボットハンドの位置と姿勢がわかるようになり、生成したCADデータの移動空間で任意の目標地点までロボットハンドを誘導移動制御することが容易となる。   As such a tenth means, the visual information processing apparatus configured by selectively applying the first to ninth and the visual information processing apparatus having CAD data in advance or those visual information processing apparatuses are applied. In the visual information processing system, the image information processing apparatus has a function for obtaining information on the position and / or orientation of the moving imaging device and a function for outputting the obtained position information and / or orientation information. The position and orientation information of the apparatus can be used on the application system side such as another CPU. When applied as a visual guidance control device for an automatic machine such as a robot, the relative attachment position relationship between the imaging device and the robot hand is known by attaching the imaging device to the tip of a robot hand or the like accessing the target object. Therefore, if the position and orientation of the imaging device are known, the position and orientation of the robot hand can be known, and the robot hand can be guided and controlled to an arbitrary target point in the movement space of the generated CAD data.

第11の手段は、前記第1〜第10の手段を選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、CADデータの探索指令信号を入力とし、その指令信号に基づきCADデータを探索する機能と、探索したCADデータの情報を出力する機能を有するようにすることである。   The eleventh means is a visual information processing apparatus configured by selectively applying the first to tenth means and a visual information processing apparatus having CAD data in advance or those visual information processing apparatuses. In the visual information processing system, the image information processing apparatus has a function of searching for CAD data based on a search command signal for CAD data and outputting information of the searched CAD data based on the command signal. That is.

このような第11の手段は、前記第1〜第10の手段を選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、CADデータの探索指令信号を入力とし、その指令信号に基づきCADデータを探索する機能と、探索したCADデータの情報を出力する機能を有するので、別のCPU等のアプリケーションシステム側で必要とする情報、例えば、目標とする対象物体のCADデータを探索させ、探索した対象物体のCADデータの情報として、その位置と姿勢の情報を探索結果として得るようにすれば、アプリケーションシステム側で、例えばロボットハンドをその対象物体を掴むような位置と姿勢に誘導制御することが可能となる。更に、ロボットハンドのCADデータを定期的に探索させ、探索したロボットハンドのCADデータの情報として、その位置と姿勢を探索結果として得るようにすれば、その情報をロボットハンドの位置と姿勢のフィードバック制御へ利用することも可能となり、ロボットハンドのアーム部分の撓みとかロボットハンドのベースの位置ずれ等を補正した誘導制御を行なうことが可能となる。また、目標とする対象物体のCADデータの探索も定期的に行なうことにより、目標とする対象物体が移動している場合でも、リアルタイムに目標物体の位置と姿勢の情報が得られるので、アプリケーションシステムは移動する目標物体に対してもロボットハンドをアクセスさせて該目標物体を掴む動作を誘導制御することが可能となる。   Such an eleventh means includes a visual information processing apparatus configured by selectively applying the first to tenth means, a visual information processing apparatus having CAD data in advance, or a visual information processing apparatus thereof. In the visual information processing system to which is applied, the image information processing apparatus has a function of searching for CAD data based on the search signal of CAD data, and a function of outputting information of the searched CAD data. Therefore, information required on the application system side such as another CPU, for example, CAD data of the target object to be searched is searched, and the position and orientation information is searched as the CAD data information of the searched target object. For example, on the application system side, for example, the position and appearance of the robot hand holding the target object It is possible to induce controlled. Furthermore, if the CAD data of the robot hand is periodically searched, and the position and orientation of the searched robot hand CAD data is obtained as a search result, the information is fed back to the position and orientation of the robot hand. It can also be used for control, and it is possible to perform guidance control that corrects the deflection of the arm portion of the robot hand or the positional deviation of the base of the robot hand. In addition, since the CAD data of the target object to be searched is periodically searched, even when the target object is moving, the position and orientation information of the target object can be obtained in real time. It is possible to guide and control the movement of the target object to be moved by accessing the robot hand.

第12の手段は, 前記第11の手段を有する視覚情報処理装置において、3次元CADデータを生成する範囲を指定する指令情報の入力インターフェースを設けたことである。   A twelfth means is that the visual information processing apparatus having the eleventh means is provided with an input interface for command information for designating a range for generating the three-dimensional CAD data.

この第12の手段では, 前記第11の手段を有する視覚情報処理装置において、3次元CADデータを生成する範囲を指定する指令情報の入力インターフェースを設けるので、外部から範囲を指定する指令情報を入力することにより容易に3次元CADデータを生成する範囲を必要な範囲のみに限定できる。従って、処理速度の高速化を図ることができるようになる。処理速度は抽出される特徴点(線分)の量にもよるが、処理範囲が入力画像全体の場合が最も処理時間はかかる。一方,処理範囲を限定、例えば、赤い動く物体の周囲のみを処理範囲に指定すれば、処理の範囲は画像全体の処理範囲より小さくできるので、その分処理の周期は高速化できるようになる。処理が高速化すれば撮像装置の移動速度が速くなってもより追従しやすくなる。範囲を指定するコマンドとしては、複数用意しておいて良い。例えば、2次元画像情報上で差分で変化の生じた部位を抽出してその周辺のみを処理の対象範囲とするとか、2次元画像情報上で動いているもの、あるいは具体的に早く動くもの、ゆっくり動くものを移動速度とともに指定して、検出した物体の周辺のみを処理の範囲とするとか、2次元画像情報上で反射で光るものを検出した場合にその周辺を処理の範囲とするとか、形、色、大きさを具体的に指定して該当する物体を2次元画像情報上で検出し、あるいは3次元CADデータに変換した3次元CADデータ上で検出するようにしてその周辺を処理の範囲とするとか、例えば指向性マイクで音などの概略方向が検出できる場合には、処理の範囲を直接座標で指定して指定された座標エリア内を処理の対象とできるようなコマンドを用意して良い。   In the twelfth means, in the visual information processing apparatus having the eleventh means, a command information input interface for designating a range for generating the three-dimensional CAD data is provided, so that command information for designating the range is input from the outside. By doing so, the range in which the three-dimensional CAD data is easily generated can be limited to a necessary range. Therefore, the processing speed can be increased. Although the processing speed depends on the amount of feature points (line segments) to be extracted, it takes the longest processing time when the processing range is the entire input image. On the other hand, if the processing range is limited, for example, if only the periphery of a red moving object is designated as the processing range, the processing range can be made smaller than the processing range of the entire image, so that the processing cycle can be increased accordingly. If the processing is speeded up, it becomes easier to follow even if the moving speed of the imaging apparatus increases. A plurality of commands for specifying the range may be prepared. For example, a part that has changed due to a difference in 2D image information is extracted and only its periphery is set as a processing target range, or it is moving on 2D image information, or specifically moving fast, Specify slowly moving objects together with the moving speed, and set only the periphery of the detected object as the processing range, or if the object that shines by reflection on the 2D image information is detected, set the periphery as the processing range, The shape, color, and size are specifically specified, and the corresponding object is detected on the two-dimensional image information, or the periphery is processed by detecting it on the three-dimensional CAD data converted into the three-dimensional CAD data. For example, when a rough direction such as sound can be detected with a directional microphone, a command is prepared so that the processing range can be directly specified by coordinates and the specified coordinate area can be processed. The There.

第13の手段は、前記第11,12の手段を選択的に適用して構成した視覚情報処理装置において、CADデータの探索指令情報に2次元の探索指令と3次元の探索指令の少なくとも2種類の探索指令を設けたことである。   The thirteenth means is a visual information processing apparatus configured by selectively applying the eleventh and twelfth means, and the CAD data search command information includes at least two types of two-dimensional search commands and three-dimensional search commands. The search command is provided.

この第13の手段では、前記第11,12の手段を選択的に適用して構成した視覚情報処理装置において、CADデータの探索指令情報にマッチング精度は不十分でも処理速度の速い2次元の探索指令と処理の時間はかかるがマッチング精度の高い3次元の探索指令の少なくとも2種類の探索指令を設けたので、最初に2次元の探索指令で高速に探索候補を絞り込んでその後に3次元の探索指令でより精度良くマッチングを行い探索候補を絞り込むこが容易にできるようになるので、より高速に探索処理を行うことができるようになる。   In the thirteenth means, in the visual information processing apparatus constructed by selectively applying the eleventh and twelfth means, a two-dimensional search having a high processing speed even if the matching accuracy is insufficient for the CAD data search command information. Since at least two types of search commands, which require a command and processing time but have high matching accuracy, are provided, search candidates are first narrowed down at a high speed with a two-dimensional search command, and then a three-dimensional search is performed. Since it becomes easier to narrow down the search candidates by matching with a command with higher accuracy, the search process can be performed at a higher speed.

第14の手段は、前記第11〜13の手段の探索機能は、探索する2次元あるいは3次元のCADデータの対応点候補から引いた他の特徴点までのベクトルの類似度あるいはベクトルの類似度とベクトル先端の特徴点の有する色情報の類似度を用い類似度が高いものを対応点として絞り込む方法と組み合わせるようにすることである。   According to a fourteenth aspect, the search function of the above-mentioned first to thirteenth means is such that the similarity of a vector to another feature point subtracted from the corresponding point candidate of the two-dimensional or three-dimensional CAD data to be searched or the similarity of the vector And a method of using the similarity of the color information of the feature point at the tip of the vector and combining a method having a high similarity as a corresponding point.

このような第14の手段では、前記第11〜13の手段の探索機能で、探索する2次元あるいは3次元のCADデータの対応点候補から引いた他の特徴点までのベクトルの類似度あるいはベクトルの類似度(同じ方向で同じ長さのベクトルの本数の大小)とベクトル先端の特徴点の有する色情報の類似度(上下左右あるいは前後上下左右の色情報の一致度)を用い類似度が高いものを対応点として絞り込む方法と組み合わせるようにするので、2次元あるいは3次元のCADデータでのマッチング処理を高速に行うことが可能となる。ここで、従来の線画どおしでマッチングする場合などは、ポテンシャルマッチング法などを用いて高速に行う手段はあるが、1回のマッチング計算に多くの時間を必要とする。ここでのベクトルマッチングは、ベクトルは方向と距離の2つの数値を比較することでベクトルの類似度は求められるので、その他のマッチング手法の計算量と比較して簡単になる。また、ベクトルの方向と距離の他にベクトル先端の特徴点の色情報の類似度を比較することで、よりマッチング精度を上げることができる。また、特徴点1点の周辺の色情報のみであり、1点の対応点候補から引くベクトルの本数が数十から数百本になったとしても計算量はより少なくできるので、正確なマッチングをより早く容易に行うことができるようになる。   In such a fourteenth means, with the search function of the above-mentioned first to thirteenth means, the degree of similarity or vector of a vector up to another feature point subtracted from the corresponding point candidate of the two-dimensional or three-dimensional CAD data to be searched for The degree of similarity is high using the degree of similarity (the number of vectors of the same length in the same direction) and the degree of similarity of the color information of the feature point at the tip of the vector (the degree of coincidence of the color information of the top, bottom, left, right, up, down, left, right Since this method is combined with a method of narrowing down a corresponding point as a corresponding point, matching processing using two-dimensional or three-dimensional CAD data can be performed at high speed. Here, in the case of matching with a conventional line drawing, there is means for performing at high speed using a potential matching method or the like, but a long time is required for one matching calculation. The vector matching here is simpler than the calculation amount of other matching methods because the vector similarity can be obtained by comparing two numerical values of the direction and the distance. In addition to the direction and distance of the vector, the matching accuracy can be further improved by comparing the similarity of the color information of the feature point at the tip of the vector. In addition, only the color information around one feature point, and even if the number of vectors drawn from one corresponding point candidate is several tens to several hundreds, the amount of calculation can be reduced. It will be possible to do this faster and easier.

第15の手段は、前記第11〜14の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用したシステムにおいて、あらかじめ少なくとも3次元CADデータの部品形状と各部品との結合条件をデータベースとして設けておき、探索時に当該データベースの情報より部品の結合条件の所定のルールに従って部品の結合条件を変えて探索CADデータを生成して探索するようにしたことである。   A fifteenth means is a visual information processing apparatus configured by selectively applying the above-mentioned means 11 to 14 or a system to which the visual information processing apparatus is applied, and at least a combination condition between the part shape of at least three-dimensional CAD data and each part Is provided as a database, and searching is performed by generating search CAD data by changing the component coupling condition according to a predetermined rule of the component coupling condition from the information of the database at the time of the search.

この第15の手段では、前記第11〜14の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用したシステムにおいて、あらかじめ少なくとも3次元CADデータの部品形状と各部品との結合条件をデータベースとして設けておき、探索時に当該データベースの情報より部品の結合条件の所定のルールに従って部品の結合条件を変えて探索CADデータを生成して探索するようにしたので、人間の手足や顔、車のドアの開閉状態、携帯電話のアンテナの出し入れ状態、パワーショベルのバックホーの動作状態などで、探索しようとしている物体の形状がいろいろな形状に変わる物体においても、動きうる部品とその動き方のすべての組み合わせ状態を変化させて、現在撮影している画像情報に写っている形状とマッチング処理ができるので、いろいろな形状をとりうる物体の探索も容易に実現できるようになる。ここで、動く部品のすべての可動状態の組み合わせを微小量の可動変化で行うと組み合わせ数が多くなることから、大まかな動きで代表的な変形形状でマッチング探索を行い、候補を絞り込んだ後に可動部を微小量づつ変化させてよりマッチング精度を上げて更に候補を絞り込むようにして良い。あらかじめあらゆる部品の可動状態の参照モデルを用意しておく方法もあるが、可動状態を細かく変化させて多くの種類を用意しようとするとデータ量が多くなるが、マッチング時に生成するようにすることによってデータベースのデータ量を少なくでき、かつ多くの細かい可動状態の参照モデルによるマッチングを行うことができるようになる。また、部品の可動状態をいろいろと変えながらマッチング処理を行ってマッチング度が最も高くなる可動状態を探索することによって、探索対象物体の可動部の状態を特定することも可能となる。例えば、ドアの開閉度合いとか、人の顔であれば、口の開きぐあいなども探索処理の結果得ることが可能となる。   In the fifteenth means, in the visual information processing apparatus configured by selectively applying the above-mentioned means 11 to 14 or a system to which the visual information processing apparatus is applied, at least the part shape of the three-dimensional CAD data is combined with each part in advance. Since the conditions are provided as a database and the search is performed by generating search CAD data by changing the component coupling conditions according to a predetermined rule of the component coupling conditions from the information of the database at the time of searching, human limbs and faces Parts that can be moved and how they move even when the shape of the object being searched for changes depending on the open / close state of the car door, the state where the antenna of the mobile phone is put in and out, the operating state of the backhoe of the power shovel, etc. Change all the combination states of and match the shape shown in the current image information Since it is management, also it can be easily realized search objects can take a variety of shapes. Here, if all moving parts of a moving part are combined with a small amount of moving change, the number of combinations increases. It is possible to further narrow down the candidates by changing the portion by a minute amount to further increase the matching accuracy. There is a method to prepare a reference model of the movable state of all parts in advance, but if you try to prepare many types by changing the movable state finely, the amount of data will increase, but by generating it at the time of matching The amount of data in the database can be reduced, and matching can be performed using many detailed movable reference models. It is also possible to specify the state of the movable part of the search target object by searching for a movable state in which the matching degree is the highest by performing the matching process while changing the movable state of the parts in various ways. For example, if the door is opened or closed, or if it is a human face, the opening of the mouth can be obtained as a result of the search process.

第16の手段は、前記第11〜15の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用したシステムにおいて、探索した物体に対する判断機能とその判断機能を使用するための指令情報を入力するインターフェースと判断結果の情報を出力するインターフェースを設けたことである。   The sixteenth means is a visual information processing apparatus configured by selectively applying the above-mentioned eleventh to fifteenth means or a system to which the visual information processing apparatus is applied, and a command for using the judgment function for the searched object and the judgment function An interface for inputting information and an interface for outputting information of determination results are provided.

このような第16の手段では、前記第11〜15の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用したシステムにおいて、探索した物体に対する判断機能とその判断機能を使用するための指令情報を入力するインターフェースと判断結果の情報を出力するインターフェースを設けているので、探索指令を出して探索結果を取得して探索結果を判定して再度探索指令を出して再探索させるという繰り返しの処理を視覚情報処理装置の中で行えるようにするので目的に合致する探索処理をより高速に行うことができるようになる。   In such a sixteenth means, in the visual information processing apparatus configured by selectively applying the above first to fifteenth means or a system to which the visual information processing apparatus is applied, the judgment function for the searched object and its judgment function are used. An interface for inputting command information for output and an interface for outputting information of determination results, so that a search command is issued, the search result is acquired, the search result is determined, the search command is issued again, and the search is performed again. Since iterative processing can be performed in the visual information processing apparatus, search processing that matches the purpose can be performed at higher speed.

第17の手段は、移動検査装置において、少なくとも撮像装置と撮像装置からの画像情報を処理して3次元CADデータを生成するとともに撮像装置の位置を求める機能を有する視覚情報処理装置あるいはあらかじめ3次元CADデータを有して移動しながら3次元CADデータの中での撮像装置の位置を求める機能を備えた視覚情報処理装置を設けて、3次元CADデータの中の撮像装置の位置情報より特定する検査対象部位に相当する3次元CADデータの部位と対応付けして検査結果のデータを記録するようにしたことである。   According to a seventeenth aspect, in the mobile inspection device, a visual information processing device having a function of processing at least image information from the image pickup device and the image pickup device to generate three-dimensional CAD data and obtaining the position of the image pickup device, or three-dimensional in advance. A visual information processing device having a function of obtaining the position of the imaging device in the three-dimensional CAD data while moving with the CAD data is provided, and specified from the position information of the imaging device in the three-dimensional CAD data This means that the inspection result data is recorded in association with the part of the three-dimensional CAD data corresponding to the inspection target part.

この第17の手段では、移動検査装置において、少なくとも撮像装置と撮像装置からの画像情報を処理して3次元CADデータを生成するとともに撮像装置の位置を求める機能を有する視覚情報処理装置あるいはあらかじめ3次元CADデータを有して移動しながら3次元CADデータの中での撮像装置の位置を求める機能を有する視覚情報処理装置を設けて、3次元CADデータの中の撮像装置の位置情報より特定する検査対象部位に相当する3次元CADデータの部位と対応付けして検査結果のデータを記録するようにしたので、後で検査結果を確認するときに確認したい検査対象部位の検査結果を容易に参照できるように、検査結果データを検査対象部位と対応付けして整理する手作業も不要にすることができる。また、繰り返し同じ箇所の検査を行う場合には、同じ場所の検査結果の変化を比較するとか、変化のトレンドも容易に確認することができるようになる。検査結果には時刻データも一緒に記録するようにして良い。   In the seventeenth means, in the mobile inspection device, a visual information processing device having a function of processing at least the image information from the image pickup device and the image pickup device to generate three-dimensional CAD data and obtaining the position of the image pickup device or 3 in advance. A visual information processing device having a function of obtaining the position of the imaging device in the three-dimensional CAD data while moving with the three-dimensional CAD data is provided, and specified from the position information of the imaging device in the three-dimensional CAD data Since the data of the test result is recorded in association with the part of the three-dimensional CAD data corresponding to the test target part, the test result of the test target part to be confirmed can be easily referred to when checking the test result later. As can be done, it is possible to eliminate the manual work of associating the inspection result data with the inspection target part. Further, when the same place is repeatedly inspected, it is possible to compare changes in the inspection results at the same place and to easily check the trend of the change. Time data may be recorded together with the inspection result.

第18の手段は、前記第17の手段を用いた移動検査装置において、あらかじめ移動検査装置の計画移動経路を設定する機能と、あらかじめ設定した計画移動経路と実際の移動経路の誤差を3次元CADデータの中での撮像装置の位置情報より求める機能と、その誤差を小さくするように移動検査装置の移動制御を行うためのルールを設定する機能と、その移動制御のルールに基づき移動検査装置の移動制御を実行する制御部をもたせたことである。   According to an eighteenth means, in the mobile inspection apparatus using the seventeenth means, a function for setting a planned movement path of the movement inspection apparatus in advance, and an error between the predetermined planned movement path and the actual movement path are set in three-dimensional CAD. A function to obtain from the position information of the imaging device in the data, a function to set a rule for performing movement control of the movement inspection device so as to reduce the error, and a function of the movement inspection device based on the rule of the movement control That is, a control unit for executing movement control is provided.

この第18の手段では、前記第17の手段を用いた移動検査装置において、あらかじめ移動検査装置の計画移動経路を設定する機能と、あらかじめ設定した計画移動経路と実際の移動経路の誤差を3次元CADデータの中での撮像装置の位置情報より求める機能と、その誤差を小さくするように移動検査装置の移動制御をおこなうためのルールを設定する機能と、その移動制御のルールに基づき移動検査装置の移動制御を実行する機能をもたせるので、移動検査装置を操作者が操作することなく自動で必要な範囲の検査を行うことができるようになる。ここで、計画移動経路と実際の移動経路の誤差を小さくするように移動検査装置の移動制御をおこなうためのルールの設定を容易にできるようにしておけば、制御性能の改善も容易に行なうことができるようになる。   In the eighteenth means, in the movement inspection apparatus using the seventeenth means, a function for setting a planned movement path of the movement inspection apparatus in advance, and an error between the preset planned movement path and the actual movement path are three-dimensionally calculated. A function that is obtained from position information of the imaging device in CAD data, a function that sets a rule for performing movement control of the movement inspection apparatus so as to reduce the error, and a movement inspection apparatus based on the rule of the movement control Therefore, it is possible to automatically inspect a necessary range without operating the movement inspection apparatus by the operator. Here, if it is possible to easily set the rules for performing movement control of the movement inspection device so as to reduce the error between the planned movement path and the actual movement path, the control performance can be easily improved. Will be able to.

第19の手段は、ロボットあるいいはロボットの制御装置において、撮像装置の画像情報を入力とし入力画像を処理して移動空間に存在する物体のCADデータを生成する視覚情報処理装置を適用して、ロボットの動作する環境の3次元CADデータを生成してCADデータの中のロボットの現在位置を特定する手段と、ロボットからの各種センサ信号よりロボットの現在の姿勢、動作状態を特定する手段と、前記ロボットの動作する環境の3次元CADデータと前記CADデータの中のロボットの現在位置と前記ロボットの現在の姿勢、動作状態をロボットのシミュレーションモデルへ反映する手段と、ロボットの動作をシミュレーションする手段と、そのシミュレーション手段に移動計画に基づくロボットの動作指令信号を入力する手段と、シミュレーション結果が所定の評価レベルになったか否かを判断する手段と、シミュレーション結果が所定の評価レベルに至らなかった場合にシミュレーション結果に基づきロボットへの動作指令信号を修正する手段とを設けて、所定の条件において最も評価レベルが良好なロボットへの動作指令信号をロボットへ出力するようにすることである。   The nineteenth means applies a visual information processing device that generates image data of an object existing in a moving space by inputting image information of an imaging device and processing an input image in a robot or a robot control device. Means for generating three-dimensional CAD data of the environment in which the robot operates and specifying the current position of the robot in the CAD data; and means for specifying the current posture and operating state of the robot from various sensor signals from the robot; , 3D CAD data of the environment in which the robot operates, means for reflecting the current position of the robot in the CAD data, the current posture and operating state of the robot in the simulation model of the robot, and simulating the robot operation And means for inputting an operation command signal of the robot based on the movement plan to the simulation means A means for determining whether or not the simulation result has reached a predetermined evaluation level; and a means for correcting an operation command signal to the robot based on the simulation result when the simulation result does not reach the predetermined evaluation level. An operation command signal to the robot having the best evaluation level under a predetermined condition is output to the robot.

このような第19の手段は、ロボットあるいいはロボットの制御装置において、撮像装置の画像情報を入力とし入力画像情報を処理して移動空間に存在する物体のCADデータを生成する視覚情報処理装置を適用して、ロボットの動作する環境の3次元CADデータを生成してCADデータの中のロボットの現在位置を特定する手段と、ロボットからの各種センサ信号よりロボットの現在の姿勢、動作状態を特定する手段と、前記ロボットの動作する環境の3次元CADデータと前記CADデータの中のロボットの現在位置と前記ロボットの現在の姿勢、動作状態をロボットのシミュレーションモデルへ反映する手段と、ロボットの動作をシミュレーションする手段と、そのシミュレーション手段に移動計画に基づくロボットの動作指令信号を入力する手段と、シミュレーション結果が所定の評価レベルになったか否かを判断する手段と、シミュレーション結果が所定の評価レベルに至らなかった場合にシミュレーション結果に基づきロボットへの動作指令信号を修正する手段とを設けて、所定の条件において最も評価レベルが良好なロボットへの動作指令信号をロボットへ出力するようにするので、そしてこの処理は高速にリアルタイムで行うようにするので、ロボットが飛んだり跳ねたりするダイナミックな移動制御においても、ロボットが飛んでいる途中に腕を振ったり、胴をひねったならばどのように姿勢が変わるかもシミュレーションすることができて、着地するまでに計画する姿勢にもっていくための最適な動作もシミュレーション(ここでいうシミュレーションは物体に作用する力、反力を求めて、速度、加速度、変位を求めるダイナミックなシミュレーションを意味している)で求めることができるので、ロボットを常に計画どおりに制御できる動作指令信号を出力することができ、安定にダイナミックなロボットの制御を行うことが可能となる。このような処理を行うロボットの制御装置に、少なくとも前記第1〜18の手段で述べたような視覚情報処理装置あるいは視覚情報処理システムを適用することで、ここで行うシミュレーションに用いるロボットの現在いる環境の3次元CADデータはアズビルトのCADデータがリアルタイムに生成され、またその中のロボットの現在位置と姿勢情報についてもリアルタイムで得ることができるので、シミュレーション結果は現在いるロボットの実際の環境に基づき適切な制御データが得られ安定にリアルタイムの制御が実現可能となる。   Such a nineteenth means is a visual information processing device for generating CAD data of an object existing in a moving space by inputting image information of an imaging device and processing input image information in a robot or a robot control device. Is used to generate 3D CAD data of the environment in which the robot operates, to identify the current position of the robot in the CAD data, and to determine the current posture and operating state of the robot from various sensor signals from the robot. Means for reflecting the three-dimensional CAD data of the environment in which the robot operates, the current position of the robot in the CAD data, the current posture of the robot, and the operating state in the simulation model of the robot; Means for simulating motion, and motion command signal of robot based on movement plan in the simulation means Means for inputting, means for determining whether or not the simulation result has reached a predetermined evaluation level, and means for correcting an operation command signal to the robot based on the simulation result when the simulation result does not reach the predetermined evaluation level Is set so that the operation command signal to the robot with the best evaluation level under the predetermined condition is output to the robot, and this processing is performed in real time at high speed, so that the robot jumps and jumps. Even in dynamic movement control, you can simulate how the posture changes if you swing your arm or twist the torso while the robot is flying, depending on the posture you plan before landing Simulation of the optimal operation to go (simulation here is a thing (It means dynamic simulation to find the force, reaction force, and speed, acceleration, and displacement), so that it can output a motion command signal that can control the robot as planned. This makes it possible to control the robot dynamically and stably. By applying at least the visual information processing apparatus or the visual information processing system as described in the first to eighteenth means to the control apparatus for the robot that performs such processing, there is currently a robot used for the simulation performed here. As the 3D CAD data of the environment, as-built CAD data is generated in real time, and the current position and posture information of the robot in it can be obtained in real time, so the simulation results are based on the actual environment of the current robot Appropriate control data can be obtained and real-time control can be realized stably.

第20の手段は、マニピュレータ,移動ロボット,文字読み取り装置,物体認識装置,計測装置,CADデータ生成装置,ナビゲーション装置,検査装置,ピッキング装置,自律制御型ロボット,監視装置,自動車,船,飛行機などのシステムに、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   The twentieth means includes a manipulator, a mobile robot, a character reader, an object recognition device, a measurement device, a CAD data generation device, a navigation device, an inspection device, a picking device, an autonomous control robot, a monitoring device, an automobile, a ship, an airplane, etc. In other words, the visual information processing apparatus configured by selectively applying the first to nineteenth means or the visual information processing system using the visual information processing system is applied.

このような第20の手段は、特定部位の位置決めを行なうロボットあるいはマニピュレータにおいては、その制御装置に前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、例えば、遠隔操作ロボットなどでは、手先の自動位置決めを行なうシステムを容易に構築することができる。具体的には、例えば、手先に撮像装置を取り付けて該撮像装置の位置と姿勢情報を得れば、その情報に基づいて手先の位置を目標とする位置へ修正制御することが可能となる。また、手先がアクセスしようとする対象物体をCADデータから探索してその対象物体の位置と姿勢情報を得るようにすれば、撮像装置と対象物体の両方の位置と姿勢が分かるので、より正確に手先を対象物体にアクセスするように誘導制御することが可能となる。また、手先に撮像装置を付けられない場合には、手先を撮影する撮像装置を別に設けることで、その撮像装置の画像情報で手先のCADデータの探索を行って手先の位置と姿勢を直接に検出して制御に利用することも可能となる。   Such a twentieth means is, in a robot or manipulator for positioning a specific part, a visual information processing apparatus configured by selectively applying the first to nineteenth means to the control device, or the same. Since the visual information processing system is applied, for example, a remote operation robot can easily construct a system for automatically positioning the hand. Specifically, for example, if the imaging device is attached to the hand and the position and orientation information of the imaging device is obtained, the position of the hand can be corrected and controlled to a target position based on the information. Further, if the target object to be accessed by the hand is searched from the CAD data and the position and orientation information of the target object is obtained, the position and orientation of both the imaging device and the target object can be known, so that more accurate It is possible to perform guidance control so that the hand is accessed to the target object. In addition, when an image pickup device cannot be attached to the hand, a separate image pickup device for photographing the hand is provided, and the CAD data of the hand is searched using the image information of the image pickup device to directly determine the position and posture of the hand. It can also be detected and used for control.

また、移動ロボットにおいては、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、移動ロボット自身の位置決め、姿勢制御を容易に行なうことができるようになる。例えば、移動ロボットに撮像装置を搭載すれば、撮像装置の位置と姿勢情報は移動ロボットの位置と姿勢の情報を示すことになるので、その情報に基づいて移動ロボットの位置や姿勢を制御することで、移動ロボットの位置決め制御,姿勢制御,誘導制御などを容易に行なうことができるようになる。水中を浮遊するROV等に撮像装置を搭載して、この装置を適用すれば、水中深く位置していて、水面の上から水中のROVを直接見ることができなくとも、例えば、周囲環境のCADデータと撮像装置のその中での位置と姿勢を操作卓の表示装置に表示するようにすれば、水中ROVの遠隔操作を、その表示装置で位置と姿勢を確認しながら容易に行なうことができるようになる。また、CADデータ上で任意の場所の正面に位置するように最終目標位置と姿勢を入力して自動的にその目標位置と姿勢に水中ROVがなるように制御すようにすれば、自動運転の制御システムも容易に構築することも可能となる。もちろん、飛行船や飛行機などに撮像装置を搭載して飛行ロボットの遠隔操作と自動制御に適用することもできる。   Moreover, in the mobile robot, since the visual information processing apparatus configured by selectively applying the first to nineteenth means or the visual information processing system using the same is applied, the positioning of the mobile robot itself, Attitude control can be easily performed. For example, if an imaging device is mounted on a mobile robot, the position and orientation information of the imaging device indicates information on the position and orientation of the mobile robot, so that the position and orientation of the mobile robot can be controlled based on that information. Thus, positioning control, posture control, guidance control, etc. of the mobile robot can be easily performed. If an imaging device is mounted on a ROV that floats in water and this device is applied, for example, the CAD of the surrounding environment is located even if the ROV is located deep in the water and the ROV in the water cannot be seen directly from above the water surface. If the data and the position and orientation of the imaging device are displayed on the display device of the console, the remote operation of the underwater ROV can be easily performed while confirming the position and orientation with the display device. It becomes like this. In addition, if the final target position and posture are input so as to be positioned in front of an arbitrary place on the CAD data, and the underwater ROV is automatically controlled to be the target position and posture, automatic driving can be performed. A control system can also be easily constructed. Of course, an imaging device can be mounted on an airship or an airplane and applied to remote operation and automatic control of a flying robot.

また、文字読み取り装置では、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、例えば、3次元的に凹凸のある刻印文字などは単純に2次元の画像処理では読み取り難い文字についても3次元のCADデータのマッチング処理により所定の文字を認識し易くしたシステムを容易に構築することができる。また、時系列に変化する文字も時系列にデータを生成することができるので、例えば、電光掲示板で流れるように表示される文字とか風で揺らいでいる看板などのように予め移動パターンが分かってない移動する文字なども容易に読み取ることができるシステムを構築することが可能となる。   In the character reading device, a visual information processing device configured by selectively applying the first to nineteenth means or a visual information processing system using the same is applied. It is possible to easily construct a system that makes it easy to recognize predetermined characters by matching processing of three-dimensional CAD data even for characters that are difficult to read by a two-dimensional image processing. Also, since characters that change in time series can be generated in time series, the movement pattern is known in advance, for example, characters that are displayed to flow on an electric bulletin board or signs that are swaying in the wind. It is possible to construct a system that can easily read characters that do not move.

また、3次元の物体認識装置、計測装置、CADデータ生成装置では、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、プラントなどの現場調査、車のデザイン設計、CGのキャラクタなどに必要な3次元の物体認識装置、計測装置、CADデータ生成装置等を容易に実現することが可能となる。すなわち、高精度の分解能の撮像装置を用いたシステムとしなくとも汎用的な撮像装置でも撮像装置を対象物体の近くに寄って撮影してCADデータを生成するようにすれば、近くに寄ればその分精度の良いCADデータを生成することができるので、汎用の撮像装置で撮影して得た画像情報に基づいて精度の良いCADデータを生成することができ、そのCADデータを参照できるシステムとすれば、精度の良い3D計測システムを汎用の撮像装置を用いて容易に構築することが可能となる。生成あるいは更新されたCADデータを取り出すときに、所定のCADデータのフォーマット、例えば、DXFのフォーマットなどへ変換するようにすれば、アズビルトで生成されたCADデータを、例えば、Auto−CADなどの汎用のCADシステムで容易に活用できるようになる。また、撮像装置を地面を走行する走行車と空を飛行する飛行体に搭載すれば、より正確な町並みの3次元地図を容易に作ることができるようになる。すなわち、地面を走行する走行車の視覚情報処理装置は、道路や家などを下から撮影した範囲の詳細なCADデータの生成を行なうが、家の屋根上とか地面に生えている木の上の方は下から見上げている撮影のしかたでは十分な画像情報が得ることができないので、上部のCADデータまで十分に生成することはできないが、空を飛行する飛行体から見下ろして撮影した画像情報で生成されたCADデータと統合することにより、下の方から上部まで生成漏れのない、正確な町並みの3次元地図を容易に作ることができるようになる。   In the three-dimensional object recognition device, measurement device, and CAD data generation device, a visual information processing device configured by selectively applying the first to nineteenth means or a visual information processing system using the same is applied. Therefore, it is possible to easily realize a three-dimensional object recognition device, a measurement device, a CAD data generation device, and the like necessary for field surveys of plants and the like, car design design, CG characters, and the like. That is, even if a general-purpose imaging device is used to generate a CAD data by capturing an image of the imaging device close to the target object without using a system using an imaging device with high-resolution resolution, Since CAD data with high accuracy can be generated, it is possible to generate CAD data with high accuracy based on image information obtained by photographing with a general-purpose imaging apparatus, and to refer to the CAD data. For example, it is possible to easily construct a highly accurate 3D measurement system using a general-purpose imaging device. When the generated or updated CAD data is taken out, it is converted into a predetermined CAD data format, for example, a DXF format. Can be easily used in the CAD system. If the imaging device is mounted on a traveling vehicle traveling on the ground and a flying object flying in the sky, a more accurate three-dimensional map of the town can be easily created. That is, the visual information processing device of a traveling vehicle traveling on the ground generates detailed CAD data of a range where a road or a house is photographed from below, but on the roof of the house or on a tree growing on the ground. If you are looking up from below, you cannot get enough image information, so it is not possible to generate enough CAD data at the top, but you can use the image information taken from the flying object in the sky. By integrating with the generated CAD data, it becomes possible to easily create an accurate three-dimensional map of the townscape with no generation omission from the bottom to the top.

また、ナビゲーション装置では、その処理装置に前記第1〜第19の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、GPS不要のナビゲーション装置を容易に実現することが可能となる。すなわち、移動するナビゲーション装置に撮像装置を接続して、撮像装置で周囲の環境のCADデータを生成および更新しながら、撮像装置の位置と姿勢情報をリアルタイムで取り出すようにして、環境CADデータと撮像装置の位置と姿勢情報を表示するようにすることで容易に現在位置を確認することができるシステムとなる。環境CADデータは、予めある程度のCADデータとしてナビゲーゲーション装置にもたせておくようにしても良いし、例えば、2次元の地図情報のみをもたせておき、走行するに従って生成されていく3次元CADデータの道や交差点付近の建物などから2次元の地図と3次元CADデータを対応させるようにしても良い。予め作成しておくCADデータは、特徴的な建物などをオフラインで入力しておくようにしても良いし、予め自動車や飛行体で町並みのCADデータを本発明の視覚情報処理装置で生成および合成したものを使用するようにする方法でも良い。また、更に、移動してCADデータを生成している他のナビゲーション装置と生成したアズビルトのCADデータを互いに交換し合っても良いし、中央情報処理センタなどを介して複数のナビゲーション装置で生成したCADデータを授受することができるようにしても良い。撮像装置と移動体との取り付け関係が既知であり、その関係を事前に設定しておくことにより、撮像装置の位置と姿勢を表示する代わりに、移動体の位置と姿勢を表示するようにすることもできる。また、環境CADデータの中の目的地が入力されれば、CADデータの中の目的地と現在の移動体の位置から、どのような経路で目的地まで移動していくのが良いかなどのナビゲーションの表示は、GPS搭載のナビゲーション装置と同じように構成して実行すれば良い。   Further, in the navigation device, a visual information processing device configured by applying the first to nineteenth means or a visual information processing system to which the processing device is applied is applied. It can be realized. That is, by connecting an imaging device to a moving navigation device and generating and updating CAD data of the surrounding environment by the imaging device, the position and orientation information of the imaging device is extracted in real time, and the environment CAD data and the imaging By displaying the position and orientation information of the apparatus, the system can easily confirm the current position. The environmental CAD data may be given in advance to the navigation device as a certain amount of CAD data. For example, only the two-dimensional map information is provided, and the three-dimensional CAD data generated as the vehicle travels. A two-dimensional map and three-dimensional CAD data may be associated from a road or a building near an intersection. The CAD data to be created in advance may be input with a characteristic building or the like off-line, or the CAD data of the townscape generated in advance by an automobile or flying object is generated and synthesized by the visual information processing apparatus of the present invention. It is also possible to use the one that has been used. Further, the generated as-built CAD data may be exchanged with other navigation devices that are moving and generating CAD data, or generated by a plurality of navigation devices via a central information processing center or the like. CAD data may be exchanged. The attachment relationship between the imaging device and the moving body is known, and by setting the relationship in advance, the position and orientation of the moving body are displayed instead of displaying the position and orientation of the imaging device. You can also. Also, if the destination in the environmental CAD data is input, what route should be taken to move to the destination from the destination in the CAD data and the current position of the moving body, etc. Navigation display may be configured and executed in the same manner as a GPS-equipped navigation device.

また、検査装置では、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、容易に立体的な形状の検査装置を得ることができる。すなわち、例えば、マニピュレータなどの先端に撮像装置を設けて、この撮像装置でいろいろな角度から検査対象の部位を撮影するようにして検査対象のCADデータを生成するようにすれは、CADデータは、3次元の凸凹状態を正確に再現しているので、例えば所定の場所に所定の部品がきちんと付いているかどうかなど、所定の部品の付いている位置と姿勢情報を取り出せるようにすれば、容易に自動検査装置を構築することが可能となる。撮像装置をマイクロスコープとすれば、生成された3次元のCADデータは、微細な3次元的な凸凹面になることから、例えば、CDやDVDなどの角度をいろいろ変えて見ないと見えない微細な傷なども容易に効率良く検査することができる検査装置を実現することできる。   In addition, since the inspection apparatus applies a visual information processing apparatus configured by selectively applying the first to nineteenth means or a visual information processing system to which the visual information processing apparatus is applied, the three-dimensional shape can be easily obtained. An inspection device can be obtained. That is, for example, if an imaging device is provided at the tip of a manipulator and the like and the CAD data to be inspected is generated by imaging the region to be inspected from various angles with this imaging device, Since the three-dimensional uneven state is accurately reproduced, for example, if it is possible to extract the position and orientation information with a predetermined part such as whether or not the predetermined part is properly attached at a predetermined place, it is easy An automatic inspection device can be constructed. If the imaging device is a microscope, the generated three-dimensional CAD data becomes a fine three-dimensional uneven surface. For example, a fine image that can only be seen by changing the angle of a CD or DVD. It is possible to realize an inspection apparatus that can easily and efficiently inspect even scratches.

また、ピッキング装置あるいはシステムでは、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、通常の汎用の撮像装置を最低1台準備することで、容易にピッキングシステムを構築することが可能となる。すなわち、ハンドリングするマニピュレータの先端に通常の汎用的な撮像装置を取り付けて該撮像装置からの画像情報でワークCADデータを生成するように、最初にワークの周囲から撮影をすることで、ワークのアズビルトCADデータを生成することができる。ここで、撮像装置は、ワークの周囲に複数固定して画像情報の信号を切り替えるようにして該撮像装置をワーク周囲で動かした場合と同じような画像情報が得られるようにしても良い。ワークのアズビルトのCADデータが生成できた後には、ワークの中の一つの部品の形状を予め探索用CADデータとして登録しておき、生成された部品が沢山積み上げられたワークのCADデータの中から一つ一つの部品の位置と姿勢情報を探索機能によって求めて一番外側にある部品から順番にハンドリング用のマニピュレータでピックするように、マニピュレータの制御装置に掴む対象の部品の位置と姿勢情報を与えて該マニピュレータの制御が行なわれるようにすれば、容易にピッキングシステムを構築することができる。特にマニピュレータの先端に撮像装置を付けた場合には、撮像装置をワークに接近させて該ワークを撮影してCADデータを精度良く生成することができるので、撮像装置は、高分解の特殊な撮像装置でなく汎用の一般的な撮像装置で撮影しても精度良いCADデータを生成することができる。ピッキングで部品を取り除いて部品の積み上げられたワークの形状が変わっても、ワークのCADデータが更新されるので、常にそのときの状態に応じてピッキング制御に対応することができる。   In the picking apparatus or system, a visual information processing apparatus configured by selectively applying the first to nineteenth means or a visual information processing system using the same is applied. By preparing at least one unit, it is possible to easily construct a picking system. That is, by attaching an ordinary general-purpose imaging device to the tip of the manipulator to be handled and generating work CAD data based on image information from the imaging device, by first photographing from around the workpiece, the workpiece is built as-is. CAD data can be generated. Here, the image pickup apparatus may be configured to obtain the same image information as when the image pickup apparatus is moved around the workpiece by fixing a plurality of image information signals around the workpiece and switching the image information signal. After the as-built CAD data of the workpiece has been generated, the shape of one part in the workpiece is registered in advance as CAD data for search, and from the CAD data of the workpiece in which many generated parts are stacked. The position and orientation information of the target part to be grasped by the control device of the manipulator is obtained so that the position and orientation information of each part is obtained by the search function and picked by the manipulator for handling in order from the outermost part. If the manipulator is controlled by giving it, a picking system can be easily constructed. In particular, when an imaging device is attached to the tip of a manipulator, the imaging device can accurately generate CAD data by photographing the workpiece by bringing the imaging device close to the workpiece. It is possible to generate CAD data with high accuracy even when shooting with a general-purpose general imaging apparatus instead of the apparatus. Even if the shape of the workpiece stacked with the components removed by picking is changed, the CAD data of the workpiece is updated, so that the picking control can always be handled according to the state at that time.

また、自律制御型ロボットでは、前記第1〜第19の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、自律制御型ロボットを容易に構築することが可能となる。すなわち、ロボットに撮像装置を付ければ、視覚情報処理装置を適用して環境のアズビルトCADデータを容易に生成することができ、その中にある撮像装置の位置と姿勢情報やロボット自身の位置と姿勢情報も容易に得ることができる。更に、環境の中の特定のCADデータを探索することもできるので、予め探索用に準備しているCADデータの有無、有る場合にはその位置と姿勢情報を得ることができるので、それが作業対象物体であれば作業対象物体の位置と姿勢と自分自身の位置と姿勢により、ロボット自身を作業対象物体に対してどのようにでも制御することが可能となる。例えば、特定の作業対象物体を探して持って帰ってくる作業内容を実行しようとする場合には、前記ナビゲーション機能を用いてロボットをナビゲーションが計画したとおりの経路に沿って移動させて作業対象物体を探索させ、作業対象物体が見つかった場合には、それに対して所定の位置と姿勢でロボット自身を接近させて、ロボットが有しているハンドリング機能で作業対象物体を掴んで、再度、ナビゲーション機能を使ってスタート地点まで戻る制御を容易に実現することができるようになる。途中に障害物があれば、環境のCADデータは、随時、生成および更新されているので、この障害物を障害物と認識することも容易に行なうことができるので、予め障害物を発見した場合の対処方法として、例えば障害物を避けて回避経路を探して進むプログラムを用意しておけば、途中に障害物があっても目的とする作業を計画どおりに自律的に実行させることが可能となる。ここで自律制御型ロボットと称するものは、自動車,無人搬送車,マニピュレータ,人間型ロボットの何れもでも良いが、ロボット自身が判断して動作制御する機能を有するロボットのことである。自律制御型ロボットは、基本的には、操作者の指令に従うようにプログラムして良いが、例えば、ペットロボットなどのような場合には、充電が必要な状態の場合には充電器へ向かって充電することを優先するようにプログラムし、必ずしも指令に従わないようにしても良い。また、番犬ロボットに適用する場合には、周囲の人物の不審な服装や不審な動きを認識して、不審者に対しては不審者を追いかけるようにプログラムしておくようなシステムの構築も容易に実現することが可能となる。   Moreover, in the autonomous control type robot, the visual information processing apparatus configured by applying the first to nineteenth means or the visual information processing system applied thereto is applied, so that the autonomous control type robot can be easily constructed. Is possible. That is, if an imaging device is attached to a robot, it is possible to easily generate environmental CAD data by applying a visual information processing device, and the position and orientation information of the imaging device in the environment and the position and orientation of the robot itself. Information can also be obtained easily. Furthermore, since it is possible to search for specific CAD data in the environment, the presence / absence of CAD data prepared for searching in advance, and the position and orientation information of the CAD data, if any, can be obtained. In the case of a target object, the robot itself can be controlled in any way with respect to the work target object by the position and posture of the work target object and the position and posture of itself. For example, when trying to execute a work content to be found and returned by searching for a specific work target object, the robot uses the navigation function to move the robot along the route planned by the navigation, and then the work target object. When the work target object is found, the robot itself is approached at a predetermined position and posture, the work target object is held by the robot, and the navigation function is again performed. Control to return to the starting point using can be easily realized. If there is an obstacle on the way, the CAD data of the environment is generated and updated at any time, so it is easy to recognize this obstacle as an obstacle. For example, if you prepare a program that searches for an avoidance route while avoiding obstacles, you can autonomously execute the target work as planned even if there is an obstacle on the way. Become. Here, what is called an autonomous control type robot may be any of an automobile, an automatic guided vehicle, a manipulator, and a humanoid robot, but is a robot having a function of controlling the operation by the robot itself. The autonomous control type robot may basically be programmed to follow the operator's command. For example, in the case of a pet robot, etc. It may be programmed to prioritize charging and not necessarily follow the command. Also, when applied to watchdog robots, it is easy to build a system that recognizes suspicious clothes and suspicious movements of surrounding people and programs suspicious people to follow them. Can be realized.

また、監視装置では前記第1〜第19の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、監視対象物を認識して、監視対象物ごとに必要な監視を容易に行わせることができる。例えば、赤ん坊の形状をあらかじめ登録しておけば、登録されている赤ん坊を探索したり、赤ん坊の位置を検出でき、赤ん坊が移動してもトラッキングしながら継続して赤ん坊を撮影する制御も容易にできるので、更に赤ん坊の泣いている表情、笑っている表情などを登録しておき、現在の表情がどの表情に近いかを検出することで、赤ん坊が笑っているか、泣いているかなどの状況も自動的に認識できるので、あらかじめ泣いたらばアラームで親に知らせるように設定しておけば、赤ん坊が泣いたら親に自動的に知らせるような監視システムも容易に構築することが可能となる。ここでは赤ん坊の表情の監視を例にとって説明したが、自然の状態、機器の運転状態、プラント状態、不審者の侵入監視など、CADデータで形状を探索、マッチングさせることで、また、音声や温度センサ等他のセンサ情報とも組み合わせるようにしていろいろな監視システムを容易に実現可能となる。   In addition, since the monitoring device applies a visual information processing device configured by applying the first to nineteenth means or a visual information processing system to which the visual information processing device is applied, the monitoring target is recognized and each monitoring target is recognized. Necessary monitoring can be easily performed. For example, if you register the baby shape in advance, you can search for registered babies, detect the baby's position, and easily control the shooting of the baby while tracking it even if the baby moves You can also register your baby's crying facial expression, laughing facial expression, etc., and by detecting which facial expression the current facial expression is close to, the situation such as whether the baby is laughing or crying Since it can be automatically recognized, if it is set to notify the parent with an alarm if it crys in advance, a monitoring system that automatically notifies the parent when the baby cry can be easily constructed. In this example, the monitoring of the baby's facial expression has been described as an example. However, by searching and matching the shape with CAD data, such as the natural state, device operating state, plant state, and suspicious person intrusion monitoring, the voice and temperature Various monitoring systems can be easily realized by combining with other sensor information such as sensors.

また、自動車、船、飛行機などのシステムでは、前記第1〜第19の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、搭載した撮像装置で周囲環境のアズビルトCADデータを生成できるようになり、また、撮像装置の現在位置と現在の姿勢も、周囲環境のアズビルトCADデータを生成するときの3D計測、トラッキング処理を行う中で計算されるので、撮像装置を取り付けている自動車、船、飛行機などの移動する乗り物の位置と方向が検出されるので、らかじめ目的の移動ルートが設定されていれば、目的の移動ルートから現在位置のずれを計算して、自動車、船、飛行機などの移動する乗り物の位置と方向を目的の移動ルートに一致するように修正する制御を自動的に行うことができる、また、この時に移動する周囲、前方の人や車、船、飛行機、その他の物体もあらかじめ登録しておくことにより、近くにいる物体が何かが検出できるので、また、検出された物体に応じて、それを避けて迂回制御するか、止まるか、そのまま進むかなどの制御プログラムもあらかじめ用意しておけば、検出した物体に応じた適切な移動経路の修正,変更もしながら、目的とする移動ルートに合わせるように自動車、船、飛行機などの移動する乗り物を自動で運転制御させることも容易に実現可能となる。   In systems such as automobiles, ships and airplanes, the visual information processing apparatus configured by applying the first to nineteenth means or the visual information processing system using the same is applied. As a result, it is possible to generate environmental as-built CAD data, and the current position and current posture of the imaging device are also calculated during 3D measurement and tracking processing when generating as-built CAD data of the surrounding environment. Since the position and direction of a moving vehicle such as an automobile, ship, or airplane with an imaging device attached is detected, if the target travel route has been set in advance, the current position will be deviated from the target travel route. It can automatically control to calculate and correct the position and direction of moving vehicles such as cars, boats, airplanes, etc. to match the target moving route. It is also possible to detect nearby objects by registering in advance the surroundings that move at this time, people and cars ahead, boats, airplanes, and other objects in advance. If a control program is prepared in advance according to the object, such as bypass control, stopping, or proceeding as it is, the purpose is to correct and change the appropriate movement path according to the detected object. It is also possible to easily control driving of moving vehicles such as automobiles, ships, and airplanes so as to match the travel route.

第21の手段は、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、ユーザからのリクエストによりユーザを探索し、監視中はユーザを追跡して、ユーザおよびユーザの周辺を連続して監視するようにすることである。   In a monitoring service providing system that centrally monitors information sent from one or a plurality of terminals at the center, the twenty-first means searches for a user by a request from the user, tracks the user during monitoring, And continuously monitoring the user's surroundings.

このような第21の手段は、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、ユーザからのリクエストによりユーザを探索し、監視中はユーザを追跡して、ユーザおよびユーザの周辺を連続して監視するようにしているので、ユーザの安全を保証する監視サービスシステムを容易に構築することが可能となる。ここで、追跡は、手動装置で行っても良いし、画像処理等で自動追尾を行なうようにしても良い。また、自律制御型ロボットのユーザがロボットの監視用に本サービスを利用することでもできる。画像は、監視中、録画されるようにして後で参照できるようにしておくと良い。また、監視カメラなどが設置されていない場所や設置数の少ない場所を人が移動するような場合には、人が携帯用の小型カメラ付けて本サービスを受けられるようにすることもできる。また、監視サービス提供スシステムの処理装置に前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムすれば、3次元CADデータに基づいてユーザの自動追跡が容易になる。また、周辺の状況を3次元CADデータで見ることができるようになるので、より一層、的確に現場状況を確認することができるようになる。   In such a 21st means, in a monitoring service providing system that centrally monitors information sent from one or a plurality of terminals at the center, the user is searched by a request from the user, and the user is tracked during monitoring. Since the user and the user's surroundings are continuously monitored, a monitoring service system that guarantees the safety of the user can be easily constructed. Here, tracking may be performed by a manual device, or automatic tracking may be performed by image processing or the like. In addition, a user of an autonomous control type robot can use this service for robot monitoring. The image may be recorded during monitoring so that it can be referenced later. In addition, when a person moves around a place where a surveillance camera or the like is not installed or a place where the number of installations is small, it is possible to attach a portable small camera so that the person can receive this service. Further, if a visual information processing device configured by selectively applying the first to nineteenth means to a processing device of a monitoring service providing system or a visual information processing system using the visual information processing device is used, it is based on three-dimensional CAD data. Automatic tracking of users. In addition, since the surrounding situation can be viewed with the three-dimensional CAD data, the field situation can be confirmed more accurately.

第22の手段は、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、各端末には所定の期間の所定の情報を時刻と対応つけて記録しておく機能を設け、ユーザーからのリクエストにより所定の端末の所定の時刻の記録データを取り出せるようにしたことである。   The twenty-second means is a monitoring service providing system that centrally monitors information sent from one or a plurality of terminals, and records predetermined information for a predetermined period in each terminal in association with time. This is a function that allows recording data at a predetermined time of a predetermined terminal to be taken out by a request from a user.

このような第22の手段では、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、各端末には所定の期間の所定の情報を時刻と対応つけて記録しておく機能を設け、ユーザからのリクエストにより所定の端末の所定の時刻の記録データを取り出せるようにするので、ユーザからの監視サービス依頼が依頼されているときの監視サービス以外に監視サービスが依頼されていなかったときに事件が発生した場合においても過去の監視記録データを取り出すことから事件捜査に容易に利用できるようになるので、監視サービスを依頼しないで事件に巻き込まれたユーザに対してもサービスを提供できるようになる。   In such a twenty-second means, in the monitoring service providing system for centrally monitoring information sent from one or a plurality of terminals, each terminal associates predetermined information for a predetermined period with time. Since a recording function is provided so that recorded data of a predetermined terminal at a predetermined time can be extracted by a request from the user, a monitoring service is provided in addition to the monitoring service when a monitoring service request is requested from the user. Even if an incident occurs when it has not been requested, since past monitoring record data can be easily extracted and used for incident investigation, users who are involved in the incident without requesting a monitoring service Will also be able to provide services.

第23の手段は、前記第21,22の手段を選択的に適用して構成した監視サービス提供システムにおいて、監視中はユーザ周辺の人に監視サービス中であることを知らせる状態表現手段を設けたことである。   A twenty-third means is a monitoring service providing system configured by selectively applying the twenty-first and twenty-second means, and a state expression means for notifying a person around the user that the monitoring service is in progress is provided during monitoring. That is.

この第23の手段では、1台あるいは複数の端末から送られてくる情報をセンタで統括監視して、前記第21,22の手段を選択的に適用して構成した監視サービス提供システムにおいて、監視中はユーザ周辺の人に監視サービス中であることを知らせる状態表現手段を設けるので、不審者に襲われる前に不審者をけん制することができるようになる。   In the twenty-third means, a monitoring service providing system configured by centrally monitoring information sent from one or a plurality of terminals at the center and selectively applying the second and second means, Since a state expression means for notifying a person around the user that the monitoring service is being provided is provided, the suspicious person can be restrained before being attacked by the suspicious person.

第24の手段は、前記第20〜23の手段を選択的に適用して構成した監視サービス提供システムにおいて、監視中にユーザへ知らせる状況が発生した場合にはユーザあるいはユーザとその周辺の人にその情報を提供する手段を設けたことである。   In a monitoring service providing system configured by selectively applying the twenty-third to twenty-third means, the twenty-fourth means is configured to notify the user or the user and the surrounding people when a situation to inform the user occurs during monitoring. A means for providing the information is provided.

この第24の手段では、前記第20〜23の手段を選択的に適用して構成した監視サービス提供システムにおいて、監視中にユーザへ知らせる状況が発生した場合にはユーザあるいはユーザとその周辺の人にその情報を提供する手段を設けるので、不審者に襲われる前にユーザあるいはその周辺の人にその情報を知らせることができるので事件を未然に防ぐことができるようになる。   In the twenty-fourth means, in the monitoring service providing system configured by selectively applying the twenty-second to twenty-third means, when a situation to inform the user during the monitoring occurs, the user or the user and the surrounding people Since the means for providing the information is provided to the user or the person in the vicinity thereof before being attacked by the suspicious person, the incident can be prevented in advance.

第25の手段は、センサ情報を取得するための端末装置において、あらかじめ複数箇所にセンサの設置ポートを設けておき、端末を組み立てるときに1セットあるいは複数セットのセンサを所定の個所の設置ポートに接続できる構成としたことである。   According to a twenty-fifth means, in a terminal device for acquiring sensor information, sensor installation ports are provided in advance at a plurality of locations, and when assembling the terminal, one set or a plurality of sets of sensors are used as installation ports at predetermined locations. It is a configuration that can be connected.

この第25の手段では、センサ情報を取得するための端末装置において、あらかじめ複数箇所にセンサの設置ポートを設けておき、端末を組み立てるときに1セットあるいは複数セットのセンサを所定の個所の設置ポートに接続できる構成とするので、センサを設置する場所に応じて必要な方向にのみセンサを組み込むことができるので必要最小限のセンサで必要な端末装置を組み立てることができるようになる。   In the twenty-fifth means, in a terminal device for acquiring sensor information, sensor installation ports are provided in advance at a plurality of locations, and when assembling the terminal, one set or a plurality of sets of sensors are installed at predetermined locations. Since the sensor can be incorporated only in the necessary direction according to the place where the sensor is installed, the necessary terminal device can be assembled with the minimum necessary sensor.

本発明によれば、アズビルト3D−CADデータをリアルタイムで自動生成可能とし、また、CADデータの探索機能と組み合わせて、ロボット等の各種自動機械の視覚誘導制御装置として、また、ナビゲーションシステム、移動検査装置、監視サービスシステムなどとして適用可能な視覚情報処理装置およびそのシステムを提供することができる。   According to the present invention, as-built 3D-CAD data can be automatically generated in real time, combined with a CAD data search function, as a visual guidance control device for various automatic machines such as robots, navigation systems, and mobile inspections It is possible to provide a visual information processing apparatus and its system that can be applied as a device, a monitoring service system, and the like.

本発明は、移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、前記画像情報処理装置には、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能を設け、
新生CADデータを生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現するように構成する。
The present invention relates to an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a vision device that includes a storage device that stores the generated CAD data. In the information processing apparatus, the image information processing apparatus includes an update target determination processing function for determining whether the generated new CAD data is an update target of the already generated CAD data, and a ready CAD that is an update target. CAD data accuracy comparison processing function that compares the accuracy of data and new CAD data, and CAD data that updates new CAD data with new CAD data when the accuracy of new CAD data is higher than the accuracy of existing CAD data to be updated An update processing function is provided,
The function to generate new-generation CAD data is a stable measurement among the points measured in stereo by associating the feature points in the image information of a plurality of imaging devices captured at the same time from the feature parts of the image information. The method is realized by executing a method of obtaining three-dimensional coordinate data so that corresponding points in the image information by movement of the imaging device are related by tracking and tracking at least three points.

図1は、本発明の視覚情報処理装置における第1の手段の基本構成を示すブロック図である。   FIG. 1 is a block diagram showing the basic configuration of the first means in the visual information processing apparatus of the present invention.

画像情報処理装置100は、撮像装置10によって得た画像情報を直に/または記録媒体を介して間接的に入力してCADデータを生成し、生成したCADデータを記憶装置200に記憶させる。   The image information processing apparatus 100 generates CAD data by inputting image information obtained by the imaging apparatus 10 directly or indirectly via a recording medium, and stores the generated CAD data in the storage device 200.

撮像装置10は、移動するTVカメラのような装置であり、CADデータ化するあらゆる物体をいろいろな角度から撮影して画像情報を生成する。   The imaging device 10 is a device such as a moving TV camera, and shoots every object to be converted into CAD data from various angles to generate image information.

画像情報処理装置100は、撮像装置10が撮影して生成した画像情報を直に/または間接的に入力して該画像情報に含まれるあらゆる物体の3次元CDAデータを生成して記憶装置200に記憶させる。また、この画像情報処理装置100は、必要に応じて、記憶装置200に記憶している既成CADデータを読み込み、新たに生成した新生CADデータと精度を比較し、新生CADデータの精度が既成CADデータよりも高いときには記憶装置200に記憶している既成CADデータを新生CADデータで更新する。撮像装置10は、環境を自由に動き回ることができるので、環境にある物体に近寄ることや離れることもできる。撮像装置10が対象物体に近くなれば精度良く物体を撮影することができるので、例えば、遠くでは1本の線に見えていた部分が近くに寄るとか、見る角度が変わることによって2本に見えることがあるので、画像情報処理装置100は、先に生成した既成CADデータをより詳細になるように、また、先に誤認識して生成した部分を修正するように更新するCADデータ更新機能を有する。   The image information processing apparatus 100 directly or indirectly inputs image information generated by imaging by the imaging apparatus 10 to generate 3D CDA data of any object included in the image information, and stores it in the storage device 200. Remember. In addition, the image information processing apparatus 100 reads the ready-made CAD data stored in the storage device 200 as needed, compares the newly-generated new-CAD data with accuracy, and the accuracy of the new-generation CAD data is the ready-made CAD data. When it is higher than the data, the existing CAD data stored in the storage device 200 is updated with the new CAD data. Since the imaging apparatus 10 can freely move around in the environment, the imaging apparatus 10 can approach or leave an object in the environment. Since the object can be photographed with high accuracy when the imaging device 10 is close to the target object, for example, a portion that was seen as a single line at a distance is closer, or two appear as the viewing angle changes. Therefore, the image information processing apparatus 100 has a CAD data update function for updating the previously generated CAD data so as to be more detailed and so as to correct a part that was previously erroneously recognized and generated. Have.

これによって、撮像装置10をいろいろと動かして物体を詳細に撮影すればするほどより正確なCADデータを構築することができるようになる。また、いろいろな位置に動き回ることができる撮像装置10であるので、物体の裏面も下面も上面も撮影して画像情報を生成することができるので、精度良いアズビルトのCADデータを容易に生成することができるようになる。   As a result, more accurate CAD data can be constructed as the imaging apparatus 10 is moved in various ways to photograph an object in detail. In addition, since the imaging apparatus 10 can move around in various positions, image information can be generated by photographing the back surface, the bottom surface, and the top surface of the object, so that accurate as-built CAD data can be easily generated. Will be able to.

図2は、本発明の視覚情報処理装置における第1の手段の基本構成の他の例を示すブロック図である。   FIG. 2 is a block diagram showing another example of the basic configuration of the first means in the visual information processing apparatus of the present invention.

画像情報処理装置100は、第1の撮像装置10と第2の撮像装置20によって撮影して得た2つの画像情報を直接または記録媒体を介在させて間接的に入力する。第1の撮像装置10と第2の撮像装置20は、ステレオ計測を行なうことができるように、所定の間隔をおいて固定する。この構成であれば、画像情報処理装置100は、2台の撮像装置10,20から入力する2つの画像情報を用いてステレオ計測で物体までの距離情報を計測しながらCADデータを生成することが可能となる。その他は、図1に示した視覚情報処理装置の構成と同じ構成である。   The image information processing apparatus 100 inputs two pieces of image information obtained by photographing with the first imaging device 10 and the second imaging device 20 directly or indirectly through a recording medium. The first imaging device 10 and the second imaging device 20 are fixed at a predetermined interval so that stereo measurement can be performed. With this configuration, the image information processing apparatus 100 can generate CAD data while measuring distance information to an object by stereo measurement using two pieces of image information input from the two imaging apparatuses 10 and 20. It becomes possible. The other configuration is the same as the configuration of the visual information processing apparatus shown in FIG.

次に、画像情報処理装置100の内部構成について説明する。画像情報処理装置100は、基本的には、演算処理装置と情報(演算)処理プログラムによって構成する。ここで、第1の手段は、図1に示すように単眼の撮像装置10を使用して構成する場合であり、第1の手段の他の形態の構成段は、図2に示すように複眼(ステレオ)の撮像装置10,20を使用して構成する場合であるが、画像情報処理装置100の基本的な情報処理の流れは同じになるので、ここでは、まず、単眼の場合の基本的な処理の流れを説明した後に、図3〜図8を用いて、複眼(ステレオ)の場合の処理を説明する。単眼の場合の処理は、複眼(ステレオ)でないとできない処理を省いたような処理となる。   Next, the internal configuration of the image information processing apparatus 100 will be described. The image information processing apparatus 100 basically includes an arithmetic processing device and an information (arithmetic) processing program. Here, the first means is a case of using a monocular imaging device 10 as shown in FIG. 1, and the configuration stage of another form of the first means is a compound eye as shown in FIG. This is a case of using the (stereo) imaging devices 10 and 20, but the basic information processing flow of the image information processing device 100 is the same. After describing the processing flow, the processing in the case of compound eyes (stereo) will be described with reference to FIGS. Processing in the case of a single eye is processing that omits processing that can only be performed with a compound eye (stereo).

単眼の場合の基本的な処理の流れでは、処理をスタートすると、撮像装置10によって得た画像情報を取り込み、微分処理やノイズ除去などの処理を行い、線分を抽出して、例えば、その線分の始点と終点をトラッキングなどで追跡することにより、複数の違った視点から撮影した複数枚の画像情報間で始点と終点のように対応する点の明確な画像情報が得られるので、写真計測法でそれらの点の3次元座標を計算する。そして、その3次元の始点と終点を結ぶ線分を3次元のCADデータとして定義し、同じように複数の線分について定義していくことにより、空間にある物体のいろいろな部分の線分のCADデータを生成する。ここで、更に、撮像装置10を移動させて対象物体に近寄せれば、撮像装置10は対象物体をより大きく撮像することができるので、分解能、すなわち、精度が良くなる。それで引き続きCADデータの生成処理を繰り返して、以前に1本に見えていた線が2本に見えるようになったならば(CADデータ更新対象判別機能およびCADデータ精度処理機能)、既成のCADデータにおける1本の線分を2本の線分に更新する(CADデータ更新処理機能)。   In the basic processing flow in the case of a monocular, when processing is started, image information obtained by the imaging device 10 is taken in, processing such as differentiation processing and noise removal is performed, and a line segment is extracted. By tracking the start point and end point of a minute by tracking, etc., it is possible to obtain clear image information of corresponding points like the start point and end point between multiple pieces of image information taken from different viewpoints, so photo measurement The three-dimensional coordinates of those points are calculated by the method. Then, a line segment connecting the three-dimensional start point and the end point is defined as three-dimensional CAD data, and by defining a plurality of line segments in the same manner, line segments of various parts of the object in the space are defined. CAD data is generated. Here, if the imaging device 10 is further moved closer to the target object, the imaging device 10 can capture a larger image of the target object, so that the resolution, that is, the accuracy is improved. Then, the CAD data generation process is repeated, and if the line that was previously seen as one appears as two lines (CAD data update target discrimination function and CAD data accuracy processing function), the ready-made CAD data The one line segment in is updated to two line segments (CAD data update processing function).

このような機能により、撮像装置10を移動させて対象物体をより詳しく観察(撮影)すればするほど、より精度の良いCADデータに置き換えていくことができる。   With such a function, as the imaging apparatus 10 is moved and the target object is observed (photographed) in more detail, it can be replaced with more accurate CAD data.

このようにすることで、トラッキングの途中で線分の一方の端点が見えなくなってしまって、所定の枚数の画像情報の中で対応点がとれない点が生じるとしても、それはそれでその点はまだ処理をしないで対応点のとれた十分な枚数が揃った点のみを処理して、それらの点で3次元のCADデータを生成していく処理を繰り返せば、撮像装置10は移動を継続しているので、CADデータの更新処理機能と組み合わせることにより、徐々に計測される点も増えてCADデータも増え、また、より詳しく更新されながらCADデータがより正確なものになっていく。   By doing this, one end point of the line segment disappears in the middle of tracking, and even if a corresponding point cannot be obtained in a predetermined number of pieces of image information, that point is still If the process of processing only points where a sufficient number of corresponding points are collected without processing and generating three-dimensional CAD data at those points is repeated, the imaging apparatus 10 continues to move. Therefore, by combining with the update processing function of CAD data, the number of points that are gradually measured increases and the CAD data also increases, and the CAD data becomes more accurate while being updated in more detail.

ここで、1度、2本に見えた線を2本の線分のCADデータにした後に、再度、撮像装置10が物体から遠ざかって遠くから撮影するようになった場合には、再度、1本の線分に戻すような更新処理の仕方をしても良いが、1度、2本に見えるようになったものは、その後に1本になっても、2本が1本に見えているだけということで、CADデータを1本には更新しない処理方法とすることが、CADデータをより正確に作成するという目的の場合には適切である。この場合、例えば、3次元の座標を計算する場合のそのときのその計算結果の精度に関する情報を一緒に記憶しておくようにして、再度、同じ場所の同じあたりの点(先に計算されている点を中心に所定半径の球を考えてその中に入る点とかとして同じ場所か否かを判別しても良い。このとき、想定する半径は先に計算されている点の精度に応じて精度が良ければ小さく、精度が悪ければ大きく設定するようにしても良い。)が求められた場合には、今回求めた精度と前回求めた精度を比較して、精度の高い方を残すようにする処理方法にすると良い。   Here, once the line that appeared to be two lines is converted into CAD data of two line segments, when the imaging device 10 takes a picture again from a distance away from the object, again, You may do the update process to return it to the line segment, but once it looks like two, even if it becomes one after that, two appear as one Therefore, a processing method that does not update the CAD data to one is suitable for the purpose of more accurately creating the CAD data. In this case, for example, when calculating three-dimensional coordinates, information on the accuracy of the calculation result at that time is stored together, and again, the same point around the same place (calculated earlier) It is also possible to determine whether a sphere having a predetermined radius around a certain point is the same place as a point that falls within the sphere, and the assumed radius depends on the accuracy of the previously calculated point. If the accuracy is good, it may be set to be small, and if the accuracy is poor, it may be set to a large value.) When required, the accuracy obtained this time is compared with the accuracy obtained last time, and the higher accuracy is left. It is better to use a processing method.

CADデータの更新の概念は、別途、図面を参照して詳細に説明する。ここでは、更新する処理機能を設けることによって、従来、難しいとされていた対応点を確実に追跡する問題を完全に解決する手段を適用しなくとも、そのときそのときに生成できる点のみや生成できる線分のみを生成して、より、精度良く生成された場合には置き換えていく、すなわち、更新していくことにより、撮像装置10を必要な精度のCADデータが十分に得られるように十分に移動することにより、使用目的に十分に対応することができる精度のCADデータを得ることができるようになる。   The concept of updating CAD data will be described in detail separately with reference to the drawings. Here, by providing a processing function to update, it is possible to generate only the points that can be generated at that time without applying a means to completely solve the problem of reliably tracking corresponding points, which has been considered difficult in the past. By generating only line segments that can be generated and replacing them when they are generated more accurately, that is, by updating, it is sufficient to obtain sufficient CAD data of the required accuracy for the imaging apparatus 10. By moving to, it becomes possible to obtain CAD data with an accuracy sufficient to meet the purpose of use.

次に、図3〜図8を用いて、複眼(ステレオ)の場合の処理を説明する。複眼(ステレオ)の場合には、ステレオによる3次元の計測と、撮像装置10,20を移動させることによって、単眼の場合と同じように写真計測と組み合わせた場合の実施の形態を説明する。3次元(3D)座標を計測する手段、トラッキングの手段、何を特徴点としてトラッキングさせるかとか、CADデータは3次元データのみ生成するようにするとか、2次元の各画像情報ベースで2次元のCADデータも併用するなどCADデータの生成の仕方にもいろいろ考えられるので、処理速度とか、メモリ容量を小さくするとか、その目的にあった適切な手法を適用しても良い。このように本発明の適用の仕方はいろいろあるが、ここではあくまでも、一実施の形態として説明する。   Next, processing in the case of compound eyes (stereo) will be described with reference to FIGS. In the case of compound eyes (stereo), an embodiment will be described in which three-dimensional measurement using stereo and the imaging devices 10 and 20 are moved and combined with photo measurement in the same manner as in the case of a single eye. Means for measuring three-dimensional (3D) coordinates, means for tracking, what is tracked as a feature point, CAD data is generated only for three-dimensional data, or two-dimensional image information based on two-dimensional Various methods of generating CAD data, such as using CAD data together, can be considered. Therefore, it is possible to apply a method suitable for the purpose, such as reducing processing speed or memory capacity. As described above, there are various ways of applying the present invention, but here, it will be described as an embodiment.

図3は、第1の手段を実現する画像情報処理装置100における処理の基本的な流れを示すフローチャートである。   FIG. 3 is a flowchart showing a basic flow of processing in the image information processing apparatus 100 realizing the first means.

スタート100aは、電源ONで処理がスタートするようにしても良いし、スタート釦などでスタートさせるようにしても良いが、処理の開始の部分である。スタート100aから処理が始まると、処理の流れとしては、まず、撮像装置10,20によって得た画像情報の取り込み処理100bを行なう。取り込んだ画像情報は、記憶装置200へ生画像情報として記憶しても良いし、画像情報処理装置100内の画像専用メモリに記憶するようにしても良いが、次の処理に使えるようにしておくことが必要である。   The start 100a may be started when the power is turned on, or may be started with a start button or the like, but is a start of processing. When the processing starts from the start 100a, first, the processing flow of the image information obtained by the imaging devices 10 and 20 is performed. The captured image information may be stored as raw image information in the storage device 200, or may be stored in an image-dedicated memory in the image information processing apparatus 100, but may be used for the next processing. It is necessary.

次に、取り込んだ画像情報の微分処理やノイズ除去などの処理(1)100cを行なう。   Next, processing (1) 100c such as differentiation processing and noise removal of the captured image information is performed.

ここで、この処理(1)100cの具体例を図4を参照して説明する。画像情報はステレオであるので2枚分ある。左の生画像情報(生画像)101aに対して微分処理などを行なうことによって、処理画像情報101cのような線画像情報(線画像)を生成する。この処理は、微分処理でなくても良く、輪郭を抽出する処理を行なえば同じ結果が得られる。右の生画像情報(生画像)101bも同様に処理することにより、処理画像情報101dのような線画像情報(線画像)
に変換する。ここで、重要なことは、線分の始点,終点などをトラッキングで追従したりするので、照明の状態が少し変わったり、撮像装置10,20の視点が少し変わった程度で抽出される線分の長さとかが極端に変化しないような安定な処理結果が得られるように、微分処理を行なうパラメータとか、ノイズ除去のパラメータ、手法などを考慮することである。また、線分の端点が他の線分と接しているか否かもある閾値を用いて判定するような処理を行い、照明の条件などで線分が離れた状態で抽出されたような場合でもそれを付けるような補正をするようにすることが望ましい。但し、他の線分と接していると見做せない線分は、見做せる線分が抽出されるまで、そのままにする。何れも、撮像装置10,20の視点が多少変わっても同じように抽出されるようにするのが良い。
Here, a specific example of the processing (1) 100c will be described with reference to FIG. Since the image information is stereo, there are two images. By performing differential processing or the like on the left raw image information (raw image) 101a, line image information (line image) such as processed image information 101c is generated. This process does not have to be a differential process, and the same result can be obtained by performing a process of extracting a contour. By processing the right raw image information (raw image) 101b in the same manner, line image information (line image) such as the processed image information 101d is processed.
Convert to Here, what is important is that the start point, end point, etc. of the line segment are followed by tracking, so that the line segment extracted when the lighting state changes slightly or the viewpoints of the imaging devices 10, 20 change slightly. In order to obtain a stable processing result in which the length of the signal does not change drastically, it is necessary to consider a parameter for performing differentiation processing, a parameter for noise removal, a method, and the like. In addition, even if the end point of a line segment is determined using a threshold that may or may not be in contact with other line segments, even if the line segment is extracted in a separated state due to lighting conditions, etc. It is desirable to make corrections such as However, a line segment that cannot be seen if it is in contact with another line segment is left as it is until a visible line segment is extracted. In either case, it is preferable that the images are extracted in the same way even if the viewpoints of the imaging devices 10 and 20 are slightly changed.

次の処理(2)100dでは、線分にナンバリング処理をしたり、ステレオの場合には、左右の線分の対応付けを行なう。   In the next process (2) 100d, the line segments are numbered, or in the case of stereo, the left and right line segments are associated.

ここで、この処理(2)100dの詳細を図5を参照して説明する。抽出した線画像情報(線画像)の各線分に名前を付けて管理する。線理画像情報(線画像)102a,102bには、直方体の輪郭が各々抽出されている。この直方体を構成する各線分にL1からL9までの名前を付けて管理できるようにナンバリングを行なう。ナンバリングした各線分の線画像情報102a,102b上での座標で、その始点,終点,線種,曲線の場合には該曲線の関数などを2次元画像データベースとして内部メモリまたは記憶装置200へ記憶させて登録する。ここで、この2次元画像データベースの簡単なイメージを下記する。
Here, details of the process (2) 100d will be described with reference to FIG. Name and manage each line segment of the extracted line image information (line image). In the line image information (line images) 102a and 102b, outlines of rectangular parallelepipeds are extracted. Numbering is performed so that each line segment constituting the rectangular parallelepiped can be managed by giving names L1 to L9. In the case of the start point, end point, line type, and curve of the numbered line segment information on the line image information 102a and 102b, the function of the curve is stored in the internal memory or storage device 200 as a two-dimensional image database. And register. Here, a simple image of the two-dimensional image database will be described below.

Figure 2006003263
これらのデータは、撮像装置10,20が移動して撮影シーンが変わったならば、シーン(2),(3)…と増やしていく。
Figure 2006003263
These data are increased to scenes (2), (3), etc. when the imaging devices 10 and 20 move to change the shooting scene.

左右の撮像装置10,20は、人の左右の目と同じ程度に近くに離れた状態に設置することにより、左右の画像情報は少しずれてはいるがほとんど似た画像情報となる(左右の相関性は非常に良い)ので、それを利用して左右の画像データの各々対応する線分や点の対応付けを行なう。対象物体が目前にあって左右の画像情報が極端に違う場合の処理は、部分的なマッチングと十分に同じと判断できる部分の点のみを対応付ける。対応がとれなかった点は、後に撮像装置10,20が移動した場合の時系列の画像情報で写真計測から求めれば良いので、ここで100%の対応とれないからと言って処理ができなくなるものではない。求めた対応付けの関係は、左右の2次元画面データベースにも登録しておく。例えば、上記の例のように線分名称を同じにすることでも良い。線分名称をメモリのレコードNo.として定義しても良いし、左右のデータを記憶装置200内の物理的に別々のメモリへ記憶させて登録するようにしても良い。始点,終点の座標は、ここでは、画像メモリ上の番地になるので整数で良い。線種が直線の場合には、フィッティング関数の係数はなしで良い。曲線が2次曲線であれば、Y=aX+bX+cという関数でフィッティングさせる場合には、係数はa,b,cの3つとなる。線種が円や楕円の場合には、その関数に必要な係数を必要な数だけ登録する。点は、短い線分として始点と終点が一致している線分として定義して良い。 By installing the left and right imaging devices 10 and 20 as close to the left and right eyes of a person as possible, the left and right image information is a little shifted, but the image information is almost similar (left and right Since the correlation is very good), the line segments and points corresponding to the left and right image data are associated with each other. In the case where the target object is in front and the left and right image information are extremely different, only the points of the portion that can be determined to be sufficiently the same as the partial matching are associated. The point where the correspondence could not be taken can be obtained from photographic measurement with time-series image information when the imaging devices 10 and 20 are moved later, so that processing cannot be performed simply because 100% correspondence cannot be obtained here. is not. The obtained association relationship is also registered in the left and right two-dimensional screen databases. For example, the line names may be the same as in the above example. The line segment name is the record number of the memory. Alternatively, the left and right data may be stored in physically separate memories in the storage device 200 and registered. Here, the coordinates of the start point and end point may be integers because they are addresses on the image memory. When the line type is a straight line, the coefficient of the fitting function may be omitted. If the curve is a quadratic curve, when fitting with a function of Y = aX 2 + bX + c, there are three coefficients a, b, and c. When the line type is a circle or ellipse, the necessary number of coefficients necessary for the function are registered. A point may be defined as a short line segment whose start point and end point coincide.

次の処理(3)100eでは、ステレオ処理ができる複眼の場合には、この時点で各線分を3次元のデータに変換して3次元形状モデルを生成する。   In the next process (3) 100e, in the case of a compound eye capable of stereo processing, at this time, each line segment is converted into three-dimensional data to generate a three-dimensional shape model.

ここで、処理(3)100eの詳細を図6を参照して説明する。既に処理(2)の段階において左右で対応の取れた線分データがL1〜L9として得られているので、複眼のステレオ計測にて、各線分の始点,終点の座標は、3次元空間での座標に計算して求めることができる。その3次元の座標を計算した結果に基づいて、この処理(3)では、3次元データベースを生成する。   Here, details of the process (3) 100e will be described with reference to FIG. Since the line segment data corresponding to the left and right are already obtained as L1 to L9 in the stage of the process (2), the coordinates of the start point and the end point of each line segment in the three-dimensional space in the compound eye stereo measurement. It can be calculated by calculating the coordinates. In this process (3), a three-dimensional database is generated based on the result of calculating the three-dimensional coordinates.

この3次元データベースの概念は、直方体の線分L1〜L9を3次元の線分データに変換することができ、また、各線分が繋がって閉ループを作れば、面S1,S2,S3を定義することができる形態である。また、何もない状態では、最初の平面(無限遠の無限平面と考えても良い。)S0を定義することができる。   The concept of this three-dimensional database is that the rectangular parallelepiped line segments L1 to L9 can be converted into three-dimensional line segment data, and if each line segment is connected to form a closed loop, surfaces S1, S2, and S3 are defined. It is a form that can. Further, in a state where there is nothing, the first plane (which may be considered as an infinite plane at infinity) S0 can be defined.

具体的には、左右の対応付けされた画像情報から3次元の線分L1〜L9の始点,終点,線種,線の関数を登録する。次に、3次元の線分で閉ループを形成している3次元の面S1〜S3の構成線分,面の種類,面の関数を登録する。背景は、取り敢えず、面S0として登録する(最初は、未だ背景面は定まらないので、データの中味はない状態である。)。   Specifically, the start point, end point, line type, and line function of the three-dimensional line segments L1 to L9 are registered from the left and right associated image information. Next, the constituent line segments, surface types, and surface functions of the three-dimensional surfaces S1 to S3 forming a closed loop with the three-dimensional line segments are registered. The background is registered as the surface S0 for the time being (at first, since the background surface is not yet determined, there is no data content).

この3次元データベースの簡単なイメージを下記する。
The following is a simple image of this three-dimensional database.

Figure 2006003263
上記の面データは、単純な平面データのみであるので、面を構成する線分名称をデータとしてもつだけでも良い。
Figure 2006003263
Since the above surface data is only simple plane data, it is also possible to have only the names of line segments constituting the surface as data.

次の処理(4)100fにおいて、必要であれば、見えない部分のデータを生成する。これは、総てのデータを円筒,球,円錐,直方体などの基本図形と見做してCADデータを生成する場合には有効である。但し、必ずしもそうする必要はない。   In the next process (4) 100f, if necessary, invisible data is generated. This is effective when CAD data is generated by considering all data as basic figures such as a cylinder, a sphere, a cone, and a rectangular parallelepiped. However, it is not necessary to do so.

この処理(4)100fの詳細を図7を参照して説明する。   Details of the process (4) 100f will be described with reference to FIG.

最初の撮影で得た画像情報に基づいて生成した3次元の平面群から基本図形の一部を構成していると推定することができる面群を探索する。見つからないときには、この処理をパスする。平面S1,S2,S3が基本図形の一部を構成していると推定したときには、その座標データに基づいて、基本図形に置き換えると、どの基本図形に一番近いかを判別する。そして、平面S1,S2,S3が直方体の一部であると判別すれば、見えてない面を推定平面SS4,SS5,SS6として生成する。このとき、見えていない部分の線分データも推定線分SL10,SL11,SL12として生成する。更に、構成面はS1,S2,S3,SS4,SS5,SS6である推定ソリッドデータSV1を定義する。そして、これらのデータを3次元データベースに登録する。   A group of faces that can be estimated to constitute a part of the basic figure is searched for from a group of three-dimensional planes generated based on the image information obtained by the first shooting. If not found, this process is passed. When it is estimated that the planes S1, S2, and S3 constitute a part of the basic figure, it is determined which basic figure is closest to the basic figure based on the coordinate data. Then, if it is determined that the planes S1, S2, and S3 are part of a rectangular parallelepiped, planes that are not visible are generated as estimated planes SS4, SS5, and SS6. At this time, line segment data of the invisible part is also generated as estimated line segments SL10, SL11, SL12. Furthermore, the configuration surface defines estimated solid data SV1, which is S1, S2, S3, SS4, SS5, SS6. These data are registered in the three-dimensional database.

このようにステレオ処理を併用すると、撮像装置10,20が動き出す前からCADデータを、一部に推定部分はあるものの、直ぐに、例えば、マニピュレータのハンドリングなどにおいて対象物体に向けてアームを移動させるための制御情報(物体検索情報)として利用できる状態にすることができる。   In this way, when stereo processing is used together, the CAD data before the imaging devices 10 and 20 start moving, although there is an estimation part in part, immediately moves the arm toward the target object, for example, in manipulator handling or the like. Can be used as control information (object search information).

ここで、推定データは、推定データであることが分かるように管理しておき、例えば、物体の裏側に回り込んで該裏側の部分を撮影した画像情報に基づき該裏側の部分のCADデータを生成したときには、推定CADデータは推定でないCADデータに置き換えるようにする。   Here, the estimated data is managed so as to be understood as estimated data. For example, CAD data of the back side portion is generated based on image information obtained by photographing the back side portion of the object. In such a case, the estimated CAD data is replaced with non-estimated CAD data.

以上のように、図3に示したフローチャートにおける処理(1)100c,処理(2)100d,処理(3)100e,処理(4)100fで必要な部分の処理を行なうようにして2次元画面データベースと3次元データベースへの登録と、撮像装置10,20からの画像情報の取り込みとを繰り返しながら行なうことにより、撮像装置10,20が動き出せば、多くの2次元画像データ(シーン)が蓄積される。そして、処理100gにおいて2次元画面データの溜り具合を監視し、ある程度溜まった段階で処理(5)100hの写真計測で座標を求めるようにすれば良い。   As described above, the two-dimensional screen database is configured so as to perform processing of necessary portions in the processing (1) 100c, processing (2) 100d, processing (3) 100e, and processing (4) 100f in the flowchart shown in FIG. When the imaging devices 10 and 20 start to move by repeatedly registering them in the three-dimensional database and taking in the image information from the imaging devices 10 and 20, a large amount of two-dimensional image data (scenes) is accumulated. . Then, in the process 100g, the accumulation degree of the two-dimensional screen data is monitored, and the coordinates may be obtained by the photo measurement of process (5) 100h when it is accumulated to some extent.

処理(5)100hの詳細を図8を参照して説明する。左右の撮像装置10,20の何れかの生画像情報と考えて良いが、生画像情報105aの物体も視点が変わると生画像情報105c,生画像情報105eのように見え方も変わる。   Details of the process (5) 100h will be described with reference to FIG. Although it may be considered as the raw image information of either of the left and right imaging devices 10 and 20, when the viewpoint of the object of the raw image information 105a changes, the appearance changes as the raw image information 105c and the raw image information 105e.

ここで、右側は3次元データベースに登録されているデータに基づく線画像情報の概念で、線画像情報105b,105d,105fのように、撮像装置10(20)の視点の角度によっては見えないことから推定により生成している推定線分SL10,SL12の線分は、画像情報105dの段階では見えないので推定のレベルであるが、画像情報105fの段階では実際に撮影された画像情報では見えるようになることから該画像情報に基づいてこれらの線分を直に生成することができるようになるので、推定線分SL10は線分L10へ、推定線分SL12は線分L12に確定することができる。また、このように違う視点から撮影した画像情報に基づく2次元画像データが増えると写真計測を適用することができるので、各線分を定義している始点や終点のX,Y,Zの空間座標は、ステレオ計測で求めておいた座標値から写真計測で求める座標の方がより精度良く求められる部分は座標データを書き換えてCADデータの精度上げるように更新するようにする。このとき、3次元データベースの各座標値がステレオ計測で求められた場合にはそのときの測定精度をデータベースへ記憶させておき、新たにステレオ計測でも写真計測でも同じ点を再計算した場合には、その手法でそのときの条件で計算される3次元座標値の精度を求め、前の座標値を計算したときの精度よりも良い場合には座標値とその精度データを更新するようにする。因みに、3次元の座標計算の精度は、離れた物体については、ステレオ計測よりも写真計測の方が良い場合がある。これによって、精度が向上する場合にはCADデータを自動的に更新することができるようになる。   Here, the right side is a concept of line image information based on data registered in the three-dimensional database, and cannot be seen depending on the viewpoint angle of the imaging device 10 (20) like the line image information 105b, 105d, and 105f. The estimated line segments SL10 and SL12 generated by estimation from the above are not estimated at the stage of the image information 105d and are at the estimation level, but at the stage of the image information 105f, they are visible in the actually captured image information. Therefore, since these line segments can be generated directly based on the image information, the estimated line segment SL10 can be determined as the line segment L10, and the estimated line segment SL12 can be determined as the line segment L12. it can. In addition, as the two-dimensional image data based on image information taken from different viewpoints increases, photo measurement can be applied, so the spatial coordinates of the start point and end point defining each line segment are X, Y, and Z. Is updated so as to improve the accuracy of the CAD data by rewriting the coordinate data in the portion where the coordinates obtained by the photo measurement are more accurately obtained from the coordinate values obtained by the stereo measurement. At this time, if each coordinate value of the three-dimensional database is obtained by stereo measurement, the measurement accuracy at that time is stored in the database, and if the same point is newly recalculated in stereo measurement or photo measurement Then, the accuracy of the three-dimensional coordinate value calculated under the condition at that time is obtained by the method, and the coordinate value and its accuracy data are updated when the accuracy is better than the accuracy when the previous coordinate value is calculated. Incidentally, the accuracy of the three-dimensional coordinate calculation may be better for photo measurement than stereo measurement for a distant object. As a result, when the accuracy is improved, the CAD data can be automatically updated.

なお、図3における処理(1)100c〜処理(4)100fを繰り返す場合の処理内容を以下に補足説明する。
(1) 最初は停止している撮像装置10,20もそのうちに移動する。撮像装置10,20の位置と姿勢の変化もこの中で計算して良い。
(2) 2次元画面データが逐次追加されるので、途中の変化の少ないデータは削除してデータ量が爆発(メモリが不足)しないようにする。
(3) 同じ画面内に新たな線分や点が生じた場合には、2次元図面データベースへ新たに登録する。
(4) 同じ画面内の同じ線分や点は、移動しても同じ線分や点として追跡管理する。動画のトラッキングとしての対応付けをこの2次元画面データベースにて管理する。
(5) 同時に左右の画像の対応点にも誤りがないかどうかを、逐次、チェックして、誤りが発見された場合には、それに関わる部分の再計算を直ぐに行い、2次元画面データベースおよび3次元データベースを修正する。
(6) 新たに新しい線分や点が生じた場合には、処理(3)100e,処理(4)100fにて3次元データベースに新たなモデルを追加生成する。
(7) 2次元画面データが蓄積されてきたならば、処理(5)100hも実施して、3次元データベースに新たなモデルを追加生成する。
The processing contents when processing (1) 100c to processing (4) 100f in FIG. 3 are repeated will be supplementarily described below.
(1) The imaging devices 10 and 20 that are initially stopped also move. Changes in the position and orientation of the imaging devices 10 and 20 may be calculated in this.
(2) Since two-dimensional screen data is added sequentially, data with little change in the middle is deleted so that the data amount does not explode (memory is insufficient).
(3) When a new line segment or point is generated in the same screen, it is newly registered in the two-dimensional drawing database.
(4) Even if the same line segment or point in the same screen is moved, it is tracked and managed as the same line segment or point. Correspondence as moving image tracking is managed in this two-dimensional screen database.
(5) At the same time, it is sequentially checked whether there is an error in the corresponding points of the left and right images, and if an error is found, the part related to it is immediately recalculated, and the two-dimensional screen database and 3 Modify the dimensional database.
(6) When a new line segment or point is newly generated, a new model is additionally generated in the three-dimensional database in processing (3) 100e and processing (4) 100f.
(7) If the two-dimensional screen data has been accumulated, the process (5) 100h is also performed to newly generate a new model in the three-dimensional database.

このように撮影シーンを画像処理して3次元座標を計算するときに、撮像装置10,20のレンズは、実用的には、広角レンズを使用して広範囲を撮影することにより、トラッキング追従している特徴点を見失う機会を少なくすると共に、短時間で広範囲の環境のCADデータを生成したり、検索できるようにすることが望ましいが、広角レンズを使用すると撮影して得た画像情報の周縁部分に歪みが発生して正確な3D計算を行なうことができなくなることがある。従って、広角レンズを使用するときには、歪みの少ない広角レンズを使用するようにする配慮や、レンズの歪みを画像処理で補正しながら3D計算を行なうようにする配慮が必要になる。   As described above, when image processing is performed on the shooting scene to calculate the three-dimensional coordinates, the lenses of the imaging devices 10 and 20 practically follow the tracking by shooting a wide range using a wide-angle lens. It is desirable to be able to generate and search CAD data for a wide range of environments in a short time while reducing the chance of losing sight of the feature points that are present. Distortion may occur, and accurate 3D calculation may not be performed. Therefore, when using a wide-angle lens, consideration must be given to using a wide-angle lens with less distortion, and consideration must be given to performing 3D calculation while correcting lens distortion by image processing.

画像情報の歪みは、レンズの屈折により発生するものであり、レンズの屈折率の関係から、画像情報の歪み特性は、レンズの特性として既知となるので、レンズの歪み特性に応じた補正を画像処理の前処理の段階で行なうことにより、補正後の歪みのない画像情報に基づいた3D計算が可能となる。このような処理を高速に行なうためには、LSI回路のようなハードウェアによって行なうようにすると良い。また、ズームレンズを使用するときには、ズームの状態によってレンズの特性(補正パラメータ)が変わるので、ズーム状態を取り込んで補正処理を行なう補正回路とすることが望ましい。   The distortion of the image information is caused by the refraction of the lens. Since the distortion characteristic of the image information is known as the lens characteristic because of the relationship of the refractive index of the lens, the correction according to the distortion characteristic of the lens is performed on the image. By performing it at the pre-processing stage of processing, 3D calculation based on image information without distortion after correction becomes possible. In order to perform such processing at high speed, it is preferable that the processing is performed by hardware such as an LSI circuit. In addition, when using a zoom lens, the lens characteristics (correction parameters) vary depending on the zoom state, so it is desirable to use a correction circuit that takes in the zoom state and performs correction processing.

図9は、CADデータとして生成される浮遊線分の活用の概念を示している。図9において、例えば、線分L11,L12,L13は、直方体の各面に付いている線であり、それらの線分データの座標データは、直方体の平面の一部に含まれる座標であり、直方体の形状を示している。また、実際に線が描かれている場合には、模様データとしてその物体の特徴を示す線分データとしても活用することが可能である。   FIG. 9 shows a concept of utilization of floating line segments generated as CAD data. In FIG. 9, for example, line segments L11, L12, and L13 are lines attached to each surface of the rectangular parallelepiped, and the coordinate data of those line segment data are coordinates included in a part of the plane of the rectangular parallelepiped. The shape of a rectangular parallelepiped is shown. Further, when a line is actually drawn, it can be used as line segment data indicating the feature of the object as pattern data.

従って、輪郭線を抽出したときに生じる平面を構成しない浮遊線分は、2次元画面データベースおよび3次元データベースに登録して管理する。各線分は、何れの面に付いているかも登録して管理する。これらの浮遊線分は、面データを作成するときに、面の中の線分の座標を参照することにより該面の形状を表現することができ、また、模様や傷などを参照データとして探索する場合には、マッチングするために必要なデータとなる。また、面データも何処かの面に付いている場合には、その関係を登録して管理する。   Therefore, floating line segments that do not constitute a plane generated when contour lines are extracted are registered and managed in the two-dimensional screen database and the three-dimensional database. Each line segment is registered and managed on which side. These floating line segments can express the shape of the surface by referring to the coordinates of the line segments in the surface when creating the surface data, and search for patterns and scratches as reference data. In this case, the data is necessary for matching. If surface data is attached to some surface, the relationship is registered and managed.

図10は、円筒や球体へ適用した場合の概念を示している。円筒には線分L7、球体には線分L8が付いている。これらは実際の線分データとして、円筒や球体の表面形状の一部を示しているデータとなる。   FIG. 10 shows a concept when applied to a cylinder or a sphere. The cylinder has a line segment L7, and the sphere has a line segment L8. These are data indicating a part of the surface shape of a cylinder or a sphere as actual line segment data.

図10において、線分L1,L4,L5,L7は、曲線としてデータベースに登録する。面S2,S3は、実際には曲面であるが、この段階では不明である(平面かも知れない)。面S2,S3は、視点が変わると線分L2,L3,L5の位置が変わることから、線分L2,L3,L5は、曲面の境界線であることが分かり、基本図形の特徴から円柱および球体と推定定義するか、浮遊線分L7,L8の座標から曲面関数として推定定義する。   In FIG. 10, line segments L1, L4, L5, and L7 are registered in the database as curves. The surfaces S2 and S3 are actually curved surfaces, but are unknown at this stage (may be planes). Since the positions of line segments L2, L3, and L5 change when the viewpoint changes in planes S2 and S3, it can be understood that line segments L2, L3, and L5 are boundary lines of curved surfaces. Estimate and define as a sphere, or estimate and define as a curved surface function from the coordinates of the floating line segments L7 and L8.

図11は、特殊曲面のCADデータとしての定義の一例を示している。例えば、木900の茂っている葉などは、遠くから撮影した画像情報では一枚毎の形状が見えない。その場合は、例えば、輪郭線L1が作っている特殊面S1に線分L2,L3,L4,L5,L6が付いていると見做す。各線分は、3次元の座標値をもっているので、その線分が表面に付いている特殊曲面S1の形状は、それ線分データの付いている部分に表面があると考えることが可能となる。このような特殊面の定義の概念を用いれば、皺のある布や着物の複雑な曲面とか、砂山などの表面を定義することが可能となる。   FIG. 11 shows an example of the definition of the special curved surface as CAD data. For example, the leaf of a tree 900 and the like cannot be seen for each piece of image information taken from a distance. In that case, for example, it is assumed that line segments L2, L3, L4, L5, and L6 are attached to the special surface S1 formed by the contour line L1. Since each line segment has a three-dimensional coordinate value, the shape of the special curved surface S1 attached to the surface of the line segment can be considered to have a surface at a portion to which the line segment data is attached. By using such a concept of defining a special surface, it is possible to define a complex curved surface of a cloth or a kimono or a surface such as a sand pile.

具体的には、葉の茂った木900では、輪郭線L1,L7は、はっきりと抽出することができるが、頂点などがないので形状を定義し難いことから、輪郭線L1,L7が形成している曲面S1,S2を定義して、この曲面S1,S2上に浮遊線分L2,L3,L4,L5,L6,L8,L9,L10,L11などが存在するとして該曲面上に定義する。風で葉が揺れたり、光の具合で浮遊線分の位置や形状が変わったり、消えたりするが、その瞬間のデータを正と見做せばそれで良い。このような大雑把な表現で良いと考える理由は、遠くの物体のデータは、精度を必要とする制御に直接利用することはない、ことにある。マニピュレータで葉を掴むようなハンドリング制御では、手先が葉に近づけば、撮像装置10,20も同様に葉に近づいて葉の一枚一枚の詳細な画像情報が得られることから、CADデータも相応して詳細になって必要な精度が得られるようになるからである。   Specifically, in the leafy tree 900, the contour lines L1 and L7 can be clearly extracted, but since there are no vertices or the like, it is difficult to define the shape, so the contour lines L1 and L7 are formed. The curved surfaces S1 and S2 are defined, and floating line segments L2, L3, L4, L5, L6, L8, L9, L10, and L11 are defined on the curved surfaces S1 and S2. The leaves sway in the wind, and the position and shape of the floating line segment change or disappear depending on the light condition, but it is sufficient if the data at that moment is considered positive. The reason that such a rough expression is acceptable is that data of a distant object is not directly used for control that requires accuracy. In handling control such as gripping a leaf with a manipulator, if the hand approaches the leaf, the imaging devices 10 and 20 also approach the leaf and obtain detailed image information for each leaf. This is because the required accuracy can be obtained with corresponding details.

ソリッドデータとしても、同様に、浮遊線分L2,L3,L4,L5,L6,L8,L9,L10,L11などが存在する曲面からなる物体として定義することができる。このソリッドデータは、この程度の大きさのこのような形状の木として調べるときに利用することができる。曲面は、可能であれば、浮遊線分の座標データよりそれらの点を含む曲面の関数で表現した方が処理を機械化し易い場合もある。   Similarly, the solid data can be defined as an object made of a curved surface on which floating line segments L2, L3, L4, L5, L6, L8, L9, L10, and L11 exist. This solid data can be used when examining a tree of such a shape of this size. If possible, it may be easier to mechanize the process if the curved surface is expressed by a function of a curved surface including those points than the coordinate data of floating line segments.

このような特殊曲面は、布,着物,かばん,タオルなどのように皺のある複雑な曲面の物体、人の指,腕,服など、砂山,遠くの山,カーテンなどの背景のような物体においても同様な表現となる。   Such special curved surfaces are objects such as cloths, kimonos, bags, towels, etc., complicated curved surfaces, human fingers, arms, clothes, sandstones, distant mountains, curtains, etc. This is also the same expression.

図12は、本発明の第1の手段においてCADデータを更新する場合の実施の形態を示したものである。   FIG. 12 shows an embodiment when the CAD data is updated in the first means of the present invention.

(A)は、物体を該物体から遠く離れて位置する撮像装置10,20によって撮影したときの生画像情報であり、近くへ寄って撮影すると(B)のようになる。この物体は、例えば、机のようなものである。   (A) is raw image information when an object is photographed by the imaging devices 10 and 20 located far away from the object. When the object is photographed close to the object, (B) is obtained. This object is like a desk, for example.

この物体を遠くから撮影して得た生画像情報(A)に基づいてCADデータを生成すると、(a)に示すように、線分L1〜L9からなる直方体が生成される。そこで、撮像装置10,20を物体の近くに寄せて撮影して得た生画像情報(B)に基づいてCADデータを生成すると、(b)に示すようなデータを生成することになる。この場合には、新たな線分L10,L11,L12,L13,L14が生成して追加されると共に線分L1〜L9の始点と終点の座標データも近くで計測しているのでより精度の良い座標データに更新される。   When CAD data is generated based on raw image information (A) obtained by photographing this object from a distance, a rectangular parallelepiped composed of line segments L1 to L9 is generated as shown in (a). Therefore, when CAD data is generated based on raw image information (B) obtained by shooting the imaging devices 10 and 20 close to an object, data as shown in (b) is generated. In this case, new line segments L10, L11, L12, L13, and L14 are generated and added, and the coordinate data of the start and end points of the line segments L1 to L9 are also measured nearby, so that the accuracy is higher. Updated to coordinate data.

具体的には、物体を遠くから撮影して得た生画像情報に基づいて生成される1本の輪郭線は、近づいて撮影して得た生画像情報によれば、分解能が向上することから、2本の輪郭線となることがあり、より正確な形状データとなる場合がある。   Specifically, one outline generated based on raw image information obtained by photographing an object from a distance improves the resolution according to the raw image information obtained by approaching and photographing. There may be two contour lines, which may result in more accurate shape data.

ここでは、2次元画面データベースの更新で説明するが、同様に、関連する総ての3次元データベースも更新するものとする。   Here, the description will be made by updating the two-dimensional screen database. Similarly, all the related three-dimensional databases are also updated.

物体から遠く離れた位置で該物体を撮影して得た生画像情報に基づいて生成した線分L1,L2,L3,L5は、それぞれ1本であるが、近寄った位置で撮影して得た生画像情報に基づいて生成した線分は、それぞれが2本になる。線分L1,L2,L3,L5は、削除しないで、一番近い線分のより正確なデータとして、新しく求められる座標値に更新する。近い線分がないときには、削除して新たに生成し直す。新たな線分L10,L11,L12,L13,L14は、新たにナンバリングして追加登録する。   The line segments L1, L2, L3, and L5 generated based on the raw image information obtained by photographing the object at a position far away from the object are each one, but obtained by photographing at a close position. There are two line segments generated based on the raw image information. The line segments L1, L2, L3, and L5 are not deleted but updated to the newly obtained coordinate values as more accurate data of the nearest line segment. If there is no close line segment, delete it and create a new one. New line segments L10, L11, L12, L13, and L14 are newly numbered and additionally registered.

このように、CADデータの生成のみでなく更新も自動的に行なうようにすれば、移動可能な撮像装置10,20により撮影して得られる生画像情報に基づくCADデータの生成は、撮像装置10,20が移動すれば移動するほど精度が良くなる。また、最初の段階でもそれなりの精度でCADデータを生成することができるので、ロボットの制御などに早い段階からこのCADデータを利用することができるようになる。   In this way, if not only the generation of CAD data but also the update is automatically performed, the generation of CAD data based on the raw image information obtained by photographing by the movable imaging devices 10 and 20 is performed. , 20 moves, the better the accuracy. Also, since CAD data can be generated with a certain degree of accuracy even at the initial stage, this CAD data can be used from an early stage for robot control and the like.

図13は、第2の手段の実施の形態を示す概念図である。ここでは、撮像装置10,20が対象物である円柱状の物体(円柱)901の周りを回るように移動しながら撮影して得た画像情報に基づいてCADデータを生成することを考える。また、円柱901は、表面に「A」という文字101Aが描かれている物体とする。   FIG. 13 is a conceptual diagram showing an embodiment of the second means. Here, it is assumed that the imaging devices 10 and 20 generate CAD data based on image information obtained by shooting while moving around a cylindrical object (cylinder) 901 as a target. Further, the cylinder 901 is an object on which a character 101A “A” is drawn.

このような状態では、撮像装置10,20は、円柱901の側面のラインおよび上面あるいは下面の円板の淵が楕円に見える。しかし、それらの線は総てが輪郭線であり、そこに実際の線が存在するわけではない。そこで、3次元CADデータを生成していくときには、円柱901の淵の画像情報を密に取り込みながら周囲を回って沢山の輪郭線を検出してデータを生成していくと、3次元データベース200Gには、円柱902のようなワイヤーフレームのCADデータが生成される。   In such a state, in the imaging devices 10 and 20, the side line of the cylinder 901 and the upper or lower disc ridge appear to be an ellipse. However, all of these lines are outlines, and actual lines do not exist there. Therefore, when generating the three-dimensional CAD data, if the image is generated by densely capturing the image information of the ridges of the cylinder 901 and detecting a lot of contour lines around the periphery, the data is generated in the three-dimensional database 200G. In this case, CAD data of a wire frame like a cylinder 902 is generated.

また、円柱901の表面に描かれた文字「A」を構成する線分は、そこに実際に存在する線分である実際の線である。それは、例えば、CADデータの中では文字「A」902Aを構成する線分データとして生成される。このような輪郭線と実際の線は、CADデータを利用するときに使い分けると、CADデータを効率良く使うことができる。例えば、輪郭線の線分データは実際には存在しない線であるので、文字「A」の線分データを探すような場合には邪魔になる。また、円柱という形状データを参照したい場合には、多くの輪郭線も用いることでより詳細な形状に関するデータが得られるので、データを生成する上でこれは実際の線であるということが確定した段階で実際の線と定義するようにしてCADデータを生成する。この事例の場合には、撮像装置10,20が移動すると、円柱901の側面の輪郭線は、撮像装置10,20が移動しても見える場所が変わらないのに対して、文字「A」は、撮像装置10,20が移動すると見える場所が変わる。3次元のデータに変換した後に撮像装置10,20の移動前後における線分の位置を比較すると、移動前の輪郭線の線分は、移動後の位置には線分として見えない。しかしながら、実際の線である文字Aは、撮像装置10,20が移動しても同じ場所に存在する特徴から、「A」という文字を構成する線分は実際の線分であることを識別することができる。また、円柱901のような側面の輪郭線の場合、複眼の撮像装置10,20で見ている輪郭の位置は若干ずれた場所になるが、ステレオ計測でその輪郭線を生成する場合にはそれは誤差として影響するので、輪郭線というものはそういう誤差も含んでいるものであるということを区別していれば、利用するときに注意することも容易である。   In addition, the line segment constituting the letter “A” drawn on the surface of the cylinder 901 is an actual line that is a line segment actually present there. For example, it is generated as line segment data constituting the character “A” 902A in the CAD data. If such a contour line and an actual line are properly used when using CAD data, the CAD data can be used efficiently. For example, since the line segment data of the contour line does not actually exist, it becomes an obstacle when searching for the line segment data of the character “A”. In addition, if you want to refer to the shape data of a cylinder, you can get more detailed data by using many contour lines, so it was determined that this is an actual line when generating the data. CAD data is generated so as to be defined as an actual line at a stage. In this case, when the imaging devices 10 and 20 are moved, the outline of the side surface of the cylinder 901 does not change even if the imaging devices 10 and 20 are moved, whereas the letter “A” is When the imaging devices 10 and 20 are moved, the visible place changes. When the positions of the line segments before and after the movement of the imaging devices 10 and 20 are compared after being converted into three-dimensional data, the outline line segment before the movement is not visible as a line segment at the position after the movement. However, the character A, which is an actual line, identifies that the line segment constituting the character “A” is an actual line segment from the characteristics that exist in the same place even when the imaging devices 10 and 20 move. be able to. Further, in the case of a side contour line such as a cylinder 901, the position of the contour viewed by the compound-eye imaging devices 10 and 20 is slightly shifted. However, when generating the contour line by stereo measurement, Since it affects as an error, it is easy to be careful when using it if it is distinguished that the contour line includes such an error.

以下に、3次元データベースの概念の一例を示す。以下のように線種の中で区別するようにする一つの方法を示す。線分L1は、実際の線であることを示し、線分L2は、輪郭線であることを示している。
An example of the concept of a three-dimensional database is shown below. One method for distinguishing among line types is shown below. A line segment L1 indicates an actual line, and a line segment L2 indicates an outline.

Figure 2006003263
次に、第2の手段の他の実施の形態を説明する。直方体の基本図形をソリッドデータSV1として生成する方法を図7を参照して説明したが、撮像装置が移動し、CADデータを更新するようにしたシステムでは、撮像装置が遠くから物体を見たときには直方体であっても、近くに寄って見たときには、例えば、サイコロのように直方体の角に丸みがある場合には、それを直方体として定義しておくことが適切ではなくなってくる。また、大きな建物を遠くから見ると直方体に見えるが、近くに寄ればドアがあり、中に入ると最初に直方体と見えていた建物は壁のような平面で囲まれた物体になる。更に、壁に近くに寄って見ると、厚みのある複数の平面の偏平な直方体となるようになることから、このようなシステムの場合には、必ずしもソリッドモデルにまで落とし込む必要はない。そこで、必要最小限のデータ構成を考えると、点と線と面まで上げられるので、必要最小限の面データまでを生成して更新していくシステムとするのが処理速度の観点などから有利である。
Figure 2006003263
Next, another embodiment of the second means will be described. The method for generating the basic figure of the rectangular parallelepiped as the solid data SV1 has been described with reference to FIG. 7, but in a system in which the imaging device moves and updates the CAD data, the imaging device sees an object from a distance. Even if it is a rectangular parallelepiped, when viewed close to it, for example, when the corner of the rectangular parallelepiped is round like a dice, it is not appropriate to define it as a rectangular parallelepiped. Also, when you look at a large building from a distance, it looks like a rectangular parallelepiped, but if you get close, there is a door, and when you go inside, the building that was initially visible as a rectangular parallelepiped becomes an object surrounded by a plane like a wall. Furthermore, when viewed closer to the wall, it becomes a flat rectangular parallelepiped having a plurality of thicknesses. In such a system, it is not always necessary to drop it into a solid model. Therefore, considering the minimum necessary data configuration, it is possible to raise points, lines, and planes, so it is advantageous from the viewpoint of processing speed to create a system that generates and updates the minimum necessary plane data. is there.

次に、第2の手段の他の実施の形態を説明する。既に説明したデータベースは、線データを関数表現する形態と面データも関数表現するような形態であるが、面データを関数で表現することは、処理の複雑さとデータメモリ節約効率から考えると、節約の効果が少ない。そこで、少なくとも線データまでを関数表現することでデータ量を大幅に低減することを提案する。例えば、通常の環境を対象にして処理を行なうと莫大な数の線分が抽出される。それらの線分の形を、例えば、総て直線で表現しようとすると、円や複雑に曲がった形状の線分は、線分上に沢山の点を定義し、それらの点の間を直線の線分で繋いで円や曲がった形状を表現するようにしなければならず、多くの点データも必要となるので、莫大なメモリ容量が必要となる。そこで、曲線を関数で定義して、フィッティングさせる適切な係数(上記データ例のa1、b1…)で表現するようにすることによって、データ量を大幅に縮小することが可能となる。
第2の手段の他の実施の形態を説明する。この実施の形態は、生成および更新するCADデータにおける少なくとも面データに色情報をもたせるというものである。その概念を示すと以下のようになる。
Next, another embodiment of the second means will be described. The database already described has a form that expresses line data as a function and a form that also expresses surface data as a function. However, expressing surface data as a function saves in terms of processing complexity and data memory saving efficiency. Is less effective. Therefore, it is proposed that the data amount be greatly reduced by expressing the function of at least line data. For example, when processing is performed for a normal environment, an enormous number of line segments are extracted. If you try to express the shape of these line segments as a straight line, for example, a line segment with a circle or a complicated bent shape will define many points on the line segment, and a straight line between those points will be defined. It must be connected with line segments to express a circle or a bent shape, and a lot of point data is also required, so a huge memory capacity is required. Therefore, the amount of data can be greatly reduced by defining the curve as a function and expressing the curve with appropriate coefficients (a1, b1,... In the above data example).
Another embodiment of the second means will be described. In this embodiment, color information is given to at least surface data in CAD data to be generated and updated. The concept is as follows.

Figure 2006003263
勿論、赤,青…という表現ではなく、色コードで微妙な中間色まで区別できるようにしても良い。このように、CADデータに色情報があれば、赤いものを探すというような場合には赤い色情報をもつCADデータのみを探せば良いので、CADデータを取り扱うときの効率が良くなる。また、色情報で色の変わるところを境界線の線分データとして積極的に定義すれば、より多くの形状を示す線分データも得られるし、色の分布状態をより詳細に定義することも可能となる。
Figure 2006003263
Of course, it may be possible to distinguish subtle intermediate colors by color code instead of red, blue, etc. Thus, if there is color information in the CAD data, it is only necessary to search for the CAD data having the red color information when searching for the red one, so that the efficiency in handling the CAD data is improved. In addition, if the point where the color changes in the color information is positively defined as the line segment data of the boundary line, the line segment data showing more shapes can be obtained, and the color distribution state can be defined in more detail. It becomes possible.

図14は、色情報を用いて輪郭を抽出する概念を例示している。参照符号110aは、生の画像情報とする。各メッシュの小さな枠が1画素に相当する部分である。そこに画像情報として、いろいろな色の面と線分などがあるという状況を示している。   FIG. 14 illustrates the concept of extracting a contour using color information. Reference numeral 110a is raw image information. A small frame of each mesh is a portion corresponding to one pixel. It shows the situation that there are various color surfaces and line segments as image information.

この画像データ上で2次元の画像データベースを作成することを考えると、例えば、各画素についてその周りの画素の色を自分の画素と比較しながら画面全体を処理し、色が変化する画素の部分に境界線を定義するようにすると、参照符号110bに示すような結果が得られる。それを更にシンボリックに定義すると、面データ110c,110f,110iは、それぞれの閉ループの中の色が定義されて面データには色情報も定義される。その他、境界部分には輪郭線データ110eや線のみの場合には面110fの中に線データ110d、また、単独に線データ110hなども定義される。ここでの輪郭線110eは、色違いの境界線を示しているので、ペイントされた模様であれば、これは実際の線として定義して良い。ここでは画面の淵の部分には仮想点110jを定義して、面データ110iを定義することができるようにしている。これらの図の概念は、2次元の画像データベースの概念であり、2次元の画像データベースでも線分データ以外に面データを定義するやり方をとっても良いし、面データの定義は3次元データベースでのみ行なうようにしても良い。   Considering the creation of a two-dimensional image database on this image data, for example, for each pixel, the entire screen is processed while comparing the color of the surrounding pixels with its own pixel, and the pixel portion where the color changes If the boundary line is defined in the table, the result shown by reference numeral 110b is obtained. If it is further defined symbolically, the surface data 110c, 110f, and 110i define colors in their respective closed loops, and color information is also defined in the surface data. In addition, in the boundary portion, only the contour line data 110e or the line data 110d is defined in the surface 110f when only the line is used, and the line data 110h is also independently defined. The contour line 110e here indicates a boundary line of different colors, so if it is a painted pattern, it may be defined as an actual line. Here, a virtual point 110j is defined in the heel portion of the screen so that the plane data 110i can be defined. The concept of these diagrams is a concept of a two-dimensional image database. A two-dimensional image database may take a method of defining surface data in addition to line segment data, and surface data is defined only in a three-dimensional database. You may do it.

ここで、図14の処理の手順を補足説明する。   Here, a supplementary description will be given of the procedure of the processing in FIG.

隣り合う画素の色や輝度を比較して、大きく変化している場合には輪郭と判断する。同様に周囲を探索していくと、閉ループの輪郭ができる。それを輪郭の線データ(境界なら無色)と閉ループの面データとして登録する。領域(面積)のないものは線データとして登録する。   The color and brightness of adjacent pixels are compared, and if it changes greatly, it is determined as a contour. Similarly, when searching around, a closed loop contour is created. It is registered as contour line data (colorless at the border) and closed loop surface data. Those without a region (area) are registered as line data.

次に、第2の手段の他の実施の形態を説明する。CADデータの例を以下に示す。   Next, another embodiment of the second means will be described. An example of CAD data is shown below.

Figure 2006003263


ここでは、最大の明るさを100として、背景面S0は50の明るさ、赤い面S1は20の明るさ、青い面S2の明るさは100と例示している。このように定義しておくことによって、例えば、面S2が青ランプで光る面である場合には、その明るさデータ100を見れば、その青ランプは点灯していると判断させるような使い方をすることができるようになる。ここで、CADデータを生成するときに、撮像装置10,20によって得た画像情報の当該面の輝度値を参照してその情報をCADデータに登録すれば、CADデータに明るさの情報を追加することが可能である。
Figure 2006003263


Here, the maximum brightness is set to 100, the background surface S0 is illustrated as 50 brightness, the red surface S1 is illustrated as 20 brightness, and the blue surface S2 is illustrated as 100 brightness. By defining in this way, for example, when the surface S2 is a surface that shines with a blue lamp, a method of using the brightness data 100 to determine that the blue lamp is lit is used. Will be able to. Here, when CAD data is generated, if brightness information of the surface of the image information obtained by the imaging devices 10 and 20 is referred to and the information is registered in the CAD data, brightness information is added to the CAD data. Is possible.

次に、第3の手段の実施の形態を説明する。CADデータの例を以下に示す。
Next, an embodiment of the third means will be described. An example of CAD data is shown below.

Figure 2006003263
以上の例では、面データS1,S2は、時刻13:15に生成されたデータと時刻13:20に生成されたデータの2種類が存在する部分を示している。このように、そのデータを生成した時刻データを登録しておくようにすることで、例えば、面データS2は、明るさが100から20に変わったので青のランプが消えた、ということを容易に認識することができるようになる。前の時刻に生成されたCADデータと違いのあるものは残しておくようにすれば、同じCADデータを調べることで変化の状態や履歴も認識させることが可能となる。また、このようにしてデータを追加していくとメモリ容量が足りなくなるので、例えば、重複するデータは、生成した時刻から1時間とか10分とかの所定の時間を経過した後には自動的に消去するようにプラグラムすることで、メモリ容量が爆発することを防ぐことができる。それは、例えば、CADデータの時刻を常に確認するようにして、所定の時間が経過したものは消去するようにすれば、自動消去処理が可能である。
Figure 2006003263
In the above example, the plane data S1 and S2 indicate portions where two types of data, that is, data generated at time 13:15 and data generated at time 13:20 exist. In this way, by registering the time data at which the data was generated, for example, the surface data S2 can easily indicate that the blue lamp has disappeared because the brightness has changed from 100 to 20. To be able to recognize. If the data different from the CAD data generated at the previous time is left, it is possible to recognize the change state and history by examining the same CAD data. In addition, since the memory capacity becomes insufficient when data is added in this way, for example, duplicate data is automatically deleted after a predetermined time of 1 hour or 10 minutes from the generation time. By programming in such a way, it is possible to prevent the memory capacity from exploding. For example, automatic erasure processing can be performed by constantly checking the time of CAD data and erasing data after a predetermined time has elapsed.

図15,図16,図17,図18は、第10手段〜第11の手段の実施の形態を示すブロック図である。   15, FIG. 16, FIG. 17, and FIG. 18 are block diagrams showing embodiments of the tenth to eleventh means.

図15は、画像情報処理装置100に別のCPU等300を接続し、画像情報処理装置100の中でその都度計算されている撮像装置10,20、すなわちカメラの位置と姿勢情報を別のCPU300で取り出せるように構成した装置である。ここでは、例えば、カメラの位置と姿勢情報を定周期で画像情報処理装置100から出力させることにより、CPU300において、その周期でカメラの位置と姿勢情報を得ることができる。このように構成することによって、CPU300を使用して構成するアプリケーションシステムにおいて、カメラの位置と姿勢情報を利用することができるようになる。例えば、ロボットアームの制御のシステムであれば、ロボットアームの制御をCPU300が行なっているような場合には、カメラをロボットアームの先端に取り付けておくことによって、CPU300は、ロボットアームの先端の位置と姿勢情報を得ることができ、その結果を制御へ応用することができるようになる。   FIG. 15 shows another CPU 300 connected to the image information processing apparatus 100, and the position and orientation information of the imaging devices 10 and 20, that is, the cameras calculated in the image information processing apparatus 100 each time are displayed in another CPU 300. This is a device that can be taken out with Here, for example, by outputting the camera position and orientation information from the image information processing apparatus 100 at regular intervals, the CPU 300 can obtain the camera position and orientation information at that interval. With this configuration, the position and orientation information of the camera can be used in an application system configured using the CPU 300. For example, in the case of a robot arm control system, if the CPU 300 controls the robot arm, the CPU 300 can be attached to the tip of the robot arm so that the CPU 300 can detect the position of the tip of the robot arm. And attitude information can be obtained, and the result can be applied to control.

図16は、アプリケーションシステムのCPU300がカメラの位置と姿勢情報を得るために該CPU300から画像情報処理装置100へ指令信号を入力するように構成し、その応答としてカメラの位置と姿勢情報を画像情報処理装置100から取得するように構成した装置である。従って、画像情報処理装置100は、CPU300が必要とするときにのみカメラの位置と姿勢情報を出力してCPU300に与えることができるようになる。   FIG. 16 shows a configuration in which the CPU 300 of the application system inputs a command signal from the CPU 300 to the image information processing apparatus 100 in order to obtain the position and orientation information of the camera, and the position and orientation information of the camera is displayed as image information in response. The apparatus is configured to be acquired from the processing apparatus 100. Therefore, the image information processing apparatus 100 can output the camera position and orientation information to the CPU 300 only when the CPU 300 requires it.

図17は、アプリケーションシステムのCPU300から画像情報処理装置100へCADデータの探索指令信号も入力できるように構成し、その応答として、画像情報処理装置100が探索したCADデータの情報(形状でも良いし、位置と姿勢情報でも良い。)をCPU300が取得できるように構成した装置である。これによって、CPU300側では、制御したいものの位置や姿勢情報と制御するときに必要となる相手側の位置や姿勢情報の両方を容易に得ることができるようになるので、制御にその情報を利用することができるようになる。   FIG. 17 is configured so that a CAD data search command signal can also be input from the CPU 300 of the application system to the image information processing apparatus 100, and as a response, information (shape or shape of CAD data searched by the image information processing apparatus 100 may be used. , Position and orientation information) may be acquired by the CPU 300. As a result, the CPU 300 side can easily obtain both the position and orientation information of the object to be controlled and the position and orientation information of the other party that is necessary for the control, so that information is used for the control. Will be able to.

図18は、CPU300から探索指令信号だけではなく、カメラの位置と姿勢情報を出力させる指令信号の両方を出力して、画像情報処理装置100から検索結果やカメラの位置や姿勢情報を取得するように構成した装置である。このように構成した装置では、例えば、コップなどをアームで把持するように構成するときには、カメラをアームの先端に設け、アームで把持しようとするコップのCADデータを画像情報処理装置100に探索させて該コップの位置と姿勢情報をCADデータの探索結果で得ることができるように構成し、ロボットハンドの先端の位置と姿勢情報はカメラの位置と姿勢情報として得て制御に利用することができる。カメラの位置と姿勢情報は、CADデータを生成するときに計算される情報であることから改めて計算処理するための別の時間を要しないので短時間に得られるメリットがある。勿論、対象のコップの位置と姿勢をCADデータで探索して、更に、ロボットハンドもハンドの形状データより探索して該ハンドの位置と姿勢情報を得るように構成することもできる。   In FIG. 18, not only the search command signal but also the command signal for outputting the camera position and orientation information is output from the CPU 300, and the search result and the camera position and orientation information are acquired from the image information processing apparatus 100. It is the apparatus comprised in. In the apparatus configured as described above, for example, when a cup is held by an arm, a camera is provided at the tip of the arm, and the image information processing apparatus 100 is made to search for CAD data of the cup to be held by the arm. The position and orientation information of the cup can be obtained from the CAD data search result, and the position and orientation information of the tip of the robot hand can be obtained as camera position and orientation information and used for control. . Since the camera position and orientation information is information calculated when CAD data is generated, there is an advantage that the camera position and orientation information can be obtained in a short time because it does not require another time for calculation processing. Of course, the position and orientation of the target cup can be searched using CAD data, and the robot hand can also be searched from the shape data of the hand to obtain the position and orientation information of the hand.

図19は、第10の手段〜第11の手段をロボット制御専用の視覚情報処理装置として実施する場合の画像情報処理装置100の処理の実施の形態を示すフローチャートである。   FIG. 19 is a flowchart showing an embodiment of processing of the image information processing apparatus 100 when the tenth means to the eleventh means are implemented as a visual information processing apparatus dedicated to robot control.

画像情報処理装置100の処理は、先ず、スタート123aから入り、アプリケーションシステムにおけるCPU300などからのコマンド入力処理123bを行なう。ここで、CADデータ探索というコマンドの場合には、どのようなCADデータかという情報も入力する。   The processing of the image information processing apparatus 100 starts from start 123a and performs command input processing 123b from the CPU 300 or the like in the application system. Here, in the case of a command called CAD data search, information on what kind of CAD data is input.

次に、画像情報処理に移り、先ず、画像情報の取込処理123cを行なう。引き続き、3次元計測と3D−CADデータの生成処理とカメラの位置と姿勢計算処理123dを行なう。そして、CADデータの探索処理123eを行なう。   Next, the processing proceeds to image information processing, and first, image information capturing processing 123c is performed. Subsequently, three-dimensional measurement, 3D-CAD data generation processing, camera position and orientation calculation processing 123d are performed. Then, a CAD data search process 123e is performed.

そして、カメラと探索したCADデータの位置と姿勢情報をCPU300へ出力する処理123fを実行する。   And the process 123f which outputs the position and attitude | position information of CAD data searched with the camera to CPU300 is performed.

その後は、コマンド入力処理123bからの繰り返し処理となるようにする。この繰り返しサイクルが数10msecとかの高速で行なわれるようにすることで、ロボット等をリアルタイムで制御するCPU300は、ロボットの制御に利用する情報を容易に取得することができるようになる。   Thereafter, the process repeats from the command input process 123b. By making this repetitive cycle be performed at a high speed of several tens of milliseconds, the CPU 300 that controls the robot or the like in real time can easily acquire information used for controlling the robot.

具体的には、図19にも示しているように、ロボットハンド部に設けたカメラ123gと環境の中にある物体の1つで、例えば、円柱123hの位置と姿勢情報がリアルタイムに分かるようになることから、円柱123hを把持するためにロボットハンドを誘導する制御などを容易に実現することが可能となる。   Specifically, as shown in FIG. 19, the camera 123g provided in the robot hand unit and one of the objects in the environment, for example, so that the position and orientation information of the cylinder 123h can be known in real time. Therefore, it is possible to easily realize control for guiding the robot hand to hold the cylinder 123h.

図20および図21を参照して、第11の手段の他の実施の形態を説明する。   With reference to FIG. 20 and FIG. 21, another embodiment of the eleventh means will be described.

図20は、交通信号機やビルのある街の道路を車が走っている情景であり、その中のHITACHIビル904の看板を探索する場合の例を説明する。   FIG. 20 shows a scene where a car is running on a road in a city with traffic lights and buildings, and an example of searching for a signboard of the HITACHI building 904 in the scene will be described.

CADデータの探索の方法としては、基本図形をもとにその基本図形に近いものを探索する方法を採用する。この場合、看板のサイズが分かっていれば、基本図形としては、所定の寸法の長方体を参照CADデータ904aとして用意し、生成されたCADデータの中からそれに近いものを探すようにする。そうすることによって、HITACHIビル904の看板を容易に探索することができる。   As a method of searching for CAD data, a method of searching for a thing close to the basic figure based on the basic figure is adopted. In this case, if the size of the signboard is known, a rectangular body having a predetermined dimension is prepared as the reference CAD data 904a as a basic figure, and the CAD data that is close to it is searched from the generated CAD data. By doing so, the signboard of the HITACHI building 904 can be easily searched.

また、図21に示す例は、基本図形だけでは限られた形状しか探索できないことから、予め、生成されたCADデータの中から一部分を取り出しておき、それを探索用の参照CADデータ904bとして入力するものである。この場合は、生成されたCADデータそのものであるので精度良くマッチングする部分が必ずあることから、より確実且つ正確に探索することができるようになる。また、基本図形にないどんな形状のCADデータのかたまりの一部分でも探索することができるようになる。   Further, in the example shown in FIG. 21, only a limited shape can be searched by using only basic figures. Therefore, a part of CAD data generated in advance is extracted and input as reference CAD data 904b for search. To do. In this case, since the CAD data itself is generated, there is always a portion that matches with high accuracy, so that the search can be performed more reliably and accurately. In addition, it becomes possible to search a part of a block of CAD data having any shape not included in the basic figure.

ここで、探索データを予め読み出しておく方法としては、第11の手段の一例であるが、例えば、任意のサイズに変更可能な直方体を生成されたCADデータの中に表示して、その直方体のエリアの中をCADデータを探索用のCADデータとして読み出す方法がある。この方法によれば、必要な部分を簡単に取り出せるようになる。そのエリア904Aは、HITACHIビル904を包むような大きさで指定すれば、看板部を含む探索用CADデータを読み出すことが可能となる。このデータで探索すれば、看板の文字データも探索するときの特徴情報になるので、より確実に目的とする探索対象を探し出すことが可能となる。勿論、いろいろな場所を読み出しておけば、必要なときに、直ぐに、その場所を探索して確認できるようなシステムも構築することができるようになる。エリアは、直方体でなくても任意の大きさに設定できる球体でも良い。球体であれば姿勢まで指定しないで済むので、操作が容易になる。   Here, the method of reading the search data in advance is an example of the eleventh means. For example, a cuboid that can be changed to an arbitrary size is displayed in the generated CAD data, and the cuboid of the cuboid is displayed. There is a method of reading out CAD data as CAD data for search in an area. According to this method, a necessary part can be easily taken out. If the area 904A is designated with a size that encloses the HITACHI building 904, the CAD data for search including the signboard portion can be read out. By searching with this data, the character data of the signboard is also used as characteristic information when searching, so that the target search target can be found more reliably. Of course, if various locations are read out, it is possible to construct a system in which the locations can be searched and confirmed immediately when necessary. The area may not be a rectangular parallelepiped but may be a sphere that can be set to an arbitrary size. Since it is not necessary to specify the posture if it is a sphere, the operation becomes easy.

また、第11の手段で、最初に基本図形で看板を探索した後にその看板を含む大き目のエリアを探索用CADデータとして読み出す方法である。この方法であれば、最初は基本図形だけで探索することができ、次には、看板の文字も含めたその看板の部分を探索用に利用することができるようにすることができる。勿論、基本図形でない場合も、似たような場所を探して、似たような場所の周辺を探索用CADデータとして読み取るようにすれば、ずばりその場所を探索するのに適した探索用CADデータを得ることができる。   The eleventh means is a method of reading a large area including the sign as search CAD data after first searching for the sign with the basic figure. With this method, it is possible to search using only the basic figure at first, and then to use the part of the signboard including characters of the signboard for searching. Of course, even if it is not a basic figure, if a similar place is searched and the vicinity of the similar place is read as search CAD data, the search CAD data suitable for searching for the place is used. Can be obtained.

このように第11の手段を用いれば、最初は基本図形程度しかなくても、徐々に似ているような場所を探して新たな探索用CADデータにすることができるので、容易に探索用CADデータ集を作ることも可能となる。   By using the eleventh means in this way, even if there is only a basic figure at first, it is possible to search for a similar place gradually and use it as new search CAD data. It is also possible to create a data collection.

第11の手段で、基本図形で探索する場合に、例えば、看板の直方体のサイズが不明の場合には、縦に長い直方体を示すような概略の縦横長さの比を指定するようにしてその比に近い直方体の物体を複数探索させる手法である。この手法は、形状が同じであれば、サイズは大きいものから小さいものまで探索したい、という場合に効果的である。バルブとか配管などのように、同じ形状でいろいろなサイズがあるものなどを探索するときには便利である。また、人のような形でも子供から大人まで探索するときのように、マッチング程度をある程度許容することで、同じ探索用データをサイズフリーで指示することで大小のある程度似たものを探索することができるようになる。探索用データも大きさの数だけもっている必要がないのでメモリの節約にもなる。   In the eleventh means, when searching with a basic figure, for example, when the size of a rectangular parallelepiped of a signboard is unknown, an approximate ratio of vertical and horizontal length that indicates a long rectangular parallelepiped is designated. This is a technique for searching for a plurality of rectangular parallelepiped objects close to the ratio. This method is effective when it is desired to search from a large size to a small size if the shapes are the same. This is useful when searching for valves with the same shape and various sizes, such as valves and pipes. In addition, even when searching from children to adults in a human-like form, by allowing a certain degree of matching, the same search data can be specified in a size-free manner to search for large and small similar items. Will be able to. Since the search data need not have the same number as the size, memory can be saved.

図22を参照して、第11の手段の他の実施の形態を説明する。撮像装置10は、撮影対象の物体905と共に部屋905aの中に入り、物体905を上下左右のいろいろな角度から撮影して画像情報を生成してCADデータを生成させる。この場合の撮影対象の物体905は花である。   With reference to FIG. 22, another embodiment of the eleventh means will be described. The imaging apparatus 10 enters the room 905a together with the object 905 to be imaged, images the object 905 from various angles, up and down, left and right, generates image information, and generates CAD data. In this case, the object 905 to be imaged is a flower.

一般の環境にある花は、いろいろなものの陰になったりするので、花の全体形状のCADデータを生成するのは難しいが、この手法を用いることで撮影対象の物体905の正確なCADデータ905cを容易に得ることができるようになる。また、専用の部屋905aとしてその中には他の物体が存在しないようにすれば、どのような角度から対象物体905を撮影しても他の物体が混入するようなことはない。部屋905aの内装は、床も壁も天井も真っ白とか、青とかにしておいても良いし、また、グリッドなどのメッシュを部屋の床,壁,天井に引いておき、CADデータ生成時にそのグリッドを利用するようにしても良い。   Since a flower in a general environment is shaded by various things, it is difficult to generate CAD data of the entire shape of the flower, but by using this method, accurate CAD data 905c of the object 905 to be photographed is used. Can be easily obtained. Further, if no other object is present in the dedicated room 905a, the other object will not be mixed even if the target object 905 is photographed from any angle. The interior of the room 905a may be white or blue on the floor, wall, and ceiling, or a grid such as a grid is drawn on the floor, wall, or ceiling of the room, and the grid is generated when CAD data is generated. May be used.

図23,図24,図25および図26を参照して、第11の手段の実施の形態を説明する。この図23〜図26は、図19を参照して説明した基本処理における参照CADデータの探索処理123eの一例を説明するためのものである。   An embodiment of the eleventh means will be described with reference to FIGS. 23, 24, 25 and 26. FIG. 23 to 26 are for explaining an example of the reference CAD data search process 123e in the basic process described with reference to FIG.

図23は、探索例の条件を整理したものである。現在の撮像装置(カメラ)の画像情報(映像)には4つの直方体が写っており、そのうちの3つの直方体は3段重ねになっている。そして、CADデータはある程度行なわれており、同じような環境のCADデータは既に生成されているものとする。具体的には、各直方体に相当するソリッドデータSV1,SV2,SV3,V4が生成されており、平面S0にソリッドSV1,V4が付いているデータが生成されているとする。この状態で、探索したい参照CADデータは、2段重ねの長方体の積み木である。   FIG. 23 is a summary of the search example conditions. The image information (video) of the current imaging device (camera) includes four rectangular parallelepipeds, and three of the rectangular parallelepipeds are stacked in three stages. It is assumed that CAD data has been performed to some extent, and CAD data having a similar environment has already been generated. Specifically, it is assumed that solid data SV1, SV2, SV3, V4 corresponding to each rectangular parallelepiped has been generated, and data with solids SV1, V4 on the plane S0 has been generated. In this state, the reference CAD data to be searched is a two-layered rectangular block.

図24を参照して探索処理123eにおける処理(1)の例を説明する。この処理は、探索用CADデータ(参照CADデータ)の特徴量を計算する処理である。特徴量とは、CADデータによってはいろいろ考えられるが、ここでは、体積、細長比、頂点,線分,面の構成員数、凸凹の数、基本形状の数(直方体2個とか)、線分,面の特徴(曲面の場合の関数)、色情報などである。これらの計算処理は、新しい探索用CADデータが入力されたときに1回だけ行なう。   An example of the process (1) in the search process 123e will be described with reference to FIG. This process is a process of calculating a feature amount of search CAD data (reference CAD data). There are various features that can be considered depending on CAD data. Here, volume, slenderness ratio, vertices, line segments, number of faces, number of irregularities, number of basic shapes (two cuboids), line segments, These include surface characteristics (functions for curved surfaces), color information, and the like. These calculation processes are performed only once when new search CAD data is input.

図25を参照して探索処理123eにおける処理(2)の例を説明する。具体的には、現在見えている視野の中に入っているCADデータの中から処理(1)で抽出した特徴量と同じ特徴量を有するCADデータを探索する処理である。   An example of the process (2) in the search process 123e will be described with reference to FIG. Specifically, it is a process of searching for CAD data having the same feature quantity as the feature quantity extracted in the process (1) from CAD data in the field of view that is currently visible.

この例では、4つの直方体のデータがあるので、各々4つの直方体(候補1〜候補4)と、積み重なっている直方体では2つづつの組み合せが2種類(候補5と候補6)と、更に3段重ねの組み合せ(候補7)の合計7つの候補となることから、この7つの候補の特徴量と探索したい参照CADデータの特徴量を比較すれば、候補5が最も一致するということになる。基本図形で探索できるような単純な環境であれば、基本形状が最も近似する候補のCADデータが探索結果であるので、その結果として、この候補のCADデータの中心の位置と姿勢情報を出力するようにすれば良い。これは、図19の基本的な探索処理123eにおいて1回で全部実施するようにしても良いし、何回かに分けて実施するようにしても良い。すなわち、CADデータの生成サイクルの10回に1回の程度で探索結果を出力するようにしても良いし、1回毎に出力するようにしても良い。   In this example, since there are four cuboid data, each of the four cuboids (candidates 1 to 4) and the stacked cuboids have two combinations of two (candidate 5 and candidate 6) and three more stages. Since there are a total of seven candidates for the combination of the overlaps (candidate 7), if the feature amounts of the seven candidates are compared with the feature amounts of the reference CAD data to be searched, candidate 5 is the best match. In a simple environment in which a basic figure can be searched, the candidate CAD data with the most approximate basic shape is the search result, and as a result, the center position and orientation information of this candidate CAD data is output. You can do that. This may be performed all at once in the basic search process 123e of FIG. 19, or may be performed in several steps. That is, the search result may be output about once every 10 generation cycles of CAD data, or may be output every time.

図26は、環境が基本図形のみでない場合などに特に有効な処理方法であり、探索処理123eにおける処理(2)で最も近似する候補を1つ、場合によっては複数選択した後に参照CADデータと候補CADデータのパターンマッチングを行って、更に適切な候補を探索する処理(3)である。   FIG. 26 is a processing method that is particularly effective when the environment is not only a basic figure. Reference CAD data and candidates after selecting one closest candidate in process (2) in search process 123e, or in some cases, selecting a plurality of candidates. This is a process (3) of searching for a more appropriate candidate by performing pattern matching of CAD data.

この例は、3Dポテンシャルマッチング法であり、最も近似する候補の最も確からしい位置,姿勢に参照CADデータをおいて最終マッチングを行なう。そして、マッチング度が所定値以上であれば、探索対象の物体であるとして特定し、未満の場合には、否として探索を継続する。   This example is a 3D potential matching method, in which reference CAD data is placed at the most probable position and orientation of the closest candidate to perform final matching. If the degree of matching is equal to or greater than a predetermined value, the object is specified as an object to be searched, and if it is less, the search is continued as no.

マッチング処理では、既に2次元処理で方法が確立しているパターンポテンシャルマッチング法を3次元に拡張したり、固有値空間マッチング法などを用いることによって探索速度を高速化することが可能となる。ここで、ポテンシャルマッチング法は、特開平02−137072号公報などに記載されている2次元ポテンシャルマッチングの処理を3次元の処理に拡張する使い方をする。固有値空間マッチング法は、文献で1997年5月情報通信電子学会論文誌D−II Vol.J80−D−II No.5 PP.1136−1143に記述されている手法などを応用する。何れの場合でも、最初に特徴量で候補を絞り込んで最終的な確定のために各種のマッチング法を用いる方法が良い。ここで用いるマッチング法は、上述のものに限定されるものではない。高速に高精度でマッチングできる手法と組み合わせて行なうようなマッチング手法でも良い。また、複数のマッチング手法を組み合わせて使用する方法でも良い。   In the matching processing, the search speed can be increased by extending the pattern potential matching method, which has already been established by the two-dimensional processing, to three dimensions, or using the eigenvalue space matching method. Here, the potential matching method is used to extend the two-dimensional potential matching processing described in Japanese Patent Laid-Open No. 02-137072 to three-dimensional processing. The eigenvalue space matching method is described in the literature in IEICE Transactions on Electronic Communication D-II Vol. J80-D-II No. 5 PP. The method described in 1136 to 1143 is applied. In any case, it is preferable to first use a variety of matching methods for final determination by narrowing down candidates by feature amount. The matching method used here is not limited to the above. A matching method that is performed in combination with a method capable of high-speed and high-precision matching may be used. Further, a method of using a combination of a plurality of matching methods may be used.

ここで、探索用CADデータは、3次元でも良いし、2次元でも良い。2次元のCADデータとは、模様や絵や看板の文字などである。すなわち、それらは、1つの面データの中にいろいろな面データと線分データが付いているようなCADデータで与えられる。面には色情報が付いていても良い。そのような探索用CADデータは、2次元で与えても探索する対象は3次元のCADデータの空間となるので、2次元のプレートの最もマッチングする部分を3次元空間の中から探索することになる。その場合、2次元のプレートは、向きや姿勢をいろいろな方向に変えてマッチングする場所を探索することになる。また、3次元の探索用CADデータの場合と同じように、スケールファクタは可変にして同じプレート、すなわち模様やマークで、大きいものから小さなものまで探索できるようにすると良い。   Here, the search CAD data may be three-dimensional or two-dimensional. The two-dimensional CAD data is a pattern, a picture, a signboard character, or the like. That is, they are given as CAD data in which various surface data and line segment data are attached to one surface data. Color information may be attached to the surface. Even if such CAD data for search is given in two dimensions, the object to be searched is the space of the three-dimensional CAD data, so that the most matching portion of the two-dimensional plate is searched from the three-dimensional space. Become. In that case, the two-dimensional plate searches for a matching place by changing its orientation and posture in various directions. As in the case of three-dimensional search CAD data, it is preferable that the scale factor is variable so that the same plate, that is, a pattern or a mark, can be searched from large to small.

ここで、マッチング探索について補足説明する。生成される環境のCADデータや入力される探索用CADデータは、そのデータ量を少なくするために、線データは、始点と終点と線種、線の関数パラメータなどで表現され、面データは、構成する線分の名称などで表現されるが、探索の時点では、マッチングを行なう部分に関しては、線分であれば線上の複数の点データに、面データであればその面を構成する複数の点データに変換して、点データ同士のマッチング処理、すなわち、相関をとる処理を行なうようにすれば良い。色情報をもっていた面データから置き換えられる点データには色情報ももたせて、色情報も考慮したマッチングとする。マッチング処理が終わったならば、置き換えた点データは消去可能である。その都度、点データに置き換えることで、通常もっていなければならないCADデータとしてのデータ量を少なくすることができる。   Here, a supplementary explanation of the matching search will be given. In order to reduce the amount of data generated in the CAD data of the generated environment and the input CAD data for search, the line data is expressed by the start point, the end point, the line type, the function parameter of the line, etc. It is expressed by the name of the line segment to be configured, etc., but at the time of the search, as for the portion to be matched, if it is a line segment, it will be a plurality of point data on the line, and if it is a plane data, it will be Conversion to point data may be performed to perform matching processing between the point data, that is, processing for obtaining correlation. The point data to be replaced from the surface data having the color information is also provided with the color information, and matching is performed in consideration of the color information. When the matching process is finished, the replaced point data can be deleted. By replacing the data with point data each time, the amount of data as CAD data that should normally be kept can be reduced.

また、点に置き換える場合の密度であるが、マッチング精度に応じて適切に変えるようにすると良い。基本的には、等ピッチ,等間隔で置き換えるが、複雑な形状、複雑な色模様の個所の密度を濃くし、単純な形状、単純な模様の色データの個所は粗くするようにすると良い。また、ソリッドのCADデータで管理、入出力するようにしている場合には、ソリッドデータもそのソリッド内空間に点データを一定密度で、あるいは、密と粗い部分を設けるなりして点データに置き換えて点データ同士のマッチングにすると良い。点データに置き換えることで、汎用的なマッチング処理を共通的に使用することができるようになる。なお、ここでは、点データに置き換える方法を説明したが、関数ベースでのマッチングができればそれでも良い。   Moreover, although it is the density at the time of replacing with a point, it is good to change appropriately according to matching accuracy. Basically, replacement is performed at equal pitches and equal intervals, but it is preferable to increase the density of locations of complex shapes and complex color patterns and to coarsen the locations of color data of simple shapes and simple patterns. In addition, if solid CAD data is used for management and input / output, the solid data is also replaced with point data in the solid space with a constant density or by providing dense and coarse portions. It is better to match the point data. By replacing with point data, a general-purpose matching process can be used in common. Here, the method of replacing with point data has been described, but it may be used as long as it can be matched on a function basis.

図27を参照して第11の手段の他の実施の形態を説明する。膨大で広範囲に生成したCADデータの中から参照CADデータを探索する場合には、探索速度を高速にするために、CADデータが生成される空間全体をブロック番地に区切り、区切番地を指定して探索範囲を絞り込むようにすると良い。   Another embodiment of the eleventh means will be described with reference to FIG. When searching for reference CAD data from among a large amount of CAD data generated extensively, in order to increase the search speed, the entire space where the CAD data is generated is divided into block addresses, and the partition addresses are designated. The search range should be narrowed down.

図27は、空間を同じ大きさのブロックに分断して探索する概念を示している。その中に撮像装置10であるカメラが存在しており、カメラ10は視野10Vの範囲を撮影している状況を示している。   FIG. 27 shows the concept of searching by dividing a space into blocks of the same size. The camera which is the imaging device 10 exists among them, and the camera 10 has shown the condition which image | photographs the range of the visual field 10V.

探索する場合には、カメラ10で見えている範囲を検索させる方法と、見えてない範囲を検索させる方法がある。勿論、CADデータを生成している中で検索させる方法もあるし、生成されたCADデータを使ってオフラインで検索処理のみを実施する方法もある。何れの方法においても、全エリアを検索するのは大変な時間がかかるので、例えば、対象空間が日本全国であって、現在の対象エリアが東京であれば、東京のブロック番地のみを探索対象にする方法で絞り込むようにする。   In the case of searching, there are a method of searching a range that is visible with the camera 10 and a method of searching a range that is not visible. Of course, there is a method of searching while CAD data is being generated, and there is also a method of performing only a search process offline using the generated CAD data. In any method, it takes a very long time to search the entire area. For example, if the target space is all over Japan and the current target area is Tokyo, only the block address in Tokyo is searched. Try to narrow down by the method.

また、第11の手段の他の実施の形態は、カメラ10の向きの方向のブロックを探索するようにするものである。すなわち、カメラ10の視野10Vの中に入っているブロックを探索の対象とするものである。ここで、生成するCADデータは、生成時にブロック番地で区分けして管理するようにしていくことにより、ブロックを指定すれば対象CADデータも自動的に絞り込めるようにすることができる。ブロックを指定して処理を行なえば、探索を効率良く行なうことができる。   In another embodiment of the eleventh means, a block in the direction of the direction of the camera 10 is searched. That is, a block in the visual field 10V of the camera 10 is a search target. Here, the CAD data to be generated is classified and managed by block addresses at the time of generation, so that the target CAD data can be automatically narrowed down if a block is designated. If processing is performed by specifying a block, the search can be performed efficiently.

図28は、第11の手段の他の実施の形態である視覚情報処理装置のブロック図である。この視覚情報処理装置は、画像情報処理装置100に、I/Fとして、別のCPU300からの探索指令信号を入力する2つの系統と、探索結果を出力する2つの系統を設けた構成である。勿論、3つ以上でも良いし、1台のCPU300ではなく複数台のCPU300と接続されるように構成しても良い。   FIG. 28 is a block diagram of a visual information processing apparatus which is another embodiment of the eleventh means. This visual information processing apparatus has a configuration in which the image information processing apparatus 100 is provided with two systems for inputting a search command signal from another CPU 300 and two systems for outputting a search result as an I / F. Of course, the number may be three or more, and may be configured to be connected to a plurality of CPUs 300 instead of a single CPU 300.

このように、画像情報処理装置100に複数のI/Fを設けることにより、画像情報処理装置100の処理速度を上げてもCPU300とのデータ受け渡し速度が遅くてシステムの処理能力向上が制限されるような事態となるのを回避することができる。CADデータは、沢山の点や線分データから構成されている場合もあるし、探索によって沢山の候補データが探索され、また、それらの位置と姿勢情報以外に色とか形状の情報も読み出す場合には多くの時間がかかる。従って、画像情報処理装置100に複数のI/Fの出入り口を設けることにより、多くのCADデータの探索処理を効率良く行なうことができるようになる。   As described above, by providing the image information processing apparatus 100 with a plurality of I / Fs, even if the processing speed of the image information processing apparatus 100 is increased, the data transfer speed with the CPU 300 is slow, and the improvement of the processing capability of the system is limited. Such a situation can be avoided. The CAD data may be composed of many points and line segment data, or a lot of candidate data is searched by searching, and color or shape information is read in addition to the position and orientation information. Takes a lot of time. Therefore, by providing a plurality of I / F entrances in the image information processing apparatus 100, it is possible to efficiently perform a search process for a lot of CAD data.

図29および図30を参照して、第11の手段の他の実施の形態を説明する。   With reference to FIG. 29 and FIG. 30, another embodiment of the eleventh means will be described.

図29は、生成されたCADデータの概念を示している。実際には細かな線分や面データの集合からなるCADデータであるが、ここでは、予め探索用CADデータがひとかたまりのものとして登録されているものとする。それらは、具体的には、机,花瓶,花,コップである。   FIG. 29 shows the concept of the generated CAD data. Actually, the CAD data is composed of a set of fine line segments and surface data. Here, it is assumed that the search CAD data is registered in advance as one set. They are specifically desks, vases, flowers, and cups.

そこで、部屋の中のCADデータを生成したときに同じようなCADデータのかたまりが存在しているので、予め探索用にその物体のみで生成していたCADデータを使って探索させる。例えば、花のデータを使って探索させると花905を構成する線分や面データのかたまりが探索されるので、それをID=1と定義する。ID=1は、処理の中では花である。次に、花瓶906aを探索させるとその部分のデータが探索されるので、それをID=2と定義する。同様に、カップ906bのデータ部分はID=3と定義し、机907のデータを使って探索させると机と思われる線分と面データのかたまりが探索されるので、それをID=4と定義する。このIDを登録するときには、それを構成する線分や面のCADデータはグルーピングするようにする。IDを定義したCADデータには、そのIDの代表点の位置とかたまりとしての物体の姿勢情報を登録するようにしても良い。このようにマッチングした部分をかたまりとし定義して管理しておけば、次に探索するような場合には、IDを指定して探索するような使い方ができるようになり、便利である。   Therefore, since a similar set of CAD data exists when the CAD data in the room is generated, the search is performed using CAD data generated in advance only for the object for searching. For example, if a search is performed using flower data, a line segment or a block of surface data constituting the flower 905 is searched, and this is defined as ID = 1. ID = 1 is a flower in the process. Next, when the vase 906a is searched, the data of that portion is searched, and it is defined as ID = 2. Similarly, the data portion of the cup 906b is defined as ID = 3, and when searching using the data of the desk 907, a group of line segments and surface data which are considered to be a desk are searched, and this is defined as ID = 4. To do. When this ID is registered, the CAD data of the line segments and faces constituting the ID is grouped. In the CAD data defining the ID, the position of the representative point of the ID and the posture information of the object as a cluster may be registered. If the matched portions are defined and managed as a lump in this way, the next search can be conveniently performed by specifying an ID and performing a search.

予め用意しておいた探索用CADデータとマッチングしなかった部分908のかたまりがあるとすると、そのかたまりの部分が未認識の物体ということになる。そのような場合には、応用システムは、カメラを未確認物体908の周囲で上下左右に動かして該未認識物体908を撮影してCADデータを更に精度良く生成するようにすると良い。そして、その未確認物体908の部分にそれまで取られていない新たなID番号を付けて管理するようにすれば、未確認物体があってもそれを良く観察して詳しいCADデータを生成して新たな物体として認識させることができるようになる。ここで、IDが付けられるということは、システムがその物体をIDの番号で認識しているということである。   If there is a lump of the portion 908 that has not been matched with the CAD data for search prepared in advance, the lump portion is an unrecognized object. In such a case, the application system may move the camera up and down, left and right around the unconfirmed object 908 to photograph the unrecognized object 908 and generate CAD data with higher accuracy. If the unidentified object 908 is managed by attaching a new ID number that has not been taken so far, even if there is an unconfirmed object, it is observed closely and detailed CAD data is generated to create a new one. It can be recognized as an object. Here, the fact that an ID is attached means that the system recognizes the object by the ID number.

IDには、種類と個々の番号をもたせるようにすると良い。例えば、コップが2つある場合にはID=(3の1)が1つ目、ID=(3の2)が2つ目というように管理すると良い。種類と個別番号を付けて管理するということである。   The ID may have a type and an individual number. For example, when there are two cups, ID = (1 of 3) may be managed first, and ID = (2 of 3) may be managed second. This means that they are managed with types and individual numbers.

第11の手段では、そのIDに人間の言葉を対応付けるようにしても良い。この場合のCADデータの概念を以下に示す。
In the eleventh means, a human word may be associated with the ID. The concept of CAD data in this case is shown below.

Figure 2006003263
このように、ID=1は、人間の言葉で「花」であることを対応させておくことにより、「花」を探索させることが可能となり、システムと人間とのI/Fを、操作(指示)し易いものに構築することができる。また、探索を行なうときに、例えば、「カップ(ID=3)とか花瓶(ID=2)は、机(ID=4)の上にある場合が多い。」という知識があれば、探索時には、先ずは机(ID=4)のCADデータの上に付いているCADデータを対象に探索するようにすることができる。このように範囲を特定して探索することで探索効率を上げることが可能となる。
Figure 2006003263
In this way, ID = 1 can be searched for “flower” by making it correspond to “flower” in human language, and the I / F between the system and human can be operated ( It can be constructed to be easy to instruct). Further, when searching, for example, if there is knowledge that “a cup (ID = 3) or a vase (ID = 2) is often on a desk (ID = 4)”, at the time of searching, First, the CAD data attached on the CAD data of the desk (ID = 4) can be searched for. Thus, it becomes possible to raise search efficiency by specifying and searching a range.

図30は、知識データを入力するための実施の形態を示しており、図30を参照して説明した探索において、未認識の物体908のCADデータのかたまりが生じた場合には、システムは、人間に「この物体はなんですか?」という問いを出力し、人間がそれはID=5と定義することを入力しているときのLCDの表示画面を例示している。   FIG. 30 shows an embodiment for inputting knowledge data. In the search described with reference to FIG. 30, when a block of CAD data of an unrecognized object 908 occurs, the system The display screen of the LCD when the question “What is this object?” Is output to a human being and the human being inputs that it is defined as ID = 5 is illustrated.

このときに、知識データも一緒に入力するようにすると、入力漏れがなくなるシステムを構築することができる。また、知識データは、人間の言葉で入力するようにすれば、入力し易くなる。例えば、ID=5=「小包」と入力した後に、知識1=「小包」は「机」の「上にある」と入力すれば、必要なデータベースが自動的に作られるようにする。先に、総てのIDの言葉が登録されていれば、知識データベースは、人間の言葉からID番号に置き換えてID番号を所定の場所に記憶させるようにすることができる。また、ここで、「上にある」という言葉も何か他の記号に置き換えて記憶させるようにしても良いが、「上にある」ということは、その次にくるIDの物体の上(空間的に高い位置)のCADデータを探索することである、ということが対応付いているように探索のプログラムが記述されていることが前提になる。   At this time, if knowledge data is also input together, a system can be constructed that eliminates input leakage. Knowledge data can be easily input by inputting it in human language. For example, after inputting ID = 5 = “parcel”, if knowledge 1 = “parcel” is entered “above” of “desk”, a necessary database is automatically created. If the words of all IDs are registered first, the knowledge database can replace the human words with the ID numbers and store the ID numbers in a predetermined place. Here, the word “above” may be stored by replacing it with some other symbol. However, “being over” means that the object on the next ID (space) It is premised that a search program is described so as to correspond to searching for CAD data at a higher position.

まとめて探索用CADデータを登録して各々IDを登録する場合を考慮して、知識データもオフラインで予め別ファイルで製作しておき、知識データを一括してシステムに読み込ませるようにする手段であり、効率良く知識データの登録が可能となる。   In consideration of the case of registering search CAD data and registering each ID, knowledge data is also prepared in advance in a separate file offline and the knowledge data is collectively read into the system. Yes, knowledge data can be registered efficiently.

なお、CADデータのデータベースの概念は、前述した実施の形態では、単純にデータをレコードNo.毎に羅列するように記述しているが、実際にシステムを実現する場合には、検索し易いデータベースにして、いろいろなデータにアクセスする時間を短くして、最終的には視覚情報処理装置あるいはそのシステムの処理速度を上げてリアルタイム性を向上するように工夫するのが良い。   It should be noted that the concept of the CAD data database is that the data is simply recorded in the record No. in the embodiment described above. Although it is described so that it is enumerated every time, when actually realizing the system, it is necessary to make the database easy to search, shorten the time to access various data, and finally the visual information processing device or It is advisable to increase the processing speed of the system so as to improve the real-time property.

第11の手段の他の実施の形態を図29を参照して説明する。元々、図29の個々のCADデータのかたまりは、実際には、生成された線分データや面データが複雑にしかも不完全に集合したものである。また、そのデータの数も多いので、探索してマッチング度がある程度一致した場合には、その部分を基本図形あるいは基本図形の集合体で定義された基本図形で置き換える。このようにして置き換え可能な総てのCADデータを基本図形に置き換えれば、データ量は大幅に削減することが可能となる。   Another embodiment of the eleventh means will be described with reference to FIG. Originally, the block of individual CAD data shown in FIG. 29 is actually a complex collection of incompletely generated line segment data and surface data. In addition, since the number of data is large, when the matching degree matches to some extent after searching, the portion is replaced with a basic graphic defined by a basic graphic or a collection of basic graphic. By replacing all replaceable CAD data with basic graphics in this way, the amount of data can be greatly reduced.

次に、図31を参照して第1〜3の手段および第10,第11の手段の他の実施の形態を説明する。この実施の形態は、本発明を実施する場合に適した視覚情報処理装置の基本的な製品形態の1つである。   Next, another embodiment of the first to third means and the tenth and eleventh means will be described with reference to FIG. This embodiment is one of basic product forms of a visual information processing apparatus suitable for implementing the present invention.

この実施の形態では、画像情報処理装置100は、前述したような画像情報処理機能を実現する手段(演算処理装置)をLSI化した視覚誘導チップとして構成し、撮像装置10,20は、2つのCCDカメラを使用し、記憶装置200は、スマートカード,メモリスティック,ICカード,ハードディスクなどのメモリを単独または組み合わせて使用し、別のCPU300は、ロボット制御装置などのアプリケーション側のCPUを使用し、拡張用として、加速度センサ30やジャイロセンサ40を用意する。   In this embodiment, the image information processing apparatus 100 is configured as a visual guidance chip in which the means (arithmetic processing apparatus) for realizing the image information processing function as described above is implemented as an LSI. Using a CCD camera, the storage device 200 uses a memory such as a smart card, a memory stick, an IC card, and a hard disk alone or in combination, and another CPU 300 uses a CPU on the application side such as a robot controller, An acceleration sensor 30 and a gyro sensor 40 are prepared for expansion.

画像情報処理装置100である視覚誘導チップには、画像情報や指令(コマンド)や探索用のCADデータやセンサ信号などを入力する入力I/Fと、指令に対する応答や撮像装置10,20や検索CADデータの位置や姿勢情報を出力する出力I/Fと、記憶装置200を接続するメモリ用I/Fなどを設ける。   The visual guidance chip, which is the image information processing apparatus 100, has an input I / F for inputting image information, commands (commands), search CAD data, sensor signals, and the like, responses to the commands, imaging devices 10, 20 and search. An output I / F that outputs CAD data position and orientation information, a memory I / F that connects the storage device 200, and the like are provided.

そして、この視覚誘導チップ(画像情報処理装置)100は、アプリケーション側のCPU300からの指令に従って、CCDカメラ(撮像装置)10,20から出力される生画像情報や加速度センサ30とジャイロセンサ40から出力されるセンサ信号を取り込んでCADデータを生成し、参照CADデータを探索する画像情報処理を実行し、探索結果をアプリケーション側のCPU300に報告し、生成したCADデータを記憶装置200に記憶させる処理を実行する。   The visual guidance chip (image information processing device) 100 outputs the raw image information output from the CCD cameras (imaging devices) 10 and 20 and the acceleration sensor 30 and the gyro sensor 40 in accordance with a command from the CPU 300 on the application side. Processing to generate CAD data by fetching the sensor signal to be performed, execute image information processing for searching for reference CAD data, report the search result to the CPU 300 on the application side, and store the generated CAD data in the storage device 200. Execute.

ここで、画像情報処理装置100の機能を実現する視覚誘導チップは、CADデータ生成と更新機能のハードチップ部とCADデータの探索機能のハードチップ部を分けるようにしても良い。その場合は、記憶装置200へのI/Fは、CADデータ生成と更新機能のハードチップ部とCADデータ探索機能のハードチップ部の両方に設け、同時に記憶装置200を読み書きしないように制御する。このような視覚誘導チップの構成とすれば、CADデータ生成と更新機能のみを必要とするアプリケーションには当該ハードチップ部だけを使用すれば良く、CADデータの探索機能が必要な場合に当該ハードチップ部を使用すれば良くなるので、合理的なアプリケーションシステムを経済的に構築することができるようになる。   Here, the visual guidance chip that realizes the functions of the image information processing apparatus 100 may be divided into a hard chip unit for CAD data generation and update functions and a hard chip unit for CAD data search functions. In that case, the I / F to the storage device 200 is provided in both the hard chip portion of the CAD data generation and update function and the hard chip portion of the CAD data search function, and is controlled not to read / write the storage device 200 at the same time. With such a visual guidance chip configuration, it is sufficient to use only the hard chip unit for an application that requires only the CAD data generation and update functions. When the CAD data search function is required, the hard chip is used. Therefore, a rational application system can be constructed economically.

次に、図32〜図40を参照して、図31に示した実施の形態の視覚誘導チップ(画像情報処理装置)100が実行する具体的な画像情報処理(CADデータの生成と更新機能)を詳細に説明する。   Next, with reference to FIGS. 32 to 40, specific image information processing (CAD data generation and update function) executed by the visual guidance chip (image information processing apparatus) 100 of the embodiment shown in FIG. Will be described in detail.

図32および図33は、視覚誘導チップ100が実行するメイン処理のフローチャートである。ここでは、アプリケーション側のCPU300からのコマンドとして、必要最小限の最も単純な4つのコマンドを用意した場合の例で説明する。そのコマンドは、コマンド=0が原点リセットでデータエリアをクリアするもの、コマンド=1がカメラ位置リクエスト、コマンド=2が探索指令、コマンド=3がデータ登録(ファイリング)の機能を有するものとする。   32 and 33 are flowcharts of main processing executed by the visual guidance chip 100. FIG. Here, an example will be described in which the four simplest commands that are the minimum necessary are prepared as commands from the CPU 300 on the application side. It is assumed that the command = 0 has a function of clearing the data area by resetting the origin, the command = 1 has a camera position request, the command = 2 has a search command, and the command = 3 has a data registration (filing) function.

システムの電源投入後のリセット信号で視覚誘導チップ100のメイン処理がスタートする。最初に処理(1)で撮像装置(カメラ)の現在の位置と姿勢データ(Xc,Yc,Zc,αc,βc,γc)をゼロリセットして、ワールド座標系を定義する。ワールド座標系は、ここでは、電源投入リセットスタート時のカメラ座標系をワールド座標系として定義する。そして、生成したCADデータを記憶させるメモリ200のデータ記憶エリアをゼロクリアする。   The main process of the visual guidance chip 100 is started by a reset signal after the system is turned on. First, in process (1), the current position and orientation data (Xc, Yc, Zc, αc, βc, γc) of the imaging device (camera) are reset to zero to define the world coordinate system. In the world coordinate system, the camera coordinate system at the start of power-on reset is defined as the world coordinate system. Then, the data storage area of the memory 200 that stores the generated CAD data is cleared to zero.

次の処理(2)では、アプリケーション側のCPU300からのコマンド入力を読み取る。ここでは、各コマンドを0,1,2,3の4種を番号で区別するようにした。   In the next process (2), the command input from the CPU 300 on the application side is read. Here, each command is distinguished by four numbers of 0, 1, 2, and 3.

その次の処理(3)では、コマンド=0かどうかを判定し、Yesの場合には処理(4)のコマンド=0に相当する処理の原点リセットを行ない、処理(5)でアプリケーション側のCPU300へ原点リセット完了の応答を出力する処理を実行する。   In the next process (3), it is determined whether or not the command = 0. If Yes, the origin of the process corresponding to the command = 0 in the process (4) is reset, and the CPU 300 on the application side is processed in the process (5). Execute the process to output a response to the origin reset completion.

前記処理(3)でコマンド=0でない場合は、処理(6)へジャンプする。この処理(6)では、コマンド=1か否かを判別し、Yesの場合には、処理(7)において撮像装置10,20の現在位置と姿勢情報をアプリケーション側のCPU300へ出力する応答処理を実行する。   If the command is not 0 in the process (3), the process jumps to the process (6). In this process (6), it is determined whether or not the command = 1, and in the case of Yes, a response process for outputting the current position and orientation information of the imaging devices 10 and 20 to the CPU 300 on the application side in the process (7). Execute.

処理(6)でコマンド=1でない場合は、処理(8)へジャンプする。処理(8)では、コマンド=3か否かを判別し、Yesの場合には、処理(9)において、現在までに生成したCADデータをファイル名を付けてメモリ200の生成CADデータ記憶エリアとは別の記憶エリアに登録する。そして、処理(10)でデータ登録完了をアプリケーション側のCPU300へ応答出力する処理を実行する。   If the command is not 1 in the process (6), the process jumps to the process (8). In the process (8), it is determined whether or not the command = 3. If Yes, the CAD data generated so far in the process (9) is attached with a file name and the generated CAD data storage area of the memory 200 Register in a separate storage area. Then, in a process (10), a process for outputting a data registration completion response to the CPU 300 on the application side is executed.

処理(8)でコマンド=3でない場合は、処理(11)へジャンプする。処理(11)は、撮像装置10,20からの生画像情報の取り込みである。撮像装置10と撮像装置20によって得た生画像情報(1),(2)を視覚誘導チップ100へ取り込む。撮像装置20が接続されていない場合には単眼の処理となり、接続されている場合にはステレオ処理も可能とする。   If the command is not 3 in the process (8), the process jumps to the process (11). Process (11) is capturing of raw image information from the imaging devices 10 and 20. Raw image information (1) and (2) obtained by the imaging device 10 and the imaging device 20 is taken into the visual guidance chip 100. When the imaging device 20 is not connected, monocular processing is performed. When the imaging device 20 is connected, stereo processing is also possible.

次の処理(12)では、3D座標計算,CADデータの生成処理を行なう。この処理(12)の詳細は、別途、図34を参照して後述する。   In the next processing (12), 3D coordinate calculation and CAD data generation processing are performed. Details of this process (12) will be described later with reference to FIG.

次の処理(13)では、コマンド=2か否かを判別し、Yesの場合には、処理(14)において3D−CADデータの探索処理を実行する。   In the next process (13), it is determined whether or not the command = 2. If Yes, the search process for 3D-CAD data is executed in the process (14).

そして、処理(15)において、探索できたか否かを判別して、Yesの場合には、処理(16)で探索結果として、候補数、各候補物体の座標姿勢データ、候補と決めた時のマッチング度などをアプリケーション側のCPU300へ応答出力する処理を実行し、処理(2)へ戻る。   Then, in the process (15), it is determined whether or not the search has been made. In the case of Yes, the number of candidates, the coordinate posture data of each candidate object, and the candidates are determined as the search results in the process (16). A process of outputting a matching degree and the like to the CPU 300 on the application side is executed, and the process returns to process (2).

また、処理(13)の判別でコマンド=2でない場合と処理(15)で探索できなかった場合には、そこから処理(2)へ戻る。   If it is determined in the process (13) that the command is not 2 or if the search cannot be performed in the process (15), the process returns to the process (2).

このような処理を視覚誘導チップ100で実行できるようにすることにより、さまざまなアプリケーションの実現が容易になる。   By enabling the visual guidance chip 100 to execute such processing, various applications can be easily realized.

図34は、図33に示した視覚誘導チップ100のメイン処理における処理(12)である3D座標計算,CADデータ生成処理の詳細なフローチャートである。   FIG. 34 is a detailed flowchart of 3D coordinate calculation and CAD data generation processing, which is processing (12) in the main processing of the visual guidance chip 100 shown in FIG.

この処理では、処理(1)において、ステレオか単眼かの判別を行い、ステレオの場合には、処理(2)へ分岐する。   In this process, in process (1), it is determined whether it is stereo or monocular, and in the case of stereo, the process branches to process (2).

処理(2)では、ステレオ視の左右の画像データで対応する特徴点を複数抽出する。   In the process (2), a plurality of corresponding feature points are extracted from the left and right image data of the stereo view.

処理(3)では、抽出した左右の画像データの対応する特徴点を3D座標へ変換する。   In the process (3), corresponding feature points of the extracted left and right image data are converted into 3D coordinates.

そして、処理(4)において、3D−CADデータの生成処理を行なう。ステレオ視で3D座標を計算する手法は一般的であるので、ここでは詳細な説明を省略するが、3D座標が計算された後の処理(4)の詳細は、別途、図35〜図38を参照して後述する。その後、単眼の場合と合流して処理(5)を実行する。   In process (4), 3D-CAD data generation processing is performed. Since the method of calculating 3D coordinates in stereo view is common, detailed description is omitted here, but details of the process (4) after the 3D coordinates are calculated are separately shown in FIGS. Reference will be made later. Thereafter, the process (5) is executed by joining with the case of a single eye.

処理(5)は、処理(1)の判別で単眼の場合に分岐する処理である。ステレオの場合は、処理(2)〜(4)を実行した後にこの処理(5)に合流する。この処理(5)では、取り込み画像データの特徴点あるいは特徴物体を複数抽出する。   The process (5) is a process that branches in the case of a single eye in the determination of the process (1). In the case of stereo, after executing the processes (2) to (4), the process merges with the process (5). In this process (5), a plurality of feature points or feature objects of the captured image data are extracted.

次に処理(6)において、前回の取り込み画像データの特徴点と対応付けのできた特徴点は、前回のものと同じ名前を付け、新しい特徴点は新しい名前を付けて、今回の取り込み画像データを一時記憶する。処理(5),(6)は、特徴点のトラッキング処理の部分である。ステレオの場合には、少なくとも左右の何れか一方の画像情報について処理を行えば良い。   Next, in process (6), the feature points that can be associated with the feature points of the previous captured image data are given the same names as the previous ones, the new feature points are given new names, Memorize temporarily. Processes (5) and (6) are feature point tracking processes. In the case of stereo, processing may be performed on at least one of the left and right image information.

次に、処理(7)では、このトラッキングしながら蓄えた画像データが複数枚そろったか否かを識別する。   Next, in the process (7), it is identified whether or not a plurality of pieces of image data stored while tracking are prepared.

処理(7)でYesの場合は、処理(8)の写真計測での3D座標計算を実行する。具体的には、対応する複数の特徴点を3D座標へ変換する。このとき、各画像を撮影したカメラの位置や姿勢情報も計算されるので、その情報も一時記憶する。最新の取り込み画像のカメラ位置と姿勢情報は、変数Xc,Yc,Zc,αc,βc,γcにセットする。   In the case of Yes in the process (7), 3D coordinate calculation in the photo measurement of the process (8) is executed. Specifically, a plurality of corresponding feature points are converted into 3D coordinates. At this time, since the position and orientation information of the camera that captured each image is also calculated, the information is also temporarily stored. The camera position and orientation information of the latest captured image is set to variables Xc, Yc, Zc, αc, βc, and γc.

そして、処理(9)において、3D−CADデータ生成処理を実行しRETURNで戻る。処理(9)は、処理(4)と同じである。   Then, in the process (9), the 3D-CAD data generation process is executed, and the process returns with RETURN. Process (9) is the same as process (4).

処理(7)の判別で複数枚の画像データがそろわない場合には、そのままRETURNで戻る。写真計測に必要な画像データ枚数は、最小2枚であるが、更に多くの枚数を用いて写真計測するようにすると良い。3D座標計算に当たっては、スタート後、最初の取り込み画像を撮影したカメラ座標系をワールド座標系として3D座標を計算する。   If a plurality of pieces of image data are not found in the determination of the process (7), the process returns as it is with RETURN. Although the minimum number of image data required for photo measurement is two, it is preferable to measure the photo using a larger number. In the calculation of 3D coordinates, after the start, 3D coordinates are calculated using the camera coordinate system that captured the first captured image as the world coordinate system.

図35〜図38は、図34に示した処理における処理(4)と処理(9)の3D−CADデータ生成処理の詳細なフローチャートである。ここでは、最も基本となる第1の手段における更新機能の詳細も説明する。   35 to 38 are detailed flowcharts of the 3D-CAD data generation processing of processing (4) and processing (9) in the processing shown in FIG. Here, the details of the update function in the most basic first means will also be described.

この処理に入ったならば、処理(1)で3D座標に変換されたM(MAX)個の特徴点Q1〜QM(MAX)が、既に生成されているN個のCADデータの特徴点P1〜PNと既に生成されているL本のCADデータの線分L1〜LLに対して十分に離れた位置にある特徴点か否かを判別する。そして、十分に離れている特徴点がM個あった場合には、そのM個の特徴点を既に生成されているCADデータに追加する。すなわち、N個のCADデータにM個の点を追加する処理を行なう。ここで、十分に離れているか否かの判別は、Q点とP点の距離あるいはQ点とL線分との最短距離が、Q点が計算されたときの可能性のある最大誤差とP点あるいはL線分のQ点に近い点(LP点)の計算されたときの可能性のある最大誤差の和を比較して、それよりも離れている場合には、その近いP点あるいはLP点から十分に離れた新たな点であると判別するようにした。このように判別すれば、同じ特徴点を別の特徴点と誤って判別することはなくなる。ここでは、単純に可能性のある最大誤差を想定するとしたが、厳密には、発生する誤差は方向によって異なるので、方向と誤差の大きさも考慮して判別することにより、より正確な判別ができるのでそのようにすると良い。この処理(1)は、生成されたCADデータが既に生成されているCADデータの更新対象となるか否かの判別処理であり、更新対象でないM個の特徴点が新たに追加されたものである。残りのM(MAX)−M個の特徴点が更新対象の特徴点となり、次の処理(2)以降で更新処理を行なう。   If this process is entered, M (MAX) feature points Q1 to QM (MAX) converted into 3D coordinates in the process (1) are converted into feature points P1 to P1 of N CAD data that have already been generated. It is determined whether or not the PN is a feature point at a position sufficiently separated from the line segments L1 to LL of the L CAD data already generated. When there are M feature points that are sufficiently separated, the M feature points are added to the already generated CAD data. That is, a process of adding M points to N CAD data is performed. Here, the determination as to whether or not the distance is sufficient is made by determining whether the distance between the Q point and the P point or the shortest distance between the Q point and the L line segment is the maximum error that may occur when the Q point is calculated and the P error. Compare the sum of the maximum possible errors when the point or the point close to the Q point (LP point) of the L line segment is calculated, and if it is farther than that, the near P point or LP Judged to be a new point that was sufficiently far from the point. If determined in this way, the same feature point is not erroneously determined as another feature point. Here, it is assumed that the maximum possible error is simply assumed, but strictly speaking, the error that occurs varies depending on the direction, so more accurate determination can be made by considering the direction and the magnitude of the error. So you should do that. This process (1) is a process for determining whether or not the generated CAD data is an update target of the already generated CAD data, and M feature points that are not the update target are newly added. is there. The remaining M (MAX) -M feature points become the feature points to be updated, and the update process is performed after the next process (2).

処理(2)では、既存点P点や線分から十分に離れていなく接近している特徴点を改めて次の処理のためにQ1〜QMに再定義する。ここでのM個は、前述のM(MAX)−M個とした。   In the process (2), the feature point that is not sufficiently separated from the existing point P or the line segment and is approaching again is redefined as Q1 to QM for the next process. Here, the number M is M (MAX) -M.

次の処理(3)では、処理(2)でQ1〜QMと再定義した特徴点に近い以前に生成されているKN個のP点とLP点をKP1〜KP(NK)に定義する。ここで、一つのP点に近いQ点は、複数ある場合もあることから、必ずしもM=KNとはならないので、別々の個数として定義している。このとき、互いに近いQ点とKP点の関係は、既にわかっているので、どの特徴点がどの特徴点に近いかを互いに関連付けておくと後の処理がより簡単になるので注記してある。   In the next process (3), KN P points and LP points generated before the feature points redefined as Q1 to QM in process (2) are defined as KP1 to KP (NK). Here, since there may be a plurality of Q points close to one P point, M = KN is not always satisfied, and therefore, the number is defined as a separate number. At this time, since the relationship between the Q point and the KP point that are close to each other is already known, it is noted that if the feature points are close to which feature points, the subsequent processing becomes easier.

図36に示した処理(4)〜処理(15)までの処理(A)は、点データの更新処理である。   Process (A) from process (4) to process (15) shown in FIG. 36 is a point data update process.

処理(4)ではi=1と設定して、処理(14)でi=KNとなるまで処理(15)でi=i+1としながら次の処理(5)以降の処理を繰り返す。すなわち、KN個の点KP1〜KP(KN)について同じ処理を行なうようにしている。   In the process (4), i = 1 is set, and in the process (14), i = i + 1 in the process (15) until i = KN, and the process after the next process (5) is repeated. That is, the same processing is performed for KN points KP1 to KP (KN).

処理(5)では、KPiに近い既存の点Q1〜QM点の中よりKM個の特徴点をKQ1〜KQ(KM)とし、処理(6)では、TEN=0,j=1として処理(12)でjがKMになるまで処理(13)でj=j+1としてKQ1〜KQ(KM)の総ての組み合せをチェックする。   In the process (5), KM feature points among the existing points Q1 to QM close to KPi are set as KQ1 to KQ (KM), and in the process (6), TEN = 0 and j = 1 are processed (12 ) Until all the combinations of KQ1 to KQ (KM) are checked with j = j + 1 in the process (13) until j becomes KM.

処理(7)では、KPiとKQjの計算されたときの精度を比較し、KQjの精度がUP(向上)している場合には、処理(10)あるいは処理(11)で更新処理を行なうようにし、精度がUPしていない場合には、処理(12)へジャンプする。   In the process (7), the accuracy when KPi and KQj are calculated is compared. If the precision of KQj is UP (improved), the update process is performed in the process (10) or the process (11). If the accuracy is not up, the process jumps to the process (12).

精度がUPしている場合には、同じKPi点について、最初の処理の場合には、処理(10)でKPiの座標を単純にKQjの座標に更新する。同じKPiの特徴点に対して、2回目以降は、処理(11)にて分割更新の処理を行なうようにする。これは、以前にはKPiという1つの特徴点を2つ以上に分割することになるので、最初に存在するKPi点以外にP点を追加して定義する。そのため、N=N+1の処理もここで行なうようにした。   If the accuracy is increased, for the same KPi point, in the case of the first process, the coordinates of KPi are simply updated to the coordinates of KQj in process (10). For the same KPi feature point, after the second time, the division update process is performed in the process (11). This is because one feature point called KPi is divided into two or more before, so that P point is defined in addition to the first existing KPi point. Therefore, the process of N = N + 1 is also performed here.

処理(9)でKPiが線分上の点(LP点)であったか否かを判別ロジックに入れているのは、線分上の特徴点であれば処理(10)の座標値の更新はなく、処理(11)で新たな特徴点を追加して分割更新させることが必要となるためである。   Whether or not KPi is a point (LP point) on the line segment in the process (9) is entered in the determination logic if the feature point on the line segment is not updated in the coordinate value of the process (10). This is because a new feature point needs to be added and divided and updated in the process (11).

以上の処理を総てのKPi点について行なえば点データの更新処理が行なわれることとなる。   If the above processing is performed for all KPi points, the point data update processing is performed.

図37に示した処理(16)〜処理(27)までの処理(B)は、線分データの更新と追加の処理である。   The process (B) from the process (16) to the process (27) shown in FIG. 37 is a process for updating and adding line segment data.

最初の処理(16)では、線分データの更新を行なうに当たって対象範囲の総ての点データを拾い上げる処理を行なう。すなわち、3D座標へ変換するときに参照した画像データの視野中の総ての点データを抽出してKN個のKP1〜KP(KN)点として定義する。ここでは、前の処理で追加されたP点や座標の値が更新されたP点も含まれる。   In the first process (16), when updating the line segment data, a process of picking up all point data in the target range is performed. That is, all point data in the field of view of the image data referred to when converting to 3D coordinates are extracted and defined as KN KP1 to KP (KN) points. Here, the P point added in the previous process and the P point with updated coordinate values are also included.

次に、処理(17)でi=1と設定し、処理(26)でi=KNとなるまで処理(27)でi=i+1としながら処理(18)以降の処理を繰り返す。すなわち、対象となる総ての点データ,KN個の点KP1〜KP(KN)について、同じ処理を行なうようにしている。   Next, i = 1 is set in the process (17), and the processes after the process (18) are repeated while i = i + 1 in the process (27) until i = KN in the process (26). That is, the same processing is performed for all target point data, KN points KP1 to KP (KN).

処理(18)ではj=i+1として処理(24)でj=KNになるまで処理(25)でj=j+1としてKP(i+1)〜KP(KN)の総ての組み合せをチェックする。同じ組み合せは2回処理しないで済むように、jはi+1からKNまでとしている。   In process (18), j = i + 1 is set, and in process (24), j = K + 1 is set and j = j + 1 is set, and all combinations of KP (i + 1) to KP (KN) are checked. J is set from i + 1 to KN so that the same combination need not be processed twice.

処理(19)では、点KPiとKPjを結ぶ線分データが既に存在するか否かで次の処理を処理(20)と処理(22)に分ける。   In the process (19), the next process is divided into a process (20) and a process (22) depending on whether or not the line segment data connecting the points KPi and KPj already exists.

線分データが既にある場合には、処理(20)において点KPiかKPjの何れが更新あるいは追加されたものか否かを調べ、何れも更新も追加もされたものでない場合には、線分の更新処理は行わないで処理(24)へジャンプする。これは、線分の始点と終点の何れにも変化がなかったということから、途中の線分上も見直しするような変化はなかったと判断して処理を省略するものである。もちろん、始点と終点に変化がなくても途中の線分がより良く撮像されている場合もあるので、処理(20)を設けないで、総て処理(21)へ進むようにしても良い。   If the line segment data already exists, it is checked in process (20) whether either of the points KPi or KPj has been updated or added, and if neither has been updated or added, the line segment is The process jumps to the process (24) without performing the update process. Since there is no change in either the start point or the end point of the line segment, it is determined that there is no change to review the line segment in the middle, and the process is omitted. Of course, even if there is no change in the start point and the end point, the line segment in the middle may be better imaged. Therefore, the processing (20) may not be provided, and all the processing may proceed to the processing (21).

処理(21)は、線分の更新を行なう処理であり、輪郭抽出などで線画になった画像データを参照しながら、KPi点とKPj点を結ぶ線分データの見直しを行なう処理である。3D座標で計算されたKPi点とKPj点は、それを計算するときに用いた2次元の画像データ上の点として、どこの点であるかは対応が付いているので、画像データ中のKPi点とKPj点を結ぶ線分を抽出してその線分データを3次元の線分のデータ、すなわち、KPi点とKPj点を結ぶ3次元の点列データ、あるいは、KPi点とKPj点を結ぶ3次元の直線あるいは曲線の関数などを求めて線分データの見直し、再定義を行なう。ここで、処理(20)でKPi点かKPj点の何れかが追加あるいは更新されたという場合には、始点,終点となる点の精度がUPしたということであるので、線分データも見直せば精度はアップすることを期待した処理としている。また、既に存在する線分データが直線であっても、精度条件が良くなった場合に見直すことで、直線へのフィッティングに無理がある場合には、その時点で直線の線分データから曲線の線分データに変更すると良い。   The process (21) is a process of updating a line segment, and is a process of revising the line segment data connecting the KPi point and the KPj point while referring to the image data that has become a line drawing by contour extraction or the like. Since the KPi point and the KPj point calculated in the 3D coordinates are associated with each other as points on the two-dimensional image data used for calculating the KPi point in the image data, A line segment connecting the point and the KPj point is extracted, and the line segment data is three-dimensional line segment data, that is, three-dimensional point sequence data connecting the KPi point and the KPj point, or connecting the KPi point and the KPj point. The function of a three-dimensional straight line or curve is obtained and the line segment data is reviewed and redefined. Here, when either KPi point or KPj point is added or updated in the process (20), it means that the accuracy of the starting point and the ending point has been improved, so if the line segment data is also reviewed. The processing is expected to improve accuracy. In addition, even if the existing line segment data is a straight line, if it is impossible to fit to the straight line by reviewing when the accuracy condition is improved, the line segment data of the straight line at that time will be Change to line segment data.

一方、KPi点とKPj点を結ぶ線分データがない場合には、処理(22)へ進んで、線画などになった画像データを参照して、KPi点とKPj点を結ぶ線分が存在するか否かを判別して、結ぶ線分が存在しない場合には、処理(24)へジャンプする。   On the other hand, when there is no line segment data connecting the KPi point and the KPj point, the process proceeds to the process (22), and there is a line segment connecting the KPi point and the KPj point with reference to the image data as a line drawing. If there is no connecting line segment, the process jumps to the process (24).

結ぶ線分が存在する場合には、処理(23)で線分データの追加処理を行なう。すなわち、画像データ中のKPi点とKPj点を結ぶ線分を抽出し、その線分データを3次元の線分のデータ、すなわち、KPi点とKPj点を結ぶ3次元の点列データ、あるいは、KPi点とKPj点を結ぶ3次元の直線あるいは曲線の関数などを求めて線分データを新たに定義する。   If there is a line segment to be connected, line data addition processing is performed in step (23). That is, a line segment connecting the KPi point and the KPj point in the image data is extracted, and the line segment data is converted into three-dimensional line segment data, that is, three-dimensional point sequence data connecting the KPi point and the KPj point, or A line segment data is newly defined by obtaining a function of a three-dimensional straight line or curve connecting the KPi point and the KPj point.

以上の処理をKP1〜KP(KN)点の総ての組み合せについて行なえば線分データの更新処理が行なわれることとなる。ここで、処理(21),処理(23)に引き続いて、面データの更新も直ぐに行なうようにしても良いが、この実施の形態では、次の処理でまとめて面データの更新を行なうようにしている。   If the above processing is performed for all combinations of the points KP1 to KP (KN), the line segment data updating process is performed. Here, following the processing (21) and processing (23), the surface data may be updated immediately, but in this embodiment, the surface data is updated together in the following processing. ing.

図38に示した処理(28)〜処理(40)までの処理(C)は、面データの更新と追加の処理である。   Process (C) from process (28) to process (40) shown in FIG. 38 is a process of updating and adding surface data.

最初の処理(28)では、面データの更新を行なうに当たって、前回の処理で更新された線分データの総てを拾い上げる処理を行なう。すなわち、前記処理(B)の処理の中で更新あるいは追加された線分データの総てをKN個の線分データとしてKL1〜KL(KN)と設定する。   In the first process (28), in updating the surface data, a process of picking up all the line segment data updated in the previous process is performed. That is, all the line segment data updated or added in the process (B) is set as KL1 to KL (KN) as KN line segment data.

次に、処理(29)でi=1と設定して、処理(39)でi=KNとなるまで処理(40)でi=i+1しながら処理(30)以降の処理を繰り返す。   Next, i = 1 is set in the process (29), and the processes after the process (30) are repeated while i = i + 1 in the process (40) until i = KN in the process (39).

処理(30)では、線分データKLiを成分とする面データを総て抽出してKM個の面データとしてKS1〜KS(KM)と設定する。ここで抽出対象となる面データは、総てである。総ての面データの中から、更新あるいは追加された線分データKLiを成分とする総ての面データを抽出する。具体的な抽出の方法としては、線分データKLiに繋がる線分データをCADデータ上で探索し、更に、その線分に繋がる線分というように線分データを探索して最初の線分データKLiに戻るルート、すなわち、線分データが作る閉ループを面として総て抽出する処理を実行する。   In the process (30), all the surface data whose components are the line segment data KLi are extracted and set to KS1 to KS (KM) as KM surface data. Here, the surface data to be extracted is all. All the surface data including the updated or added line segment data KLi as components are extracted from all the surface data. As a specific extraction method, the line segment data connected to the line segment data KLi is searched on the CAD data, and further, the line segment data is searched such as the line segment connected to the line segment to obtain the first line segment data. A process of extracting all the routes returning to KLi, that is, the closed loop created by the line segment data as a surface, is executed.

処理(31)でj=1とし、処理(37)でj=KMになるまで処理(38)でj=+1にして処理(32)以降の処理を繰り返し、抽出された総ての面データKS1〜KS(MK)について同じ処理を繰り返す。   In the process (31), j = 1 is set, and in the process (37), j = + 1 is set in the process (38), and the processes after the process (32) are repeated, and all the extracted surface data KS1. The same process is repeated for ˜KS (MK).

処理(32)では、面データKSjに相当する面データが既にCADデータとして定義されているか否かを判断する。通常、同じ線分の繋がりで構成される、いわゆる面の裏と表に関しては同じ面の裏と表としてCADデータを管理しても良いが、ここでは、将来より詳細な形状に表は表で裏は裏で分割生成されていくことなどを考慮して、裏と表は別の閉ループ(別の面データ)として抽出するのが良い。処理(30)では新たに追加,更新した線分データにかかわる総ての面データ(閉ループの線分データの繋がり)を抽出するので、既に面データが定義されている面データも抽出されるし、今まで定義されていなかった新たな面データも抽出される。そこで、処理(32)では、抽出された面データKSjが既に面データとして定義されているものか、今まで定義されてなく今回初めて面データとして抽出されたもの、すなわち、新たに線分データが追加あるいは更新されたことにより、線分データの新しく定義される閉ループが生じたものか否を判別している。ここでの判別は、面KSjとその近くに存在する総ての以前に生成されている面データとを比較して、その面を構成する線分レベルでその線分の想定される最大誤差と当該面KSjを構成する線分の想定される最大誤差を考慮して、その誤差内で一致しているか否かで判別するようにする。その面を構成する線分の繋がり関係のみで単純に比較すると、1本の線分がその途中で分かれた2本の線分に更新されている場合には、面としては同じ面を示しているが、構成する線分はより詳細に分割定義されているために、同じ面とは判別できなくなってしまう場合がある。また、1つの面がその面を分割する新たな線分データが生成されたことにより分割される場合もあるので、面データKSjの全部あるいは一部が既存の面データの全部あるいは一部に一致する場合を含めて、既にある面と一致するか否かを判別するようにする。そのために、誤差内で重なる同じ面データがあるか否かにて判断するようにする。その判別の結果、既に面データがある場合には、処理(33)の更新の処理へ進み、当該の面データKSjに相当する面データが以前に作成されているCADデータの中になかった場合には、処理(35)で新たな面データ(線分の繋がり閉ループ)の追加、登録を行なう処理へ進む。   In the process (32), it is determined whether or not the surface data corresponding to the surface data KSj is already defined as CAD data. Usually, the CAD data may be managed as the back and front of the same surface with respect to the so-called back and front of the surface composed of the same line segment connection, but here the table is a table with a more detailed shape in the future. Considering that the back side is divided and generated on the back side, the back side and the front side are preferably extracted as separate closed loops (different surface data). In the process (30), all the surface data related to the newly added / updated line segment data (connection of closed loop line segment data) is extracted, so that the surface data for which the surface data is already defined is also extracted. New surface data that has not been defined is also extracted. Therefore, in the process (32), whether the extracted surface data KSj has already been defined as surface data, or has not been defined so far and has been extracted as surface data for the first time, that is, new line segment data is newly created. It is determined whether or not a newly defined closed loop of line segment data has occurred due to the addition or update. Here, the determination is made by comparing the surface KSj with all the previously generated surface data existing in the vicinity thereof, the maximum error assumed for the line segment at the line segment level constituting the surface, and The maximum error assumed for the line segment constituting the surface KSj is considered, and the determination is made based on whether or not they match within the error. A simple comparison based only on the connection relationship of the line segments that make up the surface shows that when one line segment is updated to two line segments that are divided in the middle, the same surface is shown. However, since the constituent line segments are divided and defined in more detail, it may not be possible to distinguish them from the same plane. In addition, since one surface may be divided by generating new line segment data that divides the surface, all or part of the surface data KSj matches all or part of the existing surface data. It is determined whether or not it matches the existing surface. Therefore, it is determined whether there is the same surface data that overlaps within the error. If the surface data already exists as a result of the determination, the process proceeds to the updating process (33), and the surface data corresponding to the surface data KSj is not included in the CAD data created previously. In the process (35), the process proceeds to a process of adding and registering new surface data (line segment connection closed loop).

処理(33)の面データの更新においては、既に点データや線分データは更新されているので、それらの更新内容を参照しながら面データを構成する線分データの見直しを行なうようにしても良いが、更新前の面データが構成する更新前の点データや線分データも参照できるようにしておくことでも良い。面の更新を行なう場合には、面データKSjに一致する既存の面データがあることが前提となるが、面データKSjと既存の面データとが誤差範囲内で全体が一致している場合には、各線分データをより精度良く生成された新しい線分データに置き換えて定義し直せば良い。また、面データKSjが既存の面データより小さく、既存の面データの一部と一致している場合には、一致している部分の面データを新たに定義し直すと共に残りの部分をもう1つの面データとして定義して分割する処理を行なう。また、面データKSjが既存の面データと一致する部分もあるが、既存の面データより大きな部分がある場合には、その面データKSjについては更新処理を行わないようにする。これは、抽出された面データの中には大きな閉ループを抽出するケースが含まれるために生じるが、その中に小さな閉ループの面も抽出されているために、小さい面データの場合に更新処理を行なえば当該部分の面データは更新されるので良いものとする。CADデータは、より精度良くなる場合に更新されるようにするので、小さな閉ループが大きく統合されるような処理を行なわないようにする。   In the update of the plane data in the process (33), the point data and line segment data have already been updated. Therefore, the line segment data constituting the plane data may be reviewed while referring to the updated contents. Although it is good, it is also possible to refer to the point data and line segment data before update, which are constituted by the surface data before update. When updating the surface, it is premised that there is existing surface data that matches the surface data KSj. However, when the surface data KSj and the existing surface data are entirely consistent within an error range. Can be defined by replacing each line segment data with new line segment data generated with higher accuracy. If the surface data KSj is smaller than the existing surface data and matches a part of the existing surface data, the surface data of the matching part is newly redefined and the remaining part is replaced with another one. Define and divide as one plane data. Further, although there is a portion where the surface data KSj matches the existing surface data, when there is a portion larger than the existing surface data, the surface data KSj is not updated. This occurs because the extracted surface data includes a case where a large closed loop is extracted, but since a small closed loop surface is also extracted, the update process is performed for small surface data. If this is done, the surface data of that part will be updated. Since CAD data is updated when it becomes more accurate, processing that does not greatly integrate a small closed loop is avoided.

処理(33)で面データを構成する線分の更新を行なった後に面データの属性を更新するが、処理(34)にて面データの属性を更新するに十分な画像情報があるか否かを確認し、ない場合には処理(37)へジャンプする。更新可能な画像情報がある場合には処理(36)へジャンプする。   Whether the attribute of the surface data is updated after the line segment constituting the surface data is updated in the process (33). Whether there is sufficient image information to update the attribute of the surface data in the process (34). If not, jump to step (37). If there is updateable image information, the process jumps to processing (36).

処理(35)は、面データKSjと重なる以前に生成された面データはない場合であるので、面データKSjを新たな面データとしてCADデータに追加定義する。ここでの定義は、面データを構成する線分データの定義である。   Since the process (35) is the case where there is no surface data generated before overlapping the surface data KSj, the surface data KSj is additionally defined in the CAD data as new surface data. The definition here is the definition of the line segment data constituting the surface data.

そして、その次に、処理(36)において、面データの属性を定義する。面データの属性は、画像データを参照する。元々、2次元の画像データより3D座標に変換して面データまで定義しているので、3D座標の点データと線分データにより構成される3Dの面データは、2次元の画像情報の中のどの点に対応しているかの対応が取れているため、その面と対応する部位の色、明るさなどの面データの属性を画像情報から読み取って面データの属性データとして登録する。処理(34)からジャンプしてきた場合には、面データの更新であるので、元々定義されていた面データの属性を見直し更新するものとする。元々処理(33)で更新されたことを前提に考えると、面の輪郭の線分データはより精度良く更新されていることから、今回の画像情報は、より正しい当該面の色、明るさを表していると考えて、処理(34)では、単純に当該面の画像情報の中の面積の大小や明るさで判断、すなわち輪郭は精度良く更新されたが、極端に斜めから見た場合とか、面は陰になって輪郭のみはっきりと見えているようなシーンであるか否かのみを判断するようにしても良いが、撮影時のカメラとその面を結ぶ線がその面の法線により近い場合、すなわち、その面をより正面から見ている条件の場合に更新するように、より厳密に判定させるようにしても良い。また、面の属性として透過率や反射率を定義するようにした場合には、その面の中に映り込んでいる奥の物体や反射して写っている物体の明るさをそれら物体との位置関係などの情報も用いて透過率や反射率に換算してから求めるため、必ずしも最初の処理で定義する必要はない。例えば、透過して見える物体があった場合に、その物体を直接見たときのその物体の面データの明るさと、その面を通して見たときの明るさと互いの距離関係などが総て求められたときに、その面の透過率を推定計算することができるようになるので、そのときに更新することができるようにしておくと良い。   Then, in the process (36), the attributes of the plane data are defined. The attribute of the surface data refers to the image data. Originally, surface data is defined by converting 2D image data into 3D coordinates, so 3D surface data composed of 3D coordinate point data and line segment data is included in 2D image information. Since correspondence with which point corresponds is taken, attributes of surface data such as color and brightness of the portion corresponding to the surface are read from the image information and registered as attribute data of the surface data. When jumping from the process (34), it is an update of the plane data, and therefore the attribute of the plane data originally defined is reviewed and updated. Assuming that it was originally updated in the process (33), the line segment data of the surface outline has been updated more accurately, so that the image information this time represents the correct color and brightness of the surface. In the processing (34), it is judged simply by the size or brightness of the area of the image information of the surface, that is, the outline is updated with high accuracy, but when viewed from an extremely oblique angle, etc. , It may be possible to judge only whether or not the scene is shaded and the outline is clearly visible, but the line connecting the camera and the face at the time of shooting depends on the normal of the face. In the case of being close, that is, in a condition where the surface is viewed from the front, it may be determined more strictly so as to be updated. In addition, when the transmittance and reflectance are defined as the attributes of a surface, the brightness of the object reflected in the surface or the object reflected and reflected in the surface is the position of the object. Since it is obtained after conversion into transmittance and reflectance using information such as relationships, it is not always necessary to define it in the first process. For example, when there is an object that can be seen through, the brightness of the surface data of the object when directly looking at the object, the brightness when viewed through the surface, and the distance relationship between them are all obtained. Sometimes, it becomes possible to estimate and calculate the transmittance of the surface, and it is preferable to update it at that time.

以上の処理をKS1〜KS(KM)の総てKLiの線分に係わる面データに対して行い、更に更新,追加のあった総ての線分データKL1〜KL(KN)に対して行なうようにする。   The above processing is performed for all the surface data related to KLi line segments of KS1 to KS (KM), and further to all line segment data KL1 to KL (KN) that have been updated and added. To.

図39は、図35〜図38を参照して説明した3D−CADデータ生成処理において特に点データ,線分データが更新されるときの概念を示している。   FIG. 39 shows the concept when the point data and the line segment data are updated in the 3D-CAD data generation processing described with reference to FIGS.

ステップ(1)に示す図は、更新前のCADデータの概念であり、点P1と点P2を結ぶ線分L1というデータである。点P1,P2の周囲の点線の円は、それぞれの点が3D計測されたときに想定される最大誤差の円であり、3D上では球として誤差円があると見做す。線分L1には、各々の線分上の誤差円、3D上では最大誤差を半径とする球が定義されるが、それを線分L1上の総ての点で考えると、その球の包絡面と見做すことができる。それが線分L1の周囲にある点線の部分である。線分L1の途中の誤差半径の大きさは、ここでは、線分L1の端部のP1,P2の場所での誤差半径より推定して比例で求めた大きさとしている。   The diagram shown in step (1) is the concept of CAD data before update, and is data called a line segment L1 connecting the points P1 and P2. The dotted circles around the points P1 and P2 are circles of the maximum error assumed when the respective points are measured in 3D, and it is assumed that there is an error circle as a sphere on 3D. An error circle on each line segment is defined in the line segment L1, and a sphere having a radius as the maximum error is defined on 3D. Considering this in all points on the line segment L1, the envelope of the sphere is defined. It can be regarded as a face. That is the dotted line around the line segment L1. Here, the size of the error radius in the middle of the line segment L1 is assumed to be a size that is obtained proportionally by estimation from the error radii at the locations of P1 and P2 at the ends of the line segment L1.

ステップ(2)は、新たに求められた3D変換された点Q1〜Q4を更新前のCADデータの上に重ねて描いた概念を示している。点Q1〜Q4にもそれぞれの点が計算されたときの誤差を半径とする球を点線で描いている。点Q1とQ3は、その誤差半径を考慮すると、点P1の誤差半径の中に存在している可能性がある。すなわち、更新前にP1であった点がQ1である可能性もあり、Q3である可能性もある。同様に、点Q2は、点P2である可能性があり、点Q4は、線分L1上の点LP1である可能性があると見ることができる。   Step (2) shows a concept in which the newly obtained 3D-converted points Q1 to Q4 are drawn on the CAD data before update. A sphere whose radius is the error when each point is calculated is also drawn with dotted lines at the points Q1 to Q4. Considering the error radius, the points Q1 and Q3 may exist within the error radius of the point P1. That is, the point that was P1 before the update may be Q1, or may be Q3. Similarly, it can be seen that the point Q2 may be the point P2, and the point Q4 may be the point LP1 on the line segment L1.

ここで、この発明における更新処理を説明すると、ステップ(3)では、同じである可能性のある更新前の点データと新たに計算された点データの各々が計算されたときに想定される最大誤差の何れが大きいかを比較(ここでは、誤差を半径とする球の何れが小さいかを比較)して、小さい場合には、より精度良く計測されていると見做せるので、点データの更新を行なうようにする。ステップ(3)は、その更新の概念を示している。すなわち、点P1の誤差円と点Q1の誤差円を比べると、点Q1の誤差円の方が小さいので、点Q1の座標値を点P1の点データに入れ替える。同様に、点Q3の誤差円も点P1の誤差より小さいので置き換えるが、既に点P1の座標値は点Q1の座標値に更新されているので、ここでは、新たな点P3を定義して点Q3の座標を入れる。これは、更新前の点P1が更新後は点P1と点P3に分割されたことを意味する。同様に、点P2は、点Q2の方が誤差半径が小さいので、この点P2の座標が点Q2の座標に置き換えられることにより更新される。同様に、点LP1の誤差半径と点Q4の誤差半径も点Q4の方が小さいので、点Q4の座標を点LP1の座標とするが、LP1という点は、線分L1上の仮想の点であることから、CADデータとしては新たに点P4を定義してその座標に点Q4の座標値を入れて更新処理を行なうようにする。   Here, the update process according to the present invention will be described. In step (3), the maximum assumed when each of the pre-update point data and the newly calculated point data which may be the same is calculated. Compare which of the errors is large (here, compare which of the spheres whose radius is the error is small). If it is small, it can be considered that the measurement is more accurate. Update it. Step (3) shows the concept of the update. That is, when the error circle at the point P1 is compared with the error circle at the point Q1, the error circle at the point Q1 is smaller, so the coordinate value of the point Q1 is replaced with the point data of the point P1. Similarly, the error circle of the point Q3 is also replaced because it is smaller than the error of the point P1, but since the coordinate value of the point P1 has already been updated to the coordinate value of the point Q1, here a new point P3 is defined and the point Enter the coordinates of Q3. This means that the point P1 before the update is divided into the points P1 and P3 after the update. Similarly, the point P2 is updated by replacing the coordinate of the point P2 with the coordinate of the point Q2, since the error radius of the point Q2 is smaller. Similarly, since the error radius of the point LP1 and the error radius of the point Q4 are also smaller at the point Q4, the coordinate of the point Q4 is the coordinate of the point LP1, but the point LP1 is a virtual point on the line segment L1. For this reason, a new point P4 is defined as the CAD data, and the update process is performed by putting the coordinate value of the point Q4 into the coordinate.

その結果、ステップ(4)に示すように、更新後のCADデータとして、点データは、P1,P2,P3,P4が更新されている。また、線分更新としても、ステップ(1)に示されている更新前のCADデータの点P1と点P2を結ぶL1という線分データは、点P2と点P4を結ぶ線分L2と点P4と点P1を結ぶ線分L3と点P4と点P3を結ぶ線分L1という線分データに更新されており、これらの処理は、図35〜図38に示した処理を実行することにより実現する。   As a result, as shown in step (4), P1, P2, P3, and P4 are updated as the point data as the updated CAD data. Also, as for the line segment update, the line segment data L1 connecting the point P1 and the point P2 of the CAD data before the update shown in step (1) is the line segment L2 and the point P4 connecting the point P2 and the point P4. And the line segment L3 connecting the point P1 and the line L1 connecting the point P4 and the point P3 are updated, and these processes are realized by executing the processes shown in FIGS. .

図40は、図35〜図38を参照して説明した3D−CADデータ生成処理の中の新規なデータの生成と更新の概念を一般的な図形の生成と更新の概念に当てはめて描いた図である。   FIG. 40 is a diagram in which the concept of new data generation and update in the 3D-CAD data generation process described with reference to FIGS. 35 to 38 is applied to the general graphic generation and update concept. It is.

(1)は、点P1と点P2を結ぶ線分L1が初めは線分の長さが1mであったものが、次の計測により点P1と点P2の位置がより精度良く更新された結果、線分L1の長さも0.97mに更新される概念を示している。これは、精度UPによる更新の処理である。   (1) shows that the line segment L1 connecting the point P1 and the point P2 has a length of 1 m at first, but the positions of the points P1 and P2 are updated more accurately by the next measurement. The concept of updating the length of the line segment L1 to 0.97 m is also shown. This is an update process with increased accuracy.

(2)は、線分L1が生成されている状態で更に線分K2が見えて追加生成された状況を示している。これは、初めは物の陰になっていて見えなかった線分L2が、撮像装置10,20が移動して線分L2が見えるようになり、新たに点P3,P4が生成され、線分L2も生成された状況を示している。これは、新たな線分の生成という概念に該当する。   (2) shows a situation in which the line segment K1 is further generated while the line segment L1 is generated and the line segment K1 is additionally generated. This is because the line segment L2 that was initially hidden behind the object and cannot be seen becomes visible when the imaging devices 10 and 20 are moved, and points P3 and P4 are newly generated. L2 also indicates the generated situation. This corresponds to the concept of generating a new line segment.

(3)は、容器の側面などの線分L1が見えていてCADデータにも線分L1が生成されているが、撮像装置10,20が物体を近くから撮像することによって新たな線分が見え、その線分が矩形S1を構成して最初の線分L1に付いている状況を示している。この場合、矩形S1の線分は、今まで見えてなかったものが見えるようになって新たに追加生成されたものであるので、生成の概念に該当するが、矩形S1の線分L1と接している部位は、データとしては、線分L1が線分L1と線分L2と線分L3に分断されるので、線分L1については、更新されるという概念になる。   In (3), the line segment L1 such as the side surface of the container is visible, and the line segment L1 is also generated in the CAD data. However, when the imaging devices 10 and 20 capture an object from near, a new line segment is generated. It can be seen that the line segment forms a rectangle S1 and is attached to the first line segment L1. In this case, the line segment of the rectangle S1 is newly generated by making it possible to see what has not been seen so far, and thus corresponds to the concept of generation but is in contact with the line segment L1 of the rectangle S1. Since the line segment L1 is divided into the line segment L1, the line segment L2, and the line segment L3, the concept is that the line segment L1 is updated.

(4)では、初めは線分L1が生成されているが、近くで見ると、点P1は点P1と点P3に分割して見え、点P2は点P2と点P4に分割して見えてきて、線分L1は線分L1と線分L2に分割生成されるので、この場合には精度もUPすることから、分割の更新の概念となる。   In (4), the line segment L1 is generated at first, but when viewed closer, the point P1 appears to be divided into points P1 and P3, and the point P2 appears to be divided into points P2 and P4. Since the line segment L1 is divided and generated into the line segment L1 and the line segment L2, in this case, the accuracy is also improved, and this is the concept of division update.

最後の(5)では、最初は側面が線分L1,L2,L3,L4からなる容器の側面のようなものに矩形S1のようなものと線分L5が付いている状況であるが、この場合も、撮像装置10,20が物体に近づいて詳しく撮影すると、矩形S1の左の1辺は矩形S2という形状であり、線分L5も矩形S3になる。この場合にも更新処理となる。   The last (5) is the situation where the side is like the side of the container consisting of the line segments L1, L2, L3, L4 and the one like the rectangle S1 and the line segment L5. Also in this case, when the imaging devices 10 and 20 are close to the object and photographed in detail, the left side of the rectangle S1 has a shape of a rectangle S2, and the line segment L5 also becomes the rectangle S3. Even in this case, the update process is performed.

これら(1)〜(5)のケースが代表的な例であるが、図35〜図38に示した処理フローに基づいて3D−CADデータの生成処理を行なうと、このような生成と更新が行なわれることになる。   These cases (1) to (5) are typical examples. However, when 3D-CAD data generation processing is performed based on the processing flow shown in FIGS. Will be done.

図41〜50を参照して本発明の第4,第5および第6の手段の基本的な実施の形態を説明する。   A basic embodiment of the fourth, fifth, and sixth means of the present invention will be described with reference to FIGS.

図41は、2台のカメラによるステレオ計測による基本的な実施の形態の概念を示しており、撮影対象901を撮像装置10,20の2台のカメラで撮影する所謂ステレオ計測の構成である。2台の撮像装置10,20は、お互いの位置と姿勢が既知の関係で固定されており、移動する場合には一緒に移動する。撮像装置10から得られる画像情報のイメージが(A)であり、撮像装置20から得られる画像情報のイメージが(B)である。(A)と(B)は、画像情報を取り込んだ視覚情報処理装置の画像メモリーの概念でとらえて良い。   FIG. 41 shows the concept of a basic embodiment based on stereo measurement by two cameras, and is a so-called stereo measurement configuration in which the imaging object 901 is imaged by the two cameras of the imaging devices 10 and 20. The two imaging devices 10 and 20 are fixed in a known relationship with respect to each other's position and posture, and move together when moving. The image of the image information obtained from the imaging device 10 is (A), and the image of the image information obtained from the imaging device 20 is (B). (A) and (B) may be understood based on the concept of an image memory of a visual information processing apparatus incorporating image information.

ここで、画像情報処理としては、まず、撮像装置10,20からの画像情報の中の特徴点と線分を抽出を抽出する。線分は、特徴点を結ぶ線となる。この線分を抽出する処理は、2次元の画像データを微分処理した後に細線化処理する方法などさまざまな手法が考えられるが、できるだけ照明条件や撮影する方向に左右されないで、多少それらの条件が変っても同じように撮影対象901の特徴部位を抽出できる安定な手法を採用するのが良い。   Here, as the image information processing, first, extraction of feature points and line segments in the image information from the imaging devices 10 and 20 is extracted. The line segment is a line connecting feature points. There are various methods for extracting the line segment, such as a method of performing a thinning process after differentiating the two-dimensional image data. It is preferable to adopt a stable method that can extract the characteristic part of the imaging target 901 in the same manner even if the image changes.

今、画像イメージ(A)の中に特徴点1a,1c,1eが抽出されていて、また、線分としてはそれらの特徴点を結ぶ線分1b,1dが抽出されているとする。ここで、抽出する特徴点,線分は、白黒画像であれば輝度情報、カラー画像であれば色情報(R、G、Bの輝度信号)の変化する境界線を抽出するのが良い。ここでは、白黒、カラーの区別なくそれらの情報を色情報と言うこととする。そのように抽出された線分は、その線分の両側の色の境界を示しているので、それぞれの抽出された特徴点あるいは線分あるいはその両方(特長点と線分)に色情報をもたせて特徴点,線分のデータとして管理するようにする。   Assume that feature points 1a, 1c, and 1e are extracted from the image (A), and line segments 1b and 1d that connect these feature points are extracted as line segments. Here, for the feature points and line segments to be extracted, it is preferable to extract a boundary line where luminance information changes for a monochrome image and color information (R, G, B luminance signals) changes for a color image. Here, such information is referred to as color information without distinction between black and white and color. Since the extracted line segment shows the color boundary on both sides of the line segment, each extracted feature point and / or line segment (feature point and line segment) has color information. To manage the data as feature points and line segments.

この実施例の画像イメージ(A)の中の抽出線分では、線分1b,1dの右側は色1、線分1b,1dの左側は色2であり、その境界線として線分1b,1dが抽出された状況を示している。それぞれの線分には左右の色情報(色1,色2)をもたせて管理する。画像イメージ(A)の中には、他にもたくさんの特徴点,線分が抽出されていて良いが、今は、ここで説明した抽出線分に着目して説明する。これはステレオ計測の手法になるが、画像イメージ(A)で抽出された特徴点1aについて、その点1aに対応する画像イメージ(B)の中の点を探索する必要があるが、2台の撮像装置10,20のお互いの位置関係が分かっているので、画像1aに対応する画像イメージ(B)の中の点は、理論的には、所定の線分1fの上に存在することとなる。実際にはいろいろな誤差要因があるので、線分1fの線上というよりは所定の幅を持たせた線分1hと線分1gで挟む領域内に存在すると考える。   In the extracted line segment in the image (A) of this embodiment, the right side of the line segments 1b and 1d is color 1, the left side of the line segments 1b and 1d is color 2, and the line segments 1b and 1d are the boundary lines. Indicates the extracted situation. Each line segment is managed with left and right color information (color 1, color 2). Many other feature points and line segments may be extracted from the image image (A), but now, the description will be focused on the extracted line segments described here. This is a stereo measurement technique. For the feature point 1a extracted from the image image (A), it is necessary to search for a point in the image image (B) corresponding to the point 1a. Since the positional relationship between the imaging devices 10 and 20 is known, the point in the image image (B) corresponding to the image 1a theoretically exists on the predetermined line segment 1f. . Actually, since there are various error factors, it is considered that they are present in a region sandwiched between the line segment 1h and the line segment 1g having a predetermined width rather than on the line 1f.

特徴点1aの対応点が存在する線分を求める方法を図42を参照して説明する。撮像装置10の撮像面(図41の画像イメージ(A)に相当する面と考えて良い。)を、視点O1を定義する座標系のXY平面、撮像装置20の撮像面(図41の画像イメージ(B)に相当する面と考えて良い。)とすれば、視点O2の座標系のXY平面上の点P1が、図41の画像イメージ(A)の中の特徴点1aとすると、3次元空間の中の実際の点P1は、視点O2と視点O2を定義する座標系のXY平面上のP1点を結ぶ線分上に存在することになり、その線分は、視点O1を定義する座標系のXY平面上の線分P0P3の線上に存在するように撮影される。線分P0P3を求める方法は、例えば、視点O1を定義する座標系のXY平面と視点O1,視点O2,点O2を定義する座標系のXY平面上のP1点の3点が作る平面の交線を求めることで容易に求まる。ここでの実際の探索範囲は、撮像装置に撮影されている範囲になるので線分P0P3の上で探索すれば良い。 A method for obtaining a line segment where the corresponding point of the feature point 1a exists will be described with reference to FIG. The imaging surface of the imaging device 10 (which may be considered as the surface corresponding to the image image (A) in FIG. 41) is the XY plane of the coordinate system that defines the viewpoint O1, and the imaging surface of the imaging device 20 (the image image in FIG. 41). If the point P1 on the XY plane of the coordinate system of the viewpoint O2 is the feature point 1a in the image image (A) in FIG. The actual point P1 in the space is present on a line segment connecting the point P1 on the XY plane of the coordinate system defining the viewpoint O2 and the viewpoint O2, and the line segment is a coordinate defining the viewpoint O1. Photographed so that it exists on the line P0P3 on the XY plane of the system. The method for obtaining the line segment P0P3 is, for example, the intersection of the plane formed by three points, the XY plane of the coordinate system defining the viewpoint O1, and the P1 point on the XY plane of the coordinate system defining the viewpoint O1, the viewpoint O2, and the point O2. It is easily obtained by asking for. Since the actual search range here is a range photographed by the imaging device, the search may be performed on the line segment P0P3 .

図41を参照する説明に戻る。画像イメージ(B)の中で画像イメージ(A)の中の特徴点1aに対応する点を画像イメージ(B)の中で線分1hと1gの間にある点を全て探索すると、画像イメージ(B)の中の(a),(b),(c),(d),(e),(f)の6点が対応候補点として存在している状況を示している。ここで、特徴点は、必ず線分として抽出するようにするために、線分に繋がらない1点の特徴点は処理の対象としないノイズ除去処理を処理の中に入れると良い。それぞれの対応候補点は、その点に繋がる線分を構成しているとする。   Returning to the description with reference to FIG. When all the points between the line segments 1h and 1g in the image image (B) are searched for the points corresponding to the feature point 1a in the image image (A) in the image image (B), the image image ( 6 shows a situation in which six points (a), (b), (c), (d), (e), and (f) in B) exist as corresponding candidate points. Here, in order to make sure that feature points are extracted as line segments, it is preferable that noise removal processing that does not treat one feature point not connected to the line segment is included in the process. Assume that each corresponding candidate point constitutes a line segment connected to that point.

次の処理としては、この候補6点の中から特徴点1aに対応する点を見つけることになるが、その手順を以下に説明する。図41の画像イメージ(C)は、画像イメージ(B)で探索した6つの特徴点のそれぞれに画像イメージ(A)の特徴点1aをそれぞれ重ねて表示した画像イメージである。実際の処理としては、この段階では、画像データは特徴点や線分に置き換えられているので、CADデータどおしのマッチング処理になる。   As the next processing, a point corresponding to the feature point 1a is found from the six candidate points. The procedure will be described below. The image image (C) in FIG. 41 is an image image in which the feature points 1a of the image image (A) are superimposed and displayed on each of the six feature points searched for in the image image (B). As actual processing, at this stage, since the image data is replaced with feature points and line segments, matching processing is performed using CAD data.

マッチングの最初の処理としては、特徴点の上下左右の色情報の一致度あるいは線分の左右の一致度になる。   As the first processing of matching, the degree of coincidence of the color information on the top, bottom, left and right of the feature point or the degree of coincidence of the left and right of the line segment is obtained.

それぞれの色マッチングの例を図41の(D)を参照して説明する。画像イメージ(B)の候補点として探索されたそれぞれに特徴点1aを重ねて調べる。図41の(D)の(a)の例で説明すると、特徴点1aを候補点1nに合わせる。今、対応点を調べたい特徴点1aの線分の左右の色は、右側が色1で左側が色2である。また、図41の(D)の(a)で重ねる候補点側の線分の各両側の色は、色3,色5,色4である。候補点側は3本の線分が繋がっており、色情報はそれぞれの線分が境界となるので、この場合は、3つの領域の色情報がある。ここで、色1と色3、色2と色5の一致度が高ければ、特徴点1aの対応点は1nと分かる。このとき、実際の線である場合は、左右の色は一致して非常に安定な点ということになるが、片側のみが一致する場合も候補点となる。左右の色が一致度が少し劣るが似ている部位より、片側が非常に一致している方がより確からしい場合がある。それは、一方の色が背景である場合である。   An example of each color matching will be described with reference to FIG. The feature point 1a is superposed on each searched for candidate point of the image (B) and examined. In the example of (a) of FIG. 41D, the feature point 1a is matched with the candidate point 1n. Now, the right and left colors of the line of the feature point 1a to be examined for the corresponding points are color 1 on the right side and color 2 on the left side. Further, the colors on both sides of the line segment on the candidate point side to be overlapped in (a) of (D) of FIG. 41 are color 3, color 5, and color 4. Three line segments are connected on the candidate point side, and each line segment has a boundary as color information. In this case, there is color information of three regions. Here, if the degree of coincidence between color 1 and color 3 and color 2 and color 5 is high, the corresponding point of feature point 1a is known as 1n. At this time, if the line is an actual line, the left and right colors match and become a very stable point, but if only one side matches, it becomes a candidate point. In some cases, it is more probable that one side is more closely matched than a similar part, although the left and right colors are slightly inferior. That is when one color is the background.

詳細は後述するが、ここでは、少なくともどちらかが非常に一致する組み合わせを見つけて対応点候補の6個の中より更に候補数を絞り込む。処理としては、色の一致度に閾値を設けておき、両側が一致しない場合は対応点候補から除く処理、片側が一致する場合は輪郭線である可能性のある候補として残す。両側が一致する場合には実際線の可能性がある候補として残す処理となる。ここで、可能性があるという表現を用いたのは、このシーンだけからの判断はまだできないからである。実際には撮像装置は移動して視点を変えながら同じ点を計測する機会が生じるので、いろいろな視点から撮影した画像情報で常に実際線と推定される場合には実際線である可能性がより高くなる。しかし、たとえあるシーンで実際線である可能性があると判断される場合でもたまたま背景が同じように写っているだけである可能性があり、そのような場合には、視点を変えて同じ点をみたときに輪郭線であると判断される場合もある。処理としては、そのように判断されたときに実際線候補から輪郭線候補にデータを書き換えすれば良い。   Although details will be described later, here, a combination in which at least one of them matches is found and the number of candidates is further narrowed down from the six corresponding point candidates. As a process, a threshold value is set for the color matching degree, and when both sides do not match, the process is excluded from the corresponding point candidates. If both sides match, the process is left as a candidate that may be an actual line. Here, the expression “possible” is used because it is not possible to judge from this scene alone. Actually, the imaging device moves and changes the viewpoint, so there is an opportunity to measure the same point. Get higher. However, even if it is determined that it may be an actual line in a certain scene, it may happen that the background is just reflected in the same way. In some cases, it is determined that the outline is a contour line. As processing, when it is determined as such, data may be rewritten from an actual line candidate to a contour line candidate.

図41を参照する説明に戻すが、色情報のマッチングの段階で候補数が1つになればそれ以上の絞込みは不要である。実際には、画像情報のひずみを精度良く補正して、また、ステレオ計測の2台の位置関係を精度良く求めることにより線分1hと1gの幅は狭くすることができので、線上にある対応点候補の段階で効率良く絞り込むことが可能となる。   Returning to the description with reference to FIG. 41, if the number of candidates becomes one at the stage of matching color information, further narrowing down is unnecessary. Actually, the width of the line segments 1h and 1g can be narrowed by correcting the distortion of the image information with high accuracy and accurately obtaining the positional relationship between the two units of stereo measurement. It is possible to narrow down efficiently at the point candidate stage.

次の色情報を用いたマッチングでまだ複数の対応点候補が残った場合には、他のマッチングも行う。マッチング手法としてはいろいろ考えられるが、例えば、図41の(D)の(a)で説明すると、線分1bに対応する線分は線分1n1q、線分1n1s、線分1n1rが候補になる。勿論、図41の(D)の(b),(c),(d),(e)にも1本づつ、(f)には2本対応候補となる線分が存在する。まずは、左右の色情報は左右とも異なれば候補からは除くが、まだ、複数残る場合が考えられるので、(a)で簡単な方法を説明すると、線分1bを線分1n1qへ対応させる場合の回転角δα1、線分1bを線分1n1sへ対応させる場合の回転角δα2、線分1bを線分1n1rへ対応させる場合の回転角δα3を求めて、所定のありうる回転角度以下を候補点に絞るとか、更に、特徴点1a以外の他の特徴点についても同様な絞込みを行ったときに、同じ傾向の多い回転角度のグループを候補点に絞り込むような方法もある。 When a plurality of corresponding point candidates still remain in the matching using the next color information, other matching is also performed. Various matching methods are conceivable. For example, referring to (a) of FIG. 41D, the line segment 1n1q, the line segment 1n1s, and the line segment 1n1r are candidates for the line segment 1b. Needless to say, there are line segments that are candidates for correspondence in (b), (c), (d), and (e) of FIG. First, if the left and right color information is different from the left and right, they are excluded from the candidates, but there may still be a plurality of remaining information. Therefore, a simple method will be described in (a). In this case, the line segment 1b corresponds to the line segment 1n1q . The rotation angle δα1, the rotation angle δα2 when the line segment 1b is made to correspond to the line segment 1n1s, and the rotation angle δα3 when the line segment 1b is made to correspond to the line segment 1n1r are obtained. There is also a method of narrowing down a group of rotation angles having the same tendency to candidate points when narrowing down and further performing similar narrowing down on other feature points other than the feature point 1a.

また、もっとも精度の良いマッチング方法の例を、図41の(D)の(f)を参照して説明する。図41(D)の(f)では、画像イメージ(B)の対応点候補1iに特徴点1aを重ね、次に画像シーン(A)の点1cを画像シーン(B)の点1jに合わせるように変換する変換係数を求め、同じ変換係数を用いて他の点1eも変換して画像イメージ(B)の上に写像する。もっと、線分が複雑に繋がっている場合には、全部の線分を同じ変換式で写像する。そして、その写像結果と画像イメージ(B)で抽出された線分、この場合には、線分1i1j線分1j1k線分1k1mとのマッチングをとり一致度によって1iを対応点候補として残すか、除くかを判別するようにする。写像した線分と抽出した線分の長さが同じでない場合は、どちらの線分でも余分に長い部分は除いてマッチング度を求める。それは、撮影する方向が違った影響で、一方では境界線分が抽出されるが、もう片方の撮影の方向からは境界線分が抽出できない場合もあるためである。線分と線分のマッチング度を求める方法にもいろいろあるが、例えば、もう一度同じ太さの2次元の画像データの線分に戻して相関係数を求めるようにしても良い。 An example of the most accurate matching method will be described with reference to (D) (f) of FIG. In (f) of FIG. 41D, the feature point 1a is superimposed on the corresponding point candidate 1i of the image image (B), and then the point 1c of the image scene (A) is matched with the point 1j of the image scene (B). A conversion coefficient to be converted to is obtained, and the other point 1e is also converted using the same conversion coefficient and mapped onto the image image (B). In addition, if the line segments are complicatedly connected, all the line segments are mapped with the same conversion formula. Then, the line segment extracted from the mapping result and the image image (B), in this case, the line segment 1i1j , the line segment 1j1k , and the line segment 1k1m are matched and 1i is left as a corresponding point candidate depending on the degree of coincidence. , To determine whether to exclude. If the length of the mapped line segment is not the same as that of the extracted line segment, the matching degree is obtained by excluding an excessively long part in either line segment. This is because the boundary line segment is extracted on the one hand due to the influence of the shooting direction, but the boundary line segment may not be extracted from the other shooting direction. There are various methods for obtaining the line segment and the matching degree of the line segment. For example, the correlation coefficient may be obtained by returning to the line segment of the two-dimensional image data having the same thickness.

ここで、簡単な方法の一つを図41の(D)の(f)を参照して説明する。対応点候補1iへ特徴点1aを重ねて、線分1bを画像イメージ(B)の中の線分1i1jに重ねる変換係数を求める。変換係数は、位置は完全に点1aと点1iを一致させて次に点1cを点1jに合わせるための回転角度で考えても良いし、回転角度とスケースファクタ(倍率)の組み合わせで考えても良い。あるいは、別の手法としては、画像イメージ(A)を透明のガラス板にたとえて、その面に線分1b、線分1dが書いてあるとして、そのガラス板を画像イメージ(B)の上に重ねて線分1bが線分1i1jと一致するようにガラス板を前後左右に傾けたり時計回りあるいは反時計回りに回転させたり、あるいは大きさが変るように近づけたり離したりしたときの、傾ける角度,回転角度,離す距離、それから前後左右に移動した距離などを変換係数とする。この場合に、同じ変換係数で変換することは、同じガラス上に記載してある線分1dは同じ変換がされていると考える。その線分1dの写像が線分1j1kとどれだけ一致しているかでマッチング度を評価する。そのような方法でも何らかのルールに従って写像した後にその評価をすることになるが、マッチング度の指標としては2次元画像データに変換しての相関係数でも良いし、図41の(D)の(f)で説明すれば、線分1dの写像を線分1j1kに合わせるための長さの偏差δrと角度の偏差δθを求めてそれらの偏差が小さいほどマッチング度は高いと処理しても良い。ここで、δrは使用しないでδθのみで行っても良い。また、線分が複雑に何本も繋がっていてマッチングさせる両方の線分が同じように複雑で複数本ある場合には、次に、特徴点1eの写像点を点1kに合わせてその先に繋がる線分がある場合には同じようにδr、δθを求めて、その先も同じように合わせながら偏差量のδrとδθを求めていき、全体のδrの和、δθの和の大小でマッチング度として良い。また、途中で分岐している場合も同じように考えられるマッチングの組み合わせで合わせていき、一致度の一番高い対応線分を求めるようにする。 Here, one simple method will be described with reference to FIG. 41D (f). A feature coefficient 1a is superimposed on the corresponding point candidate 1i, and a conversion coefficient for superimposing the line segment 1b on the line segment 1i1j in the image (B) is obtained . The conversion coefficient may be considered as a rotation angle for perfectly matching the point 1a and the point 1i and then aligning the point 1c with the point 1j, or a combination of the rotation angle and a case factor (magnification). May be. Alternatively, as another method, the image image (A) is compared with a transparent glass plate, and the line segment 1b and the line segment 1d are written on the surface, and the glass plate is placed on the image image (B). Tilt angle when the glass plate is tilted back and forth, left and right, rotated clockwise or counterclockwise so that the line segment 1b coincides with the line segment 1i1j , or moved close to or away from the screen to change its size , Rotation angle, separation distance, distance moved forward and backward, left and right, etc. are used as conversion coefficients. In this case, conversion with the same conversion coefficient is considered to be the same conversion for the line segment 1d described on the same glass. The degree of matching is evaluated by how much the mapping of the line segment 1d matches the line segment 1j1k . Even in such a method, the evaluation is performed after mapping according to some rule, but the index of matching may be a correlation coefficient converted into two-dimensional image data, or (D) in FIG. In the case of f), the length deviation δr and the angle deviation δθ for matching the mapping of the line segment 1d to the line segment 1j1k are obtained, and the degree of matching may be processed as the deviation becomes smaller. Here, δr may be used without using δθ. In addition, when there are a plurality of complicated line segments and both line segments to be matched are similarly complex and there are a plurality of line segments, the mapping point of the feature point 1e is set to the point 1k and the point is moved forward. If there are connected line segments, δr and δθ are obtained in the same way, and δr and δθ of the deviation amount are obtained in the same way, and matching is performed according to the sum of δr and the sum of δθ. Good as a degree. In addition, when a branch is made in the middle, matching is performed with the same possible combination, and the corresponding line segment having the highest degree of matching is obtained.

変換係数を求めるときには、最初に1本の線分1bを合わせるように変換係数を求めても良いが、かならずしも点1cが点1jに対応しているとは限らないので、繋がっている線分の全体が一番一致するように変換する変換係数を求めるようにする方が良い。   When calculating the conversion coefficient, the conversion coefficient may be calculated so that one line segment 1b is first aligned. However, since the point 1c does not always correspond to the point 1j, the connected line segments It is better to obtain a conversion coefficient to be converted so that the whole matches best.

以上で特徴点1aの対応点候補は相当絞りこまれる。ここで注意が必要なことは、例えば、特徴点1aの対応点候補が1nと分かっても、必ずしも点1cの対応点が点1qとは限らないので、同じ処理を画像イメージ(A)の中の他の特徴点1c,1e,その他にも点がたくさんあれば、全ての点について行うようにする。その結果、更に複数候補が残っている場合には、複数候補が存在しないで一致度の高い特徴点の変換係数の傾向と複数候補残っているそれぞれの変換係数の傾向を比較して傾向の一致度合いより更に絞り込むようにすると良い。   Thus, the corresponding point candidates for the feature point 1a are considerably narrowed down. What should be noted here is that, for example, even if the corresponding point candidate of the feature point 1a is known as 1n, the corresponding point of the point 1c is not necessarily the point 1q, so the same processing is performed in the image (A). If there are many other feature points 1c, 1e and others, the process is performed for all the points. As a result, when more than one candidate remains, the tendency matches by comparing the tendency of the transformation coefficient of the feature point having a high degree of matching with the absence of the plurality of candidates and the tendency of each of the remaining candidate transformation coefficients. It is better to narrow down further than the degree.

対応点候補の絞込み方法は、その他にもいろいろなマッチング手法が考えられるが、優先度を付けてそれぞれのルールに基づいて対応点候補を絞り込むようにする。それで、最後にどうしても複数候補残る場合も考えられるが、それはそれで、次のように処理をすれば問題ない。それは、このシーンではその特徴点は3次元の点に変換しないでパスすることである。後で、撮像装置10,20が移動して撮影する視点が変ると、複数候補残っている特徴点についても1つの候補に絞り込めるようになる。   Various other matching methods can be considered as a method for narrowing down the corresponding point candidates, but priorities are assigned and the corresponding point candidates are narrowed down based on the respective rules. Therefore, there may be a case where a plurality of candidates are inevitably left at the end, but that is not a problem if the following processing is performed. That is, in this scene, the feature point passes without being converted to a three-dimensional point. Later, when the imaging devices 10 and 20 move to change the viewpoint of shooting, a plurality of candidate remaining feature points can be narrowed down to one candidate.

また、複数候補残る特徴点は、本当は対応点ではないのに誤って3次元変換してしまう点の撮影対象によっても生じる場合がある。それは、実際にその時の撮影位置からはそのように見える位置関係が存在するわけであり、画像情報処理システムとしても人間と同じように錯覚点を検出してしまうことがある。この対応としては、1箇所の視点でたとえ安定に対応付けされて計測した点についてもまだ安定な実際線を構成する点と判断するのではなく、次に視点が移動して別のシーンで同じ点を計測して複数回にわたって安定に対応点が存在して計測される特徴点,線分がより実際線で存在する特徴点,線分である可能性が高くなるので、そのような視点を変えて安定に計測できた回数などを指標に実際線である可能性を指標として管理するようにするのが良い。   In addition, a plurality of candidate feature points may be generated depending on a subject to be photographed that is not a corresponding point but is erroneously three-dimensionally converted. This is because there is actually a positional relationship that looks like that from the shooting position at that time, and the illusion point may be detected in the same manner as a human being in the image information processing system. This correspondence does not mean that a point that is stably correlated and measured at one point of view is still a point that constitutes a stable actual line, but the point of view moves next and the same in another scene. Since it is more likely that a feature point or line segment is a feature point or line segment that is measured by measuring points and the corresponding points exist stably multiple times, the point of view It is better to manage the possibility of being an actual line as an index by using the number of times that can be measured stably as an index.

これらのことは、撮像装置を移動させながら3次元CADデータを生成して、追加生成したり、より近くから撮影して精度が高くなる場合にはCADデータを更新する機能があれば、撮影対象901をいろいろな角度から、また、より近づいたりしてCADデータの精度高くしていく、第1〜第3の手段を適用することによってより有効に実現することができるものになる。   These can be achieved by generating 3D CAD data while moving the imaging device and generating additional data, or if there is a function to update CAD data when the accuracy is high when shooting from a closer location, By applying the first to third means for increasing the accuracy of CAD data by approaching 901 from various angles or closer, it can be realized more effectively.

次に、ステレオ計測の処理の方法の一例を図43〜図49を参照して説明する。ここで、図43は、ステレオ計測を行う2台の撮像装置10,20のそれぞれのO1視点座標系とO2視点座標系と見る。2台の撮像装置の位置関係は、最初に精度良く求めておくということを説明したが、その一手法として、あらかじめ複数の対応点、ここでは3点P1,P2,P3を例に説明するが、O1視点座標系からみた点とO2座標系からみた点の対応関係をあらかじめ操作者が指定してその条件よりO1視点座標系とO2視点座標系の座標変換の関係式を求める。ある程度既知の位置関係の条件を使用して関係式を精度良く求めるようにしても良いし、3点ではなく少なくとも8点の対応点を操作者が指定すれば、位置関係がまったくわからない状態でも関係式を求めることができる。8ポイント法については、情報処理学会研究報告コンピュータビジョンとイメージメディア、No. 131-022、2001年、「幾何学的拘束による共分散行列の更新について」、などの文献があるので、ここでの詳細な説明は省略する。何れの手法を用いても、指定した対応点、例えばP1,P2,P3の点は、その点が対応するように関係式を求めるのでO1視点座標系とO2視点座標系のそれぞれで完全に一致するように対応がとれている。このようにしてあらかじめ求めておいた関係式より、例えばその関係式を求めるときに用いなかった点P4をステレオ計測で求める場合を考えると、点P1,P2,P3は、それぞれO1視点からの延長戦とO2視点からの延長線は交わる関係にあるが、点P4については、必ずしも交わらない。これは、いろいろな誤差要因があるからである。   Next, an example of a stereo measurement processing method will be described with reference to FIGS. Here, FIG. 43 is viewed as the O1 viewpoint coordinate system and the O2 viewpoint coordinate system of each of the two imaging devices 10 and 20 that perform stereo measurement. Although it has been described that the positional relationship between the two imaging devices is first obtained with high accuracy, as one method therefor, a plurality of corresponding points, here, three points P1, P2, and P3 will be described as an example. Then, the operator specifies in advance the correspondence between the point viewed from the O1 viewpoint coordinate system and the point viewed from the O2 coordinate system, and the relational expression of the coordinate conversion between the O1 viewpoint coordinate system and the O2 viewpoint coordinate system is obtained from the conditions. It may be possible to obtain the relational expression with a certain degree of accuracy using a known positional relationship condition, and if the operator specifies at least 8 corresponding points instead of 3 points, the positional relationship may not be known at all. An expression can be obtained. Regarding the 8-point method, there are documents such as "Information Update Society Research Report Computer Vision and Image Media, No. 131-022, 2001," Updating Covariance Matrix by Geometric Constraints ". Detailed description is omitted. Regardless of which method is used, the specified corresponding points, such as the points P1, P2, and P3, are determined so that the corresponding points correspond to each other. Therefore, the O1 viewpoint coordinate system and the O2 viewpoint coordinate system completely match each other. The correspondence is taken. Considering, for example, the case where the point P4 not used when obtaining the relational expression is obtained by stereo measurement from the relational expression obtained in advance in this way, the points P1, P2, and P3 are respectively extended from the O1 viewpoint. Although the war and the extension line from the O2 viewpoint intersect, the point P4 does not necessarily intersect. This is because there are various error factors.

図44は、図43におけるP4周辺を拡大した図であるが、線分L1と線分L2の交点は誤差によって存在しない。この場合の求め方は両方の線分に接する球を考えてその球の径が最も小さくなる球を求めてその球の中心点をP4の座標として求める。そして、その球の例えば半径rをそのP4点の誤差の半径と考える。   FIG. 44 is an enlarged view of the vicinity of P4 in FIG. 43, but the intersection of the line segment L1 and the line segment L2 does not exist due to an error. In this case, the sphere in contact with both line segments is considered, the sphere having the smallest diameter is obtained, and the center point of the sphere is obtained as the coordinates of P4. Then, for example, the radius r of the sphere is considered as the error radius of the P4 point.

図44において、P4の球は、線分L2とP4atL2で接して、線分L1とはP4atL1で接している状態を示している。ここで誤差半径rは、画像のひずみの影響やステレオ計測する2台のカメラの位置関係を示す座標変換の計算式の精度に起因する部分もあるが、それらは画像ひずみを画像処理する前に補正するようにしたり、カメラの位置関係を示す座標変換の計算式の精度は精度良く行うことにより限りなくゼロに近づけることができる。その他の誤差としては、カメラの分解能があるが、それは撮影対象901と撮像装置10,20の距離と2台の位置関係からさけがたい計測誤差として生じる。更に、その他の誤差として、これは本発明での重要なポイントの一つになるが、対応点の対応精度に影響する誤差が含まれる。実際に撮影対象にペイントがしてある境界線を見ているような場合には、それは顕微鏡撮影などを行わない通常運用においては極めて安定な実際線となるが、物体の輪郭を検出した線分の場合にはどうしても撮影方向が変ったことによってもっともマッチングする対応点候補を選択した場合においても厳密には同じ撮影対象の部位を見ていないので、本当の対応点からは少しずれてそのズレがこの誤差半径rになって生じる。画像ひずみの誤差とステレオ計測の座標変換の誤差を1画素以内に十分小さくして撮影距離と分解能に関わる誤差は撮像装置の仕様とP4点の概略距離情報から決まるのでそれを差し引いた分が輪郭線ゆえの誤差半径となる。この誤差も球体や円筒面を計測する場合は大きくなり、鋭角な辺からなる直方体などの辺の誤差は小さくなるので、この誤差を当該点の安定度の指標として管理するようにする。輪郭線と実際線の区別も、その誤差半径でどちらの線に属するかの程度を表現するようにしても良い。そして、CADデータを更新するか否かの判断は、撮影距離と分解能に関わる誤差が小さくなることと共にこの安定度が良くなったかどうかも含めて総合的に判断するようにするのが良い。更に、後述するトラッキングを行うようにして更に計測座標をもとの座標系に変換する場合にも変換誤差が加算されるので、それらの総合的な判断で更新するか否かを判断するようにするのが良い。トラッキングを行う場合には、少なくとも3点の対応点が必要になるが、その3点を選ぶ場合にもこの安定度の良い3点を選ぶようにすればトラッキングによる座標変換による誤差も小さく抑えることが可能となる。   44, the sphere P4 is in contact with the line segment L2 and P4atL2, and the line segment L1 is in contact with P4atL1. Here, the error radius r is caused by the influence of the distortion of the image and the accuracy of the calculation formula of the coordinate conversion indicating the positional relationship between the two cameras that perform stereo measurement. The accuracy of the calculation formula for the coordinate conversion indicating the positional relationship of the camera can be made as close as possible to zero as long as it is corrected. Other errors include the resolution of the camera, which is a measurement error that cannot be avoided from the distance between the object 901 and the imaging devices 10 and 20 and the positional relationship between the two. Furthermore, as another error, this is one of the important points in the present invention, but includes an error that affects the correspondence accuracy of corresponding points. If you are looking at the boundary line that is actually painted on the subject, it will be an extremely stable actual line in normal operation without microscope photography, but the line segment that detected the contour of the object. In this case, even if the matching point candidate that most closely matches is selected due to the change in the shooting direction, the same shooting target site is not strictly observed, so the deviation is slightly deviated from the true corresponding point. This error radius r occurs. The image distortion error and stereo measurement coordinate conversion error are sufficiently reduced to within one pixel, and the errors related to the shooting distance and resolution are determined from the imaging device specifications and the approximate distance information of the P4 point. Error radius due to the line. This error also increases when measuring a sphere or a cylindrical surface, and the error of a side such as a rectangular parallelepiped composed of acute sides is reduced. Therefore, this error is managed as an index of the stability of the point. For the distinction between the contour line and the actual line, the degree of which line belongs to the error radius may be expressed. Whether or not to update the CAD data is preferably determined comprehensively including whether or not the error relating to the shooting distance and resolution is reduced and the stability is improved. Furthermore, since conversion errors are also added when the measurement coordinates are further converted to the original coordinate system by performing tracking, which will be described later, it is determined whether or not to update by these comprehensive determinations. Good to do. When tracking is performed, at least three corresponding points are required. Even when these three points are selected, if three points with good stability are selected, errors due to coordinate conversion by tracking can be suppressed to a small level. Is possible.

ちなみに、ステレオ計測では、誤差半径rが小さい点は、より安定な点ということができ、そういう点をトラッキング時の3点に選ぶようにする。鋭角な輪郭線の点は、誤差半径rがより小さく、実際線の点の場合は、誤差半径は一番小さくなる。   Incidentally, in stereo measurement, a point with a small error radius r can be said to be a more stable point, and such points are selected as three points during tracking. A sharp contour point has a smaller error radius r, and an actual radius point has the smallest error radius.

また、図45には、撮影距離と分解能に関わる誤差P4(r1)と輪郭線ゆえの誤差半径P4(r2)の概念を示す。図44のP4atL1の点とP4atL2の点には撮影距離と撮像装置の分解能、撮像装置の撮影関係(間隔)に関わる誤差があり、それを半径r2の球P4(r2)で表すと、その2つの球P4(r2)の中心に、輪郭線ゆえの誤差半径r1の球P4(r1)で表現する。この場合、誤差が小さくなる場合はCADデータを更新するわけであるが、処理を簡単にするために、球P4(r1)と2つの球P4(r2)を包絡する球P4(r3)を考えて、あらたに計測された点の球P4(r3)が、現在の球P4(r3)の中にあってより小さくなる場合には、その点のCADデータを更新するようにしても良い。   FIG. 45 shows the concept of error P4 (r1) related to the shooting distance and resolution and error radius P4 (r2) due to the contour line. There are errors related to the shooting distance, the resolution of the imaging device, and the shooting relationship (interval) of the imaging device at the point P4atL1 and the point P4atL2 in FIG. 44. The center of one sphere P4 (r2) is represented by a sphere P4 (r1) having an error radius r1 due to the outline. In this case, when the error becomes small, the CAD data is updated. However, in order to simplify the processing, a sphere P4 (r3) that envelops the sphere P4 (r1) and the two spheres P4 (r2) is considered. If the sphere P4 (r3) of the newly measured point is in the current sphere P4 (r3) and becomes smaller, the CAD data of that point may be updated.

また、図46に示すように、撮影距離と撮像装置の分解能、撮像装置の撮影関係(間隔)に関わる誤差球P4(r2)は、ステレオ計測の場合のように撮像装置の間隔が狭く遠くを撮影する場合には、撮影方向に対して上下左右の誤差よりも奥行き方向の誤差の方が大きくなるので、それを球で表現すると処理は簡単になるが、精度の厳密性に欠けるので、視点O1、O2から引いた1画素に相当する円錐あるいは角錐の交わる部分の形状P4(δ)を誤差として管理するようにしても良い。この場合には、撮像装置が移動して視点O1,O2の位置が変わって、先に奥行き方向を計測していた部分が上下あるいは左右方向の向きで計測することできるようになったり、トラッキングして更に視点O1,O2の間隔が広がってより精度良く計測された場合があるので有効である。誤差の形状P4(δ)の形が全体として小さくなるのではなく、向きや方向によって一部分は更新して、前回計測部分が精度高い方向は前回の計測部分の誤差を用いて、全体として、例えば、誤差形状の体積や最長部位が小さくなる場合は、そのような前回と今回の誤差形状の組み合わせで更新してあらたな誤差形状として変形させながら管理するようにして良い。例えば、先に計測した奥行き方向の誤差が横から計測したことにより小さくなる場合は、先に計測した奥行き方向の誤差は新たに計測した左右の誤差になるように小さくして、先に左右方向で精度良く計測していた方向は、今度は奥行き方向になるので、その方向については前回の誤差形状を使って更新しないようにすることになる。このように、最初に生成される誤差の形状は、P4(δ)のような形状であるが、更新処理によりその形状を精度が良くなる部分ごとに小さくしていくことにより、誤差を形状として更新しながら厳密にCADデータの更新を行うようにしても良い。   As shown in FIG. 46, the error sphere P4 (r2) related to the shooting distance, the resolution of the imaging device, and the shooting relationship (interval) of the imaging device has a narrow interval between the imaging devices as in the case of stereo measurement. When shooting, the error in the depth direction is larger than the error in the vertical and horizontal directions relative to the shooting direction. The shape P4 (δ) of the portion where the cone or pyramid intersects corresponding to one pixel subtracted from O1 and O2 may be managed as an error. In this case, the position of the viewpoints O1 and O2 is changed by the movement of the imaging device, so that the portion where the depth direction has been measured can be measured in the vertical and horizontal directions, or tracking is performed. This is effective because the distance between the viewpoints O1 and O2 may be further increased and the measurement may be performed with higher accuracy. The shape of the error shape P4 (δ) is not reduced as a whole, but a part is updated according to the direction and direction, and the direction in which the previous measurement part is highly accurate uses the error of the previous measurement part. When the volume of the error shape and the longest part are reduced, the error shape may be managed while being updated as a new error shape by updating the combination of the previous and current error shapes. For example, if the previously measured error in the depth direction is reduced by measuring from the side, the previously measured error in the depth direction is reduced to be the newly measured left and right errors, and the left and right direction is The direction measured with high accuracy in this case is now the depth direction, so that the direction is not updated using the previous error shape. In this way, the shape of the error that is generated first is a shape such as P4 (δ), but the error is made into a shape by reducing the shape for each part where the accuracy is improved by the update process. The CAD data may be strictly updated while updating.

図47は、視点O1,O2の2台の撮像装置からステレオカメラで最初に生成されるポイントP4の誤差形状P4(δ)を示している。奥行き方向の誤差は大きいために、外接円を書くとP4(r2)の球になる。   FIG. 47 shows an error shape P4 (δ) of the point P4 that is first generated by the stereo camera from the two imaging devices of the viewpoints O1 and O2. Since the error in the depth direction is large, writing a circumscribed circle results in a sphere of P4 (r2).

次に、ステレオカメラである視点O1,O2が移動して、図48のように、同じポイントP4を計測すると、視点O1,O2からポイントP4までの撮影距離も近くなっているので、上下左右の誤差の広がりも小さくなるが、図47の誤差形状P4(δ)を斜めから撮影することになるので、前回の奥行き方向で精度の良くない方向を今回は上下左右方向の精度で測定できるので前回の誤差形状P4(δ)は更に小さい誤差形状P4’(δ)にして管理することができる。外接円もP4’(r2)と小さくなる。新たな誤差形状を求めるときには、現在の誤差形状と新たに計測されたときの誤差形状を重ねて重なる部分を抽出するようにしても良い。重なる部分が前回の誤差形状全部になる場合は、今回計測誤差が大きいので当該点の計測座標値は更新しない。一方、新たに計測した誤差形状が全部含まれる場合は、新たに計測した計測座標値に更新する。また、一部重なる部分が前回と今回の誤差形状のそれぞれにある場合は、重なる部分を新たな誤差形状に更新する。その場合、計測座標値も更新するが、更新の方法としては新たに求めた誤差形状の中心(立体図形の密度を均一とした場合の重心など)を当該点計測座標値として更新するようにしても良い。この場合には、最初に計測する段階から計測座標値は誤差形状の中心の座標値を使うようにして良い。このように厳密に誤差形状を求めながら計測したポイントの誤差の大きさをその方向も考慮した形状で管理する場合には、更に輪郭線ゆえの誤差やトラッキングなどにより生じる誤差もその方向性を考慮した厳密な形状で管理するようにしても良い。また、ある程度、誤差形状に方向による依存がなくなった場合には簡略化のために球にして管理して、方向性に大きさ差が生じた場合に誤差形状で再度管理するようにしても良い。また、方向性を有する誤差も直方体や楕円球のような基本図形におきかえて処理をある程度簡略化するようにしても良い。   Next, when the viewpoints O1 and O2, which are stereo cameras, are moved and the same point P4 is measured as shown in FIG. 48, the shooting distance from the viewpoints O1 and O2 to the point P4 is also close. Although the error spread is reduced, the error shape P4 (δ) in FIG. 47 is taken from an oblique direction, so that the direction with poor accuracy in the previous depth direction can be measured with the accuracy in the vertical and horizontal directions this time. This error shape P4 (δ) can be managed with a smaller error shape P4 ′ (δ). The circumscribed circle is also reduced to P4 '(r2). When a new error shape is obtained, the current error shape and the newly measured error shape may be overlapped and extracted. If the overlapped portion is the entire previous error shape, the measurement coordinate value at that point is not updated because the current measurement error is large. On the other hand, when all newly measured error shapes are included, the measured coordinate values are updated to the newly measured. Further, when there are overlapping portions in the previous and current error shapes, the overlapping portion is updated to a new error shape. In that case, the measurement coordinate value is also updated, but the update method is to update the center of the newly obtained error shape (the center of gravity when the density of the solid figure is uniform) as the point measurement coordinate value. Also good. In this case, the coordinate value of the center of the error shape may be used as the measurement coordinate value from the first measurement stage. In this way, when managing the error magnitude of the measured point while strictly determining the error shape in a shape that also considers the direction, the error due to the contour line and the error caused by tracking etc. are also considered the directionality You may make it manage with the exact | strict shape. In addition, when the error shape no longer depends on the direction to some extent, it may be managed as a sphere for simplification, and may be managed again with the error shape when there is a difference in directionality. . Further, the error may be simplified to some extent by replacing the directional error with a basic figure such as a rectangular parallelepiped or an elliptical sphere.

基本図形として、図49に示すように、誤差半径δRの球がPC点からP4を結ぶ方向にP4を中心にδLの長さの間にあるように近似して誤差を表現するようにすれば、3D点P4に付属させるべき形状誤差に関する情報は、半径δR、長さδL、Pc点の座標x,y,zの5つの変数で表現することができるので計算効率などを考慮しても合理的である。P4点の座標の更新にともなって、この誤差形状を更新する場合には、複雑な形状としないで、球の半径とその球が並ぶ長さに近似して、半径δR、長さδL、Pc点の座標x,y,zの5つの変数を更新するようにすれば良い。勿論、近似の時には近似した誤差形状が厳密な誤差形状より小さすぎることのないように半径δR、長さδLを決めるようにする。   As a basic figure, as shown in FIG. 49, an error can be expressed by approximating a sphere having an error radius δR in the direction connecting the PC point to P4 so that it is between P4 and δL. The information on the shape error to be attached to the 3D point P4 can be expressed by five variables of the radius δR, the length δL, and the coordinates x, y, and z of the Pc point. Is. When the error shape is updated in accordance with the update of the coordinates of the point P4, the radius δR, the length δL, and Pc are approximated to the radius of the sphere and the length in which the spheres are arranged without using a complicated shape. What is necessary is just to update five variables of the coordinate x, y, z of a point. Of course, in the approximation, the radius δR and the length δL are determined so that the approximate error shape is not too smaller than the exact error shape.

次に、図43を参照して撮像装置が移動して視点が変る場合の処理の方法の一例を説明する。図43は、O1視点座標系は、撮像装置10,20の何れか1台の撮像装置の座標系を示しており、この位置から撮像装置がO2視点の位置に移動した状況を示しているものとする。ここで、撮像装置は、仮に左側の撮像装置10であると考える。左側の撮像装置10がO1視点にあるときに2台のカメラで先に説明した方法等を用いてステレオ計測すれば撮影対象の中の特徴点はO1視点座標系の3次元の点座標として計測されている。実際には、たくさんの特徴点が計測されるが、その中より対応点が一致して、計測の条件が良く、最も安定で、最も精度高く計測された点の中から3点を選ぶようにする。また、3点を選ぶ場合に精度が良いからと言って距離の近い3点を選ぶのもあとの変換精度が悪くなるので、適度に離れている点で安定で精度良く測定された点を選ぶようにする。計測できた特徴点が3点しかない場合はその3点を選択するしかないが、少なくとも3点が計測されてO2視点から撮影した場合もその3点が移っていれば画像情報によるトラッキングは継続できる。逆にいうと、3点得られない場合は画像情報によるトラッキングはできなくなるので、その場合には、再度、少なくとも対応する3点が移る状態になるまで待つか、別のセンサとして加速度センサやジャイロセンサ、磁気センサなどを撮像装置に取り付けておき、画像情報によりトラッキングできないときのカメラ位置を補間するようにしても良い。最初に抽出した3点以上の画像イメージ上の特徴点情報を消去しないで記録保存しておくようにすれば、途中は画像情報によるトラッキングができなくとも撮像装置が再度以前に撮影した近くに戻ってきた場合には、保存しておいた以前の画像イメージ上の特徴点情報を利用してそこからのトラッキング処理を再開継続するようにしても良い。   Next, an example of a processing method when the imaging apparatus moves and the viewpoint changes will be described with reference to FIG. In FIG. 43, the O1 viewpoint coordinate system indicates the coordinate system of any one of the imaging devices 10 and 20, and shows a situation in which the imaging device has moved from this position to the O2 viewpoint position. And Here, it is assumed that the imaging device is the left imaging device 10. When the left imaging device 10 is at the O1 viewpoint, if the stereo measurement is performed with the two cameras using the method described above, the feature points in the photographing target are measured as three-dimensional point coordinates in the O1 viewpoint coordinate system. Has been. Actually, many feature points are measured, but the corresponding points are the same among them, so that the measurement conditions are good, the most stable, and the most accurate, select three points. To do. In addition, when selecting three points, selecting three points that are close to each other because the accuracy is good also deteriorates the conversion accuracy, so select points that are stable and accurately measured at moderately separated points. Like that. If there are only 3 feature points that can be measured, you can only select those 3 points, but if at least 3 points are measured and taken from the O2 viewpoint, tracking by image information will continue if those 3 points have moved. it can. In other words, if three points cannot be obtained, tracking by image information cannot be performed. In this case, wait until at least the corresponding three points move, or another sensor such as an acceleration sensor or gyroscope. A sensor, a magnetic sensor, or the like may be attached to the imaging apparatus, and the camera position when tracking cannot be performed by image information may be interpolated. If feature point information on three or more image images extracted at the beginning is recorded and saved without being erased, the imaging device returns to the vicinity where it was previously taken, even if tracking by image information is not possible during the process. In such a case, the feature point information on the previously saved image image may be used to resume the tracking process from there.

基本的なトラッキングの処理の例を説明すると、O1視点でステレオ計測された点P1,P2,P3が2次元の画像イメージ上で高速処理で見失わないようにトラッキングすれば撮像装置10aがO2視点の位置に移動してきた場合に点P1,P2,P3はステレオ計測によって、O2視点座標系の座標データとして求めることができる。2つの座標系で対応する3点P1,P2,P3のそれぞれの座標系での3次元座標が求まっているので、O1視点座標系とO2視点座標系の座標変換の関係式を求めれば、2次元画像イメージ上でトラッキングできなかった、あるいは、新たに撮像装置の視野に入ってきた、例えば点P4についてみれば、ステレオ計測でO2視点座標系の座標は求まり、それをO2視点座標系からO2視点座標系の座標値に変換することができる。このようにして、トラッキングを続けていき、少なくとも安定な3点のトラッキングができれば、全ての計測点は、最初のスタート時の同じ座標系に変換した3次元のCADデータが得られるようになる。   An example of basic tracking processing will be described. If tracking is performed so that points P1, P2, and P3 measured in stereo from the O1 viewpoint are not lost in high-speed processing on a two-dimensional image image, the imaging apparatus 10a is in the O2 viewpoint. When moving to a position, the points P1, P2, and P3 can be obtained as coordinate data of the O2 viewpoint coordinate system by stereo measurement. Since the three-dimensional coordinates in the respective coordinate systems of the corresponding three points P1, P2, and P3 in the two coordinate systems are obtained, if a relational expression of coordinate transformation between the O1 viewpoint coordinate system and the O2 viewpoint coordinate system is obtained, 2 If, for example, the point P4 that could not be tracked on the three-dimensional image or newly entered the field of view of the imaging apparatus is seen, the coordinates of the O2 viewpoint coordinate system are obtained by stereo measurement, and the coordinates are obtained from the O2 viewpoint coordinate system. It can be converted into coordinate values in the viewpoint coordinate system. In this way, if tracking is continued and at least stable tracking of three points can be performed, three-dimensional CAD data converted into the same coordinate system at the first start can be obtained for all measurement points.

次に、図50を用いて単眼のカメラシステムの場合でも複眼のステレオカメラシステムの場合でも同じであるが、カメラの最初の視点O1座標系で既知の3点が存在する場合の同じカメラの移動後の視点O2座標系が未知の場合のO1座標系とO2座標系の座標変換の計算式を求める方法、すなわち、O1座標系におけるO2座標系の位置と姿勢を決定するトラッキングの手法について説明する。ここでの条件は、O1座標系でのP1,P2,P3の3次元座標が既知で2次元画像イメージ上の連続処理によって、O1視点位置のカメラの画像に写っている点P1,P2,P3とO2視点の位置のカメラの画像イメージに写っている点P1,P2,P3とは対応がとれているという条件である。   Next, with reference to FIG. 50, the same camera movement when there are three known points in the first viewpoint O1 coordinate system of the single-eye camera system and the compound-eye stereo camera system. A method of obtaining a calculation formula for coordinate transformation between the O1 coordinate system and the O2 coordinate system when the later viewpoint O2 coordinate system is unknown, that is, a tracking method for determining the position and orientation of the O2 coordinate system in the O1 coordinate system will be described. . The condition here is that the three-dimensional coordinates of P1, P2, and P3 in the O1 coordinate system are known, and the points P1, P2, and P3 appearing in the camera image at the O1 viewpoint position by continuous processing on the two-dimensional image image. And points P1, P2, and P3 appearing in the image of the camera at the position of the O2 viewpoint are in correspondence.

O1座標系とO2座標系の座標変換の計算式の定数が未知であるので、それを未知の変数に置き換え、O1視点座標系にO2視点座標系の全ての点を置き換えて考える。視点O1と視点O1座標系のxy平面(2次元のが画像に対応する平面)上の点P1を結ぶ線分の延長線と視点O2と視点O2座標系のxy平面(2次元のが画像に対応する平面)上の点P1を結ぶ線分の延長線とがO1座標系の3次元空間の点P1で交わるという条件、視点O1と視点O1座標系のxy平面(2次元のが画像に対応する平面)上の点P2を結ぶ線分の延長線と視点O2と視点O2座標系のxy平面(2次元のが画像に対応する平面)上の点P2を結ぶ線分の延長線とがO1座標系の3次元空間の点P2で交わるという条件、視点O1と視点O1座標系のxy平面(2次元のが画像に対応する平面)上の点P3を結ぶ線分の延長線と視点O2と視点O2座標系のxy平面(2次元のが画像に対応する平面)上の点P3を結ぶ線分の延長線とがO1座標系の3次元空間の点P3で交わるという条件からの連立方程式を解くことによって、最初に未知と置いたO1座標系とO2座標系の座標変換の計算式の定数は求めることができる。これによって、O1座標系とO2座標系の位置関係が求まるので、ステレオ計測システムであれば、O2座標系で計測できた他の3次元点データをO1座標系の3次元点データに変換できる。また、ステレオ計測システムにおいても左右のカメラの間隔が狭いために遠方をステレオ計測する場合の測定精度は良くならないことから、ステレオカメラシステムの左右のカメラのどちらか、あるいは両方を少なくとも3点の対応する点をトラッキング処理によって得られれば、ここで説明した方法で離れた2箇所のカメラ位置の関係が求まるので、その条件を使って、すなわち、カメラが大きく移動する前の位置で撮影したときに抽出した特徴点とカメラがそれから十分離れた位置に移動してきた現在撮影した画像情報内で抽出した対応する特徴点候補を用いて、あらためてステレオ計測することによって、左右のカメラでステレオ計測する場合より遠方の撮影対象の計測精度のより良いCADデータを得ることができる。また、単眼システムの場合には、常に、カメラが十分移動してから、最初のカメラ位置の画像情報と離れた位置のカメラからの画像情報から、3ポイントの対応する点より座標変換の計算式を求め、そのカメラ間の位置関係の情報を参照して、前述したステレオ計測と同じような手法で3次元のCADデータを生成することができる。   Since the constant of the calculation formula for the coordinate conversion between the O1 coordinate system and the O2 coordinate system is unknown, it is replaced with an unknown variable, and all the points of the O2 viewpoint coordinate system are replaced with the O1 viewpoint coordinate system. The extension line of the line connecting the point P1 on the xy plane (two-dimensional plane corresponding to the image) of the viewpoint O1 and the viewpoint O1 coordinate system, and the xy plane of the viewpoint O2 and viewpoint O2 coordinate system (two-dimensional is the image) The condition that the extension line of the line connecting the point P1 on the corresponding plane) intersects at the point P1 in the three-dimensional space of the O1 coordinate system, the xy plane of the viewpoint O1 and the viewpoint O1 coordinate system (two-dimensional corresponds to the image) The extension line of the line connecting the point P2 on the plane and the extension line of the line connecting the point P2 on the xy plane (two-dimensional plane corresponding to the image) of the viewpoint O2 and the viewpoint O2 coordinate system is O1. The condition that the point P2 in the three-dimensional space of the coordinate system intersects, the extension line of the line connecting the point O3 and the point P3 on the xy plane (two-dimensional plane corresponding to the image) of the viewpoint O1 coordinate system, and the viewpoint O2 The point P3 on the xy plane (two-dimensional plane corresponding to the image) of the viewpoint O2 coordinate system is connected. By solving the simultaneous equations from the condition that the extension line of the minute intersects with the point P3 in the three-dimensional space of the O1 coordinate system, the constants of the calculation formulas for the coordinate transformation of the O1 coordinate system and the O2 coordinate system that were initially set as unknown Can be sought. As a result, the positional relationship between the O1 coordinate system and the O2 coordinate system can be obtained. Therefore, in the case of a stereo measurement system, other three-dimensional point data that can be measured in the O2 coordinate system can be converted into three-dimensional point data in the O1 coordinate system. Also, in stereo measurement systems, the distance between the left and right cameras is narrow, so the measurement accuracy when measuring far away in stereo does not improve, so either or both of the left and right cameras of the stereo camera system support at least three points. If the tracking point can be obtained by the tracking process, the relationship between the two camera positions separated by the method explained here can be obtained, so when using the condition, that is, when shooting at the position before the camera moves greatly Compared to the case where the left and right cameras are used for stereo measurement, using the extracted feature points and the corresponding feature point candidates extracted from the currently captured image information where the camera has moved to a position far away from the camera. It is possible to obtain CAD data with better measurement accuracy of a far object. Further, in the case of a monocular system, the calculation formula for coordinate conversion is always calculated from the corresponding points of 3 points from the image information of the first camera position and the image information from the camera at a distant position after the camera has sufficiently moved. 3D CAD data can be generated by a method similar to the stereo measurement described above with reference to the positional relationship information between the cameras.

ここで、単眼カメラシステムの場合は、最初に3点の既知のポイントが必要になるが、その場合の手法を図51を参照して説明する。   Here, in the case of a monocular camera system, three known points are required first, and a method in that case will be described with reference to FIG.

撮像装置10は、最初は基準となるベースに設置する。このとき、撮像装置10をベースに何回着脱しても精度良く再現するように、ベース側と撮像装置側に印籠などの金具を取り付けておくのが良い。そして、ベースとの相対位置関係が頑強に変化しない関係でスタート時に視野に入るようにマーク6aを設置するようにする。基準マーク6aは、図に示すように十字でも何でも良いが、少なくとも3点、この場合は、例えば、基準マーク6aの角の3点P1,P2,P3のベースに撮像装置10を置いたときにカメラ座標系で精度良くその座標を求めておき、その座標値を使って、3ポイント法によるトラッキングと3D計測、CADデータを生成をスタートさせるようにすることも可能となる。毎回、同じベースからスタートさせることになる。これは、点検検査装置などに適用する場合は、定期的に同じ個所を点検するような運用が行われるので、あらかじめ基準ベースと基準マークを設置しておくとか、基準ベースと基準マークが一体になったカメラスタンド治具をもって現場に入って現場にマーキングしておいた場所にそのカメラスタンド治具を設置して運用するようにしても良い。常設が難しい場合には、有効な手段である。現場マーキングの場所に設置する精度が多少悪くても、生成されるCADデータが相対的に前回実施時とずれるだけであるので、検査作業としての運用上はその程度の設置のしかたで十分である。   The imaging device 10 is initially installed on a base that serves as a reference. At this time, it is preferable to attach metal fittings such as stamps on the base side and the imaging device side so that the imaging device 10 can be accurately reproduced regardless of how many times it is attached to and detached from the base. Then, the mark 6a is installed so that the relative position relationship with the base does not change steadily so as to enter the field of view at the start. The reference mark 6a may be a cross as shown in the figure, but at least three points, in this case, for example, when the imaging device 10 is placed on the base of the three points P1, P2, P3 at the corners of the reference mark 6a. It is also possible to obtain the coordinates with high precision in the camera coordinate system, and to start tracking, 3D measurement, and CAD data generation by the three-point method using the coordinate values. Every time you start from the same base. When this is applied to inspection / inspection equipment, etc., the same part is regularly inspected. Therefore, the reference base and the reference mark are installed in advance, or the reference base and the reference mark are integrated. The camera stand jig may be installed and operated at the place where the camera stand jig has been entered and marked on the site. When permanent installation is difficult, it is an effective means. Even if the accuracy of installation at the site marking site is somewhat poor, the generated CAD data is only relatively different from the previous implementation, so that level of installation is sufficient for operation as inspection work. .

また、単眼システムにおいて、基準マークを用いない方法もあるので、その方法に関連する内容をここで説明する。   In addition, since there is a method that does not use a reference mark in a monocular system, contents related to the method will be described here.

前述した8ポイント法は、対応する点が8ポイント以上について2次元画像イメージ上でトラッキングできれば、対応する8ポイントを用いて離れた撮像装置の視点座標系の座標変換の計算式が決まるものであるので、8ポイント法を用いれば、単眼システムでも、最初に基準マークを撮影しないでもスタートできるシステムを構築することができる。8ポイント法を用いる場合は、安定な8ポイントをいかに選択するかという点が重要になるので、処理としては、複数の対応点が2次元画像処理でトラッキングできている場合にはそれらの複数のトラッキングできた点群から8ポイントを選び、その8ポイントで座標変換の計算式を求め、その計算式で8ポイント以外の他の点を変換したときに精度良く一致する点の数を指標として、他の8ポイントの組み合わせ全ての場合において同じようにその指標を求めて、もっとも精度良く一致する他の点がたくさん生じる場合の計算式を求めるときに使った8ポイントが最も安定で精度良く対応のとれている点とうことで、その8ポイントで求めた座標変換の計算式を使うようにする。このようにして、常にトラッキングしながら、8ポイント法で計測していく方法もあるが、8ポイントの組み合わせの数だけ計算式を求めて、評価を繰り返す必要があるために、計算速度を十分早くして適用するか、あるいは、最初のみ8ポイント法で計測して、安定な3ポイントが求まった場合には、前述の3ポイント法に切り替えて動作するようにシステムを構築しても良い。この場合は、処理速度との関係で、撮像装置を最初はゆっくり動かすように運用で工夫することでも良い。   In the above-described 8-point method, if the corresponding points can be tracked on the two-dimensional image image with respect to 8 points or more, the calculation formula for the coordinate transformation of the viewpoint coordinate system of the imaging device far away is determined using the corresponding 8 points. Therefore, if the 8-point method is used, it is possible to construct a system that can start even with a monocular system or without first capturing a reference mark. When the 8-point method is used, it is important how to select stable 8 points. Therefore, when a plurality of corresponding points can be tracked by two-dimensional image processing, a plurality of those points are selected. Select 8 points from the point group that can be tracked, obtain a calculation formula for coordinate conversion using the 8 points, and use as an index the number of points that match accurately when other points other than 8 points are converted using the calculation formula. In the case of all other 8 point combinations, the index is obtained in the same way, and the 8 points used when obtaining the calculation formula when there are many other points with the most accurate match are the most stable and accurate. By taking the points, the coordinate transformation formula obtained at the 8 points is used. In this way, there is also a method of measuring by the 8-point method while always tracking, but it is necessary to obtain calculation formulas for the number of combinations of 8 points and repeat the evaluation, so the calculation speed is sufficiently high. The system may be configured to operate by switching to the above-described three-point method when the stable three points are obtained by measuring by the 8-point method only at the beginning. In this case, the operation may be devised so that the imaging apparatus is moved slowly at first in relation to the processing speed.

画面上で常に対応点を8ポイント確保するためには、画像イメージの中の視野を大きく変化させると対応する8ポイントが得られなくなったり画面の片側のみに集中(片側に集中すると座標変換の計算式の精度に影響する場合もある)したりするので、3ポイントの方が対応点を確保しやすというメリットもあるので3ポイント法に切り替えるようにする方が良い。   In order to always keep 8 corresponding points on the screen, if the field of view in the image image is changed greatly, the corresponding 8 points cannot be obtained or concentrated on only one side of the screen (concentration calculation on one side is calculated) It is better to switch to the three-point method because there is a merit that it is easier to secure the corresponding points.

なお、ステレオ計測でも単眼システムでも同様であるが、少なくとも3ポイントのトラッキングができていれば画像処理によりトラッキングが継続できるが、安定なポイントが2ポイント以下になってしまった場合には、加速度センサやジャイロセンサなどの信号でカメラ移動位置を補間するようにしても良い。再開する場合には、ステレオカメラシステムの場合には、最初から3次元の点を計測できるので、途中、センサで補間しない場合でも、計測した3次元の点群データで過去に計測していた点群とのマッチングをとることによって見失った撮像装置を位置を見つけて、継続再開するようにもできる。そのとき、加速度センサやジャイロセンサにより、見失っていた期間の撮像装置の移動情報があれば、概略の位置が推定できるので、CADデータで精度良くマッチングするにしても効率良くマッチング処理して現在の位置を精度良く見つけて再開しやすくなる。単眼システムの場合には、3ポイントを見失ったあとに再開する場合には、再度、8ポイント法から始めるようにする必要がある。   As with stereo measurement or monocular system, tracking can be continued by image processing if at least 3 points can be tracked. However, if the stable point falls below 2 points, the acceleration sensor Alternatively, the camera movement position may be interpolated by a signal from a gyro sensor or the like. When resuming, in the case of a stereo camera system, a 3D point can be measured from the beginning. The position of the imaging device that has been lost due to matching with the group can be found and resumed continuously. At that time, if there is movement information of the imaging device in the period that has been missed by the acceleration sensor or gyro sensor, the approximate position can be estimated. It is easy to find the position accurately and resume. In the case of a monocular system, when resuming after losing 3 points, it is necessary to start again with the 8-point method.

次に、図52を参照してステレオ計測の場合において、2次元画像情報上で色情報、その他のルールを使って対応する特徴点候補を絞り込む方法について説明する。図52において、(a)と(b)は、ステレオ計測している左右の画像イメージである。(b)の特徴点7aは、(a)の画像イメージの直線L1上にその対応点候補7aとして存在する。ここで、特徴点7aとその対応点候補7aの回りの色情報で対応点候補が間違いないか否かを判断するが、この場合は、特徴点7aと対応点候補7aの色情報が良く一致しているので対応点候補として使用する。万一、画像イメージ(a)の外にもっと適切な対応点が存在する場合も考えられるが、その場合は、撮像装置が移動して別の視点から計測したときに特徴点7aに対応する点が再度別の視点からも計測できたことを確認してから正規のCADデータにすることによって、このような錯覚点は容易に削除することができる。   Next, a method of narrowing down corresponding feature point candidates using color information and other rules on the two-dimensional image information in the case of stereo measurement will be described with reference to FIG. In FIG. 52, (a) and (b) are left and right image images being stereo-measured. The feature point 7a of (b) exists as the corresponding point candidate 7a on the straight line L1 of the image image of (a). Here, it is determined whether or not the corresponding point candidate is correct based on the color information around the feature point 7a and the corresponding point candidate 7a. In this case, the color information of the feature point 7a and the corresponding point candidate 7a is good. We use it as a corresponding point candidate. There may be a case where a more appropriate corresponding point exists outside the image image (a). In this case, the point corresponding to the feature point 7a when the imaging device moves and is measured from another viewpoint. Such an illusion point can be easily deleted by confirming that measurement can be performed again from another viewpoint and then converting it to normal CAD data.

具体的には、最初の1回の計測の段階では計測されれた点データに1回目というフラグを設けておき、別の視点から、場合によっては、3つの視点から厳しく判定するようにしても良いが、2回以上計測できた場合にそのフラグをリセットするようにする。もちろん、1回計測のみの点も確認表示することはできるようにして良いが、データ上は区別して管理するようにする。その上で対応点のずれによる計測誤差が大きいものは、輪郭線として、誤差がほとんどないものは、実際線として区別して管理する。輪郭線も実際線もいろいろな視点から撮影して計測を繰り返すことによって、最初は実際線と思われた安定な点も良く見たら輪郭線だったということもあるので、輪郭線と実際線を0か1で区別するのではなく、対応点のずれによる計測誤差の大きさでランク付けするようにしても良い。実際線も違った視点で数多く対応点の誤差が少なく計測されれば、実際線として安定な線分である可能性が高くなるので、こういう計測回数などの情報も点データとして管理するようにするのが良い。そして、トラッキングなどで使用する点は、できるだけ安定な実際線が良いので、そういう線、特徴点を容易に見分けることができるような実際線か輪郭線かの識別管理を行うようにするのが良い。   Specifically, a flag of the first time is provided in the measured point data at the first one measurement stage, and it may be determined strictly from another viewpoint, or in some cases from three viewpoints. Good, but reset the flag if you can measure more than once. Of course, it is possible to make it possible to confirm and display the point of only one measurement, but to manage the data separately. In addition, a measurement error due to the deviation of the corresponding point is managed as a contour line, and a measurement error with few errors is managed as an actual line. By photographing the contour line and the actual line from various viewpoints and repeating the measurement, it may have been the contour line if you first looked at the stable points that seemed to be the actual line. Instead of distinguishing between 0 and 1, ranking may be made based on the magnitude of the measurement error due to the shift of the corresponding points. If the actual line is measured from many different points of view with few errors in the corresponding points, there is a high possibility that the actual line is a stable line segment, so information such as the number of measurements is also managed as point data. Is good. The points used for tracking etc. should be real lines that are as stable as possible, so it is better to manage whether the lines or feature points can be easily identified. .

図52の(c),(d)は、同じ左右の画像イメージであるが、撮影対象に1個の直方体が追加されたシーンの例である。画像イメージ(d)の中の特徴点7bに対応する画像イメージ(c)の中の特徴点候補はL2線上に存在して対応点候補7bがある。ここで、特徴点7bと対応点候補7bの周辺の色情報を比較すると、色1と色2は違うが点7bから繋がっている色の境界線分は3本あるが、3本とも両側の色が異なる線分はないので、十分対応点候補と考えて良い。   (C) and (d) in FIG. 52 are examples of a scene in which the same left and right image images are added, but one rectangular parallelepiped is added to the shooting target. A feature point candidate in the image image (c) corresponding to the feature point 7b in the image image (d) exists on the L2 line and there is a corresponding point candidate 7b. Here, when the color information around the feature point 7b and the corresponding point candidate 7b is compared, there are three color boundary lines connected from the point 7b, although the color 1 and the color 2 are different. Since there are no line segments with different colors, it can be considered as a corresponding point candidate.

次に、図7の(e)と(f)の場合であるが、この場合は、画像イメージ(f)の特徴点7cに対応する画像イメージ(e)の中の点は、線分L3上に対応点候補7c、7dの2点が存在する。このような場合の処理も、まずは、同様に点から繋がる線分の左右の色情報を比較する。この場合で比較すると、(f)の特徴点7cからは線分7i,7j,7kの3本が繋がっていて、(e)の対応点候補7cからは線分7g、7hが、対応点候補7dからは線分7e、7fが繋がっている。色情報を比較する場合は、点に繋がっている色境界線分の点に向かって右と左を比較して、右が右どうし、左が左どうしで一致するか否かを見るようにする。そうすると、線分7kと線分7hが両側一致、線分7jと線分7gが片側一致、線分7iと線分7eが片側一致している。線分7iと線分7gや線分7fと7kも片側の色が一致しているが、これらについては、それそれの線分を重ね合わせようとするときの回転しなければならない角度が大きいので、通常のステレオ計測で考えられない所定の回転角度以上は除くような処理も入れて良い。その上で判断するようにしたとしても、2つの対応点候補7c,7dには、それぞれ少なくとも片側の色情報が非常に一致する線分が繋がっているのでそちらも対応点候補となり、絞り込まずにここでこれらの点は絞り込めないため処理を行わないようにして良い。この場合は、次に撮像装置が移動して別の視点から計測することで、対応点が本当に存在する場合には、そのときに計測できるようにすれば良い。また、更に絞り込む処理として、対応点候補7cと7dでの線分の色情報比較結果で対応点候補7dは線分1本であるが、対応点候補7cは線分7hと7gの2本が対応する色境界線分になっているので、その線分の数を判別の指標にして、この場合は対応点候補を7cに絞り込むようにしても良い。この対応点候補7cの場合には、ここでは候補として残ってステレオ計測して3次元の点のCADデータに変換することはできるが、実際には存在しない錯覚点であるため、次に撮像装置が移動して同様に計測されるまでは1回目のフラグが消えない状態でこのような点であることは識別することができる。計測した点周辺で別の視点から計測しているはずなのに、1回計測した点が存在しない場合には当該の点データは消去するようにしても良い。   Next, in the cases of (e) and (f) in FIG. 7, in this case, the point in the image image (e) corresponding to the feature point 7c of the image image (f) is on the line segment L3. There are two corresponding point candidates 7c and 7d. In the process in such a case, the left and right color information of the line segment connected from the point is similarly compared. When compared in this case, three line segments 7i, 7j, and 7k are connected from the feature point 7c of (f), and line segments 7g and 7h are connected point candidates from the corresponding point candidate 7c of (e). Line segments 7e and 7f are connected to 7d. When comparing color information, compare the right and the left toward the point of the color boundary line connected to the point, and see whether the right matches the right and the left matches the left. . Then, the line segment 7k and the line segment 7h coincide on both sides, the line segment 7j and the line segment 7g coincide on one side, and the line segment 7i and the line segment 7e coincide on one side. Lines 7i and 7g, and lines 7f and 7k have the same color on one side, but these have a large angle that must be rotated when they are overlapped. In addition, processing that excludes a predetermined rotation angle that cannot be considered in normal stereo measurement may be included. Even if the determination is made on that basis, the two corresponding point candidates 7c and 7d are connected to the line segments having the very same color information on at least one side. Here, since these points cannot be narrowed down, the processing may not be performed. In this case, if the corresponding point really exists, it can be measured at that time when the imaging device moves next and measures from another viewpoint. Further, as a further narrowing-down process, the corresponding point candidate 7d is one line segment in the color information comparison result of the line segments at the corresponding point candidates 7c and 7d, but the corresponding point candidate 7c includes two lines 7h and 7g. Since the corresponding color boundary line segment is used, the number of the line segments may be used as an index for determination, and in this case, the corresponding point candidates may be narrowed down to 7c. In the case of the corresponding point candidate 7c, it remains as a candidate here, and can be stereo-measured and converted into CAD data of a three-dimensional point. It can be identified that such a point is in a state where the first flag is not erased until is moved and measured in the same manner. If the point that has been measured once does not exist even though it should have been measured around the measured point, the point data may be deleted.

実際には、完全な対応点判別を行なおうとすると、いろいろな判別を行い、処理時間も長くなるので、簡略化した判別処理を行なってもよい。また、対応点探索で100%間違いないように処理するのは処理時間もかかり非常に大変になるので、間違った対応点で3D計測を行なってしまうと3次元の空間に実際には存在しない誤った3次元の点データが生成されるが、それを視点が移動する間に継続して同じ場所に同じ点が生成されるかをチェックすることによって、誤った対応点で計測した3D点であることを判別できるので、その関係を利用して、誤った対応点でステレオ計測してしまった3D計測点をキャンセルするような処理を入れても良い。   Actually, if a complete corresponding point determination is to be performed, various determinations are made and the processing time becomes longer. Therefore, a simplified determination process may be performed. In addition, since it takes a long time to process 100% of the corresponding points so that there is no mistake, if 3D measurement is performed at the wrong corresponding points, there is an error that does not actually exist in the three-dimensional space. 3D point data is generated, but it is a 3D point measured at an incorrect corresponding point by checking whether the same point is generated at the same place continuously while the viewpoint moves. Since this can be discriminated, a process for canceling a 3D measurement point that has been stereo-measured at an incorrect corresponding point may be inserted using the relationship.

また、判別の別の方法として、ステレオ計測を行なった左右の画像の対応点を左右それぞれの2次元の画像内でトラッキングを行い別の視点位置から再度同じ対応点どうしでステレオ計測をしようとすると、例えば、図52(e)のL3などの右画像の対応点による左画像上の線分L3の上に左の画像の対応点が乗らなくなり、線分L3から離れる関係になって、ステレオ計測できる対応点ではないということが視点が変わることによって判別することができるようになるので、その関係を利用して、誤った対応点でステレオ計測してしまった3D計測点をキャンセルするような処理としても良い。   As another method of discrimination, if the corresponding points of the left and right images subjected to stereo measurement are tracked in the left and right two-dimensional images, and stereo measurement is performed again from the same corresponding points from different viewpoint positions, For example, the corresponding point of the left image does not ride on the line segment L3 on the left image due to the corresponding point of the right image such as L3 in FIG. Since it is possible to determine that the corresponding point is not a corresponding point by changing the viewpoint, a process of canceling a 3D measurement point that has been stereo-measured at an incorrect corresponding point using the relationship It is also good.

ここでは、境界線分の色情報の比較を行っているが、感度を落として抽出される線分の量を少なくしたような場合には、マクロ的な手法もるので説明しておく。それは、線分に左右の色情報をもたせて比較するかわりに、色境界線分は特徴点に放射状にあつまるので、少し大きなエリアを想定して2次元の画像のマッチング(相関性)をとる方法でも良い。この場合、特徴点から放射状に広がるので領域は扇形あるいは三角形や四角形になる。半径はあらかじめ所定の微小領域として決めておけば良い。但し、対応する扇の放射線分の開き角度は対応候補の色境界線分の開き角度と異なるので、同じ形状になるように変形処理を行って同じ形、大きさにしてから扇や三角、微小四角領域などで2次元の相関マッチングを行うようにする。   Here, the color information of the boundary line segment is compared. However, when the sensitivity is lowered and the amount of the extracted line segment is reduced, a macro technique is also described. That is, instead of comparing the left and right color information in the line segment, the color boundary line segment is gathered radially at the feature points, so a two-dimensional image matching (correlation) is assumed assuming a slightly larger area. But it ’s okay. In this case, since the region spreads radially from the feature point, the region becomes a fan shape, a triangle, or a quadrangle. The radius may be determined in advance as a predetermined minute area. However, since the opening angle of the radiation of the corresponding fan is different from the opening angle of the color boundary line of the corresponding candidate, the fan, triangle, and minute are processed after deforming to the same shape and making it the same shape and size. Two-dimensional correlation matching is performed in a square region or the like.

次に、図53〜図66を用いて、2次元画像上で色境界線分の色情報などを用いてトラッキングを行う場合の対応点候補の絞込みの方法の一例を説明する。   Next, an example of a method for narrowing down corresponding point candidates in the case where tracking is performed using color information of color boundary lines on a two-dimensional image will be described with reference to FIGS.

図53の(A)は同じカメラの移動前の画像イメージ、(B)は移動後の画像イメージを示している。ここでは、画像イメージ(A)の中の特徴点8cに着目してその対応点候補を画像イメージ(B)の中より探索して絞り込むものである。特徴点8cには色境界線分8bと8dが繋がっている。今、画像イメージ(A)を撮影してから、所定の時間間隔で画像イメージ(B)を撮影したとすると、その時間間隔の間に撮像装置が移動することによって特徴点8cの対応点候補の移動量が推定される。処理速度の関係から決まる撮影の時間間隔と撮像装置のその応用システム上での最大移動速度、回転速度などを考慮すれば、ある所定の時間内に画像イメージ内で移動する量は推定できるので、その移動量の内側を対応点候補の探索範囲と考える。この実施例では、特徴点8cの周囲に半径d/2の円を考えてその中で探索するようにしても良いし、領域は円ではなく1辺の長さがdの正方形としても良い。長さdが撮像装置の移動速度と処理速度を考慮して決める探索範囲の大きさである。当然のことであるが、処理速度を上げれば上げるほど探索領域は小さくすることができるので、処理速度は可能な限り早くするのが良い。また、特殊な場合は微小領域が大きくなって、最大は画面エリア全体の中から対応点候補を絞り込む場合においてもここで説明する方法で実施することができる。   53A shows an image image before movement of the same camera, and FIG. 53B shows an image image after movement. Here, focusing on the feature point 8c in the image (A), the corresponding point candidate is searched and narrowed down in the image (B). Color boundary lines 8b and 8d are connected to the feature point 8c. Assuming that the image image (A) is taken and then the image image (B) is taken at a predetermined time interval, the image pickup apparatus moves during the time interval, so that the corresponding point candidate of the feature point 8c is obtained. The amount of movement is estimated. Considering the shooting time interval determined from the relationship of processing speed and the maximum moving speed, rotation speed, etc. on the application system of the imaging device, the amount of movement in the image image within a predetermined time can be estimated. The inside of the movement amount is considered as the search range for corresponding point candidates. In this embodiment, a circle having a radius of d / 2 may be considered around the feature point 8c, and the search may be performed in the circle, or the area may be a square having one side length d instead of a circle. The length d is the size of the search range determined in consideration of the moving speed and processing speed of the imaging device. Naturally, the higher the processing speed, the smaller the search area, so the processing speed should be as fast as possible. Further, in a special case, the minute area becomes large, and the maximum can be implemented by the method described here even when the corresponding point candidates are narrowed down from the entire screen area.

ここでは、画像イメージ(B)の中の探索領域内には特徴点候補の点として3点8f,8g,8hが存在している場合の例を示している。領域内の候補を探索したらば、次の処理としては、色境界線分の両側の色情報が少なくとも片側が精度良く一致するものを対応点候補として残すようにする。これは、ステレオ計測の場合は線上から候補を探索した代わりにトラッキングでは微小エリア内から探索するところが違うが、その後の対応点候補を絞込み処理は、基本的には同じ方法を適用することができる。   Here, an example is shown in which three points 8f, 8g, and 8h exist as feature point candidate points in the search area in the image (B). If a candidate in the area is searched, the next process is to leave as a corresponding point candidate that the color information on both sides of the color boundary line segment matches at least one side with high accuracy. This is because, in the case of stereo measurement, instead of searching for candidates from the line, tracking is performed by searching from within a very small area. .

図53の(a)では、対応点候補8fに特徴点8cを重ね合わせて、それらの点に結ばれる色境界線分どうしの左右の色情報を比較する。この場合は、対応点候補8fに繋がる線分は3本で特徴点8cに繋がる線分は2本であるが、繋がる線分の本数はこの視点からの撮影で必ずしも対応点でも同じ色境界線分が抽出されるとは限らないので、ここでの処理では、あまり気にする必要はない。   In FIG. 53 (a), the feature point 8c is superimposed on the corresponding point candidate 8f, and the left and right color information of the color boundary line segments connected to these points are compared. In this case, three line segments are connected to the corresponding point candidate 8f and two line segments are connected to the feature point 8c. Since minutes are not always extracted, there is no need to worry about this process.

同様に、(b)では、対応点候補8hに特徴点8cを重ね合わせて、そこから繋がる色境界線線分の両側の色を比較する。   Similarly, in (b), the feature point 8c is superimposed on the corresponding point candidate 8h, and the colors on both sides of the color boundary line segment connected from there are compared.

同様に、(c)では、対応点候補8gに特徴点8cを重ね合わせて、そこから繋がる色境界線分の両側の色情報を比較する。そして、左右の色情報の少なくとも片側が精度良く同じ色で一致した場合にはその線分は対応線分候補する。そして次の絞込み処理を行う。   Similarly, in (c), the feature point 8c is superimposed on the corresponding point candidate 8g, and the color information on both sides of the color boundary line connected from there is compared. When at least one side of the left and right color information matches with the same color with high accuracy, the line segment is a corresponding line segment candidate. Then, the next narrowing process is performed.

次の処理は、ステレオ計測の場合にも適用すると同じであるが、1本の色境界線分を合わせるときにその線分に繋がる他の点の同じ変換結果がどれ程ずれるかという指標で絞り込むようにしても良い。図54の(a)の特徴点8aを対応点候補9bに合わせて線分8a8cを線分9b9cに合わせるようにする変換式を求めて同じ変換を線分8c8eについて行ったときにその写像線分と線分9c9dとの一致度をδθの回転量の誤差とδrの長さの誤差などの指標で行うものである。 The following processing is the same as that applied to stereo measurement, but when one color boundary line segment is combined, it is narrowed down by an index indicating how much the same conversion result of other points connected to that line segment is shifted. You may do it. When a conversion equation is obtained to match the feature point 8a of FIG. 54A with the corresponding point candidate 9b and the line segment 8a8c with the line segment 9b9c , and the same conversion is performed on the line segment 8c8e , the mapping line segment is obtained. And the line segment 9c9d are measured by using an index such as an error in the rotation amount of δθ and an error in the length of δr.

図54の(b)は、特徴点8aを対応点9fに合わせるようにして、同様に線分8a8cを線分9f9gに合わせるように変形させたときに、線分8c8eの写像と線分9g9hとの一致度をδθの回転量の誤差とδrの長さの誤差を求めようとする例である。この指標の大小で絞込み、次の絞込み処理としては形の一致度として更に繋がる線分のマッチング性の高いものを選ぶようにする。それから、トラッキングの場合には回転も大きくなるが、全体が基本的には同じように変形されるので、全体の傾向の一致度を変換式が似ているか否かで大きく違うものは除くように処理する。特にマッチング度の高い変換式に近い変換式を有する対応点候補は対応点候補として残すように処理する。 (B) in FIG. 54, so as to match the characteristic points 8a on the corresponding point 9f, when deformed to match likewise the segment 8a8c the line 9F9g, and mapping segment 8c8e and the line segment 9g9h In this example, an error in the rotation amount of δθ and an error in the length of δr are obtained. The index is narrowed down according to the size of the index, and the next narrowing-down process is performed by selecting a line having a high matching property as a line matching degree. Then, in the case of tracking, the rotation also becomes large, but the whole is basically deformed in the same way, so that the difference in the degree of coincidence of the whole tendency is excluded depending on whether the conversion formula is similar or not. Process. In particular, processing is performed such that a corresponding point candidate having a conversion formula close to a conversion formula having a high matching degree is left as a corresponding point candidate.

このように、絞込みを行う方法はいろいろ考えられるが、あらかじめルール(処理の内容と優先度)を決めておき、絞り込めるまで絞込みを行うようにすれば良い。そして、最後にどうしても絞り込めないで複数候補が残った場合には、トラッキングの場合には、次のように処理することも可能である。それは複数残った場合でも、その他に良く一致する3点の対応点が見付かっている場合には、その3点を用いてトラッキング行えば良い。3点以上ある場合には、複数の対応点候補の中より3点を選んでその3点の座標変換の計算式を求めて3点以外の他の点をその計算式を使って写像させて精度良く一致する点の数を指標として、その指標の一番良くなる3点を使ってトラッキングするようにするが、このときに、1点の特徴点の対応点候補が絞り込めないで複数残った場合は、その点は更に複数残った対応点候補も3点の組み合わせ選択の中に含めて指標を調べてみるようにしても良い。特に、これは、抽出される特徴点が少ないような場合には全体として対応点候補も少ないときなどは1点の対応点を絞り込めない中に本当の精度の良い対応点が存在する場合もあるので有効な処理になる。   As described above, various methods of narrowing down are conceivable. However, it is only necessary to determine rules (processing contents and priority) in advance and narrow down until narrowing down. When a plurality of candidates remain without being able to be narrowed down at the end, in the case of tracking, the following processing is also possible. Even if there are a plurality of remaining points, if three corresponding points that match well are found, tracking may be performed using the three points. If there are more than 3 points, select 3 points from multiple corresponding point candidates, find the calculation formula for the coordinate conversion of those 3 points, and map other points using the calculation formula other than 3 points The number of points that match with accuracy is used as an index, and tracking is performed using the three best points of the index. At this time, a plurality of corresponding point candidates of one feature point cannot be narrowed down and remain. In this case, a plurality of corresponding point candidates that remain may be included in the combination selection of three points, and the index may be examined. This is especially true when there are few feature points to be extracted, and when there are few corresponding point candidates as a whole, there is a case where there is a real highly accurate corresponding point while one corresponding point cannot be narrowed down. Because there is, it becomes effective processing.

また、図55〜図57を用いて、色境界線分の色情報のみではなく、色境界線分の構成する面の色情報も積極的に利用して対応点候補あるいは対応面候補の絞込みを行う方法の一実施例を説明する。このような絞込みの方法はステレオ計測の場合は線分上で、トラッキング探索の場合は推定エリア内での探索になるが、同じように適用できる手法である。また、色境界線分のみでの絞込みでは、線分の抽出感度を下げて大きな変化点のみを抽出して対応点探索を行うマクロ的マッチングと線分の抽出感度を上げて微妙な色境界線を抽出してその線分の対応点を絞り込もうとするミクロ的マッチングを組み合わせて処理を行うことも考えられるが、ここで説明する手法は、例えば、同じような模様が複数存在する撮影対象の中でどの模様が別の視点から撮影された画像の中の対応する模様かの対応付けをしたいような場合にも有効な手法であり、マクロ的マッチングには面の色情報マッチングを行い、ミクロ的マッチングに色境界線分のマッチングを行うようにした場合の一実施例である。この手法の場合は色境界線分は面データを構成するとともに、色境界線分が閉ループ、すなわち、面を構成しないような場合も、全ての色境界線分は面データを構成するか、あるいは面データに付いているという関係を利用してCADデータを管理するようにすることで、どの線分はどの面に付いている線分かが処理の中でいつでも参照できるようになるので、面によるマクロ的マッチングから線分によるミクロ的マッチングへ、マクロ的絞り込み情報を有効に利用してミクロ的マッチングの処理へ繋げることも容易に行えるようになる。   In addition, using FIG. 55 to FIG. 57, not only the color information of the color boundary line segment but also the color information of the surface constituting the color boundary line segment is actively used to narrow down corresponding point candidates or corresponding surface candidates. An example of the method to perform is described. Such a narrowing-down method is on the line segment in the case of stereo measurement, and in the estimation area in the case of tracking search, but can be applied in the same manner. Also, in narrowing down only the color boundary line segment, the subtractive color boundary line is increased by reducing the line segment extraction sensitivity and extracting only large change points and searching for corresponding points and increasing the line segment extraction sensitivity. It is also possible to perform processing by combining micro-matching that tries to narrow down the corresponding points of the line segment, but the method described here is, for example, an object to be photographed that has multiple similar patterns This method is also effective when you want to associate which pattern in the image taken from a different viewpoint with the corresponding pattern in the image. This is an example in the case where color boundary line matching is performed for microscopic matching. In this method, the color boundary line segment constitutes surface data, and even when the color boundary line segment is closed loop, i.e., does not constitute a surface, all color boundary line segments constitute surface data, or By managing CAD data using the relationship that is attached to surface data, it is possible to refer to which line segment is attached to which surface at any time during processing. From the macro matching by the micro to the micro matching by the line segment, it is possible to easily use the macro narrowing information to connect to the micro matching processing.

図55は、ある画像の色境界線分を抽出した結果得られた線分の一部分を示している。多数の特徴点を色境界線分が抽出されている。例えば、点9i,点9jは特徴点であり、線分9i9jは色境界線分の一つである。 FIG. 55 shows a part of a line segment obtained as a result of extracting a color boundary line segment of a certain image. Color boundary lines are extracted from many feature points. For example, the points 9i and 9j are feature points, and the line segment 9i9j is one of color boundary line segments.

ここで、図55の線分の抽出方法は、後で図68を用いて詳細は説明するが、最も正確に感度良く色境界線分の抽出できる色の変曲点を抽出するような手法を用いる。これは、ミクロマッチングはより高精度で対応点を求めるので、それに使用する線分はより正確に抽出されたものが良いからである。但し、この手法で行うと、感度、精度が良いために、閉ループを構成しない線分も抽出される。端点9p,9qと間の部分は色がグラディエーションのように徐々に変化しているような部分で色の変曲点として抽出されていない状況である。面によるマクロマッチングを行うためには面を抽出する必要がある。   The line segment extraction method in FIG. 55 will be described in detail later with reference to FIG. 68. However, a method for extracting an inflection point of a color that can extract the color boundary line segment most accurately and with high sensitivity is used. Use. This is because micro-matching obtains corresponding points with higher accuracy, and the line segments used for the matching should be extracted more accurately. However, if this method is used, line segments that do not constitute a closed loop are also extracted because of high sensitivity and accuracy. The portion between the end points 9p and 9q is a portion where the color is gradually changing like gradient, and is not extracted as a color inflection point. In order to perform macro matching by surface, it is necessary to extract the surface.

図56の(a)〜(d)は、色の面の抽出方法の例をいくつか説明する図である。図56の(a)の例は、閉ループになっていない色線分の端点9pと端点9qの例えば輝度レベルの平均値の輝度レベルの等高線を抽出する方法によって閉ループである面9Aを抽出した例である。端点9pと端点9qの輝度と平均輝度が一致しない場合は、等高線からは端点9pと端点9qを通らない閉ループである面9Aが抽出される。   56 (a) to 56 (d) are diagrams for explaining some examples of color surface extraction methods. The example of FIG. 56A is an example in which the surface 9A which is a closed loop is extracted by a method of extracting contour lines of, for example, the average brightness level of the end points 9p and 9q of the color line segment which is not in the closed loop. It is. When the luminance of the end point 9p and the end point 9q does not match the average luminance, a surface 9A that is a closed loop that does not pass through the end point 9p and the end point 9q is extracted from the contour line.

また、図56の(b)は、色境界線分9n9pの色境界の輝度値で等高線を抽出する方法で閉ループである面9Aを抽出した例である。この場合、面9Aの等高線は、色境界線分9n9pに一致している例である。しかし、その他の厳密に抽出した色境界線分と閉ループにはなるが厳密性の劣る等高線として抽出した別の色境界線分は一致していないという例である。 FIG. 56B shows an example in which the surface 9A that is a closed loop is extracted by a method of extracting contour lines from the luminance values of the color boundary of the color boundary line segment 9n9p . In this case, the contour line of the surface 9A is an example that coincides with the color boundary line segment 9n9p . However, this is an example in which the other color boundary line segment extracted as a contour line which is a closed loop but inferior in strictness does not match the other color boundary line segment which is strictly extracted.

図56の(c)の例は、厳密に抽出した色境界線をそのまま生かして閉ループになっていない端点9p,9qを結ぶように処理する場合の一例である。端点9pと9qをむずぶ線分9n9pは、厳密に抽出された色境界線分とは区別するために、閉ループ化のための仮想線分として種類を区別して線分データは管理するようにする。閉ループを生成するためにどのように仮想線分を結ぶかはいろいろな方法があるが、ここでは、一例を説明する。どのように閉ループが構成できるかの組み合わせはたくさんあるので、それぞれの特徴点から近くの特徴点を結んで良いかどうかを判定しながら適切な仮想線分を得るようにする。例えば、特徴点9m,9nを結んでも閉ループは生成できるが、この場合、例えば、仮想線分9m9nの左右の法線方向を調べて最も近い境界線分に至るまでの平均色を左右で求めて、左右の平均色が似ている場合は同じ色の平面内に仮想線分9m9nを結ぼうとしていることがわかるので、その場合には仮想線分9m9nは結ばないようにするなどの方法である。そのようにして、いろいろな組み合わせを行い、最も左右の平均色が違う部分を仮想線分として引くようにすると、同じ色の閉ループ内に仮想境界線分を引かないようにすることができる。この手法であれば、厳密な色境界線分と面データの境界線分は一致するようにして全てのエリアを面データに区切ることも可能となる。 The example of (c) of FIG. 56 is an example in the case of processing so as to connect the end points 9p and 9q that are not in the closed loop by making use of the strictly extracted color boundary line as it is. In order to distinguish the line segment 9n9p that overlaps the end points 9p and 9q from the color boundary line segment that is strictly extracted, the line segment data is managed by distinguishing the type as a virtual line segment for closed loop. . There are various methods for connecting the virtual line segments in order to generate a closed loop. Here, an example will be described. Since there are many combinations of how a closed loop can be constructed, an appropriate virtual line segment is obtained while determining whether or not a nearby feature point can be connected from each feature point. For example, a closed loop can be generated by connecting the feature points 9m and 9n. In this case, for example, the left and right normal directions of the virtual line segment 9m9n are examined, and the average color until the nearest boundary line segment is obtained on the left and right sides. , if the average color of the left and right are similar since it is found that it is about Musubo virtual line 9m9n in the plane of the same color, in this case is a method such as to prevent tied virtual line 9m9n . In this way, by performing various combinations and drawing the most different left and right average color portions as virtual line segments, virtual boundary line segments can be prevented from being drawn in a closed loop of the same color. With this method, it is possible to divide all areas into plane data so that the exact color boundary line segment and the boundary line segment of the plane data coincide.

図56の(d)は、別の例で、単純に同じような色の部分を所定の輝度レベルで等高線を引いて面を抽出するようにした例である。厳密な色境界線分と面データの境界線分は一致しない。この場合、厳密に抽出した色境界線分は、全てどれかの面の中に存在しているので、その関係を使って、最初に面でのマクロマッチングにより同じ色、同じ形の面を選択するようにして対応面絞込みを行った後、対応する面の中という限られたエリアの中でミクロマッチングにより厳密に抽出された色境界線分の対応線分、対応点の絞込みを行えるようにすることができる。これは、厳密な色境界線を抽出して精度の高い視覚情報処理システムを得たい場合の一手法であるが、勿論、より、単純な視覚情報処理システムとしては、厳密に抽出した色境界線分は用いないで、全ての線分を色境界の等高線で抽出して閉ループの面を構成する線分のみで処理をするようにすることでも良い。この場合は、生成される3次元CADデータの精度もそれなりのものとなる。   FIG. 56D shows another example in which a surface is extracted by simply drawing a contour line of a similar color portion at a predetermined luminance level. The exact color boundary and the boundary of the surface data do not match. In this case, since all the extracted color boundary lines exist in any one of the surfaces, the surface of the same color and the same shape is first selected by macro matching on the surface using the relationship. After narrowing down the corresponding surface in this way, it is possible to narrow down the corresponding line segment and corresponding point of the color boundary line segment that is strictly extracted by micro matching in the limited area of the corresponding surface. can do. This is a method for obtaining a precise visual information processing system by extracting strict color boundary lines. Of course, a simpler visual information processing system has a strictly extracted color boundary line. Instead of using minutes, all line segments may be extracted with contour lines of color boundaries, and processing may be performed only with the line segments constituting the closed loop surface. In this case, the accuracy of the generated three-dimensional CAD data is also appropriate.

次に、図57の(a)〜(f)を用いて、同じ模様が一つの画像イメージの中に複数存在する場合の対応面、対応線分、対応点の絞込みの方法の一例を説明する。   Next, with reference to FIGS. 57A to 57F, an example of a method for narrowing down corresponding surfaces, corresponding line segments, and corresponding points when a plurality of the same patterns exist in one image image will be described. .

図57の(a)は、ある視点から撮影した画像情報の色境界の閉ループを抽出した画像イメージの中の一部分を示す。抽出方法は、ここでは、先に説明した図56の(c)の方法で厳密な色境界線分を利用して閉ループの面データを生成した状態を示す。図57の(c)は、視点を少し移動して同様な処理を行った画像イメージの対応する部分を示すが、画像イメージは、視点が少し移動したため斜めから見たように変形している状況を示している。   FIG. 57A shows a part of an image image obtained by extracting a closed loop of color boundaries of image information taken from a certain viewpoint. Here, the extraction method shows a state in which closed-loop surface data is generated using a strict color boundary line by the method of FIG. 56C described above. FIG. 57 (c) shows a corresponding part of an image image obtained by performing a similar process by moving the viewpoint a little, but the image image is deformed as seen from an angle because the viewpoint has moved a little. Is shown.

ここで、最初の処理結果(a)の色境界特徴線分、特徴点の対応点が処理結果(c)の中から探索して対応候補を絞り込む場合を考える。ここれは、マクロマッチングとして、面9Aの対応面を探索する場合で説明する。まず、ステップ1では、処理結果(a)の中の面9Aの図形データを変形処理させながら処理結果(c)の図形データである面9A,9B,9C,…,9L,…の全ての面とのマッチングをとって一番マッチングの高いもの、他の面のマッチングにおける変形処理の係数で同じ傾向にあるか否かなどで絞り込むと、処理結果(c)の中の面9Aと面9Gが同じ程度に非常に良くマッチングするというマッチング結果が得られる。ここでの変形処理とは、図形を透明の平面ガラスの上に置いて、そのガラス板を持って、前後左右に傾けたり、遠ざけたり近づけたり、あるいは、回転させたりして一致するようにする処理であり、通常の座標変換処理でx,y,zの平行移動量とα,β,γの方向余弦の6つのパラメータを調整することに相当するものである。これらの係数の傾向を見る場合には、傾向は、撮影距離の大小によって異なるので同じ近傍であれば同じ傾向にあり、また、距離に応じた係数の変化傾向はあるが、撮影画像全体で同じ係数になるとは限らないので注意を要する。また、処理を簡略化するために、変形度合いの少ない場合、すなわち、2つの撮影視点の変化がわずかな場合には、対応点探索の精度が多少低下するために対応点の得られる数は減る場合もあるが、省略する方法を用いても良い。このステップ1では、処理結果(c)の面9Aと9Gの2つの対応面候補が得られる。これは、複数の同じような模様が並んでいるようなシーンを撮影するような場合は、2つに限らず、複数個の対応面候補が残る。   Here, let us consider a case where corresponding points of the color boundary feature line segment and feature point of the first processing result (a) are searched from the processing result (c) to narrow down correspondence candidates. This will be described in the case of searching for a corresponding surface of the surface 9A as macro matching. First, in step 1, all the surfaces 9A, 9B, 9C,..., 9L,... That are the graphic data of the processing result (c) while transforming the graphic data of the surface 9A in the processing result (a). If matching is performed with the one with the highest matching and the coefficient of the deformation processing in the matching of the other surface is the same or not, the surfaces 9A and 9G in the processing result (c) are Matching results are obtained that match very well to the same extent. Here, the transformation process is to place a figure on a transparent flat glass, hold the glass plate, tilt it back and forth, left and right, move it away, bring it closer, or rotate it so that they match. This is equivalent to adjusting the six parameters of the x, y, and z parallel movement amounts and the α, β, and γ direction cosines in a normal coordinate conversion process. When looking at the tendency of these coefficients, the tendency varies depending on the shooting distance, so if they are in the same vicinity, they tend to be the same. Note that it is not always a coefficient. Also, in order to simplify the processing, when the degree of deformation is small, that is, when the change in the two shooting viewpoints is slight, the accuracy of the corresponding point search is somewhat lowered, and the number of corresponding points obtained is reduced. In some cases, an omitted method may be used. In this step 1, two corresponding surface candidates of the surfaces 9A and 9G of the processing result (c) are obtained. This is not limited to two when a scene where a plurality of similar patterns are arranged, but a plurality of corresponding surface candidates remain.

そこで、次の処理として、ステップ2を実行する。ステップ1では、処理結果(a)の面9Aのみでマッチング処理を行ったが、ここでは、処理結果(a)の面9Aの境界周辺に存在する面まで含めた面でのマッチング処理を行う。この例の場合は、処理結果(a)の面9Aの周囲には、面9B、面9C、面9Dの3つがあるので、それぞれ、1面づつを組み合せて、マッチング処理を行うようにする。   Therefore, step 2 is executed as the next processing. In step 1, matching processing is performed only on the surface 9A of the processing result (a), but here, matching processing is performed on a surface including the surface existing around the boundary of the surface 9A of the processing result (a). In the case of this example, there are three surfaces 9B, 9C, and 9D around the surface 9A of the processing result (a). Therefore, the matching processing is performed by combining one surface each.

具体的には、図57の(d),(e),(f)に示すように、それぞれ変形処理を行ってマッチング処理を行う。その結果、変形処理(d),(f)は、処理結果(a)の中にも同じ模様構成になっているため一致度が高くなるが、変形処理(e)の結果では、処理結果(c)の面9A側ではマッチング度が高くなるが、面9G側では、処理結果(a)の面9Cと処理結果(c)の面9Jとは違う色、形状の面であるために、マッチング度が低くなり、その結果、処理結果(a)の中で2つ残っていた対応面候補の面9Aと面9Gのうち、面9Aの方がよりそれらしいということで絞り込むことが可能となる。但し、ここで注意を要することは、変形処理(d)と変形処理(f)ではマッチングしているので、厳密には、面9Gもまだ対応面候補である可能性がある。それは、面9Aと面9Cの境界線分が背景との輪郭線である場合は対応する面でも一致しない場合があるからである。そういうことから、処理としては、周囲の面を一つづく組み合わせて変形処理を行った結果、一つでもマッチング度の高い結果がある場合にはまだ対応点候補として残しておき、次の処理として、一致したものは、更に周囲の隣接面を加えて同じような処理を組み合わせる面を増やしていきながら行うようにする。同じ模様が密集している場合には、一つの面(ここでは面9A)の回りの面をどんどん組み合わせて広い複数面どおしのマッチング処理を行うようにする。そして、画像シーンの末端に違う模様が存在すれば、そこまで含めたマッチング処理に拡大していけば、マッチングする対応面候補とそうではないものを絞り込むことが可能となる。但し、撮影した画像シーン内の全てが同じ模様のパターンで埋まっているような場合は、この手法を適用しても対応面を絞り込むことはできない。これは理論的に絞り込めない画像情報ということになるので、そのような場合には、処理をしないようにして良い。このようにして、複数同じ模様が存在する場合でもその同じでない範囲まで広げたマクロマッチングで対応面を絞り込むことが可能となる。対応面が絞り込めたらば、その面に付いている線分どおしのミクロマッチング処理をその対応する面内で行うことによって、詳細部分を抽出している厳密な色境界線分、閉ループになっていない色境界線分についても対応線分、対応点を絞り込みすることが可能となる。ここで、線分が面に付いているというデータの管理上の概念は、本手法などを用いて3次元CADデータを生成したり、より精度が良くなった場合に更新したりする場合には、処理対象の面や線分のデータを容易に参照できるようにするために有効な手法である。   Specifically, as shown in (d), (e), and (f) of FIG. 57, the deformation process is performed and the matching process is performed. As a result, the deformation processes (d) and (f) have the same pattern configuration in the processing result (a), and thus the degree of coincidence is high. However, in the result of the deformation process (e), the processing result ( On the surface 9A side of c), the degree of matching is high, but on the surface 9G side, the surface 9C of the processing result (a) and the surface 9J of the processing result (c) have different colors and shapes. As a result, it becomes possible to narrow down the fact that the face 9A is more suitable among the face 9A and the face 9G of the two corresponding face candidates remaining in the processing result (a). . However, it should be noted here that the deformation process (d) and the deformation process (f) match each other, and strictly speaking, the surface 9G may still be a corresponding surface candidate. This is because if the boundary between the surface 9A and the surface 9C is a contour line with the background, even the corresponding surface may not match. Therefore, as a result of performing deformation processing by combining the surrounding surfaces one by one as a process, if there is even one result with a high matching degree, leave it as a corresponding point candidate, and as the next process, Matching is performed while increasing the number of surfaces to which similar processing is combined by adding adjacent neighboring surfaces. When the same pattern is densely packed, the surfaces around one surface (here, the surface 9A) are combined to perform matching processing for a plurality of wide surfaces. If there is a different pattern at the end of the image scene, it is possible to narrow down the matching surface candidates to be matched and those that are not, if the matching process is expanded to that extent. However, if all the captured image scenes are filled with the same pattern, the corresponding surface cannot be narrowed down even if this method is applied. Since this is image information that cannot theoretically be narrowed down, in such a case, the processing may not be performed. In this way, even when a plurality of the same patterns exist, the corresponding surface can be narrowed down by macro matching expanded to the non-identical range. Once the corresponding surface has been narrowed down, by performing micro-matching processing for each line segment attached to the surface within the corresponding surface, the exact color boundary line segment that extracts the detailed portion, closed loop It is possible to narrow down corresponding line segments and corresponding points even for color boundary line segments that are not formed. Here, the concept of data management that a line segment is attached to the surface is the case where 3D CAD data is generated using this method or when the accuracy is improved. This is an effective technique for making it easy to refer to the processing target surface and line segment data.

最初のCADデータが生成される前の最初には、背景という仮想面を定義して、何か生成された線分データや面データは、その背景という仮想面に付いているという考え方からデータを管理していくようにする。そして、線分は、閉ループになればそれは面データになるので、この面データも背景という仮想面に付いている面データとして管理する。更に、その面の中の線分が閉ループになり面データが生成された場合には、背景という仮想面データについている面データにその面は付いているということになる。このように、一番背景の仮想面データを頂点として、その下に線分データや面データが存在して、各面データの下には同様に線分データや面データが存在するというツリー状のデータ管理を行うことで、参照したい処理対象のCADデータを容易に参照できる。ここで、マクロマッチングのために引いた仮想線分は仮想線分として、また、仮想線分によって閉ループとなった面データはその段階ではまだ仮想面データであるので、実際の線分データや面データとは区別して管理するようにして、実際にモニタ表示する場合には仮想線分や仮想面は表示しないようにするのが、実際の情景に対応したCADデータになる。但し、形状データとしては、仮想線分や仮想面の処理の上で有効に使用できる場合は使用すれば良いので、どちらのデータも管理するが、区別して管理するようにするのが良い。また、本手法のように、仮想線分や仮想面データを生成して、各画像シーンの写る物体の全てが閉ループの図形になって表現するようにした場合には、厳密な色境界線分のみで処理すると閉ループでない線分から閉ループ図形に変化し、また、再度閉ループでない線分に変化するような場合の処理(詳細は図 14を用いて後述する処理)のようなことは行わないようにしても良い。このときに各面データが面を構成する線分だけではマッチングなどの処理速度が遅くなる場合もあるので、高速化のために、各閉ループ図形の図心、面積、最大の縦横長さ、週長さ、凹凸の方向ベクトルなどを求めるようにして、閉ループ基本図形のマッチング照合を短時間に行えるようにしても良い。   First, before the first CAD data is generated, a virtual surface called the background is defined, and the generated line segment data and surface data are taken from the idea that the virtual surface called the background is attached to the data. Try to manage. Since the line segment becomes surface data when it becomes a closed loop, this surface data is also managed as surface data attached to the virtual surface called the background. Further, when the line segment in the surface becomes a closed loop and the surface data is generated, the surface is attached to the surface data attached to the virtual surface data called the background. In this way, the virtual background data of the background is the vertex, line data and surface data exist below it, and the line data and surface data similarly exist below each surface data. By performing the data management, it is possible to easily refer to the CAD data to be processed to be referred to. Here, the virtual line segment drawn for macro matching is a virtual line segment, and the surface data that is closed loop by the virtual line segment is still virtual surface data at that stage, so the actual line segment data and surface The CAD data corresponding to the actual scene is such that management is performed separately from the data so that the virtual line segment and the virtual plane are not displayed when the monitor is actually displayed. However, the shape data may be used if it can be used effectively in the processing of the virtual line segment or the virtual plane, so both data are managed, but it is preferable to manage them separately. In addition, as in this method, virtual line segments and virtual plane data are generated and all objects in each image scene are represented as closed-loop figures. If the processing is performed only with a line segment, the line segment is changed from a non-closed loop to a closed-loop figure, and the process when changing to a non-closed-loop line again (details will be described later with reference to FIG. 14) is not performed. May be. At this time, the processing speed of matching etc. may be slow if each surface data consists only of the line segments that make up the surface, so the centroid, area, maximum vertical / horizontal length of each closed loop figure, The matching of the closed-loop basic figure may be performed in a short time by obtaining the length, the concavo-convex direction vector, and the like.

このようにマクロマッチングとミクロマッチングを行うようにするのが良いのであるが、感度を上げてミクロマッチング用の色境界線分を抽出しても微妙な線分を抽出しているのでわずかに視点が動くとミクロマッチングの段階でもマッチングがとれない場合もある。それは、視点変化の影響(ノイズ)の方が検出したい色境界線分より大きいということによる。そういう場合には、レーザー光を投射したりして、形状の微妙な凸凹を安定な色境界線を積極的に作って検出するようにしても良い。マクロマッチングは、感度を下げて、すなわち、厳密性を犠牲にしてラフに行う処理に相当するので処理速度も速くできることから、感度をリモートで変更(例えば、視覚情報処理装置へのコマンド指令などで変更、マッチングもマクロかミクロかをコマンドで指令できるようにしても良い。)できるようにしておくことにより、通常は、ラフなマクロマッチングにより粗いCADデータを生成しておき、必要なときに必要な個所の感度を上げてミクロマッチングによる詳細なCADデータを生成するようにしても良い。マクロマッチングとミクロマッチングの順番は逆に行っても良い。すなわち、最初からマクロマッチングを必ず行うようにするのではなく、最初にミクロマッチングで複数候補が絞れ込めない場合にマクロマッチングにより絞り込むようにしてマクロマッチング不要時の処理速度の高速化を図るようにしても良い。   It is better to perform macro matching and micro matching in this way, but even if the sensitivity is increased and the color boundary line segment for micro matching is extracted, a subtle line segment is extracted, so a slight viewpoint If the moves, matching may not be possible even at the micro-matching stage. This is because the influence (noise) of the viewpoint change is larger than the color boundary line segment to be detected. In such a case, a laser beam may be projected to detect irregularities with delicate shapes by actively creating stable color boundary lines. Macro matching is equivalent to processing that lowers sensitivity, that is, rough processing at the expense of strictness, so the processing speed can be increased, so sensitivity can be changed remotely (for example, by command commands to visual information processing devices, etc.) By making it possible to specify whether the change and matching is also macro or micro, it is usually possible to generate coarse CAD data by rough macro matching and necessary when necessary It is also possible to increase the sensitivity at various points and generate detailed CAD data by micro matching. The order of macro matching and micro matching may be reversed. In other words, macro matching is not always performed from the beginning, but when multiple candidates cannot be narrowed down first by micro matching, the processing speed is increased when macro matching is unnecessary by narrowing down by macro matching. May be.

また、図58〜図66を用いて、別の手法のマクロマッチングの方法として、周囲の特徴点との関係を利用して絞り込みを行う基本的な方法の例を説明する。このような絞込みの方法は、ステレオ計測の場合は線分上で、トラッキング探索の場合は推定エリア内での探索で同じように適用できることは勿論であるが、その他にも、探索時に用いるCADデータに変換した後の2次元模様や3次元形状のパターンマッチングで相関性の高い対象部分を見つけるときにも適用可能な手法である。   In addition, an example of a basic method for performing a narrowing down using a relationship with surrounding feature points will be described as another macro matching method using FIGS. 58 to 66. Such a narrowing-down method can be applied in the same way for searching in the estimation area in the case of stereo measurement and in the estimation area in the case of tracking search. This method can also be applied when finding a highly correlated target portion by pattern matching of a two-dimensional pattern or a three-dimensional shape after conversion to.

図58は、撮像装置から入力された画像情報を2次元のCADデータに変換したイメージを示す。ここでは、理解を容易にするために、極めて単純な画像情報を処理したイメージで説明する。画像情報の全体は、閉ループのそれぞれの色情報を有した図形9M,9N,9P,9Q,9R,9S,9T,9Uの8つに色境界線分によって分割処理されている。ここでは、厳密な色境界線分のみによって閉ループ図形が生成されているが、勿論、仮想線分や仮想面を定義しても良い。また、画像情報のフレーム枠の部分については、実際にその外側にある面の色境界線分はまだ不明であるため、仮想線分を用いて仮想面を定義してある。例えば、面9Mは、線分L1,L2,L3,L4から構成されるが、その中の点9r,9s,9uは、画像情報のフレーム枠上にある仮想点であり、線分L1,L2,L3,L4ともに両端点の少なくとも片側が仮想点のため、まだ、この段階では仮想線分であり、面9Mも仮想面である。面9Q,9R,9S,9T,9Uは、閉ループ図形に仮想線分が使われていなければ、画像フレームの中に全て入っているので、実際の面データとして生成されている部分である。CADのデータとしては、面9Nに面9Q,9R,9S,9Uと線分L7が付いているというように管理する。また、面9Tは面9Sに付いており、線分L8は面9Tに付いているということになる。また、これから、各特長点を3次元計測して、それに繋がる線分や線分が構成する面として3次元CADデータを生成した場合にもこの関係は基本的に同じであるが、3次元の場合には、先に述べたように、最初に背景という仮想面が一番後にあると考える。このようなデータ構成をとることで、花や草木や着物などの柔らかでしわのあるような物体のCADデータの表現も容易になる。また、3次元データの場合に注意を要することは、線分や面データが所定の面に付いているかどうかというのは、それらのデータが有する位置情報などから判断するとか、3次元の空間にある面に当該線分、面が付いているか否かを判断する処理が必要になる。2次元CADデータでは、後にある面の手前にある線分や面データがその画像の中では付いているように見えるだけである場合もあるため、2次元CADデータ上で付いているという関係であったものが、必ずしも3次元データ上でも付いている関係にあるとは限らないので、3次元データを生成していくときにはその関係は調べるようにするのが良い。2次元のデータでは、処理の便宜上、付いているというデータ構成をとって良いということである。2次元データでは、必ずしも、そのようなデータ管理をする必要はない。3次元データの場合には、処理が広大な3次元空間であることから、処理対象を絞り込みやすくするために、そのようなデータの構成をとった方が効率的に処理ができるということである。   FIG. 58 shows an image obtained by converting image information input from the imaging apparatus into two-dimensional CAD data. Here, in order to facilitate understanding, an image obtained by processing extremely simple image information will be described. The entire image information is divided into eight graphics 9M, 9N, 9P, 9Q, 9R, 9S, 9T, and 9U having the color information of each closed loop by color boundary line segments. Here, the closed loop graphic is generated only by the exact color boundary line segment, but of course, a virtual line segment or a virtual plane may be defined. In addition, for the frame portion of the image information, the color boundary line segment of the surface actually outside it is still unknown, so the virtual surface is defined using the virtual line segment. For example, the surface 9M is composed of line segments L1, L2, L3, and L4, and the points 9r, 9s, and 9u are virtual points on the frame frame of the image information, and the line segments L1, L2 , L3, and L4, since at least one side of both end points is a virtual point, it is still a virtual line segment at this stage, and the surface 9M is also a virtual surface. The planes 9Q, 9R, 9S, 9T, and 9U are portions that are generated as actual plane data because all of them are included in the image frame unless virtual line segments are used in the closed loop graphic. The CAD data is managed such that the surface 9N has the surfaces 9Q, 9R, 9S, 9U and the line segment L7. Further, the surface 9T is attached to the surface 9S, and the line segment L8 is attached to the surface 9T. In addition, this relationship is basically the same when three-dimensional measurement is performed for each feature point and three-dimensional CAD data is generated as a line segment connected to the feature point or a surface formed by the line segment. In this case, as described above, the virtual surface called the background is considered to be the last. By adopting such a data structure, it becomes easy to express CAD data of soft and wrinkled objects such as flowers, plants and kimonos. Also, in the case of 3D data, it should be noted that whether a line segment or surface data is attached to a predetermined surface depends on the position information etc. of those data, or in a 3D space. It is necessary to determine whether or not the line and the surface are attached to a certain surface. In 2D CAD data, the line and surface data in front of the subsequent surface may only appear to be attached in the image, so that it is attached on the 2D CAD data. What is there is not necessarily the same relationship on the three-dimensional data, so it is better to examine the relationship when generating the three-dimensional data. For two-dimensional data, for convenience of processing, the data structure of being attached may be taken. For two-dimensional data, such data management is not necessarily required. In the case of three-dimensional data, since the processing is a vast three-dimensional space, in order to make it easy to narrow down the processing target, it is possible to perform processing more efficiently by adopting such data configuration. .

次に、この画像処理結果のイメージ(図58)で撮像装置の視点が変わって別の視点から同じように同じ部分を撮影して、いわいるステレオ計測やトラッキングを行う場合に、同じような処理を新たに撮像装置から入力された画像についても行うようにする。ここで、対応する色境界線分や特徴点を絞り込む別の方法について説明する。ここでは、図58に示す画像イメージの特徴点9vの対応点を視点の変わった別の画像イメージの中から探索する。別の画像イメージも視点は変わるが、視野には同じような画像イメージ(図58)と同じような範囲が入っているものとする。そうすると、ミクロマッチングで特徴点9vに繋がる色境界線分L5,L6だけでマッチングを行うと同じよな模様が同じシーンの中に複数あるので、別の特徴点9w,9xも同じような特徴があって、ミクロマッチングだけでは絞り込むことが困難となる。そこで、マクロ的に離れた位置の特徴点情報も積極的に用いてマクロ的なマッチングを行うが、その効率的な手法として、他の特徴点の方向と長さを有するベクトルとその先にある特徴点の有する色情報を用いてマッチングをする場合の一手法を説明する。   Next, when the viewpoint of the imaging device is changed in this image processing result image (FIG. 58) and the same part is shot in the same way from another viewpoint, so-called stereo measurement and tracking are performed, the same processing is performed. Is also performed on an image newly input from the imaging apparatus. Here, another method for narrowing down the corresponding color boundary line segments and feature points will be described. Here, the corresponding point of the feature point 9v of the image image shown in FIG. 58 is searched from another image image whose viewpoint has changed. The viewpoint of another image also changes, but it is assumed that the field of view includes the same range as the similar image (FIG. 58). Then, if matching is performed only with the color boundary line segments L5 and L6 connected to the feature point 9v by micro matching, there are a plurality of similar patterns in the same scene, so the other feature points 9w and 9x have the same feature. Therefore, it is difficult to narrow down only by micro matching. Therefore, macro-matching is also performed by actively using feature point information at positions distant from the macro, but as an efficient method, there are vectors having the direction and length of other feature points and beyond. A method for performing matching using color information of feature points will be described.

図59(a)は、対応点を探索したい特徴点9vの色境界線分L5、線分L6が作る領域の狭い方について、近傍の特徴点までのベクトルV1,V2,V3を引いた概念を示す。このベクトルを視点の変化に対応する前述の形状変形処理(b)を行って、新しい視点で撮影した画像の処理結果(c)の中の対応点候補の全てにつても同様にベクトルを引いて、そのベクトルとその先にある特徴点の色情報の一致度より絞り込みを行う。変形処理は、簡略化するときには省略する方法を用いても良い。   FIG. 59 (a) shows the concept of subtracting vectors V1, V2, and V3 to neighboring feature points for the narrower region created by the color boundary line segment L5 and the line segment L6 of the feature point 9v for which a corresponding point is to be searched. Show. This vector is subjected to the shape deformation process (b) corresponding to the change of the viewpoint, and the vector is similarly drawn for all the corresponding point candidates in the processing result (c) of the image photographed from the new viewpoint. Then, narrowing down is performed based on the degree of coincidence between the vector and the color information of the feature point ahead. The deformation process may use a method omitted when it is simplified.

図60と図61は、新しい視点で撮影した画像情報の処理結果(図59(c))の中の対応点候補としてミクロマッチングでは絞込みできなかった特長点9w,9xについて、同様にベクトルを引いた概念を示す。ここで、図60の場合は、面9Sに付いている面9Tや線分L8があるため、それらを構成する特徴点へのベクトルV1〜V6の多数が引かれる。この段階で図59(a)のベクトルV1とV3は、図60のベクトルV1,V6と一致するが、図59(a)のベクトルV2に相当する方向には、図60のベクトルV2〜V5が存在するので、点9wは対応点でない可能性が高いことが分かる。   FIG. 60 and FIG. 61 show the same for the feature points 9w and 9x that could not be narrowed down by micro-matching as corresponding point candidates in the processing result of the image information taken from the new viewpoint (FIG. 59 (c)). Show the concept. Here, in the case of FIG. 60, since there are a surface 9T and a line segment L8 attached to the surface 9S, a large number of vectors V1 to V6 are drawn to the feature points constituting them. At this stage, the vectors V1 and V3 in FIG. 59 (a) coincide with the vectors V1 and V6 in FIG. 60. However, in the direction corresponding to the vector V2 in FIG. 59 (a), the vectors V2 to V5 in FIG. Since it exists, it turns out that the possibility that the point 9w is not a corresponding point is high.

また、図62は、特徴点9vからの色境界線分L5,L6が作る広い側の領域についても、同様にベクトルを引いて、また、視点の変わった後の画像情報で対応点候補9v,9w,9xの各々から同様にベクトルを引いた概念を示す。このようにベクトルを引いて比較すると、対応点候補9vは、対応点候補9w,9xより引いたベクトルが一致することより、真に対応する特徴点を絞り込むことが可能となる。   Further, FIG. 62 shows the corresponding point candidates 9v, 9v, and vice versa by drawing the vector in the same manner for the wide area created by the color boundary line segments L5, L6 from the feature point 9v, and using the image information after the viewpoint is changed. A concept in which a vector is similarly subtracted from each of 9w and 9x is shown. When the vectors are drawn and compared in this way, the corresponding point candidate 9v can narrow down the true corresponding feature points because the vectors drawn from the corresponding point candidates 9w and 9x match.

以下に、ベクトルの具体的なデータ比較の一例を示す。簡単のために、ベクトル4本とベクトル6本の比較で説明する。各々、ベクトルの方向、長さ、先の特徴点の色情報から構成する。方向は基準線分(例えば、特徴点9vであれば線分L5や線分L6)からのベクトルの時計周りの角度などで表現して良い。
An example of specific data comparison of vectors will be shown below. For simplicity, a description will be given by comparing four vectors and six vectors. Each is composed of the vector direction, length, and color information of the previous feature point. The direction may be expressed by a clockwise angle of a vector from a reference line segment (for example, a line segment L5 or a line segment L6 if the feature point is 9v).

<対応点を探したい特徴点Pのベクトルデータの一例>
ベクトル 方向 長さ 先の特徴点の色情報
PV1 角度1 距離1 縦境界線で左色L1、右色R1
PV2 角度2 距離2 横境界線で左色L2、右色R2
PV3 角度3 距離3 縦境界線で左色L3、右色R3
PV4 角度4 距離4 横境界線で左色L4、右色R4
<1対応点候補Qのベクトルデータの一例>
ベクトル 方向 長さ 先の特徴点の色情報
QV1 角度1 距離1 縦境界線で左色L1、右色R1
QV2 角度2 距離2 横境界線で左色L2、右色R2
QV3 角度3 距離3 縦境界線で左色L3、右色R3
QV4 角度4 距離4 横境界線で左色L4、右色R4
QV5 角度5 距離5 縦境界線で左色L5、右色R5
QV6 角度6 距離6 横境界線で左色L6、右色R6
ここで、特徴点Pから引いたベクトルはPV1〜PV4の4本あって、対応点候補Qから引いたベクトルはQV1〜QV6の6本であるが、本数はその撮影時に安定に特徴点が抽出されるか否かの相違が生じるので、対応点であってもベクトルの本数は一致しない。この例では、例えば、ベクトルPV2とQV2、ベクトルPV4とベクトルQV5が非常に良く一致しているという結果になる場合もあるが、それでも十分に対応点候補になりうる。それは、一致するベクトルの本数もどちらかで特徴点は抽出されて、どちらかでは抽出されていない場合もあるので、引いたベクトルの全部が一致するか否かで判別するのではなく、その中に先の特徴点の色情報までが一致するベクトルが何本あるかという情報で、他の候補点との相対的な比較で、どちらがより一致度が高いかで絞り込みを行うようにするのが良い。また、この処理において、比較は、対応点を探索したい特徴点9vに繋がる色境界線L5,L6の作る領域ごとに行う。比較結果は、別の視点で初めて視野に入った背景との境界線分(輪郭線)である可能性もあるので、必ずしも全ての領域で一致するとは限らないので、領域ごとに比較して、一致する、あるいは、一致度の高い領域が多くあるものを対応点候補して絞り込むようにする。この例では、色境界線分L5,L6が2本であるため、特徴点9v回り360度を2つに分割する領域でそれぞれベクトルを引いて一致度を調べるが、色境界線分が3本であれば領域も3つになるように、色境界線分の数に応じて多数の領域に分割して調べることになる。1本の色境界線分の端点の場合は、360度の範囲の1領域で調べる。また、この例では、その領域の中でベクトルを引く場合にベクトルが他の色境界線分に届く場合はそれ以上先の特徴点までは引かないようにした例であるが、ベクトルの一致度傾向の高い領域の有無を調べるようにするので他の色境界線分の向こう側にある特徴点までベクトルを引くようにして比較するようにしても良い。
<Example of vector data of feature point P for which a corresponding point is to be searched>
Vector Direction Length Color information PV1 of previous feature point Angle 1 Distance 1 Left color L1 and right color R1 at the vertical boundary
PV2 Angle 2 Distance 2 Left color L2 and right color R2 at the horizontal boundary
PV3 Angle 3 Distance 3 Left color L3, right color R3 at the vertical boundary
PV4 Angle 4 Distance 4 Horizontal color left color L4, right color R4
<An example of vector data of one corresponding point candidate Q>
Vector Direction Length Color information QV1 of previous feature point Angle 1 Distance 1 Left color L1 and right color R1 at the vertical boundary
QV2 Angle 2 Distance 2 Left color L2 and right color R2 at the horizontal boundary
QV3 Angle 3 Distance 3 Left color L3, right color R3 at the vertical boundary
QV4 Angle 4 Distance 4 Horizontal color left color L4, right color R4
QV5 Angle 5 Distance 5 Left color L5, right color R5 at the vertical boundary
QV6 Angle 6 Distance 6 Horizontal color left color L6, right color R6
Here, there are four vectors PV1 to PV4 subtracted from the feature point P, and six vectors QV1 to QV6 are subtracted from the corresponding point candidate Q. However, the number of feature points is stably extracted at the time of shooting. As a result, the number of vectors does not match even at corresponding points. In this example, for example, the vectors PV2 and QV2 and the vectors PV4 and QV5 may match very well, but they can still be candidates for corresponding points. This is because feature points are extracted based on the number of matching vectors, but not on either side, so it is not determined whether all the subtracted vectors match. It is information on how many vectors match the color information of the previous feature point, and in comparison with other candidate points, it is possible to narrow down which one has the higher degree of matching good. In this process, the comparison is performed for each region formed by the color boundary lines L5 and L6 connected to the feature point 9v for which a corresponding point is to be searched. Since the comparison result may be a boundary line segment (contour line) with the background that first entered the field of view from another viewpoint, it does not necessarily match in all areas, so compare for each area, The corresponding points are narrowed down if there are many regions that match or have a high degree of matching. In this example, since there are two color boundary line segments L5 and L6, the degree of coincidence is examined by drawing a vector in each region where 360 degrees around feature point 9v is divided into two, but there are three color boundary line segments. If so, the area is divided into a large number of areas according to the number of color boundary lines so that the number of areas becomes three. In the case of the end point of one color boundary line, it is examined in one area in the range of 360 degrees. Also, in this example, when a vector is drawn in the area, if the vector reaches another color boundary line, no further feature points are drawn. Since the presence / absence of a region having a high tendency is examined, the comparison may be performed by drawing a vector to the feature point on the other side of the other color boundary line segment.

ここで、図63の(a)〜(e)を参照して、判別ロジックの例を説明する。図63の(a),(b),(c)は、図58の面9R,9S,9Uのように、同じような形の形状を有する対応点候補のそれぞれにベクトルを引いて絞り込む場合の領域を図示したものである。いずれも、角度の狭い方が領域(1)で角度の大きな方が領域(2)になる。この例では、領域は2つの場合であるが、3つ、4つになる場合もある。また、処理を簡略化するために、色境界線を水平と垂直の方向で検出する場合、その検出された方向に領域を分割するようにしても良い。水平と垂直の両方に色境界線が抽出される場合は4つの領域になる。この簡略方式は、視点の変化に回転成分が含まれていないステレオ計測時の対応点探索時などには有効である。また、領域は必ずしもはっきり抽出できないような場合もあるので、ベクトルの一致度を一方向回りに順番に調べて一致するベクトルの割合の大きな領域と小さな領域の境目を後から領域と見なして処理をするようにしても良い。この方法は、視点の変化に回転成分の生じるトラッキング時の対応点探索時などには有効である。   Here, an example of the discrimination logic will be described with reference to FIGS. 63 (a), (b), and (c) are cases where a vector is drawn for each of corresponding point candidates having similar shapes as in the surfaces 9R, 9S, and 9U in FIG. A region is illustrated. In either case, the narrower angle becomes the region (1) and the larger angle becomes the region (2). In this example, there are two regions, but there may be three or four regions. In order to simplify the process, when the color boundary line is detected in the horizontal and vertical directions, the region may be divided in the detected direction. When color boundary lines are extracted both horizontally and vertically, there are four areas. This simplified method is effective when searching for corresponding points during stereo measurement in which a rotation component is not included in the change in viewpoint. In addition, the region may not always be clearly extracted, so the degree of coincidence of the vectors is examined in order in one direction, and the processing is performed by regarding the boundary between the region with a large proportion of matching vectors and the region with a small region as a region later. You may make it do. This method is effective when searching for corresponding points at the time of tracking, in which a rotation component is generated when the viewpoint changes.

ここで、領域(1)と領域(2)について、その領域内のベクトルの一致頻度が他と比較して十分高い場合に○、そうではない場合を×として判別する場合の一例を図63の(d)と(e)に示す。(d)は、対応点候補(a)は領域(1)と領域(2)で一致度が高く、対応点候補(c)の領域(1)の一致度が高い結果となっている例であるが、このような場合には対応点候補(b)は除けるが、対応点候補(a)と対応点候補(c)は、この結果だけからは絞り込むことはできない。対応点候補(c)は領域(2)側が背景でたまたま一致度が低かった可能性があるためである。勿論、対応点候補(c)が領域(1)と領域(2)の両方で×であれば、対応点候補(a)は領域(1)と(2)の両方が○であり、絞り込むことができる。また、(d)は、対応点候補(a)の領域(1)のみが○であるが、このように領域の一つでも○があって、他には○がなければ、対応点候補として絞込み可能となる。2つ以上の対応点候補に少なくとも一つ以上の領域に○がある場合には、そのマッチング処理だけでは対応点候補を一つに絞り込むことはまだできないという結果になる。そのような場合には、ベクトルが一致すると判別する角度と長さの許容誤差範囲を狭くしたり、ベクトル先端の色情報の許容範囲を小さくしたり、また、ベクトルを引く範囲を色境界線を越えては引かないように引く領域を限定したり、変形処理のマッチング精度を上げるようにすることで、より、精度良く対応点候補を絞り込むようにしても良い。また、ベクトルを引く本数は最初から多数引いて比較処理しないでも、最初は所定の距離以内に存在する特徴点に絞ってベクトルを引くようにして処理速度の高速化を測るようにして良い。その結果、絞込みが十分できない場合は、ベクトルを引く特徴点を更に広いエリアに広げて、より、遠くの特徴点の情報も用いてベクトルを引いて比較するようにしても良い。また、ここでの例では、ベクトルは他の特徴点までベクトルを引いているが、ここでの特徴点とは線分の端点や分岐点や線分の途中の大きな屈曲頂点などであるので、線分として分割されるデータとしては始点と終点の点のみであるが、ベクトルマッチングを行う場合に、線分の始点と終点の途中に存在する点に対してもベクトルを引いてマッチングさせるようにしても良い。これは、例えば、線分の本数が少ない場合には、線分の端点などの特徴点のみを使用してベクトルマッチングを行うと比較するベクトルの本数も少ないために対応点候補を絞り込むのがむずかしいような場合にも線分の途中の点までのベクトルはその線分の方向、形に対応したベクトルになるので、その線分の方向、形のマッチング度により対応点候補を絞り込めるようにもできる。更に、一方、線分の本数が多く、一箇所に線分が複雑に混み合っているような場合には、線分の途中の点までベクトルを引くと似たようなベクトルが多数存在して、逆に対応点候補を絞り込みずらくなる場合もあるので、ベクトルマッチングの方法として、特徴点までのベクトルで行って、絞り込めない場合は線分の途中の点も使用したベクトルマッチングを行って絞り込む、あるいは、この逆の手順にしても良いが、特徴点のみのベクトルマッチングと線分の途中の点までのベクトルも含めてベクトルマッチングを行う方法の両方を用いるようにして対応点候補を絞り込むようにしても良い。また、マッチング絞込みの手法として、ステレオ計測の場合もトラッキングの場合も両方に適用して良いが、最初に色境界線分を抽出するときは感度を低くしてはっきりとした色境界線分のみを抽出してマッチングによる対応点候補の絞込みを行い、次に色境界線分の感度を上げてより多くの色境界線分を抽出してマッチング処理を行う、2回目以降に行う場合は既にマッチング処理で対応点が明確になっている色境界線分は除いて新たに抽出された線分で対応点候補の絞込みを行うようにする。また、2回目以降のマッチング処理では、最初に求めた対応点の関係を積極的に活用して現在処理中の対応点候補の絞込みを行うようにしても良い。最初から感度を高くして多くの色境界線分を抽出すると、隣接した部分に多くの色境界線分が抽出されるので、対応点候補を絞り込むのが容易でなくなるのと、マッチング処理の組み合わせ回数も多くなるので処理時間も多くかかる。そこで、ここで説明した手順で何回かに分けて色境界線分を抽出するようにすることで、多くの色境界線分を精度良く、しかも効率良く対応点候補を絞り込むことが可能となる。   FIG. 63 shows an example in which the regions (1) and (2) are identified as “◯” when the frequency of matching vectors in the regions is sufficiently high compared to others, and “x” when not. Shown in (d) and (e). (D) is an example in which the corresponding point candidate (a) has a high degree of matching between the region (1) and the region (2), and the matching point candidate (c) has a high degree of matching. However, in such a case, the corresponding point candidate (b) can be excluded, but the corresponding point candidate (a) and the corresponding point candidate (c) cannot be narrowed down only from this result. This is because the corresponding point candidate (c) may happen to have a low degree of coincidence due to the background of the region (2). Of course, if the corresponding point candidate (c) is X in both the region (1) and the region (2), the corresponding point candidate (a) is both in the regions (1) and (2), and narrowing down. Can do. In (d), only the region (1) of the corresponding point candidate (a) is ◯, but even if one of the regions is ◯ and there is no other, the corresponding point candidate is It becomes possible to narrow down. When at least one region has two or more corresponding point candidates, the result is that the corresponding point candidates cannot be narrowed down to just one by the matching process alone. In such a case, the allowable error range of the angle and length for determining that the vectors match is narrowed, the allowable range of the color information at the tip of the vector is reduced, and the range for subtracting the vector is the color boundary line. The corresponding point candidates may be narrowed down more precisely by limiting the area to be drawn so as not to exceed or by increasing the matching accuracy of the deformation process. In addition, even if the number of vectors to be drawn is not a comparatively large number from the beginning, the processing speed may be increased by initially drawing the vectors by focusing on feature points existing within a predetermined distance. As a result, if narrowing down cannot be sufficiently performed, the feature points for which the vector is drawn may be expanded to a wider area, and the vector may be drawn and compared using information on feature points farther away. Also, in the example here, the vector is drawn to other feature points, but the feature points here are end points, branch points, large bent vertices in the middle of the line segment, etc. The only data that can be divided as a line segment is the start point and end point. However, when performing vector matching, a vector is also drawn for matching between the start point and end point of the line segment. May be. This is because, for example, when the number of line segments is small, it is difficult to narrow down the corresponding point candidates because the number of vectors to be compared is small when vector matching is performed using only feature points such as end points of the line segments. Even in such a case, the vector up to the point in the middle of the line segment becomes a vector corresponding to the direction and shape of the line segment, so that the corresponding point candidates can be narrowed down by the degree of matching of the direction and shape of the line segment. it can. On the other hand, if the number of line segments is large and the line segments are crowded in one place, many similar vectors exist when the vector is drawn to the middle point of the line segment. On the other hand, it may be difficult to narrow down the corresponding point candidates, so as a vector matching method, use vectors up to the feature points, and if you cannot narrow down, perform vector matching using points in the middle of the line segment. Narrow down or reverse the procedure, but narrow down the corresponding point candidates by using both the vector matching of only feature points and the method of vector matching including vectors up to the middle of the line segment You may do it. As a method for narrowing down the matching, it can be applied to both stereo measurement and tracking, but when extracting the color boundary line for the first time, the sensitivity is lowered and only the clear color boundary line segment is selected. Extract and narrow down corresponding point candidates by matching, then increase the sensitivity of the color boundary line, extract more color boundary line segments, and perform the matching process. The corresponding point candidates are narrowed down by the newly extracted line segment except for the color boundary line segment in which the corresponding point is clear. Further, in the second and subsequent matching processes, it is possible to narrow down the corresponding point candidates currently being processed by actively utilizing the relationship between the corresponding points obtained first. If a lot of color boundary line segments are extracted with high sensitivity from the beginning, many color boundary line segments are extracted in the adjacent parts, so it is not easy to narrow down the corresponding point candidates, and a combination of matching processing Since the number of times increases, processing time also takes a lot. Therefore, by extracting the color boundary line segment in several steps according to the procedure described here, it becomes possible to narrow down the corresponding point candidates with high accuracy and efficiently for many color boundary line segments. .

また、図63の(f)のように、2つの図形(a)と(b)が背景(Z)の手前にあるような場合でも、両方が共通の面(A)に付いているような場合には共通の面(A)の特徴点までベクトルを引くようにすることで、図形(a)と(b)のベクトルは違う部分が生じるのでベクトルマッチングで区別してそれぞれが対応点候補であっても絞り込むことは可能である。   Further, as shown in FIG. 63 (f), even when two figures (a) and (b) are in front of the background (Z), both are attached to a common plane (A). In this case, by drawing the vector up to the feature point of the common plane (A), different parts of the vectors of the figures (a) and (b) are generated. Even narrowing down is possible.

また、図63の(g)のように、共通面がないような場合にも、図形(a)と(b)の相対位置関係が変わらない場合にはそれぞれの図形(a)と(b)にベクトルを引くことによって、識別して絞り込むことは可能である。但し、図63の(g)で図形(a)と(b)が互いに独立して背景(Z)の手前で移動するようなものの場合には、2箇所の視点からの画像を同時に撮影するステレオ計測時の対応点探索は可能であるが、トラッキング時の対応点探索には適用の限界がある。そのような場合にはステレオ計測して求めた3次元位置情報の変化のドレンドなどから対応点を対応付けする方法と組み合わせるようなことも必要となる。このようなベクトルマッチング手法を用いれば、特長点9vの対応点でミクロマッチングだけでは絞り込めない対応点候補9v,9w,9xの中から対応点候補9vを絞り込むことが容易に可能となる。本手法は、2次元でCG変換された特徴点の座標や色情報で処理を行うのみなので、局部的な微小領域の画像データやCGでも面データとしてマッチング処理を行うより簡単でより高速化が可能な手法である。   Further, even when there is no common plane as shown in FIG. 63 (g), when the relative positional relationship between the figures (a) and (b) does not change, the respective figures (a) and (b). It is possible to identify and narrow down by subtracting a vector. However, in the case where the figures (a) and (b) move in front of the background (Z) independently from each other in FIG. 63 (g), a stereo that simultaneously captures images from two viewpoints. Although the corresponding point search at the time of measurement is possible, the corresponding point search at the time of tracking has a limit of application. In such a case, it is also necessary to combine with a method of associating corresponding points from a drain of a change in three-dimensional position information obtained by stereo measurement. If such a vector matching method is used, it becomes possible to easily narrow down the corresponding point candidates 9v from the corresponding point candidates 9v, 9w, 9x that cannot be narrowed down by the micro matching alone at the corresponding points of the feature point 9v. Since this method only performs processing using the coordinates and color information of feature points that have been CG-converted in two dimensions, it is easier and faster than matching processing as surface data even with local micro-region image data or CG. This is a possible technique.

また、図64の(a),(b)は、本手法を3次元に拡張した場合の例を示している。図64の(a)は、あるときに生成した3次元の点データとして、点P1〜点P8が生成されていて、線分P1P3なども3次元データとして生成されている概念を示している。図64の(b)は、別の時間に新たに同じ部位のCADデータを生成した場合の同様の概念を示している。ここでは、今回、生成したCADデータ(a)の点P1に対応する点を別の時刻に生成されたCADデータ(こ)の中より探索するのに適用した場合の一例である。これは、CADデータの探索機能や2次元の画像トラッキングで見失って、再度、トラキングを継続する場合の位置合わせ処理などに適用可能である。 Also, FIGS. 64A and 64B show an example in which the present method is extended to three dimensions. FIG. 64A shows a concept in which points P1 to P8 are generated as three-dimensional point data generated at a certain time, and a line segment P1P3 and the like are also generated as three-dimensional data. FIG. 64B shows a similar concept when CAD data of the same part is newly generated at another time. Here, it is an example of the case where the present invention is applied to search for the point corresponding to the point P1 of the generated CAD data (a) from the CAD data (this) generated at another time. This can be applied to an alignment process or the like in the case of losing sight by the search function of CAD data or two-dimensional image tracking and continuing tracking again.

まず、点P1から周囲に所定の距離以内に存在する点までのベクトルを引く。同様に別の時刻に生成されたCADデータでは点P1の候補となる点全てにおいて、同じように所定の距離以内に存在する点までのベクトルを引く。(b)は、点P3からベクトルを引いた場合の例を示す。(a)の点P1からのベクトルと(b)の点P3からのベクトルを比較すると一致しないことから、点P3は点P1の滞欧点候補ではないことがすぐに分かる。同様に、(b)においては、他の点についても、ベクトルを同様に引いて調べると、真の対応点候補である点P1からベクトルを引いた時に非常に一致するので、点P1の対応点候補を絞り込むことができる。同様にして、3点の対応点を見つければCADデータ全体の対応がとれることになり、本手法はこのような場合にも有効に適用できる。   First, a vector from the point P1 to a point existing within a predetermined distance around is drawn. Similarly, in the CAD data generated at another time, all the points that are candidates for the point P1 are similarly drawn to vectors that exist within a predetermined distance. (B) shows an example when a vector is subtracted from the point P3. When the vector from the point P1 in (a) and the vector from the point P3 in (b) are not matched, it can be immediately understood that the point P3 is not a candidate for the European point of the point P1. Similarly, in (b), for other points, if the vector is similarly drawn and examined, it matches very well when the vector is subtracted from the point P1 which is a true corresponding point candidate, so the corresponding point of the point P1 Can narrow down candidates. Similarly, if three corresponding points are found, the entire CAD data can be dealt with, and this method can be effectively applied to such a case.

前述した例は、点P1〜P8が実際に存在する色境界線から抽出した特徴点の場合であるので、一致する対応点がそのままの処理で見付かる場合の例であるが、実際に対応する特徴点のデータが存在しない場合の例を、図65の(a)〜(f)を参照して説明する。   The above-described example is a case where the points P1 to P8 are feature points extracted from the color boundary lines that actually exist. Therefore, the corresponding corresponding points are found by processing as they are. An example in the case where point data does not exist will be described with reference to FIGS.

図65の(a)と(b)は、溶接線ビードのようなものに赤のレーザ光線を照射して溶接線の特徴ある実際の色境界線分の特徴点9y,9zなどがCADデータとして生成されている他に、レーザ光線により生成された輪郭線分RedL1〜RedL3とRedL4〜RedL6のCADデータがある概念を示している。(a)と(b)の違いは、同じ溶接ビードの部分のCADデータを生成したが、その時に照射したレーザ光線の位置や向きが異なるために、レーザ光線によって生成された形状を示す仮想線分の線分データ、その線分を構成する点データは、図(a)と(b)とでは対応しない場合を例にとって説明する。実際のビードの模様として検出された色境界線分は同じ位置に生成されるが、生成される線分の数が非常に少ないので、それだけでは形状によるマッチング処理ができないことから、レーザ光線により生成した仮想線分のデータも使ってマッチング処理を行う場合の例である。   65 (a) and 65 (b) show, as CAD data, feature points 9y, 9z, etc., of actual color boundary lines that are characteristic of the weld line by irradiating a laser beam such as a weld line bead with a red laser beam. In addition to being generated, a concept is shown in which there are CAD data of contour lines RedL1 to RedL3 and RedL4 to RedL6 generated by a laser beam. The difference between (a) and (b) is that the CAD data of the same weld bead portion is generated, but the position and direction of the laser beam irradiated at that time are different, so the virtual line indicating the shape generated by the laser beam A description will be given of a case where the line segment data and the point data constituting the line segment do not correspond to each other in FIGS. Color boundary line segments detected as actual bead patterns are generated at the same position, but the number of generated line segments is very small. In this example, matching processing is also performed using the virtual line segment data.

図65の(c)と(d)に示すように、レーザ光線RedL2よって生成された線分の点RedP1,RedP2,RedP3は、レーザ光線RedL5よって生成された線分の点RedP4,RedP5,RedP6とは対応していないので、そのままの状態で、例えば、(c)で特徴点9zからベクトルV1,V2,V3,V4を引いても、(d)で同様に特徴点9zからベクトルV1,V2,V3を引いても、もともとレーザ光線によって生成した仮想点は対応する点でないため、対応する点の場合もそこから引いたベクトルは同じようにならない。すなわち、対応する点を絞り込みずらい。   As shown in (c) and (d) of FIG. 65, the points RedP1, RedP2, and RedP3 of the line segment generated by the laser beam RedL2 are the points RedP4, RedP5, and RedP6 of the line segment generated by the laser beam RedL5. Is not supported, for example, even if the vectors V1, V2, V3, V4 are subtracted from the feature point 9z in (c), the vectors V1, V2, V2 are similarly derived from the feature point 9z in (d). Even if V3 is subtracted, since the virtual point originally generated by the laser beam is not a corresponding point, the vector subtracted from the virtual point is not the same in the case of the corresponding point. That is, it is difficult to narrow down the corresponding points.

そのような場合には、(e)、(f)に示すようにも、ともとある仮想点の間に途中を滑らかに補間するような(e)の仮想点Dp1(x),Dp2(x),Dp3(x)…と(f)の仮想点Dp1(y),Dp2(y),Dp3(y)を作って、特徴点9zからベクトルを引き、ベクトルの一致度を調べるようにする。このようにすることで、対応点が存在しない場合にも全体の形状情報から対応点を探索、絞り込むことができる。このような3次元のベクトルの処理においても、ベクトルの先の特徴点の色情報やそれに繋がる線分情報などを利用して、より正確に絞り込むようにして良い。   In such a case, as shown in (e) and (f), the virtual points Dp1 (x) and Dp2 (x) of (e) that smoothly interpolate between the original virtual points. ), Dp3 (x)... And (f) are created as virtual points Dp1 (y), Dp2 (y), Dp3 (y), a vector is subtracted from the feature point 9z, and the degree of coincidence of the vectors is examined. In this way, even when there is no corresponding point, the corresponding point can be searched and narrowed down from the entire shape information. In such three-dimensional vector processing, it is also possible to narrow down more accurately by using color information of feature points ahead of the vector and line segment information connected thereto.

また、図66の(a)〜(e)は、本ベクトルマッチング手法を探索機能に用いる場合の例を示すものである。探索を行う場合の前提としては、2つ考えられる。それは、探索対象はある場所が既知で動かない場合と、探索対象は既知でもそれがどこに存在するか未知であるとか、あるいは、探索対象が移動する(位置と姿勢が変化する)ものである場合である。   66 (a) to 66 (e) show an example in which this vector matching method is used for the search function. There are two possible assumptions for the search. If the search target is known and does not move, if the search target is known but where it is unknown, or if the search target moves (position and orientation change) It is.

図66の(a)と(b)を参照して、探索対象はある場所が既知で動かない場合の基本的な探索方法を説明する。(a)は、既知の探索対象901とその存在する既知の環境周辺の3次元CADデータの概念を示している。探索対象901およびその他のCADデータは、ワールド座標系O1の中でどの位置にどのように存在しているかが、あらかじめCADデータとして用意されているものとする。そのCADデータが本発明の手法であらかじめ撮像装置を移動しながらCADデータを生成したものであっても良いし、別の手段で生成されたものでも良い。そこで、探索時に、実際に撮像装置10からの画像情報が得られてその処理を行うことで2次元のCADデータを生成したり、ステレオ計測やトラッキング計測を行うことにより3次元のCADデータを生成させることもできるが、ここでは、探索を効率良く行うために撮影した画像データから生成した2次元のCADデータ(色境界線などを抽出した特徴点や色境界線分やそれらが構成する面などのCADデータ)と2次元の状態でマッチングを行う場合の手法を説明する。   With reference to FIGS. 66A and 66B, a basic search method when a search target is known and does not move will be described. (A) shows the concept of the known search object 901 and the existing three-dimensional CAD data around the known environment. It is assumed that the search object 901 and other CAD data are prepared as CAD data in advance in what position and how in the world coordinate system O1. The CAD data may be generated in advance by moving the imaging apparatus using the method of the present invention, or may be generated by another means. Therefore, at the time of search, image information from the imaging device 10 is actually obtained and processed to generate two-dimensional CAD data, or three-dimensional CAD data is generated by performing stereo measurement or tracking measurement. However, here, two-dimensional CAD data (feature points extracted from color boundary lines, color boundary line segments, surfaces formed by them, etc.) generated from image data taken for efficient search Will be described in the case where matching is performed in a two-dimensional state.

具体的には、現在の撮像装置10の位置と姿勢がワールド座標系O1で分かっていれば、その位置から探索対象901を撮影した場合の見え方は3次元のCADデータより生成できる。図66の(a)は、3次元のCADデータの概念であるが、3次元のCADデータの中に撮像装置10を想定して、その場合に撮像装置10に結像される3次元のCADデータを生成すれば(b)に示すような参照すべき2次元のCADデータが得られる。この場合、対象物901は移動しないものであらかじめその環境の中での位置と姿勢が固定であるので、参照CADデータは、対象901とその他の環境CADデータの両方を2次元へ投影して生成する。ここで、参照CADデータである(b)の中の例えば点P1に相当する撮影画像情報内の対応する点を探索する場合は、先に述べたように参照CADデータのP1点から引いたベクトルと撮影して得られた画像情報に対して同じような2次元のCADデータを生成して得られる場面内の全ての特徴点から同様にベクトルを引いて、点P1の有する各領域においてベクトルの一致する領域のある特徴点を抽出して探索するようにすれば、3次元のマッチングよりも高速に2次元のベクトルマッチングで探索を行わせることが可能となる。   Specifically, if the current position and orientation of the imaging device 10 are known in the world coordinate system O1, the appearance when the search target 901 is captured from the position can be generated from three-dimensional CAD data. 66A is a concept of three-dimensional CAD data. However, assuming the imaging device 10 in the three-dimensional CAD data, the three-dimensional CAD imaged on the imaging device 10 in that case. If data is generated, two-dimensional CAD data to be referred to as shown in (b) is obtained. In this case, since the object 901 does not move and the position and orientation in the environment are fixed in advance, the reference CAD data is generated by projecting both the object 901 and other environment CAD data to two dimensions. To do. Here, when searching for a corresponding point in the captured image information corresponding to, for example, the point P1 in (b) which is the reference CAD data, the vector subtracted from the P1 point of the reference CAD data as described above. Similarly, a vector is subtracted from all feature points in the scene obtained by generating similar two-dimensional CAD data for the image information obtained by photographing, If a feature point having a matching region is extracted and searched, it is possible to perform a search by two-dimensional vector matching at a higher speed than three-dimensional matching.

探索対象901が動く場合とか、ワールド座標系O1の中での位置と姿勢が未知の場合の基本的な探索手法を図66の(c)〜(e)を参照して説明する。この場合は、探索対象のみの3次元CADデータを用いて、2次元の参照CADデータを生成する。(c)は、物体901のみの3次元のCADデータであり、それを未知の3次元環境で探索する2次元のマッチング処理を行う場合には、物体901をいくつかの基本的な形状の見え方の違う方向から見たときに撮像装置の撮像面に投影される2次元のCADデータを視点の数だけ生成するか、あらかじめ2次元のCADデータとして用意しておくようにする。図66の(c)の例では、撮像装置の位置は撮像装置10(1),10(2),10(3)の3つの位置と姿勢で、各々そこから撮影面へ投影される2次元のCADデータを生成した状況を(d),(e),(f)に示している。ここでは、代表的な3つの見え方の異なる2次元のCADデータを示したが、他にも別の視点から撮影する場合の見え方で多数の参照CADデータを生成したら、あらかじめ用意しておくようにしても良い。あらかじめ持っているデータとして3次元のCADデータにしておけば、必要なときに必要な2次元のCADデータを生成させることができる。また、3次元のCADデータであれば、初めは代表的な視点から見た大まかな見え方の違いで概略の見ている方向の絞込みを行ってから、次にはその方向からでも微妙に異なる視点から見た2次元のCADデータを生成するようにして、それを繰り返すことによりマッチング精度を上げていくようにすることも可能となる。CADデータとしては、3次元のCADデータとある視点から見た2次元のCADデータの両方を持たせておき、2次元のCADデータを生成する時間を省略して概略探索できるようなシステムにしても良い。対象物が移動したり位置が未知の場合には、探索対象物体901のみのCADデータから探索する。実際に撮影した画像情報から2次元のCADデータを生成したものは、探索対象が写っていた場合にもその他の環境のCADデータもあり、特徴点は関係ないものも沢山存在する可能性あるが、同様な手法で全ての特徴点からベクトルを引いて比較するようにすれば、実際に探索対象が写っていた場合には当該部位の特徴点から引いたベクトルが参照CADデータの点から引いたベクトルと一致する場合があるので、それを探索するようにする。   A basic search method when the search target 901 moves or when the position and orientation in the world coordinate system O1 are unknown will be described with reference to FIGS. 66 (c) to 66 (e). In this case, two-dimensional reference CAD data is generated using three-dimensional CAD data only for the search target. (C) is three-dimensional CAD data of only the object 901, and when performing a two-dimensional matching process in which the object 901 is searched in an unknown three-dimensional environment, the object 901 has some basic shape appearance. Two-dimensional CAD data projected onto the imaging surface of the imaging apparatus when viewed from different directions is generated for the number of viewpoints, or prepared as two-dimensional CAD data in advance. In the example of FIG. 66 (c), the position of the imaging device is the three positions and postures of the imaging devices 10 (1), 10 (2), and 10 (3), and each is projected two-dimensionally from there onto the imaging plane. (D), (e), and (f) show the situation in which the CAD data is generated. Here, typical two-dimensional CAD data having three different appearances are shown, but in addition, if a large number of reference CAD data is generated with the appearance when photographing from another viewpoint, it is prepared in advance. You may do it. If the three-dimensional CAD data is stored as data in advance, the necessary two-dimensional CAD data can be generated when necessary. In the case of three-dimensional CAD data, first, after narrowing down the direction in which the outline is viewed based on a rough difference in view from a representative viewpoint, the next is slightly different from that direction. It is possible to increase the matching accuracy by generating two-dimensional CAD data viewed from the viewpoint and repeating it. As CAD data, it has both 3D CAD data and 2D CAD data viewed from a certain viewpoint, and it is a system that can roughly search by omitting the time to generate 2D CAD data. Also good. When the target moves or the position is unknown, the search is performed from CAD data of only the search target object 901. There are CAD data for other environments, even if the search target is shown, in which two-dimensional CAD data is generated from actually captured image information, and there may be many items that do not relate to feature points. If a vector is subtracted from all feature points using the same method and compared, the vector subtracted from the feature point of the relevant part is subtracted from the point of the reference CAD data when the search target is actually shown. Search for a vector that may match.

このようにして探索を行う場合でも2次元のCADデータどおしのマッチング処理となれば、同様に探索したい対応点からベクトルを引いて、入力画像情報の中の各特徴点から引いたベクトルが一致する点を絞り込んで見つけることができるが、この場合は、用意した複数の2次元のCADデータのどの見え方にあるかが未知であるため、用意した2次元の参照CADデータ全てについて同じような処理を行い、視点の違いも絞り込むようにする。具体的には、この例のように3枚の2次元の参照CADデータ(d),(e),(f)が用意されている場合には、(d)の中の見えている点全ての対応点の探索を行い、(e)と(f)でも同様に行い、3枚の2次元の参照CADデータの現在撮影した画像情報から生成した2次元CADデータとのマッチング度の高い参照CADデータを選択するようにする。勿論、探索対象が全然写っていない場合もあるので、所定の閾値以上でマッチングする場合に3枚の参照CADデータの中より一番マッチングするものを選択するようにする。そして、ある程度、マッチングするようになったらば、視点を微妙に変えて2次元の参照CADデータを生成するようにして、より、精度良く探索対象を探索するようにする。また、参照2次元CADデータを生成する場合に、現在の撮像装置と探索対象との位置関係(例えば、道路の反対側から道路沿いにある物体を探索するような場合とか、橋の上にある物体とか概略距離情報が絞り込める場合など)、概略の撮影距離が既知であれば、それを考慮して2次元のCADデータを生成するようにしても良いし、向きが物体によっては決まってくるような場合(例えば置いてある状態は安定な姿勢しかとり得ないものとか)には、あらかじめ向きも絞り込んで参照CADデータを生成するようにして、2次元の参照CADデータの枚数をできるだけ少なくして探索速度を上げるようにしても良い。   Even if the search is performed in this way, if the matching process is performed using two-dimensional CAD data, a vector is similarly extracted by subtracting the vector from the corresponding point to be searched, and subtracting the vector from each feature point in the input image information. Although it is possible to narrow down and find matching points, in this case, since it is unknown which of the prepared two-dimensional CAD data is seen, it is the same for all the prepared two-dimensional reference CAD data. To narrow down differences in viewpoints. Specifically, when three pieces of two-dimensional reference CAD data (d), (e), and (f) are prepared as in this example, all visible points in (d) are displayed. The corresponding CAD is searched in the same manner in (e) and (f), and the reference CAD having a high matching degree with the two-dimensional CAD data generated from the currently captured image information of the three two-dimensional reference CAD data. Select data. Of course, since there is a case where the search target is not shown at all, when matching is performed at a predetermined threshold value or more, the matching data is selected from the three pieces of reference CAD data. When matching is achieved to some extent, two-dimensional reference CAD data is generated by slightly changing the viewpoint, and the search target is searched more accurately. In addition, when generating the reference two-dimensional CAD data, the positional relationship between the current imaging device and the search target (for example, searching for an object along the road from the opposite side of the road, or on the bridge) If approximate distance information can be narrowed down), if the approximate shooting distance is known, two-dimensional CAD data may be generated in consideration of this, and the orientation is determined depending on the object. In such a case (for example, the placed state can only take a stable posture), the orientation is narrowed down in advance to generate the reference CAD data, and the number of the two-dimensional reference CAD data is reduced as much as possible. To increase the search speed.

また、2次元あるいは3次元のマッチングするときに、あらかじめCADデータのグルーピングを行っておき、特定のグループのみを探索対象のCADデータとして探索速度アップ、マッチング精度の向上を図るようにしても良い。具体的には、例えば、青や黄色の模様を背景とした本の表紙などに黒の文字の「ABC」が印刷されているような対象物体のCADデータを生成して、その中から文字の「ABC」を探索するような場合には、背景の模様のCADデータと文字「ABC」のCADデータがそれぞれ生成されるが、そのときに、どちらも、本の輪郭線の構成する閉ループの面に付いている線分であるが、探索したいものが黒の文字「ABC」であるから、まずは、黒の色境界線に関わる線分データあるいは黒の閉ループの面データを抽出して一つのグループAにしておき、背景の青と黄色の模様を構成する色境界線分データあるいは青系、黄色系の閉ループ面データのグループBに分けて、マッチング探索処理は、グループAの黒の文字に関係するCADデータの中から探索マッチングをとるようにすることで、より高速に精度良くマッチングできるようになる。   Further, when performing two-dimensional or three-dimensional matching, grouping of CAD data may be performed in advance, and only a specific group may be used as CAD data to be searched to increase search speed and improve matching accuracy. Specifically, for example, CAD data of a target object in which a black character “ABC” is printed on a cover of a book with a blue or yellow pattern as a background is generated. When searching for “ABC”, CAD data of the background pattern and CAD data of the characters “ABC” are respectively generated. At this time, both are closed-loop surfaces formed by the outline of the book. Since the black character “ABC” is the one to be searched for, the line data related to the black color boundary line or the black closed-loop surface data is first extracted to obtain one group. The matching search processing is related to the black characters of group A, with the color boundary line segment data constituting the background blue and yellow patterns or the blue and yellow closed loop surface data group B. CAD day By to take the search matching from among, it becomes possible to accurately match faster.

勿論、本の文字を探索するために各種タイトル候補の文字データとマッチングをとって当該本のタイトルを認識させる場合にタイトルの文字の色グループに絞り込みマッチング処理を行う場合でも、たくさんの本の中から黒の文字のタイトル「ABC」とある本を複数候補の本の中からタイトル部分をグループ化してマッチング探索する場合でも、同様に、色グループによる探索対象の絞込みは有効である。また、色によるグルーピングの他、線分の長さや面の大きさ、線分の直線、曲線、円弧などの形状、面の形などでもあらかじめ探索対象の特徴に応じて有効であればあらかじめグルーピング化を行い探索対象を絞り込んでから探索処理を行う方が、探索マッチングの処理はいろいろな方向、大きさなどを変えながらマッチングを行い一番マッチング度の大きなものを絞り込むため、処理によってはマッチング処理に時間がかかるので、最初にグルーピング化でマッチング対象の候補数を絞り込むことは探索時間の短縮に効果的である。また、最初にグループの特徴で絞込みを行っているので、その中でのマッチング度の高い候補を見つけるということは、別のグループの似ている候補をグルーピング化の段階でマッチング対象から排除できるので、マッチング精度も良くなる。   Of course, when searching for characters in a book, matching with character data of various title candidates and recognizing the title of the book, even if narrowing matching processing is performed on the color group of the title character, Similarly, narrowing down the search target by color group is effective even when a matching search is performed by grouping title portions of a book with a title “ABC” of black characters from a plurality of candidate books. In addition to grouping by color, the length of a line segment, the size of a surface, the shape of a straight line, curve, arc, etc. of a line segment, the shape of a surface, etc. are grouped in advance if they are valid according to the characteristics of the search target. If the search process is performed after narrowing down the search target, the search matching process is performed by matching while changing the various directions and sizes, etc. Since it takes time, first narrowing down the number of candidates for matching by grouping is effective in shortening the search time. In addition, since the group features are first narrowed down, finding a candidate with a high degree of matching among them can eliminate candidates that are similar to another group from the matching target at the stage of grouping. Matching accuracy is also improved.

次に、図67を参照してトラッキングによる座標変換時の誤差の考え方について説明する。図67の(a)は、撮影対象901を視点O1から視点O2までトラッキングしてきて、単眼のカメラシステムでも良いが、ステレオカメラシステムでもその場所で十分離れた状態での3D計測を実施したとところとしても良い。(b)は、次のシーケンスになって、視点O2から視点O3になった状況、(c)は、視点O3から視点O4になった状況を示している。ここで、(d)は、それぞれの視点O2,O3が重なるようにしてCADデータを同じ座標系に変換した状況を示している。この場合は、トラッキングによる座標変換の誤差がCADデータに含まれる。   Next, the concept of error at the time of coordinate conversion by tracking will be described with reference to FIG. FIG. 67 (a) shows a case where a shooting target 901 is tracked from the viewpoint O1 to the viewpoint O2 and may be a monocular camera system, but a stereo camera system performs 3D measurement in a sufficiently separated state at that location. It is also good. (B) shows a situation where the next sequence is changed from the viewpoint O2 to the viewpoint O3, and (c) shows a situation where the viewpoint O3 is changed to the viewpoint O4. Here, (d) shows a situation in which CAD data is converted into the same coordinate system so that the viewpoints O2 and O3 overlap each other. In this case, an error of coordinate conversion by tracking is included in the CAD data.

図67の(e)は、視点ではなく、CADデータの方を合わせるようにした場合の例を示している。この場合は、視点の位置、すなわち、撮像装置の位置と姿勢の情報にトラッキングの座標変換による誤差が含まれるようになる。CADデータを生成する応用システムの場合には、CADデータ側に誤差のらない(e)の方法を用いるのが良い。この場合、計測されるそのシーケンスでのCADデータとの相対位置関係で撮像装置の位置は求まっているので、最初のO1座標系からの絶対位置誤差は大きくなっても、現在の撮影対象に対する撮像装置の位置は精度良く求まっているので、障害物を回避しての移動制御や、対応物にアクセスするようなナビゲーションや自律制御に適用するに当たっては問題とはならない。また、両方CADデータもそれなりに合わせて、撮像装置の視点位置情報もそれなりにあわせるように変換する方法もある。それらは適用するシステムに応じてもっとも適したものを選定するようにすれば良い。   FIG. 67 (e) shows an example in which the CAD data is matched with the viewpoint instead of the viewpoint. In this case, an error due to coordinate conversion of tracking is included in the position of the viewpoint, that is, the position and orientation information of the imaging apparatus. In the case of an application system that generates CAD data, it is preferable to use the method (e) in which there is no error on the CAD data side. In this case, since the position of the imaging device is obtained based on the relative positional relationship with the CAD data in the measured sequence, even if the absolute position error from the first O1 coordinate system becomes large, the imaging with respect to the current imaging target is performed. Since the position of the device is obtained with high accuracy, there is no problem in application to movement control avoiding an obstacle, navigation for accessing a corresponding object, and autonomous control. There is also a method of converting both CAD data so that the viewpoint position information of the image pickup apparatus is also appropriate. What is necessary is just to select those most suitable according to the system to apply.

図68〜図70は、本発明の第7の手段の実施例の基本的な構成を示している。   68 to 70 show the basic structure of an embodiment of the seventh means of the present invention.

図68において、X軸は画像データの水平座標であり、B軸は輝度値を示している。白黒画像であれば明るさであるが、カラー画像であればR,G,Bのそれぞれの輝度値と考えても良いし、カラー画像でも明るさの輝度値で処理する場合もあるので、そういう輝度値と考える。距離画像の得られる撮像装置の場合には、距離情報に対応した輝度値として適用する。ここで、X軸上のI1,I2,I3,I4は、画素のアドレスを示し、X1,X2,X3,X4,X5はX軸上の座標値(カメラ座標系におけるX座標の値に相当する座標値)を示す。それぞれの輝度値が11a,11b,11c,11dである。撮影対象の実際の輝度分布は、11fの実線のようになっているが、有限の画素を有する撮像装置で撮影しているために、センサ情報として得られる値は、各アドレスでの輝度値になる。ここで、輝度値が変化するということは、明るさや色情報が変わっていることであるので、その変曲点を見つけて、その左右の色情報をその変曲点の情報にもたせるようにする。変曲点の位置を推定する手法はいろいろあるが、最も簡単な方法は、輝度11aから輝度11bへの変化量から輝度11bから輝度11cへの変化量の増加になっており、次に輝度11bから輝度11cへの変化量から、輝度11cから輝度11dへの変化量は減少したので変化量の増減の傾向が反転する場所が、この例では画素アドレスI2とI3の間が変曲点11eとして抽出するようにすれば良い。更に、精度良く変曲点の位置を求める方法としては、前述のように変曲点が見付かったらば、その前後の4点の輝度値を用いて、例えば、3次曲線に最小二乗法などでフィッティングさせてその3次曲線の変曲点を求めるようにして、より本当の変曲店11gに近い位置を検出するようにしても良い。そして、抽出した変曲点の左右の色情報は検出した変曲点の左右の隣の変曲点までの色の平均色にしても良いし、隣の変曲点との中間当たりの点の色を色情報としても良い。平均化するときには変曲点近くの色情報は、変化している過程の色であるために除くようにしても良い。あるいは、あまり隣の変曲点を気にしないで単純に変曲点の左右の色情報をもたせるようにしても良い。変曲点は、色情報の変化する境界を示すので平均化した色にはそれなりの意味があるが、ごく近傍の原色を使う場合は差は小さくなる可能性はあるが色マッチングは原色で厳密に行えるというメリットがある。以上のような処理を水平画素以外に垂直画素でも行うようにする。また、斜め45度方向に画像を回転させてから再度水平方向の処理も加えて実施するようにすれば斜めの線分をより感度良く抽出できるようになる。   In FIG. 68, the X axis represents the horizontal coordinate of the image data, and the B axis represents the luminance value. If it is a black and white image, it is brightness, but if it is a color image, it may be considered as the brightness values of R, G, and B, and even a color image may be processed with the brightness value of brightness. Think of it as a luminance value. In the case of an imaging device that can obtain a distance image, the brightness value corresponding to the distance information is applied. Here, I1, I2, I3, and I4 on the X axis indicate pixel addresses, and X1, X2, X3, X4, and X5 correspond to coordinate values on the X axis (corresponding to X coordinate values in the camera coordinate system). Coordinate value). The respective luminance values are 11a, 11b, 11c, and 11d. The actual luminance distribution of the object to be imaged is shown by a solid line 11f, but since the image is captured by an imaging device having a finite pixel, the value obtained as sensor information is the luminance value at each address. Become. Here, since the brightness value changes means that the brightness and color information have changed, the inflection point is found and the left and right color information is given to the inflection point information. . There are various methods for estimating the position of the inflection point, but the simplest method is to increase the amount of change from the luminance 11b to the luminance 11c from the amount of change from the luminance 11a to the luminance 11b, and then to the luminance 11b. Since the amount of change from the luminance 11c to the luminance 11d has decreased from the amount of change from the luminance 11c to the luminance 11c, the inflection point 11e is the place where the increase / decrease tendency of the amount of change is reversed between the pixel addresses I2 and I3 in this example. Extraction should be performed. Further, as a method for obtaining the position of the inflection point with high accuracy, if the inflection point is found as described above, the luminance values of the four points before and after the inflection point are used, and for example, a cubic curve is used by the least square method or the like. A position closer to the true inflection store 11g may be detected by fitting to obtain the inflection point of the cubic curve. And the left and right color information of the extracted inflection point may be the average color of the color up to the next inflection point on the left and right of the detected inflection point, Color may be used as color information. When averaging, the color information near the inflection point may be removed because it is the color of the changing process. Alternatively, the left and right color information of the inflection point may be simply given without worrying about the adjacent inflection point. The inflection point indicates the boundary where the color information changes, so the averaged color has some meaning, but when using the nearest primary colors, the difference may be small, but color matching is strictly the primary color There is an advantage that can be done. The above processing is performed not only on horizontal pixels but also on vertical pixels. Further, if the image is rotated in a 45-degree oblique direction and then the horizontal process is performed again, the oblique line segment can be extracted with higher sensitivity.

次に、このように抽出した変曲点から色境界線分の作成方法の一例を図69を参照して説明する。図69の(a),(b)は、画像データで4×4の画素のイメージを記載している。ここでは、色情報は2色で、色1の画素と色2の画素があるものとする。ここで、図68の手法で変曲点を求めてその画素の1辺の両端12a,11bなどの点を結ぶようにする方法である。   Next, an example of a method for creating a color boundary line segment from the inflection points extracted in this way will be described with reference to FIG. 69 (a) and 69 (b) describe an image of 4 × 4 pixels as image data. Here, it is assumed that there are two colors of color information, and there are pixels of color 1 and pixels of color 2. Here, an inflection point is obtained by the method shown in FIG. 68, and points such as both ends 12a and 11b on one side of the pixel are connected.

図69の(b)は、変曲点として抽出された画素の1辺の中央に点12cなどを定義してその点を結ぶようにする方法である。   FIG. 69B shows a method in which a point 12c is defined at the center of one side of a pixel extracted as an inflection point and the points are connected.

(a)の方法は、画素に忠実である。検査装置などは(a)の方法が好適である。(b)の方法は、線分を滑らかに結ぶような感じになる。   The method (a) is faithful to the pixels. For the inspection apparatus, the method (a) is suitable. The method (b) feels like connecting the line segments smoothly.

次に、このように線分を抽出しても画素レベルから抽出しているので画素の単位でのギザギザ特性が残っていたりするのでそれらを取り除く処理を行うようにしても良い。   Next, even if line segments are extracted in this way, since they are extracted from the pixel level, jagged characteristics remain in units of pixels, and processing for removing them may be performed.

図69の(c)は、直線の途中にある点は省略できるので、線分のCADデータとしては途中の点を省略するようにして良い。また、(d)の例のように、所定の長さの直線の後に90度方向が変って1画素の長さの直線があって、次に逆方向に90度方向が変って最初と同じ長さの線分が繋がっている場合には、90度方向転換する部分の点は省略して直接結ぶようにしても良い。(e)の例は、同じ処理を1画素単位でジグザグしている部分を省略できる。また、(f)の例は、照明条件などにより必ずしも十分に線分が抽出されない場所では、直線と推定される線分は、そこに最小2乗法などでフィッティングさせた直線を定義して、そういう直線どうしの交点をあらたな特徴点をして定義するような処理を盛り込んでも良い。この場合には、このようにして求めた特徴点の誤差は、その点を作った直線を求めた計測点の誤差と直線でフィッティングしている誤差があるので、それらの誤差を推定して点データの誤差として管理して、そういうことも考慮した誤差が大きくなるか小さくなるかでそういう点の更新をするか否かを判別するようにする。   In FIG. 69 (c), a point in the middle of a straight line can be omitted, so the point in the middle of the line segment CAD data may be omitted. Also, as in the example of (d), the direction of 90 degrees changes after a straight line of a predetermined length, and then there is a straight line of one pixel length, and then the direction of 90 degrees changes in the opposite direction and is the same as the first. When the line segments of the length are connected, the points that change the direction by 90 degrees may be omitted and directly connected. In the example of (e), a portion where the same processing is zigzag in units of one pixel can be omitted. Further, in the example of (f), in a place where a line segment is not necessarily sufficiently extracted due to illumination conditions or the like, the line segment estimated as a straight line is defined as a straight line fitted by the least square method or the like. A process for defining the intersection of straight lines as a new feature point may be included. In this case, the error of the feature point obtained in this way includes the error of the measurement point from which the straight line that created the point was found and the error fitting with the straight line. It is managed as a data error, and it is determined whether or not such a point is to be updated depending on whether the error considering such a fact becomes larger or smaller.

また、直線ではない曲線と推定される線分では、抽出された特徴点を直線で結ぶのではなく、滑らかなBスプラインなどの曲線でむすぶようにしても良い。また、図68で説明した特徴点、特徴線分の抽出方法は、精度良く境界部位を抽出できるが、精度が画素レベルで良いために、図69の(f)のように直線部が直線としてきれいに抽出されない場合がある。また、円弧が円弧としてきれいに抽出されない場合がある。また、一般の環境にある物体の輪郭や色境界には直線や円弧や滑らかな曲線が多く存在する。そこで、図68の手法で特徴点、特徴線分を抽出することと、画像の2値化処理などのもう少し精度は劣っても直線や円弧などをそれなりに抽出しやすい処理を同じ画像について行い、2値化処理などで抽出した図形の輪郭を直線や円弧、滑らかな曲線で近似して、それらの直線や円弧、滑らかな曲線に近い、図68の手法で抽出した特徴点、特徴線分について対応付けを行い、図69の(f)の直線でフィッティングさせたような手法で、図68の手法で抽出した特徴点、特徴線分群にフィッティングさせ、より精度の良い直線や円弧、滑らかな曲線を新たに定義して、それらの直線や円弧、滑らかな曲線を3D計測に使用するようにしても良い。   Further, in a line segment estimated to be a non-straight curve, the extracted feature points may be connected with a smooth curve such as a B-spline instead of connecting with a straight line. The feature point and feature line segment extraction method described with reference to FIG. 68 can extract the boundary portion with high accuracy. However, since the accuracy is good at the pixel level, the linear portion is a straight line as shown in FIG. It may not be extracted cleanly. In addition, the arc may not be extracted as an arc. In addition, there are many straight lines, circular arcs, and smooth curves in the outline and color boundary of an object in a general environment. Therefore, extraction of feature points and feature line segments by the method of FIG. 68 and processing that easily extracts straight lines, arcs, and the like as much as possible, such as binarization processing of images, are performed on the same image, About the feature points and feature lines extracted by the method of FIG. 68, which approximates the contours of figures extracted by binarization processing with straight lines, arcs, and smooth curves, and is close to those straight lines, arcs, and smooth curves 69, the feature points and feature line segments extracted by the method of FIG. 68 are fitted by the method of fitting with the straight line of (f) of FIG. 69, and more accurate straight lines, arcs, and smooth curves are fitted. May be newly defined, and those straight lines, arcs, and smooth curves may be used for 3D measurement.

図70を参照して、図68を参照して説明した手法を適用して特徴点と線分を抽出した場合と他の手法の場合を比較して説明する。   With reference to FIG. 70, the case where feature points and line segments are extracted by applying the method described with reference to FIG. 68 is compared with the case of another method.

図70の(a)は、撮影対象の画像の上に図68で説明した手法で抽出した特徴点と色境界線分を重ねて表示している。画像イメージ(A)は、特にA部を拡大して大きく表示したものである。撮影対象は、水中の溶接線のビードである。ここでは、輝度の変曲点を感度良く抽出するようにしたので、溶接線のビードの凸凹の微小な影とか、照明のスポットの輪郭線とか、ビードの横の汚れなどが抽出されている。この方法の特徴は、(d)に示すように、照明が当たって輝度分布に一様な傾斜が生じている中でゴミやわずかな凸凹などで一様な輝度分布の傾向の変化部を抽出して、左右の色情報は、傾斜している輝度の平均的な色情報としてもたせることが容易にできる。また、(e)の輝度部分のように、輝度の変化が緩やかな場合にもその変曲点の中間位置を抽出するようにすれば、色境界線の位置を実際より近く精度良く検出することができる。撮影対象が実際にそういう輝度部分をしている場合もあるが、実際の撮影対象の色境界がはっきりしている場合でも撮像装置のピントがボケているような場合には(e)の輝度分布のようになるので、そういう場合にも有効な手法でる。   In FIG. 70A, the feature points extracted by the method described with reference to FIG. 68 and the color boundary line are superimposed on the image to be photographed. The image (A) is an enlarged image of the A portion. The object to be imaged is a bead of a weld line in water. In this case, since the inflection point of the brightness is extracted with high sensitivity, the uneven shadow of the bead of the welding line, the outline of the spot of the illumination, the dirt next to the bead, and the like are extracted. The feature of this method is that, as shown in (d), a uniform change in the tendency of the luminance distribution is extracted due to dust and slight irregularities in a uniform gradient in the luminance distribution when illuminated. Thus, the left and right color information can be easily provided as average color information of inclined luminance. In addition, if the intermediate position of the inflection point is extracted even when the change in luminance is gradual, as in the luminance part of (e), the position of the color boundary line can be detected closer to the actual and accurately. Can do. In some cases, the subject to be photographed actually has such a luminance portion, but the luminance distribution of (e) is present when the focus of the imaging device is out of focus even when the color boundary of the subject subject to photography is clear. Therefore, it is an effective technique even in such a case.

図70の(b)は、同じ撮影画像を単純に輝度値のレベルで分けて境界線を抽出したものである。この方法であると、境界線は必ず閉ループになる点は良いが実際の特徴点が特徴点として抽出されていないで、どちらかというと照明の分布が抽出されている。(f)の輝度分布のような局部的にわずかな変化部は抽出できない。また、(g)の輝度の分布ように輝度の変化がなだらかな部位は、変曲している中央とは違った場所が抽出されてしまう。   FIG. 70 (b) shows a boundary line extracted by simply dividing the same photographed image by the level of the luminance value. With this method, the boundary line is always a closed loop, but the actual feature points are not extracted as feature points, but rather the illumination distribution is extracted. It is not possible to extract a locally small change portion such as the luminance distribution of (f). In addition, as for the portion where the luminance change is gentle as in the luminance distribution of (g), a location different from the inflection center is extracted.

図70の(c)は、同じような所定の範囲内(ΔRGB)の色を平均色を求めて同じグループにして、そのグループの境界線を色境界線として抽出した場合である。これは、色の変化する境界部位がΔRGB以内であれば(h)のように色境界線が比較的精度良く検出でき、しかも境界線は閉ループになるというメリットはある。境界線が閉ループになると面が定義できて、面には色情報も正確に付けられるので、アプリケーションによってはこの手法が有効な場合もある。この方法の場合、輝度の変化量がΔRGBより小さいと境界が検出されない。色境界線の抽出位置のズレは、そのあとの対応点探索精度、更に3D計測した点の精度にも影響する。   FIG. 70 (c) shows a case where the average color of similar colors within the predetermined range (ΔRGB) is obtained to be the same group, and the boundary line of the group is extracted as the color boundary line. This is advantageous in that the color boundary line can be detected with relatively high accuracy as shown in (h) if the boundary part where the color changes is within ΔRGB, and the boundary line becomes a closed loop. If the boundary becomes a closed loop, the surface can be defined, and the color information is accurately attached to the surface, so this method may be effective depending on the application. In this method, the boundary is not detected when the amount of change in luminance is smaller than ΔRGB. The deviation of the extraction position of the color boundary line affects the subsequent corresponding point search accuracy, and further the accuracy of the 3D measured point.

これらの方法の中でもっとも精度良くしかも感度を上げて色境界線を検出できるのは、図68を参照して説明した変曲点を求める方法である。また、特にVT(目視)検査装置に適用する場合には、正確にCADデータを生成することができる図68の手法が良い。この手法を用いれば、精度良く、また、感度良くCADデータを生成できるようになる。変曲点を抽出する感度は、輝度の増加量の増減をノイズと識別する閾値などになるが、感度は、画面全体で一定で処理をしても良いし、局部的な輝度分布の状態より局部的な閾値値を局部的な部位ごとに変えて画面全体に対して全て最良の感度で処理を行わせるようにしても良い。また、処理速度の観点から、常に同じ程度の処理対象の線分が生成されるように処理エリア内の線分の本数が所定の本数程度におさまるように感度を自動調整するようにしても良い。自動調整の一つの方法は、微小領域内の処理で生成された線分の本数をカウントして全体エリア内の本数を推定し、多すぎる場合は感度を落として、少ない場合には感度を上げてこの処理を数回繰り返すことで適切な感度に設定するようにすれば良い。
図71は、本発明における第8の手段の基本的構成を示している。図71は、特徴点をトラッキングしている状況を示している。
Among these methods, the method of obtaining the inflection point described with reference to FIG. 68 can detect the color boundary line with the highest accuracy and sensitivity. In particular, when applied to a VT (visual) inspection apparatus, the method of FIG. 68 that can generate CAD data accurately is preferable. If this method is used, CAD data can be generated with high accuracy and high sensitivity. Sensitivity to extract the inflection point is a threshold that distinguishes increase / decrease in luminance increase from noise, etc., but the sensitivity may be processed constant throughout the screen, or from the state of local luminance distribution The local threshold value may be changed for each local region so that the entire screen is processed with the best sensitivity. Further, from the viewpoint of processing speed, the sensitivity may be automatically adjusted so that the number of line segments in the processing area falls within a predetermined number so that the same level of line segments to be processed are always generated. . One method of automatic adjustment is to estimate the number of lines in the entire area by counting the number of line segments generated by processing in a minute area. It is only necessary to set the appropriate sensitivity by repeating this process several times.
FIG. 71 shows a basic configuration of the eighth means in the present invention. FIG. 71 shows a situation where feature points are being tracked.

最初は、線分14a、線分14b、線分14cの3本の線分が検出されてそれらの線分の端点が特徴点となっている。これらの特徴点をトラッキングしている段階で線分が良く抽出されると3本の線分が1本の閉ループの線分14dになってしまった場合の処理の方法を説明する。   Initially, three line segments of line segment 14a, line segment 14b, and line segment 14c are detected, and the end points of these line segments are feature points. A description will be given of a processing method in a case where three line segments become one closed-loop line segment 14d when the line segments are well extracted at the stage of tracking these feature points.

通常、線分の特徴点は、線分の端点や分岐点や鋭角な角の点や直線から曲線に変る部分の点であるが、線分が曲線でなめらかで線分上に特徴となる点がない場合にはトラッキング継続が困難となってしまう。第8の手段は、そのような場合にもトラッキングを継続できるようにするもので、特徴点のある線分から特徴点のない閉ループの線分に変ったときに特徴点の組替えを行うようにする。図71に示す例では、閉ループの線分14dに変ったときに、その閉ループの線分14dの閉ループの図形の中心14eと閉ループ図形の方向性の特徴として、この場合には方向14fと方向14gの方向に例えば凸状になっているという方向の情報である。方向14hと14gは、中心14eからのベクトルとして定義する。長さは、中心14eから境界線までの長さにしても良い。処理としては、このような閉ループの線分に変った場合には、当然、線分14a,14b,14cは検出されないはずであるから、以降の処理は、線分14a,14b,14cの代わりに閉ループの基本図形の形、中心位置、特徴ある形状部位の方向の情報などを特徴として閉ループの図形をトラッキングするようにする。そして、後で、再度、閉ループが閉ループでなくなった場合には、線分の特徴点のトラッキングに再度もどるような処理を行う。この例では、閉ループ14dは、次には線分14hと14iになったという状況を示している。このときには、閉ループの図形は存在しなくなっているので、その対応する図形での処理は止めて、あらたに検出された線分の特徴点をトラッキングするような処理とすることで、閉ループになる場合も継続してトラッキングできるようになる。   Usually, the feature point of a line segment is an end point, a branch point, a sharp corner point, or a point that changes from a straight line to a curved line. If there is no, it will be difficult to continue tracking. The eighth means enables tracking to be continued even in such a case, and the feature points are rearranged when a line segment having a feature point is changed to a closed loop line segment having no feature point. . In the example shown in FIG. 71, when the closed-loop line segment 14d is changed to the closed-loop line segment 14d, the closed-loop graphic center 14e and the closed-loop graphic directionality feature in this case are the direction 14f and the direction 14g. The direction information is, for example, a convex shape. Directions 14h and 14g are defined as vectors from the center 14e. The length may be the length from the center 14e to the boundary line. As processing, since the line segments 14a, 14b, and 14c should naturally not be detected when the line segment changes to such a closed loop, the subsequent processing is performed in place of the line segments 14a, 14b, and 14c. The closed-loop graphic is tracked by using information such as the shape of the closed-loop basic graphic, the center position, and the direction of the characteristic shape part. Then, later, when the closed loop is no longer the closed loop, the process of returning to the feature point tracking again is performed. In this example, the closed loop 14d shows a situation in which the line segments 14h and 14i are next obtained. At this time, the closed-loop figure no longer exists, so the process with the corresponding figure is stopped, and the process of tracking the feature points of the newly detected line segment will result in a closed-loop case. Will be able to continue tracking.

図72は、本発明の第9の手段の基本的構成を例示している。図72は、撮影対象901を単眼あるいはステレオのどちらでも良いが、撮影しながらCADデータを生成したときに線分L1,L2が計測されてワールド座標系O1(単純に撮像装置を動かし始めた最初のカメラ座標系と考えても良いし、そこと基準となるワールド座標系との関係が分かっていて変換されたワールド座標系と考えても良い。)で求められている。ここで、計測されたCADデータは、線分L1,L2のみであるので、閉ループにならないために面データはまだ定義されていない。面データが定義されていないので、面データとしての色情報もない状態である。このような状態で計測したCADデータをモニタに表示して確認しても実際の撮影対象901(例えば地面に立っているタンクのようなもの)と計測された線分L1,L2の関係がわからない。この第9の手段では、線分L1,L2を計測したときに、撮影した撮像装置の位置と姿勢とそのときの画像データを対応付けて記録しておくようにする。   FIG. 72 illustrates the basic configuration of the ninth means of the present invention. In FIG. 72, the subject 901 may be either monocular or stereo. However, when CAD data is generated while photographing, the line segments L1 and L2 are measured, and the world coordinate system O1 (the first time the image pickup apparatus is simply started to move). The camera coordinate system may be considered, or the relationship between the camera coordinate system and the reference world coordinate system is known and may be considered as a transformed world coordinate system). Here, since the measured CAD data is only the line segments L1 and L2, the surface data is not yet defined in order to avoid a closed loop. Since surface data is not defined, there is no color information as surface data. Even if the CAD data measured in such a state is displayed on the monitor and confirmed, the relationship between the actual imaging object 901 (such as a tank standing on the ground) and the measured line segments L1 and L2 is not known. . In the ninth means, when the line segments L1 and L2 are measured, the position and orientation of the imaged imaging device and the image data at that time are recorded in association with each other.

図72の(c)には、線分L1,L2のCADデータに画像データG1,G2を対応させて記録している概念を、画像データG1,G2には画像ファイル名「画像001.JPG」などとその画像を撮影したときの撮像装置のO1座標系での位置x,y,z、更にx,y,z軸回りの回転角度のα,β,γを画像No.と対応させて記録しているデータの概念を示している。このように記録しておけば、CADデータを表示するときに、このデータよりCADデータL1,L2の背景にそのCADデータを計測したときの撮影画像を容易に表示できるようになる。   72 (c) shows a concept in which the image data G1 and G2 are recorded in correspondence with the CAD data of the line segments L1 and L2, and the image file name “image 001.JPG” is stored in the image data G1 and G2. And the positions x, y, and z in the O1 coordinate system of the image pickup apparatus when the image is taken, and α, β, and γ of rotation angles about the x, y, and z axes are displayed as image no. The concept of data recorded in correspondence with is shown. If recorded in this way, when CAD data is displayed, it becomes possible to easily display a photographed image obtained by measuring the CAD data on the background of the CAD data L1 and L2 from this data.

図72の(d)は、そのように対応する画像を背景に表示しているモニタ画面のイメージを示している。線分L1,L2の背景に画像データG1が表示されている。この場合、完全に線分L1,L2が背景の画像と対応するようにするため画像データの対応情報の中に撮像装置の位置と姿勢の情報があるので、自動でCADデータをモニタへ表示させるときの視点の位置を撮像装置が撮影したときに視点の位置に合わせて表示するようにすればCADデータと背景は一致する。この状態で、画面を拡大したり詳細に確認することで、計測された線分L1,L2が何に対応するものかが容易に確認できるようになる。また、3次元情報をもっている線分L1,L2は、良く形を確認するために、視点の向きを変更したり、より近くで拡大して表示させたい場合があるが、そのような場合には背景と対応しなくなるので、スイッチひとつで対応する状態に戻せる表示装置にしておいても良い。また、視点が多少変わった場合に、線分が付いている背景の写真の部位をCADデータの位置として背景画像を変形させて表示するようにしても良い。また、CADデータの線分がもっとたくさんある場合には、表示視点を変えたりしていると、どれかのCADデータがモニタの中央にくるので、そのような場合には、現在モニタの中央にあるCADデータに対応する背景の画像データに自動的に切り替るように表示する。複数候補のある場合には、最も現在CADデータを表示している視点に最も近い背景画像データを自動的に選択切り替えて重ねて表示するようにしても良い。また、ステレオカメラ方式の場合は、対象物によっては、特に、近かい距離で光る物体を撮影するような場合は、視点のわずかな違いで反射している状況の見え方が大きく変わる場合もあるので、そのような場合には、左右両方の画像を左右のそれぞれのカメラの撮影位置に対応つけて記録しておくようにしても良い。   FIG. 72D shows an image of a monitor screen displaying such a corresponding image on the background. Image data G1 is displayed in the background of the line segments L1 and L2. In this case, since the line segments L1 and L2 completely correspond to the background image, the image data correspondence information includes the position and orientation information of the imaging device, so that the CAD data is automatically displayed on the monitor. If the position of the current viewpoint is displayed in accordance with the position of the viewpoint when the imaging apparatus takes a picture, the CAD data and the background coincide. In this state, it is possible to easily confirm what the measured line segments L1 and L2 correspond to by enlarging the screen or confirming in detail. In addition, in order to confirm the shape of the line segments L1 and L2 having the three-dimensional information, there are cases where it is desired to change the direction of the viewpoint or to enlarge and display it closer. Since it does not correspond to the background, a display device that can return to the corresponding state with a single switch may be used. Further, when the viewpoint changes slightly, the background image may be deformed and displayed with the portion of the background photograph with the line segment as the position of the CAD data. Also, if there are more line segments of CAD data, if the display viewpoint is changed, any CAD data will come to the center of the monitor. It is displayed so as to automatically switch to background image data corresponding to certain CAD data. When there are a plurality of candidates, the background image data closest to the viewpoint displaying the current CAD data may be automatically selected and switched to be displayed in an overlapping manner. In the case of the stereo camera system, depending on the object, especially when shooting an object that shines at a close distance, the appearance of the reflected situation may vary greatly depending on a slight difference in viewpoint. Therefore, in such a case, both the left and right images may be recorded in association with the shooting positions of the left and right cameras.

また、CADデータの線分L1,L2の両側には色情報があるので、その色をある程度モニタ上で見やすいエリアで線分L1,L2の両側にCADデータとして表示するようにしても良い。この場合は、線分データ、背景画像データが少ない場合でもそれなりに線分周辺の色情報を確認できるようになる。勿論、背景に画像を表示して線分の両側にはCADの色情報を表示するようにして良い。線分の両側に表示する色情報の表示エリアは、表示したときに隣合う線分が密に存在する場合には小さくして、周辺に他の線分の表示がないような場合には大きく表示するように、自動で表示エリアの大きさが調整されるようにしても良い。   Further, since there is color information on both sides of the line segments L1 and L2 of the CAD data, the color may be displayed as CAD data on both sides of the line segments L1 and L2 in an area that is easy to see on the monitor to some extent. In this case, even when there are few line segment data and background image data, the color information around the line segment can be confirmed as such. Of course, an image may be displayed on the background, and CAD color information may be displayed on both sides of the line segment. The display area of the color information displayed on both sides of the line segment should be small if the adjacent line segments are dense when displayed, and large if there are no other line segments in the vicinity. The size of the display area may be automatically adjusted so as to display.

勿論、閉ループの面が生成されている場合には、面に画像を貼り付けるようにしても良い。特に色境界線の抽出感度を低くする場合には、色境界線分として抽出されない部分を画像のテクスチャとして貼り付けて面の色情報として管理する場合に有効である。この場合、当該面のより法線方向から撮影した画像に更新するようにしても良いし、見る角度で見え方が異なる場合は、一つの面に見る向きに応じた複数の画像を貼り付けるようにしても良い。閉ループが生成されない部分は、最初に生成される仮想背景に画像を貼り付けるようにしても良い。
図73〜115は、本発明における第11〜15の手段の基本的構成を例示している。
Of course, if a closed loop surface is generated, an image may be pasted on the surface. In particular, when the extraction sensitivity of the color boundary line is lowered, it is effective when the portion not extracted as the color boundary line segment is pasted as the texture of the image and managed as the color information of the surface. In this case, the image may be updated to an image taken from the normal direction of the surface, and if the appearance differs depending on the viewing angle, a plurality of images corresponding to the viewing direction may be pasted on one surface. Anyway. For the portion where the closed loop is not generated, an image may be pasted on the virtual background generated first.
73 to 115 illustrate the basic configuration of the 11th to 15th means of the present invention.

図73は、本視覚情報処理装置の基本的なアプリケーションの構成と視覚情報処理装置に対する基本コマンドと拡張コマンドを示している。視覚情報処理装置100は、カメラなどの撮像装置10からのビデオ信号を入力としてアプリケーション側の制御装置300と連携するが、連携するI/Fとしては、アプリケーション側の制御装置300から視覚情報処理装置100へコマンド指令を出して、その結果が応答として視覚情報処理装置100からアプリケーション側の制御装置300へ返すというのが基本概念である。アプリケーション側の制御装置300には、各種センサ30やアクチュエータ401を駆動制御するドライバ400などが接続される。勿論、この他にもいろいろなデバイスが接続されるようにして良い。視覚情報処理装置100には、CADデータなどを記録するメモリ200が接続される。これらは一つの例であり、これに類似した他の構成にしても良い。   FIG. 73 shows a basic application configuration of the visual information processing apparatus, and basic commands and extended commands for the visual information processing apparatus. The visual information processing apparatus 100 receives a video signal from the imaging apparatus 10 such as a camera and cooperates with the control apparatus 300 on the application side. The basic concept is to issue a command command to 100 and return the result as a response from the visual information processing device 100 to the control device 300 on the application side. The application-side control device 300 is connected to a driver 400 that drives and controls various sensors 30 and actuators 401. Of course, various other devices may be connected. The visual information processing apparatus 100 is connected to a memory 200 that records CAD data and the like. These are only examples, and other configurations similar to this may be used.

ここで、アプリケーション側の制御装置300から視覚情報処理装置100への基本コマンドとしては、原点リセットでCADデータをクリアする機能、カメラの3次元位置情報を取り出すためのカメラ位置リクエスト、生成したCADデータの探索を行う探索コマンド、生成したCADデータをファイルに登録するファイル登録機能であるが、アプリケーション側の視覚情報処理に対する高速処理化に対応するた各種拡張コマンドを準備する。   Here, basic commands from the control device 300 on the application side to the visual information processing device 100 include a function for clearing CAD data by resetting the origin, a camera position request for extracting the three-dimensional position information of the camera, and generated CAD data. A search command for performing a search and a file registration function for registering the generated CAD data in a file. Various extension commands corresponding to high-speed processing for visual information processing on the application side are prepared.

以下、それらの拡張コマンドを例を説明する。   Examples of these extended commands will be described below.

拡張コマンド1〜4は、CADデータを生成する場合に生成させる領域を指定するコマンドの一例である。領域の指定方法によって、ここでは4つの方法の例を述べる。   The extended commands 1 to 4 are examples of commands for designating an area to be generated when CAD data is generated. Depending on the area designation method, four examples will be described here.

拡張コマンド1の領域指定方法は、ワールド座標系におけるX,Y,Zの位置座標とそこを中心とする領域の大きさを指定する方法で、ここでは、半径を指定して球状の領域を指定するものである。領域は直方体や円柱でも良いが、この例では球にした。このコマンドに対する画像処理上の処理は、基本コマンドだけでは、常に画面全体の処理をしているので処理時間がかかるので、カメラを早く動かしたい、例えば、ロボットを早く動かしたいような場合には、より視覚情報処理のスピードを高めたい場合があるが、そのような場合に有効な手法である。コマンドと一緒に送られてくる指定領域は、X,Y,Zの3次元座標とカメラの現在位置情報からカメラに写っている2次元の画像データ上でX,Y,Zのポイントがどこかが分かる。また、エリアの大きさも実際の大きさが半径rの球が2次元の画像上で半径がいくらの円になるかも位置関係から求めることができるので、その円の内側領域のみ3次元のCADデータを生成するようにする。勿論、トラッキングを行うための対応点を見失うわけにはいかないので、トラッキング処理は、画面全体で行うようにする。少なくともCADデータを生成する処理エリアが小さくなれば、処理の速度はその分早くなるので、早く動かしたいアプリケーションには有効なコマンドとなる。また、生成されるCADデータ量が少なくなれば、探索する処理時間も早くすることができるようになる。勿論、座標X,Y,Zは、その都度頻繁に変えて指定して良い。また、このようにCADデータの生成領域を限定した上でCADデータの探索を行わせるようにしても良い。また、CADデータの探索する範囲も同じように指定領域で限定するようにしても良い。これらの処理は、例えば、2足歩行ロボットが階段を下りるような場合には、足元の階段のエッジの部分のみが3D計測されてCADデータが生成されて、階段のエッジの参照CADデータで階段のエッジの位置を検出して次ぎに足を出す位置制御に利用するのに有効な機能となる。ロボットが次に足を出そうとする位置は、制御計画上予想されているので、その予想位置より領域を指定するようにすれば良い。また、カメラと一緒に指向性マイクを搭載した首振り機構などを有するロボットの場合は、指向性マイクの音声処理で探索しようとする対象の音が特定できるような場合には、指向性マイクの特性を利用して最初に概略の方向が分かればその方向を指定してCADデータを生成して、探索したい対象を探索するような使用方法もある。この場合には、X,Y,Z座標と領域の大きさではなく、方向と領域の大きさを指定するようにするコマンドを用意するようにして良い。   The extended command 1 area specification method is a method of specifying the position coordinates of the X, Y, and Z in the world coordinate system and the size of the area centered there. Here, the radius is specified and the spherical area is specified. To do. The area may be a rectangular parallelepiped or a cylinder, but in this example it is a sphere. The image processing for this command requires processing time because the entire screen is always processed with only the basic command, so if you want to move the camera faster, for example, if you want to move the robot faster, In some cases, it is desirable to increase the speed of visual information processing. The specified area sent with the command is the point of X, Y, Z on the two-dimensional image data reflected in the camera from the three-dimensional coordinates of X, Y, Z and the current position information of the camera. I understand. In addition, since the size of the area can also be determined from the positional relationship for a sphere having an actual size of radius r on a two-dimensional image, the radius of the sphere can be obtained from the positional relationship. Is generated. Of course, since it is impossible to lose sight of the corresponding points for tracking, the tracking process is performed on the entire screen. If at least the processing area for generating CAD data becomes smaller, the processing speed increases accordingly, and this is an effective command for an application that wants to move quickly. Further, if the amount of CAD data to be generated is reduced, the search processing time can be shortened. Of course, the coordinates X, Y, and Z may be changed and designated frequently each time. In addition, the CAD data search may be performed after limiting the CAD data generation region. Similarly, the search range of CAD data may be limited to the designated area. For example, when the biped robot walks down the stairs, only the edge portion of the step stairs is 3D-measured to generate CAD data, and the stairs are generated using the reference CAD data of the stairs edge. This is an effective function for use in position control for detecting the position of the edge and then moving the foot next. Since the position where the robot will next step is predicted in the control plan, an area may be specified from the predicted position. Also, in the case of a robot having a swing mechanism equipped with a directional microphone together with a camera, if the target sound to be searched for can be identified by the sound processing of the directional microphone, There is also a usage method in which if a rough direction is first known using characteristics, CAD data is generated by designating the direction and a target to be searched is searched. In this case, a command for specifying the direction and the size of the area, not the X, Y and Z coordinates and the size of the area may be prepared.

また、拡張コマンド2の領域指定は、2次元の画像の中で指定された速度(ゆっくり動くもの、あるいは高速で動くものなど)の例えば速度の範囲で指定して2次元の画像内でその速度で移動しているものを2次元の差分2値化処理などで変化部位を抽出して、その変化部位の2次元の画像内での移動速度を求めて、指定された程度で移動する物体が2次元の画像内に生じた場合にその移動している物体周辺の3次元のCADデータの生成を行うようにするコマンドの例である。2次元の対象処理エリアは、既に2次元の差分2値化処理で移動する物体を検出したエリアがそのまま3DCADデータの生成処理エリアとなる。このコマンドも動くものを高速に探索したい場合に処理エリアを限定することで有効なコマンドとなる。また、この機能を使用して、カメラを固定しておき、対象物を回転テーブルの上にのせて回転させながらCADデータを生成するようにすれば、実際の物体の参照CADデータを何もない部屋の中に入れて生成しないでも、背景にいろいろな物が存在する部屋の中でも回転テーブルに乗って移動している物体周辺のみのCADデータを生成することもできるので、そのように利用しても良い。   In addition, the area designation of the extended command 2 is designated within a range of speeds of a speed (such as slowly moving or fast moving) specified in the two-dimensional image, and the speed in the two-dimensional image. The moving part is extracted by two-dimensional difference binarization processing or the like, and the moving speed of the changing part in the two-dimensional image is obtained. It is an example of a command for generating three-dimensional CAD data around a moving object when it occurs in a two-dimensional image. In the two-dimensional target processing area, the area in which an object that has already moved in the two-dimensional difference binarization processing is detected becomes the 3D CAD data generation processing area as it is. This command also becomes an effective command by limiting the processing area when it is desired to search a moving object at high speed. Also, if this function is used to fix the camera and generate CAD data while rotating the object on the rotary table, there is no reference CAD data of the actual object. Even if it is not generated in the room, it is possible to generate CAD data only around the object moving on the rotary table even in a room with various objects in the background. Also good.

CADデータの拡張コマンド3の領域指定は、2次元の画像内で例えば光る部分を2次元の画像処理で検出して指定された輝度レベルで光っている物体があればその物体の周辺を処理するようにするコマンドである。これも探索したいものが光る物体であると分かっている場合などに有効である。あるいは、光っている背景の中で光っていない物体を探索するような場合にも有効である。   The CAD data extension command 3 area designation is performed by detecting, for example, a shining portion in a two-dimensional image by two-dimensional image processing, and processing the periphery of the object if there is an object shining at a designated luminance level. It is a command to do so. This is also effective when the object to be searched is known to be a shining object. Alternatively, it is also effective when searching for an object that is not shining in a shining background.

拡張コマンド4の領域指定は、2次元の画像内で特定の形、色、大きさの物体を2次元の画像処理で求めて、指定された形、色、大きさにほぼ一致する物体が2次元の画像上で検出された場合に、その検出した物体周辺を処理の対象とするコマンドである。これは、形状を探索対象の3次元CADデータでのマッチングの前に2次元のある特定方向から見たときの形、色、大きさなどで探索するので、高速処理で探索した物体を探索できるようになる。大きさなどは撮影距離に影響するので、現在のカメラの位置と探索したい領域との位置関係よりある程度推定して指定するようにする必要はある。2次元で探索する場合は、代表的な見る方向によっていくつかの違った形があるので、方向を違えた複数の2次元の参照データを一緒に指示するようにしても良い。処理としては、2次元の画像上で複数種類のマッチングを行うようにすれば良い。これも2次元の探索機能で概略候補を見つけてから、詳細な対象物の位置と姿勢を3次元の探索機能で探索するようにするので、トータルの探索時間はより高速化することができるようになる。一般に、撮影距離が離れている場合の遠方の画像は、左右のステレオ画像で大きな違いは生じないので、遠方は2次元の探索機能で高速に処理して、対象物体の近くにきたときには、左右の画像の違いも大きくなって2次元探索を行うと誤認識する恐れもあることから、カメラによる計測精度も良くなるので、探索も3次元の探索コマンドで精度良く対象物を探索するようにするのが良い。また、2次元の探索にするか、3次元の探索にするかも、探索物体が近くか、遠方かで、自動的に切り替るようにしても良い。また、拡張コマンド1〜4で処理エリアを3次元の所定の場所周辺を指定するかわりに、処理の簡略化のため、2次元のカメラによる画像情報から得られる方向の情報のみを指定して、指定した方向のものは手前から遠方まで、あるいは、手前と遠方の距離の範囲を概略指定するような方法で、基本的には、方向を指定するようにしても良い。   In the area designation of the extended command 4, an object having a specific shape, color, and size in a two-dimensional image is obtained by two-dimensional image processing. When detected on a three-dimensional image, this is a command for processing around the detected object. This is because the shape is searched by the shape, color, size, etc. when viewed from a specific direction in two dimensions before matching with the three-dimensional CAD data to be searched, so that the object searched by high-speed processing can be searched. It becomes like this. Since the size and the like affect the shooting distance, it is necessary to specify and specify to some extent from the positional relationship between the current camera position and the area to be searched. When searching in two dimensions, there are several different forms depending on the typical viewing direction, so a plurality of two-dimensional reference data with different directions may be indicated together. As processing, a plurality of types of matching may be performed on a two-dimensional image. In this case as well, a rough candidate is found by the two-dimensional search function, and then the detailed position and orientation of the object are searched by the three-dimensional search function, so that the total search time can be further increased. become. In general, a distant image when the shooting distance is far away does not make a big difference between the left and right stereo images. Therefore, when a distant object is processed at high speed with a two-dimensional search function, Because the difference in the images of the two becomes large and there is a risk of misrecognition when a two-dimensional search is performed, the measurement accuracy by the camera is improved. Is good. Whether the search is a two-dimensional search or a three-dimensional search may be automatically switched depending on whether the search object is near or far. In addition, instead of specifying the processing area around the predetermined three-dimensional place with the extended commands 1 to 4, only the direction information obtained from the image information from the two-dimensional camera is specified for the sake of simplification. In the designated direction, the direction may be designated basically by a method of roughly designating the range of the distance from the near side to the far side or the near side and the far side.

拡張コマンド5,6は、探索機能として、もっと汎用的に2次元の探索コマンド、3次元の探索コマンドを用意しておき、先に2次元の探索コマンドで探索指令を出している場合には、次ぎに3次元探索処理を行うときには先の2次元の探索結果をもとにそれまでの2次元の探索データを引き継いで対応する3次元の詳細な探索を行うようにする。2次元の処理で候補として探索されたデータが3次元の探索を始めるときの探索候補の物体としてそれらのデータが引き継がれて3次元の探索処理を行うようにしたものである。また、2次元の探索機能としては、3次元CADデータの中に探索対象の物体が分かっている場合に、また、それをカメラがどの位置から撮影することで当該対象を発見したいかというその位置候補が1個所あるいは複数箇所ある場合には、それらの候補位置から探索対象物体を撮影した場合にどのように撮影されるかという2次元の特徴点と特徴線からなる2次元の画像イメージを生成して、その画像イメージと実際に撮影した画像の特徴点と特徴線からなる画像をマッチング処理して2次元の探索処理や位置決め制御(ずれ量を検出して応答として回答する)のためのマッチングを行うようにしても良い。   The extended commands 5 and 6 have a more general two-dimensional search command and a three-dimensional search command as a search function, and when a search command is first issued by a two-dimensional search command, Next, when a three-dimensional search process is performed, the corresponding two-dimensional detailed search is performed by taking over the previous two-dimensional search data based on the previous two-dimensional search result. The data searched as candidates in the two-dimensional processing is taken over as a search candidate object when starting the three-dimensional search, and the three-dimensional search processing is performed. In addition, as a two-dimensional search function, when an object to be searched is known in the three-dimensional CAD data, the position where the camera wants to find the target by photographing it from which position If there are one or more candidates, generate a two-dimensional image consisting of two-dimensional feature points and feature lines on how to capture the object to be searched from those candidate positions. Then, the matching between the image image and the feature point and feature line of the actually photographed image is performed to perform a matching process for two-dimensional search processing and positioning control (detecting a deviation amount and responding as a response). May be performed.

また、ステレオなどの複数の撮像装置で2次元の探索コマンドを実行させる場合、少しずつ視点の異なる撮像装置の全ての画像情報を処理して2次元の探索処理を行うようにしても良いが、例えば、2眼のステレオの撮像装置の場合に、通常は左の撮像装置の画像情報を処理するようにしておき、左の撮像装置の画像に探索対象物が入っていない場合とか、手前に対象物を遮るものが写って対象物が写らなくなった場合には右のカメラの画像情報に切り替るなど、複数の撮像装置を自動的に切り替えるようにして、画像処理プロセッサを撮像装置の台数分平行して駆動しないで単純な構成で複数台の撮像装置の画像を用いて2次元の探索コマンドの画像処理が行われるようにしても良い。   Further, when a two-dimensional search command is executed by a plurality of imaging devices such as stereo, the two-dimensional search processing may be performed by processing all image information of imaging devices with different viewpoints little by little. For example, in the case of a two-lens stereo imaging device, the image information of the left imaging device is usually processed, and the search target is not included in the image of the left imaging device, or the target is in front. When an object that is obstructed is captured and the object is not captured, the image processing processor is set in parallel by the number of image capturing devices by automatically switching multiple image capturing devices such as switching to the image information of the right camera. Thus, the image processing of the two-dimensional search command may be performed using images of a plurality of imaging devices with a simple configuration without being driven.

2次元あるいは3次元の探索処理を行う場合に、探索する対象物が見る方向によって形が異なることは当然あるが、見る方向が同じでも対象物が変形するものである場合は見え方も変化する。そのような場合には、最初から全ての場合の変形を考慮して2次元あるいは3次元の参照CADデータを用意するのは大変であるので、変形する結合条件を参照CADデータとしてもたせておくようにする。   When performing a two-dimensional or three-dimensional search process, it is natural that the object to be searched has a different shape depending on the direction in which the object is viewed, but the appearance changes if the object is deformed even if the object is in the same direction. . In such a case, since it is difficult to prepare 2D or 3D reference CAD data in consideration of the deformation in all cases from the beginning, it is assumed that the deforming coupling condition is provided as the reference CAD data. To.

その例を図112〜114を参照して説明する。図112は、CADデータの結合関係をデータで記述する場合の一例を示しており、可動する各部品Part1とPart2の基本位置関係、動作軸(直動か回転か)、動作範囲を記述したものである。図113は、可動のある撮影対象の例として携帯電話機のようなもので、部品18aは、アンテナで本体の部品18bに結合しており、その結合条件は、所定の基本位置関係からz方向にZ1〜Z2の範囲で伸び縮みして、本体18bと本体18cは、x軸回りにθ1〜θ2回転するようになっている。このような参照データのものを探索する場合には、まずは最初に代表的な形状を選ぶ。それは、2次元探索する場合の視点を選ぶ場合もそうであるが、代表的な特徴ある視点を選ぶようにする。形状が変化するものについては、変形するパターンの中より代表的なパターンをいくつか絞り込む。この携帯電話機の場合は、図114の(a),(b),(c)が代表的な形状である。これは、普段、その対象物がそのような形をしている場合が多いという知識データより参照CADデータを生成するようにする。知識データは、ロボットに学習機能を設けて自動的に入力、記録されるようにしても良いが、まずは、人があらかじめ入力しておく方法もある。図114の(a),(b),(c)の3つのパターンが生成された場合、いきなり、3つの3次元CADデータでの探索指令を出すのではなく、まずは、2次元の探索処理を行うようにする。それは、図114の3つのパターンに対してそれぞれ体表的な形に見える方向をいくつか選択して、そのいくつかの視点から見た場合の2次元の参照CADデータを生成する。画像データにして画像データレベルでのマッチング探索できるようにしても良いし、2次元で抽出した2次元のCADデータ(この場合、2値化したような形状データも2次元のCADデータと称している。)を2次元の参照CADデータのマッチングをとるようにして良い。CADデータどおしのマッチングは全体の大きさを合わせてから行うようにする。部品の可動状態を考慮した2次元のマッチングは、基本的シルエットのマッチングで代表的な輪郭形状のマッチングになるので2次元の図形マッチングになる。更に、CADデータの表面にマークが付いていたり、模様の色情報も有したCADデータになる場合には、先に説明した色境界線分を抽出して、境界線分色情報の比較や線分の繋がりなど対応点を求める手段と同じ処理方法も取り込んで、模様などのマッチング処理をするようにして良い。ここでのマッチングは、代表的な形、代表的な視点かから見た複数参照パターンのマッチングになるので、概略のマッチングになる。概略であるのでマッチング度もそれほど高くはないか、そういう中でマッチング度が高かったものを探索候補物体として絞り込むようにする。そして、絞り込まれた候補物体に対して、次の段階で視点の位置、変形する量を少しずつ変えながら、よりマッチング度の高くなる視点の方向、変形の条件を探索しておくようにする。最終的には、3次元の探索マッチングコマンドで精度良く対象物体の位置と姿勢、可動部を有する物体の可動状態を求めることができる。   Examples thereof will be described with reference to FIGS. FIG. 112 shows an example of the case where the CAD data connection relationship is described as data, which describes the basic positional relationship between each of the movable parts Part1 and Part2, the operation axis (directly rotating), and the operation range. is there. FIG. 113 shows a mobile phone as an example of a movable photographing object. The component 18a is coupled to the component 18b of the main body by an antenna, and the coupling condition is set in the z direction from a predetermined basic positional relationship. The main body 18b and the main body 18c expand and contract in the range of Z1 to Z2, and rotate by θ1 to θ2 around the x axis. When searching for such reference data, first, a representative shape is selected. The same is true when selecting a viewpoint for two-dimensional search, but a viewpoint with a typical characteristic is selected. For those whose shape changes, some typical patterns are narrowed down from among the deformed patterns. In the case of this cellular phone, (a), (b), and (c) in FIG. 114 are representative shapes. In this case, reference CAD data is usually generated from knowledge data that the object often has such a shape. Knowledge data may be automatically input and recorded by providing a learning function for the robot, but first, there is a method in which a person inputs in advance. When the three patterns (a), (b), and (c) in FIG. 114 are generated, suddenly, instead of issuing a search command with three three-dimensional CAD data, first, a two-dimensional search process is performed. To do. It selects several directions that look like body shapes for the three patterns in FIG. 114, and generates two-dimensional reference CAD data when viewed from several viewpoints. The image data may be searched for matching at the image data level. Two-dimensional CAD data extracted in two dimensions (in this case, binarized shape data is also referred to as two-dimensional CAD data). May be matched with two-dimensional reference CAD data. Matching between CAD data is performed after matching the overall size. The two-dimensional matching in consideration of the movable state of the component is a two-dimensional figure matching because it is a basic contour matching and a typical contour shape matching. Further, when the CAD data has a mark on the surface or the CAD data has pattern color information, the color boundary line segment described above is extracted, and the boundary line segment color information comparison or line is extracted. The same processing method as the means for obtaining corresponding points, such as the connection of minutes, may be taken in and matching processing for patterns and the like may be performed. The matching here is a matching of a plurality of reference patterns viewed from a representative form and a representative viewpoint, and thus is a rough matching. Since it is approximate, the matching degree is not so high, or those having a high matching degree are narrowed down as search candidate objects. Then, with respect to the narrowed candidate object, the direction of the viewpoint and the condition for deformation with higher matching degree are searched while gradually changing the position of the viewpoint and the amount of deformation at the next stage. Finally, the position and orientation of the target object and the movable state of the object having the movable part can be obtained with high accuracy by a three-dimensional search matching command.

最初は概略のマッチングで、しかも2次元のマッチング機能を利用すれば、全体の探索時間をより高速にすることができるようになる。ここで、2次元の参照図形を生成する機能や大きさを推定する機能などは、その全部を視覚情報処理装置内に設けても良いし、アプリケーション側の制御装置側に一部の機能をもたせるようにしても良いし、アプリケーションとして構築しやすい機能分担を考えて良い。また、部品が動きうる可能性のあるもの、例えば、回転するタイヤなどは、止まっているタイヤの模様と回転しているときに普通のカメラ撮影して画像データとして撮影される模様は異なるので、そのような物体であることをあらかじめCADデータの結合条件か或いは別のデータとして登録しておき、探索時に参照して、模様が一致しない場合でも形が一致していれば回転中のタイヤであることが認識できるようにしても良い。また、タイヤのように丸くなく、四角の物体が回転する場合は回転したときの回転形状を回転する軸の情報より生成してマッチングするようにしても良い。   By using rough matching at first and using a two-dimensional matching function, the overall search time can be further increased. Here, a function for generating a two-dimensional reference figure, a function for estimating the size, etc. may be provided entirely in the visual information processing apparatus, or a part of the function may be provided on the control apparatus side on the application side. You may consider it, and you may think about the function division which is easy to construct as an application. Also, there is a possibility that parts can move, for example, rotating tires etc., because the pattern of stationary tires and the pattern captured as image data by shooting with a normal camera are different, It is a tire that is rotating if it is registered in advance as CAD data combining conditions or other data to be such an object and is referenced even when the pattern does not match even when the pattern does not match. It may be possible to recognize this. Further, when a square object that is not round like a tire rotates, the shape of rotation when the object rotates may be generated from information on the axis of rotation and matched.

拡張コマンド7は、より処理の高速化を図るために判断機能も視覚情報処理装置内に設けるようにした場合の例で、一つの例で対象物体ID1と対象物体ID2が衝突するか否か、衝突するとした場合に、衝突までの時間を予想する機能を設ける場合のコマンドの例である。   The extended command 7 is an example in which a determination function is also provided in the visual information processing apparatus in order to further speed up the processing. In one example, whether the target object ID1 and the target object ID2 collide, It is an example of a command in the case of providing a function for predicting the time until a collision when a collision occurs.

図115は、物体20a1と物体20b1の移動の概念を示している。移動する物体20a1は、ある時間後には10a2の位置に、同様に物体20b1は物体20b2の位置に、更に同じ時間後には20a3と20b3の位置に移動した場合の例である。ここで、それぞれの3次元座標内での物体20a1の移動方向とその大きさは、ベクトルδa1,δa2と変化しているので、次の所定の時間までの動きを予測すると、更にδa3だけ移動することが予測できる。物体20b1の移動方向とその大きさについてもベクトルδb1,δb2と変化しているので、次の所定の時間までの動きを予測すると、更にδb3だけ移動することが予測できる。この予想から、2つの物体が衝突するか否かをチェックするようにする。また、更にその先の移動方向をその延長上で推定するようにすれば、衝突するまでの時間を推定することもできる。   FIG. 115 shows the concept of movement of the object 20a1 and the object 20b1. In this example, the moving object 20a1 moves to the position 10a2 after a certain time, the object 20b1 moves to the position of the object 20b2, and further moves to the positions 20a3 and 20b3 after the same time. Here, since the moving direction and the magnitude of the object 20a1 in each three-dimensional coordinate are changed to the vectors δa1 and δa2, if the motion up to the next predetermined time is predicted, the object 20a1 further moves by δa3. Can be predicted. Since the moving direction and the size of the object 20b1 are also changed to the vectors δb1 and δb2, if the movement up to the next predetermined time is predicted, it can be predicted that the object 20b1 further moves by δb3. From this expectation, it is checked whether two objects collide. Further, if the further moving direction is estimated on the extension, the time until the collision can be estimated.

図115の(G)は、2つの物体の動きを2次元画像上で示したものである。この場合の処理も高速化するために、2次元上の処理で判断するようなコマンドを用意しておき、2次元画像上で判断させるようにしても良い。3次元の移動軌跡であるベクトルδa1,δa2などは、2次元画像上の移動軌跡ベクトルδaXY1,δaXY2と対応する量であるので、厳密な衝突判断はできなくとも、少なくとも2次元の画像上で衝突しなければ、すきまが、まだ、あいている間は衝突しないと2次元処理の段階でも概略判断させることが可能である。また、先に3次元上で衝突予想位置を求めてその位置を2次元画像上に移して考えたときに、現在の画像上の対象物が衝突予定位置に来たかどうかでより精度良く判断できるようになるし、衝突するまでの時間をより精度良く予測することが2次元の画像上で高速処理でできるようになる。また、3次元と2次元の関係をあらかじめ確認して、3次元と対応する2次元での条件を設定(例えば、この物体の2次元画像のこの部位とこの部位の間にあれば衝突しないことなど。)を3次元データであらかじめ確認できるようにしておき、その関係を2次元の画像データ上で対応させて、監視するときには2次元の画像上で高速に監視して、何かロボットなどの制御信号にフィードバックするようにしても良い。   FIG. 115G shows the movement of two objects on a two-dimensional image. In order to speed up the processing in this case, a command that can be determined in a two-dimensional process may be prepared and determined on a two-dimensional image. The vectors δa1, δa2, etc., which are three-dimensional movement trajectories, are amounts corresponding to the movement trajectory vectors δaXY1, δaXY2 on the two-dimensional image. Otherwise, it is possible to make a rough judgment even at the stage of two-dimensional processing if the gap does not collide while it is still open. In addition, when the predicted collision position is first obtained in three dimensions and the position is moved to the two-dimensional image, it can be determined more accurately depending on whether the object on the current image has reached the planned collision position. As a result, the time until the collision can be predicted with higher accuracy on a two-dimensional image. Also, confirm the relationship between the 3D and 2D in advance and set the 2D condition corresponding to the 3D (for example, if there is a collision between this part of the 2D image of this object and this part, do not collide Etc.) can be confirmed in advance with three-dimensional data, and the relationship is made to correspond on the two-dimensional image data, and when monitoring, the two-dimensional image is monitored at high speed, You may make it feed back to a control signal.

また、拡張コマンドとしては、コマンド指令後、撮像装置(ロボット自身)の絶対位置と姿勢情報のかわりに変位量と姿勢の変化量、あるいは、認識した物体IDの移動量と姿勢の変化量などを応答出力されるようにしたり、あるいは、変化量に所定の閾値を設定してそれを超えるような場合にはその旨の応答出力されるようにしても良い。このように、これらの拡張コマンドは、アプリケーション側の制御装置300の使いやすいコマンドを用意するようにして良い。   In addition, as an extended command, after the command is given, instead of the absolute position and posture information of the imaging device (robot itself), the displacement and posture change amount, or the recognized object ID movement amount and posture change amount, etc. A response may be output, or a predetermined threshold value may be set for the amount of change and exceeded, and a response to that effect may be output. As described above, these extended commands may be prepared as easy-to-use commands for the control device 300 on the application side.

以上のように、これらの拡張コマンドを設ければ、高速にCADデータの生成や探索がより容易にできるようになる。また、参照CADデータを生成したときに電子タグシステムのデータと対応するようにCADデータを作成しておき、実際に探索する場合には、タグシステムの情報を利用してCADデータを管理したり、対象物体を探索するようにしても良い。押して変形、叩いて音を聞いて対象物の種別を認識するようにし、また、あらかじめ物体に関するデータを用意(あるいは学習するように)して、例えば、金属であれば叩くと高い音がする、ゴムであれば押すと変形して反力が検出される、水であれば変形して反力は検出されない、などの知識情報も活用して、ロボットのアクティブな動作も活用して、撮影対象の未知の物体が金属であるか、ゴムのようなものであるか、水のようなものであるか調べるような使い方もできるようにしておくと良い。また、探索した物体にICタグが付いている場合には、ICタグにあらかじめその物体の物理的な特性を書き込んでおき、それを読み取った情報を生成したCADデータの中に取り入れられるよういしても良い。また、一つの物体に目的を別にした複数のICタグが装着される場合、例えば、本環境認識システムのためにICタグを取り付けると先に別の目的に取り付けられていたICタグとダブル場合もあるが、そのような場合には、後から取り付けるタグ情報の中に同じ物体に既に張られているICタグの認識番号を書き込んでおき、そういう別のタグが付いている物体であるということや、別のタグが持っている情報を必要に応じて利用できるようにしても良い。   As described above, if these extended commands are provided, CAD data can be generated and searched more easily at high speed. In addition, when the CAD data is created so as to correspond to the data of the electronic tag system when the reference CAD data is generated and the search is actually performed, the CAD data is managed using the information of the tag system. The target object may be searched. Push and deform, hit and listen to the sound to recognize the type of object, and prepare (or learn) data about the object in advance, for example, if you hit a metal, it will make a high sound, If it is rubber, it will be deformed when it is pressed, and if it is water, it will be deformed and the reaction force will not be detected. It would be nice to be able to use it to find out if the unknown object is a metal, rubber, or water. In addition, when an IC tag is attached to the searched object, the physical characteristics of the object are written in advance on the IC tag so that the read information can be incorporated into the generated CAD data. Also good. In addition, when a plurality of IC tags with different purposes are attached to one object, for example, when an IC tag is attached for the environment recognition system, it may be doubled with an IC tag previously attached for another purpose. In such a case, the identification number of the IC tag already attached to the same object is written in the tag information to be attached later, and it is an object with such another tag. Information that another tag has may be used as necessary.

また、拡張コマンドに、人や動物やロボットを認識したその次ぎに使用するコマンドとして、アイコンタクトの有無を検出させるようなコマンドを用意しても良い。処理としては、認識した人や動物やロボットの参照CADデータと個々の部品結合データなどより、認識対応の目あるいはカメラの位置と部品CADデータを探索して、その視線方向が自分の現在いる方向か否かで、認識対象がこちらを見ているか否かを判断するようにする。また、輝度レベルが設定レベル以上の明るさの何かが光ったなら、あるいは所定の色の物体が何か視野の中に入ったなら、すかさず、その位置を3次元計測して計測結果の座標(X,Y,Z)をコマンドの応答結果として出力するような拡張コマンドを用意しておくことで、危険物を探索して発見した場合には、とにかくその方向からロボット自身の見を守るような動作を直ぐ取れるようにしても良い。このような処理を視覚情報処理装置100側で単一コマンドでクローズして結果がでるまで任せることができれば、主制御装置300の処理の負担と結果と指令のやりとりの煩雑さを不要にすることができる。   Further, as an extended command, a command for detecting the presence or absence of eye contact may be prepared as a command to be used next after a person, animal, or robot is recognized. As processing, the eye or camera position corresponding to recognition and the part CAD data are searched from the reference CAD data of the recognized person, animal or robot and the individual part combination data, and the direction of the line of sight is the current direction. Whether or not the recognition target is looking at this. In addition, if something with a brightness level higher than the set level shines, or if an object of a certain color enters the field of view, the position is measured three-dimensionally and the coordinates of the measurement result By preparing an extended command that outputs (X, Y, Z) as the response result of the command, if you search for a dangerous object and find it, you should protect the robot's own view from that direction anyway. It is also possible to take a simple action. If such processing can be left on the visual information processing device 100 side with a single command until the result is obtained, the processing load of the main control device 300 and the complexity of the exchange of results and commands are eliminated. Can do.

また、拡張コマンドとして、周囲に障害物などがない場合には、CADデータの生成を粗く行うようにして、周囲に特に近くに障害物がある場合(これは座標を指定しても良いし、視覚情報側で障害物を認識させてから処理をさせても良い)は、詳細にCADデータを生成するように切り替えるコマンドを用意しておけば、例えば、ロボットが移動中、周囲に障害物のない広いところを移動中にはラフに広範囲のCADデータを生成させ、障害物の近くをゆっくり移動するような場合には、常に障害物の衝突防止検出を行いながら障害物周辺の位置検出を精度良く行うようにする使い方も容易にできるようになる。   Further, as an extended command, when there are no obstacles in the surroundings, CAD data is generated roughly, and when there are obstacles particularly near the surroundings (this may specify coordinates, For example, if a command for switching to generate CAD data in detail is prepared, for example, while the robot is moving, obstacles around it may be detected. When moving in a wide area, a wide range of CAD data is generated roughly, and when moving slowly near an obstacle, the position of the obstacle is accurately detected while always detecting the collision of the obstacle. You can easily use it to do it well.

拡張コマンドに干渉チェックというコマンドを用意して、干渉チェックする対象物体、ロボットであればロボット自体の形状データとその時その時の各関節の角度情報などを指令データをして入力して、周囲環境と干渉チャックを行わせ、衝突する恐れのある場合には、応答として、アラーム信号と衝突部位(自分のどこと環境のどこが衝突するか)、現在のクリアランス量、現在のまま動くと衝突するまでの時間などを返すようにしても良い。そのときに、干渉チェックをよりしやすい方向へロボットの位置や撮像装置の向きや位置を誘導するためのロボットへ干渉チェックをより良く行うための望ましいロボットの制御データ(これは、ロボットの位置、姿勢、撮像装置の位置や向きなどの大まかなデータなどで実際にロボットを制御するための具体的な制御指令ロボットの制御装置などが生成してロボットを実際に制御するように機能分担することで良い。)を応答情報の一部として出力するようにしても良い。   Prepare a command called interference check as an extended command, and if it is a target object to be checked for interference, if it is a robot, input the shape data of the robot itself and angle information of each joint at that time as command data, and enter the surrounding environment If there is a possibility of collision by performing interference chucking, as a response, the alarm signal and the collision site (where and where in the environment will collide), the current clearance amount, You may make it return time. At that time, the desired robot control data for better checking the interference to the robot to guide the position of the robot and the orientation and position of the imaging device in a direction that facilitates the interference check (the robot position, Specific control commands for actually controlling the robot based on rough data such as posture, position and orientation of the imaging device, etc. May be output as part of the response information.

また、探索機能関連の各種コマンドについても、より探索しやすい方向に撮像装置を移動要求に関わる情報として、望ましいロボットの制御データを出力するようにして、物の影で探索したい場所が見えない場合とか、光が反射して探索したい場所が見えない場合とか、もっと詳しく詳細に探索するために近づく必要がある場合などロボット制御装置と連携しながら効率良く探索できるようにしても良い。また、ロボットの手先に撮像装置を搭載するような場合や、あらかじめロボットの手先や足先の参照形状データを指定して、あるいはロボットが工具を持っている場合には工具の参照形状データを指定して、それと作業の目的(例えば、撮像装置自身や、足先、手先の到達目標を指定するとか、手先を環境の物体IDの座標X,Y,Zで正対させるとか、指定した認識対象の物体IDを常に撮像装置画面内入れるように追従させるとか、指定した物体IDを指定した物体IDの後に所定の位置関係で追従させるなど)を指定して、その目的を達成するためのロボットの制御誘導情報を出力するようにしても良い。   Also, for various commands related to the search function, if the desired robot control data is output as information related to the movement request of the imaging device in a direction that makes it easier to search, the location where you want to search with the shadow of an object cannot be seen It may be possible to efficiently search in cooperation with the robot control device, such as when light is reflected and the place to be searched cannot be seen, or when it is necessary to approach in order to search in more detail. Also, when the imaging device is mounted on the robot's hand, specify the robot's hand or foot reference shape data in advance, or if the robot has a tool, specify the tool's reference shape data And the purpose of the work (for example, specifying the target of the imaging device itself, the tip of the foot, or the hand, or making the hand face the coordinates X, Y, Z of the object ID of the environment, or the designated recognition target Of the robot for achieving the purpose by designating the object ID of the robot to be always included in the image pickup apparatus screen or by causing the designated object ID to follow in a predetermined positional relationship after the designated object ID). Control guidance information may be output.

視覚情報処理装置は、ロボットの形状データと環境のデータをアクセスできる構成になるので、応答としては、撮像装置あるいは物体IDの座標系でX,Y,Zの方向、X,Y,Z軸周りの回転方向の速度指令で誘導制御指令情報として応答するようにしても良いし、ロボット側の動作関節構造が分かっていれば、各動作軸の制御信号にまで指令情報を分解して各関節の制御データを直接に生成できる機能を持たせることで、ロボットの制御系を合理的に構成することも可能となる。   Since the visual information processing apparatus is configured to be able to access the robot shape data and the environment data, the response is in the X, Y, Z directions and around the X, Y, Z axes in the coordinate system of the imaging apparatus or object ID. It is possible to respond as guidance control command information with a speed command in the direction of rotation of the robot. If the motion joint structure on the robot side is known, the command information is decomposed into control signals for each motion axis and By providing a function capable of directly generating control data, it is possible to rationally configure a robot control system.

また、2次元及び3次元の各種参照データベースを充実させておけば、例えば、路上で走っている車を認識して特定できれば、その車の運転席の位置情報もデータにあればそれを参照して運転席周辺のCADデータの生成や2次元あるいは3次元のマッチング処理を行わせるようにして、例えば、典型的な男女の参照データを複数用意しておけば、それらとのマッチングで運転しているのは男か女かの認識が可能となり、更に、個人の参考データを用意しておき、より詳細なマッチング処理を行わせることで、運転しているのは誰かというところまで認識させるような制御をロボットにも容易に行わせることが可能となる。   In addition, if 2D and 3D reference databases are enhanced, for example, if a car running on the road can be recognized and specified, the location information of the driver's seat of the car is also referred to in the data. For example, if you prepare multiple reference data for typical men and women, you can drive by matching with them by generating CAD data around the driver's seat and performing two-dimensional or three-dimensional matching processing. It is possible to recognize whether it is a man or a woman, and by preparing personal reference data and performing more detailed matching processing, it makes it possible to recognize who is driving Control can be easily performed by the robot.

また、遭難者を上空から探索するような場合は、あらかじめ遭難者の参照データを容易していないような場合には、例えば、遭難者と背格好が同じような人に協力してもらい、考えられるいろいろな状況姿勢での2次元及び3次元の参照データを生成しておき、遭難者を探索するようなこともできる。これは、ロボットでなくても、車や飛行船やヘリコプターに撮像装置を搭載して移動しながら探索するような運用方法を用いても良い。探査時に赤外線カメラやX線CTなどの別のセンサと組み合わせて、それらのセンサで検知された部位に相当する場所、あるいは方向を精度良く探索するように連動させても良い。   In addition, when searching for the victim from the sky, if the reference data of the victim is not easy in advance, for example, ask the person who has the same appearance as the victim to cooperate. It is also possible to search for a victim by generating 2D and 3D reference data in various situations and postures. For this, an operation method may be used in which an image pickup device is mounted on a car, an airship, or a helicopter to search while moving, without using a robot. In combination with another sensor such as an infrared camera or X-ray CT at the time of exploration, it may be linked so that a place or direction corresponding to a part detected by these sensors can be searched with high accuracy.

また、距離の計測に3次元のレーザ計測あるいは距離画像と可視画像を得られるCCDなどを応用した2次元の距離センサなどと組み合わせてステレオ計測の代りに3次元計測をしてトラッキングや形状探索を行うようにしても良い。   In addition, 3D measurement is used instead of stereo measurement for tracking and shape search in combination with 3D laser measurement for distance measurement or 2D distance sensor using CCD etc. that can obtain distance image and visible image. You may make it do.

また、CADデータベースに各種認識IDの形状情報に対応付けて、その名称や重量や各種情報を対応させてデータを管理するようにして良く、例えば、鳥であれば鳥の種類、大きさ(これは成長に伴う大きさ)ごとに代表的な形状データを登録したらば、それらのデータごとに鳥の鳴き声の音声データ(時系列の音声信号の一定時間のサンプル記録など)を登録しておき、視覚情報処理装置に音声認識機能も付加して、現在撮像装置で撮影探索認識している対象の物体(鳥)が何の種類か形状データのみでは特定しずらいような場合に、その時にマイクなどからの別のセンサで取得した鳥の鳴き声の音声データを取得して、その音声の所定時間サンプリングした時系列データを参照データとして入力すれば、その音声データもデータベースの中の音声情報とマッチングを行い、現在認識中の鳥の種類の特定処理に併用して、より精度良く物体の認識ができるようにしても良い。   The CAD database may be associated with the shape information of various recognition IDs, and the data may be managed by associating the name, weight, and various information. For example, in the case of a bird, the type and size of the bird (this) If representative shape data is registered for each size), the sound data of bird calls (such as a sample recording of a time-series audio signal for a certain period of time) is registered for each data. A voice recognition function is also added to the information processing device. If it is difficult to identify the type of target object (bird) that is currently being searched for and recognized by the imaging device using only shape data, a microphone, etc. If you acquire voice data of bird calls acquired by another sensor from, and input the time-series data sampled for a predetermined time as reference data, the audio data will also be in the database Performs voice information matched in, in combination to a specific processing types of birds currently recognized, may be more can precisely recognize the object.

また、拡張コマンドとして、1回特定の対象物体を認識したならば、その物体IDを指定して、物体IDが移動するような場合にも継続認識させて3次元空間上位置と姿勢を連続して応答させるコマンドを設けるようにしても良い。移動する物体が撮像装置の視野から外れたり、手前の障害物の後ろを移動して継続した認識処理が途切れるような場合についても、図115で説明したように、それまでの動きを予測して継続して探索すべき場所を視覚情報処理側で自動的に推定して認識処理を行うようにさせても良い。それでも見失った場合には、その結果を応答する。   As an extended command, once a specific target object is recognized, the object ID is designated, and even when the object ID moves, it is continuously recognized, and the position and orientation in the three-dimensional space are continued. A command for responding may be provided. Even when the moving object is out of the field of view of the imaging device or when the recognition process continued due to the movement behind the obstacle in front is interrupted, as shown in FIG. The visual information processing side may automatically estimate the place to be continuously searched for recognition processing. If it is still lost, respond with the result.

また、拡張コマンドとして、探索範囲と2次元あるいは3次元の参照CADデータを指定して、同じような形状物体、模様などの数を数えて、数えた数を応答させるようにしても良い。   Further, as an extended command, a search range and two-dimensional or three-dimensional reference CAD data may be designated, and the number of similar shaped objects, patterns, etc. may be counted and the counted number may be made to respond.

また、過去に1回認識してIDが特定されているものは、CADデータあるいはそれに対応する各種データなどの代りにIDを指定するようにして、物体に付けた特定の名前(番号)であるIDによって参照するべきデータを視覚情報処理側で自動的に参照できるようにしても良い。また、あらかじめ、何を検出するか決めておき、検出範囲とその検出する内容をコマンドで指定して、その検出結果を応答されるようにしても良い。例えば、水道の蛇口の場所を指定して、蛇口から水が出ているか否か、コンセントの場所を指定して、コンセントにプラグが差し込まれているか否かを検出させらり、ランプや信号等であれば、その位置を概略して、ランプや信号が付いているか否か、何色か、などを応答するようにしても良い。   Also, what has been identified once in the past and whose ID has been specified is a specific name (number) given to the object by designating the ID instead of CAD data or various data corresponding thereto. Data to be referred to by ID may be automatically referred to on the visual information processing side. Further, what is to be detected may be determined in advance, the detection range and the content to be detected may be designated by a command, and the detection result may be returned. For example, you can specify the location of the faucet of the water supply, specify whether or not water is coming out of the faucet, specify the location of the outlet, and detect whether or not the plug is inserted into the outlet. If so, the position may be outlined, and whether or not a lamp or signal is attached, what color, etc. may be responded.

このように、拡張コマンドとしては、AI的な処理を含めた、アプリケーション側であれば有効なコマンドをあらかじめ決めて、各種用意しておくようにしても良い。また、典型的な動作パターン(動き)のデータベースに登録しておき、認識対象の動きがデータベースに登録してある動きと同じか否かを判別することによって、認識対象が何の動作をしているかという、あらかじめデータベースに登録してある動作の種類(例えば、人間が歩いている動作、万歳をしている動作、屈伸運動をしている動作など)を応答出力できるようにしても良い。動作の参照パターンデータとしては、時刻データ付きの3次元CADデータで表現して、時間軸のスケールはその動作パターンごとに登録されている所定の範囲内で可変で合わせるようにして、時系列のCADデータの動作パターンの相関性、具体的には、1シーンごとのマッチングをとって、姿勢のマッチング度とその変化する姿勢の時系列順番のマッチング度より、参照パターンデータの中に現在撮影している画像情報の中の認識対象の動きが所定の閾値以上に一致する場合には、当該参照パターンの動作をしていると判断するようにしても良いし、動作パターンを全て時系列の3次元CADデータで記述しないで、動きの特徴、傾向(例えば、手の動きの大きさ、早さ、位置など)の時系列の特徴量の変化パターンで記述しておき、撮影画像の認識対象物の時系列の当該特徴量を抽出比較してどの参照パターンの動作をしていると判断するようにしても良い。このときデータベースは、3次元の動きの特徴量を登録しておき、マッチング処理を行うときには、認識対象と撮像装置の位置関係より参照データを2次元画像上での特徴量の変化パターンを求めて2次元の処理で特徴量の変化パターンのマッチングを高速に行うようにしても良い。また、コマンドしては、探索対象物を特定しないで、撮像装置から入力される画像情報に対して、データベースに登録されている参照CADデータとのマッチング処理を自動で行わせて、マッチング度が高い結果となった参照画像を物体IDをその時点で応答するようなコマンドを用意しても良い。認識した物体のID出力は複数であっても良いし、IDと一緒にその位置と姿勢情報も出力するようにしても良い。また、多くの参照データをデータベースに登録しておく方法として、一緒に存在する可能性のあるデータを関連付けして、また、どういう場所にあるかという場所の情報とも関連付けをしておくことによって、現在、撮像装置が撮影している場所の情報からマッチング処理を行う参照データの数を絞り込んで、より効率良く処理を行わせることも可能となる。   As described above, as an extended command, a valid command for the application side including AI-like processing may be determined in advance, and various commands may be prepared. In addition, by registering in a database of typical motion patterns (motion), and determining whether the motion of the recognition target is the same as the motion registered in the database, what action the recognition target performs It may be possible to make a response output of the type of motion registered in the database in advance (for example, the motion of a person walking, the motion of a long-lived person, the motion of bending and stretching). The reference pattern data of the operation is expressed as three-dimensional CAD data with time data, and the time axis scale is variably adjusted within a predetermined range registered for each operation pattern, so that time series Correlation of motion patterns of CAD data, specifically, matching is performed for each scene, and the current pattern is taken in the reference pattern data based on the matching degree of posture and the matching degree of the changing posture in time series order. If the movement of the recognition target in the image information matches a predetermined threshold value or more, it may be determined that the operation of the reference pattern is performed. Instead of describing it in dimensional CAD data, describe it in a time-series feature amount change pattern of movement features and trends (eg, hand movement magnitude, speed, position, etc.). It may be determined to be the operation of which reference pattern when the feature quantity of sequence to extract a comparison of a recognition object image. At this time, the database registers the feature quantity of the three-dimensional motion, and when performing the matching process, the reference data is obtained from the positional relationship between the recognition target and the imaging device, and the change pattern of the feature quantity on the two-dimensional image is obtained. Matching of the feature amount change pattern may be performed at high speed by two-dimensional processing. In addition, the command does not specify the search target, and the image information input from the imaging device is automatically matched with the reference CAD data registered in the database, and the matching degree is increased. A command may be prepared so as to respond to the object ID at that point in time for a reference image with a high result. There may be a plurality of ID outputs of recognized objects, and the position and orientation information may be output together with the ID. In addition, as a method of registering a lot of reference data in the database, by associating data that may exist together, and by associating with location information such as where it is, At present, it is possible to narrow down the number of reference data to be subjected to matching processing from information on the location where the image capturing apparatus is photographing, and to perform processing more efficiently.

図74〜図91は、本発明における第1〜15の手段をLSI回路あるいはLSIを組み合わせた基板の回路などで実施する場合の基本的なブロック図を例示している。図92〜図99は、そのときのタイミングチャートの一例を示し、図100〜111は、各回路の動作を説明する基本処理フローチャートを例示している。これらの例は、あくまでも一例であり、盛り込む機能の内容、回路の組み合わせ方法、タイミングの取り方などはいろいろ考えられるので、目的に応じて、また、回路の規模、開発費用などの制約条件を考慮して変形するようにすると良い。   74 to 91 exemplify basic block diagrams in the case where the first to fifteenth means of the present invention are implemented by an LSI circuit or a circuit of a substrate combined with an LSI. 92 to 99 show examples of timing charts at that time, and FIGS. 100 to 111 exemplify basic processing flowcharts for explaining the operation of each circuit. These examples are just examples, and there are various ways to incorporate functions, circuit combinations, timing, etc., so consider the constraints such as circuit scale and development costs according to the purpose. Then it is good to deform.

図74は、撮像装置10,20からの画像情報(映像信号)をA/D変換回路15(a)0,15(a)33により、それぞれの画像メモリへ取り込み、水平特徴点抽出回路16(a)1,2と16(a)21,22、垂直特徴点抽出回路16(a)3,4と16(a)23,24で色境界線分の特徴点を抽出して、線分生成(1)〜(4)16(a)5〜8と線分生成(1)〜(4)16(a)25〜28でそれぞれ2次元のCADデータの線分を生成して、線分統合(1)〜(4)16(a)9〜12と線分統合(1)〜(4)16(a)29〜32で各々の左右の撮像装置10,20で撮影した画像情報の線分を統合して各々のメモリへ格納する処理を行う。各処理回路は、動作速度を速くするために、水平および垂直の特徴点抽出回路は2つづつ、線分生成、線分統合はそれぞれ4つづつパラに処理できるように構成してある。処理速度に応じてパラに処理する回路数は計画するようにして良い。線分生成を画面の中のエリアごとに分割してパラの処理で高速に実施するようにしたので、各エリアをまたいで結ばれる線分が存在することから、その領域をまたがって繋がっている線分を同線分として繋げる処理を線分統合(1)〜(4)の回路の中で実行するようにする。   In FIG. 74, image information (video signals) from the imaging devices 10 and 20 is taken into the respective image memories by the A / D conversion circuits 15 (a) 0 and 15 (a) 33, and the horizontal feature point extraction circuit 16 ( a) Line segment generation by extracting feature points of color boundary line segments by 1, 2 and 16 (a) 21 and 22 and vertical feature point extraction circuits 16 (a) 3, 4 and 16 (a) 23 and 24 (1) to (4) 16 (a) 5 to 8 and line segment generation (1) to (4) 16 (a) 25 to 28 generate line segments of two-dimensional CAD data, respectively, and integrate line segments (1) to (4) 16 (a) 9 to 12 and line segment integration (1) to (4) 16 (a) Line segments of image information captured by the left and right imaging devices 10 and 20 Are integrated and stored in each memory. In order to increase the operation speed, each processing circuit is configured so that two horizontal and vertical feature point extraction circuits can be processed in parallel, and line segment generation and line segment integration can be processed in four each. The number of circuits to be processed in accordance with the processing speed may be planned. Line segment generation is divided into areas on the screen and performed at high speed by para processing, so there are line segments that connect across each area, so they are connected across those areas. The process of connecting the line segments as the same line segment is executed in the circuit of line segment integration (1) to (4).

また、ステレオ計測の前処理として、点抽出(1)〜(n)16(a)12〜14は、右画像の線分データメモリから対称点を抽出する。例えば、線分の始点と終点の点データを抽出して、その点データを2D点メモリへ書き込む。   In addition, as preprocessing for stereo measurement, point extraction (1) to (n) 16 (a) 12 to 14 extract a symmetric point from the line segment data memory of the right image. For example, the point data of the start point and end point of the line segment are extracted and the point data is written into the 2D point memory.

次に、S候補(1)〜(n)の回路16(a)15〜17は、ステレオの対応点候補を左画像の線分データメモリから抽出する。ステレオ計測では、1本の線上に対応点は存在するので、その線上にある左画像の中の候補点を抽出するようにする。   Next, the S candidates (1) to (n) circuits 16 (a) 15 to 17 extract stereo corresponding point candidates from the line segment data memory of the left image. In stereo measurement, since a corresponding point exists on one line, candidate points in the left image on the line are extracted.

対応探索(1)〜(n)の回路16(a)18〜20は、対応点候補の絞込みをベクトルのマッチング処理などを利用して行う。絞り込んだ結果、対応点候補が一つに絞り込まれた場合は、左右の点をS対応点メモリへ出力する。ここで、対応探索(1)〜(n)の処理は、他の処理よりも時間がかかるため、パラに処理できる回路をn個用意するが、n個は十分多くするのが良い。   Corresponding searches (1) to (n) circuits 16 (a) 18 to 20 narrow down corresponding point candidates using a vector matching process or the like. As a result of narrowing down, when the corresponding point candidates are narrowed down to one, the left and right points are output to the S corresponding point memory. Here, since the processes of the correspondence searches (1) to (n) take longer than other processes, n circuits that can be processed in parallel are prepared.

メモリ転送(1)16(a)10は、トラッキングフラグメモリの内容を確認して、転送するフラグがONしていた場合には(左画像の)線分統合メモリの内容をT計測(左画像の)線分統合メモリへ転送する。これは、トラッキングによる3D計測を行うために左の画像の処理結果を一時記憶しておくための処理である。トラッキングフラグメモリは、最初と、トラッキングを見失って再開する場合やトラッキングによる計測を実施した後に転送ONのフラグになるようにする。メモリ転送(1)16(a)11は、トラッキングを行うために毎回左画像の線分統合データを前(左画像の)線分統合メモリへ一時記憶しておくための処理である。   Memory transfer (1) 16 (a) 10 confirms the contents of the tracking flag memory, and when the transfer flag is ON, the contents of the line segment integrated memory (left image) are T-measured (left image). ()) Transfer to line integrated memory. This is a process for temporarily storing the processing result of the left image in order to perform 3D measurement by tracking. The tracking flag memory becomes a transfer ON flag at the beginning, when losing tracking and restarting, or after measuring by tracking. Memory transfer (1) 16 (a) 11 is a process for temporarily storing the left line segment integrated data in the previous (left image) line segment integrated memory for tracking.

S対応点メモリ(1)〜(4)へ書き込まれた左右の対応点のデータは、次の図75の(A)から3D計測(1)〜(4)の回路16(b)1〜4で読み込まれてステレオ計測され、その結果は3D点メモリ(1)〜(4)へ書き込まれる。次に、3D線生成(1)〜(4)の回路16(b)5〜8で3D計測した点に繋がる線分についても3D計測して3次元の線分のCADデータを生成して3D線メモリ(1)〜(4)へ書き込む。また、ここでも、処理を高速化するために、4つの同じ回路をパラに動作させるので、それぞれで生成した線分が繋がっている場合もあるのでその境界部分の処理を行い繋がる3D線分は2本の線分を1本に統合する処理を3D線統合(1)の回路16(b)9で行い、統合された3D線分を3D線分統合メモリへ出力する。ここで出力する3D線分統合メモリは左カメラの座標系における3D線分データである。   The left and right corresponding point data written to the S corresponding point memories (1) to (4) are the circuits 16 (b) 1 to 4 of the following 3D measurement (1) to (4) from FIG. Are read and stereo-measured, and the result is written to the 3D point memories (1) to (4). Next, 3D measurement is also performed on the line segment connected to the point measured in 3D line generation (1) to (4) by the circuits 16 (b) 5 to 8 to generate CAD data of the three-dimensional line segment. Write to the line memories (1) to (4). Also, here, in order to speed up the processing, the same four circuits are operated in parallel, so the line segments generated in each may be connected. The process of integrating the two line segments into one is performed by the circuit 16 (b) 9 of 3D line integration (1), and the integrated 3D line segments are output to the 3D line segment integration memory. The 3D line segment integrated memory output here is 3D line segment data in the coordinate system of the left camera.

図76は、トラッキング処理の回路の部分を示している。前(左画像の)線分統合メモリから始点や終点、分岐点や鋭角な点の色境界線分の特徴となる点の抽出を、ステレオ計測の場合と同じように、点抽出(1)〜(n)の回路16(c)1〜3で行い、2D点メモリ(1)〜(4)へ出力する。次に、T候補(1)〜(n)の回路16(c)4〜6で(左画像の)線分統合メモリの中からトラッキングの対応点候補を抽出する。次に、対応探索(1)〜(n)の回路16(c)7〜9で候補点の絞込みをベクトルマッチング処理などを利用して行い、対応点候補をT対応点メモリ(1)〜(4)へ書き込み出力する。ここでも、対応探索(1)〜(n)の処理は、ステレオ計測の場合と同じ処理回路が利用できるが、同様に時間がかかるのでパラに処理をする回路数nは十分多くするのが良い。   FIG. 76 shows a circuit portion for tracking processing. Extraction of points that are characteristic of the color boundary line segment of the start point, end point, branch point and acute point from the previous (left image) line segment integration memory, as in the case of stereo measurement, point extraction (1) to Performed by the circuits 16 (c) 1 to 3 of (n) and output to the 2D point memories (1) to (4). Next, tracking corresponding point candidates are extracted from the line segment integrated memory (left image) by the circuits 16 (c) 4 to 6 of the T candidates (1) to (n). Next, the candidate points are narrowed down by using the vector matching process or the like in the circuits 16 (c) 7 to 9 of the correspondence searches (1) to (n), and the corresponding point candidates are stored in the T corresponding point memories (1) to ( Write to 4) and output. Here, the processing of correspondence search (1) to (n) can use the same processing circuit as in the case of stereo measurement. However, since it takes time similarly, the number n of circuits to be processed in parallel should be sufficiently increased. .

次に、図77の入力(B)からトラッキングの対応点候補を読み込み、移動量計算(1)〜(4)の回路16(d)1〜4で移動量を計算して移動量メモリ(1)〜(4)へ書き込み、最終的には安定度評価の回路6(d)5で一番正しいと思われるトラッキングの対応点3点を選んで、その3点による移動量を決定移動量として決定して決定移動量メモリへ書き込む。決定できなかった場合は、トラッキングを見失ったことになるのでT継続フラグメモリへNGを書き込む。トラッキングが継続している場合は、T継続フラグメモリへ継続中のフラグを書き込む。ここでの安定度評価では、候補移動量で3D計測された3D点を前回の座標系へ変換したときに多くの3D点が一致する移動量をより正しい移動量として選択するようにする。   Next, the corresponding point candidate of tracking is read from the input (B) of FIG. 77, and the movement amount is calculated by the circuits 16 (d) 1 to 4 of the movement amount calculation (1) to (4). ) To (4), and finally, three corresponding points of tracking considered to be most correct in the circuit 6 (d) 5 for stability evaluation are selected, and the movement amount by the three points is set as the determined movement amount. Determine and write to the determined movement amount memory. If it cannot be determined, it means that the tracking has been lost, and NG is written to the T continuation flag memory. When tracking is continued, the ongoing flag is written in the T continuation flag memory. In the stability evaluation here, when a 3D point measured in 3D with a candidate movement amount is converted into the previous coordinate system, a movement amount that matches many 3D points is selected as a more correct movement amount.

次に、図78では、3D線分統合メモリ(左カメラ座標系)に求められた3D線分データをトラッキングによる座標変換の回路16(e)1で3D線分統合メモリ(トラッキング開始時のワールド座標系)に変換する。次に、計測された点の誤差の大きさ、誤差の形状を考慮して、新たに計測された点、線分データは追加して、誤差が小さくなるものは更新する処理を更新処理16(e)2で行い、トラッキング開始時のワールド座標系で表現された連続トラッキング中の3D線分全体の統合メモリへ書き込むようにする。次に、更に最初のトラッキングが途中で途切れて再開している場合は、トラッキングが途切れたときの一番最初のワールド座標系へ変換するための座標変換を回路16(e)3で行い、その変換した点、線分データを最初のワールド座標系で表現された3D線分全体の統合メモリへ書き込む。同じ点が存在する場合には、ここでも総合的な精度の良い、誤差形状の小さな点に更新するようにしたり、この変換で生じる誤差を加算するなどの処理も行うようにする。ワールド座標変換16(e)3は、トラッキングで現在位置を見失っている状態では変換できないので、3D決定フラグメモリを参照して3D決定移動量メモリに座標変換行列が決定されていない場合には処理を行わないようにする。   Next, in FIG. 78, the 3D line segment data obtained in the 3D line segment integrated memory (left camera coordinate system) is converted into a 3D line segment integrated memory (world at the start of tracking) by the coordinate conversion circuit 16 (e) 1 by tracking. Coordinate system). Next, in consideration of the magnitude of the error of the measured point and the shape of the error, the newly measured point and line segment data are added, and the process of updating the one with a smaller error is updated processing 16 ( e) In step 2, the entire 3D line segment in continuous tracking expressed in the world coordinate system at the start of tracking is written into the integrated memory. Next, when the first tracking is interrupted and resumed, the circuit 16 (e) 3 performs coordinate conversion for converting to the first world coordinate system when the tracking is interrupted. The converted point and line segment data is written to the integrated memory of the entire 3D line segment expressed in the first world coordinate system. If the same point exists, processing such as updating to a point having a high overall accuracy and a small error shape or adding an error caused by this conversion is also performed. Since the world coordinate conversion 16 (e) 3 cannot be converted in a state where the current position is lost due to tracking, processing is performed when the coordinate conversion matrix is not determined in the 3D determination movement amount memory with reference to the 3D determination flag memory. Do not do.

図79,図80は、トラッキングを見失った場合に、対応する変換行列を決定するための処理を行う回路ブロックを示している。3D点(1)〜(n)の回路16(f)1〜(3)は、3D線分全体の最初のワールド座標系における線分データの中から3D点を抽出する。抽出する基準は、見失った場所近傍でその後のトラッキングによる移動量を考慮して移動している可能性のある範囲を特定して、その中の3D点を抽出するようにする。次に、W候補(1)〜(n)の回路16(f)4〜6では、抽出した3D点に対応するトラキング再開後に生成される3D線分データの中の3D点を抽出する。抽出する基準は、見失ってから移動した量に対応する範囲に存在する3D点を候補として抽出する。次に、3D探索(1)〜(n)の回路16(f)7〜9で、それぞれ対応する点を3次元のベクトルマッチングなどの手法を用いて候補を絞り込む。   79 and 80 show circuit blocks that perform processing for determining a corresponding transformation matrix when tracking is lost. The circuits 16 (f) 1 to (3) of the 3D points (1) to (n) extract 3D points from the line segment data in the first world coordinate system of the entire 3D line segments. As a reference for extraction, a range that is likely to move in the vicinity of the lost place is considered in consideration of the amount of movement due to subsequent tracking, and 3D points in the range are extracted. Next, in the circuits 16 (f) 4 to 6 of the W candidates (1) to (n), 3D points are extracted from the 3D line segment data generated after resuming tracking corresponding to the extracted 3D points. As a criterion for extraction, 3D points existing in a range corresponding to the amount of movement after losing sight are extracted as candidates. Next, in the circuits 16 (f) 7 to 9 in the 3D searches (1) to (n), candidates are narrowed down for the corresponding points using a technique such as three-dimensional vector matching.

次に、3D移動量計算(1)〜(4)の回路16(g)1〜4は、絞り込んだ対応点候補の組み合わせを分担してそれらの対応が正しいとした場合の移動量を計算して3D移動量メモリへ出力する。そして、最後に、対応度評価16(g)5の回路で総合的に多くの点がより精度良く一致する組み合わせを決定して決定した移動量(座標変換係数)3D決定移動量メモリへ書き込む。また、3D決定移動フラグメモリへ決定したフラグを書き込む。3D点の中から候補点を見つける処理では、見失ってからの時間が長くなればなるほど、その後に移動する移動量も大きくなるので、候補となる点の数が多くなる。点の数が処理能力をオーバーするような場合もありうるので、そういう場合には、処理をいくつかのエリアブロックに分割して何回かに分けて処理するようにしても良い。また、最初にCADデータを生成して見失ってからその後生成したCADデータが多くなり、最初の見失う前に生成したCADデータの量が少ないような場合で、所定の長い時間最初の位置を再特定できない場合も生じるが、そのような場合は、最初に見失う前に生成したCADデータに繋げることをあきらめて、後に生成を再開したワールド座標系を最初の座標系とするような処理にしても良い。その場合、以前に生成されたCADデータは破棄するようにしても良いし、いつか繋がることもあることを期待して残しておくようにすることでも良い。   Next, the circuits 16 (g) 1 to 4 of the 3D movement amount calculation (1) to (4) calculate the movement amount when the combinations of the narrowed-down corresponding point candidates are shared and their correspondence is correct. To the 3D movement amount memory. Finally, the movement amount (coordinate conversion coefficient) determined by determining the combination in which many points coincide with each other more accurately by the circuit of correspondence evaluation 16 (g) 5 is written in the 3D determined movement amount memory. Also, the determined flag is written in the 3D determined movement flag memory. In the process of finding candidate points from among the 3D points, the longer the time from losing sight, the greater the amount of movement that follows, so the number of candidate points increases. Since the number of points may exceed the processing capability, in such a case, the processing may be divided into several area blocks and processed in several times. In addition, when CAD data is first generated and lost, the amount of CAD data generated after that increases, and the amount of CAD data generated before the first loss is small. However, in such a case, it is possible to give up the connection to the CAD data generated before losing sight first, and to make the world coordinate system whose generation is resumed later as the first coordinate system. . In that case, the previously generated CAD data may be discarded, or may be left in the hope that it may be connected sometime.

図81は、本回路全体の外部との入出力I/Fの回路ブロックを示している。コマンド入力回路16(h)1は、外部のマイコン等の処理装置300からのコマンド指令を入出力I/F部から入力してコマンド格納メモリへコマンドの内容を格納する。付属データ入力の回路16(h)2は、同様に、コマンドに付属する指令を実行するときに必要な情報を読み取りコマンド付属データ格納メモリへ書き込む。カメラ位置出力の回路16(h)3は、本視覚情報処理装置100が3D計測やトラッキングを行うことにより求まるカメラの現在位置と姿勢の情報をカメラの現在位置、姿勢が格納されているメモリから読み出してマイコン等の装置300へ読み取れるように入出力I/F部へ出力する。探索結果出力の回路16(h)4は、同様に、探索などのコマンドを実行したときの結果を格納されているメモリから読み出して入出力I/F部へ出力する。2D−CADデータ入出力の回路1(h)5は、大量のデータを扱える外部メモリ200と入出力I/F部を介して外部メモリ200から探索用2D参照CADデータを読み込んだり、逆に外部メモリ200へ後で探索用2D参照CADデータとして使用可能な2DCADデータや探索等の処理結果としての2D−CADデータを出力する。また、3D−CADデータ入出力の回路1(h)6は、同様に、大量のデータを扱える外部メモリ200と入出力I/F部を介して外部メモリ200から探索用3D参照CADデータを読み込んだり、逆に外部メモリ200へ後で探索用3D参照CADデータとして使用可能な3DCADデータや探索等の処理結果としての3D−CADデータを出力できるようにする。   FIG. 81 shows a circuit block of an input / output I / F with the outside of the entire circuit. The command input circuit 16 (h) 1 inputs a command command from the processing device 300 such as an external microcomputer from the input / output I / F unit and stores the contents of the command in the command storage memory. Similarly, the attached data input circuit 16 (h) 2 reads information necessary for executing a command attached to the command and writes it in the command attached data storage memory. The camera position output circuit 16 (h) 3 obtains information on the current position and posture of the camera obtained by the visual information processing apparatus 100 by performing 3D measurement and tracking from a memory in which the current position and posture of the camera are stored. The data is read and output to the input / output I / F unit so that it can be read by the apparatus 300 such as a microcomputer. Similarly, the search result output circuit 16 (h) 4 reads out a result when a command such as a search is executed from the stored memory and outputs it to the input / output I / F unit. The 2D-CAD data input / output circuit 1 (h) 5 reads the search 2D reference CAD data from the external memory 200 via the external memory 200 that can handle a large amount of data and the input / output I / F unit, and conversely, 2D CAD data that can be used later as search 2D reference CAD data and 2D-CAD data as a processing result such as search are output to the memory 200. Similarly, the 3D-CAD data input / output circuit 1 (h) 6 reads the search 3D reference CAD data from the external memory 200 via the external memory 200 that can handle a large amount of data and the input / output I / F unit. On the contrary, 3D CAD data that can be used later as 3D reference CAD data for search and 3D-CAD data as a processing result of search or the like can be output to the external memory 200.

図82は、トラッキング計測判定の回路16(i)1の周辺回路を示している。トラッキング計測判定の回路16(i)1は、T継続フラグメモリからトラッキングが継続されているかの状態を読み取り、また、決定移動量メモリからは、トラッキングによるカメラの移動量を読み取り、その移動量が3D計測に適した移動量に達した場合にはトラッキング計測可能と判断してトラッキング計測を実行させるタイミングを決める。トラキングによる3D計測は現在の(左画像)の線分統合データとトラッキング計測のために前に記憶しておいたT計測(左画像の)線分統合データを使用して、ステレオ計測と同じように、処理回路は図83の点抽出(1)〜(n)の回路16(j)1〜3、S候補(1)〜(n)の回路16(j)4〜6、対応探索(1)〜(n)の回路16(j)7〜9、図84の3D計測(1)〜(4)の回路16(k)1〜4、3D線分生成(1)〜(4)の回路16(k)5〜8、3D線分統合回路16(k)9で3D線分統合データを生成して、図85のトラッキングによる座標変換の回路16(l)1でトラッキング開始時からの移動量の座標変換を行い、更新処理16(l)2、ワールド座標変換16(l)3で最初のワールド座標系における3D線分統合データを更新するようにする。このトラッキングによる計測処理を行うと、計測精度は、カメラの間隔を広くしてステレオ計測するのと同じ効果で向上するが、タイミング的にはシリーズになるので、その分、画像情報を取り込むサイクルタイムが長くなるので、設ける場合には、ステレオ計測の実施タイミングの代わりにトラッキングによる計測を同じタイミングで実施するようにしてサイクルタイムが長くならないような工夫も行うようにしても良い。また、必ずしも、この機能は盛り込まなくても、ステレオ計測のみでも、視点の位置が変わったときに誤差形状を更新させて、精度の悪い奥行き方向の精度を別の角度からのステレオ計測で補うことも可能なので、適用システムによっては十分使用可能なものとなるので省略するようにしても良い。   FIG. 82 shows a peripheral circuit of the tracking measurement determination circuit 16 (i) 1. The tracking measurement determination circuit 16 (i) 1 reads the state of whether tracking is continued from the T continuation flag memory, and also reads the movement amount of the camera by tracking from the determined movement amount memory. When the movement amount suitable for 3D measurement is reached, it is determined that tracking measurement is possible, and the timing for executing tracking measurement is determined. 3D measurement by tracking uses the current (left image) line integration data and the T measurement (left image) line integration data stored for tracking measurement in the same way as stereo measurement. In addition, the processing circuit includes circuits 16 (j) 1 to 3 of point extraction (1) to (n), circuits 16 (j) 4 to 6 of S candidates (1) to (n), correspondence search (1 ) To (n) circuit 16 (j) 7 to 9, 3D measurement (1) to (4) circuit 16 (k) 1 to 4 in FIG. 84, 3D line segment generation (1) to (4) circuit 16 (k) 5-8, 3D line segment integrated circuit 16 (k) 9 generates 3D line segment integrated data, and movement from the start of tracking in the coordinate conversion circuit 16 (l) 1 by tracking shown in FIG. The coordinate conversion of the quantity is performed, and the update process 16 (l) 2 and the world coordinate conversion 16 (l) 3 are applied to the first world coordinate system. That is to update the 3D line segment integrated data. When this tracking processing is performed, the measurement accuracy is improved with the same effect as stereo measurement with a wide camera interval, but because it is a series in terms of timing, the cycle time for capturing image information accordingly. Therefore, in the case of providing, it is also possible to devise such that the cycle time is not increased by performing the measurement by tracking at the same timing instead of the execution timing of the stereo measurement. Also, even if this function is not necessarily included, even if only stereo measurement is performed, the error shape is updated when the position of the viewpoint changes, and the accuracy of the inaccurate depth direction is compensated by stereo measurement from another angle. Since it can be used depending on the application system, it may be omitted.

図86,図87は、3D探索の処理回路のブロック図を示している。3D点(1)〜(n)の回路16(m)1〜3は、探索用3D参照CADデータの中なら始点、終点、鋭角な頂点、分岐点などの3Dの特徴点を抽出する。W候補(1)〜(n)の回路は、生成された3D−CADデータを格納している最初のワールド座標系の3D線分全体の統合データの中から対応候補を抽出する。抽出する基準は、コマンドおよびコマンド付属データでエリアを特定する指令があればそのエリアの中から抽出するようにする。特に特定するエリア指定がコマンドで与えられない場合には、現在のカメラの位置とカメラの向きから視野に入る方向のエリアの中の3D点を抽出するようにする。3D探索(1)〜(n)の回路16(m)7は、抽出した生成CADデータの3D点と参照CADデータの3D点の対応点候補を求めてW対応点メモリ(1)〜(4)へ書き込む。   86 and 87 show block diagrams of a processing circuit for 3D search. The circuits 16 (m) 1 to 3 of the 3D points (1) to (n) extract 3D feature points such as a start point, an end point, an acute vertex, and a branch point in the search 3D reference CAD data. The circuits of W candidates (1) to (n) extract correspondence candidates from the integrated data of the entire 3D line segments of the first world coordinate system storing the generated 3D-CAD data. As a reference for extraction, if there is a command for specifying an area in the command and the command attached data, the area is extracted from the area. In particular, when an area specification to be specified is not given by a command, a 3D point is extracted from an area in a direction that enters the field of view from the current camera position and camera orientation. The circuit 16 (m) 7 of the 3D search (1) to (n) obtains corresponding point candidates between the 3D point of the extracted generated CAD data and the 3D point of the reference CAD data, and the W corresponding point memories (1) to (4). )

3D類似度計算の回路16(n)1〜4は、3D点の対応点候補の組み合わせのすべてを分担してパラに3D類似度を計算して類似度の計算結果を3D類似度メモリ(1)〜(4)へ書き込む。そして、類似度評価の回路16(n)5で最終的に対応点候補の中で最も類似度の高い組み合わせを決定する。類似度が十分一致する候補が見つかった場合には、一致度の高い順番にCADデータ転送回路16(n)6に指令して探索などの処理結果の3D−CADデータ格納メモリへ格納する。その結果、候補がいくつ見つかったとか、それぞれのマッチング度などは探索などの処理結果メモリへ出力する。   The 3D similarity calculation circuits 16 (n) 1 to 4 share all the combinations of 3D point corresponding point candidates, calculate the 3D similarity to the para, and store the similarity calculation result in the 3D similarity memory (1 ) To (4). Then, the similarity evaluation circuit 16 (n) 5 finally determines the combination having the highest similarity among the corresponding point candidates. If a candidate having a sufficiently similar degree is found, the CAD data transfer circuit 16 (n) 6 is instructed in the order of the high degree of coincidence and stored in the 3D-CAD data storage memory as a result of processing such as search. As a result, how many candidates are found and the degree of matching of each candidate are output to a processing result memory such as a search.

図88,図89は、2次元の探索コマンドを実行する回路のブロック図を示している。点抽出(1)〜(n)の回路16(o)1〜3は、探索用2D参照CADデータの中から始点、終点、鋭角な頂点、分岐点などの2Dの特徴点を抽出する。探索候補(1)〜(n)の回路10(o)4〜6は、左画像の現在の線分統合データの中から対応候補を抽出する。抽出する基準は、コマンドおよびコマンド付属データで方向やエリアを特定する指令があればその方向やエリアの中から抽出するようにする。特に特定する方向やエリア指定がコマンドで与えられない場合には、現在の左画像の線分統合データ全部の中から抽出するようにする。対応探索(1)〜(n)の回路16(o)7〜9は、抽出した左画像の2D点と参照CADデータの2D点の対応点候補を求めて探索対応点メモリ(1)〜(4)へ書き込む。   88 and 89 show block diagrams of circuits for executing a two-dimensional search command. The circuits 16 (o) 1 to 3 of point extraction (1) to (n) extract 2D feature points such as a start point, an end point, an acute vertex, and a branch point from the search 2D reference CAD data. The search candidates (1) to (n) circuits 10 (o) 4 to 6 extract correspondence candidates from the current line segment integrated data of the left image. As a reference for extraction, if there is a command for specifying a direction or an area in the command and command-attached data, the direction or area is extracted. In particular, when the specified direction or area designation is not given by the command, it is extracted from all the line segment integrated data of the current left image. Corresponding searches (1) to (n) circuits 16 (o) 7 to 9 obtain corresponding point candidates between the extracted 2D point of the left image and 2D point of the reference CAD data, and search corresponding point memories (1) to ( Write to 4).

2D類似度計算の回路16(p)1〜4は、2D点の対応点候補の組み合わせのすべてを分担してパラに2D類似度を計算して類似度の計算結果を2D類似度メモリ(1)〜(4)へ書き込む。そして、類似度評価の回路16(p)5で最終的に対応点候補の中で最も類似度の高い組み合わせを決定する。類似度が十分一致する候補が見つかった場合には、一致度の高い順番にCADデータ転送回路16(p)6に指令して探索などの処理結果の2D−CADデータ格納メモリへ格納する。その結果、候補がいくつ見つかったとか、それぞれのマッチング度などは探索などの処理結果メモリへ出力する。   The 2D similarity calculation circuits 16 (p) 1 to 4 share all the combinations of 2D point corresponding point candidates, calculate the 2D similarity to the para, and store the similarity calculation result in the 2D similarity memory (1 ) To (4). Then, the similarity evaluation circuit 16 (p) 5 finally determines the combination having the highest similarity among the corresponding point candidates. When a candidate having a sufficiently similar degree is found, the CAD data transfer circuit 16 (p) 6 is instructed in the order of the high degree of coincidence and stored in the 2D-CAD data storage memory as a result of processing such as search. As a result, how many candidates are found and the degree of matching of each candidate are output to a processing result memory such as a search.

図90,図91は、探索用2D参照CADデータを生成する回路ブロックを示している。3D線分の2D投影の回路16(q)1は、現在までに生成した3D−CADデータの中からコマンド指令に基づく方向から見たときの2D参照CADデータを生成して探索用2D参照CADデータ格納メモリへ書き込む。作成する参照CADデータは、複数の視点から見た2D参照CADデータの場合もある。このコマンドは、すでに生成したCADデータに対して再度探索、位置決めなどを行いたいような場合に使用する。   90 and 91 show circuit blocks for generating search 2D reference CAD data. The 2D projection circuit 16 (q) 1 for the 3D line segment generates 2D reference CAD data when viewed from the direction based on the command command from the 3D-CAD data generated up to now, and searches for 2D reference CAD. Write to data storage memory. The reference CAD data to be created may be 2D reference CAD data viewed from a plurality of viewpoints. This command is used when it is desired to search, position, etc. again for already generated CAD data.

3D線分の2D投影の回路16(r)1は、与えられた探索用3D参照CADデータの中からコマンド指令に基づく方向から見たときの2D参照CADデータを生成して探索用2D参照CADデータ格納メモリへ書き込む。作成する参照CADデータは、複数の視点から見た2D参照CADデータの場合もある。このコマンドは、指定された参照CADデータの物体を探索する場合に3Dマッチングよりより高速に2Dマッチングで探索したい場合に使用する。   The 2D projection circuit 16 (r) 1 for the 3D line segment generates 2D reference CAD data when viewed from the direction based on the command command from the given 3D reference CAD data for search, and 2D reference CAD for search. Write to data storage memory. The reference CAD data to be created may be 2D reference CAD data viewed from a plurality of viewpoints. This command is used when searching for an object of designated reference CAD data by 2D matching faster than 3D matching.

図92〜図99は、前述の各ブロック回路の動作タイミングを示している。   92 to 99 show the operation timing of each block circuit described above.

図92のA/Dの回路16(a)0とA/Dの回路16(a)33と図96のコマンド入力16(h)1,2から始まって、各ブロック回路は所定のタイミングで順番に動作して、最後は、図96のカメラ位置出力16(h)3と探索結果出力16(h)4となり、以下、同じ順番の動作を繰り返すものである。図98には、最初のワールド座標系の3D線分全体の統合メモリの使用状態を、図99には左画像の線分統合メモリの使用状態を示してあるが、各回路ブロックは同時に同じメモリにアクセスすることができないので、メモリへのアクセスが重ならないようにタイミングを取るとともに全体のサイクル、すなわち、A/Dの回路16(a)0とA/Dの回路16(a)33が画像情報を取り込んでから次の画像情報を取り込むまでのサイクルはできるだけ短くなるように工夫する。また、使用するメモリのデータは、当該ブロックの回路が動作する前に更新されているように全体のタイミングの順番を決める。ここで示している1回の動作タイミングの時間の長さは、同じ間隔で図示したが、実際の処理時間から実時間の長さは変わってくる。全体的に効率良く処理が高速に実行されるように、この例では、回路のパラの処理を4個とかn個として説明しているが、実際の処理時間の関係で適切な平行処理回路の数を決めるようにする。
図100〜図111は、主要な処理回路ブロックの基本的な処理フローチャートを示している。図100は、16(a)1の水平特徴点抽出(1)の基本フローチャートを示す。図92の水平特徴点抽出(1)16(a)1のタイミングチャートの起動タイミングでスタートして、まず、処理16(t1)aでコマンド格納メモリと付属データ格納メモリを参照して、CADデータ生成エリアの指定で方向の指定があれば、処理方向から画像上の処理エリア(IX1〜IX2、IY1〜IY2)を特定する。
Starting from the A / D circuit 16 (a) 0, the A / D circuit 16 (a) 33 in FIG. 92, and the command inputs 16 (h) 1 and 2 in FIG. 96, each block circuit is in turn at a predetermined timing. Finally, the camera position output 16 (h) 3 and search result output 16 (h) 4 in FIG. 96 are obtained, and the operations in the same order are repeated thereafter. FIG. 98 shows the state of use of the integrated memory of the entire 3D line segment of the first world coordinate system, and FIG. 99 shows the state of use of the line segment integrated memory of the left image. Since the access to the memory is not overlapped, the timing is taken and the entire cycle, that is, the A / D circuit 16 (a) 0 and the A / D circuit 16 (a) 33 are imaged. The cycle from the acquisition of information to the acquisition of the next image information is devised so as to be as short as possible. The order of the overall timing is determined so that the data in the memory to be used is updated before the circuit of the block is operated. Although the time length of one operation timing shown here is illustrated at the same interval, the length of the actual time varies from the actual processing time. In this example, the number of parallel processing of the circuit is described as four or n so that the processing can be efficiently performed at high speed as a whole. Try to determine the number.
100 to 111 show basic processing flowcharts of main processing circuit blocks. FIG. 100 shows a basic flowchart of 16 (a) 1 horizontal feature point extraction (1). 92. At the start timing of the timing chart of horizontal feature point extraction (1) 16 (a) 1 in FIG. If the direction is specified in the generation area, the processing areas (IX1 to IX2, IY1 to IY2) on the image are specified from the processing direction.

次に、処理16(t1)bで処理エリア内の水平1本の輝度(カラーの場合はRBG輝度)データを画像データから読み込み、次に、処理16(t1)cで水平1本の輝度情報を端部から順番に調べて、変曲点(傾きの変化が上向に急変する点から次の下向きに急変する点までの中間位置、あるいは傾きの変化が下向に急変する点から次の上向きに急変する点までの中間位置)の位置を求めて、画像メモリ上のアドレス座標で点メモリ(1)〜(4)へ順番に格納する。   Next, in processing 16 (t1) b, one horizontal luminance (RBG luminance in the case of color) data in the processing area is read from the image data, and then in one processing 16 (t1) c, one horizontal luminance information Are examined in order from the edge, and the inflection point (intermediate position from the point at which the change in inclination suddenly changes upward to the point at which the inclination changes suddenly downward, or from the point at which the change in inclination changes downward suddenly to the next The position of the intermediate position up to the point where the point suddenly changes is obtained, and stored in the point memories (1) to (4) in order using the address coordinates on the image memory.

次に、判別処理16(t1)dで水平1本の反対の端部まで処理は終了したかどうかを判別して、No.の場合は処理16(t1)cから繰り返す。   Next, it is determined whether or not the process has been completed up to the opposite end of one horizontal line in the determination process 16 (t1) d. In this case, the process is repeated from the process 16 (t1) c.

更に、処理16(t1)eで水平輝度データは縦方向の処理エリアIY1〜IY2のすべて終了したかどうかを判別し、Noの場合は処理16(t1)bから繰り返す。そしてすべての範囲を終了したらば終了する機能を回路に組み込む。   Further, in the process 16 (t1) e, it is determined whether or not the horizontal luminance data has been completed for all of the vertical processing areas IY1 to IY2. Then, a function that ends when all the ranges are completed is incorporated in the circuit.

図101は、処理ブロック16(a)18の対応探索(1)の基本フローチャートを示す。処理16(t2)aで候補点メモリ(1)から最初の右画像から抽出した点P(i)とそれに対応する左画像の中から先に抽出された対応点候補の点KP1〜KPnを読み込み、次に、処理16(t2)bで点P(i)の右画像周辺のベクトルを色境界線で区切られた領域ごとに求める。ここでは、ベクトル先端の色情報も含めて求める。また、ベクトルは、点抽出時に求めてメモリへ格納しておき候補点メモリ(1)から読み出すだけにしておいても良い。   FIG. 101 shows a basic flowchart of the correspondence search (1) of the processing block 16 (a) 18. In process 16 (t2) a, the points P (i) extracted from the first right image from the candidate point memory (1) and the corresponding point candidate points KP1 to KPn previously extracted from the corresponding left image are read. Next, in step 16 (t2) b, a vector around the right image at the point P (i) is obtained for each region delimited by the color boundary lines. Here, it is obtained including the color information of the vector tip. Further, the vector may be obtained at the time of point extraction, stored in the memory, and simply read out from the candidate point memory (1).

次に、処理16(t2)cで対応点候補の点KPjの左画像での周辺のベクトル(先端の色情報も含む)を色境界線で区切られた領域ごとに求める。そして、処理16(t2)dで点P(i)のベクトルと対応点候補の点KPjのベクトルを色境界線で区切られた領域ごとに比較してマッチング度を求める。そして、判別処理16(t2)eで対応点候補KPjは1〜n個すべての組み合わせが終わったかどうかを判別し、Noの場合は処理16(t2)cから繰り返す。Yesの場合は、処理16(t2)fで点P(i)に対する対応点候補KP1〜nの中から1領域内のベクトルマッチング度が高く、2番目の候補点のマッチング度よりも所定以上にマッチング度が高い点のある場合は、ステレオ計測の対応点PofL(i),PofR(i)の組合わせとしてS対応点メモリ(1)へ書き込む。   Next, in processing 16 (t2) c, a vector around the left image of the corresponding point candidate point KPj (including the color information at the tip) is obtained for each region delimited by the color boundary line. Then, in process 16 (t2) d, the vector of the point P (i) and the vector of the corresponding point candidate point KPj are compared for each region delimited by the color boundary line to obtain the matching degree. Then, in the determination process 16 (t2) e, the corresponding point candidate KPj determines whether all the combinations of 1 to n have been completed. If No, the process is repeated from the process 16 (t2) c. In the case of Yes, in the process 16 (t2) f, the vector matching degree in one region is high from the corresponding point candidates KP1 to K for the point P (i), and the matching degree of the second candidate point is higher than a predetermined degree. If there is a point with a high degree of matching, it is written in the S corresponding point memory (1) as a combination of corresponding points PofL (i) and PofR (i) of stereo measurement.

そして、判別処理16(t2)gで抽出点P(i)はすべて終了したかどうか判別し、Noの場合は、処理16(t2)aから繰り返すようにしてすべての抽出点P(i)について処理して終了する機能を回路に組み込む。   Then, in the discrimination process 16 (t2) g, it is discriminated whether or not all the extraction points P (i) have been completed. Incorporate into the circuit a function that terminates after processing.

図102は、16(b)5の3D線生成(1)の基本フローチャートを示す。まず、処理16(t3)aでコマンド格納メモリと付属データ格納メモリを参照して、CADデータ生成エリアの指定で方向の奥行き指定があれば、奥行きから3D線分生成の処理エリア(距離範囲)を特定する。次に、処理16(t3)bで3D点メモリ(1)から3次元計測された点3DP(i)と左右の画像の対応点情報PofL(i)、PofR(i)を読み取る。そして、次の判別処理16(t3)cで3次元の点3DP(i)の奥行きは指定の生成エリア内の3D点かどうか判別するようにし、Noの場合には、次の処理16(t3)dと処理16(t3)eはパスするようにする。Yesの場合は、処理16(t3)dで右の画像の対応点情報PofR(i)に繋がる線分上の点に対応する左の画像の対応点情報PofL(i)に繋がる線分上の点を対応度をチェックしながら探し、対応する点が存在する場合にはその点もステレオ計測による3D点を求めて、最初の3D点3DP(i)に繋がる線分データとして3D線メモリ(1)へ書き込む。そして、処理右の画像の対応点情報PofR(i)に繋がる線分上の点に対応する左の画像の対応点情報PofL(i)に繋がる線分上の点を対応度をチェックしながら探し、対応する点が存在する場合には、その点もステレオ計測による3D点を求めて、最初の3D点3DP(i)に繋がる線分データとして3D線メモリ(1)へ書き込んで、3D線メモリには3D線を構成する点を3D計測した左画像の視点O1のワールド座標での座標とその視点から見たときに色境界線分の特徴点として抽出した左右の色情報も一緒に3D線メモリ(1)の点情報に付属する情報として書き込む。ここで、CADデータ生成時刻を以降の処理で参照する場合には、点情報に付属する情報として撮像装置が撮影した時刻データも付属情報として書き込むようにする。   FIG. 102 shows a basic flowchart of 16 (b) 5 3D line generation (1). First, in process 16 (t3) a, the command storage memory and the attached data storage memory are referred to, and if the direction depth is specified in the CAD data generation area, the processing area (distance range) for generating the 3D line segment from the depth is specified. To identify. Next, in step 16 (t3) b, the point 3DP (i) measured three-dimensionally from the 3D point memory (1) and the corresponding point information PofL (i) and PofR (i) of the left and right images are read. Then, in the next determination process 16 (t3) c, it is determined whether the depth of the three-dimensional point 3DP (i) is a 3D point in the designated generation area. ) D and process 16 (t3) e are passed. In the case of Yes, on the line segment connected to the corresponding point information PofL (i) of the left image corresponding to the point on the line segment connected to the corresponding point information PofR (i) of the right image in the process 16 (t3) d. A point is searched while checking the degree of correspondence, and if there is a corresponding point, a 3D point is also obtained by stereo measurement, and a 3D line memory (1) is obtained as line segment data connected to the first 3D point 3DP (i). ) Then, a point on the line segment connected to the corresponding point information PofL (i) of the left image corresponding to the point on the line segment connected to the corresponding point information PofR (i) of the processing right image is searched while checking the degree of correspondence. If there is a corresponding point, the 3D point obtained by stereo measurement is also obtained, and is written in the 3D line memory (1) as line segment data connected to the first 3D point 3DP (i). The 3D line includes the coordinates in the world coordinates of the viewpoint O1 of the left image obtained by 3D measurement of the points constituting the 3D line and the left and right color information extracted as feature points of the color boundary line when viewed from the viewpoint. Write as information attached to the point information of the memory (1). Here, when the CAD data generation time is referred to in the subsequent processing, the time data taken by the imaging apparatus is written as attached information as information attached to the point information.

そして、判別処理16(t3)fで3Dメモリ(1)内の3D計測された点3DP(i)はすべて処理したかどうかを判別し、Noの場合は処理16(t3)bから繰り返す。そして、3Dメモリ(1)内の3D計測された点3DP(i)がすべて処理したならば終了する機能を回路に組み込む。   Then, it is determined whether or not all 3D-measured points 3DP (i) in the 3D memory (1) have been processed in the determination process 16 (t3) f. Then, a function that ends when all 3D measured points 3DP (i) in the 3D memory (1) have been processed is incorporated in the circuit.

図103は、16(d)1の移動量計算(1)の基本フローチャートを示す。まず、処理16(t4)aでT対応点メモリ(1)の中から前(左画像の)線分から抽出された点PofBL(i)i=1〜nと、それに対応する(左画像の)線分から絞り込まれたトラッキング対応点候補KPofL(i、j)j=1〜mと、トラッキング対応点候補を対応探索で絞り込むときのマッチング度に関わる情報を読み込む。次に、処理16(t4)bで前(左画像の)線分から抽出された点PofBL(i)i=1〜nと、それに対応する(左画像の)線分から絞り込まれたトラッキング対応点候補KPofL(i、j)j=1〜mの組み合わせn×m個の中から3個を選択する組み合わせ総数の所定の順番の1番目から総数の1/4(4はパラに処理する回路の数)番目の組み合わせの中の1つの組み合わせS1(PofBL(i)とKPofL(i、j)の中の1個)、S2(PofBL(i)とKPofL(i、j)の中の1個)、S3(PofBL(i)とKPofL(i、j)の中の1個)を次の処理データにセットする。   FIG. 103 shows a basic flowchart of the movement amount calculation (1) of 16 (d) 1. First, in Step 16 (t4) a, points PofBL (i) i = 1 to n extracted from the previous (left image) line segment from the T corresponding point memory (1) and corresponding (left image). The tracking corresponding point candidates KPofL (i, j) j = 1 to m narrowed down from the line segment and information related to the matching degree when the tracking corresponding point candidates are narrowed down by the correspondence search are read. Next, the points PofBL (i) i = 1 to n extracted from the previous (left image) line segment in the process 16 (t4) b and the tracking corresponding point candidates narrowed down from the corresponding (left image) line segment. KPofL (i, j) j = 1 to m of combinations n × m of 3 is selected from the first to the total of the total number of combinations in a predetermined order (4 is the number of circuits to be processed in parallel) ) One combination S1 (one of PofBL (i) and KPofL (i, j)) in the second combination, S2 (one of PofBL (i) and KPofL (i, j)), S3 (one of PofBL (i) and KPofL (i, j)) is set to the next processing data.

そして、処理16(t4)cで前(左画像の)線分から抽出された点PofBL(i)i=1〜nの3D計測されたトラッキング開始時のワールド座標系での3次元座標データを読み込む。そして、処理16(t4)dで前(左画像の)線分から抽出された3点、それに対応する(左画像の)線分から絞り込まれたトラッキング対応点候補の3点と点PofBL(i)i=1〜nの3D計測されたトラッキング開始時のワールド座標系での3次元座標データを用いて撮像装置10aの移動量(座標変換係数)を計算して、移動量メモリへ組み合わせ情報S1,S2,S3とともに移動量を書き込む。   Then, in step 16 (t4) c, 3D coordinate data in the world coordinate system at the time of tracking start at the point PofBL (i) i = 1 to n extracted from the previous (left image) line segment is read. . Then, the three points extracted from the previous (left image) line segment in processing 16 (t4) d, the three tracking corresponding point candidates narrowed down from the corresponding (left image) line segment, and the point PofBL (i) i The movement amount (coordinate conversion coefficient) of the imaging device 10a is calculated using the three-dimensional coordinate data in the world coordinate system at the time of the tracking start when 3D measurement of = 1 to n is performed, and the combination information S1, S2 is stored in the movement amount memory. , S3 and the movement amount are written.

次に、判別処理16(t4)eで組合総数の1/4(4はパラに処理する回路の数)のすべて計算終了したかどうかを判別し、Noの場合は処理16(t4)bから繰り返し、すべての計算が終了したならば終了する機能を回路に組み込む。   Next, it is determined in the determination process 16 (t4) e whether or not calculation of all 1/4 of the total number of combinations (4 is the number of circuits to be processed in parallel) has been completed. Repeatedly, a function that ends when all calculations are completed is incorporated in the circuit.

図104は、16(d)5の安定度評価の基本フローチャートを示す。まず、処理16(t5)aで移動量メモリ(1)〜(4)から前(左画像の)線分から抽出された点PofBL(i)i=1〜nと、それに対応する(左画像の)線分から絞り込まれたトラッキング対応点候補KPofL(i、j)j=1〜mの組み合わせn×m個の中から3個を選択する組み合わせと、その組み合わせの3点を選択した場合の移動量の計算結果を読み込む。   FIG. 104 shows a basic flowchart of 16 (d) 5 stability evaluation. First, in process 16 (t5) a, points PofBL (i) i = 1 to n extracted from the previous (left image) line segment from the movement amount memories (1) to (4) and the corresponding (left image ) Tracking correspondence point candidates KPofL (i, j) j = 1 to m narrowed down from the line segment A combination of selecting 3 out of n × m combinations, and a movement amount when selecting 3 points of the combination Read the calculation result of.

次に、処理16(t5)bで3D線分統合メモリ(左カメラ座標系)から3D点の座標データを読み込み、すべての移動量(座標変換係数)で座標変換を行い、3D線分統合メモリ(トラッキング開始時のワールド座標系)の中にある点と所定の精度以上で一致ずる3D点の数を求め、一致する3D点の数の多い移動量候補を絞り込む。次に、処理16(t5)cで絞り込まれた移動量候補の中から、更に、前処理で一致している3D点の一致度の最も良い移動量候補を決定移動量として決定移動量メモリへ書き込む。   Next, in process 16 (t5) b, 3D point coordinate data is read from the 3D line segment integrated memory (left camera coordinate system), coordinate conversion is performed with all movement amounts (coordinate conversion coefficients), and the 3D line segment integrated memory is read. The number of 3D points that coincide with a point in the (world coordinate system at the start of tracking) with a predetermined accuracy or higher is obtained, and movement amount candidates with a large number of matching 3D points are narrowed down. Next, among the movement amount candidates narrowed down in the process 16 (t5) c, the movement amount candidate having the best degree of coincidence of the 3D points that are matched in the preprocessing is further determined as the determined movement amount to the determined movement amount memory. Write.

そして、処理16(t5)dで決定移動量が決定した場合は、T継続フラグメモリへ「継続中のフラグ」を書き込み、一致する点が少なく、あるいは、一番を絞り込めなかった場合にはT継続フラグメモリへ「継続断のフラグ」を書き込み終了する機能を回路に組み込む。   When the determined movement amount is determined in process 16 (t5) d, the “continuing flag” is written in the T continuation flag memory, and there are few coincidence points or when the most cannot be narrowed down A function to finish writing the “continuation interruption flag” in the T continuation flag memory is incorporated in the circuit.

図105は、ブロック16(m)7の3D探索(1)基本フローチャートを示す。まず、処理16(t6)aで3D補点メモリ(1)から探索用3D参照CADデータ格納メモリから抽出された点PofRfCAD(i)と、それに対応する3D線分全体の統合メモリ(最初のワールド座標系)から抽出された3D対応点候補KPoCAD(i、j)j=1〜mを読み込む。探索用3D参照CADデータが複数個ある場合は、その種類ごとに分けて以降の計算も行うようにする。   FIG. 105 shows a 3D search (1) basic flowchart of block 16 (m) 7. First, in the process 16 (t6) a, the point PofRfCAD (i) extracted from the 3D reference CAD data storage memory for search from the 3D complementary point memory (1) and the corresponding integrated memory (first world) 3D corresponding point candidates KPoCAD (i, j) j = 1 to m extracted from the coordinate system) are read. When there are a plurality of search 3D reference CAD data, the subsequent calculations are performed separately for each type.

次に、処理16(t6)bで点PofRfCAD(i)の周辺の点へのベクトルをベクトル先端の色情報も含めて求める。3D領域毎に求めても良い。また、3D点抽出時に求めて3D候補点メモリ(1)から読み出すだけにしておいても良い。   Next, in a process 16 (t6) b, a vector to a point around the point PofRfCAD (i) is obtained including the color information at the tip of the vector. You may obtain | require for every 3D area | region. Alternatively, it may be obtained at the time of 3D point extraction and only read from the 3D candidate point memory (1).

次に、処理16(t6)cで3D対応点候補KPoCAD(i、j)j=1〜mの周辺の点へのベクトル(先端の色情報も含む)をj=1〜mのそれぞれについて求める。3D領域毎に求めても良い。次に、処理16(t6)dで点PofRfCAD(i)から引いたベクトルと3D対応点候補KPoCAD(i,j)j=1〜mから引いたベクトルの先端の色情報を含めて比較してマッチング度を求める。3D領域毎に比較しても良い。色情報を比較する場合には、色情報を登録したときの視点の位置情報から色境界線分の左右の方向を考慮してマッチングさせる。   Next, in step 16 (t6) c, vectors (including the color information of the tip) to the points around 3D corresponding point candidate KPoCAD (i, j) j = 1 to m are obtained for each of j = 1 to m. . You may obtain | require for every 3D area | region. Next, in the process 16 (t6) d, the vector subtracted from the point PofRfCAD (i) and the 3D corresponding point candidate KPoCAD (i, j) j = 1 to m including the color information of the tip of the vector are compared. Find the matching degree. You may compare for every 3D area | region. When comparing the color information, the matching is performed in consideration of the left and right directions of the color boundary line from the position information of the viewpoint when the color information is registered.

次に、処理16(t6)eでベクトルマッチング度が高く、2番目の候補点よりも所定以上にマッチング度が高い点のある場合は、対応点としてマッチング度の高い点PofRfCAD(i)と3D対応点候補KPoCAD(i、j)j=1〜mから絞り込んだ点M個をW対応点メモリ(1)〜(4)へ書き込む。そして、判別処理16(t6)fで抽出された点PofRfCAD(i)のi=1〜nのすべて終了したかどうかを判別し、Noの場合は処理16(t6)aから繰り返す。そして抽出された点PofRfCAD(i)のi=1〜nのすべて終了したならば終了する機能を回路に組み込む。   Next, in step 16 (t6) e, when the vector matching degree is high and there is a point having a matching degree higher than a predetermined value than the second candidate point, points PofRfCAD (i) and 3D having a high matching degree as corresponding points. Corresponding point candidates KPoCAD (i, j) j = 1 to m are written into W corresponding point memories (1) to (4). Then, it is determined whether or not all i = 1 to n of the points PofRfCAD (i) extracted in the determination process 16 (t6) f have been completed. If No, the process is repeated from the process 16 (t6) a. When the extracted points PofRfCAD (i) for all i = 1 to n are completed, a function for ending is incorporated in the circuit.

図106は、ブロック16(n)1の3D類似度計算(1)の基本フローチャートを示す。まず、処理16(t7)aW対応点メモリ(1)から探索用3D参照CADデータ格納メモリから抽出された点PofRfCAD(i)i=1〜Nと、それぞれの点に対応する3D線分全体の統合メモリ(最初のワールド座標系)の中の3D対応点(複数個)を読み込む。複数個の員数は、総数の1/4(4はパラに処理する回路の数)とする。また、探索用3D参照CADデータが複数個ある場合は、その種類ごとに分けて以降の計算も行うようにする。   FIG. 106 shows a basic flowchart of the 3D similarity calculation (1) of the block 16 (n) 1. First, in step 16 (t7), the points PofRfCAD (i) i = 1 to N extracted from the 3D reference CAD data storage memory for search from the aW corresponding point memory (1), and the entire 3D line segment corresponding to each point The 3D corresponding points (plurality) in the integrated memory (first world coordinate system) are read. The number of the plurality is ¼ of the total number (4 is the number of circuits to be processed in parallel). In addition, when there are a plurality of search 3D reference CAD data, the subsequent calculations are performed separately for each type.

次に、処理16(t7)bで点PofRfCAD(k)から他の点PofRfCAD(i)i=1〜N(除くk)へのベクトルを先端の点の色情報も含めて求める。ここで、kは、k=1〜Nの中から点PofRfCAD(k)に対応する3D線分全体の統合メモリ(最初のワールド座標系)の中の対応点の存在するものを選ぶようにする。   Next, in process 16 (t7) b, a vector from the point PofRfCAD (k) to another point PofRfCAD (i) i = 1 to N (excluding k) is obtained including the color information of the tip point. Here, k is selected from k = 1 to N where the corresponding point exists in the integrated memory (first world coordinate system) of the entire 3D line segment corresponding to the point PofRfCAD (k). .

次に、処理16(t7)cで3D対応点の中の点PofRfCAD(k)に対応する点から他の点PofRfCAD(i)i=1〜N(kを除く)に対応する点へのベクトルを先端の点の色情報も含めて求める。複数組求める。次に、処理16(t7)dで点PofRfCAD(k)からのベクトル群と点PofRfCAD(k)に対応する点からのベクトル群のマッチング度を複数組求めてマッチング度などの計算結果を3D類似度メモリへ書き込む。また、3D対応点候補KPoCAD(i,j)を求めるときにスケールファクタを考慮している場合は、同様に、そのときのスケールファクタを考慮してマッチング度を求めようにする。   Next, in process 16 (t7) c, a vector from a point corresponding to the point PofRfCAD (k) in the 3D corresponding point to a point corresponding to another point PofRfCAD (i) i = 1 to N (excluding k) Including the color information of the tip point. Ask for multiple sets. Next, in process 16 (t7) d, a plurality of matching degrees between the vector group from the point PofRfCAD (k) and the vector group from the point corresponding to the point PofRfCAD (k) are obtained, and the calculation result such as the matching degree is 3D-like. Write to memory once. Further, when the scale factor is taken into consideration when obtaining the 3D corresponding point candidate KPoCAD (i, j), the matching degree is similarly obtained in consideration of the scale factor at that time.

次に、判別処理16(t7)eでk=1〜Nのすべてを終了したかどうか、あるいは、探索は十分かどうか、を判別するようにし、Noの場合は16(t7)bから繰り返すようにして、すべてが終了したならば終了する機能を回路に盛り込む。   Next, it is determined whether or not all of k = 1 to N are completed in the determination process 16 (t7) e, or whether the search is sufficient. If No, the process is repeated from 16 (t7) b. Then, if everything is finished, a function to be finished is included in the circuit.

図107は、ブロック16(n)5の類似度評価の基本フローチャートを示す。まず、処理16(t8)aでコマンド格納メモリからコマンド、コマンド付属データ格納メモリからコマンド付属データを読み込む。次に、処理16(t8)bで3D類似度メモリ(1)〜(4)から探索用3D参照CADデータ格納メモリから抽出された点PofRfCAD(i)i=1〜Nと、それに対応する3D線分全体の統合メモリ(最初のワールド座標系)の中の3D対応点の組とそのときの3D類似度計算結果を読み込む。また、探索用3D参照CADデータが複数個ある場合はその種類ごとに分けて以降の計算も行うようにする。   FIG. 107 shows a basic flowchart of similarity evaluation of block 16 (n) 5. First, in process 16 (t8) a, the command is read from the command storage memory and the command attached data is read from the command attached data storage memory. Next, points PofRfCAD (i) i = 1 to N extracted from the 3D similarity CAD data storage memory for searching from the 3D similarity memories (1) to (4) in process 16 (t8) b, and the corresponding 3D A set of 3D corresponding points in the integrated memory (first world coordinate system) of the entire line segment and the 3D similarity calculation result at that time are read. In addition, when there are a plurality of search 3D reference CAD data, the subsequent calculations are performed separately for each type.

次に、処理16(t8)cで3D類似度計算結果より、類似度が高い順番にコマンド付属データで員数が指定ある場合には、その員数以内を順番に3D線分全体の統合メモリ(最初のワールド座標系)の中の対応する点にかかわるCADデータを転送する指令をCADデータ転送回路へ指令して探索等の処理結果の3D-CADデータ格納メモリへ転送させる。そして、処理16(t8)dで類似度が高い順番に3D線分全体の統合メモリ(最初のワールド座標系)の中の3D対応点の組の座標データより、探索用3D参照CADデータの基準座標系の最初のワールド座標系の中での位置と向きを計算して探索等の処理結果格納メモリへ書き込む。   Next, in the process 16 (t8) c, when the number of commands is specified in the command attached data in descending order of the similarity from the 3D similarity calculation result, the integrated memory of the entire 3D line segment (first Command for transferring CAD data related to the corresponding point in the world coordinate system) is sent to the CAD data transfer circuit and transferred to the 3D-CAD data storage memory as a result of processing such as search. Then, based on the coordinate data of the set of 3D corresponding points in the integrated memory (first world coordinate system) of the entire 3D line segment in the descending order of the similarity in process 16 (t8) d, the reference of the 3D reference CAD data for search The position and orientation in the first world coordinate system of the coordinate system are calculated and written into the processing result storage memory such as search.

そして、判別処理16(t8)eでコマンドにその他の判断処理などの指令が含まれているかどうかを判別し、Noの場合は、次の処理16(t8)fは行わないようにして、Yesの場合は、処理16(t8)fでその他のコマンドに含まれる指令の内容を処理を実行してその結果を探索等の処理結果格納メモリへ書き込むようにする。また、ここで例をあげると、探索したCADデータID1と探索したCADデータID2の衝突有無を判断する指令の場合には、探索したCADデータID1と探索したCADデータID2の距離を求めてその距離が所定の距離(コマンド付属データで与えられている場合にはその値を使用する)以下の場合は、「衝突危険性あり」を、以上の場合は「衝突危険性なし」を探索等の処理結果格納メモリへ書き込むような処理となる。そして、終了する機能を回路に盛り込む。   Then, in the determination process 16 (t8) e, it is determined whether or not the command includes other instructions such as a determination process. If No, the next process 16 (t8) f is not performed, and Yes is determined. In the case of (1), processing of the command content included in the other command is executed in processing 16 (t8) f, and the result is written in a processing result storage memory such as search. As an example, in the case of a command for determining whether or not the searched CAD data ID1 and the searched CAD data ID2 collide, the distance between the searched CAD data ID1 and the searched CAD data ID2 is obtained and the distance is obtained. If is less than the predetermined distance (use the value if it is given in the command attached data), search for “has no collision risk” if it is less, and “no risk of collision” in the other cases The process is such as writing to the result storage memory. Then, the function to be terminated is included in the circuit.

図108は、ブロック16(0)7の対応探索(1)基本フローチャートを示す。まず、処理16(t9)aでは候補点メモリ(1)から探索用2D参照CADデータ格納メモリから抽出された点PofRfCAD(i)と、それに対応する(左画像の)線分統合メモリから抽出された対応点候補KPoL(i、j)j=1〜mを読み込む。探索用2D参照CADデータが複数個ある場合は、その種類ごとに分けて以降の計算も行うようにする。   FIG. 108 shows a correspondence search (1) basic flowchart of block 16 (0) 7. First, in process 16 (t9) a, the point PofRfCAD (i) extracted from the candidate 2D reference CAD data storage memory from the candidate point memory (1) and the corresponding line segment integrated memory (left image) are extracted. The corresponding point candidate KPoL (i, j) j = 1 to m is read. When there are a plurality of search 2D reference CAD data, the subsequent calculation is performed separately for each type.

次に、処理16(t9)bで点PofRfCAD(i)の周辺の点へのベクトルをベクトル先端の色情報も含めて求める(色境界領域毎に求めても良い。)。2D点抽出時に求めて候補点メモリ(1)から読み出すだけにしておいても良い。   Next, in process 16 (t9) b, a vector to a point around the point PofRfCAD (i) is obtained including the color information at the tip of the vector (may be obtained for each color boundary region). It may be obtained at the time of 2D point extraction and only read from the candidate point memory (1).

次に、処理16(t9)cで対応点候補KPoCAD(i、j)j=1〜mの周辺の点へのベクトル(先端の色情報も含む)をj=1〜mのそれぞれについて求める。色境界線分で分けられる領域毎に求めても良い。次に、処理16(t9)dで点PofRfCAD(i)から引いたベクトルと対応点候補KPoCAD(i,j)j=1〜mから引いたベクトルの先端の色情報を含めて比較してマッチング度を求める。領域毎に比較しても良い。   Next, in process 16 (t9) c, vectors (including the color information at the tip) to the points around the corresponding point candidate KPoCAD (i, j) j = 1 to m are obtained for each of j = 1 to m. You may obtain | require for every area | region divided by a color boundary line segment. Next, in step 16 (t9) d, the vector subtracted from the point PofRfCAD (i) and the corresponding point candidate KPoCAD (i, j) j = 1 to m including the color information of the tip of the vector are compared and matched. Find the degree. You may compare for every area | region.

次に、処理16(t9)eでベクトルマッチング度が高く、2番目の候補点よりも所定以上にマッチング度が高い点がある場合は、対応点としてマッチング度の高い点PofRfCAD(i)と対応点候補KPoCAD(i、j)j=1〜mから絞り込んだ点M個を対応点メモリ(1)〜(4)へ書き込む。そして、判別処理16(t9)fで抽出された点PofRfCAD(i)のi=1〜nのすべてを終了したかどうかを判別し、Noの場合は処理16(t9)aから繰り返すようにして、抽出された点PofRfCAD(i)のi=1〜nのすべてを終了したならば終了する機能を回路に盛り込む。   Next, in process 16 (t9) e, when the vector matching degree is high and there is a point having a matching degree higher than a predetermined value than the second candidate point, it corresponds to a point PofRfCAD (i) having a high matching degree as a corresponding point. M points that have been narrowed down from point candidate KPoCAD (i, j) j = 1 to m are written into corresponding point memories (1) to (4). Then, it is determined whether or not all i = 1 to n of the points PofRfCAD (i) extracted in the determination process 16 (t9) f have been completed. If No, the process is repeated from the process 16 (t9) a. When the extracted points PofRfCAD (i) are all completed for i = 1 to n, a function to be terminated is incorporated in the circuit.

図109は、ブロック16(p)1の2D類似度計算(1)の基本フローチャートを示す。まず、処理16(t10)aで探対応点メモリ(1)から探索用2D参照CADデータ格納メモリから抽出された点PofRfCAD(i)i=1〜Nと、それぞれの点に対応する(左画像の)線分統合メモリの中の対応点(複数個)を読み込む。複数個の員数は総数の1/4(4はパラに処理する回路の数)とする。また、探索用2D参照CADデータが複数個ある場合は、その種類ごとに分けて以降の計算も行うようにする。   FIG. 109 shows a basic flowchart of the 2D similarity calculation (1) of the block 16 (p) 1. First, points PofRfCAD (i) i = 1 to N extracted from the search corresponding point memory (1) from the search corresponding point memory (1) in process 16 (t10) a and corresponding to each point (left image) ) Read the corresponding points (plural) in the line segment integrated memory. The number of plural pieces is 1/4 of the total number (4 is the number of circuits to be processed in parallel). Further, when there are a plurality of search 2D reference CAD data, the subsequent calculation is performed separately for each type.

次に、処理16(t10)bで点PofRfCAD(k)から他の点PofRfCAD(i)i=1〜N(kを除く)へのベクトルを先端の点の色情報も含めて求める。kは、k=1〜Nの中から点PofRfCAD(k)に対応する(左画像の)線分統合メモリの中の対応点の存在するものを選ぶようにする。次に、処理16(t10)cで点PofRfCAD(k)に対応する(左画像の)線分統合メモリの中の対応点から他の点PofRfCAD(i)i=2〜Nに対応する点へのベクトルを先端の点の色情報も含めて求める。複数組求める。   Next, in processing 16 (t10) b, a vector from the point PofRfCAD (k) to another point PofRfCAD (i) i = 1 to N (excluding k) is obtained including the color information of the tip point. k is selected from k = 1 to N where a corresponding point in the line segment integrated memory (in the left image) corresponding to the point PofRfCAD (k) exists. Next, in process 16 (t10) c, from the corresponding point in the line segment integrated memory (in the left image) corresponding to the point PofRfCAD (k) to the point corresponding to another point PofRfCAD (i) i = 2 to N. Including the color information of the tip point. Ask for multiple sets.

次に、処理16(t10)dで点PofRfCAD(k)からのベクトル郡と点PofRfCAD(k)に対応する点からのベクトル郡のマッチング度を複数組求めてマッチング度などの計算結果を2D類似度メモリへ書き込む。2D対応点候補KPoCAD(i,j)を求めるときにスケールファクタを考慮している場合は、同様に、そのときのスケールファクタを考慮してマッチング度を求める。   Next, in process 16 (t10) d, a plurality of matching degrees between the vector group from the point PofRfCAD (k) and the vector group from the point corresponding to the point PofRfCAD (k) are obtained, and the calculation result such as the matching degree is 2D-like. Write to memory once. When the scale factor is taken into account when obtaining the 2D corresponding point candidate KPoCAD (i, j), similarly, the matching factor is obtained in consideration of the scale factor at that time.

そして、判別処理16(t10)eでk=1〜Nのすべてを終了したかどうか、あるいは、探索は十分かどうか、を判別し、Noの場合は処理16(t10)bから繰り返し行うようにし、すべてが終了したならば終了する機能を回路に盛り込む。   Then, it is determined whether or not all of k = 1 to N have been completed in the determination process 16 (t10) e, or whether the search is sufficient. If No, the process is repeated from the process 16 (t10) b. Include a function in the circuit that ends when everything is finished.

図110は、ブロック16(p)5の類似度評価の基本フローチャートを示す。まず、処理16(t11)aでコマンド格納メモリからコマンド、コマンド付属データ格納メモリからコマンド付属データを読む込む。   FIG. 110 shows a basic flowchart of similarity evaluation of block 16 (p) 5. First, in process 16 (t11) a, a command is read from the command storage memory, and command attached data is read from the command attached data storage memory.

次に、処理16(t11)bで2D類似度メモリ(1)〜(4)から探索用2D参照CADデータ格納メモリから抽出された点PofRfCAD(i)i=1〜Nと、それに対応する(左画像の)線分統合メモリの中の対応点の組とそのときの類似度計算結果を読み込む。探索用2D参照CADデータが複数個ある場合は、その種類ごとに分けて以降の計算も行うようにする。   Next, points PofRfCAD (i) i = 1 to N extracted from the 2D reference CAD data storage memory for search from the 2D similarity memories (1) to (4) in the process 16 (t11) b, and corresponding to ( A set of corresponding points in the line segment integrated memory (left image) and the similarity calculation result at that time are read. When there are a plurality of search 2D reference CAD data, the subsequent calculation is performed separately for each type.

次に処理16(t11)cで2D類似度計算結果より、類似度が高い順番に、コマンド付属データで員数が指定ある場合にはその員数以内を順番に3D線分全体の統合メモリ(最初のワールド座標系)の中の(左画像の)線分統合メモリの中の対応点に対応する点にかかわるCADデータを転送する指令をCADデータ転送回路へ指令して探索等の処理結果の3D-CADデータ格納メモリへ転送させる。   Next, in process 16 (t11) c, if the number is specified in the command attached data in descending order of the similarity from the 2D similarity calculation result, the integrated memory of the entire 3D line segment (the first A command to transfer CAD data related to a point corresponding to a corresponding point in the line segment integrated memory (of the left coordinate system) in the world coordinate system is sent to the CAD data transfer circuit, and 3D- Transfer to CAD data storage memory.

そして、次の処理16(t11)dで類似度が高い順番に(左画像の)線分統合メモリの中の対応点の組の対応する3D線分全体の統合メモリ(最初のワールド座標系)の中の点の組の座標データより、探索用2D参照CADデータの基準座標系の最初のワールド座標系の中での位置と向きを計算して探索等の処理結果格納メモリへ書き込む。   Then, in the next process 16 (t11) d, the integrated memory (first world coordinate system) of the entire corresponding 3D line segment of the corresponding point set in the line segment integrated memory (in the left image) in descending order of similarity. The position and orientation in the first world coordinate system of the reference coordinate system of the reference 2D reference CAD data is calculated from the coordinate data of the set of points in and is written in the processing result storage memory such as search.

そして、判別処理16(t11)eでコマンドにその他の判断処理などの指令が含まれているかどうかを判別し、NOの場合は、次の処理16(t11)fは行わないようにパスして、Yesの場合は、処理16(t11)fでその他のコマンドに含まれる指令の内容を処理を実行してその結果を探索等の処理結果格納メモリへ書き込む。例としては、探索したCADデータID1と探索したCADデータID2の衝突有無を判断する指令の場合には、探索したCADデータID1と探索したCADデータID2の距離を求めてその距離が所定の距離(コマンド付属データで与えられている場合にはその値を使用する)以下の場合は「衝突危険性あり」を、以上の場合は「衝突危険性なし」を探索等の処理結果格納メモリへ書き込むなどとなる。そして、終了する機能を回路に組み込む。   Then, in the determination process 16 (t11) e, it is determined whether or not the command includes other instructions such as a determination process. In the case of Yes, the content of the command included in the other command is executed in processing 16 (t11) f, and the result is written in the processing result storage memory such as search. For example, in the case of a command for determining whether or not the searched CAD data ID1 and the searched CAD data ID2 collide, the distance between the searched CAD data ID1 and the searched CAD data ID2 is obtained and the distance is a predetermined distance ( (If the value is given in the command attached data, the value is used.) In the following cases, “with collision risk” is written into the processing result storage memory such as search. It becomes. Then, the function to be terminated is incorporated in the circuit.

図111は、ブロック16(r)1の3D線分の2D投影の基本フローチャートを示す。まず処理16(t12)aでコマンド格納メモリからコマンド、コマンド付属データ格納メモリからコマンド付属データを読む込む。   FIG. 111 shows a basic flowchart of 2D projection of the 3D line segment of the block 16 (r) 1. First, in process 16 (t12) a, the command is read from the command storage memory and the command attached data is read from the command attached data storage memory.

次に、処理16(t12)bで探索用3D参照CADデータ格納メモリから3D−CADデータを読み込む。3D−CADデータが複数の部品(ID1〜IDn)から構成されている場合は、部品ごとにデータを管理する。また、各部品(ID1〜IDn)の結合条件がある場合は、それらの条件も読み込む。   Next, in process 16 (t12) b, 3D-CAD data is read from the search 3D reference CAD data storage memory. When 3D-CAD data is composed of a plurality of parts (ID1 to IDn), the data is managed for each part. Further, if there are coupling conditions for each component (ID1 to IDn), these conditions are also read.

次に、16(t12)cでコマンドおよびコマンド付属データで生成条件に限定する範囲の条件がある場合には、その範囲の中で、限定条件のない場合には、参照CADデータの全方向からの全結合条件の各移動量の組合せによる複数部品の各種組み合わせ条件のすべての種類の2D投影CADデータを生成して、その観察方向、結合条件の各移動量の組合せによる複数部品の各種組み合わせ条件の種類ごとに探索用2D参照CADデータ格納メモリへ書き込む。観察方向の分割数、結合条件の移動量は、コマンド付属データで指定があればその値を使用して、ない場合はデフォルトと設定してある所定の値を使用する。また、1回に探索用2D参照CADデータ格納メモリへ書き込むデータ量は、あらかじめ処理能力から決まる所定のデータ量以下の量ごとに、数回のサイクルに分けて全部のデータを書き込むようにする。そして、終了する機能を回路に組み込む。   Next, at 16 (t12) c, if there is a range condition limited to the generation condition in the command and command-attached data, if there is no limit condition within the range, the reference CAD data is read from all directions. 2D projection CAD data of all kinds of various combination conditions of a plurality of parts by combining the movement amounts of all the joint conditions of the above, and various combination conditions of the plurality of parts by combining the observation direction and each movement amount of the joining conditions Is written into the search 2D reference CAD data storage memory for each type. For the number of divisions in the observation direction and the movement amount of the coupling condition, the values are used if specified in the command attached data, and if not, the predetermined values set as default are used. In addition, the amount of data to be written into the search 2D reference CAD data storage memory at one time is written in several cycles for every amount equal to or less than a predetermined data amount determined in advance from the processing capability. Then, the function to be terminated is incorporated in the circuit.

以上、主な処理機能の基本的な流れを説明したが、これはあくまでも一例であり、いろいろな機能の組み合わせ、分担の方法はあるので、目的や盛り込む機能の大小に応じて全体として合理的な回路を設計するようにする。   The basic flow of the main processing functions has been described above. However, this is only an example, and there are various combinations and sharing methods of functions. Try to design the circuit.

図116〜図128は、本発明の第16〜17の手段の基本的構成を例示している。   116 to 128 illustrate the basic configuration of the sixteenth to seventeenth means of the present invention.

図116は、原子力発電プラントを例にした場合の各種検査装置に適用した場合の数例を示す。勿論、ここで上げた例以外のあらゆる検査ロボットあるいは監視点検ロボット、その他の作業ロボットに適用して良いし、原子力発電プラントに限らず、その他の原子力施設、火力プラント、水力プラント、化学プラント、海洋プラント、宇宙基地、公共施設、病院、家庭内のあらゆる分野の検査、作業ロボットに適用して良いものである。   FIG. 116 shows several examples when applied to various inspection apparatuses when a nuclear power plant is taken as an example. Of course, it may be applied to all inspection robots or monitoring / inspection robots and other work robots other than the examples given here, and is not limited to nuclear power plants, but also other nuclear facilities, thermal power plants, hydropower plants, chemical plants, marine It can be applied to inspection, work robots in all fields in plants, space bases, public facilities, hospitals and homes.

図116の(a)は、原子力発電プラントにおける原子炉21rの中の各種機器の検査に検査装置を適用する概念を示している。原子炉21rの中には、核燃料、制御棒の他、シュラウド等の炉内構造物のいろいろな機器が設置され、また、原子炉21rの胴体は、それ自体が複数枚の板を加工して溶接で接合された構造であり、胴板や底部には、配管部材と繋がる各種管台が溶接で取り付けられている。また、各種炉内構造物にも溶接構造物がある。それらの溶接線の健全性確認は重要であり、原子力発電プラントでは、定期的にそれら溶接線の検査が行われている。検査は、目視検査(VT検査)や超音波によるUT検査なども行われる。原子炉21rの中を検査する場合には、原子力発電プラントを止めてから、原子炉上部の蓋を開放して、取り出せる内部構造物は取り出して、必要に応じて燃料なども取り出した上で、蓋を開放した上から原子炉内へ検査装置21A,21Cを投入して検査する。検査装置21Aや検査装置21Cは、TVカメラなどの撮像装置や超音波センサを搭載してケーブル21Kでそれらの信号を処理する処理装置100へ接続されている。原子炉内は、高い放射線のある環境であるので、原子炉21rの中は水が張られており、これらの検査作業は、全て水中にて遠隔操作で行われる。   FIG. 116 (a) shows a concept of applying an inspection apparatus to inspection of various devices in the nuclear reactor 21r in the nuclear power plant. In addition to nuclear fuel and control rods, various devices such as shrouds are installed in the reactor 21r. The fuselage of the reactor 21r itself is made by processing a plurality of plates. It is a structure joined by welding, and various nozzles connected to the piping members are attached to the body plate and the bottom by welding. There are also welded structures in various furnace structures. It is important to check the soundness of these weld lines, and in nuclear power plants, these weld lines are regularly inspected. The inspection is also performed by visual inspection (VT inspection), ultrasonic UT inspection, or the like. When inspecting the inside of the nuclear reactor 21r, after stopping the nuclear power plant, the lid on the upper part of the nuclear reactor is opened, the internal structure that can be taken out is taken out, and fuel etc. are taken out if necessary. The inspection devices 21A and 21C are put into the nuclear reactor from the state where the lid is opened and inspected. The inspection device 21A and the inspection device 21C are connected to a processing device 100 that includes an imaging device such as a TV camera and an ultrasonic sensor and processes those signals with the cable 21K. Since the inside of the nuclear reactor is an environment with high radiation, the reactor 21r is filled with water, and all of these inspection operations are performed remotely in water.

図116の(b)は、(a)に示した検査装置21Aの構成を示したものであり、水中を浮遊しながら移動する水中ROV型の検査装置の一例を示している。水中ROVには、スクリューを回転させて推進する方式や水を噴射するジェット方式などがあるが、いずれの場合においても、水中ROVは、前後に、上下左右に、また、左右の回転などの姿勢制御を複数のスクリューの回転制御や複数のジェット噴射の制御にて遠隔で制御できるようになっている。水中ROV本体21Aには、本例の場合は、2台の右のカメラ20と左のカメラ10が組み込まれてステレオ画像情報を得ることができるようになっている。また、必要に応じて、照明も水中ROVに搭載する。照明については、画像認識からは外部照明を準備する方が、水中ROV21Aが移動するような場合にも撮影対象、ここでは原子炉底部の管台の溶接部909が撮影対象になるが、撮影対象に対する照明条件は変わらない方が安定な画像が得られるので、より処理性能は良くなる。それでも、スペース的に外部に照明を置けないような場所では、搭載した照明で画像処理を行うようになるが、前述した図68のような特徴点抽出方法を用いることによって、また、十分対応する対応点のみを抽出して3次元のCADデータに変換することにより、照明を搭載している場合でも、画像情報を処理して3次元のCADデータを生成しながら、水中ROV21Aの自分自身の位置を検出するようにすることは可能となる。また、移動照明の影響を少なくするために移動照明で局部的により明るくして十分強力な固定照明で全体を明るくする両方を組み合わせた照明方法を用いても良い。   116 (b) shows the configuration of the inspection apparatus 21A shown in FIG. 116 (a), and shows an example of an underwater ROV type inspection apparatus that moves while floating in water. The underwater ROV includes a propulsion method by rotating a screw and a jet method that injects water. The control can be performed remotely by controlling the rotation of a plurality of screws and controlling a plurality of jets. In the case of this example, the right camera 20 and the left camera 10 are incorporated in the underwater ROV main body 21A so that stereo image information can be obtained. In addition, if necessary, illumination is also mounted on the underwater ROV. As for the illumination, the preparation of the external illumination from the image recognition is also the object to be imaged even when the underwater ROV 21A moves, here the welded part 909 of the bottom of the reactor is the object to be imaged Since the stable image can be obtained when the illumination condition for the lens is not changed, the processing performance is improved. Still, in places where lighting cannot be placed outside due to space, image processing is performed with the mounted lighting. However, the feature point extraction method as shown in FIG. By extracting only corresponding points and converting them into 3D CAD data, even when lighting is installed, the image data is processed to generate 3D CAD data, while the position of the underwater ROV 21A itself It is possible to detect. Further, in order to reduce the influence of the moving illumination, an illumination method may be used in which both the moving illumination is locally brightened and the whole is brightened with sufficiently strong fixed illumination.

操作者が水中ROV本体21Aを遠隔操縦する環境は、操作者から直視できない遠隔地で同じような複数の管台が林立している環境であるため、カメラの画像情報を見ただけでは水中ROVの現在位置を操作者が認識するのが非常にむずかしい。また、検査を行なっている場合も、どこの検査を行っているかの対応をとるのがむづかしいが、本発明の視覚情報処理装置を適用すれば、撮像装置の位置をトラッキングで管理しながら検出することができるので、撮像装置の位置情報から水中ROV21Aの位置と姿勢情報を求めてその結果を操作部の処理装置100のモニタに表示すれば、現在の位置と姿勢を操作者が容易に確認することができるようになる。   The environment in which the operator remotely controls the underwater ROV main body 21A is an environment in which a plurality of similar nozzles stand in a remote place where the operator cannot directly view the underwater ROV main body 21A. It is very difficult for the operator to recognize the current position of the. Also, even when an inspection is being performed, it is difficult to take correspondence as to which inspection is being performed, but if the visual information processing apparatus of the present invention is applied, the position of the imaging apparatus is detected while being managed by tracking. Therefore, if the position and posture information of the underwater ROV 21A is obtained from the position information of the imaging device and the result is displayed on the monitor of the processing device 100 of the operation unit, the operator can easily confirm the current position and posture. Will be able to.

また、水中ROV21Aの位置と姿勢情報より、センサでどこを検査しているかが分かるので、検査結果データも検査している場所に対応付けして自動的に記録させるようなことも容易にできるようになる。また、水中ROV本体21Aには、画像情報によるトラッキングが途切れた場合に水中ROV21Aの位置情報を補間するために加速度センサやジャイロセンサを搭載してそのセンサ信号も処理するようにしても良い。また、通常の照明以外に、1本あるいは複数本の光の線を撮影対象に当てるためのレーザー等のマーカ21eを搭載するようにしても良い。マーカ21eによる光の線は、例えば赤色レーザ光であれば、撮影対象の溶接部の色や通常の照明とも違った色になるので、水中ROV21A本体の形状は、円筒状で角はできるだけ丸みを付けて、上部にケーブル21Kの出口を設ける。   Further, the position and orientation information of the underwater ROV 21A can tell where the inspection is performed by the sensor, so that the inspection result data can be automatically recorded in association with the inspection location. Become. In addition, the underwater ROV main body 21A may be equipped with an acceleration sensor or a gyro sensor in order to interpolate the position information of the underwater ROV 21A when tracking by image information is interrupted, and the sensor signal may be processed. In addition to normal illumination, a marker 21e such as a laser for applying one or a plurality of light lines to a subject to be imaged may be mounted. For example, if the line of light by the marker 21e is red laser light, the color of the welded portion to be imaged and the normal illumination will be different, so the shape of the underwater ROV 21A body is cylindrical and the corners are as rounded as possible. In addition, an outlet for the cable 21K is provided at the top.

推進装置は、スクリューやジェットの噴射口によって上下と周囲にできる表面の凸凹ができるだけ少なくなるように複数設けている。これは、原子炉下部で制御棒駆動機構などの管台溶接部を点検するような場合には、原子炉21rの上部から水中ROV21Aを投入して一番底までいろいろな炉内構造物の間を通して遠隔制御で移動させる必要があり、途中、燃料を抜いた空間の狭いスペースから下部の燃料サポート部の更に下に潜る必要があるので、突起物があると引っかかって移動制御がむづかしくなることと、万一、推進装置が故障したような場合でもケーブルを引っ張ることで水中ROV本体を回収することができるように表面はなるべく滑らかな構造とすることで、非常時の回収性も考慮したものである。   A plurality of propulsion devices are provided so that the surface unevenness formed by the screw and jet injection ports can be reduced as much as possible. This is because in the case where the welded part of the control rod drive mechanism or the like is inspected at the lower part of the reactor, the underwater ROV 21A is introduced from the upper part of the reactor 21r to the bottom of the various in-reactor structures. It is necessary to move by remote control through, and it is necessary to dive under the fuel support part at the lower part from the narrow space where the fuel is drained on the way, so if there is a projection it will be caught and movement control will be difficult In addition, even if the propulsion device breaks down, the surface is made as smooth as possible so that the underwater ROV body can be recovered by pulling the cable, taking into account the emergency recoverability. Is.

複数の噴射を制御することで、水中ROV本体21Aの前進、後退、その場回転、上昇、下降の移動と姿勢制御が可能となる。形状が円筒であるので、姿勢のチルト制御を行うようにするよりも、カメラ10,20を水中ROV本体21Aの内部でチルト動作させるようにした方が良い。   By controlling a plurality of jets, the underwater ROV main body 21A can be moved forward, backward, on the spot, moved up and down, and controlled in posture. Since the shape is a cylinder, it is better to cause the cameras 10 and 20 to be tilted inside the underwater ROV main body 21A rather than performing tilt control of the posture.

ジェット推進の場合は、操作するフロアなどに大きなポンプを準備して圧力を高めた流体をケーブル21Kの中にホースも組み込んで高い推進エネルギーを外部のポンプから得られるようにすれば、水中ROV本体21Aにはポンプを搭載しないで済み、小型の電磁弁を噴射ノズルの員数のみ搭載するか、複数本のホースでポンプ側で噴射制御するようにもできるので、水中ROV本体を小型軽量にすることができる。水中ROV本体21Aは、ケーブルKで遠隔地にある操作部に相当する処理装置100に接続される。   In the case of jet propulsion, if a large pump is prepared on the floor to be operated and a fluid whose pressure has been increased is incorporated in the cable 21K so that high propulsion energy can be obtained from an external pump, an underwater ROV body No pump is required for 21A, and a small solenoid valve can be mounted only for the number of injection nozzles, or the injection can be controlled on the pump side with a plurality of hoses. Can do. The underwater ROV main body 21A is connected to a processing device 100 corresponding to an operation unit at a remote place by a cable K.

処理装置100は、カメラなどのセンサの信号を処理して点検結果を記録する機能の他に、水中ROV本体21Aを遠隔手動操作、あるいは自動制御できるように構成する。手動操作は処理装置100の画面のマウススイッチで操作できるようにしても良いし、ジョイステックなどの操作スイッチを別に設けるようにしても良い。   The processing device 100 is configured to be capable of remote manual operation or automatic control of the underwater ROV main body 21A in addition to the function of processing the signal of a sensor such as a camera and recording the inspection result. The manual operation may be performed with a mouse switch on the screen of the processing apparatus 100, or an operation switch such as a joystick may be provided separately.

図116の(c)は、(a)の原子炉内の底部を除く部位で上から水中カメラ10を投入してカメラから出ているケーブル21Kで単純にカメラ10を吊って操作者あるいは機械が上部フロアの気中で取扱う検査カメラに適用する場合の例を示している。操作者がケーブル21Kを緩ませたり、引っ張ったりすることでカメラ10を上下方向に移動させることができ、また、ケーブル21Kを操作者が持って移動すればカメラ10も同じ方向に移動する。カメラ10には照明21sを一緒に取り付けてあり、全体を吊下式カメラ本体21Cと称することとする。勿論、簡単な推進機構やガイド機構や吸着して壁面を移動する機構などを吊下式カメラ本体21Cに設けても良い。カメラ10は、2台にしてステレオカメラ方式にしても良い。また、レーザスポット線を撮影対象部位に照射するようにしても良い。また、カメラ以外の超音波センサ(UTセンサ)を搭載してガイド機構や吸着機構で炉内の壁や構造物に対して所定の姿勢でアクセスできるようにして炉壁や構造物の肉厚を測定したり、UTセンサで内部の欠陥を検査するようにしても良い。   FIG. 116 (c) shows that the operator or machine simply hangs the camera 10 with the cable 21K that is inserted from the top and the camera 21 is out of the part except the bottom in the reactor of FIG. 116 (a). An example in the case of applying to an inspection camera handled in the air on the upper floor is shown. The operator can move the camera 10 in the vertical direction by loosening or pulling the cable 21K, and if the operator moves the cable 21K, the camera 10 also moves in the same direction. An illumination 21s is attached to the camera 10 together, and the whole is referred to as a suspended camera body 21C. Of course, a simple propulsion mechanism, a guide mechanism, a mechanism for moving the wall surface by suction, and the like may be provided in the suspended camera body 21C. Two cameras 10 may be used as a stereo camera system. Further, a laser spot line may be irradiated to the imaging target part. In addition, an ultrasonic sensor (UT sensor) other than a camera is mounted so that the wall of the furnace and the structure can be accessed in a predetermined posture by the guide mechanism and the suction mechanism, and the wall thickness of the furnace wall and the structure is increased. You may make it measure or inspect an internal defect with a UT sensor.

吊下式カメラ本体21Cのカメラ10やその他のジャイロ等のセンサを搭載している場合には、それらの信号情報が処理装置100へ入力されて、処理装置100の中の画像情報処理の機能でカメラ信号の画像情報を処理して、カメラの現在位置をモニタ表示しながら、検査結果(画像データやUT検査データなど)を、画像情報を処理して生成した3次元のCADデータの部位情報に対応させて自動で検査データが記録されるようにして良い。画像データを処理して3次元のCADデータを生成すれば、万一、欠陥部位があっても、その欠陥をCADデータとして生成するので、そのCADデータは3次元の位置情報をもっているので、処理装置のモニタに表示して欠陥の形や大きさや、その欠陥が原子炉設備のどこの位置にあるかなどの情報を容易に確認することができるようになる。吊下式カメラ本体21Cには、複数のレーザの線21eを撮影対象に照射できるマーカを搭載するようにしても良い。   In the case where the camera 10 of the suspended camera body 21 </ b> C and other sensors such as a gyro are mounted, the signal information thereof is input to the processing device 100, and the image information processing function in the processing device 100 is used. While processing the image information of the camera signal and displaying the current position of the camera on the monitor, the inspection result (image data, UT inspection data, etc.) is converted into the part information of the three-dimensional CAD data generated by processing the image information. Correspondingly, inspection data may be automatically recorded. If three-dimensional CAD data is generated by processing image data, even if there is a defective part, the defect is generated as CAD data. Therefore, the CAD data has three-dimensional position information. Information on the shape and size of the defect and where the defect is located in the reactor facility can be easily confirmed by displaying on the monitor of the apparatus. A marker that can irradiate a subject with a plurality of laser lines 21e may be mounted on the suspended camera body 21C.

図116の(d)は、原子力発電プラントの原子炉とは別に燃料を一時的に保管するために水を張ったプール等のライニングの溶接線などを検査するためのクローラ式検査装置へ適用した場合の一例を示している。プール等の壁面や底面には鋼製のライニングが施工されており、ライニングは、板材を溶接で接合してプール内の水が漏れないようになっている。そのライニングの溶接線を検査する場合の検査装置としては、壁面は、(b)や(c)で説明した水中ROV21Aや吊下式カメラ本体21Cを使用して検査することができるが、プール底部のライニングの溶接線909は、クローラ式VT装置21Bを用いるのが、安定に高速に移動できるので検査効率が良い。クローラ式VT装置21Bは、左右のクローラを制御することで前進、後退、その場旋回できる走行機構に左右の2台のカメラ10,20が搭載されている。燃料を保管するラックの下に入って溶接線を検査するために、必要であれば、照明も搭載する。また、画像トラッキングを補間する加速度センサやジャイロセンサを搭載しても良いし、左右のクローラの回転数を検出するエンコーダなどのセンサを搭載して回転角度を積算することで画像トラッキングを補正する情報にすることでも良い。クローラ式の代わりに車輪走行方式でも良いし、独立して床面と接触してすべりを少なくしたエンコーダの信号を取り込めるようにしても良い。   116 (d) is applied to a crawler type inspection device for inspecting a welding line of a lining such as a pool filled with water in order to temporarily store fuel separately from a nuclear power plant nuclear reactor. An example of the case is shown. Steel linings are applied to the wall and bottom of a pool or the like, and the linings are joined by welding plate materials so that water in the pool does not leak. As an inspection device for inspecting the weld line of the lining, the wall surface can be inspected using the underwater ROV 21A and the suspended camera body 21C described in (b) and (c). For the lining welding line 909, the crawler type VT device 21B is used, which can move stably and at high speed, so that the inspection efficiency is good. The crawler-type VT device 21B has two left and right cameras 10 and 20 mounted on a traveling mechanism that can move forward, backward, and turn on the spot by controlling left and right crawlers. If necessary, lighting is also installed to enter underneath the fuel storage rack and inspect the weld line. Also, an acceleration sensor or gyro sensor that interpolates image tracking may be installed, or information such as an encoder that detects the number of rotations of the left and right crawlers is installed to correct the image tracking by integrating the rotation angle. It may be to. A wheel traveling system may be used instead of the crawler system, or an encoder signal that is in contact with the floor surface and reduces slippage may be taken in independently.

搭載したカメラ10,20からの画像情報で溶接部909をVT検査するが、CADデータも生成するようにして、溶接ビードの形状、傷があればその場所や大きさなどをCADデータとして自動的に記録するようにして良い。また、カメラで撮像した画像データを検査記録として残すようなシステムにしても良い。   The welded part 909 is VT-inspected with image information from the mounted cameras 10 and 20, but CAD data is also generated, and if there is a weld bead shape or scratch, its location and size are automatically converted as CAD data. It is good to record it. Further, a system in which image data captured by a camera is left as an inspection record may be used.

クローラ式VT装置本体21Bは、ケーブルKで処理装置100に接続されて、クローラの操作制御信号やカメラやセンサの信号をケーブルを介して通信する。この例では、ケーブル21Kを介するようにしたが、無線方式にしてクローラの機動性をより良くしても良い。また、クローラ21Bには、レーザの光の線21eを溶接線909とその周辺に当てられるようにラインマーカを搭載する。また、カメラ10,20によるVT検査の他に、UTセンサ21bをアーム機構21aで溶接線の周囲をなぞってUT検査できるようにしても良い。溶接線909の部位とその周辺が3次元のCADデータとして生成できるので、UT検査を行っている場所もCADデータと対応つけして記録することが容易にできるようになる。   The crawler type VT apparatus main body 21B is connected to the processing apparatus 100 via a cable K, and communicates crawler operation control signals and camera and sensor signals via the cables. In this example, the cable 21K is used, but the mobility of the crawler may be improved by using a wireless system. In addition, a line marker is mounted on the crawler 21B so that the laser light line 21e can be applied to the welding line 909 and its periphery. In addition to the VT inspection by the cameras 10 and 20, the UT sensor 21b may be UT-inspected by tracing the periphery of the weld line with the arm mechanism 21a. Since the part of the weld line 909 and its periphery can be generated as three-dimensional CAD data, the location where the UT inspection is performed can be easily recorded in association with the CAD data.

検査プローブは、UTセンサに限らず、放射線検査(RT)のための線源を所定の位置にあわせるように制御しても良いし、ECTなどの検査プローブでも良い。UTセンサなどの検査プローブ21bの位置は、クローラの位置と姿勢が画像情報処理で分かっているので、アーム機構21aの関節角度などの情報よりクローラに対するアーム機構21aの先端のプローブ21bの位置を求めて、CADデータの座標系の位置と対応つけることができる。ここで、アーム機構21aは、1次元あるいは2次元のもっと単純なスキャン機構を搭載するようにしても良い。   The inspection probe is not limited to the UT sensor, and may be controlled so that the radiation source (RT) is aligned with a predetermined position, or may be an inspection probe such as ECT. Since the position and posture of the inspection probe 21b such as the UT sensor are known by image information processing, the position of the probe 21b at the tip of the arm mechanism 21a relative to the crawler is obtained from information such as the joint angle of the arm mechanism 21a. Thus, it can be associated with the position of the coordinate system of CAD data. Here, the arm mechanism 21a may be mounted with a simpler one-dimensional or two-dimensional scanning mechanism.

実施例のバリエーションとしては、(b)の水中ROV、(c)の吊下式カメラ、(d)のクローラ式VT装置を例に上げて説明したが、検査や作業を行う装置としては、歩行して移動する人間型ロボットでも良いし、気球にセンサと推進装置を搭載した気球式移動ロボットでも良い。処理装置100は、画像情報を取り込み画像処理を行う部分は共通であるので、それぞれのロボットの操作駆動制御を行う部分は、ロボットごとに調整されたものである必要があるが、センサや画像情報を入力して3次元CADデータを生成したり、現在の位置情報を表示させたりする部分は共通なので、複数種類の検査装置のケーブル21Kを同じ処理装置に繋ぎかえて運用ができるようにして良い。   As a variation of the embodiment, (b) underwater ROV, (c) hanging type camera, (d) crawler type VT device was described as an example. It may be a humanoid robot that moves, or a balloon-type mobile robot in which a sensor and a propulsion device are mounted on a balloon. Since the processing apparatus 100 has a common part for capturing image information and performing image processing, the part for controlling the operation of each robot needs to be adjusted for each robot. Since the parts for generating the three-dimensional CAD data and displaying the current position information are common, it is possible to connect the cables 21K of a plurality of types of inspection devices to the same processing device so that they can be operated. .

図117は、クローラ式VT検査装置21Bを例にして、プール底面溶接線909の周辺部の自動生成されたアズビルトの3次元CADデータの概念を示している。クローラ式VT検査装置21Bに搭載したカメラ10,20の画像イメージを図面の(A)と(B)に示す溶接線909の同じ部位が写るようにカメラの位置と向き、カメラの画角などは調整しておく。両方の画像データ(A),(B)は、処理装置100では同時刻に取り込むようにするので、トラッキング処理の前のステレオ計測処理においては、装置に照明を搭載していても見え方の違いは視点の違いのみである。また、溶接ビード909には、同じ金属色でビードのふくらみや模様で対応点をとると十分な数の特徴点が得られない場合もあるために、レーザマークの線22eが画像に写っていればその線が例えば赤色ならば非常にコントラスト良く、レーザマークの線は特徴点、特徴線分として抽出できるので、それでステレオ計測することにより溶接線ビードのより多くの形状データを取得するようにしても良い。図116の(d)の例では、1本のレーザマーカの線分21eが照射されている状態を示しているが、平行に何本もあるいは水平の他に垂直、斜めでも同時にマーカの線を複数を本照射して同時に複数箇所の断面形状をステレオ計測できるようにしても良い。但し、この場合は、もともと溶接線ビードにある傷や汚れのデータとは違うので、データとしては分けて管理するようにしておくのが良い。また、赤い線ということで、データの区別も容易に行うことが可能となる。また、マーカは、線ではなく、スポットの点で1点あるいは複数の点を同時に照射するようにしても良い。レーザマークの線22eは、溶接ビードの形状を詳細に記録することができる。溶接ビードの凸形状も重要な検査データにはなる。また、トラッキング処理を行う場合には、ビードのふくらみの輪郭線22bやビード表面の模様22cとか汚れ22aや傷がある場合には、それらを特徴点として検出してトラッキングを行うが、レーザマークの線22eを複数本同時に照射して断面形状をできるだけ密に取得するようにすれば、溶接線ビードの詳細な凸凹状態が3次元形状としての特徴部位になるので、ステレオ計測で3次元CADデータを生成するとビードの所定の範囲での3次元形状が得られるので、クローラが移動して別の視点から同じ部位が重なるようにしてレーザマークの線による3次元CADデータを生成するようにすれば、重ねて計測したデータの中には同じ特徴の凸凹部位が存在するので、その形状のマッチングをとることによってトラッキングをより安定に行うことができるようになる。   FIG. 117 shows the concept of automatically generated as-built three-dimensional CAD data around the pool bottom weld line 909, using the crawler type VT inspection device 21B as an example. The position and orientation of the camera, the angle of view of the camera, etc. so that the same part of the weld line 909 shown in FIGS. (A) and (B) of the images of the cameras 10 and 20 mounted on the crawler type VT inspection apparatus 21B can be seen. Adjust it. Since both the image data (A) and (B) are captured at the same time in the processing apparatus 100, in the stereo measurement process before the tracking process, the difference in how they are seen even if the apparatus is equipped with illumination. Is only a difference in perspective. In addition, since there may be a case where a sufficient number of feature points cannot be obtained in the weld bead 909 when corresponding points are taken with the same metal color and bead bulge or pattern, the laser mark line 22e can be seen in the image. For example, if the line is red, the contrast is very good and the laser mark line can be extracted as a feature point or feature line segment, so that more shape data of the weld line bead can be obtained by stereo measurement. Also good. 116 (d) shows a state in which one laser marker line segment 21e is irradiated. However, a plurality of marker lines can be simultaneously formed in parallel, in the vertical direction or diagonally in addition to the horizontal number. May be used for stereo measurement of cross-sectional shapes at a plurality of locations at the same time. However, in this case, since it is different from the scratch and dirt data originally in the weld line bead, the data should be managed separately. In addition, the red line makes it possible to easily distinguish data. Further, the marker may irradiate one point or a plurality of points at the spot point instead of the line. The laser mark line 22e can record the shape of the weld bead in detail. The convex shape of the weld bead is also important inspection data. When tracking processing is performed, if there is a bead bulge outline 22b, a bead surface pattern 22c, dirt 22a, or a flaw, tracking is performed by detecting them as feature points. If the cross-sectional shape is acquired as densely as possible by simultaneously irradiating a plurality of lines 22e, the detailed uneven state of the weld line bead becomes a characteristic part as a three-dimensional shape. Therefore, three-dimensional CAD data is obtained by stereo measurement. When generated, a three-dimensional shape in a predetermined range of the bead can be obtained. Therefore, if the crawler moves and the same part overlaps from another viewpoint, the three-dimensional CAD data by the line of the laser mark is generated. There are convex and concave positions with the same characteristics in the data measured overlaid, so tracking can be made easier by matching the shape. It is possible to perform in.

これらは、クローラに限らず、水中カメラや水中ROVの場合でも同じである。クローラの場合には、クローラの回転角度情報からも画像トラッキングを補間することができるので、連続してCADデータがトラッキングできない場合でもクローラ回転から推定してトラッキングできていない範囲の移動量を推定できるので、生成するCADデータは、連続的に一つの座標系(ワールド座標系Ow)に換算したものとして生成することができる。クローラ式VT検査装置21Bは、溶接線に沿って移動させるので、溶接線の周囲の3次元CADデータが生成され、そのCADデータの位置情報に対応付けて検査データが記録される。   These are not limited to crawlers, but are the same for underwater cameras and underwater ROVs. In the case of a crawler, since image tracking can be interpolated also from crawler rotation angle information, even if CAD data cannot be continuously tracked, it is possible to estimate the amount of movement in a range that cannot be estimated by crawler rotation. Therefore, the CAD data to be generated can be generated as data continuously converted into one coordinate system (world coordinate system Ow). Since the crawler type VT inspection device 21B moves along the weld line, three-dimensional CAD data around the weld line is generated, and the inspection data is recorded in association with the position information of the CAD data.

それらのCADデータを、視点をいろいろ変えながらモニタ表示して溶接線の形状や傷、汚れの位置などを確認することができる。モニタ表示でCADデータを表示する仮想視点の位置を離して表示すると、多くから見たような状況が表示され、プール全体の溶接線22Bが表示される。この中より一部分を指定して拡大表示、すなわち、仮想視点の位置を近くにしてCADデータを表示すると、局部的な溶接ビードのふくらみ22dや模様22cや汚れ22aなどを拡大して確認することができるようになる。また、少し汚れた水中でステレオ計測すると、浮遊しているゴミを3D計測してしまう。この場合には、視点が変わると当該点は計測されないので、1回目のフラグが消えることはないので、後で、そのようなCADデータは消去するようにしても良いし、浮遊しているゴミはプールや原子炉容器の底面から浮いているので、浮遊しているゴミの座標位置を確認して、その位置が底面の表面から浮いている場合には浮遊ゴミと判断して生成された当該CADデータを消去するようにすることもできる。これは、浮遊ゴミを確実に消去することができるので有効な手法である。   The CAD data can be displayed on the monitor while changing the viewpoint in various ways, and the shape of the weld line, the position of the flaw, and the position of dirt can be confirmed. When the positions of the virtual viewpoints for displaying CAD data are separated from each other on the monitor display, the situation as seen from many is displayed, and the weld line 22B of the entire pool is displayed. If a part of the image is designated and enlarged, that is, the CAD data is displayed with the virtual viewpoint close to the position, it is possible to enlarge and confirm the local weld bead bulge 22d, pattern 22c, dirt 22a, and the like. become able to. In addition, if stereo measurement is performed in slightly dirty water, the floating dust is measured in 3D. In this case, since the point is not measured when the viewpoint changes, the first flag does not disappear. Therefore, such CAD data may be erased later, or floating dust Is floating from the bottom of the pool or reactor vessel, check the coordinate position of the floating dust, and if the position is floating from the bottom surface, it is determined that it is floating dust The CAD data can be erased. This is an effective method because floating dust can be surely erased.

図118は、クローラ式VT検査装置21Bのシステム構成ブロック図を例示している。クローラ式VT検査装置21Bの大きなブロックの中は、主要な構成機器として、左右のモータ23a,23bがドライバ23dに接続されていて、処理装置100の中の主制御ルーチン23eからの指令信号で駆動制御できるようになっている。主制御ルーチン23eからの指令信号の出力は、主制御ルーチン23eのプログラムから自動制御で出力されるようにしても良いし、ここでは、図に記載していないが、操作者が操作するジョイスティクなどの操作指令信号を主制御ルーチン23eを介して指令出力するようにしておくことでも良い。モータ23a,23bのそれぞれにはエンコーダが付いていて、その信号は、カウンターボードなどのインターフェースを介して主制御ルーチン23eに取り込み参照できるようになっている。また、クローラ走行車21Bには、左右のカメラ10,20の他に、加速度センサ30やジャイロセンサ40も搭載しており、カメラ10、20の画像情報は、キャプチャーボードなどのインターフェースを介して処理装置100の中の画像処理ルーチン23gへ取り込み、センサ30,40の情報は、A/Dボードなどのインターフェースを介して主制御ルーチン23eへ取り込むようにしている。本例では、センサ処理を主制御ルーチン23eの中に入れて画像処理ルーチン23gを分けたが、画像処理ルーチンの中へセンサ30,40の信号を直接取り込むようにしても良い。   FIG. 118 exemplifies a system configuration block diagram of the crawler type VT inspection device 21B. In the large block of the crawler type VT inspection device 21B, left and right motors 23a and 23b are connected to a driver 23d as main components, and are driven by a command signal from the main control routine 23e in the processing device 100. It can be controlled. The output of the command signal from the main control routine 23e may be output by automatic control from the program of the main control routine 23e. Here, although not shown in the figure, the joystick operated by the operator It is also possible to output an operation command signal such as for example via the main control routine 23e. Each of the motors 23a and 23b is provided with an encoder, and the signal can be taken in and referred to the main control routine 23e through an interface such as a counter board. In addition to the left and right cameras 10 and 20, the crawler traveling vehicle 21B is also equipped with an acceleration sensor 30 and a gyro sensor 40. Image information of the cameras 10 and 20 is processed via an interface such as a capture board. The image processing routine 23g in the apparatus 100 is loaded, and the information of the sensors 30 and 40 is loaded into the main control routine 23e via an interface such as an A / D board. In this example, the sensor processing is put into the main control routine 23e and the image processing routine 23g is divided, but the signals of the sensors 30 and 40 may be directly taken into the image processing routine.

画像処理ルーチン23gは、ステレオ計測やトラッキング処理などの処理を行わせ、生成されたCADデータは所定の記憶装置200に蓄積されるようにする。記憶装置は、生成時にはリアルタイム性のあるRAMメモリ上に生成させておき、生成作業が終了した時点でハードディスクなどに記録保管するようにすることで良い。そして、再度、同じ場所で運用する場合には、最初の段階でハードディスクからRAMメモリ上に以前に記録しておいたデータを読み出して再度追加で生成記録するようにしても良いし、生成データを比較分析するような場合には、あらたにデータを生成して、その結果と以前に収録したデータとを自動で比較して違う部分を出力、表示できるようにしても良い。また、主制御ルーチン23eへは、クローラVT装置21Bをどこからどこまでどのように移動させるかという計画内容をSTAR/ENDポイントと途中の移動計画ルートとして入力できるようになっており、主制御ルーチン23eは、センサ情報の処理結果や画像処理結果に基づいてその計画内容にそってクローラ走行車21Bが移動制御できるようにドライバ23dへ適切な制御指令を自動的に出力できるようにする。   The image processing routine 23g performs processing such as stereo measurement and tracking processing, and the generated CAD data is accumulated in a predetermined storage device 200. The storage device may be generated on a real-time RAM memory at the time of generation, and recorded and stored in a hard disk or the like when the generation operation is completed. Then, when operating again at the same location, the data previously recorded on the RAM memory from the hard disk may be read out in the first stage and regenerated and recorded again. In the case of comparative analysis, new data may be generated, and the result may be automatically compared with previously recorded data so that different portions can be output and displayed. Further, the main control routine 23e can input the plan contents of how to move the crawler VT device 21B from where to where as a STAR / END point and an intermediate movement plan route. Based on the processing result of the sensor information and the image processing result, an appropriate control command can be automatically output to the driver 23d so that the crawler traveling vehicle 21B can move and control in accordance with the contents of the plan.

主制御ルーチン23eからは、センサ情報で推定した現在の位置と姿勢情報を補助位置信号として出力して、その代わりに、主制御ルーチン23eは、画像処理ルーチン23gより画像処理して求めた現在の真の位置と姿勢情報を受け取る。ここで、主制御ルーチン23eと画像処理ルーチン23gは、汎用性と処理速度の観点から分けたが、一緒のプログラムにしてもかまうものではない。   From the main control routine 23e, the current position and orientation information estimated from the sensor information is output as an auxiliary position signal. Instead, the main control routine 23e performs current processing obtained by image processing from the image processing routine 23g. Receive true position and posture information. Here, the main control routine 23e and the image processing routine 23g are separated from the viewpoints of versatility and processing speed, but they may be combined.

処理装置100は、1台の計算機で実現することを想定しているが、処理速度を高速にするために、主制御ルーチン23eと画像処理ルーチン23gを別のCPUで実行させて供用メモリあるいは通信回線を利用して高速にデータの授受をできるようにしても良い。この構成でそれを実現するための主制御ルーチン23e及び画像処理ルーチン23gの基本的なフローチャートの例は、後述する。   The processing apparatus 100 is assumed to be realized by a single computer. However, in order to increase the processing speed, the main control routine 23e and the image processing routine 23g are executed by different CPUs so that they can be used in service memory or communication. Data may be exchanged at high speed using a line. An example of a basic flowchart of the main control routine 23e and the image processing routine 23g for realizing this configuration will be described later.

また、このシステムは、アズビルトのCADデータを生成するが、あらかじめプール等の環境データとしてプールや部屋の大きさ、プール内や部屋の中の障害物や、検査対象の溶接線を3次元のCADデータとして登録しておき、ROVやクローラの現在位置を表示するときに全体環境の中でどこにいるか見やすくするために、あらかじめ登録しておいたプールや障害物、溶接線を重ねてCG表示できるようにしておくのが良い。   Also, this system generates as-built CAD data, but the environment data such as the pool, the size of the pool and room, the obstacles in the pool and the room, and the weld line to be inspected are three-dimensional CAD. In order to make it easy to see where in the entire environment when displaying the current position of the ROV or crawler by registering it as data, it is possible to display CG by overlaying previously registered pools, obstacles and welding lines It is good to leave.

また、溶接線などの確認したい対象物のCG表示あるいは生画像表示のそばにCGで表現したスケールを一緒に表示して、画面を一目見ただけで、概略の対象物の大きさがすぐに分かるようにすると良い。対象物が平面にある傷であれば、傷の付いている平面に沿ってスケールやメジャーなどをCG表示する。平面が表示している視点によっては斜めに表示される場合でも、平面の特徴点のいくつかはすでに3次元のCADデータとして生成されていれば、実際にその平面にスケールやメジャーを沿わして撮影したときと同じような状況でCGのスケールやメジャーを面に沿って表示させることも可能である。また、対象物が曲面であっても、曲面の3次元CADデータに基づき曲面に沿って実際にスケールやメジャーを当てて撮影したような状態で表示させることも可能である。   Also, by displaying the CG scale alongside the CG display or raw image display of the target object you want to check, such as a weld line, you can immediately see the approximate size of the target object at a glance. It is good to make it. If the object is a scratch on a plane, a scale, a measure, etc. are displayed in CG along the scratched plane. Even if the plane is displayed at an angle depending on the point of view, if some of the plane's feature points have already been generated as 3D CAD data, the scale or measure is actually set along the plane. It is also possible to display the CG scale and measure along the screen in the same situation as when shooting. Further, even if the object is a curved surface, it is possible to display the image as if it was actually shot with a scale or measure along the curved surface based on the three-dimensional CAD data of the curved surface.

そのようにすることによって、実際にスケールやメジャーを撮影対象物のそばにおいて一緒に撮影して通常の画像データとして記録するVT検査手法と違和感なく、3次元のVT検査データを自動的に生成させることも容易に行うことができる。勿論、現場撮影時には、スケールやメジャーを挿入して撮影作業を行う必要ないが、生成したVT記録には、CG表示されたスケールやメジャーが実際にそこに挿入して撮影されたかのように表示して確認することが可能となる。   By doing so, three-dimensional VT inspection data is automatically generated without a sense of incongruity with a VT inspection method in which a scale or a measure is actually photographed near the object and recorded as normal image data. Can also be done easily. Of course, there is no need to insert a scale or measure when shooting in the field, but the generated VT recording will display the scale and measure displayed as if they were actually inserted into the CG display. Can be confirmed.

図119は、プールと溶接線をあらかじめCADデータとして登録しておいたCADデータ22B(C)と画像処理で生成したアズビルトの溶接線のCADデータ22B(R)を重ねて表示したときのイメージを示している。プールの床面は、クローラ走行式検査装置21Bで、プールの壁面は、磁気式あるいは吸着式で壁を移動できるクローラ式検査装置で行っても良いが、水中ROV21Aなどの検査装置を用いてCADデータの生成を行った例である。これらのシステムは、アズビルトのCADデータを生成するので、あらかじめ登録してあるCADデータはおおまかな位置が特定できる目印となる部品のみを作成しておくことで十分である。あらかじめ登録してあるCADデータは、プール全体と全部の溶接線の部分が表示されるが、生成CADデータは、生成された部分のみが表示される。このように一緒に重ねて表示することによって、生成CADデータがまだ一部分しかない状況でも、全体の中のどの当たりを生成したCADデータであるかが一目でわかるようになる。   FIG. 119 shows an image when the CAD data 22B (C) in which the pool and the weld line are registered in advance as CAD data and the CAD data 22B (R) of the as-built weld line generated by image processing are displayed in an overlapping manner. Show. The floor surface of the pool may be a crawler traveling inspection device 21B, and the wall surface of the pool may be a magnetic or adsorption type crawler inspection device that can move the wall. This is an example of generating data. Since these systems generate as-built CAD data, it is sufficient to create only parts that serve as landmarks that can be used to identify the approximate position of CAD data registered in advance. The CAD data registered in advance displays the entire pool and the entire weld line, but the generated CAD data displays only the generated part. By overlapping and displaying together in this way, even in a situation where the generated CAD data is still only a part, it is possible to know at a glance which hit the generated CAD data is.

また、生成されたCADデータは、トラッキングによる誤差が累積されていくので、その場所でも局部的には精度良く生成されていても全体の環境の中の場所は累積したトラッキングの誤差によってあらかじめ登録したCADデータとはずれてくる。そのずれは、生成開始したスタートポイントから離れれば離れるほど大きくなる傾向があるが、運用中、定期的に、あるいは生成後のオフライン作業時に、例えばオペレータが生成されたCADデータの特徴部位をあらかじめ登録されているCADデータの特徴部位を指示するようにすれば、その点を合わせるようにして生成CADデータの全体を滑らかに補正する機能をもたせると良い。この補正は、最初のスタートポイントは、実際の場所と合わせてからスタートさせるので一致している条件である。また、途中、この点とこの点は同じであると教示した点が複数ある場合には、それらの点は一致するように他の部分をなめらかに繋がるように補正するように処理するのが良い。また、その他の教示された対応点のデータは、CADデータに登録しておき、教示後に引き続きあらたにCADデータ生成したり更新したりする処理を行う場合には、その補正処理は、自動的に行なわれるようにするのが良い。また、一致する点をオペレータが数点指示するのが容易に補正プログラムは作成できるが、CADデータの中の特徴ある形状の部位をあらかじめ登録してあるCADデータの形状や色情報などと同じ部位を生成CADデータの中よりマッチングにより位置を自動的に求めることで、その都度、オペレータが対応する点を指定入力操作しないでも自動的にトラッキングによる誤差を補正するようにしても良い。   In addition, since the error caused by tracking is accumulated in the generated CAD data, the location in the whole environment is registered in advance by the accumulated tracking error even if the location or the location is generated with high accuracy. It is different from CAD data. The deviation tends to increase as the distance from the start point where the generation is started. However, during operation, periodically, or during offline work after generation, for example, an operator creates a feature part of CAD data generated in advance. If a feature part of the CAD data being specified is designated, it is preferable to provide a function of smoothly correcting the entire generated CAD data by matching the points. This correction is a condition that matches because the first start point is started after matching with the actual location. In the middle, if there are a plurality of points taught that this point is the same as this point, processing may be performed so that other points are smoothly connected so that these points coincide with each other. . In addition, the data of other taught corresponding points is registered in the CAD data, and when the processing for newly generating or updating the CAD data after the teaching is performed, the correction processing is automatically performed. It should be done. In addition, it is easy for the operator to designate several points that match, but a correction program can be easily created. By automatically obtaining the position from the generated CAD data by matching, the error due to tracking may be automatically corrected each time the operator does not specify and operate the corresponding point.

また、あらかじめ登録しておくCADデータは、図面に基づくデータでも良いが、実測寸法が分かっていれば、実測寸法に基づくCADデータを作成しておくのが良い。これは、あらかじめ登録しておくデータは、部屋の大きさは主要な障害物の位置のみであるので、測定する寸法個所は少ないので、容易に対応できる。   The CAD data registered in advance may be data based on a drawing, but if the actual measurement dimensions are known, it is preferable to create CAD data based on the actual measurement dimensions. The data registered in advance can be easily dealt with because the size of the room is only the position of the main obstacle, and the number of dimensions to be measured is small.

一方、生成されるCADデータは、詳細なもので局部的には精度良いアズビルトのCADデータである。従って、全体の離れた部分の寸法のみを実際に実測するようにして入力したCADデータに生成CADデータをあわせるように補正すれば、生成CADデータは、より高精度なアズビルトの詳細なCADデータにすることができるようになる。   On the other hand, the generated CAD data is detailed and locally accurate CAD data. Therefore, if the generated CAD data is corrected so that the generated CAD data is matched with the input CAD data by actually measuring only the dimension of the entire distant portion, the generated CAD data is converted into more accurate as-built detailed CAD data. Will be able to.

また、あらかじめ検査対象物のCADデータが用意されている場合には、検査平面の面の位置が概略特定できるので、ステレオ計測やトラッキング計測時に奥行き方向の精度が良くない部分と、あらかじめ用意されているCADデータの検査面の表面の傷などを検出しているという前提に基づいて奥行き方向の距離の検出を補正するようにすると、容易に奥行き方向の精度を向上させながら3D計測を行うようにすることができる。これは、曲面でも平面でも同様であるが、浅い傷の深さを検査する場合は別であるが、一般には傷や汚れの上下左右の位置を計測して記録する場合が多いので、奥行き方向は、あらかじめわかっている面の奥行き情報を利用して3DCADを生成すると、奥行き方向にも精度の良いCADデータを容易に生成することが可能となる。この奥行き方向の誤差は、対応点のマッチング誤差も大きく影響するので、既知の面上の点検を行う検査装置の場合には有効な処理手法となる。   In addition, when CAD data of the inspection object is prepared in advance, the position of the surface of the inspection plane can be roughly specified, so that a portion with poor accuracy in the depth direction during stereo measurement or tracking measurement is prepared in advance. If the detection of the distance in the depth direction is corrected based on the assumption that the surface of the inspection surface of the CAD data is detected, the 3D measurement is easily performed while improving the accuracy in the depth direction. can do. This is the same for curved surfaces and flat surfaces, but it is different when inspecting the depth of shallow scratches, but generally, the vertical and horizontal positions of scratches and dirt are often measured and recorded. If 3D CAD is generated using depth information of a known surface, it is possible to easily generate accurate CAD data in the depth direction. This error in the depth direction is greatly affected by the matching error of corresponding points, and is therefore an effective processing method in the case of an inspection apparatus that performs inspection on a known surface.

図120〜図124を参照して、これらのシステムが有していると便利な専用ファイルの一例を説明する。ここでの例は、プール内を水中ROVを浮遊させて検査する場合の例で説明する。   With reference to FIGS. 120 to 124, an example of a dedicated file that is convenient for these systems will be described. This example will be described with reference to an example in which an inspection is performed by floating an underwater ROV in a pool.

図120は、主制御ルーチン23eへ指示を入力する移動軌跡データファイルの一例を示している。ファイルは、キャラクタエディタで編集できるファイルに記述するようにしておき、主制御ルーチンは、最初に当該ファイルの内容を読み取るようにする。ファイルへの記述情報の一例であるが、START点についてはその座標データと姿勢データをワールド座標系Owで記述する。   FIG. 120 shows an example of a movement locus data file for inputting an instruction to the main control routine 23e. The file is described in a file that can be edited by the character editor, and the main control routine first reads the contents of the file. This is an example of description information in the file. For the START point, the coordinate data and the attitude data are described in the world coordinate system Ow.

図121は、ワールド座標系OwとROV本体21Aのロボット座標系Orの関係を示している。STARTポイントは、ワールド座標系Owで記述されSTARTポイントにROV本体21Aがいる場合のスタートの姿勢(向き)をSTARTポイントにおくROVのロボット座標系Orの姿勢で表現した場合の例である。同様に、図120のファイルの中には、ENDポイント、途中のポイントは第Nポイントとしてその位置をワールド座標系で記述して、全てのそのポイントにおけるROV21Aのロボット座標系Orの向きも指定するようにする。移動軌跡は、直線、円や円弧などで、これもワールド座標系Owの中の線分として記述している。ポイントをCG表示する場合の色、線種なども指定できるようにしている。姿勢表示有無のフラグは、CG表示するときに各ポイントにおけるROVの目標姿勢を表示させるか否かのフラグである。また、各ポイントの停止異時間は、そのポイントにROVが到着してから次のポイントに向かって移動開始するまでの、その場所での停止時間を意味し、主制御ルーチン23eは、この場合、ホバリング制御を行うような制御になる。   FIG. 121 shows the relationship between the world coordinate system Ow and the robot coordinate system Or of the ROV main body 21A. The START point is an example of a case where the start posture (orientation) when the ROV main body 21A is located at the START point is expressed by the posture of the ROV robot coordinate system Or placed at the START point. Similarly, in the file of FIG. 120, the position is described in the world coordinate system as the END point and the intermediate point is the Nth point, and the orientation of the robot coordinate system Or of the ROV 21A at all the points is also specified. Like that. The movement trajectory is a straight line, circle, arc, or the like, which is also described as a line segment in the world coordinate system Ow. It is also possible to specify the color, line type, etc. when displaying points in CG. The flag indicating whether or not the posture is displayed is a flag indicating whether or not to display the ROV target posture at each point when performing CG display. Also, the stop different time at each point means the stop time at that place from when the ROV arrives at that point until it starts moving toward the next point. In this case, the main control routine 23e The control is such that hovering control is performed.

また、直線や円弧の軌跡データには、始点と終点の近くでのその区間を移動する速度はいくらにするかという目標速度と、減速制御、加速制御の計画内容を記述できるようにしておき、この場合には、主制御ルーチン23eは、適切にROVをこの計画値どおりに移動させ、ポイント近くでは減速したり加速制御を行うように制御する。ENDポイントには、戻るか否かのフラグを設けて、戻るフラグがONの場合には、来た時と同じ軌跡ルートを同じように戻るような制御を行うようにする。   The trajectory data for straight lines and arcs should be able to describe the target speed of how much to move the section near the start point and end point, and the details of the deceleration control and acceleration control plans, In this case, the main control routine 23e appropriately moves the ROV according to the planned value, and performs control so as to decelerate or perform acceleration control near the point. The END point is provided with a flag indicating whether or not to return, and when the return flag is ON, control is performed so as to return the same locus route as when it came.

また、ポイントや軌跡データの内容をオペレータに分かるようにCG表示する場合、どういうポイントか、どういう軌跡か、注釈を入れたい場合もあるので、文字列とワールド座標系でその文字列を表示したいポイントを記述しておけば、CG表示するときに当該位置に自動的に注釈が表示されるようにする。STARTポイントやENDポイントの他、第1点検ポイント、第2点検ポイントなど表示させる。この注釈は、CG表示の仮想視点を変えた場合も常にモニタに文字が普通に表示されるようにする。また、文字の大きさも適切に見やすい大きさに固定でも良いし、状況に応じて自動的に設定されるようにしても良い。また、CG表示するときには、あらかじめ登録してあるCADデータも必要に応じて表示したり消したりできるようにする。ワールド座標系Owがどこにあるかも表示しておくのが、後で、座標データをモニタ表示して確認できるようにしたときなどに便利である。   Also, when displaying CG so that the contents of point and trajectory data can be understood by the operator, there is a case where it is desired to annotate what kind of point, what kind of trajectory, and the point where the character string and the world coordinate system are to be displayed. Is described, an annotation is automatically displayed at the position when CG is displayed. In addition to the START point and the END point, the first inspection point, the second inspection point, and the like are displayed. This annotation always causes the character to be normally displayed on the monitor even when the virtual viewpoint of the CG display is changed. Also, the size of the characters may be fixed to a size that is easy to see, or may be automatically set according to the situation. In addition, when displaying CG, CAD data registered in advance can be displayed and deleted as necessary. Displaying where the world coordinate system Ow is located is convenient when the coordinate data can be confirmed on a monitor later.

図122は、ROVなどのロボットの制御ロジックを登録しておくファイルの例を示している。このファイルも、同様に、キャラクタファイルでエディタで容易に修正でき、実行時には、主制御ルーチン23eは最初に読み取り、読み取ったときに、当該ファイルに記述された内容に相当する内容に制御プログラムの一部が置き換わるようにしておく。すなわち、このファイルから実際の制御プログラムに変換するプログラムを最初のファイル読み込み時に実行して制御プログラムの一部をその時点で作成して組み込むようにする。それによって、ロボットの制御ロジックを試行錯誤で変更して試してみたい場合とか、別のROVを製作してそれに適した制御プログラムを作成しなければならないような場合に、その都度、C言語などを用いて、プログラムの専門家が制御プログラムを書き換えなくとも容易に誰でも制御ロジックを必要なときに変更できるようになる。ここでの例では、記述するルールを簡単に決めておくことによって、最初に実行する変換プログラムも簡単なものですむようになる。ここでは、約束ごととして、入力データは、X軸のずれ量はδX、Y軸のずれ量はδY、Z軸のずれ量はδZ、各軸の回転のズレ量はδα,δβ,δγと記述する。ここでのずれ量とは、ROV21Aの現在位置Orと計画ルート上の現在の目標位置Oriとのずれ量である。現在の目標位置Oriは図25のファイルから読み込んだ移動軌跡データに基づいて求めるようにするが、時間軸は、実際の制御時間は遅れる場合や予定より早くなる場合があるので、注意を要する。   FIG. 122 shows an example of a file in which the control logic of the robot such as ROV is registered. Similarly, this file is also a character file that can be easily corrected by an editor. At the time of execution, the main control routine 23e reads first, and when read, the contents of the control program are changed to the contents corresponding to the contents described in the file. Keep the part replaced. That is, a program for converting this file into an actual control program is executed when the first file is read, and a part of the control program is created and incorporated at that time. As a result, if you want to try changing the robot control logic by trial and error, or if you need to create another ROV and create a control program suitable for it, use the C language. Thus, any program expert can easily change the control logic when necessary without rewriting the control program. In this example, by simply determining the rules to be written, the conversion program to be executed first can be simplified. Here, for each promise, the input data is described as δX for the X-axis deviation, δY for the Y-axis deviation, δZ for the Z-axis deviation, and δα, δβ, and δγ for the rotational deviation of each axis. To do. The deviation amount here is the deviation amount between the current position Or of the ROV 21A and the current target position Ori on the planned route. The current target position Ori is obtained on the basis of the movement trajectory data read from the file of FIG. 25. However, the time axis needs attention because the actual control time may be delayed or earlier than planned.

適切な処理の例としては、まず、ROVの現在の位置から移動軌跡ルートへの垂線の足を下ろして移動計画軌跡ルートへの最短ポイント(P)を求めて、そこの場所での本来の計画移動速度を求めて、所定の時間後には最短ポイント(P)からどれだけ進んでいるべきかを求めて、その進んでいるべきポイントを次ぎに向かうべき目標位置ポイントOriと考える。このように、現在ROVがいる位置に基づいて一番近い場所での目標軌跡に合わせるようにするので、滑らかな誘導制御が可能となる。目標位置Oriは、その場所に目標とするロボット座標系を相当するので、位置情報の他に、ROVの目標姿勢情報、更にはその位置でどちらの方向へどれだけの速度で移動していなければならないかというダイナミックは、速度の目標値を定義してそれとのズレ量を制御するようにしても良い。   As an example of appropriate processing, first, the perpendicular line from the current position of the ROV to the movement locus route is lowered to obtain the shortest point (P) to the movement plan locus route, and the original plan at that place is obtained. The moving speed is obtained, the amount of advance from the shortest point (P) after a predetermined time is obtained, and the point to be advanced is considered as the target position point Ori to go next. In this way, since it is adapted to the target locus at the closest location based on the position where the ROV is present, smooth guidance control is possible. Since the target position Ori corresponds to the target robot coordinate system at that location, in addition to the position information, the ROV target posture information, and further, at which speed and at what speed must be moved at that position. The dynamic of whether or not it may be possible may define a target value of speed and control the amount of deviation from it.

また、出力データは、ROVのスクリューやジェット噴射の制御量、あるいはクローラであれば左右のモータの回転制御量を最終的には必要とするが、ここでは、処理装置100を汎用的なものとするため、ここからの出力データは、ROVの座標系Orに対する制御情報としてX軸の制御量Vx(目標速度指令値)、Y軸方向の制御量Vy(目標速度指令値)、Z軸方向の制御量Vz(目標速度指令値)、と各軸回りの回転制御量Vα(目標回転角速度指令)、Vβ(目標回転角速度指令)、Vγ(目標回転角速度指令)としたが、速度指令値ではなく、所定時間をあらかじめ決めておき、その所定時間内での目標移動量あるいは目標回転角度量で出力するようにしても良い。   In addition, the output data finally requires the amount of control of the ROV screw and jet injection, or the amount of rotation control of the left and right motors in the case of a crawler, but here the processing device 100 is assumed to be general purpose. Therefore, the output data from here is, as control information for the ROV coordinate system Or, the X-axis control amount Vx (target speed command value), the Y-axis direction control amount Vy (target speed command value), and the Z-axis direction control data. Control amount Vz (target speed command value), rotation control amount Vα (target rotation angular speed command), Vβ (target rotational angular speed command), and Vγ (target rotational angular speed command) around each axis are not speed command values. Alternatively, a predetermined time may be determined in advance, and the target movement amount or target rotation angle amount within the predetermined time may be output.

その他、記述できる記号としては、数字の0〜9と()と四則演算子、sin、cos、tan、平方根のSQRなどを設けておく。また、変数として、D1〜D20の20個を定義して、=演算子で途中の計算結果を一時的に格納しておくことなどもできるようにしておいて良い。ここで、一例であるが、X軸方向の速度制御指令Vxは、X軸方向のずれ量に係数の2.5という数値を掛けた量にするという記述であれば、Vx=−δX*(2.5)と記述しておけば、実際に制御量としては、ずれ量δXに係数2.5で比例しておおきな制御量−Vxが出力されるようにする。一般に、空間を移動しているROVの制御は、X,Y,Z方向の位置とROV座標系のX軸回り、Y軸回り、Z軸回りの角度を制御することで、ROVの位置と姿勢を制御することができるので、処理装置100は、これらの6つの制御指令を出力するように製作しておく。一般的なROVの姿勢制御指令として出力される制御量は、実際のスクリューやモータの回転制御に変換する必要があるが、その部分は、ROVの有する駆動軸の数や3次元空間上を移動する自由があるとか、床面を常に移動するという条件で駆動軸数は6軸より少ない場合もあるので、ROV特有の制御指令の変換が必要になる。これは、ROV特有の変換処理になることから、ROVに搭載するドライバ23dの中に制御指令の変換プログラムを持たせるようにする。あるいは、この変換プログラムは、処理装置100とドライバ23dの間に専用ユニットとしてあらたに制御指令の変換ユニットを設けても良いし、処理装置100の中の主制御ルーチンの中に別のプログラムの形で込みこむようにしても良い。プログラムの形で組み込む場合は、別の種類のROVを接続して使用する場合には、別の制御量の変換プログラムはROV特有の各種プログラムをあらかじめ用意しておいて良いが、その都度、別のプログラムを使用するようにする。ROVの種類を選択すると自動的に適切なプログラムが選択されるようにしておくのが良い。   In addition, as symbols that can be described, numbers 0 to 9 and (), four arithmetic operators, sin, cos, tan, square root SQR, and the like are provided. Further, 20 variables D1 to D20 may be defined as variables, and intermediate calculation results may be temporarily stored with the = operator. Here, as an example, if the speed control command Vx in the X-axis direction is described to be an amount obtained by multiplying the deviation amount in the X-axis direction by a value of 2.5 as a coefficient, Vx = −δX * ( 2.5), a control amount −Vx that is proportional to the deviation amount δX by a coefficient 2.5 is actually output as the control amount. In general, the ROV moving in space is controlled by controlling the position in the X, Y, and Z directions and the angles around the X, Y, and Z axes in the ROV coordinate system. Therefore, the processing apparatus 100 is manufactured so as to output these six control commands. The amount of control output as a general ROV attitude control command needs to be converted into actual screw or motor rotation control, but that part moves in the number of drive shafts and the three-dimensional space of the ROV. Since there are cases where the number of drive axes is less than 6 on the condition that there is freedom to move or the floor surface is always moved, conversion of control commands peculiar to ROV is required. Since this is a conversion process unique to ROV, a control command conversion program is provided in the driver 23d mounted on the ROV. Alternatively, this conversion program may be provided with a control command conversion unit newly as a dedicated unit between the processing apparatus 100 and the driver 23d, or in the form of another program in the main control routine in the processing apparatus 100. You may make it crowded. In the case of incorporating in the form of a program, if another type of ROV is connected and used, a conversion program for another control amount may be prepared in advance with various programs specific to the ROV. To use the program. It is preferable that an appropriate program is automatically selected when the type of ROV is selected.

図123は、ワールド座標系OwとROV座標系Orの概念とプール26aなどの基本環境のあらかじめ登録しておくCADデータの概念を示している。環境データとしては、プール内の主要な障害物の主要な部分のみを登録しておくことで良い。   FIG. 123 shows the concept of the world coordinate system Ow and the ROV coordinate system Or and the concept of CAD data registered in advance in the basic environment such as the pool 26a. As environmental data, it is sufficient to register only the main parts of the main obstacles in the pool.

図124は、基本環境データやROV自体の形状データの定義ファイルの一例を示している。ROVの形状データは、実際に使用するROVに合わせて最初に読み込むようにする。また、環境CADデータも実際にこれから運転するプラントの点検場所の環境データを最初に読み込むようにする。環境CADデータは、ワールド座標系Ow上での座標で直線や球、直方体、円や円弧などの基本図形を使って定義できるようにしておく。ROVの形状データは、ロボット座標系Or上での座標で同様に基本図形の定義ができるようにしておく。文字列は、環境データの注釈として表示する場所と一緒に記述できるようにしている例である。   FIG. 124 shows an example of a definition file of basic environment data and shape data of the ROV itself. The ROV shape data is first read in accordance with the ROV actually used. Also, environmental CAD data is first read from the environmental data of the inspection place of the plant that will actually operate. The environment CAD data can be defined using coordinates on the world coordinate system Ow using basic figures such as a straight line, a sphere, a rectangular parallelepiped, a circle, and an arc. The ROV shape data is defined so that the basic figure can be similarly defined by the coordinates on the robot coordinate system Or. The character string is an example in which the character string can be described together with a place to be displayed as an annotation of environmental data.

次に、図125〜図128を用いて主制御ルーチン23eと画像処理ルーチン23gの基本的フローチャートの一例を説明する。ここでは、クローラ移動式VT装置の場合の例で説明する。   Next, an example of a basic flowchart of the main control routine 23e and the image processing routine 23g will be described with reference to FIGS. Here, an example in the case of a crawler movement type VT apparatus will be described.

図125と図126は、主制御ルーチン23eの基本フローチャートである。スタートしたならば、処理30aで、SYSTEM¥移動軌跡データ¥(タスク)¥(名前)ファイルより、ROVのSTARTポイント、ENDポイント、途中の軌跡データを読み込む。次に、処理30bで、SYSTEM¥基本環境データ¥(タスク)¥(名前)ファイルより、基本環境データのCADデータ、SYSTEM¥ROVデータ¥(タスク)¥(名前)ファイルより、ROVの形状データを読み込む。そして、処理30cで、SYSTEM¥制御プログラム¥(タスク)¥(名前)ファイルより、ROVの制御プログラムを読み込む。ここが最初の処理になるが、最初は、初期のROVの実際の位置と姿勢はSTARTポイントの位置と姿勢とに合わせておくようにする。これをやらないで済むように、生成したCADデータと環境CADデータの特徴部分のマッチングを行い、精度良く一致するまでは自分がどこにいるかわからない状態であるが、それまでは周囲の環境データを生成しながら衝突しないような制御のみを行い、まずは、現在の自分の位置を探す処理を行うようにしても良い。   125 and 126 are basic flowcharts of the main control routine 23e. If it is started, the ROV START point, END point, and intermediate locus data are read from the SYSTEM \ movement locus data \ (task) \ (name) file in the process 30a. Next, in process 30b, CAD data of the basic environment data from the SYSTEM \ basic environment data \ (task) \ (name) file, and ROV shape data from the SYSTEM \ ROV data \ (task) \ (name) file. Read. In step 30c, the ROV control program is read from the SYSTEM \ control program \ (task) \ (name) file. This is the first process. At first, the actual position and posture of the initial ROV are set to match the position and posture of the START point. In order not to do this, the generated CAD data and environment CAD data are matched with the characteristic part, and until it is accurately matched, it is not known where it is, but until then the surrounding environment data is generated However, only control that does not cause a collision may be performed, and first, a process of searching for the current position may be performed.

次の処理30dでは、処理装置100の画面モニタに基本環境データのCADデータとROVの現在の位置と姿勢を任意の視点からCG表示する。次に、処理30eで、クローラ走行車の左右のエンコーダの信号をカウンタボードより読み込む処理を行う。次に、処理30fで、加速度センサ、ジャイロセンサのセンサ信号をA/Dボードより読み込む処理を行う。ここで注意することは、各軸方向に複数、しかも複数種類のセンサを搭載している場合には、ROV21Bのある時刻の状態を適切に認識するためには、同時あるいは同時として良いぐらいわずかの時間のずれ以内で読み取る方が良い。次に、処理30fで、左右のエンコーダの信号や、加速度センサ30、ジャイロセンサ40の信号より、ROV21Bの推定現在位置と姿勢を更新して画像処理ルーチン23gへ引き渡す処理を行う。   In the next process 30d, the CAD data of the basic environment data and the current position and orientation of the ROV are displayed on the screen monitor of the processing apparatus 100 from an arbitrary viewpoint. Next, in process 30e, a process of reading the signals of the left and right encoders of the crawler traveling vehicle from the counter board is performed. Next, in processing 30f, processing for reading the sensor signals of the acceleration sensor and the gyro sensor from the A / D board is performed. It should be noted here that when a plurality of types and a plurality of types of sensors are mounted in the respective axial directions, in order to properly recognize the state of a certain time of the ROV 21B, there is a slight amount that can be simultaneously or simultaneously. It is better to read within a time lag. Next, in the process 30f, the estimated current position and orientation of the ROV 21B are updated from the signals of the left and right encoders, the signals of the acceleration sensor 30 and the gyro sensor 40, and transferred to the image processing routine 23g.

次に、処理31aで、画像処理ルーチン23gからROVの真の現在位置と姿勢を受け取り、ROVの現在位置と姿勢データを更新する。次に、処理31bで、ROVの現在位置と姿勢データと移動軌跡データに基づく計画位置と姿勢との偏差を求める。次に、処理31cで、ROVの現在位置姿勢と計画位置姿勢との偏差と制御プログラムに基づきROVの制御データを求めてD/Aボードからクローラの左右のモータのドライバへ制御指令信号を出力する。その後、プログラムは処理30dへ戻り、前述の処理を繰り返すように処理する。   Next, in process 31a, the true current position and orientation of the ROV are received from the image processing routine 23g, and the current position and orientation data of the ROV are updated. Next, in a process 31b, a deviation between the planned position and orientation based on the current position and orientation data of the ROV and the movement trajectory data is obtained. Next, in process 31c, ROV control data is obtained based on the deviation between the current position and orientation of the ROV and the planned position and orientation and the control program, and control command signals are output from the D / A board to the left and right motor drivers of the crawler. . Thereafter, the program returns to the process 30d and processes so as to repeat the above-described process.

図127と図128は、画像処理ルーチン23gの基本的フローチャートを示している。スタートしたら、処理30aで、左右のカメラ10,20の画像情報をキャプチャボードより読み込む処理を行う。ここで、左右のカメラの情報は、同時に読み込む必要がある。時間にずれが生じると、ROVは動いているので、ステレオ計測の誤差に影響するので注意を要する。   127 and 128 show a basic flowchart of the image processing routine 23g. When the process starts, the process 30a reads the image information of the left and right cameras 10 and 20 from the capture board. Here, it is necessary to read the information of the left and right cameras at the same time. If the time is shifted, the ROV is moving, so that it affects the error of stereo measurement.

次に、処理32bで、左右のカメラ10,20の画像情報をあらかじめ校正時に求めておいたパラメータでひずみ補正する。次に、処理32cで、左右のカメラ10,20の画像情報の中の特徴点(線分)を抽出して、ステレオ計測により3次元の点座標(線分)に変換する。このとき、左右のカメラ10,20の位置と姿勢の関係は、あらかじめ精度良く求めておきステレオ計測の計算式に反映しておくのが良い。次に、処理32dで、左右のカメラ10,20の画像情報より特徴点(線分)の左右の色情報をCADデータとして記録する。また、3次元の点座標(線分)データに対応付けして画像データを記録する。   Next, in process 32b, the image information of the left and right cameras 10 and 20 is corrected for distortion with the parameters obtained in advance during calibration. Next, in process 32c, feature points (line segments) in the image information of the left and right cameras 10 and 20 are extracted and converted into three-dimensional point coordinates (line segments) by stereo measurement. At this time, the relationship between the positions and postures of the left and right cameras 10 and 20 is preferably obtained in advance with accuracy and reflected in the calculation formula for stereo measurement. Next, in process 32d, the left and right color information of the feature point (line segment) is recorded as CAD data from the image information of the left and right cameras 10 and 20. Further, image data is recorded in association with three-dimensional point coordinate (line segment) data.

次に処理32eで、前回ステレオ計測した3次元CADデータがある場合には、少なくとも3点のトラッキングする対応点を決めて、前回計測した座標系に今回計測した3次元CADデータを変換する処理を実施する。   Next, in the process 32e, when there is 3D CAD data previously measured by stereo, at least three corresponding points to be tracked are determined, and the process of converting the 3D CAD data measured this time into the previously measured coordinate system is performed. carry out.

次に、処理32fで、既生成CADデータの中に同じ点(線分)データがあるか否か確認し、ある場合には、CADデータの精度が向上しているか否かを判別する。精度としては、画像のひずみによる誤差、ステレオ計測の2台のカメラ10,20の位置と姿勢関係の座標変換計算式の精度による誤差、計測点とカメラの距離による誤差(近いほどステレオ計測精度は良くなり遠方ほど精度は悪くなる。)、それからトラッキングによる座標変換により生じる誤差〔(図67の(e)のように計測点の中より最も安定度(対応点の一致度)が良く、かつ、計測精度の良い3点を一致するようにして座標変換計算式を求める(前の視点で計測された3点と後の視点で計測された3点を合わせる場合でも、3点を合わせるようにしても1点をあわせた場合に他の2点は誤差があるのでなかなか一致しないので、3点それぞれをそれなりに一致するようにする2つの視点の座標系の位置関係を求めるようになる)ので、その座標変換計算式により、後の視点で計測された新たな点群を前の座標系に変換していく場合に生じる誤差)、撮像系がピンぼけなどが生じる撮影条件がある場合には、ピンボケなどによる計測誤差(これはピントが合っている条件で計測された点の測定精度は高く、ピントがボケている条件で撮影した場合、精度は悪くなる)などを総合的に考慮して更新するか、否かを判断するようにする。また、ステレオ計測時の対応点の一致度(図44の点P4の誤差半径r)の誤差もあるので、それも考慮する。この対応点の一致度の誤差は、輪郭線の特徴点の場合は大きな誤差になり、鋭角な角の輪郭の場合は小さくなり、模様などの実際線を構成する特徴点の場合は精度が最も良くなるが、単純に一定の閾値でCADデータにする対象点から除くと生成される環境の多くは輪郭線であり、また、円筒や曲面などの輪郭線の誤差は大きくなるが、それらの輪郭線も重要な環境情報である。従って、他の誤差とこの誤差は区別して、この誤差の大きさは輪郭線か実際線かの属性を表す指標として管理するようにするようにしても良い。   Next, in process 32f, it is confirmed whether there is the same point (line segment) data in the already generated CAD data. If there is, it is determined whether the accuracy of the CAD data is improved. The accuracy includes error due to image distortion, error due to the accuracy of the coordinate conversion calculation formula of the position and orientation relationship between the two cameras 10 and 20 for stereo measurement, and error due to the distance between the measurement point and the camera (the closer the stereo measurement accuracy is, And the farther away the accuracy becomes worse.) Then, an error caused by coordinate conversion by tracking ((the matching point of the corresponding point) is the best among the measurement points as shown in (e) of FIG. 67, and Find coordinate conversion formulas so that the three points with good measurement accuracy match (even if the three points measured at the previous viewpoint and the three points measured at the subsequent viewpoint are matched, the three points should be matched) If one point is combined, the other two points will not match easily because there is an error, so the positional relationship of the coordinate systems of the two viewpoints that match each of the three points as they are is obtained.) If there is a shooting condition that causes the camera system to be out of focus, etc., an error that occurs when a new point cloud measured at a later viewpoint is converted into the previous coordinate system) , Taking into account overall measurement error due to out-of-focus (this is because the measurement accuracy of the point measured under the in-focus condition is high, and the accuracy is deteriorated when shooting under the out-of-focus condition) Judge whether to update or not. Further, since there is an error in the degree of coincidence of corresponding points during stereo measurement (error radius r of point P4 in FIG. 44), this is also taken into consideration. This matching point error is large for contour feature points, small for sharp corner contours, and most accurate for feature points that make up actual lines such as patterns. Although it becomes better, most of the environment generated when it is simply excluded from the target points to be CAD data with a certain threshold value is a contour line, and the error of the contour line such as a cylinder or a curved surface becomes large. Lines are also important environmental information. Therefore, this error may be distinguished from other errors, and the magnitude of this error may be managed as an index representing the attribute of the contour line or the actual line.

次に処理32gで、精度が向上している点データについては、生成CADデータの更新処理を行う。合わせて線分CADデータの更新処理を実施する。次に、処理32hで、精度が向上している点データに関係する面データがある場合には、面データの更新処理を行う処理を実施する。次に、処理33aで、点(線分)データに対応する画像データがより良くなる(所属する面により正対した方向、より近い、より画像の中心にあるなどの指標で良くなる)場合、画像データの更新処理を実行する。   Next, in the process 32g, for the point data whose accuracy has been improved, the generated CAD data is updated. In addition, line segment CAD data is updated. Next, in the process 32h, when there is surface data related to the point data whose accuracy has been improved, a process of updating the surface data is performed. Next, in the processing 33a, when the image data corresponding to the point (line segment) data becomes better (an index such as a direction facing the surface to which the user belongs and closer, closer to the center of the image, etc.) The image data update process is executed.

次に、処理33b〜33fでは、ROVの移動量が過去計測した位置から所定の移動量に達した場合で、少なくとも3点以上の対応点がある場合に実行して、ステレオ計測よりもより精度良く3D計測を行うようにするものである。この場合には、現在の視点位置から3D計測に適したある一定の範囲エリア内で計測した過去の2次元の特徴点データは、この処理を行う場合は、消去しないで記録しておくことが必要である。記録情報の選択手段としては、一旦大きく移動して離れた場合でも再度同じ場所に戻ることも想定されるので、空間の所定のブロックに区切ってそれぞれのブロックを撮影する代表的な視点の方向(例えば、上下左右にすれば6方向、更にこまかく45°方向きざみで定義するようにしても良い。)に一番近い代表シーンのみを記録しておくようにすればデータ量の増加を抑制できる。勿論、データの記録容量から自動的に過去に撮影したシーンのデータは消去するようにしても良い。   Next, in the processing 33b to 33f, when the movement amount of the ROV has reached a predetermined movement amount from the position measured in the past, the processing is executed when there are at least three corresponding points, and more accurate than the stereo measurement. It is intended to perform 3D measurement well. In this case, past two-dimensional feature point data measured in a certain range area suitable for 3D measurement from the current viewpoint position may be recorded without being erased when this processing is performed. is necessary. As a means for selecting recorded information, it is assumed that even if the user moves far away and returns to the same place again, the direction of the representative viewpoint for photographing each block divided into predetermined blocks in the space ( For example, if the vertical and horizontal directions are defined, the direction may be defined in 6 directions and more finely in 45 ° increments.) By recording only the representative scene closest to the above, the increase in the data amount can be suppressed. Of course, scene data captured in the past may be automatically deleted from the data recording capacity.

具体的な処理の流れは、図128のように、処理33bで、ROVの移動量が過去計測した位置から所定の移動量に達した場合で、少なくとも3点以上の対応点がある場合には、その対応点に基づき座標変換計算式を求めて、その座標関係にある2つの画像情報により再度ステレオ計測する(途中の微小移動トラッキングをパスした大きな動きのトラッキング処理に相当する。)。処理33cでは、求めた3次元CADデータは初期計測した座標系に今回計測した3次元CADデータを変換して、次の処理33dでは、既生成CADデータの中に同じ点(線分)データがあるか否か確認して、ある場合にはCADデータの精度が向上しているか否かを判別する。ここで判別する場合は、前述のように、考えられる誤差を総合的に判断して更新するか否かを判断するようにする。ここでの計測点とカメラの距離による誤差は、ステレオ計測の場合は、近いほどステレオ計測精度が良くなり、遠方ほど精度が悪くなると先に述べたが、トラッキングにより視点が大きく変わった場合にあらためて計測する場合は、同じ距離でも視点の間隔が広くなればその分精度は良くなる。次に、処理33eでは、精度が向上している点データについては、生成CADデータの更新処理を行う。合わせて線分CADデータの更新処理を行う。次に、処理33fでは、精度が向上している点データに関係する面データがある場合には、面データの更新処理を行う。そして、処理33gで、トラッキングにより求めた左右のカメラの現在の位置姿勢情報をROVの真の現在の位置姿勢情報として主制御ルーチンへ引き渡す処理を行って、図127の処理32aの処理から繰り返す処理を実行する。この処理33gは、処理ブロック33A(処理33b〜処理33f)を実行しない場合でも実行するようにする。   As shown in FIG. 128, the specific processing flow is when the ROV movement amount reaches a predetermined movement amount from the position measured in the past in step 33b, and there are at least three corresponding points. Then, a coordinate transformation calculation formula is obtained based on the corresponding points, and stereo measurement is again performed using two pieces of image information in the coordinate relationship (corresponding to tracking processing of a large motion that has passed minute movement tracking on the way). In the process 33c, the obtained three-dimensional CAD data is converted into the initially measured coordinate system and the currently measured three-dimensional CAD data is converted. In the next process 33d, the same point (line segment) data is included in the already generated CAD data. It is checked whether or not there is, and if so, it is determined whether or not the accuracy of the CAD data is improved. When determining here, as described above, it is determined whether or not to update by comprehensively determining possible errors. The error due to the distance between the measurement point and the camera here is that in stereo measurement, the closer the stereo measurement accuracy is, the farther the accuracy is worse. When measuring, if the distance between the viewpoints becomes wide even at the same distance, the accuracy is improved accordingly. Next, in the process 33e, the generated CAD data is updated for the point data whose accuracy is improved. At the same time, line segment CAD data is updated. Next, in the process 33f, when there is surface data related to the point data with improved accuracy, the surface data is updated. Then, in process 33g, the process of handing over the current position and orientation information of the left and right cameras obtained by tracking to the main control routine as the true current position and orientation information of the ROV is performed, and the process is repeated from the process 32a of FIG. Execute. This process 33g is executed even when the process block 33A (process 33b to process 33f) is not executed.

以上のようにすれば、移動しながら自分の位置を認識して、環境の3次元CADデータを自動的に生成しながら、検査結果データを3次元CADデータの部位に対応させながら自動的に記録(VT検査の場合には生成した3次元CADデータそのものが検査記録データとなる)し、また、自動的に計画ルートにそって自動で移動制御させることもできて、過去の検査結果データとの比較も同じ部位で検査結果データの対応付けがされているので容易に比較でき、確認したい個所の検査結果のトレンドも確認することが容易になる移動式検査装置を得ることができる。各種プラント設備やさまざまな設備、機材、財産をある時点で3次元のCADデータに記録保存しておき、時間が経過してから再度同じ場所の3次元CADデータを生成して比較してみれば、過去になかった傷や汚れを容易に発見するようなことも可能となる。勿論、比較して違う部分をマッチング処理により自動的に抽出するようにして良い。   As described above, while moving, it recognizes its own position, automatically generates the 3D CAD data of the environment, and automatically records the test result data corresponding to the part of the 3D CAD data. (In the case of VT inspection, the generated 3D CAD data itself becomes inspection record data), and it can also be automatically moved and controlled along the planned route. Since the comparison is also made by associating the inspection result data with the same part, it is possible to obtain a mobile inspection apparatus that can be easily compared and can easily check the trend of the inspection result at the location to be confirmed. If various plant facilities and various facilities, equipment, and assets are recorded and stored in 3D CAD data at a certain point, 3D CAD data of the same place is generated and compared again after time passes. It is also possible to easily find scratches and dirt that did not exist in the past. Of course, different parts may be automatically extracted by matching processing.

また、処理速度の高速化により移動する物体も瞬時に計測してCADデータが生成できれば、CADデータに時刻データをもたせることで、環境の中で動く物体もその詳細な動きを3次元のCADデータとして生成記録できるようになるので、世の中の現象や、職人の技、貴重な芸術芸を連続に動く3次元のCADデータとして記録保管してライブラリ化して後世に残していくことも可能となる。   In addition, if CAD data can be generated by instantaneously measuring moving objects by increasing the processing speed, by adding time data to the CAD data, objects that move in the environment can also be moved to the 3D CAD data. It is also possible to record and store world phenomena, craftsmanship, and precious arts as 3D CAD data that moves continuously and create a library for later generation.

図129〜図136は、本発明の第21〜第24の手段の基本的構成を例示している。   129 to 136 illustrate the basic configuration of the 21st to 24th means of the present invention.

図129は、監視サービス提供システムの基本的なシステム構成を示している。町や街路路、公園などの公共施設、あるいは私有地、屋内でも良いが、高分解能TVカメラなどのセンサと通信機能を有する端末34b(1),43b(2)などを密に設置して、ユーザーが携帯電話34cなどを用いて申し込めば、各端末34b(1),43b(2)などからの情報を電話会社34eなどのネット回線34fを経由して総合監視センター34gへ送られてきた端末のセンサ情報より、申込者を監視サービスするシステムである。この監視サービスのシステムに前述の視覚情報処理システムを適用することによって、総合監視センターでユーザーをモニタで確認して随時監視員が付いてユーザを追跡するようなことをしないでも、最初にユーザーのCADデータを特定し、後は画像処理のトラッキング処理でユーザーの位置を自動的に追跡させることも容易となる。端末の撮影エリアがラップするように隣り合う端末を設置するようにすれば、一つの端末の視野からユーザーが外れるときには隣の端末の視野に入る位置関係になるので、ユーザーを見失わないようにトラッキング処理を複数の端末に沿って連続的に行わせることが容易にできるようになる。勿論、携帯電話のGPS機能でユーザーの位置が分かり、更に画像認識で特定できれば、最初のユーザー特定も自動で行うようにしても良い。完全自動ではなくとも、GPSで分かった概略位置を表示してその中からユーザーをオペレータが特性できるようにしても良い。また、この場合のトラッキング処理とは、端末が撮影した画像情報を処理して、前述した図68の方法で特徴点、線分を抽出して、図53で説明した2次元の画像マッチング処理で、ユーザーの特徴点、線分をマッチング処理により追跡するようにしても良いし、複数の端末を常にユーザーを撮影できる位置関係に設置して、少なくとも2台の端末の画像を用いてユーザーの特徴点、線分を3次元のCADデータに変換して、3次元のCADデータのマッチング処理により追跡するようにしても良いし、視覚情報処理システムで説明した探索機能を用いて、2次元画像上での探索処理で追跡するようにしても良いし、3次元の探索処理でユーザーの3次元CADデータを常に探索しながら追跡するようにしても良い。   FIG. 129 shows a basic system configuration of the monitoring service providing system. It may be in public facilities such as towns, streets, parks, private land, indoors, etc., but it is installed in close proximity to terminals 34b (1), 43b (2) etc. that have sensors and communication functions such as high-resolution TV cameras. If an application is made using a mobile phone 34c or the like, information from each terminal 34b (1), 43b (2) etc. is sent to the general monitoring center 34g via the network line 34f of the telephone company 34e or the like. This system monitors applicants based on sensor information. By applying the above-mentioned visual information processing system to this monitoring service system, the user can check the user at the general monitoring center on the monitor and follow the user with the monitor at any time. It is also easy to identify CAD data and automatically track the user's position later by tracking processing of image processing. If you install adjacent terminals so that the shooting area of the terminal wraps, the user will be placed in the field of view of the next terminal when the user deviates from the field of view of one terminal. Processing can be easily performed continuously along a plurality of terminals. Of course, if the user's position is known by the GPS function of the mobile phone and can be identified by image recognition, the first user may be identified automatically. Even if it is not fully automatic, the approximate position obtained by GPS may be displayed so that the operator can characterize the user. The tracking process in this case is the two-dimensional image matching process described with reference to FIG. 53 by processing the image information captured by the terminal and extracting the feature points and line segments by the method shown in FIG. The user's feature points and line segments may be tracked by matching processing, or a plurality of terminals are always placed in a positional relationship where the user can be photographed, and the user's characteristics are used using images of at least two terminals. Points and line segments may be converted into three-dimensional CAD data and tracked by matching processing of the three-dimensional CAD data, or on the two-dimensional image using the search function described in the visual information processing system. Tracking may be performed by the search process in FIG. 5, or may be tracked while always searching for the user's three-dimensional CAD data by the three-dimensional search process.

この場合、ユーザーは人間であることから、首、両腕、両足は、所定の範囲動くので、図112で説明したCADの結合条件なども使用して探索するようにすると良い。最初にユーザーを特定したときにユーザーの服装、身なりを最初に計測した3次元CADデータ(形状と模様の色情報)で参照ファイルに登録しておくようにすることで、万一、連続処理のトラッキングで見失った場合にも、3次元のCADデータ探索で自動的に探索して追跡を自動で行うことも可能となる。また、その時にユーザーが見につけている物品にあらたなCADデータの結合条件を簡単に定義できるようにしても良い。このようなシステムにおいて、ユーザーからの申し込みがない場合にも各端末に記録装置を設けておき、後日、ユーザーからの申し込みがあった場合には、過去に時刻データと対応付けて記録しておいた監視データの必要個所を各端末から任意に取り出せるようにした監視サービスの拡張システムである。この場合の端末の例は、別途説明する。時刻は、端末に電波時計を組み込んで正確な時間を参照できるようにして所定の時間間隔で監視画像を記録できるようにしておいても良い。このように、各端末ごとに記録しておけば、総合監視センターに膨大なデータ量を記録する装置を設置することなく、全ての場所の過去の記録データを蓄積しておくことが容易にできる。記録しておける時間は、端末の性能によるが、24時間とか1週間とか1ヶ月以上なども想定する。万一、不審者34dにより事件が発生した場合、ユーザーが誰も監視サービスを申し込んでいない場合でも、後日、事件が発覚して、警察などで捜査を行う場合にも、事件発生場所の事件発生時刻前後の監視記録データを総合監視センター34gから任意に取り出せるようにすれば、捜査に必要な情報を確実に容易に得られるようになる。   In this case, since the user is a human being, the neck, both arms, and both feet move within a predetermined range. Therefore, it is preferable to search using the CAD coupling conditions described in FIG. By registering in the reference file with the 3D CAD data (shape and pattern color information) that first measured the user's clothes and appearance when the user was first identified, Even when it is lost in tracking, it is possible to automatically perform tracking by automatically searching with a three-dimensional CAD data search. Further, a new CAD data combining condition may be easily defined for an article that the user is looking at. In such a system, even if there is no application from the user, a recording device is provided in each terminal, and if there is an application from the user at a later date, it is recorded in association with time data in the past. This is an extended system for monitoring services that allows the necessary locations of monitoring data to be retrieved arbitrarily from each terminal. An example of the terminal in this case will be described separately. As for the time, a radio clock may be incorporated in the terminal so that an accurate time can be referred to so that a monitoring image can be recorded at a predetermined time interval. In this way, if recording is performed for each terminal, it is possible to easily accumulate past recorded data in all locations without installing a device that records a huge amount of data in the general monitoring center. . The time that can be recorded depends on the performance of the terminal, but is assumed to be 24 hours, 1 week, 1 month or more. In the unlikely event that an incident occurs due to a suspicious person 34d, even if no user has applied for the monitoring service, the incident will occur even if the incident is discovered at a later date and the police investigates. If the monitoring record data before and after the time can be arbitrarily extracted from the general monitoring center 34g, the information necessary for the investigation can be obtained easily and reliably.

また、申込者が監視サービスを申し込んでセンター34gで申し込み者を確認して監視サービスを開始した場合には、監視センター34gから申込者の携帯電話34cへ信号を送り、監視サービスが始まった場合には、監視サービス中であることがわかるような目印、例えば、ランプ34iを点滅させるようにする。このようにすることによって、不審者34dにも監視サービス中であることが知らしめることができるので、事件を未然に防止することができるようになる。ランプ34iは、申し込み者の目立つ場所にさりげなく付けられるように、ブローチやイヤリングや簪などに付けられるようにすると良い。また、本当に監視サービスを受けていることを不審者34dに認識させるために、ランプの発光タイミング、発光強度、発光色などが、端末34b(1),34b(2)側に設けたランプ34zと同期して光るようにしても良い。発光制御は、センター34gあるいは監視システムがコントロールするので、監視サービスを受けていない人が容易に監視ランプの発光状態を真似するようなことはできなくなるので、不審者34dが申込者のランプ34cが端末34zと同じように発光していることを確認すれば、本当に監視サービスを受けていることを認識して事件発生をより抑制することが可能となる。   When the applicant applies for the monitoring service and confirms the applicant at the center 34g and starts the monitoring service, a signal is sent from the monitoring center 34g to the mobile phone 34c of the applicant and the monitoring service starts. In such a case, a mark that indicates that the monitoring service is in progress, for example, the lamp 34i is blinked. By doing so, the suspicious person 34d can be informed that the monitoring service is being performed, and the incident can be prevented in advance. The lamp 34i may be attached to a brooch, earring, bag, etc. so that it can be casually attached to a place where the applicant is conspicuous. In addition, in order for the suspicious person 34d to recognize that he / she really receives the monitoring service, the light emission timing, light emission intensity, light emission color, etc. of the lamp are the same as the lamp 34z provided on the terminal 34b (1), 34b (2) side. You may make it shine synchronously. Since the light emission control is controlled by the center 34g or the monitoring system, a person who does not receive the monitoring service cannot easily imitate the light emission state of the monitoring lamp. If it is confirmed that light is emitted in the same manner as the terminal 34z, it is possible to recognize that the monitoring service is actually received and to further suppress the occurrence of the incident.

知らしめる方法の別の手段としては、端末にレーザ照射装置を搭載して申込者の方向へ照射するようにしても良い。トラッキングにより申込者の現在いる場所は、3次元座標で認識されているので、その方向にレーザーで○を書いたり模様を書いたり、申込者の頭上に目立つ印を表示することで、より分かりやすく、容易に真似のできない方法になる。模擬の監視ランプを真似することが大変であれば、本監視サービスを申し込む方が安いという料金関係にしておくことによって、不審者が監視サービスを受けていることを疑わないようになる。   As another means of the notification method, a laser irradiation device may be mounted on the terminal so as to irradiate in the direction of the applicant. The current location of the applicant is recognized by tracking in 3D coordinates, so it is easier to understand by writing a circle or pattern with a laser in that direction, or displaying a prominent mark on the applicant's head. It becomes a method that cannot be easily imitated. If it is difficult to imitate a simulated monitoring lamp, the suspicious person will not be doubted that he / she is receiving the monitoring service by making the fee relationship that it is cheaper to apply for this monitoring service.

また、図129の(b)は、総合監視センター34gと各端末34bのデータの受け渡し方法を示したものである。基本的には特開平10-227400号公報の遠隔監視システムのような方法を適用して端末の数が多くなる場合の無線周波数の割り付け問題は近くの端末どうしの中継機能を設けることにより、少ない割り付け周波数で広域のセンサネットワークを形成する。(b)では、申し込み者の形態電話34cは電話回線を直接使用するが、端末のデータ通信は、専用回線を設ける。遠隔地の電話会社34eまで全て端末の中継で行うと、データの中継回数が多くなるために通信時間がかかることから、中継伝送グループはある程度の領域に限定して、長距離無線装置34kをところどころに設置することにより、中継による時間ロスをなくして、しかも広域のセンサ端末ネットワークが構築できる。長距離無線装置34kには、携帯電話を利用するようにしても良い。センサ端末間の伝送ルートもシリーズにしなくとも良く、網目状の無線ネットワークになるようにして良い。網目状にすることで、1台の端末が故障した場合でも端末自身に診断機能があれば、故障した端末を他の端末が認識して別のルートを経由してデータ伝送することも可能となる。この(b)の場合は、監視スタート信号はセンター34gから電話会社34e経由して直接申込者の形態電話34cに送られて携帯電話34cからランプ34iへ発光制御されるようにする場合の例である。   FIG. 129 (b) shows a data transfer method between the general monitoring center 34g and each terminal 34b. Basically, there are few radio frequency allocation problems when the number of terminals is increased by applying a method such as the remote monitoring system disclosed in JP-A-10-227400 by providing a relay function between nearby terminals. A wide-area sensor network is formed at the assigned frequency. In (b), the applicant's phone 34c directly uses a telephone line, but the terminal data communication is provided with a dedicated line. If all terminals up to the remote telephone company 34e are relayed by a terminal, the number of times data is relayed increases and communication time is required. Therefore, the relay transmission group is limited to a certain area and the long-range wireless device 34k is located in some places. It is possible to construct a wide-area sensor terminal network without the time loss due to the relay. You may make it utilize a mobile telephone for the long-distance radio | wireless apparatus 34k. The transmission route between the sensor terminals may not be a series, and may be a mesh wireless network. By using a mesh, even if one terminal fails, if the terminal itself has a diagnostic function, other terminals can recognize the failed terminal and transmit data via another route. Become. In the case of (b), the monitoring start signal is sent from the center 34g directly to the applicant's form phone 34c via the telephone company 34e and controlled to emit light from the mobile phone 34c to the lamp 34i. is there.

また、図129の(c)は、各々の中継し合う端末34b(0)〜(3)のデータを携帯電話34cの最寄の端末34b(1)が通信を行うようにして、端末からのセンサデータを送信やセンタから端末への指令信号を形態電話34cを経由して行うようにしても良い。また、(b)の方式と(c)の方式の両方を使えるように設備計画しても良い。   FIG. 129 (c) shows that the terminal 34b (1) of the mobile phone 34c communicates with the data of the terminals 34b (0) to (3) that relay each other. The sensor data may be transmitted or a command signal from the center to the terminal may be transmitted via the form phone 34c. Further, the facility plan may be made so that both the method (b) and the method (c) can be used.

図130は、図129の(a)の総合監視センターの具体的なハード構成の基本的な例を示している。電話会社34eとネット34fの構成機器は、通常の電話回線とインターネットの回線が利用できるように考慮する。勿論、専用の回線を用意することでも良いが、構成機器は通常の電話回線とインターネットの回線、LAN回線と同じ構成で実現できる。図130は、総合監視センターの基本ハード構成で電話回線の端末にPC端末が接続されているものである。   FIG. 130 shows a basic example of a specific hardware configuration of the general monitoring center shown in FIG. The components of the telephone company 34e and the net 34f are considered so that normal telephone lines and Internet lines can be used. Of course, a dedicated line may be prepared, but the constituent devices can be realized with the same configuration as a normal telephone line, Internet line, and LAN line. FIG. 130 shows a basic hardware configuration of the general monitoring center in which a PC terminal is connected to a telephone line terminal.

n台は、監視サービスを同時に行える最大回線の数だけ用意する。各PCは、同じプログラムを動作させれば良いので合理的である。統計データなどを自動で集計する場合は、各PC端末をLANで接続して蓄積データや監視サービス履歴を集計、参照、利用できるようにしても良い。   Prepare n units as many as the maximum number of lines that can simultaneously perform monitoring services. Each PC is rational because it is sufficient to operate the same program. When statistical data or the like is automatically aggregated, each PC terminal may be connected via a LAN so that accumulated data and monitoring service history can be aggregated, referenced, and used.

図131は、PC端末で操作させる監視サービスの基本的なプログラムを例示している。まず、処理34(e1)aで電話回線への呼び出しある場合は、次の処理34(e1)bで電話をかけたユーザーのアカウント情報を記録する。次に、処理34(e1)cでユーザーとセンター員の音声回線ONして直接ユーザーとセンター員が会話してサービスの依頼とユーザーを特定するようにする。ユーザー特定は、具体的には、次の処理で行う。センター員がユーザーから現在の場所を聞き、地図情報などからもっとも適切端末を選びそれを指定する。プログラムは、処理34(e1)dで、センター員が指定した端末を別の電話回線あるいはユーザーがかけている携帯電話に端末との通信機能がある場合はユーザがかけている電話回線経由で呼び出し、端末にセンター員が指定する方向の映像(画像情報)を送信させるコマンドを送信し、処理34(e1)fで、端末から返信されてくる映像データをPCモニタの所定のウィンドウへ表示する。センター員はユーザーを端末から送られてくる映像で確認するため任意の端末の任意の方向の映像を繰り返し要求するようにしてユーザーを探す。最初は広角画像で広い範囲で探して、ユーザーと思われる人が特定されたらならばズームして拡大表示してユーザーを確認する。ユーザーと電話回線で話をしながら確認作業を行っているので、ユーザーが手を上げたり端末の方を見るなどの動作を会話で離しながらその内容を確認するので、ユーザーを間違いなく、正しく特定できるようになる。センター員がユーザーを確認したならば、画面上でユーザー近傍を指定すれば、プログラム側では、処理34(e1)gで、表示ウィンドウにユーザを特定する座標指定入力があるかどうかを判別し、入力がある場合には、処理34(e1)hで人をあらかじめ複数の方向(端末の設置位置からみる場合にありうる方向)から撮影した代表的な人の2次元の参照CADデータを複数読み込み、画像データを線画にしてから2次元のマッチング処理で画像の中の人を検出して、指定される座標に一番近い人を特定して対応する位置に認識マーク(例えば、人を包含する矩形など)を表示するとともに、その人のCADデータの生成を開始するようにする。座標が指定された段階からその位置が視野に入る他の端末からの映像も利用して3D計測しながらCADデータの生成と探索を開始するようにしても良い。センター員は、その状態を確認してOKであればOKと入力すると、プログラム側は、処理34(e1)iで認識結果に対してOKとの入力がセンター員からあるかどうかを判別して処理を分岐する。   FIG. 131 exemplifies a basic program of the monitoring service operated by the PC terminal. First, if there is a call to the telephone line in the process 34 (e1) a, the account information of the user who made the call in the next process 34 (e1) b is recorded. Next, in the process 34 (e1) c, the voice line of the user and the center member is turned on, and the user and the center member talk directly to specify the service request and the user. Specifically, the user is specified by the following process. The center staff asks the user the current location, selects the most appropriate terminal from the map information, etc., and designates it. In step 34 (e1) d, the program calls the terminal specified by the center member via another telephone line or the telephone line that the user is calling if the mobile phone that the user is calling has a communication function with the terminal. Then, a command for transmitting the video (image information) in the direction designated by the center staff is transmitted to the terminal, and the video data returned from the terminal is displayed on a predetermined window of the PC monitor in process 34 (e1) f. The center member searches for a user by repeatedly requesting an image in an arbitrary direction of an arbitrary terminal in order to confirm the user with an image sent from the terminal. At first, a wide-angle image is searched for in a wide range, and if a person who seems to be a user is specified, the user is zoomed and enlarged to confirm the user. Since the confirmation work is performed while talking to the user over the telephone line, the user confirms the contents while lifting the hand or looking at the terminal while confirming the contents while talking, so the user is definitely identified correctly become able to. If the center member confirms the user and designates the vicinity of the user on the screen, the program side determines whether or not there is a coordinate designation input for identifying the user in the display window in process 34 (e1) g. If there is an input, a plurality of representative two-dimensional reference CAD data obtained by photographing a person in advance in a plurality of directions (possible directions when viewed from the installation position of the terminal) in process 34 (e1) h are read. Then, after converting the image data into a line drawing, a person in the image is detected by a two-dimensional matching process, the person closest to the specified coordinates is identified, and a recognition mark (for example, a person is included) (Rectangular etc.) is displayed, and generation of CAD data of the person is started. The generation and search of CAD data may be started while performing 3D measurement using video from another terminal whose position enters the field of view from the stage where the coordinates are designated. When the center member confirms the state and inputs OK if OK, the program side determines whether or not the center member has input OK with respect to the recognition result in process 34 (e1) i. Branch processing.

OK入力あれば、処理34(e2)aでユーザーがかけている携帯電話の端末へ監視サービス開始との指令を電話回線を経由して送信する。この指令で、ユーザーの携帯電話に接続されているサービスON状態表示機能がONする。また、ユーザー申請で、一度電話を切っても再度電話してサービスを終了するまでは、監視サービスを継続するようにした場合は、電話を切ってもサービスON状態表示機能ONは継続するようにすることでも良い。   If the input is OK, a command to start the monitoring service is transmitted via the telephone line to the mobile phone terminal that the user is calling in step 34 (e2) a. This command turns on the service ON state display function connected to the user's mobile phone. In addition, even if you hang up the phone in the user application, if you continue the monitoring service until you call again to end the service, the service ON status display function will continue to turn on even if you hang up the phone. You can do it.

次に、処理34(e2)bで引き続き画面の中から人を検出して、特定された人(ユーザー)を前回特定位置に近い人を再度特定、あるいは生成した3次元のCADデータから前回特定した人と同じ人であることを3次元CADのマッチング処理により判別して再特定して、その人周辺の映像と周辺の人の映像を表示するとともに記録に残すようにする。そして、処理34(e2)cで、特定された人(ユーザー)を再特定できなかった場合は、アラームを出力してセンター員に知らせ、監視サービス中断をユーザーへ送信するようにする。そして、判別処理34(e2)dで、特定された人(ユーザー)を再特定できていない場合は、処理34(e1)dへ戻ってユーザーの再特定を行うようにする。   Next, in process 34 (e2) b, a person is continuously detected from the screen, and the specified person (user) is identified again as a person close to the previous specific position, or previously identified from the generated three-dimensional CAD data. It is determined and re-identified by the matching process of the three-dimensional CAD to display the video around the person and the video of the person around the person and record them. If the specified person (user) cannot be re-specified in process 34 (e2) c, an alarm is output to notify the center member and a monitoring service interruption is transmitted to the user. If the specified person (user) cannot be re-specified in the determination process 34 (e2) d, the process returns to the process 34 (e1) d to re-specify the user.

特定された人(ユーザー)を再特定できている場合は、次の処理34(e2)eで、特定された人(ユーザー)の現在位置情報より、その位置が画像情報の中央になるように、必要な端末を選択して、各端末の撮影する方向を計算して、その画像情報を送信するように、各端末へ別の電話回線あるいはユーザーがかけている携帯電話に端末との通信機能がある場合はユーザがかけている電話回線経由でコマンドを送信するようにして、処理34(e2)fで、センター員からユーザー(あるいはユーザーとその周辺の人)へ知らせる入力があった場合は、端末へユーザーの携帯電話あるいはユーザー周辺の端末へ知らせる指令と知らせるデータ(音声データなど)を送信する。   If the specified person (user) can be re-specified, the next process 34 (e2) e is set so that the position becomes the center of the image information from the current position information of the specified person (user). , Select the required terminal, calculate the shooting direction of each terminal, and send the image information to each terminal, a communication function with the terminal on another phone line or the mobile phone the user is calling If there is an input from the center member to the user (or the user and the people in the vicinity) by processing 34 (e2) f by sending the command via the telephone line that the user is calling The terminal transmits a command for notifying the user's mobile phone or a terminal around the user and data (such as voice data).

また、周囲の人から不審者を不審者のデータべースより認識した場合には、自動で送信するようにする。そして、サービスの終了まで処理34(e2)bからの処理を繰り返して監視サービスを継続する。サービス終了時には、プログラムは、処理34(e2)hで、電話をかけたユーザーのアカウント情報を記録して終了する。これは、ユーザーの追跡処理を自動で行うようにした場合の例である。勿論、各端末にセンター員を一人配置するようにすれば、すべて人がマニュアルでユーザーを追跡するようにしても良いし、本例でマニュアル設定している部分を自動で処理するようにしても良い。自動化されれば、センター員の負担は低減されるとともに見失う危険性も少なくなる。また、自動化の継続効率が良くなれば、複数の端末を複数のセンター員で効率良く運用することも可能となる。例えば、10000台のPC端末を10人のセンター員で運用することも可能となる。また、総合監視センターは、全国に1箇所に設けるのではなく、各地域ごとに分散して管轄するように構成しても良い。また、ここで説明した監視センターのPC端末と各現場に設置される端末の機能分担は、一つの例にすぎない。   In addition, when a suspicious person is recognized from a suspicious person's database from surrounding people, the information is automatically transmitted. Then, the monitoring service is continued by repeating the processing from the processing 34 (e2) b until the end of the service. When the service ends, the program records the account information of the user who made the call in process 34 (e2) h and ends. This is an example in which the user tracking process is automatically performed. Of course, if one center member is assigned to each terminal, all people may follow the user manually, or the part set manually in this example may be processed automatically. good. If automated, the burden on the center staff is reduced and the risk of losing sight is reduced. Further, if the automation efficiency is improved, it becomes possible to efficiently operate a plurality of terminals with a plurality of center members. For example, 10000 PC terminals can be operated by 10 center staff. In addition, the general monitoring center may be configured to be distributed and managed in each area instead of being provided at one place throughout the country. Moreover, the function sharing between the PC terminal of the monitoring center and the terminal installed at each site described here is only one example.

この例では、画像情報をセンターのPCに送信してからCADデータの生成や探索処理などにより人や特定の人物を特定するようなシステム構成を説明したが、各端末に視覚情報処理装置を搭載して、各端末の中で2次元のCADデータの生成から周囲の他の端末と2次元のCADデータの送受信をお互いに行い、複数の端末が連携して3D計測して3次元のCADデータを生成する処理機能を現場に設置された端末側もたせて、センターと送受信するデータは、2次元あるいは3次元のCADデータと代表的な画像シーンのみにすることでデータの伝送量を少なくするようなシステム構成にしても良い。また、このようにすれば、端末で即座に処理ができるので、CADデータの生成や探索処理も迅速に行うことができるようになる。   In this example, a system configuration has been described in which a person or a specific person is identified by generating CAD data or searching after transmitting image information to the center PC. However, each terminal is equipped with a visual information processing device. In each terminal, 2D CAD data is transmitted to and received from other peripheral terminals from the generation of 2D CAD data to each other, and a plurality of terminals cooperate to perform 3D measurement and 3D CAD data. The processing function to generate the data is also provided on the terminal side installed in the field, and the data transmitted / received to / from the center is limited to two-dimensional or three-dimensional CAD data and representative image scenes, so that the data transmission amount is reduced. A simple system configuration may be used. In addition, since processing can be performed immediately at the terminal, CAD data can be generated and searched quickly.

また、監視端末を設置すると、監視端末のない場所での犯罪が増える危険性があるので、量産化により監視端末の製造コストを下げて、公共的な場所、私的な場所を含めた多くの場所に設置できるようにするのが良い。また、覆面などで後で人物を特定できなくして犯罪に及ぶケースも増えると予想されるので、逃げても端末のネットワークからは逃れられないように多くの端末を設置するようにするのが良い。また、不審者を特定したならば、その不審者を自動的に追跡するようにしても良い。その場合、万一、不審者を見失った場合には、見失った場所周辺の端末全体に不審者の探索指令が自動で配信されるようにして、どこかで少しでも視野に入れば不審者を探索できるようにしても良い。見失った時からの経過時間とともに使用する端末の探索エリアを自動的に所定の比率で拡大するようにしても良い。この場合は、特別な処置として公共の場、私的な場に設置したすべての端末をその目的に使用できるようにしても良い。   In addition, since there is a risk that crimes will increase in places where there is no monitoring terminal if a monitoring terminal is installed, the manufacturing cost of the monitoring terminal will be lowered by mass production, and many public and private places will be included. It is good to be able to install in place. Also, since it is expected that there will be more crime cases because people can not be identified later due to masking etc., it is good to install many terminals so that even if you escape you can not escape from the terminal network . If a suspicious person is specified, the suspicious person may be automatically tracked. In that case, in the unlikely event that the suspicious person is lost, the search command for the suspicious person is automatically distributed to the entire terminal around the place where the suspicious person is lost. It may be possible to search. You may make it expand the search area of the terminal to be used automatically with a predetermined ratio with the elapsed time from the time of losing sight. In this case, as a special measure, all terminals installed in public places and private places may be used for that purpose.

このような使用方法も想定されるため、各端末にCADデータの生成や探索機能を搭載するようにすることは勿論であるが、同時に複数の命令に対する処理もできるように、常に全方向の画像情報を取り込むようにしてタイムシアリング処理で複数の違う方向を対象に対して違うコマンドに対する処理ができるようにすると良い。   Since such a method of use is also assumed, it is a matter of course that each terminal is equipped with a CAD data generation and search function. It is preferable that time shearing processing can be performed for a different command with respect to a plurality of different directions by capturing information.

また、凶悪犯罪が増える場合には、音声でユーザへ危険を知らせるだけでなく、各端末にペイント弾を不審者へ向けて発射できるような設備と組み合わせて運用するようにしても良い。端末にレーザを設置して監視サービス状態を弱いレーザスポットを照射して周囲に知らせるようにする設備を利用して、凶悪犯による危険が迫った場合には、レーザビームを絞るようにして不審者へ威嚇照射できるようにしても良い。このときには、PC端末から別の電話回線を利用して警察機関へ緊急で通知ができるシステム構成にして、非常時には警察機関の運用に切り替えて、警察機関のPC端末から操作できるようにして、警察による不審者への静止,威嚇操作が迅速に切り替えられるようにしても良い。レーザーや威嚇弾を撃つ場合は、各端末にレーザーなどの照射する方向を設定するカメラのパンチルト機構のようなものを設けて、それを遠隔手動操作あるいは自動制御できるように構成する。通常の端末の画像情報を広範囲にスキャンするために、ミラースキャンで得るような構成の端末を利用する場合は、そのミラースキャンをレーザの照射方向を設定する機構と兼用するようにしても良い。勿論、端末とは別に専用のレーザーや威嚇弾を撃つ設備を数台の端末に1台程度の割合で設置するようにしても良い。また、レーザーや威嚇弾を撃つ場合は、不審者の手や足の部位を3D−CADデータより認識して、求めた不審者の手や足の位置を検出してレーザーや威嚇弾を撃つ方向を自動的に設定するようにしても良い。操作者がマニュアル操作で威嚇射撃を行う場合でも、誤って不審者の致命傷となる個所へ照準が設定される場合には、自動的に致命傷となる部位を避けた個所に自動的に補正する安全上のインターロックを設けるようにしても良い。本発明の視覚情報処理装置を適用することにより、不審者の頭部、体、手足をそれぞれの部品の位置と姿勢とそれら部品の結合状態(身体全体の姿勢状態)も含めて検出できるようになるので、不審者の致命的な部位を避けて照準を合わせることも容易に実現可能なものとなる。   In addition, when the number of violent crimes increases, not only the user is informed of the danger by voice, but it may be operated in combination with equipment capable of firing paint bullets at each terminal toward the suspicious person. Suspicious person by squeezing the laser beam when using a facility that installs a laser on the terminal and irradiates a weak laser spot to inform the surroundings of the monitoring service status when the danger of a violent crime is imminent It may be possible to irradiate a threat. At this time, the system configuration is such that the PC terminal can be notified urgently to another police line using a separate telephone line. In an emergency, the system can be operated from the PC terminal of the police institution by switching to the operation of the police institution. It may be possible to quickly switch between stationary and intimidating operations for suspicious persons. When shooting a laser or intimidation bullet, a device such as a pan / tilt mechanism of a camera that sets the direction of irradiation of the laser or the like is provided at each terminal so that it can be remotely operated or automatically controlled. In order to scan image information of a normal terminal over a wide range, when a terminal having a configuration obtained by mirror scan is used, the mirror scan may be used also as a mechanism for setting the laser irradiation direction. Of course, apart from the terminal, a dedicated laser or a device for shooting intimidation may be installed at a ratio of about one to several terminals. When shooting a laser or intimidation, the direction of the laser or intimidation is detected by recognizing the hand or foot of the suspicious person from the 3D-CAD data and detecting the position of the suspicious person's hand or foot. May be set automatically. Even if the operator performs manual threatening shooting, if the aim is accidentally set to a location that would cause a fatal injury to a suspicious person, the safety is automatically corrected to a location that avoids the location that would cause a fatal injury. The upper interlock may be provided. By applying the visual information processing apparatus of the present invention, the head, body, and limbs of a suspicious person can be detected including the position and posture of each component and the combined state (the posture state of the whole body) of these components. Therefore, it is also possible to easily aim at the sight of the suspicious person by avoiding the deadly part.

図133は、端末に画像データ蓄積機能がある場合の監視センタからその情報を引き出すときに使用するPC端末のプログラムの基本的な構成を例示している。   FIG. 133 illustrates a basic configuration of a program of a PC terminal used when extracting information from a monitoring center when the terminal has an image data storage function.

処理34(f)aでは、センター員が指定した端末を電話回線で呼び出し、端末にセンター員が指定する時刻(何月何日の何時から何時まで)の指定の方向の映像(画像情報)を送信させるコマンドを端末へ送信する。次に、処理34(f)bで、送られてきた映像をPCの端末に表示する。ここで、指定があれば、人あるいは特定の人を検出してその人とその周辺のみを表示、あるいは、人の位置に対応する位置に認識マーク(例えば、人を包含する矩形など)を表示したり、指定した端末の方向を撮影する他の端末の画像データも利用して人の3DCADデータを生成しながら表示したりもする。そして、処理34(f)cで、探したい人あるいは探した人を真似た人をあらかじめ撮影した画像情報から生成した3次元CADデータの入力がある場合には、それとのマッチング処理を行い、マッチング度の高い人の映像部分のみを、マッチング度とともに表示するようにする。   In process 34 (f) a, the terminal designated by the center member is called on the telephone line, and the video (image information) in the designated direction at the time designated by the center member (from what time to what time of the month, what time) is displayed on the terminal. Send the command to be sent to the terminal. Next, in step 34 (f) b, the transmitted video is displayed on the PC terminal. Here, if specified, a person or a specific person is detected and only that person and its surroundings are displayed, or a recognition mark (for example, a rectangle containing a person) is displayed at a position corresponding to the person's position. Or using the image data of another terminal that captures the direction of the designated terminal to generate and display human 3D CAD data. Then, if there is an input of 3D CAD data generated from image information obtained by photographing a person who wants to look for or a person who imitates the searched person in the process 34 (f) c, a matching process is performed with the input. Only the video portion of a person with a high degree is displayed together with the matching degree.

図135は、このような監視サービスに適した端末の例であるが、CCDカメラ35bとレンズ35aとを組み合わせた小型カメラ35Aをコネクタ35Cで端末本体35e側に複数設けたソケット35dに設置できる構成にしている。小型カメラ35Aには、指向性マイク35mを取り付けて、音声も監視、記録できるようにして良い。勿論、ここでは図示しないが、端末には、スピーカを設けて、センターから不審者や周囲の人に必要に応じて注意などを喚起できるようにしても良い。スピーカは、申込者の携帯電話より専用拡声器を申込者が身につけて携帯からの音声信号を拡声器から皆で聞くことができるようにしても良い。このようにすることにより、万一、申込者が不審者に狙われるようなことになっても、万一、危険な場所に近づくような場合にもセンターから呼び止めることができるようになる。   FIG. 135 shows an example of a terminal suitable for such a monitoring service. A configuration in which a small camera 35A in which a CCD camera 35b and a lens 35a are combined can be installed in a socket 35d provided on the terminal body 35e side by a connector 35C. I have to. A directional microphone 35m may be attached to the small camera 35A so that sound can be monitored and recorded. Of course, although not shown here, the terminal may be provided with a speaker so that a suspicious person or a surrounding person can be alerted as necessary from the center. The speaker may wear a dedicated loudspeaker from the cellular phone of the applicant so that the voice signal from the cellular phone can be heard from the loudspeaker. In this way, even if the applicant is targeted by a suspicious person, it can be stopped from the center even if it approaches a dangerous place.

この例では、端末35eのソケット35dは、球状に四方八方に小型カメラ35Aを設置できるように均一に全方向に設けてある。このようにしておけば、端末を設置するときに、必要な方向のみに小型カメラ35Aを複数設置することが容易に可能になる。この例は、球状の表面にカメラ35Aを設置できるようにした例であるが、単純に開板の前面と背面の2箇所にカメラ35Aを取り付けられるようにしても良いし、三角柱や三角錐、四角柱や四角錐、多角柱や多角錐などの表面に取り付けられるようにしても良い。そのようにしておけば、例えば、ビルの壁に端末を設置する場合、ビルの壁側は監視する必要がないため、小型カメラ35Aは片側にたくさん設置して反対側には設置しないようにして、合理的に必要なセンサのみを実装した端末を、設置する場所に応じて組み立てることが可能となる。また、公園の真中にポールを建てて端末を設置する場合には、360度全周方向に小型カメラ35Aを実装するようにする。このような構成とすることで、安価な小型CCDを複数組み合わせて、広範囲を高分解能で撮影できる撮像センサ付きの端末を安価に得ることができるようになる。小型カメラ35Aを設置した後にドーム型のカバー35fを溝35gに嵌めるようにして取り付ければ、端末の組み立ては容易に完成する。また、故障した場合もカバー35fを外して、故障した個所のみの小型カメラ35を交換すれば良いし、端末の設置場所を変えるような場合とか、小型カメラ35Aの配置変更や増減する場合も容易に対応が可能となる。   In this example, the socket 35d of the terminal 35e is provided in all directions uniformly so that the small camera 35A can be installed in a spherical shape in all directions. In this way, when the terminal is installed, it is possible to easily install a plurality of small cameras 35A only in a necessary direction. In this example, the camera 35A can be installed on a spherical surface. However, the camera 35A may be simply attached to the front and back of the open plate, or a triangular prism, triangular pyramid, four You may make it attach to surfaces, such as a prism, a quadrangular pyramid, a polygonal column, a polygonal pyramid. If so, for example, when installing a terminal on the wall of the building, there is no need to monitor the wall side of the building, so a lot of small cameras 35A should be installed on one side and not on the other side. Therefore, it is possible to assemble a terminal on which only reasonably necessary sensors are mounted according to the installation location. When a pole is built in the middle of the park and a terminal is installed, the small camera 35A is mounted in the 360 ° all-around direction. With such a configuration, it is possible to obtain a terminal with an imaging sensor capable of photographing a wide range with high resolution by combining a plurality of inexpensive small CCDs at a low cost. If the dome-shaped cover 35f is fitted in the groove 35g after the small camera 35A is installed, the assembly of the terminal is easily completed. Also, in the event of a failure, the cover 35f can be removed and the small camera 35 can be replaced only at the failed location, and the case where the installation location of the terminal is changed or the arrangement of the small camera 35A can be easily changed or increased or decreased. Can be supported.

図136は、図135の端末のブロック線図を示している。各小型カメラ35A(1),35A(2)…は、各ソケット35d(1),35d(2),35d(3),35d(4),35d(5)…のどの位置にも接続できるようにする。また、各ソケットからの配線は、センサデータ制御回路36aで実際に接続されている小型カメラ35Aを認識して、そことセンサ信号処理LSI36bとのデータ伝送制御を行うようにする。データ伝送制御は、センサ信号処理LSI36bが次に行う信号処理の内容に基づいてどの小型カメラ35Aからのデータを取り込むかなどの切り替え指令信号をセンサデータ制御回路36aに指示するようにする。センサ信号処理LSI36bでは、申込者を認識して画像トラッキングするとともに、画像情報内で差分処理をして変化が生じた場合のみ、変化部周辺の画像情報を圧縮して画像データ記録装置36dへ時刻データとともに記録するように動作させる。   FIG. 136 shows a block diagram of the terminal of FIG. Each small camera 35A (1), 35A (2)... Can be connected to any position of each socket 35d (1), 35d (2), 35d (3), 35d (4), 35d (5). To. Further, the wiring from each socket recognizes the small camera 35A actually connected by the sensor data control circuit 36a, and performs data transmission control between the small camera 35A and the sensor signal processing LSI 36b. In the data transmission control, the sensor data control circuit 36a is instructed of a switching command signal such as which small camera 35A to take in based on the content of signal processing to be performed next by the sensor signal processing LSI 36b. The sensor signal processing LSI 36b recognizes the applicant, performs image tracking, and compresses the image information around the changed portion only when a difference occurs in the image information and changes the time to the image data recording device 36d. Operate to record with data.

マイコン36cは、時刻を管理するとともに、申込者のトラッキング指令や定期的に画像を記録する条件などの動作条件を無線通信装置36eを経由してセンター34gからの指令に基づきセンサ信号処理LSI36bに出力するとともに、センター34gや他の端末34bからの指令に対する応答を返信するとともに、無線通信装置36eを経由して入ってくる近くからの端末からの情報を認識して必要な中継機能をみずから、あるいは、センサ信号処理LSI36bを使って実行する。中継処理を行う場合には、画像データ記録装置36dに中継する画像情報も一時記録するようにして良い。また、センサ信号処理LSI36bがトラッキング制御や画像記録や中継機能を全部行うと、処理速度的に厳しい場合には、トラッキング処理専用のセンサ信号処理LSIと画像記録専用のセンサ信号処理LSIと中継処理専用のセンサ信号処理LSIとをマイコン36cにそれぞれ接続して並列処理できる構成にしても良い。また、信号処理は、マイクの音声を分析してその方向を求める機能をもたせても良いし、画像データ記録時には、当該画像の方向のマイクの音声データを記録するようにして良い。マイクがあれば、指向性マイクで方向のトラッキングをしたり、音のある方を画像処理して3次元CADデータを生成したり、音のある方を画像記録するようなこともできるようになる。また、カメラ、マイク以外の赤外線センサーや電磁波センサ、超音波などのセンサを搭載してそれらの信号監視や信号記録もできるようにして良い。   The microcomputer 36c manages time and outputs operation conditions such as an applicant's tracking command and a condition for periodically recording an image to the sensor signal processing LSI 36b based on a command from the center 34g via the wireless communication device 36e. At the same time, a response to a command from the center 34g or another terminal 34b is returned, and information from a nearby terminal entering via the wireless communication device 36e is recognized, and a necessary relay function is not seen, or This is performed using the sensor signal processing LSI 36b. When relay processing is performed, image information to be relayed to the image data recording device 36d may be temporarily recorded. When the sensor signal processing LSI 36b performs all tracking control, image recording, and relay functions, if the processing speed is severe, the sensor signal processing LSI dedicated to tracking processing, the sensor signal processing LSI dedicated to image recording, and the relay processing dedicated These sensor signal processing LSIs may be connected to the microcomputer 36c to perform parallel processing. Further, the signal processing may be provided with a function of analyzing the sound of the microphone and obtaining the direction thereof, and when recording the image data, the sound data of the microphone in the direction of the image may be recorded. If there is a microphone, it is possible to track the direction with a directional microphone, to generate 3D CAD data by processing an image with sound, or to record an image with sound. . In addition, an infrared sensor other than the camera and microphone, an electromagnetic wave sensor, an ultrasonic sensor, and the like may be mounted to monitor and record the signals.

以上のように、本発明の監視サービスによれば、不審者に狙われることのない、また、事件を未然に防げて、また、万一、事件になっても、警察の捜査時間を短くして、少ない警察官で安全な社会を築くことができるようになる。   As described above, according to the monitoring service of the present invention, the suspicious person is not aimed at, the incident can be prevented in advance, and even if an incident occurs, the police investigation time can be shortened. Therefore, it becomes possible to build a safe society with few police officers.

また、自律移動型ロボットがいろいろな場所で動く社会になった場合には、ロボットのユーザやそのロボットの製造メーカは、安全に対する責任が生じるので、このような監視システムで自律移動ロボットを監視するようにして、万一、危険な状況になった場合には、ロボットユーザに連絡して、速やかに、ロボットを専用回線で停止させるようにすることも可能となる。また、あらかじめ、専用の緊急停止回線のコマンドなどをロボット製造メーカと監視サービス会社とで決めておけば、当該ロボットのIDを指定して、端末より直接に、ロボットの通常制御とは独立した停止制御回路へコマンドを送信できるようにすることができる。IDで対象ロボットを識別するようにすれば、近くに複数のロボットが動いている場合でも危険な対象ロボットのみを停止させることができる。また、本サービスを自動車を運転するユーザに提供する場合は、自動車をトラッキングして監視サービスを行い、他の自動車と衝突しそうになる場合とか、自動車が危険な状態で運転されようとした場合には、自動車の運転手にその旨を事前に伝えられるようにしても良いし、また、緊急性を要する状況の場合には、端末から自動車の制御装置にブレーキ信号を直接送信できるようにしても良い。自動車の場合は、通常は状況を認識して運転者へガイダンスするのみとするが、ブレーキなどの安全サイドの制御は、運転者が遅れた場合には直接実行できるようにすることでも良い。   In addition, when an autonomous mobile robot becomes a society that moves in various places, the robot user and the manufacturer of the robot are responsible for safety, so such a monitoring system monitors the autonomous mobile robot. In this way, in the unlikely event that a dangerous situation occurs, it is possible to contact the robot user and promptly stop the robot on the dedicated line. In addition, if the robot manufacturer and the monitoring service company decide on commands for the dedicated emergency stop line in advance, specify the robot ID and stop it directly from the terminal, independent of the normal control of the robot. A command can be transmitted to the control circuit. If the target robot is identified by the ID, only the dangerous target robot can be stopped even when a plurality of robots are moving nearby. In addition, when providing this service to a user who drives a car, if the car is tracked and a monitoring service is performed and it is likely to collide with another car, or if the car is about to be driven in a dangerous state May be able to notify the driver of the car in advance, or in a situation that requires urgency, a brake signal can be sent directly from the terminal to the car control device. good. In the case of an automobile, usually the situation is recognized and only guidance is given to the driver. However, safety side control such as braking may be directly executed when the driver is delayed.

また、本監視サービスの端末を設置する場合は、少なくとも1台は互いの端末が監視対象の視野に入るように設置することによって、端末自体へ危害が及ぶ場合にもその状況を監視して抑制することが可能となる。また、センターからの各端末へのコマンドに、探索したい物体のいろいろな視点から撮影した画像データあるいは2次元のCADデータあるいは3次元のCADデータを転送して、端末側で、いろいろな視点から見た場合の2次元のCADデータを生成するようにして、撮影される画像情報の中より探索してマッチング度の高い対象物体が探索された場合には、その情報をセンターへ応答するような機能を設けて、監視サービスエリア全体の監視、探索にも利用できるようにしても良い。勿論、これらの処理は、タイムシアリングで他のコマンドに対する応答処理と並行してできるようにしておいても良い。   In addition, when installing terminals for this monitoring service, install at least one terminal so that each other's terminals are within the field of view of the monitoring target, and monitor and suppress the situation even if the terminal itself is in danger. It becomes possible to do. In addition, image data taken from various viewpoints of the object to be searched, two-dimensional CAD data, or three-dimensional CAD data is transferred to the command from the center to each terminal, and the terminal side views from various viewpoints. If two-dimensional CAD data is generated and a target object having a high matching degree is searched from the image information to be photographed, the information is returned to the center. May be used for monitoring and searching the entire monitoring service area. Of course, these processes may be performed in parallel with response processes for other commands by time shearing.

図134は、図136(a)のマイコン36cの基本処理のフローチャートを示している。これも一例である。マイコン36の動作は、まず、処理34(g)aで、センサ信号処理LSIへ現在の映像を画像データ記録装置へ現在の時刻とともに記録する指令を出力する。次に、処理34(g)bで、無線通信装置から送られてくるコマンドを読み取り、コマンドに対応する処理を行う。具体的な例としては、(1)データ転送コマンドの場合には、近くの端末から送られてくるデータを取り込んで、次の所定の端末宛データとしてそのまま送信出力する。(2)画像出力コマンドの場合には、指定された時刻の指定された方向の画像情報を無線通信装置へ出力する指令をセンサ信号処理LSIへ出力する。(3)送信相手端末から正常受信応答が所定時間内にない場合は、同じデータを再送信する。複数回続く場合には、次の経由ルートを選択して送信する。(4)下流の端末の異常がわかったならセンターへ送信する。送信データには、最終送信先(センターか特定端末)の他、経由ルートが複数ある場合は、途中経由する端末をあらかじめ決められたルールに従って指定するようにする。   FIG. 134 shows a flowchart of basic processing of the microcomputer 36c of FIG. 136 (a). This is also an example. In the operation of the microcomputer 36, first, in a process 34 (g) a, a command to record the current video to the image data recording apparatus together with the current time is output to the sensor signal processing LSI. Next, in process 34 (g) b, a command sent from the wireless communication apparatus is read, and a process corresponding to the command is performed. As a specific example, (1) in the case of a data transfer command, data sent from a nearby terminal is fetched and transmitted and output as it is as data for the next predetermined terminal. (2) In the case of an image output command, a command to output image information in a specified direction at a specified time to a wireless communication device is output to the sensor signal processing LSI. (3) If there is no normal reception response from the transmission partner terminal within the predetermined time, the same data is retransmitted. If it continues multiple times, the next route is selected and transmitted. (4) If abnormality of downstream terminal is found, send to center. In the transmission data, in addition to the final transmission destination (center or specific terminal), when there are a plurality of route routes, a terminal that is routed is designated according to a predetermined rule.

次に、判別処理34(g)cで、送信相手から正常受信応答がどうしても得られないとか、自己診断センサある場合に異常を検出した場合は、処理34(g)dでマイコンにランプ等が接続あればそれを点灯する等状態表示アラームを出力して終了する。異常がなければ処理34(g)aから繰り返し実行するように動作させれば良い。   Next, in the discrimination process 34 (g) c, when a normal reception response cannot be obtained from the transmission partner, or when an abnormality is detected when there is a self-diagnostic sensor, a lamp or the like is displayed on the microcomputer in the process 34 (g) d. If a connection is established, an alarm is displayed to light it up and the process ends. If there is no abnormality, the process 34 (g) a may be operated repeatedly.

図136(b)は、センサ信号処理LSIの基本的なフローチャートを例示している。センサ信号処理LSI36bは、マイコンからの指令に応じて指令内容に応じた処理を行う。具体的には、(1)画像記録コマンドの場合は、センサデータ制御回路へカメラ端末切り替え指令を与えて指定カメラの画像データを取り込み、画像データ記録装置へ時刻データとともに記録する。カメラ端末が複数ある場合は、切り替えながらすべてのカメラ端末からの画像データを記録する。画像データ記録装置の容量を超える場合は、古いデータの上から上書きする。また、検索しやすいインデックスなども一緒に記録するようにする。(2)画像出力コマンドの場合には、指定された時刻の指定された方向の画像データを記録装置の中から検索して読み取り、無線通信装置へ送信相手先情報などとともに送信データとして出力する。(3)CADデータ生成機能がある場合には、2次元の線分CADデータを生成して画像データ記録装置へ記録する。他の端末からの2次元の線分CADデータを受信した場合は、端末の位置関係より3D計測して3次元のCADデータを生成して記録する。この動作処理36(b)aを繰り返し実施する機構を組み込むようにする。   FIG. 136B illustrates a basic flowchart of the sensor signal processing LSI. The sensor signal processing LSI 36b performs processing according to the content of the command according to the command from the microcomputer. Specifically, (1) in the case of an image recording command, a camera terminal switching command is given to the sensor data control circuit to capture the image data of the designated camera, and the image data recording device records it with the time data. When there are a plurality of camera terminals, image data from all the camera terminals is recorded while switching. If the capacity of the image data recording device is exceeded, the old data is overwritten. Also, an index that is easy to search should be recorded together. (2) In the case of an image output command, image data in a specified direction at a specified time is retrieved from the recording device, read, and output to the wireless communication device as transmission data together with transmission destination information. (3) If there is a CAD data generation function, two-dimensional line segment CAD data is generated and recorded in the image data recording apparatus. When two-dimensional line segment CAD data is received from another terminal, 3D measurement is performed from the positional relationship of the terminal, and three-dimensional CAD data is generated and recorded. A mechanism for repeatedly performing the operation process 36 (b) a is incorporated.

図137は、本発明の第18の手段の基本的な構成の一例を示すブロック図である。図137(a)は、人間型のロボットを示すが、本発明は、人間型ロボットに限るものではなく、どのようなタイプのロボットに適用しても良い。   FIG. 137 is a block diagram showing an example of the basic configuration of the eighteenth means of the present invention. FIG. 137 (a) shows a humanoid robot, but the present invention is not limited to a humanoid robot, and may be applied to any type of robot.

この例では、通信システム37kを介して、ロボット(a)側と固定制御部(b),(c)側に分けた構成としている。特に、仮想ダイナミックモデルによるリアルタイム制御を行う制御システム37wの部分を(c)と置いたが、(b)と(c)は固定制御部であり、1台の計算機システムとしても良い。音声解析システム37n、画像解析システム37o、行動指令分析システム37uなどのブロックは、ソフトウエアのプログラムのブロックを示しているが、機能ブロック、すなわち、プログラムはいろいろな構成にできるので、必ずしもこの例とおりである必要はない。   In this example, the robot (a) side and the fixed control units (b) and (c) side are separated via the communication system 37k. In particular, the part of the control system 37w that performs real-time control by the virtual dynamic model is shown as (c), but (b) and (c) are fixed control units, and may be a single computer system. The blocks such as the voice analysis system 37n, the image analysis system 37o, and the action command analysis system 37u indicate software program blocks. However, the functional blocks, that is, the programs can be configured in various ways, and are not necessarily as in this example. Need not be.

この中の画像解析システム37oは、先に説明した視覚情報制御装置100に相当する機能をこのシステムの中にプログラムで組み込んだものに相当する。勿論、制御部(b),(c)の全体をロボット(a)に搭載する場合には、これらのプログラムもLSI化して高速化と小型軽量化を図る。   The image analysis system 37o among them corresponds to a system in which a function corresponding to the visual information control apparatus 100 described above is incorporated in this system. Of course, when the whole of the control units (b) and (c) is mounted on the robot (a), these programs are also made into LSIs to increase the speed and reduce the size and weight.

通信システム37kは、多くのセンサ信号、各アクチュエータへの制御指令信号の大容量の高速な無線通信システムであり、ロボット側にデータの送信と受信を行う移動局を搭載し、固定側制御部の計算機システムには、データの入出力を行う固定局を設ける。ロボットの頭部には、小型軽量のステレオセンサヘッド37cを有している。また、ロボットの動力源37bは、バッテリーで外部からの充電システムを有している。また、ロボットの手37jは、人間と同じ5本指であるが、通常のほとんどの作業では、5本の指全部を繊細に動かす必要がないので、そのうち3本(親指、人差し指、中指)は、繊細な制御ができる指にして機構と制御系の簡略化を図っても良い。ロボットの首、胴体、腕、足の各関節には、サーボモータがあり、関節角度の指令信号を入力するとその関節角度にサーボ制御できるようになっている。目標角度の更新周期は、10msec程度を目安として、サーボ制御の部分で2msec以下に滑らかな目標値に補間しながら制御することでサーボ制御の安定化を図る。また、ロボットには、各関節角度をサーボモータのエンコーダより得る他に各部位に働く外力に対する反力を各部位の力センサ37g、また、胴体あるいは各部位の加速度を検出する各加速度センサ37i、また、姿勢(傾き)を検出するセンサ37h、必要に応じてジャイロセンサを搭載しても良い。力センサ37gの信号も取り込むようにするので、ロボット本体に外乱としての力が作用した場合には、その状態も取り込むことができるようにする。また、各部位の診断センサ37eを設けて、各センサ、各モータ等のアクチュエータが正常に機能していることを常にチェックできるようにする。   The communication system 37k is a large-capacity high-speed wireless communication system with a large number of sensor signals and control command signals for each actuator. The communication system 37k is equipped with a mobile station that transmits and receives data on the robot side. The computer system is provided with a fixed station that inputs and outputs data. The robot head has a small and light stereo sensor head 37c. Moreover, the power source 37b of the robot has a charging system from the outside with a battery. The robot hand 37j has the same five fingers as a human being, but in most normal operations, it is not necessary to move all five fingers delicately, so three of them (thumb, forefinger, middle finger) Alternatively, the mechanism and the control system may be simplified by using a finger that can be delicately controlled. Each joint of the robot's neck, torso, arms, and legs has a servo motor. When a joint angle command signal is input, servo control can be performed to the joint angle. The update period of the target angle is set to about 10 msec as a guide, and servo control is stabilized by performing control while interpolating to a smooth target value of 2 msec or less in the servo control portion. In addition to obtaining each joint angle from the encoder of the servomotor, the robot includes a force sensor 37g for reaction force applied to each part, a force sensor 37g for each part, and each acceleration sensor 37i for detecting acceleration of the body or each part. Further, a sensor 37h for detecting the posture (tilt) and a gyro sensor may be mounted as necessary. Since the signal of the force sensor 37g is also captured, when a force as a disturbance acts on the robot body, the state can also be captured. In addition, a diagnostic sensor 37e for each part is provided so that it can always be checked that actuators such as each sensor and each motor are functioning normally.

自己診断システム37rは、それらの診断センサの信号を総合的に判断してロボットの異常な部分とその程度を判断して、必要であれば音声出力システム37qに出力して異常であることを外部に知らせるようにする。   The self-diagnosis system 37r comprehensively judges the signals of these diagnostic sensors to judge the abnormal part of the robot and its degree, and outputs it to the voice output system 37q if necessary to indicate that it is abnormal. To let you know.

また、行動計画システム37vは、現在のロボットの異常個所を考慮して目的遂行のための最適な行動ステップを計画するようにする。例えば、右腕が故障している場合には、左腕のみで作業を行う作業計画を立てるようにする。   In addition, the behavior planning system 37v plans an optimal behavior step for the purpose execution in consideration of the abnormal part of the current robot. For example, when the right arm is out of order, a work plan for working with only the left arm is made.

また、眼球視点制御システム37pは、眼球レンズ系ドライバ37dでステレオセンサヘッドの眼球を駆動制御する。ステレオセンサヘッド37cの2台のカメラは、ロボットの首を上下左右に動かすことで2台一緒に動くが、それぞれのカメラも人間の眼球と同じように上下左右に独立に動かせるようにする。ロボットの首を動かさなくても、眼球の移動でカメラの向きを変えられるようにする。このとき、それぞれのカメラの向きを決める上下左右の回転角度は、眼球のドライブモータのエンコーダなどの信号で検出できるようにして、画像解析システム37oへ画像情報と一緒に入力するようにする。眼球制御としては、眼球の上下左右の動作の他にレンズ系を駆動してズーム、フォーカス、アイリスを制御するようにしても良い。この場合、少なくとも、ズーム動作状況の情報は、ズーム駆動系37dより画像解析システム37oへ入力するようにするのが良い。ステレオ計測の場合は、2台のカメラの位置と姿勢の関係は正確である必要があるので、眼球レンズ系ドライバにより駆動させたセンサ信号で、眼球のおおまかな現在位置は画像解析システム37oへ入力されて既知の情報として使えるが、より精度良く2台のカメラの対応関係、すなわち、座標変換の計算式を精度良く求めるために、画像解析システム37oは、実際線の安定な特徴点をそれまでに生成したCADデータの中より選び対応する3点あるいは8点を用いてより精度良くステレオ計測の2台のカメラの位置関係を眼球が動作するごとに求めるようにする。ズームを駆動制御する場合には、ズーム比についても精度良く校正するようにする。   The eyeball viewpoint control system 37p controls the driving of the eyeball of the stereo sensor head by the eyeball lens system driver 37d. The two cameras of the stereo sensor head 37c move together by moving the robot's neck up / down / left / right, but each camera can be moved up / down / left / right independently like a human eyeball. The camera can be turned by moving the eyeball without moving the robot's neck. At this time, the up / down / left / right rotation angles that determine the orientation of each camera are detected by a signal from an encoder of an eyeball drive motor or the like, and are input together with image information to the image analysis system 37o. As eyeball control, in addition to the up / down / left / right movement of the eyeball, the lens system may be driven to control zoom, focus, and iris. In this case, at least information on the zoom operation status is preferably input to the image analysis system 37o from the zoom drive system 37d. In the case of stereo measurement, the relationship between the position and orientation of the two cameras needs to be accurate, so the approximate current position of the eyeball is input to the image analysis system 37o by a sensor signal driven by an eyeball lens system driver. Although it can be used as known information, in order to accurately obtain the correspondence between the two cameras, that is, the calculation formula for coordinate transformation, the image analysis system 37o has obtained stable feature points of the actual line up to that point. The position relationship between the two cameras for stereo measurement is obtained more accurately each time the eyeball is operated using the corresponding 3 or 8 points selected from the CAD data generated in the above. When the zoom is driven and controlled, the zoom ratio is also calibrated with high accuracy.

また、この例は、無線通信システム37kを介しているが、搭載できるようになれば、ロボットに搭載しても良い。   Moreover, although this example is via the radio | wireless communications system 37k, as long as it becomes mountable, you may mount in a robot.

音響解析システム37nは、命令を言葉で聞いて指令を認識して、その指令に対応するロボットの行動計画を行動指令分析システム37uと行動計画システム37vが生成するが、行動計画が作れなかった場合には、指令実行可否応答を音声出力システム37qからロボットの口の位置に設けたスピーカより音声で出力する。音響解析システム37nは、言語抽出機能の他に、音を聞いて、水の流れる音とか、金属音とか、何の音かを識別する機能をもたせて、画像解析システム37oと連携しながら環境認識できるようにしても良いし、ロボットの左右の耳には、指向性マイクを取り付けて、ロボットの首の動作状況より音源の位置の方向を探索して、音源とロボットの位置関係を推定する自己位置同定機能や音源の方向へ移動するための情報を求める聴覚誘導機能をもたせても良い。また、ステレオセンサヘッド37cからの画像データは、画像解析システム37oで環境認識、自分の位置の認識を行い、それらのCADデータは、データベース37tの中に記録して、随時更新するようにする。画像処理は、音響解析処理と連携しながら動作するようにして良い。   The acoustic analysis system 37n recognizes a command by listening to a command in words, and the behavior command analysis system 37u and the behavior planning system 37v generate a robot behavior plan corresponding to the command, but the behavior plan cannot be made In response, a command execution enable / disable response is output from the voice output system 37q through a speaker provided at the position of the mouth of the robot. In addition to the language extraction function, the acoustic analysis system 37n has a function of listening to sounds and identifying water flowing sounds, metal sounds, and what sounds, and environment recognition in cooperation with the image analysis system 37o. Self-directive microphones are attached to the left and right ears of the robot and the position of the sound source is estimated by searching the direction of the sound source based on the movement of the neck of the robot. An auditory guidance function for obtaining information for moving in the direction of the position identification function or the sound source may be provided. The image data from the stereo sensor head 37c is subjected to environment recognition and recognition of its own position by the image analysis system 37o, and those CAD data are recorded in the database 37t and updated as needed. The image processing may be operated in cooperation with the acoustic analysis processing.

また、ロボットからのセンサ信号、音声解析システム37nが検出した情報、画像解析システム37oが解析した情報は、全てデータベース37tへ入力、リアルタイムで更新されるようにして、他のシステムもリアルタイムで最新の情報を参照できるようにするのが良い。   Also, the sensor signals from the robot, the information detected by the voice analysis system 37n, and the information analyzed by the image analysis system 37o are all input to the database 37t and updated in real time, so that other systems are also updated in real time. It is good to be able to refer to the information.

行動指令分析システム37uは、人間の言葉である言語指令をロボットの動作命令に対応付けて変換処理を実行する。言葉による指令は、「この箱を隣の部屋の机の隣まで持っていって。」という命令とすると、まず、「この箱」というのは、最初に命令を出すマスタ(人間)を認識している必要はあるが、音響解析システム37nと画像解析システム37oが連携しながら、マスタが「この」と言ったときにマスタの手が指し示した先にある物体(箱)を認識して、「この箱」=3次元CADデータの中の物体ID=Cと解析する。この前には、あらかじめ環境の中より箱を一つの物体として認識している必要あるが、これは、あらかじめ箱の3DCADデータを生成登録しておき、3次元の探索指令で最初に生成された環境の中からマッチング度の高い候補として探索して環境から切り分けて物体ID=Cとしておくか、マスタより「これ」と指定されたらば、その先の位置を中心にあらかじめ登録してある認識可能な物体ファイルとの参照マッチングを行い、その指示されたときに、物体ID=Cと置き換えるようにしても良い。   The behavior command analysis system 37u executes a conversion process by associating a language command, which is a human language, with an operation command of the robot. If the verbal command is to “take this box to the next room next to the desk”, first, “this box” recognizes the master (human) who issues the command first. Although the acoustic analysis system 37n and the image analysis system 37o cooperate with each other, it recognizes the object (box) that is pointed to by the master's hand when the master says “this”. This box "is analyzed as object ID = C in the three-dimensional CAD data. Before this, it is necessary to recognize the box as one object from the environment in advance, but this was generated and registered in advance for the 3D CAD data of the box and was first generated by a three-dimensional search command. Search from the environment as a candidate with a high degree of matching and isolate it from the environment and set the object ID = C, or if this is specified by the master, it can be recognized in advance centered on the position ahead It is also possible to perform reference matching with an object file and replace it with object ID = C when instructed.

次ぎに、「隣の部屋」というのは、CADデータの環境データの上で部屋の概念は認識されている必要があり、また、「隣の」という言葉も、「現在の場所の左右の並びで次にあるもの」という意味の形容詞であることを認識している必要がある。その上で、その言葉を聞けば、現在いる部屋がROOM1であるので、環境データ上、この隣にある部屋は、ROOM2しかなければ、その部屋を「隣の部屋」と認識するようにする。候補の部屋が複数ある場合には、音声出力システムを使用して、指令が特定できるまでマスタに確認するようにして良い。「机の隣」も同じようにCADデータ上の座標Gの位置であることを認識する。机もあらかじめ机のIDとして環境CADデータから分離されていれば、同じように探索して座標を特定することができる。   Next, “neighboring room” needs to recognize the concept of the room on the environmental data of CAD data, and the word “neighboring” It must be recognized that it is an adjective meaning "the next in the". Then, if you hear that word, since the room you are currently in is ROOM1, if there is only ROOM2 in the environmental data, the room next to it will be recognized as the “next room”. When there are a plurality of candidate rooms, a voice output system may be used to confirm with the master until the command can be identified. Similarly, “next to the desk” is recognized to be the position of the coordinate G on the CAD data. If the desk is previously separated from the environmental CAD data as the desk ID, the coordinates can be specified by searching in the same manner.

また、まずは、隣の部屋ROOM2まで移動した後に、机を探索して、見つけたときに環境から切り離して、机ID=DESKと登録を行ってから行うようにしても良い。隣は机の隣で、箱の置けるスペースのある床面を第1候補場所を考えて、その位置座標を設定する。このようにすれば、現在位置Pから物体ID=Cを持って、座標Gまで持っていく、というロボットで制御可能な命令に置き換えることができる。   First, after moving to the next room ROOM2, the desk may be searched, and when it is found, the desk may be separated from the environment and registered after desk ID = DESK. Next to the desk, the floor surface with a space for a box is considered as the first candidate location, and its position coordinates are set. In this way, it can be replaced with a command controllable by the robot that takes the object ID = C from the current position P to the coordinate G.

また、「持っていって。」という言葉は、ロボットの腕を動作させて対象物体を掴み、目的地まで移動して、対象物体を目的に置くという、一連の動作をすることの命令に相当するということはあらかじめ登録しておき、人間のことばからロボットの動作に直結する命令に変換可能なようにしておく必要はある。   In addition, the word “hold it” is equivalent to a command to perform a series of actions, such as moving the robot's arm to grab the target object, moving to the destination, and placing the target object at the target. To do this, it is necessary to register in advance so that it can be converted into a command directly linked to the robot's operation from the human language.

ここで、いろいろな、言葉と動作の対応付けは登録していて良いが、登録してない言葉は理解できないので、実行できませんと回答するようにしても良いし、言葉の意味をその時点で質問してロボットが学習できるようにしても良い。学習するということは、このときに、あらたな人間の言葉とロボットの動作命令を対応付けることである。学習の動作命令以外に物体の名前なども登録できるようにしても良い。形容詞は、言葉で学習させることは複雑な処理が必要になるので、できるだけ最初に定義しておくのが良い。そして、行動計画システム37vへは、ロボットが実行可能な命令(人間の言葉ではない命令)、例えば、腕を動かして座標Bにある物体(ID=C)を掴み、ロボット本体(Body)は掴んだまま座標Gへ移動し、座標Gにある机ID=DESKの隣にある床面に、物体ID=Cを置く、という命令を出力する。   Here, you can register various correspondences between words and actions, but you may answer that you cannot execute because you cannot understand unregistered words, and you can ask the meaning of the words at that time. Then, the robot may be able to learn. Learning means associating a new human language with a robot motion command at this time. In addition to the learning operation command, an object name or the like may be registered. Adjectives should be defined at the beginning as much as possible because learning with words requires complex processing. Then, to the action planning system 37v, an instruction that can be executed by the robot (an instruction that is not a human language), for example, an arm is moved to grab an object at the coordinate B (ID = C), and a robot body (Body) is grasped. Move to the coordinate G, and output a command to place the object ID = C on the floor surface next to the desk ID = DESK at the coordinate G.

行動計画システム37vは、行動指令分析システム37uから入力されるおおまかな指令をロボットの動作駆動系の構成、仕様、性能、及び現在のロボットの位置と姿勢情報と現在ロボットの居る場所の最新の環境条件のもとに、更にブレイクした行動ステップに分割して行動計画をたてる。具体的には、隣の部屋ROOMへ移動するまでの移動計画ルートを生成して、途中にドアをあればそれを開け・閉めするステップを計画し、途中に堰などがあればそれを飛び越えるステップも計画する。これらは、地図データとして3次元のCADデータを参照しながら計画するようにする。   The action planning system 37v receives a rough command input from the action command analysis system 37u, the configuration, specifications and performance of the robot motion drive system, the current robot position and posture information, and the latest environment of the current robot location. Under the conditions, the action plan is divided into further broken action steps. Specifically, create a movement plan route to move to the next room ROOM, plan a step to open / close the door if it is in the middle, and jump over it if there is a weir in the middle Also plan. These are planned with reference to three-dimensional CAD data as map data.

姿勢と力の制御計画システム37xは、行動計画システム37vから入力される各ステップ毎に、姿勢と力の制御計画をたてて、具体的な各関節角度の指令データにまでブレイクする。その場合、良く使用する基本的な動作パターン(所定の単純な基本的なロボットの動きを時系列の各関節角度指令値で記述したデータ)を複数種類用意しておき、その複数用意された各種基本動作パターンから選択して組み合わせるようにして一連の動作指令信号の最初の計画案を作成するようにしても良い。そのブレイクした指令データが実行不可能なものの場合には、その結果が行動計画システム37vへフィードバックされて、再度、行動計画をやり直す。   The posture and force control planning system 37x creates a posture and force control plan for each step input from the behavior planning system 37v, and breaks down to specific command data for each joint angle. In that case, prepare multiple types of basic motion patterns that are often used (data that describes the specified simple basic robot movements in time-series joint angle command values). A first plan of a series of operation command signals may be created by selecting from the basic operation patterns and combining them. If the broken command data is not executable, the result is fed back to the action plan system 37v and the action plan is started again.

ロボットとして実行可能(関節としては動作可能なレベルという判断)な動作指令である場合には、その結果が制御予測シミュレーション37yに入力され、現在のロボットの環境データ、ロボットの姿勢データ、ロボットの位置データ、ロボットへの外乱として作用する外力や自重やロボット動作による反力に相当する各部の力センサのデータ、ロボットの動作データ(速度や加速度で各部位ごとのデータ)は、データベース37のデータを使ってシミュレーションを行い、その結果が十分制御計画どおりである場合には、各関節角度を決定部37zで決定して各関節のサーボ制御部37fへ出力する。シミュレーションの結果が十分でない場合には、再度姿勢と力の制御計画をやり直し、場合によっては、行動計画システムからやり直してシミュレーションで計画どおりに動作できることが確認できてからロボットへ制御指令信号を出力する。   If it is an operation command that can be executed as a robot (determined that the joint is operable), the result is input to the control prediction simulation 37y, and the current robot environment data, robot posture data, robot position Data, external force acting as a disturbance to the robot, force sensor data for each part corresponding to its own weight and reaction force due to robot motion, robot motion data (data for each part in terms of speed and acceleration) When the simulation is performed and the result is sufficiently according to the control plan, each joint angle is determined by the determination unit 37z and output to the servo control unit 37f of each joint. If the simulation results are not sufficient, restart the posture and force control plan, and in some cases, start again from the action planning system and confirm that the simulation can operate as planned, and then output a control command signal to the robot. .

最初はロボットの動作を定義した基本パターンから初めて、シミュレーション結果を参照しながら、そのパターンを複数用意した中の候補パターンの中より組み替えたり、基本パターンのデータを少しづつ修正するようにするので、むやみにデータを変更しても最適な解を見つけるのに時間がかかるので、あらかじめ、シミュレーション結果が収束するような修正規則(ルール)もその動作パターンごとに用意して組み込んでおくのが良い。シミュレーションは、ダイナミックシミュレーションで、例えば、37y(1),37y(2),37y(3)のように、荷物をもって堰を飛び越えるような場合の動的安定性、制御可能性を評価するようにする。勿論、飛んでいる途中でもロボットの首や眼球を動かして、着地地点周辺の3D計測を行い、常に最新のロボットの現在位置を計測するようにして良い。   First, from the basic pattern that defines the movement of the robot, while referring to the simulation results, it is possible to rearrange the patterns from among the candidate patterns that have been prepared multiple times, or to modify the basic pattern data little by little. Since it takes time to find an optimal solution even if the data is changed unnecessarily, it is preferable to prepare and incorporate a correction rule (rule) that converges the simulation result for each operation pattern in advance. The simulation is a dynamic simulation. For example, the dynamic stability and controllability when jumping over a weir with a load like 37y (1), 37y (2), and 37y (3) are evaluated. . Of course, the robot's neck and eyeballs may be moved while flying to perform 3D measurement around the landing point and always measure the current position of the latest robot.

また、ロボットが、例えば、壁を押すような仕事をする場合には、姿勢と力の制御計画システム37xは、壁にどのような力を与えるかの計画、例えば、横軸に時間をとって、縦軸に壁への押し付け力をとって、時間とともにどのように壁に力を与えるかを、その目的に対応させて具体的に計画する。そして、制御予測シミュレーションシステム37yは、3次元CADデータでロボットと壁の位置関係や壁の物理的な特性データ(硬さに相当するばね定数とか、その壁が抑えられて裏側の構造物の剛性データ、その壁は動くようなものか否か、動く場合にはどのような特性で動くのかなどのデータもあらかじめ環境データとして記録されていれば、その情報を参照して、姿勢と力の制御計画システム37xが生成したロボットの関節角度指令に基づきロボットをシミュレーション動作させる。そして、計画した目標どおりに、時間に対する壁への押し付け力を目標どおりに与えられるかをシミュレーションで確認して、その結果に基づき、関節角度指令を十分計画どおりの力を壁に与えられない場合には、変更して再度シミュレーションを行い、より計画どおりの力を壁に与えることのできる関節角度指令信号を生成する。このときに、何かロボットに外力が発生した場合には、ロボットの力センサでロボットに作用する外力も検出されるので、その外力も作用している条件でシミュレーションすることにより、外乱に耐えて計画どおりの動作をさせるような動作指令信号を生成することができる。ここでの関節角度指令信号とは、行動計画システム37vでブレイクした各ステップの行動を実行する一連の動作軌跡指令信号である。シミュレーションする単位は、特に制御がむずかしい部分や、実行間際の動作指令に相当する部分で、より細かく区分けした所定の時間から所定の時間までの関節動作角度指令軌跡とすることでも良い。また、実行直前の動作指令のシミュレーションを高速に実施しながら、少し先の動作シミュレーションを複数同時に実行できるようにしても良い。   In addition, when the robot performs a work such as pushing a wall, the posture and force control planning system 37x takes a plan of what force is applied to the wall, for example, taking time on the horizontal axis. The pressing force to the wall is taken on the vertical axis, and how the force is applied to the wall with time is specifically planned according to the purpose. Then, the control prediction simulation system 37y uses the three-dimensional CAD data to determine the positional relationship between the robot and the wall and the physical characteristic data of the wall (the spring constant corresponding to the hardness or the rigidity of the structure on the back side by suppressing the wall. If data such as whether the wall is moving or not, and what kind of characteristics it moves, if it is recorded as environmental data in advance, refer to that information and control the posture and force Based on the joint angle command of the robot generated by the planning system 37x, the robot is simulated, and it is confirmed by simulation whether the pressing force against the wall against the time can be given according to the planned target. Based on the above, if the joint angle command cannot be applied to the wall sufficiently as planned, change and simulate again Generates a joint angle command signal that can apply more force to the wall as planned, and if any external force occurs in the robot, the external force acting on the robot is also detected by the robot's force sensor. Therefore, by simulating under the condition that the external force is also acting, it is possible to generate an operation command signal that can withstand the disturbance and operate as planned. It is a series of motion trajectory command signals that execute the actions of each step broken by the action planning system 37v.The unit to be simulated is divided into parts that are particularly difficult to control and parts that correspond to motion commands just before execution. A joint motion angle command trajectory from a predetermined time to a predetermined time may be used, or a simulation of the motion command immediately before execution may be performed. While performing the down quickly, it may be able to perform a bit operation simulation of the previous several simultaneously.

シミュレーション処理などは、無線通信を介してロボットの制御装置をロボットに搭載しないようにすれば、スーパーコンピュータなどで高速に実行させるようにすることができる。小型軽量で高速なコンピュータを用いてシミュレーションを実行するようにすれば、制御部(b),(c)をロボットに搭載するようにしても良い。どのような構成でも、このようにすれば、リアルタイムで環境の3次元CADデータを生成して、リアルタイムでその中のロボットの位置と姿勢と動きの状態も検出した上で、動的に安定な制御するための適切な制御指令を実際の環境と同じ条件でシミュレーションを行い求めることができる。ロボットが飛び跳ねて空中を飛んでいる瞬間にも、どういう姿勢で、どういう外乱を受けながら、どういう速度、加速度で飛んでいるかがセンサで検出されているので、どのように腕を振ったり、胴体をひねればどのように空中でロボットの姿勢が変わるかも、事前に、シミュレーションで確認できるので、計画どおりの姿勢で安全に着地するための最もそのときの状態に適したロボットの空中での動作指令を出力することもでき、ロボットを飛んだり跳ねたりさせるダイナミックな制御動作も安定に制御することができるようになる。また、空中でロボットの胴体や腕や足をどのように動かせば、どのようにロボットの姿勢を空中で修正できるかという基本動作パターンもあらかじめ用意しておき、その中から選択できるようにしても良い。また、ロボットが堰を飛んで跨ぎ越すような動作を行っている途中に、足を堰に引っ掛けてしまったような場合にも、堰から足には外力が作用するので、その力は足の各アクチュエータのトルク(サーボモータの電流)とか、足の構造部材に取り付けた力センサによって、その大きさと方向が検出できるようにしておくことにより、その外力もシミュレーション結果へ反映することで、補正前の制御データでは転倒してしまうことが、シミュレーション結果で事前に分かるので、それを回避する動作パターンデータの修正を実際のロボットが転倒す前に行うことも可能となる。足を引っ掛けるとか、肩をどこかにぶつけるとかといった良く起こりうる外乱要因に対しては、あらかじめそのような状況が発生した場合に、外力の傾向からどのような外乱かを早期に認識できるように、また、どのような外乱かを認識することできたらば、そこから立ち直るための基本的な制御パターンをあらかじめデータベースに登録しておき、早い時間に立ち直るための動作データの修正処理が収束できるようにしても良い。また、外乱が大きい場合には、シミュレーションを行って所定の時間内、例えば、10msec以内とかに満足できる動作指令信号が得られない場合には、その時点で最善と判断できる指令信号を出力するようにする。   The simulation processing and the like can be executed at high speed by a supercomputer or the like if the robot control device is not mounted on the robot via wireless communication. If the simulation is executed using a small, lightweight and high-speed computer, the controllers (b) and (c) may be mounted on the robot. In any configuration, in this way, three-dimensional CAD data of the environment is generated in real time, and the position, posture and movement state of the robot in the real time are detected in real time, and then dynamically stable. Appropriate control commands for control can be obtained by simulation under the same conditions as the actual environment. Even at the moment when the robot jumps and flies in the air, the sensor detects what kind of posture, what kind of disturbance, what kind of speed and acceleration is flying, so how to shake the arm, If you twist, you can check in advance how the robot's posture changes in the air by simulation, so you can give the robot's motion command in the air that is most suitable for the situation at that time to land safely in the planned posture It is also possible to output, and it is possible to stably control a dynamic control operation that causes the robot to fly or bounce. In addition, basic motion patterns are prepared in advance, such as how to move the robot's body, arms and legs in the air and how the posture of the robot can be corrected in the air. good. Also, when the robot is moving over the weir and straddling it, an external force acts on the foot from the weir, so that force is applied to the foot. By making it possible to detect the magnitude and direction of each actuator's torque (servo motor current) or the force sensor attached to the foot structural member, the external force is also reflected in the simulation results. Since it is known in advance from the simulation result that the control data is overturned, it is also possible to correct the motion pattern data to avoid it before the actual robot falls over. For disturbance factors that often occur such as catching a foot or hitting the shoulder somewhere, if such a situation occurs in advance, it is possible to recognize the disturbance from the tendency of external force at an early stage If the disturbance can be recognized, the basic control pattern to recover from it is registered in the database in advance, so that the correction process of the operation data to recover at an early time can be converged. Anyway. When the disturbance is large, if a satisfactory operation command signal cannot be obtained within a predetermined time, for example, within 10 msec by performing simulation, a command signal that can be determined to be the best at that time is output. To.

次の10msec後に出力する時間までに再度シミュレーションを行うようにする。10msecというサイクル時間は、サーボ系が安定できる2msecのサイクルに高速化できればそれに越したことはないが、目標指令値を10msecで出力するようにして、センサ入力は、2msecの高速サイクルで取り込めるようにしてロボットの状態をより正確に詳細に捉えて、より適切な動作指令信号を生成できるようにしても良い。ロボット全体の姿勢制御の他に机の上で部品を組み立てたり分解する場合にも、視覚情報処理で部品と指の3次元CADデータを生成、その位置と姿勢を探索しながら、また、指先に作用する反力を検出しながら、物体を所定の姿勢にハンドリングしたり、物体に所定の荷重を作用させるように、姿勢制御や力制御のシミュレーションを行いながら、腕と指先のロボットへの最適な制御信号を出力するようにする。   The simulation is performed again by the time output after the next 10 msec. The cycle time of 10 msec will not exceed that if the speed can be increased to a 2 msec cycle where the servo system can be stabilized, but the target command value is output at 10 msec, and the sensor input can be captured at a high speed cycle of 2 msec. Thus, a more appropriate motion command signal may be generated by capturing the state of the robot more precisely and in detail. In addition to controlling the posture of the entire robot, when assembling or disassembling parts on the desk, the 3D CAD data of the parts and fingers is generated by visual information processing, While detecting the reaction force acting on the object, handle the object to a predetermined posture, or perform a posture control or force control simulation so that a predetermined load is applied to the object. A control signal is output.

また、ロボットが走ったり、飛んだりする場合には、ロボットの手の指の動きはロボットの姿勢制御への影響が小さいので、指のシミュレーションモデルは省略したモデルでシミュレーションを行い、また、一方、机の上の物体を持って、組み立てたり、分解する場合には、腕と指のシミュレーションの部分を高速に精度良くシミュレーションを行うようにして、その状況に応じて適切なシミュレーションモデルを切り替えて使用するようにすると良い。   In addition, when the robot runs or flies, the movement of the finger of the robot's hand has a small effect on the robot's posture control. When assembling or disassembling by holding an object on the desk, the simulation part of the arm and finger is simulated at high speed and accurately, and the appropriate simulation model is switched according to the situation. It is good to do.

また、視覚情報処理装置で認識した物体を持った場合とか、指で掴んだ場合には、あらかじめ、物体IDごとにシミュレーションへ組み込む場合のシミュレーションモデルの条件を用意しておき、その物体のモデルをシミュレーションの中に組み込むようにしても良い。物体の質量、自由度構成などは、あらかじめ物体IDのデータとして用意しておき、ロボットのモデルとの結合場所の詳細な位置と結合条件(しっかり把持とか、軽く把持などの条件)は、物体を掴んだときの把持条件は視覚情報処理で認識した物体とロボットの手の位置関係より設定して、掴み方の結合条件は行動計画内容から設定するようにする。また、ロボットに作用する力の制御では、ロボットの安定性を十分確保しながら動作させるような場合には、ロボットの基本的な動きを制御する中で、ロボットの足に作用する反力を検出して、その反力が所定の計画どおりに変化するようにロボットの最適な姿勢制御をシミュレーションしながら決定するようにしても良い。   Also, if you have an object recognized by the visual information processing device or if you hold it with your finger, prepare the conditions for the simulation model when incorporating it into the simulation for each object ID in advance. You may make it incorporate in a simulation. The object mass, degree of freedom configuration, etc. are prepared in advance as object ID data, and the detailed position of the coupling location with the robot model and the coupling conditions (conditions such as firmly grasping or lightly grasping) The grasping condition when grasping is set from the positional relationship between the object recognized by the visual information processing and the hand of the robot, and the combination condition of how to grasp is set from the contents of the action plan. In the control of the force acting on the robot, when the robot is operated with sufficient stability, the reaction force acting on the robot's foot is detected while controlling the basic movement of the robot. Then, the optimal posture control of the robot may be determined while simulating so that the reaction force changes as a predetermined plan.

また、この手段は、人間型ロボットへの適用だけではなく、鳥や魚のロボット、自動車や2輪車、飛行機などの制御へ適用しても良い。自動車であれば、自動車Bodyの速度、加速度の他、車輪のシャフトやホイールの回転数や反力を検出して、現在移動している環境とその中の自動車の位置と姿勢は視覚情報処理装置で検出して、目標とする自動車の移動軌跡と、障害物への衝突を避けながら、かつ車の安定度に相当する車輪の目標反力を計画どおりになるようにシミュレーションを行いながら制御するような自動車の制御装置として適用しても良い。飛行したり、浮遊するロボットなどでも、視覚情報処理装置によって環境と環境の中のロボットの位置と姿勢条件をリアルタイムで検出して、また、反力としては、Bodyに作用する流体の抵抗や翼やプロペラ、スクリューなどに作用する力でり、それらをリアルタイムで所定の計画どおりになるようにシミュレーションしながら制御すれば、ロボット自体の強度的、パワー的な限界も考慮した、安定で、最適な制御指令を出力することの制御装置を得ることができるようになる。   This means may be applied not only to the humanoid robot but also to the control of a bird or fish robot, an automobile, a two-wheeled vehicle, an airplane, or the like. In the case of a car, in addition to the speed and acceleration of the car body, the wheel shaft and the rotation speed and reaction force of the wheel are detected, and the environment where the car is currently moving and the position and orientation of the car in the visual information processing device To detect and control the target vehicle's movement trajectory and the collision with obstacles while simulating the target reaction force of the wheel corresponding to the stability of the vehicle as planned. The present invention may be applied as a control device for a simple automobile. Even in a flying or floating robot, the visual information processing device detects the environment and the position and posture conditions of the robot in the environment in real time, and the reaction force includes the resistance of the fluid acting on the body and the wing If it is controlled by simulating the force that acts on the rotor, propeller, screw, etc. in real time as per the predetermined plan, it is stable and optimal considering the strength and power limitations of the robot itself. A control device for outputting a control command can be obtained.

また、視覚情報処理装置の中のデータベースあるいは別のデータベースでも良いが、状況を認識した結果の情報を現在の環境情報として登録しておき、現在の環境情報を参照するときに、そのデータベースが利用できるようにしても良い。例えば、別のロボットAあるいは人間Bが物体Cを持っているという状況をロボットAあるいは人間Bを認識特定し、物体Cを認識特定して、物体CがロボットAあるいは人間Bが持っているという状況をその位置関係やロボットAや人間Bの腕の部品を認識してそれと物体Cとの位置関係で持っていると認識(勿論、あらかじめ、「持っている」ということは手と物体が2箇所以上で接触していて、それらの接触位置は当該物体をそれらの点で支持した場合に安定に支えられる位置である場合というように定義されており、その状態を調べることで持っているか否かの判別ができるようにしておく。また、その定義のデータベースは認識可能な動作に対して全て用意しておくようにする。)した場合には、(1)何時(認識した時刻データ)、(2)どこで(認識したロボットAあるいは人間Bの場所)、(3)どうであったかという状況(ロボットAあるいは人間Bは物体Cを持っていた)というような内容を状況認識結果としてデータベースに登録しておけば、指令情報で、例えば、「赤い箱を持ったロボットAのそばまで行くように。」と言われた場合には、当該データベースを探索して赤い箱(物体C)を持っているロボットAのデータがあれば過去に赤い箱を持ったロボットAを何時頃にどこで認識したかという状況がわかるので、まずは、その場所周辺でロボットAを探索するように行動計画を立てるようなことも可能となる。データベースにない場合には、その指令を受けてから赤い箱を持ったロボットAを探索するように行動計画を立てるが、探索した場合には、その状況をデータベースに登録しておくことにより、次回からは今回認識したときの状況データも参照しながら、行動計画を立てることもできるようになる。   Also, the database in the visual information processing device or another database may be used, but the information obtained as a result of recognizing the situation is registered as the current environment information, and the database is used when referring to the current environment information. You may be able to do it. For example, a situation where another robot A or human B has the object C is recognized and specified for the robot A or human B, and the object C is recognized and specified, and the object C is held by the robot A or the human B. Recognize that the situation is related to the position of the robot and the parts of the arm of robot A or human B and that it has the position of object C (of course, “having” means that the hand and the object are 2 It is defined that the contact position is more than one point and the contact position is a position that is stably supported when the object is supported by those points. In addition, (1) what time (recognized time data), the database of the definition should be prepared for all recognizable operations. , (2) where (the location of the recognized robot A or human B), (3) what the situation is (the robot A or human B had the object C) in the database as the situation recognition result If registered, for example, if the command information says “Go to the robot A with a red box”, search the database and hold the red box (object C). If you have data on the robot A, you can see where and when the robot A with the red box was recognized in the past. First, make an action plan to search for the robot A around that location. It is also possible. If it is not in the database, an action plan is made to search for robot A with a red box after receiving the command, but if it is searched, the situation will be registered next time by registering the situation in the database. From now on, it will be possible to make an action plan while referring to the situation data at this time.

図138〜図148は、図137における(a)(b)(c)の主要回路部の基本的な処理フォローチャートを例示している。   FIG. 138 to FIG. 148 exemplify basic process follow charts of main circuit portions (a), (b) and (c) in FIG.

図138は、音響解析システムの基本的な処理フローチャートである。処理は、処理37(f1)aで、ロボット本体(a)の左右のマイクからの音声データを読み込む。途切れることなく連続処理する場合は、内蔵メモリに音声データを所定時間格納しながら、先に格納してある音声データについて処理を行うようにする。   FIG. 138 is a basic process flowchart of the acoustic analysis system. In the process 37 (f1) a, the audio data from the left and right microphones of the robot body (a) is read. When continuous processing is performed without interruption, processing is performed on previously stored audio data while storing the audio data in the built-in memory for a predetermined time.

次に、処理37(f1)bで、音声データに人の言葉が含まれている場合には人の言葉を音声信号のパターンマッチングなどにより抽出して単語に分解して、主語、述語にわけて、あらかじめ登録してある言葉(名詞、動詞、形容詞、副詞など)からロボットに対する命令を組み立てて、行動指令分析システムへ出力する。   Next, in process 37 (f1) b, if the speech data contains human language, the human language is extracted by speech signal pattern matching or the like and decomposed into words to be divided into the subject and predicate. Then, the robot commands are assembled from pre-registered words (nouns, verbs, adjectives, adverbs, etc.) and output to the action command analysis system.

そして、処理37(f1)cで、音声データに鳥の鳴き声とか、水の音とか、金属をたたく音とか、あらかじめ登録してある特長ある音の信号が含まれている場合には、音声信号のパターンマッチングなどにより抽出して、音の聞こえてくる方向を左右のマイクの向きとマイクの指向性特性より求めて、認識した音の種類と音のデータと聞こえる方向を現在の位置と時刻データとともにデータベースの環境データの一部として記録更新するとともに音の聞こえてくる方向とその種類を画像解析システムへ出力する。人の声も記録する。現在位置は、データベースの中の自己位置データを参照してロボット本体の位置、ロボットの頭部の位置、向きの情報を取得する。また、音の方向、種類を識別するときには、画像解析システムから送られる現在撮影している方向あるいは周囲にある物体で認識できた物体の種類とその位置情報を利用して認識精度を高めるようにする。   In the process 37 (f1) c, if the sound data includes a sound signal of a bird, a sound of water, a sound of hitting a metal, or a characteristic sound that has been registered in advance, the sound signal The pattern is extracted by pattern matching, etc., and the direction in which the sound is heard is obtained from the direction of the left and right microphones and the directivity characteristics of the microphone, and the recognized sound type and sound data and the direction in which the sound is heard are determined from the current position and time data. At the same time, it records and updates it as part of the environmental data in the database and outputs the direction and type of sound to the image analysis system. Record human voice. As for the current position, information on the position of the robot body, the position of the robot head, and the orientation is acquired by referring to the self-position data in the database. Also, when recognizing the direction and type of sound, the accuracy of recognition should be improved by using the type of object and its position information that can be recognized by the object being photographed or sent from the image analysis system. To do.

次に、処理37(f1)dで、行動計画システムから指令がある場合は、指定された音源の現在の方向と音の大きさと、過去のマイクの位置と向きで検出した同じ音源の方向と音の大きさから音源に対するロボット本体の位置を特定して、データベースの中の自己位置パラメータの音響解析システムで検出した情報として書き込み更新する。   Next, in the process 37 (f1) d, when there is a command from the action planning system, the current direction of the designated sound source and the volume of the sound, and the direction of the same sound source detected from the past microphone position and orientation, The position of the robot main body with respect to the sound source is specified from the sound volume, and is written and updated as information detected by the acoustic analysis system of the self-position parameter in the database.

そして、処理37(f1)eで、行動計画システムから指令がある場合は、指定された音源の方向へロボット本体を誘導する場合のすすむべき方向をデータベースの中の検出パラメータの中に書き込む(更新する)。これらの処理を繰り返し実行するようにする。   If there is a command from the action planning system in process 37 (f1) e, the direction to be taken when the robot body is guided in the direction of the designated sound source is written in the detection parameter in the database (update) To do). These processes are repeatedly executed.

図139および図140は、画像解析システムの基本的な処理フローチャートを示している。処理37(f2)aで、まず、ロボット本体(a)の左右のカメラ(眼球)からの画像データを読み込む。途切れることなく連続処理する場合は、内蔵メモリに画像データを所定時間格納しながら、先に格納してある画像データについて処理を行うようにする。   FIG. 139 and FIG. 140 show a basic processing flowchart of the image analysis system. In process 37 (f2) a, first, image data from the left and right cameras (eyeballs) of the robot body (a) is read. When continuous processing is performed without interruption, processing is performed on the previously stored image data while storing the image data in the built-in memory for a predetermined time.

次に、処理37(f2)bで、左右の画像データから2枚の2次元の線画CADデータを生成して、ステレオ計測による3D計測を行い3次元のCADデータを生成しながら、トラッキング処理を行い、トラッキングによる3D計測も行いながら、3次元のCADデータを更新しながら、あらかじめ登録してある各種物体のCADデータのマッチング処理によりマッチングした部分はその部分のCADデータを一つの物体の種類(物体ID)として認識して、3次元のCADデータを生成し、生成した3次元のCADデータ、2次元のCADデータ、画像データなどを生成時刻データとともにデータベースの環境データの一部として記録更新する。ロボット本体の腕や手や足、ロボットが把持している物体なども各部品ごとのCADデータをあらかじめ登録しておき、ひとつの物体IDとして認識して、その位置と姿勢情報も環境データに含めて記録更新する。また、現在位置は、データベースの中の自己位置データを参照してロボット本体の位置、ロボットの頭部位置、向きの情報を取得する。また、動作のより高速な頭部中のカメラ(眼球)の向きとズーム状態、焦点状態、アイリス状態の情報は眼球レンズ系ドライバより直接データを受け取り参照するようにする。また、画像のトラッキングが途切れて、現在位置を探索する場合には音響解析システムから送られる音源位置の方向等の情報の他、データベースに記録されている環境データ、過去の自己位置データ等の情報も利用してトラッキングが再開できるように現在位置の特定(同定)を行うようにする。   Next, in process 37 (f2) b, two two-dimensional line drawing CAD data is generated from the left and right image data, and the tracking process is performed while performing 3D measurement by stereo measurement to generate three-dimensional CAD data. While performing 3D measurement by tracking and updating 3D CAD data, the part matched by CAD data matching processing of various objects registered in advance is converted to the CAD data of that part as one object type ( 3D CAD data is generated by recognizing it as an object ID), and the generated 3D CAD data, 2D CAD data, image data, etc. are recorded and updated as part of the environmental data in the database together with the generation time data. . Register the CAD data for each part of the robot arm, hands and feet, and the object the robot is holding in advance, recognize it as a single object ID, and include its position and orientation information in the environment data. To update the record. Further, the current position is obtained by referring to the self-position data in the database and information on the position of the robot body, the head position of the robot, and the orientation. Further, information on the direction of the camera (eyeball) in the head and the zoom state, the focus state, and the iris state in the head that operates at higher speed is received directly from the eyeball lens system driver for reference. Also, when searching for the current position when image tracking is interrupted, information such as the direction of the sound source sent from the acoustic analysis system, as well as information such as environmental data recorded in the database, past self-position data, etc. The current position is specified (identified) so that tracking can be resumed by using.

次に、処理37(f2)cで、3D計測を行うときに得られるカメラの現在の位置と向き情報とカメラ(眼球)の向き情報より、頭部の位置と向きを求めて、データベースの検出パラメータの中のロボットの各関節角度情報を参照して、頭部の位置と向きからロボット本体のBodyの現在の位置と方向と姿勢を求めて、データベースの中の自己位置データの一部の情報として、ロボット本体のBodyの現在の位置と方向と姿勢情報を記録更新する。ロボット本体の腕や手や足や持っているものを物体IDとして既に3次元のCADデータとして認識されている場合には、現在のその位置と姿勢情報も参照してロボット本体のBodyの現在の位置と方向と姿勢情報をより精度良くなるように補正するようにする。   Next, in process 37 (f2) c, the position and orientation of the head are obtained from the current position and orientation information of the camera obtained when performing 3D measurement and the orientation information of the camera (eyeball), and the database is detected. Referring to each joint angle information of the robot in the parameter, the current position, direction and orientation of the body of the robot body are obtained from the position and orientation of the head, and a part of the information of the self-position data in the database As described above, the current position, direction, and posture information of the body of the robot body are recorded and updated. If the robot body's arm, hand, foot, or what it has is already recognized as 3D CAD data as an object ID, refer to the current position and orientation information of the robot body's current body. The position, the direction, and the posture information are corrected so as to be more accurate.

次に、処理37(f3)aで、画像データに文字が含まれている場合には、文字のパターンマッチングなどにより抽出して単語に分解して、主語、述語にわけて、あらかじめ登録してある言葉(名詞、動詞、形容詞、副詞など)を文字の表示ある物体の種類(物体ID)とともに音響解析システムへ出力する。   Next, in process 37 (f3) a, if the image data contains characters, they are extracted by character pattern matching etc. and broken down into words, which are then divided into subject and predicate and registered in advance. Certain words (nouns, verbs, adjectives, adverbs, etc.) are output to the acoustic analysis system together with the type of object (object ID) for which characters are displayed.

次に、処理37(f3)bで、行動計画システムから指令(視覚誘導の指令)がある場合は、指定されたロボット本体の部品(頭部のカメラ(眼球)の向き等も含む)の物体IDあるいはロボット本体が把持あるいは腕あるいは足あるいはBodyで保持している物体IDを、指定された方向あるいは指定された目標移動軌跡に沿って移動させる場合、その物体の誘導すべき方向、距離などの情報をデータベースの検出パラメータの中に書き込む(更新する)。誘導すべき情報は、ロボット本体の各部の部品の動作制御すべき、方向、大きさの情報にして書き込むようにしても良い。   Next, if there is a command (visual guidance command) from the action planning system in process 37 (f3) b, the object of the specified robot body part (including the direction of the head camera (eyeball), etc.) When moving the ID or the object ID held by the robot body with the arm, leg or body along the specified direction or the specified target movement trajectory, the direction, distance, etc. to which the object should be guided Write (update) information into the detection parameters of the database. The information to be guided may be written as direction and size information for which the operation of each part of the robot body should be controlled.

次に、処理37(f3)cで、行動計画システムからの視覚誘導の指令を実行するために、あるいは、行動計画システムから環境CADデータの生成方向の指定がありその指令を実行するために必要な頭部の位置と向きを、頭部のカメラの現在の位置と向きと、CADデータを生成したい位置と方向から求めて、データベースの検出パラメータの中に書き込む(更新する)。必要な頭部の位置と向きの情報はロボット本体の各部の部品の動作制御すべき、方向、大きさの情報にして書き込むようにしても良い。   Next, in process 37 (f3) c, it is necessary to execute a visual guidance command from the action planning system, or to specify the generation direction of environmental CAD data from the action planning system. The position and orientation of the correct head is obtained from the current position and orientation of the head camera and the position and orientation in which CAD data is to be generated, and written (updated) in the detection parameters of the database. Necessary head position and orientation information may be written as direction and size information that should be used to control the operation of each part of the robot body.

次に、処理37(f3)dで、行動計画システムからの視覚誘導の指令を実行するために、あるいは、行動計画システムから環境CADデータの生成方向の指定がありその指令を実行するために必要なカメラ(眼球)の向きを、カメラの現在の位置と向きと、CADデータを生成したい位置と方向から求めて、眼球視点制御システムへ動作指令信号を出力する。また、対象物体の色境界線分をより抽出し易くするためのカメラのズーム状態、焦点状態、アイリス状態を色境界線分の抽出状況より求めて、眼球視点制御システムへ動作指令信号として出力する。このような処理を繰り返し実行するように処理する。   Next, in process 37 (f3) d, it is necessary to execute a visual guidance command from the action planning system, or to specify the generation direction of environmental CAD data from the action planning system and execute the command. The direction of the correct camera (eyeball) is obtained from the current position and orientation of the camera and the position and direction in which CAD data is to be generated, and an operation command signal is output to the eyeball viewpoint control system. Also, the camera zoom state, focus state, and iris state for making it easier to extract the color boundary line segment of the target object are obtained from the color boundary line segment extraction state, and output as an operation command signal to the eyeball viewpoint control system. . Processing is performed so that such processing is repeatedly executed.

図141は、眼球視点制御システムの基本的な処理フローチャートを示している。まず、処理37(f4)aで、画像解析システムから指令がある場合は、その指令に基づきカメラ(眼球)の方向、ズーム状態、焦点状態、アイリス状態の動作指令信号を眼球レンズ系ドライバへ出力する。眼球レンズ系ドライバは、ロボットの左右のカメラの向きとレンズ系を指令信号に基づき駆動制御して、カメラの向きとレンズ系の現在位置状態をカメラのセンサ情報として取り込みフィードバック制御を行うとともに、画像解析システムへ直接現在の状態として出力する。   FIG. 141 shows a basic processing flowchart of the eyeball viewpoint control system. First, if there is a command from the image analysis system in the process 37 (f4) a, based on the command, operation command signals for the camera (eyeball) direction, zoom state, focus state, and iris state are output to the eyeball lens system driver. To do. The eye lens system driver controls the direction of the left and right cameras and the lens system of the robot based on the command signal, takes the camera direction and the current position of the lens system as camera sensor information, performs feedback control, and performs image control. Outputs the current state directly to the analysis system.

次に、判別処理37(f4)bで、画像解析システムからカメラ(眼球)の向き、或いはカメラのズーム制御の指令があるかどうか判別して、Yesの場合には処理37(f4)aへ戻り,繰り返し実行するようにする。Noの場合は,処理37(f4)cへ進む。   Next, in the discrimination process 37 (f4) b, it is discriminated whether or not there is a camera (eyeball) direction or a camera zoom control command from the image analysis system. Return and try again. In No, it progresses to process 37 (f4) c.

処理37(f4)cで、行動計画システムから指令がある場合は、その指令に基づきカメラ(眼球)の方向、カメラのズーム制御の指令を眼球レンズ系ドライバへ出力する。   If there is a command from the action planning system in process 37 (f4) c, the direction of the camera (eyeball) and the zoom control command of the camera are output to the eyeball system driver based on the command.

処理37(f4)dで、行動計画システムから指令に基づき眼球レンズ系ドライバへ出力した情報を画像解析システムへ出力する。画像解析システムは、この情報をデータベースの検出パラメータへ記録更新ずるようにする。このようにして繰り返し処理するようにする。   In process 37 (f4) d, the information output from the action planning system to the eyeball system driver based on the command is output to the image analysis system. The image analysis system records and updates this information in the detection parameters of the database. In this way, repeated processing is performed.

図142は、音声出力システムの基本的な処理フローチャートを示している。処理は、処理37(f5)aで、行動計画システムから指令がある場合は、指令に付属するあらかじめ登録してある言葉(名詞、動詞、形容詞、副詞など)で構成されている文章を受け取り、ロボットのスピーカへその言葉に対応する音声データとして出力する。行動計画システムからの言葉は、指令された命令は実行できない旨とその理由や行動計画を実行するために周囲に協力を得る必要がある場合の呼びかけなどを出力するようにする。言葉に対応する音声データの種類は、音響解析システムで有している言葉の種類と基本的には同じとする。   FIG. 142 shows a basic processing flowchart of the audio output system. In the process 37 (f5) a, when there is a command from the action planning system, a sentence composed of pre-registered words (nouns, verbs, adjectives, adverbs, etc.) attached to the command is received, Output to the speaker of the robot as voice data corresponding to the word. The words from the action plan system output that the commanded command cannot be executed, the reason, and a call when it is necessary to obtain cooperation from the surroundings in order to execute the action plan. The type of speech data corresponding to the words is basically the same as the type of words possessed by the acoustic analysis system.

そして、処理37(f5)bで、自己診断システムから指令がある場合は、自己診断システムから出力された異常の内容に対応する音声データをロボットのスピーカへ出力する。これらの処理を繰り返し実行する処理機能とする。   If there is a command from the self-diagnosis system in process 37 (f5) b, the voice data corresponding to the content of the abnormality output from the self-diagnosis system is output to the robot speaker. The processing function is to repeatedly execute these processes.

図143は、自己診断システムの基本的な処理フローチャートを示している。処理は、処理37(f6)aで、ロボットの各部の自己診断用センサ(各アクチュエータおよびそのドライバの温度センサ、電流センサなど)の情報を取り込む。   FIG. 143 shows a basic process flowchart of the self-diagnosis system. In the process 37 (f6) a, information of the self-diagnosis sensors (temperature sensors, current sensors, etc. of the actuators and their drivers) of each part of the robot is captured.

処理37(f6)bで、ロボットの各部の自己診断用センサ(温度センサ、電流センサなど)からの検出信号より、各部の正常、異常を閾値以上か、閾値以下かから判別する。異常と判別する条件は、あらかじめ閾値を設定しておくようにする。   In process 37 (f6) b, the normality / abnormality of each part is determined from the threshold value or below the threshold value based on the detection signal from the self-diagnosis sensor (temperature sensor, current sensor, etc.) of each part of the robot. A threshold value is set in advance as a condition for determining an abnormality.

次に、処理37(f6)cで、判別の結果、行動計画システムへ知らせるべき重要な異常が発生した場合には、行動計画システムへその結果を出力する。行動計画システムへ知らせるべき重要な異常の種類とそのレベルは、あらかじめ設定しておくようにする。   Next, in process 37 (f6) c, if an important abnormality to be notified to the action planning system has occurred as a result of the determination, the result is output to the action planning system. The types and levels of important abnormalities to be notified to the action planning system should be set in advance.

次に、処理37(f6)dで、判別の結果、音声で周囲へ知らせるべき重要な異常が発生した場合には、音声出力システムへその結果を出力する。周囲へ知らせるべき重要な異常の種類とそのレベルは、あらかじめ設定しておくようにする。   Next, in process 37 (f6) d, if an important abnormality that should be notified to the surroundings by voice occurs as a result of the determination, the result is output to the voice output system. The types and levels of important abnormalities to be notified to the surroundings should be set in advance.

次に、処理37(f6)eで、行動計画システムから指令がある場合は、その指令に基づき指定箇所の診断をより詳しく正確に行い、行動計画システムへその結果を出力する。これらの処理を繰り返し実行するようにする。   Next, when there is a command from the action planning system in process 37 (f6) e, the specified location is diagnosed in more detail and accurately based on the command, and the result is output to the behavior planning system. These processes are repeatedly executed.

図144は、行動指令分析システムの基本的な処理フローチャートを示している。処理は、処理37(f7)aで音声解析システムから入力される人間の言葉による指令情報を言葉(名詞、動詞、形容詞、副詞など)で構成されている主語、述語として読み込む。   FIG. 144 shows a basic process flowchart of the action command analysis system. In the process, command information in human language input from the speech analysis system in process 37 (f7) a is read as a subject or predicate composed of words (nouns, verbs, adjectives, adverbs, etc.).

次に、処理37(f7)bで、名詞はあらかじめ登録してある物体IDに置き換え、動詞と形容詞と副詞などもあらかじめ登録してある言葉IDに置き換え、人の言葉からロボットがあらかじめ登録されている認識可能な対応するIDに変換する。   Next, in process 37 (f7) b, the noun is replaced with the pre-registered object ID, the verb, the adjective, the adverb are also replaced with the pre-registered word ID, and the robot is pre-registered from human words. Convert to a recognizable corresponding ID.

次に、処理37(f7)cで、主語と述語から、あらかじめ登録してある命令パターン(例えば、例(1)物体IDを持てとか、例(2)物体IDを副詞ID(ゆっくりとか早くに相当するID)で、副詞ID(場所を表す物体IDの上へ、あるいは下)へ、動詞ID(移動)せよとか、例(3)物体ID(右手)を副詞ID(上、あるいは下)へ、動詞ID(上げよ)など)に対応させて、ロボットが実行可能な命令に置き換え、行動計画システムへ出力する。登録パターンに当てはまらない指令情報の場合は、「命令が理解できません。別の言葉で指令してください。」と行動計画システム経由で音声出力システムへ出力するようにする。これらの処理を繰り返し実行するようにする。   Next, in process 37 (f7) c, from the subject and the predicate, a pre-registered command pattern (for example, (1) have an object ID, or (2) change the object ID to an adverb ID (slowly and quickly) Equivalent ID), Adverb ID (above or below the object ID representing the location), Verb ID (move), Example (3) Object ID (right hand) to Adverb ID (up or down) In response to the verb ID (raise), it is replaced with a command executable by the robot and output to the action planning system. In the case of command information that does not apply to the registration pattern, output to the voice output system via the action planning system, “You cannot understand the command. Please command in another language.” These processes are repeatedly executed.

図145は、行動計画システムの基本的な処理フローチャートを示している。処理は、処理37(f8)aで、行動指令分析システムから、あらかじめ登録してある命令パターン(例えば、例としては、(1)物体IDを持てとか、例(2)物体IDを副詞ID(ゆっくりとか早くに相当するID)で、副詞ID(場所を表す物体IDの上へ、あるいは下)へ、動詞ID(移動)せよとか、例(3)物体ID(右手)を副詞ID(上、あるいは下)へ、動詞ID(上げよ)など)に基づく指令情報を読み込む。   FIG. 145 shows a basic process flowchart of the action planning system. In the process 37 (f8) a, the command pattern registered in advance from the action command analysis system (for example, (1) have an object ID, for example, (2) the object ID is an adverb ID ( Slowly or early ID), adverb ID (above or below the object ID representing the location), verb ID (move), example (3) object ID (right hand) adverb ID (up, Or, the command information based on the verb ID (raise, etc.) is read in below).

次に、処理37(f8)bで、名詞はあらかじめ登録してある物体IDに置き換え、動詞と形容詞と副詞などもあらかじめ登録してある言葉IDに置き換え、人の言葉からロボットがあらかじめ登録されている認識可能な対応するIDに変換する。   Next, in process 37 (f8) b, the noun is replaced with the pre-registered object ID, the verb, the adjective, the adverb are also replaced with the pre-registered word ID, and the robot is pre-registered from human words. Convert to a recognizable corresponding ID.

次に、処理37(f8)cで、指令情報を実行するためにあらかじめ用意しておくルールに基づき移動速度(速く、ゆっくりは実際の移動速度へ)、移動量、移動座標、移動ルートなどを具体化する。具体化するに当たっては、データベースの中の環境データ、自己位置データで現在ロボットのいる場所の環境やロボットの姿勢や動作状態などを参照してルールに従った適切な数値で具体化する。   Next, in process 37 (f8) c, based on the rules prepared in advance for executing the command information, the moving speed (fast, slowly to the actual moving speed), moving amount, moving coordinates, moving route, etc. Make it concrete. In actualization, the environment data and self-position data in the database are used to refer to the environment where the robot is currently located, the posture and motion state of the robot, and the like, and to realize it with appropriate numerical values according to the rules.

次に、処理37(f8)dで、具体化された指令情報をあらかじめ用意されているロボットの最小動作単位(行動ステップ)に分割して、行動ステップごとの動作条件を具体的に設定して、1ステップづつその指令を順番に姿勢&力制御計画へ出力する。姿勢&力制御計画からNG信号がある場合は、当該計画の見直しを行い再出力する。行動ステップの例は、右手で物体IDを強さAでつかむ、左手で物体IDを強さAでつかむ、つかみながら腕をAからBへ速度Cで動かす、ロボットの向きをAからBへ速度Cで変える、座標AからBまで速度Cで移動する、物体を持ちながら座標AからBまで速度Cで移動する、物体Aの上に速度Bで右足を移動して乗せる、階段ID=Aの位置Bから位置Cまで速度Dで上る、ロボットの姿勢をAからBへ速度Cで変える、物体Aを速度Bでまたぎ座標Cへ姿勢Dで移動する、壁Aを力Bで押す、等などである。また、具体化するに当たっては、データベースの中の環境データ、自己位置データで現在ロボットのいる場所の環境やロボットの姿勢や動作状態などを参照してルールに従った適切な数値で具体化する。   Next, in process 37 (f8) d, the specified command information is divided into the minimum robot operation units (action steps) prepared in advance, and the operation conditions for each action step are specifically set. The instructions are output step by step to the posture & force control plan. If there is an NG signal from the posture & force control plan, review the plan and re-output. Examples of action steps are grabbing the object ID with strength A with the right hand, grabbing the object ID with strength A with the left hand, moving the arm from A to B at a speed C while grabbing, and moving the robot from A to B. Change at C, move from coordinate A to B at speed C, move from coordinate A to B while holding the object, move right foot on object A with speed B, staircase ID = A Move from position B to position C at speed D, change robot posture from A to B at speed C, move object A across speed B to position C, push wall A with force B, etc. It is. Further, in concretely, the environment data in the database and the self-location data are used to refer to the environment where the robot is currently located, the posture and motion state of the robot, etc., and materialize according to the rules.

次に、処理37(f8)eで、指令情報が実行できなくなった場合や行動計画を実行するために周囲に協力を得る必要がある場合は、発生する言葉による文章を生成して音声出力システムへ出力する。音響解析システム、画像解析システム、眼球視点制御システムへ計画を実行するために必要な要求がある場合は、その指令信号を出力する。これらの処理を繰り返し実行するようにする。   Next, in the process 37 (f8) e, when the command information cannot be executed or when it is necessary to obtain cooperation in order to execute the action plan, the voice output system generates a sentence by the generated words. Output to. When there is a request necessary for executing the plan to the acoustic analysis system, the image analysis system, and the eyeball viewpoint control system, the command signal is output. These processes are repeatedly executed.

図146は、姿勢&力制御計画の基本的な処理フローチャートを示している。処理は、処理37(f9)aで行動計画システムから、ロボットの最小動作単位である行動ステップを具体的な速度、移動量などの動作条件とともに読み込む。行動ステップの例は、右手で物体IDを強さAでつかむ、左手で物体IDを強さAでつかむ、つかみながら腕をAからBへ速度Cで動かす、ロボットの向きをAからBへ速度Cで変える、座標AからBまで速度Cで移動する、物体を持ちながら座標AからBまで速度Cで移動する、物体Aの上に速度Bで右足を移動して乗せる、階段ID=Aの位置Bから位置Cまで速度Dで上る、ロボットの姿勢をAからBへ速度Cで変える、物体Aを速度Bでまたぎ座標Cへ姿勢Dで移動する、壁Aを力Bで押す、等などである。   FIG. 146 shows a basic processing flowchart of the posture & force control plan. In the process 37 (f9) a, the action step, which is the minimum operation unit of the robot, is read from the action planning system together with specific operation conditions such as speed and movement amount. Examples of action steps are grabbing the object ID with strength A with the right hand, grabbing the object ID with strength A with the left hand, moving the arm from A to B at a speed C while grabbing, and moving the robot from A to B. Change at C, move from coordinate A to B at speed C, move from coordinate A to B while holding the object, move right foot on object A with speed B, staircase ID = A Move from position B to position C at speed D, change robot posture from A to B at speed C, move object A across speed B to position C, push wall A with force B, etc. It is.

次に、処理37(f9)bで、データベースの中の環境データ、自己位置データの現在ロボットのいる場所の環境やロボットの姿勢や動作状態などを参照して、現在のロボットの姿勢から行動ステップを実行するための、ロボットの各関節の動作指令パターン(各関節の時系列の角度指令値(θri(t)t=0〜n)を生成する。制御予測シミュレーションからNG信号がある場合は、当該動作指令パターンの見直しを行い再出力する。行動計画システムからの指令内容が変わらない場合もデータベースの中の環境データ、自己位置データの現在ロボットのいる場所の環境やロボットの姿勢や動作状態などは逐次更新されるので、常に現在の位置からの最新の各関節の動作指令パターンを生成して出力する。動作指令パターンを生成する場合、あらかじめルールを登録しておき、そのルール(初期の生成ルールから制御結果のデータベースの更新結果を参照して改良するルールを含む)に従って生成する。歩く動作やまたぐ動作や階段を昇降する基本動作パターンが歩幅や階段のステップ仕様をパラメータにデータや生成プログラムが用意されている場合は、それを使用して初期の位置、姿勢と終了時の位置、姿勢が繋がるように補正して動作指令パターンを生成する。手先や足先に現在位置から目標位置まで途中の経由ポイントを指定して動作パターンを生成するのは、一般産業用ロボットのティーチング処理から動作指令信号を生成するプログラムを用意しておき、それを使用して動作指令パターンを生成する。また、力(反力)を所定の値に制御するための動作指令パターンを生成する場合には、データベースのロボットで押す相手の物体の固さや弾性特性を参照しながら、ロボットの接触ポイントの反力が生じる接触ポイントの押す物体のない場合の移動量を動作させるための動作指令パターンを生成する。また、NG見直しを行う場合は、フィードバックされる参照データも参照してあらかじめ用意された所定のルールに従って見直すようにする。   Next, in step 37 (f9) b, the action step is determined from the current robot posture by referring to the environment data in the database, the environment of the location where the current robot is located, the posture of the robot, the operation state, etc. To generate an operation command pattern of each joint of the robot (time-series angle command values (θri (t) t = 0 to n) of each joint. When there is an NG signal from the control prediction simulation, Review the motion command pattern and re-output.Even if the command content from the action planning system does not change, the environment data in the database, self-position data, the environment where the robot is currently located, the posture and motion state of the robot, etc. Is updated sequentially so that the latest motion command pattern of each joint from the current position is always generated and output. A rule is registered in advance, and is generated according to the rule (including a rule that is improved by referring to the update result of the control result database from the initial generation rule). However, if data or a generation program is prepared with the step specifications of the stride or staircase as parameters, the operation command pattern is corrected by using it to correct the initial position / posture and the end position / posture. To generate an action pattern by specifying a waypoint from the current position to the target position on the hand or toe, prepare a program that generates an action command signal from the teaching process of a general industrial robot. The motion command pattern is generated by using the motion command pattern for controlling the force (reaction force) to a predetermined value. In order to achieve this, an action to operate the amount of movement of the contact point when there is no pressed object that causes reaction force of the contact point of the robot while referring to the hardness and elastic characteristics of the object pressed by the robot in the database A command pattern is generated, and when NG is reviewed, it is reviewed according to a predetermined rule prepared in advance with reference to reference data to be fed back.

次に、処理37(f9)cで、行動ステップが実行できなくなった場合は、その理由情報とともに行動計画システムへNG信号とともに出力する。これらの処理を繰り返し実行するようにする。   Next, if the action step cannot be executed in process 37 (f9) c, the action step is output together with the reason information to the action planning system together with the NG signal. These processes are repeatedly executed.

図147は、制御予測シミュレーションの基本的な処理フローチャートを示している。処理は、処理37(f10)aで、データベースの自己位置データよりロボットの現在位置、姿勢、その他の条件を読み込みシミュレーションモデルの初期条件を設定する。   FIG. 147 shows a basic process flowchart of the control prediction simulation. In the process 37 (f10) a, the current position, posture, and other conditions of the robot are read from the self-position data in the database and initial conditions of the simulation model are set.

次に、処理37(f10)bでデータベースの環境データより3次元のCADデータを読み込みシミュレーションモデルに環境条件を設定する。   Next, in process 37 (f10) b, three-dimensional CAD data is read from the environmental data in the database, and environmental conditions are set in the simulation model.

次に、処理37(f10)cで、姿勢&力制御計画より、ロボットの各関節の動作指令パターン(各関節の時系列の角度指令値(θri(t)t=0〜n)を読む込む。ロボットの状況、環境の状況に応じて変更ある場合があるので、毎回最新の動作指令パターンを読み込むようにする。   Next, in process 37 (f10) c, the motion command pattern of each joint of the robot (time series angle command value (θri (t) t = 0 to n) of each joint) is read from the posture & force control plan. Since there may be changes depending on the situation of the robot and the environment, the latest operation command pattern is read every time.

次に、処理37(f10)dで、ロボットの各関節の動作指令パターンの各関節の時系列の角度指令値θri(t)t=0とシミュレーションモデルの初期姿勢が合っていることを確認し、許容範囲内の場合は、シミュレーションモデルの初期条件を合わせる。許容できない場合は、姿勢&力制御計画へNG信号と初期姿勢不一致のエラーコードとともに返信する。   Next, in process 37 (f10) d, it is confirmed that the time series angle command value θri (t) t = 0 of each joint in the motion command pattern of each joint of the robot matches the initial posture of the simulation model. If it is within the allowable range, the initial conditions of the simulation model are matched. If it is not acceptable, it returns to the posture & force control plan together with an NG signal and an error code indicating an initial posture mismatch.

次に、処理37(f10)eで、ロボットのシミュレーションモデルへロボットの各関節の動作指令パターンとして各関節の時系列の角度指令値(θri(t)t=0〜n)を入力して、ダイナミックなシミュレーションを実行する。シミュレーション結果は、途中のロボットの各部品の動作軌跡を記録してシミュレーション評価時に参照できるようにする。行動ステップが長いため、途中で当面のシミュレーションの評価(ダイナミックな安定性や安全性)が十分可能な動作シミュレーションが行われる場合には、t=0〜nの最後まで行わないで中断して良い。   Next, in process 37 (f10) e, the time series angle command values (θri (t) t = 0 to n) of the respective joints are input to the robot simulation model as the motion command patterns of the respective joints of the robot. Run a dynamic simulation. The simulation result is recorded in the motion trajectory of each part of the robot on the way so that it can be referred to during simulation evaluation. Since the action step is long, if an operation simulation that can sufficiently evaluate the simulation (dynamic stability and safety) is performed on the way, it may be interrupted without performing t = 0 to the end of n. .

次に、処理37(f10)fで、シミュレーション結果を評価(ダイナミックな安定性や安全性や目的の達成度を評価)して、行動ステップの目的を所定のレベル以上で達成できない場合は、姿勢&力制御計画へNG信号と補足情報を返信する。評価結果がOKの場合は、各関節角度θriの決定回路へOKを出力する。これらの処理を繰り返し実行するようにする。   Next, in process 37 (f10) f, the simulation result is evaluated (dynamic stability, safety, and the degree of achievement of the objective are evaluated), and the action step objective cannot be achieved at a predetermined level or higher. & Returns NG signal and supplementary information to force control plan. If the evaluation result is OK, OK is output to the determination circuit for each joint angle θri. These processes are repeatedly executed.

図148は、各間接角度の決定の基本的な処理フローチャートを示している。処理は、処理37(f11)aで、制御予測シミュレーションから評価結果OKの指令がある場合には、ロボットの各関節の動作指令パターン(各関節の時系列の角度指令値(θri(t)t=0〜n)の各関節の次の角度指令値θri(t)のt=1のデータを読み込み、各関節軸のサーボ制御の回路へ出力する。各関節軸のサーボ制御の回路は、各角度指令値に基づきモータを駆動制御する。モータからはエンコーダなどのモータの現在位置情報を入力してフィードバック制御に利用するとともにデータベースの検出パラメータに各関節の現在角度情報、動作速度情報などを記録更新する。この処理を繰り返し実行するようにする。   FIG. 148 shows a basic processing flowchart for determining each indirect angle. In the process 37 (f11) a, when there is a command of the evaluation result OK from the control prediction simulation, the motion command pattern of each joint of the robot (the time command angle command value (θri (t) t of each joint) = 0 to n) The data of t = 1 of the next angle command value θri (t) of each joint is read and output to the servo control circuit for each joint axis. The motor is driven and controlled based on the angle command value, and the current position information of the motor, such as an encoder, is input from the motor and used for feedback control. Update this process so that it is repeated.

以上に述べてきた基本的な処理フローで、実際に人の命令に従って自律的に作業を実施できるロボットが実現可能となる。これはあくまでも一例を示しているので、各機能ブロックを実現するブロックの分担の仕方や機能の詳細な内容は、いろいろなバリエーションが考えられるので、目的とするロボットの機能、性能に応じて最も合理的な構成とすれば良い。また、この例は人間型のロボットを例にしているが、馬や牛、自動車や飛行機や、番犬などにも人の言葉での命令を理解できるようにして作業を自立的に実行できるようにしても良い。このようにして実現するロボットと人や動物との違いは、人や動物は作業中に自分自身に異常が生じた場合には、自己の安全を確保するために行動するようになるが、ロボットの場合は、ロボットが故障しても修理できるので、自己保護の優先順番を低く設定することでプログラムで、命令の実行を、あるいは周囲に対する安全確保を最優先にして、行動計画を実行させることができるようになる。   With the basic processing flow described above, it is possible to realize a robot that can actually perform work autonomously according to a human command. This is just an example, so there are various variations in the way of sharing the blocks and the detailed contents of the functions that realize each functional block, so the most reasonable depending on the function and performance of the target robot A simple configuration may be used. In addition, this example uses a humanoid robot as an example, but it enables horses, cows, cars, airplanes, guard dogs, etc., to understand instructions in human language so that work can be performed autonomously. May be. The difference between robots and humans and animals realized in this way is that humans and animals will act to ensure their own safety if an abnormality occurs during their work. In the case of, the robot can be repaired even if it breaks down, so by setting the priority order of self-protection low, the program will execute the action plan with the highest priority on executing instructions or ensuring safety for the surroundings. Will be able to.

以上のように、本発明によれば、アズビルト3D−CADデータをリアルタイムで自動生成可能とし、また、CADデータの探索機能と組み合わせて、ロボット等の各種自動機械の視覚誘導制御装置として、また、ナビゲーションシステム、移動検査装置、監視サービスシステムなどとして適用可能な視覚情報処理装置及びその応用システムを得ることができる。   As described above, according to the present invention, as-built 3D-CAD data can be automatically generated in real time, and in combination with a CAD data search function, as a visual guidance control device for various automatic machines such as robots, A visual information processing device applicable to a navigation system, a mobile inspection device, a monitoring service system, and the like, and an application system thereof can be obtained.

本発明の視覚情報処理装置における基本構成を示すブロック図である。It is a block diagram which shows the basic composition in the visual information processing apparatus of this invention. 本発明の視覚情報処理装置における別の基本構成を示すブロック図である。It is a block diagram which shows another basic composition in the visual information processing apparatus of this invention. 本発明を実現する画像情報処理装置の処理の基本的な流れを示すフローチャートである。It is a flowchart which shows the basic flow of a process of the image information processing apparatus which implement | achieves this invention. 図3に示した処理(1)の内容を例示する図面である。It is drawing which illustrates the content of the process (1) shown in FIG. 図3に示した処理(2)の内容を例示する図面である。It is drawing which illustrates the content of the process (2) shown in FIG. 図3に示した処理(3)の内容を例示する図面である。It is drawing which illustrates the content of the process (3) shown in FIG. 図3に示した処理(4)の内容を例示する図面である。It is drawing which illustrates the content of the process (4) shown in FIG. 図3に示した処理(5)の内容を例示する図面である。It is drawing which illustrates the content of the process (5) shown in FIG. CADデータとして生成される浮遊線分の活用の概念を示す図である。It is a figure which shows the concept of utilization of the floating line segment produced | generated as CAD data. 円筒や球体のCADデータとして生成される浮遊線分の活用の概念を示す図である。It is a figure which shows the concept of utilization of the floating line segment produced | generated as CAD data of a cylinder or a sphere. 特殊曲面のCADデータとしての定義の一例を示す図である。It is a figure which shows an example of the definition as CAD data of a special curved surface. 本発明のCADデータを更新する場合の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment in the case of updating CAD data of this invention. 本発明の第2の手段の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment of the 2nd means of this invention. 本発明の色情報を用いて輪郭を抽出する概念図である。It is a conceptual diagram which extracts an outline using the color information of this invention. 本発明の第10の手段の実施の形態を示すブロック図である。It is a block diagram which shows embodiment of the 10th means of this invention. 本発明の第10の手段の他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the 10th means of this invention. 本発明の第10の手段の更に他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the 10th means of this invention. 本発明の第10の手段の更に他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the 10th means of this invention. 本発明の第10の手段〜第11の手段をロボット制御専用の視覚情報処理装置として実施する場合の視覚情報処理装置の処理の実施の形態を示すフローチャートである。It is a flowchart which shows embodiment of a process of the visual information processing apparatus in the case of implementing the 10th means-the 11th means of this invention as a visual information processing apparatus only for robot control. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第12の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 12th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態である視覚情報処理装置のブロック図である。It is a block diagram of the visual information processing apparatus which is embodiment of the 11th means of this invention. 本発明の第11の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 11th means of this invention. 本発明の第11の手段の他の実施の形態を説明する概念図である。It is a conceptual diagram explaining other embodiment of the 11th means of this invention. 本発明の第1の手段〜第3の手段および第10の手段、第11の手段の実施の形態である視覚情報処理装置のブロック図である。It is a block diagram of the visual information processing apparatus which is embodiment of the 1st means-3rd means of this invention, 10th means, and 11th means. 図31に示した実施の形態における視覚誘導チップが実行するメイン処理のフローチャートである。It is a flowchart of the main process which the visual guidance chip | tip in embodiment shown in FIG. 31 performs. 図31に示した実施の形態における視覚誘導チップが実行するメイン処理のフローチャートである。It is a flowchart of the main process which the visual guidance chip | tip in embodiment shown in FIG. 31 performs. 図33に示した処理(2)における3D座標計算,CADデータ生成処理の詳細なフローチャートである。It is a detailed flowchart of 3D coordinate calculation and CAD data generation processing in the process (2) shown in FIG. 図34に示した処理(4)と処理(9)の3D−CAD生成処理における追加生成処理の詳細なフローチャートである。FIG. 35 is a detailed flowchart of additional generation processing in 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 34. FIG. 図34に示した処理(4)と処理(9)の3D−CAD生成処理における点データ更新処理の詳細なフローチャートである。It is a detailed flowchart of the point data update process in the 3D-CAD generation process of the process (4) and the process (9) shown in FIG. 図34に示した処理(4)と処理(9)の3D−CAD生成処理における線分データの更新および追加処理の詳細なフローチャートである。FIG. 35 is a detailed flowchart of line segment data update and addition processing in the 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 34. FIG. 図34に示した処理(4)と処理(9)の3D−CAD生成処理における面データの更新および追加処理の詳細なフローチャートである。FIG. 35 is a detailed flowchart of surface data update and addition processing in 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 34. FIG. 図35〜図38に示した3D−CADデータ生成処理におけるデータ更新の概念図である。It is a conceptual diagram of the data update in the 3D-CAD data generation process shown in FIGS. 図35〜図38に示した3D−CADデータ生成処理における新規なデータの生成と更新の概念を一般的な図形の生成と更新の概念に当てはめて描いた図である。FIG. 39 is a diagram depicting the concept of generating and updating new data in the 3D-CAD data generating process shown in FIGS. 35 to 38 by applying it to the concept of generating and updating general graphics. 2台のカメラによるステレオ計測による基本的な実施例の概念を示す図面である。It is drawing which shows the concept of the basic Example by the stereo measurement by two cameras. 特徴点の対応点が存在する線分を求める方法を説明する図面である。It is drawing explaining the method of calculating | requiring the line segment in which the corresponding point of a feature point exists. ステレオ計測の処理の方法の一例を示す図面である。It is drawing which shows an example of the processing method of a stereo measurement. ステレオ計測の処理の方法の一例で、P4周辺を拡大した図面である。It is drawing which expanded P4 periphery by an example of the processing method of a stereo measurement. 撮影距離と分解能に関わる誤差P4(r1)と輪郭線ゆえの誤差半径P4(r2)の概念を示す図面である。It is a drawing showing the concept of error P4 (r1) related to the shooting distance and resolution and error radius P4 (r2) due to the contour line. 撮影距離と撮像装置の分解能、撮像装置の撮影関係(間隔)に関わる誤差球P4(r2)の概念を示す図面である。It is drawing which shows the concept of the error sphere P4 (r2) related to the imaging distance, the resolution of the imaging device, and the imaging relationship (interval) of the imaging device. 視点O1,O2の2台の撮像装置からステレオカメラで最初に生成されるポイントP4の誤差形状P4(δ)を示している。An error shape P4 (δ) of a point P4 that is first generated by the stereo camera from the two imaging devices of the viewpoints O1 and O2 is shown. 移動した視点O1,O2の2台の撮像装置からステレオカメラで最初に生成されるポイントP4の誤差形状P4(δ)を示している。An error shape P4 (δ) of a point P4 that is first generated by the stereo camera from the two imaging devices of the viewpoints O1 and O2 that have moved is shown. 誤差半径δRの球がPC点からP4を結ぶ方向にP4を中心にδLの長さの間にあるように近似して誤差を表現する概念を示す図面である。It is a drawing showing a concept of expressing an error by approximating a sphere having an error radius δR in a direction connecting P4 from a PC point so as to be between δL lengths around P4. O1座標系におけるO2座標系の位置と姿勢を決定するトラッキングの手法について説明する図面である。It is drawing explaining the tracking method which determines the position and attitude | position of O2 coordinate system in O1 coordinate system. 単眼カメラシステムの場合で最初に3点の既知のポイントが必要にとなる場合の手法の一例を説明する図面である。It is a figure explaining an example of the method in the case of a monocular camera system when three known points are needed initially. ステレオ計測の場合で2次元画像上で色情報、その他のルールを使って対応する特徴点候補を絞り込む方法について説明する図面である。It is drawing explaining the method of narrowing down the corresponding feature point candidate using color information and other rules on a two-dimensional image in the case of stereo measurement. 2次元画像上で色境界線分の色情報などを用いてトラッキングを行う場合の対応点候補の絞込みの方法の一例を説明する図面である。It is a figure explaining an example of the narrowing-down method of a corresponding point candidate in the case of tracking using the color information of a color boundary line part, etc. on a two-dimensional image. 2次元画像上で色境界線分の色情報などを用いてトラッキングを行う場合の対応点候補の絞込みの方法の一例を説明する図面である。It is a figure explaining an example of the narrowing-down method of a corresponding point candidate in the case of tracking using the color information of a color boundary line part, etc. on a two-dimensional image. ある画像の色境界線分を抽出した結果得られた線分の一部分を示している。A part of a line segment obtained as a result of extracting a color boundary line segment of an image is shown. 色の面の抽出方法の例をいくつか説明する図面である。It is drawing explaining some examples of the color surface extraction method. 同じ模様が一つの画像イメージの中に複数存在する場合の対応面、対応線分、対応点の絞込みの方法の一例を説明する図面である。It is a drawing for explaining an example of a method of narrowing down corresponding surfaces, corresponding line segments, and corresponding points when a plurality of the same patterns exist in one image. 撮像装置から入力された画像情報を2次元のCADデータに変換したイメージを示す図面である。It is drawing which shows the image which converted the image information input from the imaging device into two-dimensional CAD data. マッチング方法の概念を説明する図面である。It is drawing explaining the concept of a matching method. マッチング方法の概念を説明する図面である。It is drawing explaining the concept of a matching method. マッチング方法の概念を説明する図面である。It is drawing explaining the concept of a matching method. マッチング方法の概念を説明する図面である。It is drawing explaining the concept of a matching method. マッチング方法における判別ロジックの例を説明する図面である。It is drawing explaining the example of the discrimination logic in a matching method. マッチング処理を3次元に拡張した場合の例を示す図面である。It is drawing which shows the example at the time of extending a matching process to three dimensions. 実際に対応する特徴点のデータが存在しない場合の絞り込みの例を説明する図面である。It is a figure explaining the example of narrowing down when the data of the corresponding feature point actually does not exist. ベクトルマッチング手法を探索機能に用いる場合の例を示す図面である。It is drawing which shows the example in the case of using a vector matching method for a search function. トラッキングによる座標変換時の誤差の考え方について説明する図面である。It is drawing explaining the concept of the error at the time of coordinate conversion by tracking. 本発明の第7の手段の基本的な一例を示す図面である。It is drawing which shows a fundamental example of the 7th means of this invention. 本発明の第7の手段の基本的な一例を示すものであり、変曲点から色境界線分の作成方法の一例を示す図面である。It is a figure which shows a basic example of the 7th means of this invention, and shows an example of the preparation method of a color boundary line segment from an inflection point. 図68の手法を適用して特徴点と線分を抽出した場合と他の手法の場合を比較して説明する図面である。FIG. 69 is a diagram for explaining a case where a feature point and a line segment are extracted by applying the method of FIG. 68 and a case of another method. 本発明の第8の手段の基本的な一例を示す図面である。It is drawing which shows a fundamental example of the 8th means of this invention. 本発明の第9の手段の基本的な一例を示す図面である。It is drawing which shows a fundamental example of the 9th means of this invention. 本発明の視覚情報処理装置の基本的なアプリケーションの構成と視覚情報処理装置に対する基本コマンドと拡張コマンドを示す図面である。It is drawing which shows the structure of the basic application of the visual information processing apparatus of this invention, the basic command with respect to a visual information processing apparatus, and an extended command. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図である。It is a functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの動作タイミングチャートである。It is an operation | movement timing chart of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. 図73における視覚誘導チップの機能ブロック図における基本的な処理フローチャートである。It is a basic process flowchart in the functional block diagram of the visual guidance chip | tip in FIG. CADデータの結合関係をデータで記述する場合の一例を示す図面である。It is drawing which shows an example in the case of describing the connection relation of CAD data by data. 可動のある撮影対象の例として携帯電話機のようなものの例を示した図面である。It is drawing which showed the example of things, such as a mobile phone, as an example of movable imaging | photography object. 図113の代表的な形状を示す図面である。It is drawing which shows the typical shape of FIG. 移動している2つの物体の概念を示す図面である。It is drawing which shows the concept of the two objects which are moving. 本発明の第16および第17の手段の基本的な例で、原子力発電プラントを例にした場合の各種検査装置に適用した場合の数例を示す図面である。It is a basic example of the 16th and 17th means of this invention, and is a figure which shows several examples at the time of applying to the various test | inspection apparatus at the time of taking a nuclear power plant as an example. クローラ式VT検査装置を例にして、プール底面溶接線周辺部の自動生成されたアズビルトの3次元CADデータの概念を示す図面である。It is drawing which shows the concept of the as-built three-dimensional CAD data of the automatically generated periphery part of a pool bottom face weld line, taking a crawler type VT inspection apparatus as an example. クローラ式VT検査装置の一例を示すシステム構成ブロック図である。It is a system configuration block diagram showing an example of a crawler type VT inspection device. プールと溶接線をあらかじめCADデータとして登録しておいたCADデータと画像処理で生成したアズビルトの溶接線のCADデータを重ねて表示したときのイメージを示す図面である。It is drawing which shows the image when the CAD data which registered the pool and the weld line beforehand as CAD data, and the CAD data of the as-built weld line produced | generated by image processing are displayed in an overlapping manner. 主制御ルーチンへ指示を入力する移動軌跡データファイルの一例を示す図面である。It is drawing which shows an example of the movement locus | trajectory data file which inputs an instruction | indication to a main control routine. ワールド座標系とROV本体のロボット座標系の関係を示す図面である。It is drawing which shows the relationship between a world coordinate system and the robot coordinate system of a ROV main body. ROVなどのロボットの制御ロジックを登録しておくファイルの例を示す図面である。It is drawing which shows the example of the file which registers the control logic of robots, such as ROV. ワールド座標系とROV座標系の概念とプールなどの基本環境をあらかじめ登録しておくCADデータの概念を示す図面である。It is drawing which shows the concept of the CAD data which registers the concept of a world coordinate system and a ROV coordinate system, and basic environments, such as a pool, beforehand. 基本環境データやROV自体の形状データの定義ファイルの一例を示す図面である。It is drawing which shows an example of a definition file of basic environment data or shape data of ROV itself. 主制御ルーチンの基本的な処理のフローチャートである。It is a flowchart of the basic processing of the main control routine. 主制御ルーチンの基本的な処理のフローチャートである。It is a flowchart of the basic processing of the main control routine. 画像処理ルーチンの基本的な処理のフローチャートである。3 is a flowchart of basic processing of an image processing routine. 画像処理ルーチンの基本的な処理のフローチャートである。3 is a flowchart of basic processing of an image processing routine. 本発明の第21〜第24の手段の基本的な一例を示す監視サービス提供システムの概念図である。It is a conceptual diagram of the monitoring service provision system which shows a fundamental example of the 21st-24th means of this invention. 図129の(a)の総合監視センターの具体的なハード構成の基本的な例を示すブロック図である。FIG. 129 is a block diagram illustrating a basic example of a specific hardware configuration of the general monitoring center in FIG. PC端末で操作させる監視サービスの基本的なプログラムを例示するフローチャートである。It is a flowchart which illustrates the basic program of the monitoring service operated with a PC terminal. PC端末で操作させる監視サービスの基本的なプログラムを例示するフローチャートである。It is a flowchart which illustrates the basic program of the monitoring service operated with a PC terminal. PC端末で操作させる監視サービスの基本的なプログラムを例示するフローチャートである。It is a flowchart which illustrates the basic program of the monitoring service operated with a PC terminal. PC端末で操作させる監視サービスの基本的なプログラムを例示するフローチャートである。It is a flowchart which illustrates the basic program of the monitoring service operated with a PC terminal. 監視サービスに適した端末の一例を説明する図面である。It is drawing explaining an example of the terminal suitable for the monitoring service. 図135の端末の機能ブロック図である。FIG. 136 is a functional block diagram of the terminal of FIG. 135. 本発明の第18の手段の基本的な一例である人間型ロボットを示す機能ブロック図である。It is a functional block diagram which shows the humanoid robot which is a fundamental example of the 18th means of this invention. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs. 図137に示した人間型ロボットの主要回路部が実行する処理のフローチャートである。It is a flowchart of the process which the main circuit part of the humanoid robot shown in FIG. 137 performs.

符号の説明Explanation of symbols

10、10a、10b…撮像装置、O1、O2…撮像装置の視点、30…加速度センサ、40…ジャイロセンサ、100…視覚情報処理装置(処理装置)、200…記憶装置、300…別のCPU等、400…ドライバ、401…アクチュエータ、21r…原子炉、21A…水中ROV、21B…クローラ走行式VT装置、21a…アーム機構、21C…吊下式カメラ、21e…レーザなどのマーカ線、23e…主制御ルーチン、23g…画像処理ルーチン、Ow…ワールド座標系、Or…ロボット座標系、34b…監視サービスシステムの端末、901…環境内の物体(撮影対象)、909…撮影対象としての溶接線、34c…監視サービスを受ける申込者の携帯電話、34d…不審者、35b…小型CCD、35m…小型指向性マイク、36a…センサデータ制御回路、36b…センサ信号処理LSI、36c…マイコン、36d…画像データ記録装置、36e…無線通信装置、37y…制御予測シミュレーション部。
DESCRIPTION OF SYMBOLS 10, 10a, 10b ... Imaging device, O1, O2 ... Viewpoint of imaging device, 30 ... Acceleration sensor, 40 ... Gyro sensor, 100 ... Visual information processing device (processing device), 200 ... Storage device, 300 ... Another CPU, etc. , 400 ... Driver, 401 ... Actuator, 21r ... Reactor, 21A ... Underwater ROV, 21B ... Crawler travel type VT device, 21a ... Arm mechanism, 21C ... Suspended camera, 21e ... Marker line such as laser, 23e ... Main Control routine, 23g ... image processing routine, Ow ... world coordinate system, Or ... robot coordinate system, 34b ... terminal of monitoring service system, 901 ... object in environment (imaging object), 909 ... weld line as imaging object, 34c ... Mobile phone of the applicant who receives the monitoring service, 34d ... Suspicious person, 35b ... Small CCD, 35m ... Small directional microphone, 6a ... sensor data control circuit, 36b ... Sensor signal processing LSI, 36c ... microcomputer, 36d ... image data recording device, 36e ... wireless communication device, 37y ... control forecasting simulation section.

Claims (25)

移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能を備え、
新生CADデータを生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現することを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of the already generated CAD data, and the update of the existing CAD data and the new CAD data to be updated. A CAD data accuracy comparison processing function for comparing the accuracy, and a CAD data update processing function for updating the existing CAD data with the new CAD data when the accuracy of the new CAD data is higher than the accuracy of the existing CAD data to be updated,
The function to generate new-generation CAD data is a stable measurement among the points measured in stereo by associating the feature points in the image information of a plurality of imaging devices captured at the same time from the feature parts of the image information. Visual information characterized in that it is realized by executing a method for obtaining three-dimensional coordinate data in such a manner that corresponding points in image information due to movement of the imaging device are related by tracking at least three points. Processing equipment.
移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、CADデータの輪郭線と実際の線を区別するようにし、CADデータを生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現することを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus distinguishes the outline of the CAD data from the actual line, and the function of generating the CAD data associates the feature points in the image information of a plurality of image capturing apparatuses captured at the same time. The stereo measurement is performed from the characteristic part of the image information, and at least three of the points measured in stereo are tracked to follow the corresponding points in the image information due to the movement of the imaging device. A visual information processing apparatus which is realized by executing a method for obtaining dimensional coordinate data.
移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、CADデータに該CADデータを生成した時間に関する情報をもたせるように構成し、CADデータを生成する機能は、同時刻に取り込んだ複数の撮像装置の画像情報内の特徴点の対応付けを画像情報の特徴部位から行いステレオ計測して、ステレオ計測された点の中で安定な少なくとも3点をトラッキング追従させることにより撮像装置の移動による画像情報内の対応点を関係付けするようにして3次元の座標データを求める方法を実行することによって実現することを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus is configured so that the CAD data has information related to the time when the CAD data is generated, and the function of generating the CAD data is a feature point in the image information of a plurality of imaging devices captured at the same time. The corresponding points in the image information due to the movement of the imaging device are related by performing stereo measurement from the characteristic part of the image information and performing stereo measurement and tracking and tracking at least three stable points among the stereo measured points. Thus, the visual information processing apparatus is realized by executing a method for obtaining three-dimensional coordinate data.
移動する物体により画像情報内の特徴点位置が変化する、あるいは撮像装置が移動するために画像情報内の特徴点位置が変化する、あるいは複数の撮像装置で撮影することにより各撮像装置から得られる画像情報内での特徴点の位置が変化する特徴点の対応付けを行う対応点の探索は、撮像装置から得られる画像情報を特徴点を結ぶ色境界線分から構成される2次元のCADデータに変換して、色境界線分が区分する少なくとも背景領域を除く領域内の特徴部位の類似度を比較して高いものを対応点候補として絞り込むようにしたことを特徴とする視覚情報処理装置。   The feature point position in the image information changes depending on the moving object, or the feature point position in the image information changes because the image pickup apparatus moves, or is obtained from each image pickup apparatus by shooting with a plurality of image pickup apparatuses. Corresponding point search for associating feature points whose feature points change in image information is performed by converting image information obtained from the imaging device into two-dimensional CAD data composed of color boundary line segments connecting the feature points. A visual information processing apparatus characterized in that, by converting, a similarity between feature parts in an area excluding at least a background area divided by a color boundary line segment is compared and a higher one is narrowed down as a corresponding point candidate. 請求項4において、比較する特徴部位の類似度は、対応点候補から引いた他の特徴点までのベクトルの類似度、あるいはベクトルの類似度とベクトル先端の特徴点の有する色情報の類似度を用い類似度が高いものを対応点として絞り込む方法と組み合わせるようにしたことを特徴とする視覚情報処理装置。   5. The similarity of feature parts to be compared is obtained by calculating the similarity of a vector up to another feature point subtracted from the corresponding point candidate, or the similarity between the vector and the color information of the feature point at the tip of the vector. A visual information processing apparatus characterized in that it is combined with a method of narrowing down the corresponding similarity as a corresponding point. 請求項4または5において、色境界線分の抽出は、輝度信号などの画像情報の変曲点の繋がりを色境界線分として行うようにしたことを特徴とする視覚画像処理装置。   6. The visual image processing device according to claim 4, wherein the color boundary line segment is extracted by connecting inflection points of image information such as a luminance signal as the color boundary line segment. 移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能を備え、
撮像装置から得られる画像情報を直接にあるいは間接的に取り込んで該画像情報内の特徴点を抽出する方法は、特徴点として線分の特徴点と、閉ループ図形の特徴点の両方を特徴点として抽出するようにしたことを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of the already generated CAD data, and the update of the existing CAD data and the new CAD data to be updated. A CAD data accuracy comparison processing function for comparing the accuracy, and a CAD data update processing function for updating the existing CAD data with the new CAD data when the accuracy of the new CAD data is higher than the accuracy of the existing CAD data to be updated,
A method for extracting feature points in image information directly or indirectly by capturing image information obtained from an imaging device uses both feature points of line segments and feature points of closed-loop figures as feature points. A visual information processing apparatus characterized by being extracted.
移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能を備え、
CADデータに対応付けて撮像装置のカメラの撮影位置と画像情報(テクスチャ情報)を記録するようにしたことを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of the already generated CAD data, and the update of the existing CAD data and the new CAD data to be updated. A CAD data accuracy comparison processing function for comparing the accuracy, and a CAD data update processing function for updating the existing CAD data with the new CAD data when the accuracy of the new CAD data is higher than the accuracy of the existing CAD data to be updated,
A visual information processing apparatus characterized in that a shooting position of a camera of an imaging apparatus and image information (texture information) are recorded in association with CAD data.
移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、
前記画像情報処理装置は、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能を備え、
移動する撮像装置の位置または姿勢あるいはその両方を求める機能と、求めた位置情報または姿勢情報あるいはその両方を出力する機能を有することを特徴とする視覚情報処理装置。
In a visual information processing apparatus including an image information processing apparatus that inputs image information obtained by photographing an object with a movable imaging apparatus and generates CAD data of the object, and a storage device that stores the generated CAD data ,
The image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of the already generated CAD data, and the update of the existing CAD data and the new CAD data to be updated. A CAD data accuracy comparison processing function for comparing the accuracy, and a CAD data update processing function for updating the existing CAD data with the new CAD data when the accuracy of the new CAD data is higher than the accuracy of the existing CAD data to be updated,
A visual information processing apparatus having a function of obtaining a position and / or orientation of a moving imaging device and a function of outputting the obtained position information and / or orientation information.
請求項1〜9の1項において、前記画像情報処理装置は、CADデータの探索指令信号を入力とし、その指令信号に基づきCADデータを探索する探索機能と、探索したCADデータの情報を出力する機能を有することを特徴とする視覚情報処理装置。   10. The image information processing apparatus according to claim 1, wherein the image information processing apparatus receives a search command signal for CAD data, and outputs a search function for searching for CAD data based on the command signal and information on the searched CAD data. A visual information processing apparatus having a function. 請求項10において、3次元CADデータを生成する範囲を指定する指令情報の入力インターフェースを有することを特徴とする視覚情報処理装置。   11. The visual information processing apparatus according to claim 10, further comprising a command information input interface for designating a range for generating the three-dimensional CAD data. 請求項10または11において、CADデータの探索指令情報に2次元の探索指令を有することを特徴とする視覚情報処理装置。   12. The visual information processing apparatus according to claim 10, wherein the CAD data search command information includes a two-dimensional search command. 請求項10〜12の1項において、探索機能は、探索する2次元あるいは3次元のCADデータの対応点候補から引いた他の特徴点までのベクトルの類似度、あるいはベクトルの類似度とベクトル先端の特徴点の有する色情報の類似度を用い類似度が高いものを対応点として絞り込む方法と組み合わせて実現するようにしたことを特徴とする視覚情報処理装置。   The search function according to claim 10, wherein the search function is a vector similarity to another feature point subtracted from a corresponding point candidate of 2D or 3D CAD data to be searched, or a vector similarity and a vector tip A visual information processing apparatus characterized in that it is realized in combination with a method of using the similarity of color information possessed by feature points and narrowing down the corresponding points as corresponding points. 請求項10〜13の1項において、あらかじめ少なくとも3次元CADデータの部品形状と各部品との結合条件をデータベースとして設けておき、探索時に当該データベースの情報より部品の結合条件の所定の規則に従って部品の結合条件を変えて探索CADデータを生成して探索することを特徴とする視覚情報処理装置。   14. The method according to claim 10, wherein at least a part shape of three-dimensional CAD data and a connection condition between each part are provided as a database in advance, and a part is determined according to a predetermined rule of the part connection condition based on the information of the database at the time of searching. A visual information processing apparatus characterized in that search is performed by generating search CAD data by changing the combination condition. 請求項10〜14の1項において、探索した物体に対する判断機能とその判断機能を使用するための指令情報を入力するインターフェースと判断結果の情報を出力するインターフェースを有することを特徴とする視覚情報処理装置。   15. The visual information processing according to claim 10, further comprising an interface for inputting a determination function for the searched object, command information for using the determination function, and an interface for outputting information of the determination result. apparatus. 移動検査装置において、
移動環境の3次元データをあらかじめ有する、あるいは移動しながら移動環境の3次元データを生成する手段と、移動する検査装置の位置または姿勢あるいはその両方を求める機能手段と、3次元CADデータの中の撮像装置の位置情報より特定する検査対象部位に相当する3次元CADデータの部位と対応付けして検査結果のデータを記録する機能手段を備えたことを特徴とする移動検査装置。
In mobile inspection equipment,
A means for generating the three-dimensional data of the mobile environment in advance or while moving, a functional means for obtaining the position and / or posture of the moving inspection apparatus, and the three-dimensional CAD data A mobile inspection apparatus comprising functional means for recording inspection result data in association with a part of three-dimensional CAD data corresponding to an inspection target part specified from position information of an imaging apparatus.
請求項16において、あらかじめ移動検査装置の計画移動経路を設定する機能と、あらかじめ設定した計画移動経路と実際の移動経路の誤差を3次元CADデータの中での撮像装置の位置情報より求める機能とその誤差を小さくするように移動検査装置の移動制御をおこなうためのルールを設定する機能とその移動制御のルールに基づき移動検査装置の移動制御を実行する制御部を設けたことを特徴とする移動検査装置。   In Claim 16, the function which sets the planned movement path | route of a movement inspection apparatus previously, The function which calculates | requires the difference | error of the planned movement path | route preset and an actual movement path | route from the positional information on the imaging device in three-dimensional CAD data, A movement characterized by providing a function for setting a rule for performing movement control of the movement inspection apparatus so as to reduce the error, and a control unit for executing movement control of the movement inspection apparatus based on the rule of the movement control. Inspection device. 撮像装置の画像情報を入力とし入力画像を処理して移動空間に存在する物体のCADデータを生成する視覚情報処理装置を備え、ロボットの動作する環境の3次元CADデータを生成してCADデータの中のロボットの現在位置を特定する手段と、ロボットからの各種センサ信号よりロボットの現在の姿勢、動作状態を特定する手段と、前記ロボットの動作する環境の3次元CADデータと前記CADデータの中のロボットの現在位置と前記ロボットの現在の姿勢、動作状態をロボットのシミュレーションモデルへ反映する手段と、ロボットの動作をシミュレーションする手段と、そのシミュレーション手段に移動計画に基づくロボットの動作指令信号を入力する手段と、シミュレーション結果が所定の評価レベルになったか否かを判断する手段と、シミュレーション結果が所定の評価レベルに至らなかった場合にシミュレーション結果に基づきロボットへの動作指令信号を修正する手段とを設けて、所定の条件において最も評価レベルが良好なロボットへの動作指令信号をロボットへ出力するようにしたことを特徴とするロボットの制御装置。   A visual information processing device is provided that receives the image information of the imaging device and processes the input image to generate CAD data of an object existing in the moving space, and generates three-dimensional CAD data of the environment in which the robot operates to generate CAD data. A means for specifying the current position of the robot in the robot, a means for specifying the current posture and operation state of the robot from various sensor signals from the robot, and the three-dimensional CAD data and CAD data of the environment in which the robot operates. Means for reflecting the current position of the robot, the current posture and motion state of the robot to the simulation model of the robot, means for simulating the movement of the robot, and inputting the motion command signal of the robot based on the movement plan to the simulation means To determine whether the simulation result has reached a predetermined evaluation level And a means for correcting an operation command signal to the robot based on the simulation result when the simulation result does not reach the predetermined evaluation level, and an operation command to the robot having the best evaluation level under the predetermined condition. A control apparatus for a robot, wherein a signal is output to the robot. 請求項18に記載した制御装置を備えたことを特徴とするロボット。   A robot comprising the control device according to claim 18. 請求項1〜17の1項に記載した視覚情報処理装置を備えたことを特徴とするマニピュレータ,移動ロボット,文字読み取り装置,物体認識装置,計測装置,CADデータ生成装置,ナビゲーション装置,検査装置,ピッキング装置,自律制御型ロボット,監視装置,自動車,船,飛行機などのシステム。   A manipulator, a mobile robot, a character reading device, an object recognition device, a measurement device, a CAD data generation device, a navigation device, an inspection device, comprising the visual information processing device according to claim 1. Systems such as picking devices, autonomous control robots, monitoring devices, automobiles, ships and airplanes. 1つまたは複数の端末から送られてくる情報を情報処理センタで統括監視する監視サービス提供システムにおいて、
ユーザからのリクエストにより監視対象ユーザを探索し、監視中は監視対象ユーザを追跡し、視対象監ユーザおよびその周辺を連続して監視するようにしたことを特徴とする監視サービス提供システム。
In a monitoring service providing system that centrally monitors information sent from one or more terminals at an information processing center,
A monitoring service providing system which searches for a monitoring target user according to a request from the user, tracks the monitoring target user during monitoring, and continuously monitors the visual monitoring user and its surroundings.
1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、
各端末には所定の期間の所定の情報を時刻と対応つけて記録しておく機能を設け、ユーザーからのリクエストにより所定の端末の所定の時刻の記録データを取り出せるようにしたことを特徴とする監視サービス提供スシステム。
In a monitoring service providing system that centrally monitors information sent from one or more terminals at the center,
Each terminal is provided with a function of recording predetermined information in a predetermined period in association with time, and recording data at a predetermined time of a predetermined terminal can be taken out by a request from a user. Monitoring service provision system.
前記請求項21または22において、監視中はユーザ周辺の人に監視サービス中であることを知らせる状態表現手段を設けることを特徴とした監視サービス提供システム。   23. The monitoring service providing system according to claim 21, further comprising a state expression means for notifying a person around the user that the monitoring service is being performed during monitoring. 前記請求項21〜23の1項において、監視中にユーザへ知らせる状況が発生した場合にはユーザあるいはユーザとその周辺の人にその情報を提供する手段を設けたことを特徴とする監視サービス提供システム。   24. The monitoring service provision according to claim 21, further comprising means for providing information to a user or a user and a person in the vicinity when a situation to inform the user occurs during monitoring. system. センサ情報を取得するための端末装置において、あらかじめ複数箇所にセンサの設置ポートを設けておき、端末を組み立てるときに1セットあるいは複数セットのセンサを所定の個所の設置ポートに接続できる構成とすることを特徴としたセンサ情報を取得するための端末装置。   In a terminal device for acquiring sensor information, a plurality of sensor installation ports are provided in advance, and one or a plurality of sets of sensors can be connected to a predetermined installation port when assembling the terminal. A terminal device for acquiring sensor information characterized by.
JP2004181135A 2004-06-18 2004-06-18 Visual information processor and application system Pending JP2006003263A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004181135A JP2006003263A (en) 2004-06-18 2004-06-18 Visual information processor and application system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004181135A JP2006003263A (en) 2004-06-18 2004-06-18 Visual information processor and application system

Publications (1)

Publication Number Publication Date
JP2006003263A true JP2006003263A (en) 2006-01-05

Family

ID=35771768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004181135A Pending JP2006003263A (en) 2004-06-18 2004-06-18 Visual information processor and application system

Country Status (1)

Country Link
JP (1) JP2006003263A (en)

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry device and system
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2008004078A (en) * 2006-06-20 2008-01-10 Samsung Electronics Co Ltd Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same
JP2008089314A (en) * 2006-09-29 2008-04-17 Topcon Corp Position measuring apparatus and its method
JP2008160381A (en) * 2006-12-22 2008-07-10 Fujifilm Corp File generating method and device, and display control method and device for stereoscopic image
JP2008241491A (en) * 2007-03-28 2008-10-09 Hitachi Ltd Three-dimensional measurement instrument
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
JP2009270915A (en) * 2008-05-07 2009-11-19 Kagawa Univ Method and device for measuring three-dimensional shape
JP2010069542A (en) * 2008-09-16 2010-04-02 Ihi Corp Workpiece picking method in bulk picking device
JP2011008737A (en) * 2009-06-29 2011-01-13 Fujitsu Ltd Apparatus and program for creating data for printed board pattern designing
JP2012064046A (en) * 2010-09-16 2012-03-29 Toshiba Corp Vehicle detection apparatus
JP2012185752A (en) * 2011-03-07 2012-09-27 Seiko Epson Corp Robot device, position/attitude detecting device, position/attitude detecting program, and position/attitude detecting method
KR101297255B1 (en) * 2011-09-07 2013-08-19 엘지전자 주식회사 Mobile robot, and system and method for remotely controlling the same
KR20140057155A (en) * 2012-11-02 2014-05-12 쥬키 가부시키가이샤 Electronic part mounting apparatus and mounted part inspection method
JP2014124735A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Robot control method, robot control device, program, and robot
JP2014516816A (en) * 2011-06-13 2014-07-17 マイクロソフト コーポレーション Tracking and following of moving objects by mobile robot
JP2014228879A (en) * 2013-05-17 2014-12-08 国立大学法人 東京大学 Three-dimensional information acquisition method and three-dimensional information acquisition apparatus
JP2015521419A (en) * 2012-05-09 2015-07-27 エヌカム テクノロジーズ リミテッドNcam Technologies Limited A system for mixing or synthesizing computer generated 3D objects and video feeds from film cameras in real time
JP2015165420A (en) * 2013-05-31 2015-09-17 パナソニックIpマネジメント株式会社 Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator
JP2016006451A (en) * 2014-06-20 2016-01-14 セイコーエプソン株式会社 Microlens array substrate, electro-optic device, and electronic equipment
JP2016042217A (en) * 2014-08-13 2016-03-31 株式会社ニコン Electronic equipment
JP2016078184A (en) * 2014-10-17 2016-05-16 ファナック株式会社 Device for setting interference region of robot
JP2016158186A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Imaging device, imaging method, imaging program
US9582000B2 (en) 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
JP2018041437A (en) * 2016-07-13 2018-03-15 ザ・ボーイング・カンパニーThe Boeing Company System and method for generating improved stereo projection video of aircraft building process
CN109543252A (en) * 2018-11-05 2019-03-29 中国航空工业集团公司西安飞机设计研究所 A kind of security of system appraisal procedure hit based on bird
KR20190041033A (en) * 2011-06-01 2019-04-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Replaying jobs at a secondary location of a service
JP2019193974A (en) * 2019-06-11 2019-11-07 ファナック株式会社 Robot system and robot control method
US10585766B2 (en) 2011-06-06 2020-03-10 Microsoft Technology Licensing, Llc Automatic configuration of a recovery service
KR20200064947A (en) * 2018-11-29 2020-06-08 (주)코어센스 Apparatus for tracking position based optical position tracking system and method thereof
JP2020520308A (en) * 2017-04-21 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Robot control method, robot device, and robot device
WO2020179178A1 (en) * 2019-03-01 2020-09-10 株式会社川口金属加工 Method for measuring perpendicular cross-sectional shape of irregularly-shaped steel
JP2020185631A (en) * 2019-05-13 2020-11-19 日立Geニュークリア・エナジー株式会社 Simulation device, and simulation program
WO2021044473A1 (en) * 2019-09-02 2021-03-11 ヤマハ発動機株式会社 Multi-joint robot-arm control device and multi-joint robot arm device
WO2021261242A1 (en) * 2020-06-23 2021-12-30 株式会社Preferred Networks Information processing device
WO2022024464A1 (en) * 2020-07-29 2022-02-03 富士通株式会社 Inspection program, information processing device, and inspection method
CN114378825A (en) * 2022-01-21 2022-04-22 四川长虹智能制造技术有限公司 Multi-camera visual positioning method and system and electronic equipment
CN114394418A (en) * 2021-12-30 2022-04-26 无锡中车时代智能装备有限公司 Intelligent control method and equipment for manufacturing rotor copper bar
CN114593697A (en) * 2020-12-03 2022-06-07 汉达精密电子(昆山)有限公司 Device for detecting product gap and flatness
CN114734444A (en) * 2022-04-27 2022-07-12 博众精工科技股份有限公司 Target positioning method and device, electronic equipment and storage medium
WO2022201314A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Information processing device, modification system, information processing method, and non-transitory computer-readable medium
CN115439625A (en) * 2022-11-08 2022-12-06 成都云中楼阁科技有限公司 Building sketch auxiliary drawing method and device, storage medium and drawing equipment
CN116297531A (en) * 2023-05-22 2023-06-23 中科慧远视觉技术(北京)有限公司 Machine vision detection method, system, medium and equipment
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
WO2024057870A1 (en) * 2022-09-12 2024-03-21 パナソニックIpマネジメント株式会社 Mobile robot, server, mobile robot control system, and mobile robot control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324836A (en) * 1992-05-19 1993-12-10 Fujitsu Ltd Pattern matching method
JP2000113193A (en) * 1998-10-08 2000-04-21 Minolta Co Ltd Synthesizing method for multi-viewpoint three- dimensional data and recording medium
JP2000341721A (en) * 1999-03-25 2000-12-08 Mr System Kenkyusho:Kk Depth image measuring instrument and method, parallax image measuring instrument, composite reality presentation system and method, and program storage medium
JP2001143104A (en) * 1999-11-18 2001-05-25 Asia Air Survey Co Ltd Method for updating three-dimensional data of building
JP2002331835A (en) * 2001-05-09 2002-11-19 Honda Motor Co Ltd Direct sunshine anti-glare device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324836A (en) * 1992-05-19 1993-12-10 Fujitsu Ltd Pattern matching method
JP2000113193A (en) * 1998-10-08 2000-04-21 Minolta Co Ltd Synthesizing method for multi-viewpoint three- dimensional data and recording medium
JP2000341721A (en) * 1999-03-25 2000-12-08 Mr System Kenkyusho:Kk Depth image measuring instrument and method, parallax image measuring instrument, composite reality presentation system and method, and program storage medium
JP2001143104A (en) * 1999-11-18 2001-05-25 Asia Air Survey Co Ltd Method for updating three-dimensional data of building
JP2002331835A (en) * 2001-05-09 2002-11-19 Honda Motor Co Ltd Direct sunshine anti-glare device

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007190641A (en) * 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International Communication robot
JP2007327938A (en) * 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JPWO2007138987A1 (en) * 2006-05-25 2009-10-08 豪洋 石崎 Work robot
US8930025B2 (en) 2006-05-25 2015-01-06 Takehiro Ishizaki Work robot
JP4664326B2 (en) * 2006-06-20 2011-04-06 三星電子株式会社 Region separation method, apparatus, and medium using grid map of mobile robot
JP2008004078A (en) * 2006-06-20 2008-01-10 Samsung Electronics Co Ltd Method, apparatus and medium for building grid map of mobile robot, and method, apparatus and medium for cell decomposition using the same
US8060254B2 (en) 2006-06-20 2011-11-15 Samsung Electronics Co., Ltd. Method, apparatus, and medium for building grid map in mobile robot and method, apparatus, and medium for cell decomposition that uses grid map
JP2007212430A (en) * 2006-08-07 2007-08-23 Kurabo Ind Ltd Photogrammetry device and system
JP2008089314A (en) * 2006-09-29 2008-04-17 Topcon Corp Position measuring apparatus and its method
JP2008160381A (en) * 2006-12-22 2008-07-10 Fujifilm Corp File generating method and device, and display control method and device for stereoscopic image
JP2008241491A (en) * 2007-03-28 2008-10-09 Hitachi Ltd Three-dimensional measurement instrument
JP2009270915A (en) * 2008-05-07 2009-11-19 Kagawa Univ Method and device for measuring three-dimensional shape
JP2010069542A (en) * 2008-09-16 2010-04-02 Ihi Corp Workpiece picking method in bulk picking device
JP2011008737A (en) * 2009-06-29 2011-01-13 Fujitsu Ltd Apparatus and program for creating data for printed board pattern designing
JP2012064046A (en) * 2010-09-16 2012-03-29 Toshiba Corp Vehicle detection apparatus
JP2012185752A (en) * 2011-03-07 2012-09-27 Seiko Epson Corp Robot device, position/attitude detecting device, position/attitude detecting program, and position/attitude detecting method
KR102047216B1 (en) 2011-06-01 2019-11-20 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Replaying jobs at a secondary location of a service
KR20190041033A (en) * 2011-06-01 2019-04-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Replaying jobs at a secondary location of a service
US11176008B2 (en) 2011-06-06 2021-11-16 Microsoft Technology Licensing, Llc Automatic configuration of a recovery service
US10585766B2 (en) 2011-06-06 2020-03-10 Microsoft Technology Licensing, Llc Automatic configuration of a recovery service
JP2014516816A (en) * 2011-06-13 2014-07-17 マイクロソフト コーポレーション Tracking and following of moving objects by mobile robot
KR101297255B1 (en) * 2011-09-07 2013-08-19 엘지전자 주식회사 Mobile robot, and system and method for remotely controlling the same
US9582000B2 (en) 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
JP2015521419A (en) * 2012-05-09 2015-07-27 エヌカム テクノロジーズ リミテッドNcam Technologies Limited A system for mixing or synthesizing computer generated 3D objects and video feeds from film cameras in real time
US9600936B2 (en) 2012-05-09 2017-03-21 Ncam Technologies Limited System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera
US11721076B2 (en) 2012-05-09 2023-08-08 Ncam Technologies Limited System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera
US11182960B2 (en) 2012-05-09 2021-11-23 Ncam Technologies Limited System for mixing or compositing in real-time, computer generated 3D objects and a video feed from a film camera
KR20140057155A (en) * 2012-11-02 2014-05-12 쥬키 가부시키가이샤 Electronic part mounting apparatus and mounted part inspection method
KR102114718B1 (en) 2012-11-02 2020-05-25 쥬키 가부시키가이샤 Electronic part mounting apparatus and mounted part inspection method
JP2014124735A (en) * 2012-12-27 2014-07-07 Seiko Epson Corp Robot control method, robot control device, program, and robot
JP2014228879A (en) * 2013-05-17 2014-12-08 国立大学法人 東京大学 Three-dimensional information acquisition method and three-dimensional information acquisition apparatus
JP2015165420A (en) * 2013-05-31 2015-09-17 パナソニックIpマネジメント株式会社 Modeling device, three-dimensional model generation apparatus, modeling method, program and layout simulator
JP2016006451A (en) * 2014-06-20 2016-01-14 セイコーエプソン株式会社 Microlens array substrate, electro-optic device, and electronic equipment
JP2016042217A (en) * 2014-08-13 2016-03-31 株式会社ニコン Electronic equipment
DE102015013161B4 (en) 2014-10-17 2018-04-19 Fanuc Corporation Device for setting an interference range of a robot
JP2016078184A (en) * 2014-10-17 2016-05-16 ファナック株式会社 Device for setting interference region of robot
US9584796B2 (en) 2014-10-17 2017-02-28 Fanuc Corporation Apparatus for setting interference region of robot
JP2016158186A (en) * 2015-02-26 2016-09-01 カシオ計算機株式会社 Imaging device, imaging method, imaging program
JP2018041437A (en) * 2016-07-13 2018-03-15 ザ・ボーイング・カンパニーThe Boeing Company System and method for generating improved stereo projection video of aircraft building process
US11325255B2 (en) 2017-04-21 2022-05-10 Cloudminds Robotics Co., Ltd. Method for controlling robot and robot device
JP2020520308A (en) * 2017-04-21 2020-07-09 深▲せん▼前海達闥雲端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co., Ltd. Robot control method, robot device, and robot device
CN109543252B (en) * 2018-11-05 2022-11-22 中国航空工业集团公司西安飞机设计研究所 System safety evaluation method based on bird collision
CN109543252A (en) * 2018-11-05 2019-03-29 中国航空工业集团公司西安飞机设计研究所 A kind of security of system appraisal procedure hit based on bird
KR20200064947A (en) * 2018-11-29 2020-06-08 (주)코어센스 Apparatus for tracking position based optical position tracking system and method thereof
KR102188480B1 (en) * 2018-11-29 2020-12-08 (주)코어센스 Apparatus for tracking position based optical position tracking system and method thereof
WO2020179178A1 (en) * 2019-03-01 2020-09-10 株式会社川口金属加工 Method for measuring perpendicular cross-sectional shape of irregularly-shaped steel
JP2020185631A (en) * 2019-05-13 2020-11-19 日立Geニュークリア・エナジー株式会社 Simulation device, and simulation program
JP7223630B2 (en) 2019-05-13 2023-02-16 日立Geニュークリア・エナジー株式会社 Simulation device and simulation program
JP2019193974A (en) * 2019-06-11 2019-11-07 ファナック株式会社 Robot system and robot control method
WO2021044473A1 (en) * 2019-09-02 2021-03-11 ヤマハ発動機株式会社 Multi-joint robot-arm control device and multi-joint robot arm device
JP7417465B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
JP7417466B2 (en) 2020-05-07 2024-01-18 株式会社トヨタマップマスター Information processing device, information processing method, and information processing program
WO2021261242A1 (en) * 2020-06-23 2021-12-30 株式会社Preferred Networks Information processing device
WO2022024464A1 (en) * 2020-07-29 2022-02-03 富士通株式会社 Inspection program, information processing device, and inspection method
CN114593697A (en) * 2020-12-03 2022-06-07 汉达精密电子(昆山)有限公司 Device for detecting product gap and flatness
CN114593697B (en) * 2020-12-03 2023-07-11 汉达精密电子(昆山)有限公司 Device for detecting gap and flatness of product
WO2022201314A1 (en) * 2021-03-23 2022-09-29 日本電気株式会社 Information processing device, modification system, information processing method, and non-transitory computer-readable medium
CN114394418A (en) * 2021-12-30 2022-04-26 无锡中车时代智能装备有限公司 Intelligent control method and equipment for manufacturing rotor copper bar
CN114394418B (en) * 2021-12-30 2024-02-02 无锡中车时代智能装备研究院有限公司 Intelligent control method and equipment for manufacturing rotor copper bars
CN114378825B (en) * 2022-01-21 2023-05-12 四川长虹智能制造技术有限公司 Multi-camera visual positioning method and system and electronic equipment
CN114378825A (en) * 2022-01-21 2022-04-22 四川长虹智能制造技术有限公司 Multi-camera visual positioning method and system and electronic equipment
CN114734444B (en) * 2022-04-27 2023-06-27 博众精工科技股份有限公司 Target positioning method and device, electronic equipment and storage medium
CN114734444A (en) * 2022-04-27 2022-07-12 博众精工科技股份有限公司 Target positioning method and device, electronic equipment and storage medium
WO2024057870A1 (en) * 2022-09-12 2024-03-21 パナソニックIpマネジメント株式会社 Mobile robot, server, mobile robot control system, and mobile robot control method
CN115439625A (en) * 2022-11-08 2022-12-06 成都云中楼阁科技有限公司 Building sketch auxiliary drawing method and device, storage medium and drawing equipment
CN116297531A (en) * 2023-05-22 2023-06-23 中科慧远视觉技术(北京)有限公司 Machine vision detection method, system, medium and equipment
CN116297531B (en) * 2023-05-22 2023-08-01 中科慧远视觉技术(北京)有限公司 Machine vision detection method, system, medium and equipment

Similar Documents

Publication Publication Date Title
JP2006003263A (en) Visual information processor and application system
CN111897332B (en) Semantic intelligent substation robot humanoid inspection operation method and system
US9522471B2 (en) Virtual safety cages for robotic devices
CN110352393B (en) Multi-terrain inspection robot device and configuration and guidance method thereof
Echeverria et al. Modular open robots simulation engine: Morse
Walker et al. Virtual, augmented, and mixed reality for human-robot interaction: A survey and virtual design element taxonomy
Bordeux et al. An efficient and flexible perception pipeline for autonomous agents
JP2007098567A (en) Autonomous control type robot and its control device
JP6571305B2 (en) Image-based positioning
JP2021532462A (en) Visual navigation for mobile devices that can operate in a variety of environmental lighting conditions
WO2015180021A1 (en) Pruning robot system
Negrello et al. Humanoids at work: The walk-man robot in a postearthquake scenario
JP3965686B2 (en) Visual information processing apparatus and application system
Petrlik et al. UAVs beneath the surface: Cooperative autonomy for subterranean search and rescue in DARPA SubT
Nickerson et al. The ARK project: Autonomous mobile robots for known industrial environments
CN112276951A (en) Unmanned search and explosion-removal robot system and working method thereof
JP4624000B2 (en) Compound artificial intelligence device
CN114527763A (en) Intelligent inspection system and method based on target detection and SLAM composition
Saveliev et al. Method of autonomous survey of power lines using a multi-rotor UAV
Hong et al. Real-time visual-based localization for mobile robot using structured-view deep learning
Bennett et al. Autonomous vehicles for remote sample collection: Enabling marine research
Franchi et al. Underwater robotics competitions: The European Robotics League emergency robots experience with FeelHippo AUV
Flögel et al. A new deep-sea crawler system-MANSIO-VIATOR
Ignatova et al. Mechatronical approach to investigations of rescue operations
JP7467206B2 (en) Video management support system and video management support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090623