JP2007098567A - Autonomous control type robot and its control device - Google Patents

Autonomous control type robot and its control device Download PDF

Info

Publication number
JP2007098567A
JP2007098567A JP2006258168A JP2006258168A JP2007098567A JP 2007098567 A JP2007098567 A JP 2007098567A JP 2006258168 A JP2006258168 A JP 2006258168A JP 2006258168 A JP2006258168 A JP 2006258168A JP 2007098567 A JP2007098567 A JP 2007098567A
Authority
JP
Japan
Prior art keywords
cad data
data
information processing
visual information
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006258168A
Other languages
Japanese (ja)
Inventor
Keiji Tanaka
敬二 田中
Tomoyuki Hamada
朋之 浜田
Koji Kikuchi
孝司 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006258168A priority Critical patent/JP2007098567A/en
Publication of JP2007098567A publication Critical patent/JP2007098567A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous control type robot capable of making an emergency responding control. <P>SOLUTION: The autonomous control type robot is structured as capable of making the emergency responding control by monitoring the safety of the robot operation through an independent system provided separately from the autonomous control system. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、自律制御型ロボットおよびその制御装置に関するものである。   The present invention relates to an autonomous control robot and a control device therefor.

撮像装置で撮影して生成した画像情報に基づいて3D−CADデータを生成する手法としては、複数枚の写真から3次元の座標を求める手法がある。例えば、米国の3D Construction Compauyで開発され、日本では(株)ケイ・ジー・ティーから販売されている3D Builderというソフトウェアなどがある。複数枚の写真間の対応する点を人が一つ一つ入力すると、その点と撮影したカメラの位置と向きが3次元座標として計算され、対話形式でCADデータを作成したり、テクスチャマッピングを行なうことができる。   As a method for generating 3D-CAD data based on image information generated by photographing with an imaging device, there is a method for obtaining three-dimensional coordinates from a plurality of photographs. For example, there is a software called 3D Builder, which was developed at 3D Construction Company in the United States and sold in Japan by K.G. When a person inputs corresponding points between multiple photos one by one, the point and the position and orientation of the photographed camera are calculated as 3D coordinates, and CAD data can be created interactively or texture mapping can be performed. Can be done.

また、特開2002−32741号公報および特開2002−32742号公報には、初期画像で特徴点(ウィンドウ)を指定または特徴点位置設定データに基づき最初に特徴点を設定すれば、連続的に入力される画像情報の中で特徴点を自動追跡させて、対応点を人が一つ一つ入力しないで済むようにして、3次元座標を計算し、それらの点データを結んでテクスチャマッピングを行なうことができるシステムの概念が示されている。
特開2002−32741号公報 特開2002−32742号公報 3D Builder (株)ケイ・ジー・ティーから販売されているソフトウェア
Also, in Japanese Patent Laid-Open Nos. 2002-32741 and 2002-32742, if feature points (windows) are designated in an initial image or feature points are first set based on feature point position setting data, they are continuously recorded. Automatically track feature points in the input image information so that humans do not have to input corresponding points one by one, calculate three-dimensional coordinates, and connect the point data to perform texture mapping The concept of a system that can do is shown.
JP 2002-32741 A JP 2002-32742 A Software sold by 3D Builder, KK TG

しかしながら、複数枚の写真の中の対応する特徴点を人が入力設定しないで済むようにしたり、テクスチャマッピングをしないで正確なCADデータを生成させることや、撮像カメラを積極的に移動させてCADデータをより正確に生成するようにすることや、ロボット等の制御にも利用できるように最初はそれなりの精度で生成させて撮像カメラを前後左右に近づけたり移動させることで精度を向上させていくことをリアルタイムで行なえるようにすることや、複数の撮像カメラを移動させて生成したCADデータを統合させることなどについては考えられていなかった。また、更にアズビルトのCADデータを生成した後あるいは生成しながら任意のCADデータを探索させる機能と組み合わせて、ロボット等の自動機械の視覚誘導制御装置や自動車などのナビゲーションシステムに適用することや、自律制御型ロボットなどに適用することなども考えられていなかった。   However, it is not necessary for a person to input and set corresponding feature points in a plurality of photographs, or accurate CAD data is generated without texture mapping, or the imaging camera is actively moved to perform CAD. We will improve the accuracy by generating data more accurately and by generating it with reasonable accuracy so that it can be used for robot control etc. and moving the imaging camera back and forth, left and right It has not been considered to be able to do this in real time or to integrate CAD data generated by moving a plurality of imaging cameras. In addition, it can be applied to visual guidance control devices for automatic machines such as robots and navigation systems such as automobiles, in combination with a function for searching for arbitrary CAD data after or while generating CAD data for as-built. It was not considered to be applied to control robots.

本発明の目的は、緊急対応制御が可能な自律制御型ロボットおよびその制御装置を提供することにある。   An object of the present invention is to provide an autonomous control type robot capable of emergency response control and its control device.

本発明は、基本的には、自律制御型ロボットにおいて、自律制御系とは別の独立系統によって該ロボットの動作の安全性を監視できるようにしたことを特徴とし、
また、自律制御型ロボットの制御装置において、自律制御系とは別の独立系統によって該ロボットの動作の安全性を監視できるようにしたことを特徴とし、
また、自律制御型ロボットにおいて、ロボットの安全監視中に緊急対応が必要となった場合に自律制御系とは別の独立系統によって該ロボットの緊急対応制御を行なうことができるようにしたことを特徴とし、
また、自律制御型ロボットの制御装置において、ロボットの安全監視中に緊急対応が必要となった場合に自律制御系とは別の独立系統によって該ロボットの緊急対応制御を行なうことができるようにしたことを特徴とする。
The present invention is basically characterized in that, in an autonomous control type robot, the operation safety of the robot can be monitored by an independent system different from the autonomous control system,
In addition, in the control device of the autonomous control type robot, the operation safety of the robot can be monitored by an independent system different from the autonomous control system,
In addition, in an autonomous control robot, when emergency response is required during safety monitoring of the robot, the emergency response control of the robot can be performed by an independent system different from the autonomous control system. age,
In addition, in an autonomous control robot control device, emergency response control of the robot can be performed by an independent system separate from the autonomous control system when emergency response is required during robot safety monitoring. It is characterized by that.

以上のように、本発明によれば、自律制御型ロボットあるいはその制御装置において、ロボットの安全監視中に緊急対応が必要となった場合には、自律制御系とは独立の系統でロボットの緊急対応制御ができるようにしているので、万一の場合には、緊急停止とかマニアルへの切り替えが確実に行なえるようになる。   As described above, according to the present invention, when an emergency response is required during safety monitoring of the robot in the autonomous control type robot or its control device, the emergency control of the robot is performed independently of the autonomous control system. Since response control is possible, in the event of an emergency, an emergency stop or switching to manual can be performed reliably.

本発明は、次のような手段を単独または選択的に組み合わせることによって目的を達成することができる視覚情報処理装置および適用システムを実現する。   The present invention realizes a visual information processing apparatus and an application system that can achieve the object by combining the following means alone or selectively.

第1の手段は、移動可能な撮像装置で物体を撮影して得た画像情報を入力して前記物体のCADデータを生成する画像情報処理装置と、生成したCADデータを記憶する記憶装置を備えた視覚情報処理装置において、前記画像情報処理装置に、生成した新生CADデータが既に生成されている既成CADデータの更新対象となるかどうかを判別する更新対象判別処理機能と、更新対象となる既成CADデータと新生CADデータの精度を比較するCADデータ精度比較処理機能と、新生CADデータの精度が更新対象となる既成CADデータの精度よりも高いときには該既成CADデータを新生CADデータで更新するCADデータ更新処理機能をもたせたことを特徴とする。
この第1の手段は、視覚情報処理装置において、移動可能な撮像装置によって得た画像情報を入力とし、入力画像を処理して移動空間に存在する物体のCADデータを生成する機能をもたせたので、移動空間に存在するいろいろな物体のCADデータを容易生成することが可能となる。
The first means includes an image information processing device that inputs image information obtained by photographing an object with a movable imaging device and generates CAD data of the object, and a storage device that stores the generated CAD data. In the visual information processing apparatus, the image information processing apparatus includes an update target determination processing function for determining whether or not the generated new CAD data is an update target of already generated CAD data, and an existing target to be updated. A CAD data accuracy comparison processing function for comparing the accuracy of CAD data and new CAD data, and CAD for updating existing CAD data with new CAD data when the accuracy of new CAD data is higher than the accuracy of existing CAD data to be updated It is characterized by having a data update processing function.
This first means has a function in the visual information processing device that receives image information obtained by a movable imaging device as an input and processes the input image to generate CAD data of an object existing in the moving space. CAD data of various objects existing in a moving space can be easily generated.

また、生成された新生CADデータが既に生成されている既成CADデータの更新対象となるか否かの更新対象判別処理機能と、新生CADデータが既成CADデータの更新対象となる場合には、新生CADデータの精度と更新対象の以前に生成された既成CADデータの精度を比較して精度が良くなる場合には該CADデータを更新する機能ももたせたことによって、撮像装置が移動しながら物体に近づいて該物体のより詳細部の画像情報を得ることにより、物体のより詳細なCADデータを生成しながら更新することが可能となる。また、移動する撮像装置は、物体の上下左右および裏面の画像情報を入力することができるので、物体の正面だけの色や形状だけでなく、上下左右、更には裏面の色や形状までをCADデータとして生成することが可能となる。新生CADデータが既成CADデータの更新対象となるか否かの更新対象判別処理機能は、例えば、CADデータの生成後に、同じ個所に以前に生成されたCADデータが存在しない場合には更新対象とせずにそのままCADデータを追加し、存在する場合には更新対象とするものである。新生CADデータが既成CADデータの更新対象となった場合には、新生CADデータの精度と更新対象の既成CADデータの精度を比較し、精度が良くなる場合にはCADデータを更新することにより、毎回同じ部位のCADデータが生成されてもより精度が良くなる場合以外には更新されることはなく、より精度が良くなる場合には更新されるので、この処理を繰り返し行なうようにすることで、移動空間に存在する物体は、そのCADデータが更新されるたびにより精度が良くなり、最終的には精度の良いCADデータを得ることができるようになる。このように、CADデータの精度が良くなる更新のみを行なうようになれば、CADデータは、撮像装置が対象から離れている段階で撮影して得た画像情報からはそれなりの精度で生成されるが、撮像装置が対象の近くへ寄って撮影した画像情報によれば生成精度をそれなりに上げることができるようになる。   Further, when the generated new CAD data is an update target determination function for determining whether or not the existing CAD data is already generated, and when the new CAD data is an update target of the existing CAD data, When the accuracy of the CAD data is compared with the accuracy of the existing CAD data generated before the update target and the accuracy is improved, a function for updating the CAD data is also provided. By approaching and obtaining image information of a more detailed portion of the object, it becomes possible to update while generating more detailed CAD data of the object. In addition, since the moving imaging apparatus can input image information of the top, bottom, left, and right sides and the back side of the object, not only the color and shape of the front side of the object, but also the top and bottom, left and right sides, and even the color and shape of the back side can be CAD. It can be generated as data. The update target determination processing function for determining whether or not the new CAD data is an update target of the existing CAD data is, for example, an update target when there is no previously generated CAD data at the same location after the CAD data is generated. CAD data is added as it is, and if it exists, it is to be updated. When the new CAD data is an update target of the existing CAD data, the accuracy of the new CAD data is compared with the accuracy of the existing CAD data to be updated, and when the accuracy is improved, by updating the CAD data, Even if CAD data of the same part is generated each time, it is not updated except when the accuracy is improved, and is updated when the accuracy is improved. By repeating this processing, The accuracy of the object existing in the moving space is improved every time the CAD data is updated, and finally the CAD data with high accuracy can be obtained. As described above, if only the update that improves the accuracy of the CAD data is performed, the CAD data is generated with a certain degree of accuracy from the image information obtained when the imaging apparatus is away from the target. However, according to the image information taken by the imaging device close to the object, the generation accuracy can be improved accordingly.

運用においても、CADデータの精度が良くない場合には、例えば、遠方の対象に対する大雑把な位置決め制御にCADデータを利用することができるし、その後、近くに寄れば、精度の上がったCADデータを使用して更に精度の良い位置決め制御を行なうことが可能となるので、精度の良くない最初の段階からでもCADデータを連続的に有効に利用することが可能となる。   Even in operation, if the accuracy of the CAD data is not good, for example, the CAD data can be used for rough positioning control with respect to a distant object. Since it is possible to perform positioning control with higher accuracy by using the CAD data, CAD data can be continuously and effectively used even from the first stage with lower accuracy.

また、このようなCADデータの更新機能があれば、移動していない物体の同じ部位については、CADデータが何度生成されても同じようなCADデータが沢山蓄積されることはなく、同じような物体が幾つも生成される場合は、移動物体が含まれる場合であるので、トラッキングなどで移動前後の対応が取れるようにすることにより、煙や湯気などの動く対象物体の動きとか、移動するスポットライトあるいは移動する影などの追従も、CADデータが逐次更新されていくので、その更新履歴を参照することで、容易に行なうことが可能となる。   In addition, with such a CAD data update function, a lot of similar CAD data is not accumulated regardless of how many times CAD data is generated for the same part of a non-moving object. If a large number of objects are generated, it is a case where moving objects are included. Therefore, the movement of the moving target object such as smoke or steam moves by tracking and so on. Tracking of spotlights or moving shadows can be easily performed by referring to the update history because CAD data is sequentially updated.

第2の手段は、前記第1の手段のCADデータを自動生成あるいは自動更新する機能において、画像情報の特徴点をトラッキング追従させることにより対応点を関係付けした写真計測法で3次元の座標データを求めるようにするものである。   The second means is a function of automatically generating or automatically updating the CAD data of the first means, and the three-dimensional coordinate data is obtained by a photometric method in which corresponding points are related by tracking and tracking feature points of image information. Is to ask for.

このような第2の手段は、前記第1の手段のCADデータを自動生成あるいは自動更新する機能に、画像情報の特徴点をトラッキング追従させることにより対応点を関係付けした写真計測法を用いて3次元の座標データを求めるようにしているので、移動する撮像装置で撮影して得られる画像情報は物体をいろいろな視点から撮影した複数枚の画像情報が得られると共に移動中に入力される画像情報は連続的となり、連続的となる画像情報の特徴点を連続的にトラッキング追従することができるので特徴点を見失うことなく、正しく対応点を関係付けした写真計測を行なうことが可能となる。CADデータの自動更新は、自動生成後に同じ個所に存在し、今回生成されたデータの部位について前回生成したデータと判断される前のデータがあれば、それを削除するようなことを繰り返し行なうことにより、CADデータの自動更新も行なえるようになる。CADデータの自動更新が行なえるようになれば、CADデータは、撮像装置が対象物体から離れている段階で得た画像情報からはそれなりの精度で生成され、撮像装置が対象物体の近くに寄って撮影した画像情報によればCADデータの生成精度をそれなりに上げることができ、このようにすることで、CADデータの精度が良くない場合には、例えば、遠方の対象物体に対する大雑把な位置決め制御に利用することができるし、その後、近くに寄れば、精度の上がったCADデータに基づいて精度の良い位置決め制御を行なうことができるので、CADデータ生成の最初の段階からでも該CADデータを有効に利用することが可能となる。また、CADデータの更新機能があれば、煙や湯気などの動く対象の動きとか、移動するスポットライトあるいは移動する影などの追従も、CADデータが逐次更新されていくので、その更新内容を参照することで、容易に行なうことが可能となる。   Such a second means uses a photo measurement method in which corresponding points are related by tracking the feature points of the image information to the function of automatically generating or automatically updating the CAD data of the first means. Since the three-dimensional coordinate data is obtained, the image information obtained by photographing with the moving imaging device is obtained as a plurality of pieces of image information obtained by photographing the object from various viewpoints, and is input during the movement. Since the information becomes continuous and the feature points of the continuous image information can be continuously tracked and tracked, it is possible to perform photo measurement in which the corresponding points are correctly associated without losing sight of the feature points. The automatic update of CAD data is performed in the same place after the automatic generation, and if there is data before it is determined that the data generated this time is the data generated last time, it is repeatedly performed. As a result, the CAD data can be automatically updated. If the CAD data can be automatically updated, the CAD data is generated with a certain degree of accuracy from the image information obtained when the imaging device is away from the target object, and the imaging device approaches the target object. According to the image information photographed in this way, the CAD data generation accuracy can be improved to some extent. If the accuracy of the CAD data is not good in this way, for example, rough positioning control for a distant target object is performed. Since it is possible to perform positioning control with high accuracy based on CAD data with higher accuracy if it is nearer, the CAD data is effective even from the first stage of CAD data generation. It becomes possible to use it. In addition, if there is an update function of CAD data, the CAD data is sequentially updated for the movement of the moving object such as smoke and steam, the moving spotlight or the moving shadow, etc., so refer to the update contents. By doing so, it becomes possible to carry out easily.

第3の手段は、前記第1および第2の手段のCADデータを自動生成あるいは自動更新する機能において、画像の特徴点をトラッキング追従させることにより対応点を関係付けしたステレオ計測法で3次元の座標データを求めるようにするものである。   The third means is a function of automatically generating or automatically updating the CAD data of the first and second means in a three-dimensional stereo measurement method in which corresponding points are related by tracking and tracking feature points of an image. The coordinate data is obtained.

このような第3の手段は、前記第1および第2の手段のCADデータを自動生成する機能で、ステレオ計測法で3次元の座標データを求めるようにしているので、例えば、2台の撮像装置によって得た2つの画像情報から物体の3次元座標データをステレオ計測法で求めるようにすれば、2台の撮像装置を移動させる前から撮像装置の正面に位置して撮影されている物体の3次元座標データを求めることができるので、正面に位置させて撮影している物体のCADデータも撮像装置を移動する前の画像情報から得ることが可能となる。撮像装置を移動する前からCADデータを得ることが可能となれば、ロボット等の自動機械の視覚誘導制御装置として適用する場合に、最初から対象物体が見えている場合には、撮像装置を移動させてCADデータを生成する時間を省略して、対象物体にロボット等の自動機械がアクセスすること等を可能にすることができる。また、CADデータの自動更新が容易に行なえれば、CADデータは、撮像装置が対象物体から離れている段階ではそれなりの精度で生成され、撮像装置が対象物体の近くへ寄れば生成精度をそれなりに上げることができる。このようにすることで、CADデータは、CADデータの精度が良くない場合には、例えば、遠方の対象物体に対する大雑把な位置決め制御に利用することができるし、その後、近くに寄れば、精度の上がったCADデータに基づいて更に精度の良い位置決め制御を行なうように利用することができるので、最初の段階からでもCADデータを有効に利用することが可能となる。また、CADデータの更新機能があれば、煙や湯気などの動く対象物体の動きとか、移動するスポットライトあるいは移動する影などの追従も、CADデータが逐次に更新されていくので、その更新内容を参照することで、容易に行なうことが可能となる。   Such a third means is a function for automatically generating CAD data of the first and second means, and obtains three-dimensional coordinate data by a stereo measurement method. If the three-dimensional coordinate data of the object is obtained from the two pieces of image information obtained by the apparatus by the stereo measurement method, the object being photographed while being positioned in front of the image pickup apparatus before the two image pickup apparatuses are moved. Since the three-dimensional coordinate data can be obtained, the CAD data of the object being photographed while being positioned in front can also be obtained from the image information before moving the imaging device. If it is possible to obtain CAD data before moving the imaging device, if the target object is visible from the beginning when applied as a visual guidance control device for an automatic machine such as a robot, the imaging device is moved. Thus, it is possible to omit the time for generating CAD data, and to make it possible for an automatic machine such as a robot to access the target object. If the CAD data can be automatically updated, the CAD data is generated with a certain degree of accuracy when the imaging device is far from the target object, and the generation accuracy is moderate when the imaging device is close to the target object. Can be raised. In this way, if the accuracy of the CAD data is not good, the CAD data can be used, for example, for rough positioning control with respect to a distant target object. Since it can be used to perform more accurate positioning control based on the raised CAD data, the CAD data can be used effectively even from the first stage. In addition, if there is an update function of CAD data, the CAD data is sequentially updated in accordance with the movement of the moving target object such as smoke or steam, or the moving spotlight or the moving shadow. By referring to, it becomes possible to carry out easily.

第4の手段は、移動可能な撮像装置で得た画像情報を処理して移動空間に存在する物体のCADデータを自動的に生成する機能を有し、このCADデータを自動的に生成する機能は、画像情報の特徴点をトラッキング追従させることにより対応点を関係付けしたステレオ計測法で3次元の座標データを求めるようにするものである。   The fourth means has a function of automatically generating CAD data of an object existing in a moving space by processing image information obtained by a movable imaging device, and a function of automatically generating this CAD data. In this method, three-dimensional coordinate data is obtained by a stereo measurement method in which corresponding points are related by tracking and tracking feature points of image information.

このような第4の手段は、視覚情報処理装置において、移動可能な撮像装置で得た画像情報を処理して移動空間に存在する物体のCADデータを自動的に生成する機能をもたせたことは、前記第1および第2の手段と同じく、移動空間に存在するいろいろな物体のCADデータを容易に得ることが可能となることは勿論であり、ステレオ計測法で3次元の座標データを求めるようにしているので、例えば2台の撮像装置で得た2つの画像情報から物体の3次元座標データをステレオ計測法で求めるようにすれば、2台の撮像装置を移動させる前に該撮像装置の正面に位置して撮影されている物体の3次元座標データは、撮像装置を移動する前の画像情報に基づいて求めることができるので、正面に位置させて撮影している物体のCADデータを撮像装置が移動する前の画像情報から得ることが可能となる。撮像装置を移動する前からCADデータを得ることが可能となれば、ロボット等の自動機械の視覚誘導制御装置として適用する場合に、最初から対象物体が見えている場合には、撮像装置を移動させてCADデータを生成する時間を省略して、対象物体にロボット等の自動機械がアクセスすること等を可能とすることができる。このシステムは、CADデータの自動更新機能がなくても、撮影距離を一定の間隔に設定して所定の精度で物体のCADデータを生成するような場合には、より簡単なシステムで自動生成のみを容易に実現して利用することが可能となる。   Such a fourth means has a function of automatically generating CAD data of an object existing in a moving space by processing image information obtained by a movable imaging device in a visual information processing device. As in the first and second means, it is possible to easily obtain CAD data of various objects existing in the moving space, and to obtain three-dimensional coordinate data by the stereo measurement method. Therefore, for example, if the three-dimensional coordinate data of an object is obtained by the stereo measurement method from two pieces of image information obtained by two imaging devices, the two imaging devices are moved before the two imaging devices are moved. Since the three-dimensional coordinate data of the object being photographed at the front can be obtained based on the image information before moving the imaging device, the CAD data of the object being photographed by being located at the front It is possible to obtain the image information before the image pickup device moves. If it is possible to obtain CAD data before moving the imaging device, if the target object is visible from the beginning when applied as a visual guidance control device for an automatic machine such as a robot, the imaging device is moved. Thus, the time for generating CAD data can be omitted, and an automatic machine such as a robot can access the target object. In this system, even if there is no automatic update function of CAD data, if the photographing distance is set to a constant interval and CAD data of an object is generated with a predetermined accuracy, only automatic generation is performed with a simpler system. Can be easily realized and used.

第5の手段は、前記第1〜第4の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは輪郭線と実際の線を区別するようにすることである。   A fifth means is to make the CAD data distinguish a contour line from an actual line in a visual information processing apparatus configured by selectively applying the first to fourth means.

このような第5の手段は、前記第1〜第4の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは、輪郭線と実際の線を区別するようにしていることから、物体の形状データを取り込む場合には輪郭線として検出された線もその物体の形状を示す線であるので、形状データとして蓄積しておくことができる。また、模様の線のように実際にそこに線が存在する場合の該線は、絶対的な位置の情報を有する形状データともなるし、その物体の模様を形成する模様の情報でもある。従って、生成されたCADデータで輪郭線と実際の線を区別して管理しておけば、形状データを取り扱いたい場合には、輪郭線と実際の線の両方を用いたより多くの情報を用いてより正確な形状を認識処理することが可能となる。   In such a fifth means, in the visual information processing apparatus configured by selectively applying the first to fourth means, the CAD data distinguishes the contour line from the actual line. Therefore, when capturing the shape data of the object, since the line detected as the contour line is also a line indicating the shape of the object, it can be stored as shape data. Further, when a line actually exists like a pattern line, the line is used as shape data having information on an absolute position, or is information on a pattern forming the pattern of the object. Therefore, if the contour line and the actual line are distinguished and managed in the generated CAD data, if you want to handle the shape data, use more information using both the contour line and the actual line. An accurate shape can be recognized and processed.

一方、パターンマッチングなどである模様を探索しようとする場合には、輪郭線のデータを一緒に取り扱うと模様にはない線が含まれてしまうので正しいマッチングがとれずに探索し難いが、その場合には、実際の線データのみを使用して探したい模様とのマッチングを行なえば、容易に模様を探索することができるようになる。それは、輪郭線と実際の線を区別して管理しておくので、必要な線の方だけを必要なときに効率良く使用することが可能となる。従って、模様のある物体と模様のない物体が混在する環境においても、CADデータの生成と探索を効率的に行なうことができるようになる。また、スポットライトや影の輪郭線は、それがライト当たっている面の輪郭や当たっていない影の輪郭と分かっている場合には輪郭線になるが、光源や光源からの光を遮る物体が移動しなければ撮像装置が移動しただけでは変化しないので模様として取り扱える両方の特徴をもつので、分かった時点で実際(模様)の線から輪郭線に区別内容を変更しても良いし、光源や遮る物体が動くことが分かっていてもCADデータを利用する時間の間隔では動かない場合には、影をパターンマッチングの模様にするケースを考慮して、影等の輪郭線は、他の輪郭線や実際の線とは区別して管理するようにしても良い。   On the other hand, when trying to search for patterns that are pattern matching, etc., if the contour line data is handled together, lines that are not in the pattern are included, so it is difficult to search without correct matching, but in that case If a pattern to be searched is matched using only actual line data, the pattern can be easily searched. Since the contour line and the actual line are distinguished and managed, only the necessary line can be efficiently used when necessary. Accordingly, CAD data can be efficiently generated and searched even in an environment where a patterned object and an unpatterned object are mixed. Also, the spotlight or shadow outline is an outline if it is known as the outline of the surface that is illuminated or the outline of the shadow that is not illuminated, but there is an object that blocks the light from the light source or the light source. Since it has both features that can be handled as a pattern because it does not change if the image pickup device moves only if it does not move, the distinction content may be changed from the actual (pattern) line to the contour line when it is known, If it is known that the obstructing object moves but does not move at the time interval using CAD data, the shadow and other contour lines are considered as other contour lines in consideration of the case where the shadow is used as a pattern matching pattern. Alternatively, management may be performed separately from actual lines.

第6の手段は、前記第1〜5の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは、点と線と面データから構成することである。   A sixth means is a visual information processing apparatus configured by selectively applying the first to fifth means, wherein the CAD data is constituted by points, lines, and plane data.

このような第6の手段は、前記第1〜第5の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは、点と線と面データから構成する。そのために、円筒や立方体などのソリッドデータに置き換える処理を不要にすることができ、処理の簡単化や高速化を容易に図れるようになる。また、CADデータを更新する場合も、ソリッドデータを更新する複雑な処理が不要となるので、更新処理も容易に実現できるようになる。更に、撮像装置を移動させながら得た画像情報に基づいてCADデータを生成しているために、対象物体を遠くから撮影している場合には、サイコロなどは立方体に見えるために立方体としてのCADデータを生成することになるが、撮像装置が近くに寄った場合には、サイコロの角は丸まっているので、厳密に言うと完全な立方体ではなくなる。このようなことは、周囲の総ての環境について言える。従って、このように移動する撮像装置で撮影して得た画像情報に基づいてCADデータを生成する場合の必要最小限のCADデータの構成単位は、点データと線データと面データまでで十分である。ソリッドデータを生成しても、それをより近くから見れば、最初に定義したソリッドではなくなる。遠くから見た建物は、直方体のようなものであっても、撮像装置が移動して建物の中に入れば、最初は直方体に見えていた建物は平面的な壁から構成されており、更に、壁も詳しく見れば複数の平面の集合体から構成されていることが見えてくるので、最初に直方体のようなソリッドデータに置き換えても、移動する撮像装置で撮影した画像情報に基づいてCADデータを生成する場合には、直ぐに更新が必要となってしまう。従って、必要最小限のCADデータを生成および更新するようにすることで、処理を容易に行なうことができるようになる。そして、このシステムの場合には、それが最も適したCADデータの構成でもあるということになる。   In such a sixth means, in the visual information processing apparatus configured by selectively applying the first to fifth means, the CAD data is constituted by points, lines, and plane data. For this reason, it is possible to eliminate the need to replace the data with solid data such as a cylinder or a cube, and the processing can be simplified and speeded up easily. Also, when updating the CAD data, a complicated process for updating the solid data is not required, so that the update process can be easily realized. Furthermore, since CAD data is generated based on image information obtained while moving the imaging apparatus, when the target object is photographed from a distance, the dice and the like look like a cube, so the CAD as a cube Although data is generated, when the imaging device is close, the corners of the dice are rounded, and strictly speaking, they are not complete cubes. This is true for all surrounding environments. Accordingly, the minimum necessary unit of CAD data when generating CAD data based on image information obtained by imaging with the moving imaging apparatus is sufficient for point data, line data, and plane data. is there. Even if you generate solid data, if you look at it from a closer distance, it will not be the solid you originally defined. Even if the building seen from a distance is like a rectangular parallelepiped, if the imaging device moves and enters the building, the building that initially appeared as a rectangular parallelepiped is composed of flat walls, If you look closely at the wall, you can see that it is composed of an assembly of a plurality of planes. Even if it is first replaced with solid data such as a rectangular parallelepiped, CAD is based on image information captured by a moving imaging device. When data is generated, it is necessary to update immediately. Accordingly, the processing can be easily performed by generating and updating the minimum necessary CAD data. In the case of this system, it is the most suitable configuration of CAD data.

第7の手段は、前記第1〜第6の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも線のCADデータは関数表現されるようにすることである。   The seventh means is to allow at least the CAD data of the line to be expressed as a function in the visual information processing apparatus configured by selectively applying the first to sixth means.

このような第7の手段は、前記第1〜第6の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも線のCADデータは関数表現されるようにしているので、例えば、どんなに長い直線でも始点と終点を結ぶ直線の式でCADデータを表現しておけば、始点と終点の座標の値が変わるだけで点データを増やす必要はない。また、曲線でも始点と終点と途中を経由する代表的な点を幾つか定義して、それらの点にフィッテイングする関数で表現することにより、例えば、短い直線データの集合体で曲線を表示する場合と比較して点データや線データの数は少なくなり、面データを構成する要素(線データ)の数も少なくなるので、CADデータが多くなった場合にもCADデータのメモリ容量を節約することが可能となる。   In such a seventh means, in the visual information processing apparatus configured by selectively applying the first to sixth means, at least the CAD data of the line is expressed as a function. If CAD data is expressed by an equation of a straight line connecting a start point and an end point, no matter how long a straight line is, it is not necessary to increase the point data only by changing the coordinate values of the start point and the end point. Also, by defining some representative points that pass through the start point, end point, and halfway in the curve, and expressing them with functions that fit to those points, for example, a curve is displayed as a collection of short line data Compared to the case, the number of point data and line data is reduced, and the number of elements (line data) constituting the surface data is also reduced. Therefore, even when the CAD data is increased, the memory capacity of the CAD data is saved. It becomes possible.

第8の手段は、前記第1〜第7の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも面のCADデータに色情報をもたせるようにすることである。   The eighth means is to provide color information at least on the CAD data of the surface in the visual information processing apparatus configured by selectively applying the first to seventh means.

このような第8の手段は、前記第1〜第7の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも面のCADデータに色情報をもたせるようにしているので、色情報を使ったマッチング検索などを行なうことができるようになる。物の境界は総て境界線とみれば、色情報は、線データにはなく面データにのみあるという考え方でもシステムには適用可能である。すなわち、移動する撮像装置で撮影して得た画像情報に基づいてCADデータを生成するときには、線に見えている部分も、近くで見れば細長い面積をもった面データとなる。もちろん、線に見える段階で線データに色情報をもたせることもできる。少なくとも面データに色情報があれば、色模様を使ったマッチングとか、交通信号機の赤,青,黄色の認識などにも適用可能なCADデータを生成することができる。   In such a visual information processing apparatus configured by selectively applying the first to seventh means, color information is provided at least on the CAD data of the surface. Matching search using can be performed. If all object boundaries are considered as boundary lines, the idea that color information is only in surface data, not line data, can be applied to the system. That is, when CAD data is generated based on image information obtained by imaging with a moving imaging device, a portion that is visible as a line becomes surface data having a long and narrow area when viewed in the vicinity. Of course, the line data can be provided with color information when it looks like a line. If at least surface data has color information, CAD data that can be applied to matching using a color pattern or red, blue, and yellow recognition of a traffic signal can be generated.

第9の手段は、前記第1〜8の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも面のCADデータの色情報に明るさの情報をもたせるようにすることである。   A ninth means is to provide brightness information at least in the color information of the CAD data of the surface in the visual information processing apparatus configured by selectively applying the first to eighth means.

このような第9の手段は、前記第1〜第8の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも面のCADデータの色情報に明るさの情報をもたせるようにしているので、例えば、このシステムで生成したCADデータを用いて交通信号機の状態を認識しようとした場合には、ランプ方式の交通信号機では、赤の信号ランプが点灯してない場合にも赤い色をしているので、その信号ランプが点灯しているか否かを色情報だけでは認識し難いが、明るさの情報があればランプが点灯しているか否かは、点灯しているときと消灯しているときの明るさの比較で容易に認識することができるようになる。勿論、白黒処理の場合には、色情報は、グレースケールであるが、それは明るさの情報でもある。また、他の対象物体へ影響を与えるほど明るい面は、光源として予め分かっていれば、その光源の影響で生じている影がある場合には、それがその光源による影であることを幾何学的な位置関係から判断し易くなるので、ある明るさ以上の面は、光源とCADデータとして区別するようにすることができる。このときに、後で利用し易くするために、波長成分毎の明るさとか放射している方向による明るさの違いがあれば、その分布特性に関わる情報もCADデータの中に生成するようにしておくと良い。   In such a ninth means, in the visual information processing apparatus configured by selectively applying the first to eighth means, brightness information is provided at least in the color information of the CAD data of the surface. So, for example, when trying to recognize the traffic signal status using the CAD data generated by this system, the lamp type traffic signal will show a red color even when the red signal lamp is not lit. Therefore, it is difficult to recognize whether or not the signal lamp is lit only by color information, but if there is brightness information, whether or not the lamp is lit is turned on and off. You can easily recognize the brightness when you are comparing. Of course, in the case of monochrome processing, the color information is grayscale, but it is also information on brightness. In addition, if a surface bright enough to affect other target objects is known in advance as a light source, if there is a shadow caused by the influence of the light source, it is geometrically determined that the shadow is caused by the light source. Therefore, it is possible to distinguish a surface with a certain brightness or more as a light source and CAD data. At this time, for easy use later, if there is a difference in brightness for each wavelength component or brightness depending on the direction of radiation, information related to the distribution characteristics is also generated in the CAD data. It is good to keep.

第10の手段は、前記第1〜第9の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに該CADデータを生成した時間に関する情報をもたせるようにすることである。   A tenth means is a visual information processing apparatus configured by selectively applying the first to ninth means so that the CAD data has information relating to the time at which the CAD data was generated.

このような第10の手段は、前記第1〜第9の手段を選択的に適用して構成した視覚情報処理装置において、CADデータに生成された時間に関する情報をもたせるようにしているので、生成されたCADデータを参照したときに該CADデータが生成された時刻を参照することができるようになる。従って、例えば、現在生成した同じ場所のCADデータと前に生成されていたCADデータを比較したときに、違いがあった場合には、現在の時刻と前のCADデータに登録されていた時刻とから何時間前からの状態から変化したかということを認識することが可能となる。CADデータを生成しながら生成されているCADデータを参照する場合に、生成時刻がCADデータにあれば、どちらが先に生成されたCADデータかも確認することができる。   In such a tenth means, in the visual information processing apparatus configured by selectively applying the first to ninth means, the CAD data is provided with information relating to the time generated. When the generated CAD data is referred to, the time when the CAD data is generated can be referred to. Therefore, for example, when there is a difference when comparing the CAD data generated at the same place with the CAD data generated before, the current time and the time registered in the previous CAD data are It is possible to recognize how many hours ago the state has changed. When referring to CAD data generated while generating CAD data, if the generation time is in the CAD data, it can be confirmed which is the CAD data generated earlier.

第11の手段は、前記第1〜10の手段を選択的に適用して構成した視覚情報処理装置において、CADデータ更新時に前のCADデータを残すようにすることである。   The eleventh means is to leave the previous CAD data when the CAD data is updated in the visual information processing apparatus configured by selectively applying the first to tenth means.

このような第11の手段は、前記第1〜第10の手段を選択的に適用して構成した視覚情報処理装置において、CADデータ更新時に前のCADデータを残すようにしているので、更新によってCADデータが変更される経緯を残すことが可能となる。また、残したCADデータに時刻データが含まれている場合には、それらの時系列のCADデータの移動量と参照する時刻から計算されるCADデータが生成された間隔から、当該CADデータの移動速度を推定認識することも可能となる。   In such a eleventh means, in the visual information processing apparatus configured by selectively applying the first to tenth means, the previous CAD data is left when the CAD data is updated. It becomes possible to leave the process of changing the CAD data. If the remaining CAD data includes time data, the movement of the CAD data is calculated based on the movement amount of the time-series CAD data and the interval at which the CAD data calculated from the reference time is generated. It is also possible to estimate and recognize the speed.

第12の手段は、前記第11の手段を適用して構成した視覚情報処理装置において、CADデータ更新時に所定のタイミングで古いCADデータを削除するようにすることである。   A twelfth means is to delete old CAD data at a predetermined timing when updating the CAD data in the visual information processing apparatus configured by applying the eleventh means.

このような第12の手段は、前記第11の手段を適用して構成した視覚情報処理装置において、CADデータ更新時に所定のタイミングで古いCADデータを削除するようにしているので、所定のタイミング、すなわち、5回前のデータまでを残しておくとか、10秒前までのデータを残しておくなど、によって残しておくデータ量を制限することで、更新時に前のCADデータを残すようにしてもCADデータの量が発散することがなくメモリ容量を節約することが可能となる。   In such a twelfth means, in the visual information processing apparatus configured by applying the eleventh means, the old CAD data is deleted at a predetermined timing when the CAD data is updated. In other words, the previous CAD data may be left at the time of update by limiting the amount of data left by, for example, leaving data up to 5 times before or leaving data up to 10 seconds ago. The amount of CAD data does not diverge and the memory capacity can be saved.

第13の手段は、前記第1〜第12の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは一緒に移動していると判断されるデータをグルーピングして区別するようにすることである。   According to a thirteenth means, in the visual information processing apparatus configured by selectively applying the first to twelfth means, the CAD data is grouped and distinguished from data determined to move together. Is to do.

このような第13の手段は、前記第1〜第12の手段を選択的に適用して構成した視覚情報処理装置において、CADデータは一緒に移動していると判断されるデータをグルーピングして区別するようにしているので、動いている物体から生成されるCADデータは一緒に動いているので、一緒に動いているデータのまとまりとしてグルーピング化すると、移動している物体を構成するCADデータをグルーピングして管理することが容易となる。面で反射している光とか、鏡面に写っている虚像の動きとか、スポットライトの照明とか、影などもデータをグルーピング化しておくことにより、追跡とかCADデータの更新は、そのグループのCADデータに対して行なえば良いので処理が容易になる。   In such a thirteenth means, in the visual information processing apparatus configured by selectively applying the first to twelfth means, the CAD data is grouped with data determined to move together. Since the CAD data generated from the moving objects are moving together, grouping them as a group of the data moving together, the CAD data constituting the moving object is converted into a group. It becomes easy to manage by grouping. By grouping the data such as the light reflected on the surface, the movement of the virtual image reflected in the mirror surface, the illumination of the spotlight, the shadow, etc., tracking and updating of the CAD data can be performed by the CAD data of the group. Therefore, processing can be facilitated.

第14の手段は、前記第1〜第13の手段を選択的に適用して構成した視覚情報処理装置において、面のCADデータに付いているCADデータを当該面のCADデータとは別に移動することを検出することにより虚像のCADデータとして区別するようにすることである。   In a visual information processing apparatus configured by selectively applying the first to thirteenth means, the fourteenth means moves the CAD data attached to the CAD data of the surface separately from the CAD data of the surface. By detecting this, it is made to distinguish as CAD data of a virtual image.

このような第14の手段は、前記第1〜第13の手段を選択的に適用して構成した視覚情報処理装置において、面のCADデータに付いているCADデータを当該面のCADデータとは別に移動することを検出することで虚像のCADデータとして区別するようにしているので、実際にその面にあるCADデータと写り込みでたまたまその面に付いているように見える虚像とを区別して管理することができる。区別して管理していれば、対象物体を認識する場合に、たまたま写っていた虚像のデータは除いて本来の対象物体のみの模様データで模様のマッチングなどを行って、その物体を認識する処理が容易になる。ここで虚像と称しているものは、鏡面に写っている虚像と向う側に透けて見えている画像情報も、対象としている面データに直接付いていないものという意味で虚像と称する。また、スポットライトの照明とか影なども動く虚像として定義しても良い。   In such a fourteenth means, in the visual information processing apparatus configured by selectively applying the first to thirteenth means, the CAD data attached to the CAD data of the surface is the CAD data of the surface. Since it is distinguished as CAD data of the virtual image by detecting the movement separately, it is managed by distinguishing the CAD data actually on the surface from the virtual image that happens to appear on the surface by reflection. can do. If the target object is recognized, the process of recognizing the target object by performing pattern matching with the pattern data of only the original target object, excluding the virtual image data that happened to be captured, is recognized. It becomes easy. What is referred to as a virtual image herein is referred to as a virtual image in the sense that image information that is seen through to the side facing the virtual image reflected on the mirror surface is not directly attached to the target surface data. Also, spotlight illumination or shadows may be defined as moving virtual images.

第15の手段は、前記第1〜第14の手段を選択的に適用して構成した視覚情報処理装置において、虚像のCADデータが付いている面のCADデータを鏡面的な面あるいは透過する面として区別するようにすることである。   In a visual information processing apparatus configured by selectively applying the first to fourteenth means, a fifteenth means is a mirror surface or a surface through which the CAD data of the surface with the virtual image CAD data is attached. It is to be distinguished as.

このような第15の手段は、前記第1〜第14の手段を選択的に適用して構成した視覚情報処理装置において、虚像のCADデータが付いている面のCADデータを鏡面的な面あるいは透過する面として区別するようにしているので、一度区別された後は、その面には虚像が写るということが分かるので、例えば新たな点とか線とか面のCADデータがその面に付いているようなデータが生成された場合には、当該面が鏡面的な面であれば、撮像装置と視点と当該面の位置と向きから虚像を写している実像に相当する物体が新たに生じたであろう空間の方向のCADデータを調べることにより、写っている虚像は、鏡面反射で生じた新たな虚像であることを容易に確認することができる。同様に、透過する面である場合には、透過して見える先の空間の方向を調べれば、それが透過して見える先の実体の虚像であることを容易に確認することができる。従って、取り敢えず、鏡面か透過面かは区別されてなくても、虚像が写る面か写らない面かの区別ができていれば、当該面の更新処理のときに虚像を考慮した処理を行なうか否かを区別することができるので、処理が容易になる。   In such a fifteenth means, in the visual information processing apparatus configured by selectively applying the first to fourteenth means, the CAD data of the surface with the virtual image CAD data is converted into a mirror surface or Since it is distinguished as a transparent surface, it can be understood that a virtual image appears on the surface after the surface is once distinguished. For example, CAD data of a new point, line, or surface is attached to the surface. When such data is generated, if the surface is a mirror surface, an object corresponding to a real image that is a virtual image is newly generated from the imaging device, the viewpoint, and the position and orientation of the surface. By examining the CAD data in the direction of the space, the reflected virtual image can be easily confirmed to be a new virtual image generated by specular reflection. Similarly, in the case of a transmissive surface, it is possible to easily confirm that it is a virtual image of a previous entity that can be seen through by examining the direction of the previous space that can be seen through. Therefore, for the time being, even if it is not distinguished whether it is a mirror surface or a transmission surface, if it is possible to distinguish between a surface where a virtual image is reflected and a surface where a virtual image is not visible, whether the processing considering the virtual image is performed when the surface is updated Since it can be discriminated whether or not, processing becomes easy.

第16の手段は、前記第1〜第15の手段を選択的に適用して構成した視覚情報処理装置において、透過する面または鏡面と判断される面を鏡面的な面と仮定した場合に反射する先の虚像と対応する位置に該虚像の実像と判断されるCADデータが存在する場合には当該面を鏡面的な面として識別するようにすることである。   A sixteenth means is a visual information processing apparatus configured by selectively applying the first to fifteenth means, and reflects when a transparent surface or a surface determined to be a mirror surface is assumed to be a mirror surface. When CAD data that is determined to be a real image of the virtual image exists at a position corresponding to the previous virtual image, the surface is identified as a specular surface.

このような第16の手段は、前記第1〜第15の手段を選択的に適用して構成した視覚情報処理装置において、虚像のCADデータが付いている面を鏡面的な面と仮定した場合には該虚像と対応する位置に該虚像の実像(実体)が存在することから、そのようなCADデータが存在する場合には、当該面を鏡面的な面として区別するようにしているので、実体がなかった場合にはその面は透過する面であることが分かり、透過する面として管理することができるようになる。そして実体が存在した場合には、その面は鏡面的な面であることが確認され、当該面は、鏡面かハーフミラーの面であるということになる。従って、このような処理を行なうことで、面データを鏡面的な面(鏡面かハーフミラーの面)であるか否の識別を容易に行なえるようになる。このように面の区別がなされていない場合には、その都度、その面に本当に新たに付いた、例えばペイントなどの塗装か、そうでなければ鏡面で写っている虚像か、透過して見えている虚像か否かの確認を行わなければ最終的な認識を行なうことがができないために処理に余計な時間がかかる。従って、面の識別がなされていることは、少なくとも鏡面としての確認と透過面としての確認の両方の処理を行わないで済むようになるので、虚像の認識を効率良く行なうことができるようになる。   Such a sixteenth means is a visual information processing apparatus configured by selectively applying the first to fifteenth means, assuming that the surface with the virtual image CAD data is a specular surface. Since there is a real image (entity) of the virtual image at a position corresponding to the virtual image, when such CAD data exists, the surface is distinguished as a mirror surface. If there is no entity, it is understood that the surface is a transparent surface, and can be managed as a transparent surface. If the entity exists, it is confirmed that the surface is a mirror surface, and the surface is a mirror surface or a half mirror surface. Therefore, by performing such processing, it becomes possible to easily identify whether or not the surface data is a mirror surface (mirror surface or half mirror surface). If there is no distinction between the surfaces in this way, each time the surface is newly added, for example, paint such as paint, or a virtual image that is reflected in the mirror surface, it can be seen through. Since it is not possible to perform final recognition without confirming whether or not the virtual image is present, the processing takes extra time. Therefore, the fact that the surface has been identified eliminates at least the confirmation of the mirror surface and the confirmation of the transmission surface, so that the virtual image can be recognized efficiently. .

第17の手段は、前記第1〜16の手段を選択的に適用して構成した視覚情報処理装置において、少なくとも面のCADデータに反射率と透過率の何れか、あるいは両方をもたせるようにすることである。   In a visual information processing apparatus configured by selectively applying the first to sixteenth means, the seventeenth means causes at least one of the surface CAD data to have reflectance, transmittance, or both. That is.

このような第17の手段は、前記第1〜第16の手段を選択的に適用して構成した視覚情報処理装置において、面のCADデータに反射率と透過率の何れか、あるいは両方をもたせるようにしているので、例えば、反射率が100%で透過率が0%の場合には、当該面は完全鏡面であるとして、また、反射率が50%で透過率が50%という場合には、ハーフミラーの面であるとして、以下の処理を進めることが可能となる。このCADデータを生成するときには、撮像装置から取得した輝度(明るさ)の情報から実際的な反射率や透過率を求めてその数値をもたせても良いし、反射率100%か否か、透過率が50%か否か程度の識別で鏡面かハーフミラーかの簡単な識別しか行わないようにしても良い。因みに、反射率と透過率の情報をもたせた場合は、両方の数値の合計と100%との差を吸収率として取り扱うシステムとすることも、このようなCADデータとしておくことにより容易に実現することができるようになる。また、反射率とか透過率の定義は、厳密に言えば波長成分毎に異なる場合があるので、CADデータとしてどこまで細かく定義するかは別としても、波長毎に定義すると良い。また、放射率を波長毎に定義するようにしても良い。更に、放射率とか反射率については、方向に対する指向性がある場合もあるので、光源により生じている面の状態とか影、環境内の物体に反射した光源により生じている面の状態とか影を、それらの幾何学的な関係から認識し易くするように、CADデータに指向性の特性ももたせるようにすると良い。反射率の指向性には、反射面の粗さを示す要素を含めると良い。例えば、虚像のシャープ度が反射面の荒さによって変わる特性を利用して、反射している虚像の輪郭などのシャープ度(ボケの具合)を生画像情報の処理で抽出し、それを面の粗さに相当する指標としてとらえるようにすると良い。   In such a seventeenth means, in the visual information processing apparatus configured by selectively applying the first to sixteenth means, the CAD data of the surface has either or both of reflectance and transmittance. Therefore, for example, when the reflectance is 100% and the transmittance is 0%, the surface is assumed to be a perfect mirror surface, and when the reflectance is 50% and the transmittance is 50%. Assuming that the surface is a half mirror surface, the following processing can be performed. When this CAD data is generated, the actual reflectance or transmittance may be obtained from the luminance (brightness) information acquired from the imaging device, and the numerical value may be given, whether the reflectance is 100% or not. Only simple identification of mirror surface or half mirror may be performed by identifying whether the rate is 50% or not. Incidentally, in the case where information on reflectance and transmittance is provided, a system that handles the difference between the sum of both values and 100% as the absorption rate can be easily realized by using such CAD data. Will be able to. Furthermore, strictly speaking, the definition of reflectance or transmittance may differ for each wavelength component, so it may be defined for each wavelength regardless of how finely it is defined as CAD data. Moreover, you may make it define an emissivity for every wavelength. In addition, the emissivity and reflectivity may have directionality in the direction, so the state and shadow of the surface caused by the light source, and the state and shadow of the surface caused by the light source reflected on the object in the environment. The CAD data should also have directivity characteristics so that it can be easily recognized from the geometric relationship. The directivity of the reflectance may include an element indicating the roughness of the reflecting surface. For example, using the characteristic that the sharpness of a virtual image varies depending on the roughness of the reflecting surface, the sharpness (blurring) of the contour of the reflected virtual image is extracted by processing raw image information, which is then extracted from the rough surface. This should be taken as an index equivalent to that.

第18の手段は、前記第1〜第17の手段を選択的に適用して構成した視覚情報処理装置において、撮像装置の視点の位置が変わるとCADデータの色が変化する面はそういう面であるということを区別するようにすることである。   According to an eighteenth means, in the visual information processing apparatus configured by selectively applying the first to seventeenth means, the surface where the color of the CAD data changes when the viewpoint position of the imaging device changes is such a surface. It is to distinguish between being.

このような第18の手段は、前記第1〜第17の手段を選択的に適用して構成した視覚情報処理装置において、撮像装置の視点の位置が変わるとCADデータの色が変化する面はそういう面であるということを区別するようにしているので、見る角度によって見える色が変わる面の識別ができるようになる。そういう面がそういう面であるということが識別されていれば、例えば沢山の車の中からオレンジ色の車のCADデータを使って特定しようとした場合に、当該車の表面のCADデータの色を生成したときにたまたまオレンジに見えた車を単純にオレンジの車であると誤って特定しないようにすることができるようになる。すなわち、当該面が見る角度によって色が変わる面であると区別されていれば、他の角度から見て生成されるCADデータの色情報も確認した上で、それは本当にオレンジ色の車であると特定することが可能となる。   In such a visual information processing apparatus configured by selectively applying the first to seventeenth means, the eighteenth means is such that the color of the CAD data changes when the viewpoint position of the imaging device changes. Since such a surface is distinguished, the surface whose color changes depending on the viewing angle can be identified. If it is identified that such a surface is such a surface, for example, when trying to specify using the CAD data of an orange car among many cars, the color of the CAD data on the surface of the car is changed. A car that happens to appear orange when it is generated can be prevented from being erroneously identified as simply an orange car. In other words, if it is discriminated that the surface changes color depending on the viewing angle, the color information of the CAD data generated when viewed from other angles is also confirmed, and it is really an orange car. It becomes possible to specify.

第19の手段は、前記第1〜第18の手段を選択的に適用して構成した視覚情報処理装置において、撮像装置が移動してもその入力画像情報の中の変化しない部分は処理の対象外とするようにすることである。   According to a nineteenth aspect, in the visual information processing apparatus configured by selectively applying the first to eighteenth means, a portion that does not change in the input image information even if the imaging apparatus moves is a target of processing. Is to be outside.

このような第19の手段は、前記第1〜第18の手段を選択的に適用して構成した視覚情報処理装置において、撮像装置が移動してもその入力画像情報の中の変化しない部分は処理の対象外とするようにしているので、例えば、撮像装置のレンズに付着しているゴミとかほこりとか、CCD素子の放射線劣化の痕跡とか、画像情報にスーパーインポーズされている文字など、実際には環境空間に存在しないで画像情報に含まれる物体をCADデータ化しようと試みて不自然な処理となるのを防いだり、CADデータ化しようと試みて矛盾が生じたことから実際には環境空間に存在しないノイズ的な成分であることが分かる、というような無駄な処理を行わないで効率良く必要な情報のみを対象として処理を行なうことができるようになる。   In such a nineteenth means, in the visual information processing apparatus configured by selectively applying the first to eighteenth means, the portion of the input image information that does not change even when the imaging apparatus moves is Since it is excluded from the processing target, for example, dust and dust adhering to the lens of the imaging device, traces of radiation deterioration of the CCD element, characters superimposed on the image information, etc. In fact, an object that does not exist in the environment space is tried to be converted to CAD data by trying to convert it into CAD data, or a contradiction occurs when trying to convert it to CAD data. It is possible to efficiently perform processing only on necessary information without performing useless processing such as knowing that the noise component does not exist in the space.

第20の手段は、前記第1〜第19の手段を選択的に適用して構成した視覚情報処理装置において、撮像装置によって得た画像情報に対して形状,大きさ,密度,方向性,色等の幾何学的パターンで、あるいは発生する周期などの時間的なパターンで、あるいは前記幾何学的なパターンと時間的なパターンの両方で当該パターンに相当する画像情報の中の当該部位を抽出し、抽出した当該部分は処理の対象外とするようにすることである。   In a visual information processing apparatus configured by selectively applying the first to nineteenth means, the twentieth means is the shape, size, density, directionality, and color for the image information obtained by the imaging apparatus. The relevant part in the image information corresponding to the pattern is extracted with a geometric pattern such as, a temporal pattern such as a generated cycle, or both the geometric pattern and the temporal pattern. The extracted portion is excluded from processing.

このような第20の手段は、前記第1〜第19の手段を選択的に適用して構成
した視覚情報処理装置において、撮像装置で得た入力画像情報に対して形状,大きさ,密度,方向性,色等の幾何学的パターンで、あるいは発生する周期などの時間的なパターンで、あるいは前記幾何学的なパターンと時間的なパターンの両方で当該パターンに相当する画像情報の中の当該部位を抽出し、抽出した当該部分は処理の対象外とするようにしているので、撮像装置で得た画像情報に含まれている電気ノイズとか、ランダムに入ってくる放射線ノイズなどを容易に処理の対象外とすることができる。すなわち、画像情報の段階で含まれるノイズ成分を除去しても良いが、除去しないまでにも当該部分のアドレス、例えば、画像メモリなどの番地で当該部分に生じている画像情報はノイズであることがCADデータ生成処理の前の段階で分かっていれば、それらを事前に取り除いて処理の対象外とすることができるようになる。電気ノイズとか、ランダムに入ってくる放射線ノイズなどは、発生する頻度や発生時の大きさが短時間に極端に変化するものではなく、形状,大きさ,密度,方向性,色等の幾何学的特徴や発生する周期などの時間的な特徴があるので、その特徴から前処理の段階で比較的容易に認識することができる。
In such a twentieth means, in the visual information processing apparatus configured by selectively applying the first to nineteenth means, the shape, size, density, In a geometric pattern such as directionality, color, etc., in a temporal pattern such as a generated cycle, or in both the geometric pattern and temporal pattern in the image information corresponding to the pattern Since the part is extracted and the extracted part is excluded from processing, electrical noise included in the image information obtained by the imaging device or radiation noise that enters randomly can be easily processed. Can be excluded. In other words, the noise component included in the image information stage may be removed, but the image information generated in the part at the address of the part, for example, the address of the image memory, etc., before it is removed is noise. Can be removed in advance and excluded from the processing target. Electrical noise or random incoming radiation noise does not change in frequency and magnitude at the time of occurrence, but changes in geometry such as shape, size, density, directionality, and color. Since there is a temporal feature such as a target feature and a generated cycle, it can be recognized relatively easily from the feature at the preprocessing stage.

第21の手段は、前記第1〜第20の手段を選択的に適用して構成した視覚情報処理装置において、生成されるCADデータに対して、形状,大きさ,色等の幾何学的パターンで、あるいは発生する周期などの時間的なパターンで、あるいは前記幾何学的なパターンと時間的なパターンの両方で当該パターンに相当する生成される当該CADデータを抽出し、抽出したCADデータは処理の対象外とするようにすることである。   In a visual information processing apparatus configured by selectively applying the first to twentieth means, the twenty-first means is a geometric pattern such as shape, size, and color for the generated CAD data. Or the generated CAD data corresponding to the geometric pattern and the temporal pattern is extracted with a temporal pattern such as a generated cycle or both, and the extracted CAD data is processed. It is to be excluded from the target.

このような第21の手段は、前記第1〜第20の手段を選択的に適用して構成した視覚情報処理装置において、生成されるCADデータに対して形状,大きさ,色等の幾何学的パターンで、あるいは発生する周期などの時間的なパターンで、あるいは前記幾何学的なパターンと時間的なパターンの両方で当該パターンに相当する生成される当該CADデータを抽出し、抽出したCADデータは処理の対象外とするようにしているので、空間を舞っている埃とか、屋外の雨とか、雪などは、必要に応じて、ノイズ成分として除いた処理が行なえるようになり、その結果、実際にその空間に存在するもののCADデータのみを効率良く取り扱えるようにすることが可能となる。具体的な例を述べれば、ステレオ視の撮像装置で屋外を撮影して得た画像情報に基づいてCADデータを生成するような場合には、雨とか雪のCADデータも生成されてしまうので、走っている車のCADデータのみを車の認識用に利用する場合には、その周辺の雨などのCADデータが存在すると、車の認識処理上ではノイズ成分となって効率が悪くなる。しかしこの処理を入れることによって、車の認識処理の前に、特定のノイズ、例えば短い鉛直方向に並んでいる線状のCADデータが雨のCADデータであるということで最初に区別するか消去することで、車の認識処理上ではノイズとなる雨のCADデータを排除して車の認識を容易に行なえるようにすることができる。   Such a twenty-first means is a visual information processing apparatus configured by selectively applying the first to twentieth means, such as geometry such as shape, size, color, etc. for generated CAD data. The CAD data generated by extracting the CAD data corresponding to the pattern in a periodic pattern, in a temporal pattern such as a generated cycle, or in both the geometric pattern and the temporal pattern, and extracting the CAD data Is excluded from the processing target, so dust that is flying in the space, outdoor rain, snow, etc. can be removed as a noise component if necessary, and as a result Thus, it is possible to efficiently handle only CAD data that actually exists in the space. If a specific example is described, when CAD data is generated based on image information obtained by photographing the outdoors with a stereo imaging device, rain or snow CAD data is also generated. When only the CAD data of a running car is used for car recognition, if CAD data such as rain around the car exists, it becomes a noise component in the car recognition process, and the efficiency is deteriorated. However, by including this processing, before the vehicle recognition processing, specific noise, for example, linear CAD data arranged in a short vertical direction is first distinguished or deleted because it is rain CAD data. Thus, it is possible to easily recognize the vehicle by eliminating the rain CAD data, which becomes noise in the vehicle recognition process.

第22の手段は、前記第1〜第21の手段を視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の撮像装置によって得た画像情報を入力して処理する複数の画像情報処理装置を備え、夫々が生成および更新したCADデータを統合するようにすることである。   The twenty-second means is a visual information processing apparatus or a visual information processing system to which the first to twenty-first means are applied, and a plurality of image information processing for inputting and processing image information obtained by a plurality of imaging devices. It is to provide a device and integrate CAD data generated and updated by each.

このような第22の手段、前記第1〜第21の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の撮像装置によって得た画像情報に基づいて複数の画像情報処理装置が夫々に生成および更新したCADデータを統合するようにしているので、複数の撮像装置でいろいろな場所を撮影して得た画像情報に基づいて生成したCADデータを互いに有効に共用して利用することが可能となる。また、広範囲なエリアを1台の撮像装置で撮影してCADデータを生成すると時間がかかるが、複数の撮像装置で撮影してCADデータを生成して夫々のCADデータを統合するようにすれば、短時間に広範囲のCADデータを生成することができるようになる。   In the visual information processing apparatus configured by selectively applying the twenty-second means, the first to twenty-first means, or the visual information processing system to which the visual information processing apparatus is applied, image information obtained by a plurality of imaging apparatuses is used. Since the CAD data generated and updated by each of the plurality of image information processing apparatuses is integrated based on the CAD data generated based on the image information obtained by photographing various places with the plurality of imaging apparatuses. It can be effectively shared with each other. Moreover, although it takes time to generate a CAD data by photographing a wide area with one imaging device, it is possible to integrate the respective CAD data by photographing with a plurality of imaging devices to generate CAD data. A wide range of CAD data can be generated in a short time.

第23の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、相互の画像情報処理装置が相互のCADデータを入出力することができるようにすることである。   A twenty-third means integrates CAD data generated and updated by a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the twenty-second means or a visual information processing system to which the twenty-second means is applied. The means is to allow mutual image information processing devices to input and output mutual CAD data.

このような第23の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、相互の視覚情報処理装置が相互のCADデータを入出力することができるので、視覚情報処理装置同士が直接にデータを授受して処理することができるようになる。具体的には、例えば、相互の視覚情報処理装置が通信回線で繋がっていれば、その通信回線を介して所定のエリアのCADデータを互いに要求し合えるコマンドを用意して、そのコマンドに基づき、互いに相手が生成したCADデータを入手したり、自分の生成したCADデータを相手に送信したりすることができる。CADデータを授受する場合には、互いのCADデータを生成するときの基準となるワールド座標系の相対的な違いの量を予め知るか、同じ座標系にしておく方が処理は容易となる。ワールド座標系の対応を予めとっておかない場合には、取得したCADデータと自分が生成したCADデータの一致する部分を見つけて互いのワールド座標系のずれを求める処理が必要となり、同じ場所のCADデータが生成されてない場合には、一致する場所を求めることもできなくなる。互いの座標系を一致させる方法としては、例えば、撮像装置を最初に移動させる前にその場所の座標と該撮像装置の姿勢を同じワールド座標系の数値で設定するようにすれば容易に合わせることが可能である。しかしながら、日本の北海道と九州で最初に設定して誤差が含まれており、互いに移動を開始して東京で一緒になった場合のずれは、その誤差分だけ生じることになるので、基準となる同じ物をCAD化して、互いに、それを基準にワールド座標系を補正するような機能を設けておくのが良い。CADデータの受け渡しは、通信手段でも良いし、FDやMOなどの記憶媒体を介して行なう方法でも良い。   Such a 23rd means is a CAD data generated and updated by each of a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the 22nd means or a visual information processing system to which the visual information processing system is applied. Since the visual information processing devices can input and output the mutual CAD data, the visual information processing devices can directly exchange and process data. Specifically, for example, if mutual visual information processing devices are connected by a communication line, a command for requesting CAD data of a predetermined area via the communication line is prepared, and based on the command, The CAD data generated by each other can be obtained, or the CAD data generated by the other party can be transmitted to the other party. When sending / receiving CAD data, it is easier to know the amount of relative difference in the world coordinate system that is the reference when generating the CAD data, or to use the same coordinate system. If the correspondence of the world coordinate system is not taken in advance, it is necessary to find a matching part between the acquired CAD data and the CAD data generated by the user and obtain a shift between the world coordinate systems. If CAD data is not generated, a matching location cannot be obtained. As a method for matching the coordinate systems of each other, for example, before the image pickup apparatus is moved for the first time, the coordinates of the place and the attitude of the image pickup apparatus are set with numerical values in the same world coordinate system, so that they can be easily matched. Is possible. However, there is an error that is set first in Hokkaido and Kyushu in Japan, and the deviation when moving together and coming together in Tokyo will be caused by that error, so it will be the standard It is preferable to provide a function for making the same thing into CAD and correcting the world coordinate system based on each other. The delivery of CAD data may be a communication means or a method performed via a storage medium such as FD or MO.

第24の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、複数の画像情報処理装置が夫々に生成および更新したCADデータを別の1台あるいは複数の画像情報処理装置で統合できるようにすることである。   A twenty-fourth means integrates CAD data generated and updated by a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the twenty-second means or a visual information processing system to which the twenty-second means is applied. Means is to enable CAD data generated and updated by a plurality of image information processing apparatuses to be integrated by another one or a plurality of image information processing apparatuses.

このような第24の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、複数の画像情報処理装置が夫々に生成および更新したCADデータを別の1台あるいは複数の統合専用の視覚情報処理装置で統合することができるで、撮像装置によって得た画像情報を処理してCADデータを生成している画像情報処理装置は、CADデータの生成などのみを行なうだけで統合処理を行なわないで済むので、CADデータの生成処理能力を高めることができ、また、統合処理を行なう視覚情報処理装置はCADデータを統合する処理に専念することができるので、沢山の視覚情報処理装置から取得したCADデータの統合処理を効率良く早い速度で行なうことが可能となる。CADデータを送信してくる視覚情報処理装置の台数が多くなる場合には、統合処理を行なう視覚情報処理装置を複数台として、ある程度統合されたCADデータを更に別の視覚情報処理装置で統合するようにしていけば、更に多くの撮像装置で撮影して生成されたCADデータを効率良く統合処理することができるようになる。もちろん、統合されたCADデータは、3次元地図等としても利用することが可能となる。   The twenty-fourth means includes CAD data generated and updated by a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the twenty-second means or a visual information processing system to which the twenty-second means is applied. Means for integrating CAD data generated and updated by each of a plurality of image information processing devices with one or a plurality of other visual information processing devices dedicated for integration. An image information processing apparatus that processes information to generate CAD data only performs generation of CAD data and the like, and does not need to perform integration processing. Visual information processing devices that perform integration processing can concentrate on processing that integrates CAD data. It is possible to perform integration processing of CAD data efficiently at a high speed. When the number of visual information processing apparatuses that transmit CAD data increases, a plurality of visual information processing apparatuses that perform integration processing are used, and CAD data that is integrated to some extent is further integrated with another visual information processing apparatus. By doing so, it becomes possible to efficiently integrate the CAD data generated by photographing with more imaging devices. Of course, the integrated CAD data can be used as a three-dimensional map or the like.

第25の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、複数の画像情報処理装置が夫々に生成および更新したCADデータを別の1台あるいは複数の画像情報処理装置で統合し、統合された結果の全部あるいは一部分を前記画像情報処理装置へ戻すようにすることである。   A twenty-fifth means integrates CAD data generated and updated by a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the twenty-second means or a visual information processing system to which the twenty-second means is applied. The means integrates the CAD data generated and updated by each of the plurality of image information processing apparatuses with another one or a plurality of image information processing apparatuses, and returns all or part of the integrated result to the image information processing apparatus. Is to do so.

このような第25の手段は、前記第22の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合する手段は、複数の画像情報処理装置(1)が夫々に生成および更新したCADデータを別の1台あるいは複数の画像情報処理装置(2)で統合し、統合した結果の全部あるいは一部分を前記画像情報処理装置(1)へ戻すので、統合されたCADデータは撮像装置のところの末端にある画像情報処理装置でも利用することが可能である。すなわち、統合処理は、当該画像情報処理装置自身で行なわないでも統合結果を利用することが可能となる。それは、未だ、撮像装置を移動させてCADデータを生成していない場所にその撮像装置が初めて移動する場合でも、既に生成されているその場所のCADデータを取得して参照することが可能となる。これは、前記第23の手段でも同じである。   The twenty-fifth means includes CAD data generated and updated by a plurality of image information processing apparatuses in a visual information processing apparatus configured by applying the twenty-second means or a visual information processing system to which the twenty-second means is applied. Means for integrating CAD data generated and updated by each of the plurality of image information processing apparatuses (1) with another one or a plurality of image information processing apparatuses (2), and all or part of the integrated result. Is returned to the image information processing apparatus (1), so that the integrated CAD data can be used also by the image information processing apparatus at the end of the imaging apparatus. In other words, the integration result can be used without performing the integration processing by the image information processing apparatus itself. That is, even when the imaging apparatus moves for the first time to a place where the imaging apparatus has not been moved and CAD data has not been generated, it is possible to acquire and refer to the CAD data that has already been generated. . The same applies to the twenty-third means.

第26の手段は、前記第22〜第25の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、生成および更新したCADデータを授受する手段を備え、他の視覚情報処理手段から取得したCADデータを統合する画像情報処理機能を備えたものである。   The twenty-sixth means includes means for exchanging generated and updated CAD data in a visual information processing apparatus configured by selectively applying the twenty-second to twenty-fifth means or a visual information processing system to which the visual information processing apparatus is applied. And an image information processing function for integrating CAD data acquired from other visual information processing means.

このような第26の手段は、前記第22〜第25の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の画像情報処理装置が夫々に生成および更新したCADデータを統合するために、複数の画像情報処理装置がCADデータを他の視覚情報処理装置と受け渡しする手段は、無線通信で行なうようにすれば、各撮像装置の機動性が良くなり、通信ケーブルなどの制約を受けないで広い範囲を移動させることが可能となり、更に、記憶媒体を介さないでリアルタイムのCADデータの授受が可能となる。   In such a twenty-sixth means, in the visual information processing apparatus configured by selectively applying the twenty-second to twenty-fifth means or in the visual information processing system to which the visual information processing system is applied, a plurality of image information processing apparatuses are respectively provided. In order to integrate the generated and updated CAD data, if a plurality of image information processing devices exchanges CAD data with other visual information processing devices by wireless communication, the mobility of each imaging device is improved. As a result, it is possible to move over a wide range without being restricted by a communication cable or the like. Further, real-time CAD data can be exchanged without using a storage medium.

第27の手段は、前記第1〜第26の手段を選択的に適用して構成した視覚情報処理装置および視覚情報処理システムにおいて、画像情報処理装置は、移動する撮像装置の位置または姿勢あるいはその両方の情報を求める機能と、求めた位置情報あるいは姿勢情報あるいはその両方を出力する機能を有するようにすることである。   The twenty-seventh means is a visual information processing apparatus and visual information processing system configured by selectively applying the first to twenty-sixth means, wherein the image information processing apparatus is a position or orientation of a moving imaging device or its It is to have a function for obtaining both pieces of information and a function for outputting the obtained position information and / or posture information.

このような第27の手段は、前記第1〜第26の選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、移動する撮像装置の位置または姿勢あるいはその両方の情報を求める機能と、求めた位置情報または姿勢情報あるいはその両方を出力する機能を有するので、撮像装置の位置および姿勢情報を別のCPU等のアプリケーションシステム側で利用することが可能となる。ロボット等の自動機械の視覚誘導制御装置として適用する場合には、対象物体にアクセスするロボットハンドなどの先端に撮像装置を取り付けることで、この撮像装置とロボットハンドの相対取り付け位置関係は既知であることから、撮像装置の位置と姿勢がわかればロボットハンドの位置と姿勢がわかるようになり、生成したCADデータの移動空間で任意の目標地点までロボットハンドを誘導移動制御することが容易となる。   The twenty-seventh means applies the visual information processing apparatus configured by selectively applying the first to twenty-sixth visual information, the visual information processing apparatus having CAD data in advance, or those visual information processing apparatuses. In the visual information processing system, the image information processing apparatus has a function of obtaining information on the position and / or orientation of the moving imaging device and a function of outputting the obtained position information and / or orientation information. The position and orientation information of the apparatus can be used on the application system side such as another CPU. When applied as a visual guidance control device for an automatic machine such as a robot, the relative attachment position relationship between the imaging device and the robot hand is known by attaching the imaging device to the tip of a robot hand or the like accessing the target object. Therefore, if the position and orientation of the imaging device are known, the position and orientation of the robot hand can be known, and the robot hand can be guided and controlled to an arbitrary target point in the movement space of the generated CAD data.

第28の手段は、前記第27の手段を適用して構成した視覚情報処理システムにおいて、外部から入力する指令信号の所定のタイミングにより移動する撮像装置の位置あるいは姿勢あるいはその両方の情報を出力する機能を有するようにすることである。   According to a twenty-eighth means, in the visual information processing system configured by applying the twenty-seventh means, information on the position and / or posture of the imaging apparatus that moves at a predetermined timing of a command signal input from the outside is output. It is to have a function.

このような第28の手段は、前記第27の手段を適用して構成した視覚情報処理装置あるいは視覚情報処理システムにおいて、外部からの指令信号を入力とし、その指令信号の所定のタイミングにより移動する撮像装置の位置または姿勢あるいはその両方の情報を出力する機能を有することから、別のCPU等のアプリケーションシステム側で必要とするタイミングで撮像装置の位置と姿勢の情報を要求することができるのでアプリケーションシステムを容易に構築することが可能となる。   In such a twenty-eighth means, in the visual information processing apparatus or visual information processing system configured by applying the twenty-seventh means, a command signal from the outside is input and moved at a predetermined timing of the command signal. Since it has a function of outputting information on the position and / or orientation of the imaging device, it can request the information on the position and orientation of the imaging device at a timing required on the application system side such as another CPU. A system can be easily constructed.

第29の手段は、前記第1〜第28の手段を選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、CADデータの探索指令信号を入力とし、その指令信号に基づきCADデータを探索する機能と、探索したCADデータの情報を出力する機能を有するようにすることである。   The twenty-ninth means is a visual information processing apparatus configured by selectively applying the first to twenty-eighth means and a visual information processing apparatus having CAD data in advance or their visual information processing apparatus. In the visual information processing system, the image information processing apparatus has a function of searching for CAD data based on a search command signal for CAD data and outputting information of the searched CAD data based on the command signal. That is.

このような第29の手段は、前記第1〜第28の手段を選択的に適用して構成した視覚情報処理装置および予めCADデータを有している視覚情報処理装置あるいはそれらの視覚情報処理装置を適用した視覚情報処理システムにおいて、画像情報処理装置は、CADデータの探索指令信号を入力とし、その指令信号に基づきCADデータを探索する機能と、探索したCADデータの情報を出力する機能を有するので、別のCPU等のアプリケーションシステム側で必要とする情報、例えば、目標とする対象物体のCADデータを探索させ、探索した対象物体のCADデータの情報として、その位置と姿勢の情報を探索結果として得るようにすれば、アプリケーションシステム側で、例えばロボットハンドをその対象物体を掴むような位置と姿勢に誘導制御することが可能となる。更に、ロボットハンドのCADデータを定期的に探索させ、探索したロボットハンドのCADデータの情報として、その位置と姿勢を探索結果として得るようにすれば、その情報をロボットハンドの位置と姿勢のフィードバック制御へ利用することも可能となり、ロボットハンドのアーム部分の撓みとかロボットハンドのベースの位置ずれ等を補正した誘導制御を行なうことが可能となる。また、目標とする対象物体のCADデータの探索も定期的に行なうことにより、目標とする対象物体が移動している場合でも、リアルタイムに目標物体の位置と姿勢の情報が得られるので、アプリケーションシステムは移動する目標物体に対してもロボットハンドをアクセスさせて該目標物体を掴む動作を誘導制御することが可能となる。   Such a twenty-ninth means includes a visual information processing apparatus configured by selectively applying the first to twenty-eighth means, a visual information processing apparatus having CAD data in advance, or a visual information processing apparatus thereof. In the visual information processing system to which is applied, the image information processing apparatus has a function of searching for CAD data based on the CAD signal search command signal and a function of outputting information of the searched CAD data. Therefore, information required on the application system side such as another CPU, for example, CAD data of a target object to be searched is searched, and information on the position and orientation is searched as CAD data information of the searched target object. For example, on the application system side, for example, the position and figure of the robot hand holding the target object It is possible to induce controlled. Furthermore, if the CAD data of the robot hand is periodically searched and the position and orientation of the searched robot hand CAD data is obtained as a search result, the information is fed back to the position and orientation of the robot hand. It can also be used for control, and it is possible to perform guidance control that corrects the deflection of the arm portion of the robot hand or the positional deviation of the base of the robot hand. In addition, since the CAD data of the target object to be searched is periodically searched, even when the target object is moving, the position and orientation information of the target object can be obtained in real time. It is possible to guide and control the movement of the target object to be moved by accessing the robot hand.

第30の手段は、前記第29の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータを探索する機能は、基本図形で探索するか探索用に読み出したCADデータで探索するかその両方の探索機能を有するようにすることである。   The thirtieth means is a visual information processing apparatus configured by applying the twenty-ninth means or a visual information processing system to which the thirty-first means is applied. It is to search with CAD data or to have a search function for both.

このような第30の手段は、前記第29の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータを探索する機能は、基本図形で探索するか、探索用に読み出したCADデータで探索するか、その両方の探索機能を有するので、球や円筒や立方体などの基本図形以外の複雑な形状のCADデータなどのいろいろなものの探索を容易に行なうことができるようになる。例えば、基本図形だけでは実環境の複雑な形状にマッチングするものは少ないので、CADデータ生成システムが生成したCADデータをとっておき、それと同じCADデータも探索することができるようにすれば、いろいろな形状のCADデータを探索することができるということである。もちろん、探察用に読み出した個所のCADデータであれば、精度良くマッチングする。それが移動していた場合には、その探索結果によって移動した量を認識することも可能となる。   In such a thirty-third means, in the visual information processing apparatus configured by applying the twenty-ninth means or the visual information processing system to which the thirty-second means is applied, the function of searching for CAD data is to search using basic graphics, Searching with the CAD data read out for searching or having both search functions, it is possible to easily search various data such as CAD data of complicated shapes other than basic figures such as spheres, cylinders and cubes. become able to. For example, there are few basic figures that match the complex shapes in the real environment. If you keep the CAD data generated by the CAD data generation system and search for the same CAD data, you can use various shapes. That is, the CAD data can be searched. Of course, if it is the CAD data of the part read for exploration, it matches with high precision. If it has moved, it is also possible to recognize the amount of movement based on the search result.

第31の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、予め対象物体毎にいろいろな角度から撮影して生成するようにすることである。   The thirty-first means is a visual information processing apparatus configured by applying the thirty-first means or a visual information processing system to which the thirty-first means is applied. CAD data to be read for search is previously photographed from various angles for each target object. It is to make it generate.

このような第31の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、予め対象物体体毎にいろいろな角度から撮影して生成するので、複雑な形状の物体のCADデータも基本図形と同様に予め準備しておくことができるようになる。いろいろな角度から撮影してCADデータを生成することができるので360°にわたって完全なCADデータを予め用意しておくことができる。最初に読み出したCADデータは、机なら机に相当する名前(種別ID)、椅子なら椅子に相当する名前(種別ID)を付けてメモリに登録しておくようにしても良い。このようにすることによって、例えば、装置(商品)を供給する前にいろいろな物体のCADデータをメモリに登録しておけば、その商品を使用するユーザは、一度もCADデータを生成しないで読み出す処理を行っても、探索用の複雑な形状の沢山のCADデータを利用することが可能となる。   In such a thirty-first means, in the visual information processing device configured by applying the thirty-first means or the visual information processing system to which the thirty-first means is applied, various CAD data to be read for searching are previously stored for each target object. Since it is generated by shooting from an appropriate angle, CAD data of an object having a complicated shape can be prepared in advance as in the case of the basic figure. Since CAD data can be generated by photographing from various angles, complete CAD data can be prepared in advance over 360 °. The CAD data read out first may be registered in the memory with a name (type ID) corresponding to a desk for a desk and a name (type ID) corresponding to a chair for a chair. In this way, for example, if CAD data of various objects is registered in a memory before supplying an apparatus (product), a user who uses the product reads out without generating CAD data even once. Even if the processing is performed, it is possible to use a lot of CAD data having a complicated shape for searching.

第32の手段は、前記第31の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、対象物体を撮影する場所は、撮影対象として対象物体のみを入れた所定の部屋であるようにすることである。   According to a thirty-second means, in a visual information processing apparatus configured by applying the thirty-first means or a visual information processing system to which the thirty-first means is applied, a place where the target object is to be photographed is a predetermined target object only including the target object Is to be a room.

このような第32の手段は、前記第31の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、対象物体を撮影する場所は、撮影対象である対象物体のみを入れた所定の部屋であるので、他に邪魔な物がないことから、対象物体のみのCADデータを容易に生成することができるようになる。   In the thirty-second means, in the visual information processing apparatus configured by applying the thirty-first means or the visual information processing system to which the thirty-first means is applied, the target object is photographed only at the target object that is the photographing target. Since there is no other obstacle, the CAD data of only the target object can be easily generated.

第33の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、指定領域を切り出したものとすることである。   According to a thirty-third means, in the visual information processing apparatus configured by applying the thirty-th means or the visual information processing system to which the thirty-third means is applied, the CAD data read for search is obtained by cutting out a designated area. is there.

このような第33の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、指定領域を切り出せるので、例えば、特定のビルの看板部分だけでも良いし、ドームのように建屋の形状に特徴ある場合には、建屋全体を含む場所を読み出すように、探索したい対象毎に必要最小限の範囲のCADデータを探索用として読み出すことが可能となる。   In such a thirty-third means, in the visual information processing apparatus configured by applying the thirty means or the visual information processing system to which the thirty-third means is applied, the CAD data read out for searching can cut out the designated area. For example, only a signboard part of a specific building may be used. If the shape of a building is characteristic, such as a dome, CAD data in the minimum necessary range for each target to be searched so that a place including the entire building is read out. Can be read out for searching.

第34の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、基本図形あるいは探索用に読み出したCADデータと所定の閾値に基づきマッチングした領域あるいは当該領域とその周辺の領域を切り出したものとすることである。   In a thirty-fourth means, in the visual information processing apparatus configured by applying the thirtyth means or the visual information processing system to which the thirty-third means is applied, the CAD data read for searching is the basic figure or the CAD data read for searching. And a region matched based on a predetermined threshold or the region and its surrounding region are cut out.

このような第34の手段は、前記第30の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出すCADデータは、基本図形あるいは探索用に読み出したCADデータと所定の閾値に基づきマッチングした領域あるいは当該領域とその周辺の領域を切り出すようにしているので、基本図形に近い形状のものとか、探索用に読み出した形状に近い形状のものなどから新規に読み出す範囲を容易に限定することが可能となる。例えば、生成されているCADデータで総ての直方体の看板を探索用に読み出したいような場合は、最初はある程度マッチング度の閾値を低めに設定しておけば、直方体の基本図形にそれなりに近いもの(直方体の看板の候補)が幾つか読み出されるので、その中から欲しいものを選択するようにすることなども容易に実現可能となる。   In such a thirty-fourth means, in the visual information processing apparatus configured by applying the thirtyth means or the visual information processing system to which the thirty-third means is applied, CAD data read out for searching is read out for basic graphics or searching. Since the region matched with the CAD data based on a predetermined threshold or the region and its surrounding region is cut out, the shape close to the basic figure or the shape close to the shape read for search is used. It is possible to easily limit the newly read range. For example, if you want to read all rectangular signboards for search using generated CAD data, set a threshold value for matching to a certain extent at first, and it will be close to the basic figure of the rectangular parallelepiped. Since several (rectangular signboard candidates) are read out, it is possible to easily select a desired one from among them.

第35の手段は、前記第30〜第34の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出したCADデータの幾何情報の特徴量か、色情報の特徴量か、あるいはその両方の特徴量を抽出するようにすることである。   The thirty-fifth means is a visual information processing apparatus configured by selectively applying the thirtieth to thirty-fourth means or a visual information processing system to which the thirty-fourth means is applied, and features of geometric information of CAD data read for search It is to extract the feature amount, the feature amount of the color information, or both.

このような第35の手段は、前記第30〜第34の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索用に読み出したCADデータの幾何情報の特徴量か、色情報の特徴量か、あるいはその両方の特徴量を抽出することができるので、次に、その特徴量を利用して探索するような場合のために、特徴量のデータを短時間に自動的に作成することができるようになる。   Such a thirty-fifth means is the geometry of CAD data read out for searching in a visual information processing apparatus configured by selectively applying the thirtieth to thirty-fourth means or a visual information processing system to which the visual information processing system is applied. Since it is possible to extract the feature quantity of information, the feature quantity of color information, or both, the feature quantity data for the case of searching using the feature quantity next time Can be automatically created in a short time.

第36の手段は、前記第29〜第35の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索にはCADデータの幾何情報の特徴量か、色情報の特徴量か、あるいはその両方の特徴量を利用するようにすることである。   The thirty-sixth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-fifth means, or a visual information processing system to which the visual information processing system is applied. In other words, the feature amount of the color information or both feature amounts are used.

このような第36の手段は、前記第29〜第35の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索にはCADデータの幾何情報の特徴量か、色情報の特徴量か、あるいはその両方の特徴量を利用することができるので、探索する対象の環境が広くて多くのCADデータがあるときでも短時間に効率良く探索することができる。すなわち、多くのCADデータからなる広大な空間の中で探索用のCADデータと姿勢や大きさを変えて何度もマッチング処理をして相関係数(一致度)を求めて一番近いものを探す処理は膨大な時間を要するが、先ず、大きさとか凸凹の数とか縦長比などの幾何学的な特徴とかで対象範囲を絞り込み、その後に形状のマッチングや模様のマッチングなどで探索しようとするものを絞り込むようにすれば、更に赤を主成分とする赤っぽいコップとか赤っぽいりんごなどのように全体的に割合の多い色などの特徴量を使えば更に探索範囲を絞ることができるので、時間を要する形状マッチングとか模様のマッチングの処理回数を少なくすることができ、探索時間そのものを短くすることできる。   Such a thirty-sixth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-fifth means, or a visual information processing system to which the visual information processing system is applied. Since the feature amount, the feature amount of the color information, or both feature amounts can be used, even when the environment to be searched is wide and there is a lot of CAD data, the search can be efficiently performed in a short time. it can. That is, in a vast space composed of a lot of CAD data, the search CAD data and the posture and size are changed and matching processing is repeated many times to obtain the correlation coefficient (coincidence) and the closest one is obtained. The search process takes an enormous amount of time, but first narrows down the target range by geometric features such as size, number of irregularities, and aspect ratio, and then tries to search by shape matching or pattern matching. By narrowing down things, you can further narrow down the search range by using features such as reddish cups and reddish apples with red as the main component and colors that have a high overall ratio. Therefore, it is possible to reduce the number of processings for shape matching or pattern matching that requires time, and the search time itself can be shortened.

第37の手段は、前記第29〜第36の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索には固有値空間マッチング法を利用するようにすることである。   According to a thirty-seventh aspect, in the visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-sixth means or the visual information processing system to which the visual information processing apparatus is applied, the eigenvalue space matching method is used for the search. It is to be.

このように第37の手段は、前記第29〜第36の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索には固有値空間マッチング法を利用するので、形状マッチングする場合においても短時間にそれなりに対象候補を効率良く絞り込むことが可能となる。   As described above, the thirty-seventh means uses the eigenvalue space matching method for the search in the visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-sixth means or the visual information processing system using the visual information processing apparatus. Therefore, even when shape matching is performed, it is possible to efficiently narrow down target candidates in a short time.

第38の手段は、前記第29〜第37の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索には3次元のポテンシャルマッチング法を利用するようにすることである。   The thirty-eighth means uses a three-dimensional potential matching method for searching in a visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-seventh means or a visual information processing system using the same. Is to do so.

このような第38の手段は、前記第29〜第37の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索には3次元のポテンシャルマッチング法を利用するので、最終的な位置と姿勢のマッチング、すなわち、探索したいもののCADデータの中の位置と姿勢を精度良く求めることを効率良く短時間で行なうことが可能となる。   The thirty-eighth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-seventh means or a visual information processing system to which the thirty-seventh to thirty-seventh means are applied. Therefore, it is possible to efficiently perform final position-posture matching, that is, to accurately obtain the position and posture in the CAD data of a search target in a short time.

第39の手段は、前記第29〜第38の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時スケールファクタを可変にして形状の近いものを探索するようにすることである。   A thirty-ninth means is a visual information processing apparatus configured by selectively applying the thirty-ninth to thirty-eighth means or a visual information processing system to which the thirty-ninth to thirty-eighth means are applied, and has a similar shape with a variable search time scale factor. To search for.

このような第39の手段は、前記第29〜第38の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時にスケールファクタを可変にして形状の近いものを探索するので、同じ形でいろいろなサイズがあるものを探索するための探索用データを数多くもたないで済むようにできる。   Such a thirty-ninth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to thirty-eighth means or a visual information processing system to which the thirty-ninth to thirty-eighth means are applied. Since a search is made for items that are close to each other, it is possible to eliminate a large amount of search data for searching for items that have the same shape and various sizes.

第40の手段は、前記第29〜第39の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時の探索範囲を所定の範囲に設定可能とするようにすることである。   The 40th means can set a search range at the time of search to a predetermined range in a visual information processing apparatus configured by selectively applying the 29th to 39th means or a visual information processing system to which the visual information processing system is applied. Is to make it.

このような第40の手段は、前記第29〜第39の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時の探索範囲を所定の範囲に設定可能とするので、既に探索したい場所が番地や座標などである程度分かっているような場合には、その範囲のみを検索することで、効率良く探索することができる。   Such a 40th means is a visual information processing apparatus configured by selectively applying the 29th to 39th means or a visual information processing system to which the visual information processing apparatus is applied. Therefore, when the place to be searched for is already known to some extent by address, coordinates, etc., it is possible to efficiently search by searching only the range.

第41の手段は、前記第29〜第40の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時の探索範囲を入力される画像情報の視野の範囲あるいは視野の範囲から拡張あるいは縮小した範囲とするようにすることである。   The forty-first means is a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-first means, or a visual information processing system to which the visual information processing apparatus is applied. The range of the field of view or the range expanded or reduced from the range of the field of view.

このような第41の手段は、前記第29〜第40の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時の探索範囲を入力される画像情報の視野の範囲あるいは視野の範囲から拡張あるいは縮小した範囲とするので、CADデータを生成しながらリアルタイムで探索するオンライン探索では、より詳細なアズビルトデータを生成しながら、より精度の良い確実な探索を行なうことができるようになる。   Such a 41st means is inputted with a search range at the time of search in a visual information processing apparatus configured by selectively applying the 29th to 40th means or a visual information processing system to which the visual information processing system is applied. The range of the field of view of the image information or a range expanded or reduced from the range of the field of view, so in online search that searches in real time while generating CAD data, more accurate and reliable data while generating more detailed as-built data Search can be performed.

第42の手段は、前記第29〜第41の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの探索指令信号の入力I/F、探索したCADデータ情報の出力I/Fの両方あるいは何れかは複数のI/Fを有するようにすることである。   The forty-second means is a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-first means, or a visual information processing system to which the visual information processing apparatus is applied. Both or any of the output I / Fs of the searched CAD data information is to have a plurality of I / Fs.

このような第42の手段は、前記第29〜第41の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの探索指令信号の入力I/F、探索したCADデータ情報の出力I/Fを両方あるいは何れかは複数のI/Fを有するので、同時に沢山探索したい場合にも効率良く探索指示を与え、効率良く探索結果を得ることができるようになる。すなわち、環境の認識速度、多くの物体の探索速度を向上させることも容易に可能となる。   Such a forty-second means is a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-first means, or a visual information processing system to which the visual information processing apparatus is applied. / F, both or any of the searched CAD data information output I / Fs have a plurality of I / Fs, so that even when many searches are desired at the same time, it is possible to efficiently give a search instruction and obtain a search result efficiently. become able to. That is, it is possible to easily improve the environment recognition speed and the search speed of many objects.

第43の手段は、前記第29〜第42の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形または探索用のCADデータと所定の閾値に基づきマッチングした部分を特定の名前(ID)を付けて管理するようにすることである。   In a visual information processing apparatus configured by selectively applying the 29th to 42nd means or in a visual information processing system using the same, the forty-third means is a basic graphic or CAD data for search and a predetermined threshold value. The part which matched based on this is managed with a specific name (ID).

このような第43の手段は、前記第29〜第42の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形あるいは探索用のCADデータと所定の閾値に基づきマッチングした部分を特定の名前(ID)を付けて管理するので、例えば、名前(ID)と一緒にそのもののあった座標とか番地も登録しておけば、再度探索するときには、名前(ID)から直接的に概略の座標や番地の近くを見に行くような処理も行なうことができるので、探索時間を大幅に短縮することができる。また、名前(ID)を付けて管理されていない部分は、未認識の部分ということになるので、未認識の部分を新たに認識登録するような場合には、未認識の範囲を容易に抽出することが可能となる。   Such a 43rd means includes a basic graphic or search CAD data in a visual information processing apparatus configured by selectively applying the 29th to 42nd means or a visual information processing system using the visual information processing apparatus. Since the part matched based on a predetermined threshold value is managed with a specific name (ID), for example, if the coordinates and the address that existed together with the name (ID) are registered, when searching again, Since it is possible to perform a process of looking at the vicinity of the approximate coordinates and address directly from the name (ID), the search time can be greatly shortened. In addition, a part that is not managed with a name (ID) is an unrecognized part. Therefore, when an unrecognized part is newly recognized and registered, an unrecognized range is easily extracted. It becomes possible to do.

第44の手段は、前記第29〜第43の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形または探索用CADデータと所定の閾値に基づきマッチングした部分を除くCADデータの所定の固まりの部分を所定の名前(ID)を付けて管理するようにすることである。   In a visual information processing apparatus configured by selectively applying the 29th to 43rd means or a visual information processing system to which the 44th means is selectively applied, the basic figure or the search CAD data and a predetermined threshold value are used. In other words, a predetermined portion of the CAD data excluding the matched portion is managed with a predetermined name (ID).

このような第44の手段は、前記第29〜第43の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形あるいは探索用CADデータと所定の閾値に基づきマッチングした部分を除くCADデータの所定の固まりの部分を所定の名前(ID)を付けて管理するようにしているので、今まで探索用に用意していた基本図形やその他の探索用CADデータにない新たなCADデータの固まりを新たに名前を定義して登録することが可能となる。もちろん、それを探索用CADデータとして追加しても良い。新たに付ける名前(ID)は、人が入力するようにしても良いし、システムが自動的に、例えば、一連の番号でIDを定義するようなシステムであれば、自動的に採番をさせて自動的に付与するようにしても良い。   Such a forty-fourth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to the forty-third means or a visual information processing system to which the visual information processing apparatus is applied, and a predetermined graphic and search CAD data. Since a predetermined portion of CAD data excluding a portion matched based on the threshold value is managed with a predetermined name (ID), basic figures and other searches that have been prepared so far have been prepared. It is possible to register a new block of CAD data not included in the CAD data for use by defining a new name. Of course, it may be added as search CAD data. A new name (ID) may be entered by a person, or if the system automatically defines the ID with a series of numbers, for example, the number is automatically assigned. It may be automatically provided.

第45の手段は、前記第29〜第44の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、特定の名前(ID)を付けて管理するようにしたCADデータに人間の言葉を対応付けるようにすることである。   The forty-fifth means is a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-fourth means or a visual information processing system to which the visual information processing apparatus is applied, and manages with a specific name (ID). In other words, human language is associated with the CAD data.

このような第45の手段は、前記第29〜第44の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、特定の名前(ID)を付けて管理するようにしたCADデータに人間の言葉を対応付けるようにしているので、人間とのマンマシンI/Fを容易に構築することが可能となる。例えば、名前(ID)=71の物体を「机の上の赤いコップ」とか「コップ」などと人間の言葉の名前と対応するように登録しておけば、机の上のコップを探索させるときには、名前(ID)=71を入力する代わりに「机の上の赤いコップ」と入力すれば、「机の上の赤いコップ」のID=71という対応付けがされていれば、人間の言葉をIDとして使用して探索の指示を出したりすることが容易にできるようになる。   The forty-fifth means provides a specific name (ID) in a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-fourth means or a visual information processing system to which the visual information processing system is applied. Since human words are associated with the CAD data to be managed, a man-machine I / F with a human can be easily constructed. For example, if an object with name (ID) = 71 is registered so as to correspond to the name of a human word such as “red cup on the desk” or “cup”, when searching for a cup on the desk If instead of inputting name (ID) = 71, “red cup on the desk” is input, if “red cup on desk” is associated with ID = 71, human words are A search instruction can be easily issued using the ID.

第46の手段は、前記第29〜第45の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時に知識データを利用するようにすることである。   The forty-sixth means is that a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-fifth means or a visual information processing system to which the visual information processing apparatus is applied uses knowledge data during search. is there.

このような第46の手段は、前記第29〜第45の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、探索時に知識データを利用するようにしているので、闇雲に探索するのではなく、先ず、知識データを用いて対象物体の探索すべき空間を絞り込むことができることから、効率良く探索することができるようになる。すなわち、例えば、コップは、71,72,73…と70番代のIDを付けるようにして、机は、81,82,83…と80番代のIDを付けるようにしたとして、70番代のIDに「コップ」、80番代のIDに「机」、という言葉の名前を対応させておき、また、「……は〜の上にある場合が多い。」という記述があった場合には、……を検索する場合には、先ず、〜の上に接しているCADデータを探索するようにしておけば、「コップ(ID=70番代)は机(ID=80番代)の上にある場合が多い。」という知識データを登録しておくとすると、システムはコップを探索する場合には、先ず、机の上のCADデータから探索させるようにすることができ、家の外とか机の下とか床の上などの探索は、後回しにすることができるので、コップが机の上にある場合には、探索を早く終了させることができる。机の上に無かった場合には、その次に可能性の高い床の上を探索するように、「コップ(ID=70番代)は机(ID=80番代)の上にあることもある。」などと定義しておいて、机の上に無かった場合にはこのような知識データに基づいて次に床の上を探索するようにしても良い。知識データは、もっと何段階にも優先順序を付けられるようにして同じ種類の物体に対して、もっと沢山の知識データを登録できるようにしても良い。また、「地面の上に立っている大きな物体(体積OO以上)は建物である場合が多い。」などの知識データで地面の上の大きな物体(所定の体積以上のCADデータの固まり)を先ずは探索候補に絞り込むような知識データの使い方をしても良い。   The forty-sixth means uses knowledge data at the time of searching in a visual information processing apparatus configured by selectively applying the twenty-ninth to forty-fifth means or a visual information processing system to which the visual information processing system is applied. Therefore, instead of searching in the dark clouds, first, the space to search for the target object can be narrowed down using the knowledge data, so that the search can be performed efficiently. That is, for example, a cup is assigned IDs 71, 72, 73, etc. and 70s, and a desk is provided with IDs 81, 82, 83, etc., 80s. If there is a description such as “...” and “desk” in the 80's ID, and there is a description “... is often above”. When searching for..., First, the CAD data in contact with the above is searched, and “Cup (ID = 70's) is the desk (ID = 80's). Assuming that knowledge data is often registered, the system can first search from CAD data on the desk when searching for a cup. You can postpone searching for things like under the desk or on the floor. , Cup when there on top of the desk, it is possible to end quickly the search. If it is not on the desk, the cup (ID = 70's) may be on the desk (ID = 80's) so as to search on the next most likely floor. It is possible to search for the next floor on the basis of such knowledge data when it is not on the desk. The knowledge data may be set in a priority order in more stages so that more knowledge data can be registered for the same type of object. In addition, with knowledge data such as “a large object standing on the ground (volume OO or more) is often a building”, a large object on the ground (a block of CAD data exceeding a predetermined volume) is first selected. May use knowledge data to narrow down to search candidates.

第47の手段は、前記第46の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データの入力は、物体に名前(ID)を付けるときに一緒に入力可能とするようにすることである。   In a visual information processing apparatus configured by applying the 46th means or a visual information processing system to which the 47th means is applied, knowledge data is input together with a name (ID) given to an object. It is to enable input.

このような第47の手段は、前記第46の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データの入力は、物体に名前(ID)を付けるときに一緒に入力可能とするようにしているので、知識データを効率良く入力することが可能となる。例えば、システムが物体に名前(ID)を新たに登録するときに、「これは何」と聞いてきたときに、名前は「コップ」、その他の特徴としての知識データとして、「机の上にある場合が多い。」とか、それ以外にもシステム側でロボットで掴んで良いようなものか否かを区別したいような場合には、「ロボットハンドでは持てない。」とか「ロボットハンドで持てる。」とかの知識データをインプットするようにしても良い。これはオフラインで物体の名前(ID)に人間の言葉を対応付けして入力する場合に、それに関する知識データを入力するようにしても良い。このようにすることで、入力漏れ、入力忘れもなくなる。   In such a 47th means, in the visual information processing apparatus configured by applying the 46th means or the visual information processing system to which the 46th means is applied, the input of knowledge data is performed when a name (ID) is given to an object. In this way, knowledge data can be input efficiently. For example, when the system registers a new name (ID) for an object, when it asks "What is this", the name is "cops", and as other knowledge data, If you want to distinguish whether it is something that can be grabbed by the robot on the system side or otherwise, you can hold it with the robot hand. You may make it input the knowledge data such as. In this case, when the human language is associated with the name (ID) of the object and is input offline, knowledge data related thereto may be input. By doing so, input omissions and input forgets are eliminated.

第48の手段は、前記第46および第47の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データの入力は別に作成したデータをまとめて入力できるようにすることである。   Forty-eighth means, in the visual information processing apparatus configured by applying the above-mentioned 46th and 47th means or the visual information processing system to which the above-mentioned means is applied, can input knowledge data separately as input. Is to do.

このような第48の手段は、前記第46または第47の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データの入力は別に作成したデータをまとめて入力できるので、装置(商品)を最初にユーザへ供給する場合に、例えば、ホームロボット等では、家庭の中の環境として有り得る物体は予め登録しておけば、ユーザが一つ一つ登録していく必要がない。予め登録しておくデータは、探索用の基本的な形状データだけではなく、それに係わる知識データも予め登録しておけば、ユーザへ手渡してから直ぐに環境認識を始めさせることができる。そのためには、製造時に、知識データを一括してファイルなどから入力可能にしておければ、出荷前に知識データを効率良く入力処理することができるようになる。もちろん、ユーザが必要な知識データの種類のファイルを選定して、購入後にファイルから入力できるようにしても良い。   The forty-eighth means is a visual information processing apparatus configured by applying the forty-sixth or forty-seventh means or a visual information processing system to which the forty-eighth means is applied. When the device (product) is supplied to the user for the first time, for example, in a home robot, if the objects that can be used as the environment in the home are registered in advance, the user registers each one There is no need to go. If the pre-registered data is not only basic shape data for search but also related knowledge data, the environment recognition can be started immediately after handing it to the user. For this purpose, if knowledge data can be input collectively from a file or the like at the time of manufacture, knowledge data can be efficiently input before shipping. Of course, the user may select a file of the type of knowledge data that is required, and input from the file after purchase.

第49の手段は、前記第46〜第48の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データは人間の言葉で記述したものとして入力できるようにすることである。   The forty-ninth means is a visual information processing apparatus configured by selectively applying the forty-sixth to forty-eighth means or a visual information processing system to which it is applied, and knowledge data is input as written in human language. Is to be able to do it.

このような第49の手段は、前記第46〜第48の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、知識データは、人間の言葉で記述したものとして入力できるようにしているので、知識データの入力や作成が容易になる。これは、既に前述しているように知識データを、「コップ(ID=70番代)は机(ID=80番代)の上にある場合が多い。」とか、あるいは、先に、コップは(ID=70番代)、机は(ID=80番代)と登録されていれば、「コップは机の上にある場合が多い。」などと表現できるようにすることであり、これは人間の言葉であるので、人は、知識データを効率良く作成することが可能となる。   Such a 49th means is a visual information processing apparatus configured by selectively applying the 46th to 48th means or a visual information processing system to which the visual information processing system is applied. Knowledge data is described in human language. Since it is possible to input as it is, it is easy to input and create knowledge data. This is because, as already described above, the knowledge data is “the cup (ID = 70s) is often on the desk (ID = 80s)” or the cup is first. (ID = 70's), if the desk is registered as (ID = 80's), this means that it is possible to express "the cup is often on the desk". Because it is a human language, a person can efficiently create knowledge data.

第50の手段は、前記第29〜第49の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形または探索用CADデータと所定の閾値に基づきマッチングした部分を基本図形または探索用CADデータと置き換えるようにすることである。   In a visual information processing apparatus configured by selectively applying the 29th to 49th means or a visual information processing system to which the 50th means is selectively applied, the basic graphic or the search CAD data and a predetermined threshold value are used. The matching portion is replaced with basic graphics or search CAD data.

このような第50の手段は、前記第29〜第49の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、基本図形あるいは探索用CADデータと所定の閾値に基づきマッチングした部分を基本図形あるいは探索用CADデータと置き換えるようにしているので、CADデータの量を低減してメモリ容量を節約することができる。すなわち、例えば、4本の線からなる長方形の平面が全部で6面から構成される直方体を例えば縦,横,高さの寸法で定義した直方体が所定の位置に所定の姿勢であるのと等価の場合には、直方体の基本図形と置き換えることで、12本と6面のデータは削除することが可能となるので、メモリの節約になる。探索用CADデータとして一度読み出した部分は、読み出した形状の名前(ID)とその位置と姿勢とそのサイズや色など情報のみに置き換えれば、その読み出した多くのCADデータが多くの線データ、多くの面データから構成されたものであれば、それらのメモリ容量を節約することが可能となる。置き換えた環境周辺の探索とかCADデータの更新を行なう場合には、必要に応じて探索用のCADデータに再度置き換え直す場合も生じるが、その他の探索やデータの更新に関係ない部分のデータは、置き換えておくことが可能であるのでメモリ容量の節約になる。   Such a 50th means is a visual information processing apparatus configured by selectively applying the 29th to 49th means or a visual information processing system to which the visual information processing apparatus is applied, and a predetermined figure or CAD data for search and a predetermined information. Since the matching portion based on the threshold value is replaced with the basic figure or the CAD data for search, the amount of CAD data can be reduced to save the memory capacity. That is, for example, a rectangular parallelepiped that is defined by vertical, horizontal, and height dimensions of a rectangular parallelepiped composed of a total of six rectangular planes consisting of four lines is equivalent to a predetermined posture at a predetermined position. In this case, the data of 12 lines and 6 faces can be deleted by replacing the basic figure with a rectangular parallelepiped, which saves memory. If the part once read out as the search CAD data is replaced only with information such as the name (ID) of the read shape, its position and orientation, its size and color, the read out CAD data contains a lot of line data, It is possible to save the memory capacity of such data. When searching around the replaced environment or updating the CAD data, it may be replaced again with the CAD data for searching if necessary. Since it can be replaced, memory capacity is saved.

第51の手段は、前記第1〜第50の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、画像情報に基づいて撮像装置の移動情報を求めることができるときには入力する画像情報を処理して該撮像装置の位置と姿勢情報を求め、画像情報に基づいて撮像装置の移動情報を求めることができないときには撮像装置の移動情報信号に基づいて該撮像装置の位置と姿勢情報を求めてCADデータ生成に使用する機能を設けたことである。   A fifty-first means obtains movement information of an imaging device based on image information in a visual information processing apparatus configured by selectively applying the first to fifty means or a visual information processing system to which the visual information processing system is applied. When it is possible, the input image information is processed to obtain the position and orientation information of the imaging device. When the movement information of the imaging device cannot be obtained based on the image information, the imaging information is obtained based on the movement information signal of the imaging device. A function to obtain the position and orientation information of the apparatus and use it for CAD data generation is provided.

このような第51の手段は、前記第1〜第50の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、画像情報に基づいて撮像装置の移動情報を求めることができるときには入力画像情報を処理して該撮像装置の位置と姿勢情報を求め、画像情報に基づいて撮像装置の移動情報を求めることができないときには撮像装置の移動情報信号を使って撮像装置の位置と姿勢情報を求めるように自動的に切り替わる機能を有するので、画像情報が不足して移動情報を算出することができないときや、撮像装置の移動速度が早く、撮像装置から入力される画像情報の移動による変化速度が画像処理速度を上回り、画像処理によるトラッキング追従などで画像情報上の特徴点を見失っても処理を連続的に継続させることが可能となる。例えば、撮像装置の高速移動時にはトラッキング追従している特徴点を見失って画像処理によって撮像装置の位置と姿勢を求めることができなくなるが、そのときの移動量は、撮像装置移動センサで検出したり撮像装置移動制御情報に基づいて検出して、再度、低速移動に戻ったときには見失っていた間の移動量を撮像装置移動センサや移動制御情報に基づいて検出した情報により求めて撮像装置の位置と姿勢情報を正しく補正することにより、低速移動に戻ったその時点で撮像装置がどこに位置してどの方向を見ているかがわかることから、既に生成されている移動空間のCADデータとの対応付けによる補正も可能となり、その場所からトラッキング追従を再開することが可能となる。撮像装置に設ける撮像装置移動センサとして加速度センサやジャイロセンサを使用する場合には、それらのセンサは高速移動に対する応答性は十分であるので、高速移動時の移動量を精度良く検出することができる。一方、加速度センサやジャイロセンサは、長時間の累積検出に対しては誤差が大きくなるが、低速移動時には画像処理によって位置と姿勢の検出を行なうことにより累積誤差をキャンセルすることができるので、加速度センサやジャイロセンサを別センサとして有効に使用することが可能となる。   Such a 51st means is a visual information processing apparatus configured by selectively applying the first to 50th means or a visual information processing system to which the visual information processing apparatus is applied. When the information can be obtained, the input image information is processed to obtain the position and orientation information of the imaging device, and when the movement information of the imaging device cannot be obtained based on the image information, the movement information signal of the imaging device is used. Since it has a function of automatically switching so as to obtain the position and orientation information of the imaging device, when the image information is insufficient and the movement information cannot be calculated, or the moving speed of the imaging device is fast, it is input from the imaging device. The rate of change due to movement of image information exceeds the image processing speed, and processing continues even if feature points on the image information are lost due to tracking tracking by image processing, etc. It is possible to continue on. For example, when the imaging device moves at a high speed, it is impossible to obtain the position and orientation of the imaging device by losing sight of the tracking-following feature point, and the amount of movement at that time can be detected by an imaging device movement sensor. Detecting based on the imaging device movement control information, the amount of movement that was lost when returning to low speed movement again is obtained from the information detected based on the imaging device movement sensor and the movement control information, and the position of the imaging device By correctly correcting the posture information, it is possible to know where the imaging device is located and looking in which direction at the time of returning to low speed movement, and therefore by matching with CAD data of the already generated moving space Correction is also possible, and tracking tracking can be resumed from that location. When an acceleration sensor or a gyro sensor is used as an imaging device movement sensor provided in the imaging device, since these sensors have sufficient response to high speed movement, it is possible to accurately detect the movement amount during high speed movement. . On the other hand, the acceleration sensor and the gyro sensor have a large error for long-time accumulated detection, but the accumulated error can be canceled by detecting the position and orientation by image processing during low-speed movement. A sensor or a gyro sensor can be effectively used as another sensor.

第52の手段は、前記第1〜第51の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置および/または該撮像装置を移動する移動体の移動情報または移動制御情報を参照して画像情報における対象物体が動いているか停止しているかを判断する機能を有するようにすることである。   A 52nd means is a visual information processing apparatus configured by selectively applying the 1st to 51st means or a visual information processing system to which the visual information processing apparatus is applied, and moving to move the imaging apparatus It is to have a function of judging whether the target object in the image information is moving or stopped with reference to the body movement information or movement control information.

このような第52の手段は、前記第1〜第51の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置が移動しているか否かの情報信号を入力とし、その情報信号により撮影対象の物体が動いているか停止しているかを判断する機能を有するので、撮像装置の視野いっぱいに移動する撮影対象の物体を撮影している場合にも該撮影対象の物体が移動しているか撮像装置自身が移動しているかの区別を容易に行なうことが可能となる。   In such a 52nd means, in the visual information processing apparatus configured by selectively applying the first to 51st means or in the visual information processing system to which the visual information processing system is applied, it is determined whether or not the imaging apparatus is moving. When an object to be imaged that moves to the full field of view of the imaging device is imaged, it has a function to determine whether the object to be imaged is moving or stopped by the information signal. In addition, it is possible to easily distinguish whether the object to be imaged is moving or whether the imaging apparatus itself is moving.

第53の手段は、前記第1〜第52の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置によって得た画像情報の中のハレーションを検出し、当該画像情報の中にハレーションがある場合には当該ハレーションの領域あるいは画像情報の全体領域を非処理の領域とするようにすることである。   In a visual information processing apparatus configured by selectively applying the first to 52nd means or a visual information processing system to which the 53rd means is selectively applied, halation in the image information obtained by the imaging apparatus is obtained. If there is a halation in the image information, the area of the halation or the entire area of the image information is set as an unprocessed area.

このような第53の手段は、前記第1〜第52の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置によって得た画像情報の中のハレーションを検出し、当該画像情報の中にハレーションがある場合には、当該ハレーションの領域あるいは画像情報の全体領域を非処理の領域とするようにしているので、ハレーションによる異常データの生成や誤認識などを容易に防止することができるようになる。   Such a 53rd means is a visual information processing apparatus configured by selectively applying the above 1st to 52nd means or a visual information processing system to which the visual information processing apparatus is applied. If there is a halation in the image information, the halation area or the entire area of the image information is set as an unprocessed area. Recognition and the like can be easily prevented.

第54の手段は、前記第1〜第53の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置によって得た画像情報の中のハレーションを検出しても、その領域が小さく当該ハレーション部位の座標を所定の精度で計算することができる場合には当該画像情報の中にハレーションがあっても当該ハレーションの部位を処理するようにすることである。   In a visual information processing apparatus configured by selectively applying the first to 53rd means, or in a visual information processing system to which the 54th means is applied, halation in image information obtained by the imaging apparatus is obtained. Even if it is detected, if the area is small and the coordinates of the halation part can be calculated with a predetermined accuracy, even if there is a halation in the image information, the part of the halation is processed. is there.

このような第54の手段は、前記第1〜第53の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、撮像装置によって得た画像情報の中のハレーションを検出しても、その領域が小さくて当該ハレーション部位の座標が所定の精度で計算できる場合には、当該画像情報の中にハレーションがあっても当該ハレーションの部位を処理するようにしているので、水面のキラキラとか、ダイヤモンドダスト(氷の結晶)、サンピラー等も容易にCADデータ化することができるようになる。このとき、もちろん、ハレーションで光の線のように出る針状の部分が生じる場合には、針状の部分はノイズとして無視して中心部のみを処理するようにすることもできる。   Such a 54th means includes a visual information processing apparatus configured by selectively applying the first to 53rd means or a visual information processing system to which the visual information processing apparatus is applied. If the area is small and the coordinates of the halation part can be calculated with a predetermined accuracy even if the halation is detected, the part of the halation is processed even if there is halation in the image information. Therefore, it becomes possible to easily convert the glitter of the water surface, diamond dust (ice crystal), sun pillar, etc. into CAD data. At this time, of course, when a needle-like portion that appears like a light line is generated by halation, the needle-like portion can be ignored as noise and only the center portion can be processed.

第55の手段は、前記第1〜第54の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせるようにすることである。   According to a 55th means, in the visual information processing apparatus configured by selectively applying the first to 54th means or the visual information processing system to which the visual information processing system is applied, the coordinate value of the CAD data has a unit of length. Is to do so.

このような第55の手段は、前記第1〜第54の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせるようにしているので、アプリケーション側で絶対長さを管理しないでも済むようにすることができる。   Such a 55th means is a visual information processing apparatus configured by selectively applying the first to 54th means or a visual information processing system to which the visual information processing apparatus is applied. Since the unit is set, it is not necessary to manage the absolute length on the application side.

第56の手段は、前記第55の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせる手段として少なくとも1つのCADデータとそのCADデータの絶対値寸法を入力するようにすることである。   The fifty-sixth means is a visual information processing apparatus constructed by applying the fifty-fifth means or a visual information processing system to which the fifty-fifth means is applied, and at least one CAD is provided as means for giving the coordinate value of the CAD data a unit of length. The absolute value dimension of the data and its CAD data is input.

このような第56の手段は、前記第55の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせる手段として、少なくとも1つのCADデータとそのCADデータの絶対値寸法を入力するようにしているので、容易に絶対長さを定義することができるようになる。   The fifty-sixth means is a visual information processing apparatus configured by applying the fifty-fifth means or a visual information processing system to which the fifty-fifth means is applied. Since at least one CAD data and the absolute value dimension of the CAD data are input, the absolute length can be easily defined.

第57の手段は、前記第55の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせる手段として、少なくとも2つのCADデータとそのCADデータ間の絶対値距離を入力するようにすることである。   In a visual information processing apparatus configured by applying the 55th means or a visual information processing system to which the 57th means is applied, the 57th means has at least two means as means for giving the coordinate value of CAD data a unit of length. The absolute value distance between the CAD data and the CAD data is input.

このような第57の手段は、前記第55の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、CADデータの座標数値に長さの単位をもたせる手段として、少なくとも2つのCADデータとそのCADデータ間の絶対値距離を入力するようにしているので、基準となる物体、例えば、物差しなどを撮影してその目盛りの間隔を絶対長さと対応付けて読み込むようにすることができ、絶対長さを容易に定義することができるようになる。   Such a 57th means is a visual information processing apparatus configured by applying the 55th means or a visual information processing system to which the visual information processing apparatus is applied, as means for giving a unit of length to the coordinate value of CAD data, Since at least two CAD data and the absolute value distance between the CAD data are input, a reference object, for example, a ruler, is photographed, and the interval between the scales is read in association with the absolute length. And the absolute length can be easily defined.

第58の手段は、前記第1〜第57の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムは、画像情報処理装置の全部あるいは部分的にLSIチップ化したものであるとすることである。   A 58th means is a visual information processing apparatus configured by selectively applying the above first to 57th means or a visual information processing system to which the visual information processing apparatus is applied. It is supposed to be a thing.

このような第58の手段は、前記第1〜第57の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムは、全部あるいは部分的にLSIチップ化するので、LSIチップの量産化により高速処理可能な視覚情報処理装置を安価に容易に提供することが可能となり、別のCPU等と組み合わせたアプリケーションシステムを構築することが容易になる。   In such a 58th means, the visual information processing apparatus constructed by selectively applying the first to 57th means or the visual information processing system to which the visual information processing system is applied is entirely or partially implemented as an LSI chip. Therefore, it is possible to easily provide a visual information processing apparatus capable of high-speed processing at low cost by mass production of LSI chips, and it becomes easy to construct an application system combined with another CPU or the like.

第59の手段は、前記第1〜第57の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムは、画像情報処理機能をソフトウェアによる情報処理で実現するように構成したものであるとすることである。   According to a 59th means, a visual information processing apparatus configured by selectively applying the first to 57th means or a visual information processing system to which the visual information processing system is applied realizes an image information processing function by software information processing. It is supposed to be configured as described above.

このように第59の手段は、前記第1〜第57の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムは、ソフトウェアによる情報処理で実現するように構成するようにしているので、例えば、移動ロボットの制御装置に汎用パソコンを使用する場合には、移動ロボットの制御用ソフトウェアと共に同じパソコンに視覚情報処理装置のソフトウェアを入れることで、新たなハードウェアを追加することなしにアプリケーションシステムを構築することが可能となる。   As described above, the 59th means is realized by information processing by software in a visual information processing apparatus configured by selectively applying the first to 57th means or a visual information processing system to which the visual information processing system is applied. For example, when a general-purpose personal computer is used for the mobile robot control device, the software for the visual information processing device is added to the same personal computer together with the control software for the mobile robot. It becomes possible to construct an application system without adding.

第60の手段は、前記第1〜第59の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の撮像装置によって得た画像情報を所定のタイミングで切り替えて同じ画像情報処理装置へ入力するようにすることである。   In a visual information processing apparatus configured by selectively applying the first to 59th means or a visual information processing system to which the 60th means is selectively applied, image information obtained by a plurality of imaging devices is predetermined. It is to switch the timing and input to the same image information processing apparatus.

このような第60の手段は、前記第1〜第59の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムにおいて、複数の撮像装置によって得た画像情報を所定のタイミングで切り替えて同じ画像情報処理装置あるいは画像情報処理システムへ入力するようにしているので、例えば、複数の撮像装置の画像情報をその撮像装置が移動したような順番で瞬時に切り替えるようにすれば、最像装置が瞬間的に移動したのに相当する画像情報を入力することができ、対象物体が高速で移動するものにも容易に対応できるシステムを得ることが可能となる。この場合、撮像装置は、移動する撮像装置に限らず、固定された撮像装置でも良い。固定された撮像装置でパンチルト機構に搭載された撮像装置の場合には、パンチルト角度情報がシステムへ入力されるようにして撮像装置の位置と姿勢情報は、既知としてより効率良く処理を行なうようにすることができる。   Such a 60th means is a visual information processing apparatus configured by selectively applying the first to 59th means or a visual information processing system to which the visual information processing apparatus is applied, and image information obtained by a plurality of imaging devices. Are switched at a predetermined timing and input to the same image information processing apparatus or image information processing system. For example, the image information of a plurality of imaging devices is switched instantaneously in the order in which the imaging devices have moved. By doing so, it is possible to input image information corresponding to the moment when the image-capturing device has moved instantaneously, and it is possible to obtain a system that can easily cope with a target object that moves at high speed. In this case, the imaging device is not limited to a moving imaging device, and may be a fixed imaging device. In the case of an imaging device mounted on a pan / tilt mechanism with a fixed imaging device, pan / tilt angle information is input to the system so that the position and orientation information of the imaging device is known and more efficiently processed. can do.

第61の手段は、特定部位の位置決めを行なうロボットにおいて、その制御装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A 61st means includes a visual information processing apparatus configured by selectively applying the first to 60th means to a control device of a robot for positioning a specific part, or a visual information processing system using the visual information processing system. Is to apply.

このような第61の手段は、特定部位の位置決めを行なうロボットにおいて、その制御装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、例えば、遠隔操作ロボットなどでは、手先の自動位置決めを行なうシステムを容易に構築することができる。具体的には、例えば、手先に撮像装置を取り付けて該撮像装置の位置と姿勢情報を得れば、その情報に基づいて手先の位置を目標とする位置へ修正制御することが可能となる。また、手先がアクセスしようとする対象物体をCADデータから探索してその対象物体の位置と姿勢情報を得るようにすれば、撮像装置と対象物体の両方の位置と姿勢が分かるので、より正確に手先を対象物体にアクセスするように誘導制御することが可能となる。また、手先に撮像装置を付けられない場合には、手先を撮影する撮像装置を別に設けることで、その撮像装置の画像情報で手先のCADデータの探索を行って手先の位置と姿勢を直接に検出して制御に利用することも可能となる。   Such a 61st means is a visual information processing apparatus configured by selectively applying the first to 60th means to a control device in a robot for positioning a specific part, or visual information using the visual information processing apparatus. Since the processing system is applied, for example, in a remote control robot, a system for automatically positioning the hand can be easily constructed. Specifically, for example, if the imaging device is attached to the hand and the position and orientation information of the imaging device is obtained, the position of the hand can be corrected and controlled to a target position based on the information. Further, if the target object to be accessed by the hand is searched from the CAD data and the position and orientation information of the target object is obtained, the position and orientation of both the imaging device and the target object can be known, so that more accurate It is possible to perform guidance control so that the hand is accessed to the target object. In addition, when an image pickup device cannot be attached to the hand, a separate image pickup device for photographing the hand is provided, and the CAD data of the hand is searched using the image information of the image pickup device to directly determine the position and posture of the hand. It can also be detected and used for control.

第62の手段は、移動ロボットの制御装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A 62nd means is to apply a visual information processing apparatus configured by selectively applying the first to 60th means or a visual information processing system to which the visual information processing system is applied to a control apparatus for a mobile robot.

このような第62の手段は、移動ロボットの制御装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、移動ロボット自身の位置決め、姿勢制御を容易に行なうことができるようになる。例えば、移動ロボットに撮像装置を搭載すれば、撮像装置の位置と姿勢情報は移動ロボットの位置と姿勢の情報を示すことになるので、その情報に基づいて移動ロボットの位置や姿勢を制御することで、移動ロボットの位置決め制御,姿勢制御,誘導制御などを容易に行なうことができるようになる。水中を浮遊するROV等に撮像装置を搭載して、この装置を適用すれば、水中深く位置していて、水面の上から水中のROVを直接見ることができなくとも、例えば、周囲環境のCADデータと撮像装置のその中での位置と姿勢を操作卓の表示装置に表示するようにすれば、水中ROVの遠隔操作を、その表示装置で位置と姿勢を確認しながら容易に行なうことができるようになる。また、CADデータ上で任意の場所の正面に位置するように最終目標位置と姿勢を入力して自動的にその目標位置と姿勢に水中ROVがなるように制御すようにすれば、自動運転の制御システムも容易に構築することも可能となる。もちろん、飛行船や飛行機などに撮像装置を搭載して飛行ロボットの遠隔操作と自動制御に適用することもできる。   Such a 62nd means applies a visual information processing apparatus configured by selectively applying the first to 60th means to a control device for a mobile robot or a visual information processing system to which the visual information processing system is applied. Therefore, it becomes possible to easily perform positioning and posture control of the mobile robot itself. For example, if an imaging device is mounted on a mobile robot, the position and orientation information of the imaging device indicates information on the position and orientation of the mobile robot. Therefore, the position and orientation of the mobile robot can be controlled based on that information. Thus, positioning control, attitude control, guidance control, etc. of the mobile robot can be easily performed. If an imaging device is mounted on a ROV or the like that floats in water and this device is applied, even if it is located deep in the water and the ROV in the water cannot be seen directly from above the water surface, for example, the CAD of the surrounding environment If the data and the position and orientation of the imaging device are displayed on the display device of the console, remote operation of the underwater ROV can be easily performed while confirming the position and orientation with the display device. It becomes like this. In addition, if the final target position and posture are input so as to be positioned in front of an arbitrary place on the CAD data and the underwater ROV is automatically controlled to be the target position and posture, the automatic operation can be performed. A control system can also be easily constructed. Of course, an imaging device can be mounted on an airship or an airplane and applied to remote operation and automatic control of a flying robot.

第63の手段は、文字読み取り装置の処理装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A 63rd means is to apply a visual information processing apparatus configured by selectively applying the first to 60th means or a visual information processing system to which the first to 60th means is applied to a processing device of a character reading device. .

このような第63の手段は、文字読み取り装置の処理装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用するので、例えば、3次元的に凹凸のある刻印文字などは単純に2次元の画像処理では読み取り難い文字についても3次元のCADデータのマッチング処理により所定の文字を認識し易くしたシステムを容易に構築することができる。また、時系列に変化する文字も時系列にデータを生成することができるので、例えば、電光掲示板で流れるように表示される文字とか風で揺らいでいる看板などのように予め移動パターンが分かってない移動する文字なども容易に読み取ることができるシステムを構築することが可能となる。   The 63rd means applies a visual information processing apparatus configured by selectively applying the first to 60th means or a visual information processing system using the same to the processing device of the character reading apparatus. Therefore, for example, a system that makes it easy to recognize predetermined characters by matching processing of three-dimensional CAD data even for characters that are difficult to read by two-dimensional image processing, such as imprinted characters with three-dimensional unevenness, is easily constructed. can do. Also, since characters that change in time series can also be generated in time series, the movement pattern is known in advance, for example, characters displayed to flow on an electric bulletin board or signboards swaying in the wind. It is possible to construct a system that can easily read characters that do not move.

第64の手段は、3次元計測装置の処理装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A sixty-fourth means is that a visual information processing apparatus configured by selectively applying the first to sixty means or a visual information processing system to which the visual information processing system is applied is applied to a processing device of a three-dimensional measurement apparatus. is there.

このような第64の手段は、3次元計測装置の処理装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、プラントなどの現場調査、車のデザイン設計、CGのキャラクタなどに必要な3D計測装置を容易に実現することが可能となる。すなわち、高精度の分解能の撮像装置を用いたシステムとしなくとも汎用的な撮像装置でも撮像装置を対象物体の近くに寄って撮影してCADデータを生成するようにすれば、近くに寄ればその分精度の良いCADデータを生成することができるので、汎用の撮像装置で撮影して得た画像情報に基づいて精度の良いCADデータを生成することができ、そのCADデータを参照できるシステムとすれば、精度の良い3D計測システムを汎用の撮像装置を用いて容易に構築することが可能となる。   As such a 64th means, a visual information processing apparatus configured by selectively applying the first to 60th means or a visual information processing system using the same is applied to a processing apparatus of a three-dimensional measuring apparatus. Therefore, it is possible to easily realize a 3D measuring device necessary for field surveys of plants, car design design, CG characters, and the like. That is, even if a general-purpose imaging device is used to generate a CAD data by capturing an image of the imaging device close to the target object without using a system using an imaging device with high-resolution resolution, Since CAD data with high accuracy can be generated, it is possible to generate CAD data with high accuracy based on image information obtained by photographing with a general-purpose imaging apparatus, and to refer to the CAD data. For example, a highly accurate 3D measurement system can be easily constructed using a general-purpose imaging device.

第65の手段は、前記第64の手段を適用して構成した3次元計測装置あるいはその処理装置において、生成あるいは更新されたCADデータを取り出すときに所定のCADデータのフォーマットへ変換できるようにすることである。   A 65th means enables a three-dimensional measuring apparatus constructed by applying the 64th means or a processing apparatus thereof to convert the generated or updated CAD data into a predetermined CAD data format. That is.

このような第65の手段は、前記第64の手段を適用して構成した3次元計測装置あるいはその処理装置において、生成あるいは更新されたCADデータを取り出すときに、所定のCADデータのフォーマット、例えば、DXFのフォーマットなどへ変換できるようにしているので、アズビルトで生成されたCADデータを、例えば、Auto−CADなどの汎用のCADシステムで容易に活用できるようになる。ここで、変換するのは出力時でも良いし、内部メモリ上で変換して、別途、出力できるようにすることもできる。   In the three-dimensional measuring apparatus constructed by applying the 64th means or its processing apparatus, the 65th means as described above, when taking out CAD data generated or updated, for example, a predetermined CAD data format, Since it can be converted into a DXF format or the like, CAD data generated in an as-built format can be easily used in a general-purpose CAD system such as Auto-CAD, for example. Here, the conversion may be performed at the time of output, or the conversion may be performed on the internal memory so that it can be output separately.

第66の手段は、前記第64および第65の手段を適用して構成した3次元計測装置あるいはその処理装置において、生成あるいは更新されたCADデータを取り出すときに所定の閾値以下で基本図形とマッチング部分を基本図形に置き換えるようにすることである。   A 66th means is a three-dimensional measuring apparatus constructed by applying the 64th and 65th means or a processing apparatus thereof, and matches a basic figure below a predetermined threshold when CAD data generated or updated is taken out. It is to replace the part with a basic figure.

このような第66の手段は、前記第64または第65の手段を適用して構成した3次元計測装置あるいはその処理装置において、生成あるいは更新されたCADデータを取り出すときに、所定の閾値以下で基本図形とマッチングする部分を基本図形に置き換えるようにしているので、通常はリアルタイムでCADデータの更新に利用し易いデータフォーマットでメモリしておくことから、何時でも追加更新などの作業を行なうことができる。また、生成されたCADデータを利用するために取り出すときに基本図形に置き換えることで、基本図形を利用する他のアプリケーションで利用し易いデータに変換することができる。基本図形は、球,円柱,直方体,円錐などを用意して、寸法は、可変でマッチングを行なうようにすれば良い。基本図形にマッチングしない残りのCADデータは、アプリケーション側で線データや面データが取り扱えれば、そのまま変換すれば良いし、基本図形以外は不要なアプリケーションの場合には、基本図形に変換できない部分は取り出さないようにすることもできる。   Such a 66th means is a three-dimensional measuring apparatus configured by applying the 64th or 65th means or its processing apparatus, when CAD data generated or updated is taken out below a predetermined threshold value. Since the part that matches the basic figure is replaced with the basic figure, it is usually stored in a data format that is easy to use for updating the CAD data in real time. it can. Further, by replacing the generated CAD data with a basic graphic when the CAD data is taken out for use, the CAD data can be converted into data that can be easily used by other applications using the basic graphic. As the basic figure, a sphere, a cylinder, a rectangular parallelepiped, a cone, or the like is prepared, and the dimensions may be varied to perform matching. The remaining CAD data that does not match the basic figure can be converted as it is if the application can handle line data and surface data. In the case of an application other than the basic figure, the part that cannot be converted to the basic figure It is possible not to take out.

第67の手段は、前記第64〜第66の手段を選択的に適用して構成した3次元計測装置あるいはその処理装置の移動する複数の撮像装置は、地面を走行する走行車と空を飛行する飛行体に搭載した撮像装置であるとすることである。   A 67th means is a three-dimensional measuring device configured by selectively applying the 64th to 66th means or a plurality of imaging devices moved by the processing device, and flies in the sky with a traveling vehicle running on the ground. The imaging device is mounted on the flying vehicle.

このような第67の手段は、前記第64〜第66の手段を選択的に適用して構成した3次元計測装置あるいはその処理装置の移動する複数の撮像装置は、地面を走行する走行車と空を飛行する飛行体に搭載した撮像装置としたことにより、より正確な町並みの3次元地図を容易に作ることができるようになる。すなわち、地面を走行する走行車の視覚情報処理装置は、道路や家などを下から撮影した範囲の詳細なCADデータの生成を行なうが、家の屋根上とか地面に生えている木の上の方は下から見上げている撮影のしかたでは十分な画像情報が得ることができないので、上部のCADデータまで十分に生成することはできないが、空を飛行する飛行体から見下ろして撮影した画像情報で生成されたCADデータと統合することにより、下の方から上部まで生成漏れのない、正確な町並みの3次元地図を容易に作ることができるようになる。   Such a 67th means includes a three-dimensional measuring device configured by selectively applying the 64th to 66th means or a plurality of imaging devices moved by the processing device, and a traveling vehicle running on the ground. By using an imaging device mounted on a flying object flying in the sky, a more accurate three-dimensional map of the townscape can be easily created. That is, the visual information processing device of a traveling vehicle traveling on the ground generates detailed CAD data of a range where a road or a house is photographed from below, but on the roof of the house or on a tree growing on the ground. If you are looking up from below, you cannot get enough image information, so it is not possible to generate enough CAD data at the top, but you can use the image information taken from the flying object in the sky. By integrating with the generated CAD data, it is possible to easily create an accurate three-dimensional map of the townscape with no generation omission from the bottom to the top.

第68の手段は、ナビゲーション装置において、その処理装置に前記第1〜第60の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   The 68th means is to apply a visual information processing apparatus configured by applying the first to 60th means to the processing apparatus or a visual information processing system to which the navigation apparatus is applied.

このような第68の手段は、ナビゲーション装置において、その処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、GPS不要のナビゲーション装置を容易に実現することが可能となる。すなわち、移動するナビゲーション装置に撮像装置を接続して、撮像装置で周囲の環境のCADデータを生成および更新しながら、撮像装置の位置と姿勢情報をリアルタイムで取り出すようにして、環境CADデータと撮像装置の位置と姿勢情報を表示するようにすることで容易に現在位置を確認することができるシステムとなる。環境CADデータは、予めある程度のCADデータとしてナビゲーゲーション装置にもたせておくようにしても良いし、例えば、2次元の地図情報のみをもたせておき、走行するに従って生成されていく3次元CADデータの道や交差点付近の建物などから2次元の地図と3次元CADデータを対応させるようにしても良い。予め作成しておくCADデータは、特徴的な建物などをオフラインで入力しておくようにしても良いし、予め自動車や飛行体で町並みのCADデータを本発明の視覚情報処理装置で生成および合成したものを使用するようにする方法でも良い。また、更に、移動してCADデータを生成している他のナビゲーション装置と生成したアズビルトのCADデータを互いに交換し合っても良いし、中央情報処理センタなどを介して複数のナビゲーション装置で生成したCADデータを授受することができるようにしても良い。撮像装置と移動体との取り付け関係が既知であり、その関係を事前に設定しておくことにより、撮像装置の位置と姿勢を表示する代わりに、移動体の位置と姿勢を表示するようにすることもできる。また、環境CADデータの中の目的地が入力されれば、CADデータの中の目的地と現在の移動体の位置から、どのような経路で目的地まで移動していくのが良いかなどのナビゲーションの表示は、GPS搭載のナビゲーション装置と同じように構成して実行すれば良い。   The 68th means applies a visual information processing apparatus configured by selectively applying the first to 60th means to the processing apparatus or a visual information processing system using the same in the navigation apparatus. Therefore, it becomes possible to easily realize a navigation device that does not require GPS. That is, by connecting an imaging device to a moving navigation device and generating and updating CAD data of the surrounding environment by the imaging device, the position and orientation information of the imaging device is extracted in real time, and the environment CAD data and the imaging By displaying the position and orientation information of the apparatus, the system can easily confirm the current position. The environmental CAD data may be given in advance to the navigation device as a certain amount of CAD data. For example, only the two-dimensional map information is provided, and the three-dimensional CAD data generated as the vehicle runs is generated. A two-dimensional map and three-dimensional CAD data may be associated from a road or a building near an intersection. The CAD data to be created in advance may be input with a characteristic building or the like off-line, or the CAD data of the townscape generated in advance by an automobile or flying object is generated and synthesized by the visual information processing apparatus of the present invention. It is also possible to use the one that has been used. Further, the generated as-built CAD data may be exchanged with other navigation devices that have moved to generate CAD data, or may be generated by a plurality of navigation devices via a central information processing center or the like. CAD data may be exchanged. The attachment relationship between the imaging device and the moving body is known, and by setting the relationship in advance, the position and orientation of the moving body are displayed instead of displaying the position and orientation of the imaging device. You can also Also, if the destination in the environmental CAD data is input, what route should be taken to move to the destination from the destination in the CAD data and the current position of the moving body, etc. Navigation display may be configured and executed in the same manner as a GPS-equipped navigation device.

第69の手段は、前記第68の手段を適用して構成したナビゲーション装置において、1つのナビゲーション装置とは別の1つあるいは複数の他のナビゲーション装置あるいは該ナビゲーション装置に接続されている撮像装置あるいは該ナビゲーション装置または該ナビゲーション装置を搭載した移動体に関する位置あるいは姿勢あるいは位置と姿勢の情報を前記1つのナビゲーション装置へ取り込み可能とし、あるいは相互に取り込み可能とすることである。   A 69th means is a navigation apparatus constructed by applying the 68th means, one or a plurality of other navigation apparatuses different from one navigation apparatus, an imaging apparatus connected to the navigation apparatus, or Information on the position or orientation or position and orientation relating to the navigation device or a mobile body equipped with the navigation device can be taken into the one navigation device, or can be taken into mutual.

このような第69の手段は、前記第68の手段を適用して構成したナビゲーション装置において、当該ナビゲーション装置(1)とは別の1個あるいは複数の他のナビゲーション装置(2)あるいはそのナビゲーション装置(2)に接続されている撮像装置あるいはそのナビゲーション装置(2)の移動体に関する位置あるいは姿勢あるいは位置と姿勢の情報を当該ナビゲーション装置(1)へ取り込み可能とし、あるいは相互に取り込み可能としているので、各ナビゲーション装置は自分自身の位置と周囲環境の情報以外に周囲近くに存在する他のナビゲーション装置(すなわち、他の移動体)の位置情報を参照することができるようになり、撮像装置の死角となる建物の陰から他の移動体が飛び出してきて出会い頭の衝突するような危険な事態などを互いのナビゲーション装置が事前に検知することができ、それを事前に知らせるとか、移動体にブレーキをかけるとかして衝突を未然に防ぐことができるようになる。また、子供とか年寄りの歩行者にも同様なナビゲーション装置を付けておくようにすれば、車に搭載しているナビゲーション装置が歩行者を検出して、歩行者の飛び出しなども事前に警報することにより事故の発生を防止することができるようになる。歩行者が付けるナビゲーション装置は、それの位置情報の他に歩行者であるという識別情報も発信するようにしても良いし、中央情報処理センタで予め登録しておくようにしても良い。また、識別内容も、車とか2輪車とか歩行者などのように移動体の種類を区別するようにして、異常接近時の対応処理を移動体の種類に応じて最適な方法で行なうことができるようにすることができる。   Such a 69th means is a navigation device constructed by applying the 68th means, one or a plurality of other navigation devices (2) different from the navigation device (1) or the navigation device thereof. Since the position or orientation or position and orientation information relating to the moving body of the imaging device connected to (2) or the navigation device (2) can be taken into the navigation device (1), or can be taken into each other. In addition to the information on the own position and the surrounding environment, each navigation device can refer to the position information of other navigation devices (that is, other moving objects) located near the surroundings, and the blind spot of the imaging device. The danger that another moving body pops out from the shadow of the building and encounters the head Situation and can each other of the navigation device is detected in advance, Toka inform it in advance, so it is possible to prevent a collision with Toka brakes the movable body. In addition, if a similar navigation device is attached to children or elderly pedestrians, the navigation device installed in the car will detect pedestrians and warn the pedestrians in advance. This makes it possible to prevent accidents from occurring. The navigation device attached to the pedestrian may transmit identification information indicating that it is a pedestrian in addition to the position information thereof, or may be registered in advance at the central information processing center. In addition, the identification contents can be distinguished from the type of the moving body such as a car, a two-wheeled vehicle, or a pedestrian, and the response process at the time of abnormal approach can be performed in an optimum manner according to the type of the moving body Can be able to.

第70の手段は、ピッキングシステムの制御装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   The 70th means is to apply a visual information processing apparatus configured by selectively applying the first to 60th means or a visual information processing system to which the visual information processing system is applied to the control device of the picking system.

このような第70の手段は、ピッキングシステムの制御装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、通常の汎用の撮像装置を最低1台準備することで、容易にピッキングシステムを構築することが可能となる。すなわち、ハンドリングするマニピュレータの先端に通常の汎用的な撮像装置を取り付けて該撮像装置からの画像情報でワークCADデータを生成するように、最初にワークの周囲から撮影をすることで、ワークのアズビルトCADデータを生成することができる。ここで、撮像装置は、ワークの周囲に複数固定して画像情報の信号を切り替えるようにして該撮像装置をワーク周囲で動かした場合と同じような画像情報が得られるようにしても良い。ワークのアズビルトのCADデータが生成できた後には、ワークの中の一つの部品の形状を予め探索用CADデータとして登録しておき、生成された部品が沢山積み上げられたワークのCADデータの中から一つ一つの部品の位置と姿勢情報を探索機能によって求めて一番外側にある部品から順番にハンドリング用のマニピュレータでピックするように、マニピュレータの制御装置に掴む対象の部品の位置と姿勢情報を与えて該マニピュレータの制御が行なわれるようにすれば、容易にピッキングシステムを構築することができる。特にマニピュレータの先端に撮像装置を付けた場合には、撮像装置をワークに接近させて該ワークを撮影してCADデータを精度良く生成することができるので、撮像装置は、高分解の特殊な撮像装置でなく汎用の一般的な撮像装置で撮影しても精度良いCADデータを生成することができる。ピッキングで部品を取り除いて部品の積み上げられたワークの形状が変わっても、ワークのCADデータが更新されるので、常にそのときの状態に応じてピッキング制御に対応することができる。   In such a 70th means, a visual information processing apparatus configured by selectively applying the first to 60th means to a control device of a picking system or a visual information processing system using the same is applied. Therefore, it is possible to easily construct a picking system by preparing at least one ordinary general-purpose imaging device. That is, by attaching an ordinary general-purpose image pickup device to the tip of the manipulator to be handled and generating work CAD data based on image information from the image pickup device, the image is first taken from the periphery of the work, so that the work as-built CAD data can be generated. Here, the imaging apparatus may be configured to obtain the same image information as when the imaging apparatus is moved around the work by fixing a plurality of signals around the work and switching the image information signal. After the as-built CAD data of the work has been generated, the shape of one part in the work is registered in advance as CAD data for search, and the CAD data of the work in which many generated parts are stacked Find the position and orientation information of each part to be grasped by the control device of the manipulator so that the position and orientation information of each part is obtained by the search function and picked by the manipulator for handling in order from the outermost part. If the manipulator is controlled by giving it, a picking system can be easily constructed. In particular, when an imaging device is attached to the tip of the manipulator, the imaging device can accurately generate CAD data by photographing the workpiece by bringing the imaging device close to the workpiece. It is possible to generate CAD data with high accuracy even when shooting with a general-purpose general imaging apparatus instead of the apparatus. Even if the shape of a workpiece stacked with components removed by picking is changed, the CAD data of the workpiece is updated, so that picking control can always be handled according to the state at that time.

第71の手段は、検査装置の処理装置に、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A 71st means is applying the visual information processing apparatus comprised by selectively applying the said 1st-60th means to the processing apparatus of a test | inspection apparatus, or the visual information processing system which applied it.

このような第71の手段は、検査装置において、その処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、容易に立体的な形状の検査装置を得ることができる。すなわち、例えば、マニピュレータなどの先端に撮像装置を設けて、この撮像装置でいろいろな角度から検査対象の部位を撮影するようにして検査対象のCADデータを生成するようにすれは、CADデータは、3次元の凸凹状態を正確に再現しているので、例えば所定の場所に所定の部品がきちんと付いているかどうかなど、所定の部品の付いている位置と姿勢情報を取り出せるようにすれば、容易に自動検査装置を構築することが可能となる。   Such a 71st means applies a visual information processing apparatus configured by selectively applying the first to 60th means to the processing apparatus or a visual information processing system using the same in the inspection apparatus. Therefore, a three-dimensional inspection apparatus can be easily obtained. That is, for example, if an imaging device is provided at the tip of a manipulator and the like and the CAD data to be inspected is generated by imaging the region to be inspected from various angles with this imaging device, Since the three-dimensional unevenness is accurately reproduced, for example, if it is possible to extract the position and orientation information with a predetermined part such as whether or not the predetermined part is properly attached at a predetermined place, it is easy An automatic inspection device can be constructed.

第72の手段は、前記第71の手段を適用して構成した検査装置あるいはその処理装置に用いる撮像装置はマイクロスコープとすることである。   The 72nd means is that the inspection apparatus constituted by applying the 71st means or the imaging apparatus used for the processing apparatus is a microscope.

このような第72の手段は、前記第71の手段を適用して構成した検査装置あるいはその処理装置に用いる撮像装置はマイクロスコープとしているので、生成された3次元のCADデータは、微細な3次元的な凸凹面になることから、例えば、CDやDVDなどの角度をいろいろ変えて見ないと見えない微細な傷なども容易に効率良く検査することができる検査装置を実現することできる。   In such a 72nd means, since the inspection apparatus configured by applying the 71st means or the imaging apparatus used for the processing apparatus is a microscope, the generated three-dimensional CAD data is fine 3 Since it becomes a dimensional uneven surface, for example, it is possible to realize an inspection apparatus that can easily and efficiently inspect fine scratches that cannot be seen unless the angle of a CD or DVD is changed.

第73の手段は、自律制御型ロボットの制御装置に、前記第1〜第60の手段を適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用することである。   A 73rd means is applying the visual information processing apparatus comprised by applying the said 1st-60th means to the control apparatus of an autonomous control type robot, or the visual information processing system which applied it.

このような第73の手段は、自律制御型ロボットにおいて、その制御装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを適用しているので、自律制御型ロボットを容易に構築することが可能となる。すなわち、ロボットに撮像装置を付ければ、視覚情報処理装置を適用して環境のアズビルトCADデータを容易に生成することができ、その中にある撮像装置の位置と姿勢情報やロボット自身の位置と姿勢情報も容易に得ることができる。更に、環境の中の特定のCADデータを探索することもできるので、予め探索用に準備しているCADデータの有無、有る場合にはその位置と姿勢情報を得ることができるので、それが作業対象物体であれば作業対象物体の位置と姿勢と自分自身の位置と姿勢により、ロボット自身を作業対象物体に対してどのようにでも制御することが可能となる。例えば、特定の作業対象物体を探して持って帰ってくる作業内容を実行しようとする場合には、前記ナビゲーション機能を用いてロボットをナビゲーションが計画したとおりの経路に沿って移動させて作業対象物体を探索させ、作業対象物体が見つかった場合には、それに対して所定の位置と姿勢でロボット自身を接近させて、ロボットが有しているハンドリング機能で作業対象物体を掴んで、再度、ナビゲーション機能を使ってスタート地点まで戻る制御を容易に実現することができるようになる。途中に障害物があれば、環境のCADデータは、随時、生成および更新されているので、この障害物を障害物と認識することも容易に行なうことができるので、予め障害物を発見した場合の対処方法として、例えば障害物を避けて回避経路を探して進むプログラムを用意しておけば、途中に障害物があっても目的とする作業を計画どおりに自律的に実行させることが可能となる。ここで自律制御型ロボットと称するものは、自動車,無人搬送車,マニピュレータ,人間型ロボットの何れもでも良いが、ロボット自身が判断して動作制御する機能を有するロボットのことである。自律制御型ロボットは、基本的には、人間の指令に従うようにプログラムして良いが、例えば、ペットロボットなどのような場合には、充電が必要な状態の場合には充電器へ向かって充電することを優先するようにプログラムし、必ずしも指令に従わないようにしても良い。また、番犬ロボットに適用する場合には、周囲の人物の不審な服装や不審な動きを認識して、不審者に対しては不審者を追いかけるようにプログラムしておくようなシステムの構築も容易に実現することが可能となる。   Such a 73rd means includes a visual information processing apparatus configured by selectively applying the first to 60th means to a control device of an autonomous control robot, or a visual information processing system using the visual information processing system. Since it is applied, it is possible to easily construct an autonomous control robot. That is, if an imaging device is attached to a robot, it is possible to easily generate environmental CAD data by applying a visual information processing device, and the position and orientation information of the imaging device in the environment and the position and orientation of the robot itself. Information can also be obtained easily. Furthermore, since it is possible to search for specific CAD data in the environment, the presence / absence of CAD data prepared for searching in advance, and the position and orientation information of the CAD data, if any, can be obtained. If it is a target object, the robot itself can be controlled with respect to the work target object in any way by the position and posture of the work target object and the position and posture of itself. For example, when trying to execute a work content to be found and returned by searching for a specific work target object, the robot uses the navigation function to move the robot along the route planned by the navigation, and then the work target object. When the work target object is found, the robot itself is approached at a predetermined position and posture, the work target object is held by the robot, and the navigation function is again performed. Control to return to the start point using can be easily realized. If there is an obstacle on the way, the CAD data of the environment is generated and updated at any time, so it is easy to recognize this obstacle as an obstacle. For example, if you prepare a program that searches for an avoidance route while avoiding obstacles, you can autonomously execute the target work as planned even if there is an obstacle on the way. Become. Here, what is called an autonomous control type robot may be any of an automobile, an automatic guided vehicle, a manipulator, and a humanoid robot, but is a robot having a function of controlling the operation by the robot itself. Autonomous control robots may basically be programmed to follow human commands, but for example in the case of pet robots, etc., if charging is necessary, charge towards the charger. It may be programmed to give priority to doing and not necessarily follow the command. Also, when applied to watchdog robots, it is easy to build a system that recognizes suspicious clothes and suspicious movements of surrounding people and programs suspicious people to follow them. Can be realized.

第74の手段は、前記第73の手段を適用して構成した自律制御型移動ロボットあるいはその制御装置において、目標位置と姿勢あるいはその何れか、あるいは目標位置と姿勢あるいはその何れかと移動の仕方に係わる内容を指示すると指示内容に従って自律的に目的地まで移動するようにし、移動終了したならば終了した旨を応答し、終了させることが困難とロボットが判断した場合にはその旨を応答するようにすることである。   According to a 74th means, in the autonomous control type mobile robot constructed by applying the 73rd means or a control device thereof, the target position and / or posture, or the target position and / or posture are moved. When the related contents are instructed, the robot autonomously moves to the destination according to the instruction contents, responds that the movement is completed when the movement is completed, and responds when the robot determines that it is difficult to complete the movement. Is to do.

このような第74の手段は、前記第73の手段を適用して構成した自律制御型移動ロボットあるいはその制御装置において、目標位置と姿勢あるいはその何れか、あるいは目標位置と姿勢あるいはその何れかと移動の仕方に係わる内容を指示すると、この指示内容に従って自律的に目的地まで移動するようにし、移動を終了したならば終了した旨を応答し、終了させることが困難とロボットが判断した場合には、その旨を応答するようにするので、行き先を指示すると自動的に目的地まで移動するロボットや自動車を容易に得ることが可能となる。例えば、自動車で目的地を入力すると、前記ナビゲーション装置の機能により目的地までの経路が表示されるが、ここでは、その表示された経路に従って自動車を自動走行制御させる。途中、周囲の環境はCADデータとして生成されるので、地図にない障害物が新たに検知された場合には、予め障害物のパターン毎に用意しておく障害物の回避プログラムの中から対応するプログラムで回避制御するようにすれば、自動走行を継続することが可能となる。障害物の回避プログラムとしては、前方左にある障害物は、その右側を回避するとか、正面に別の車が障害物としてある場合には、それを形状から自動車であると認識させるようにして、自動車の場合には、それが動き出すまで待つとか減速させるなど、考えられるいろいろなパターンに対して対応できる回避プログラムを用意にしておくことでも良い。ここで、回避プログラムが用意されていないパターンに遭遇した場合には、その時点で、システムは、終了困難と判断して応答するようにしておけば良い。途中に交通信号機がある場合には、予め探索用に交通信号機のCADデータを用意しておくことにより、周囲環境の中から交通信号機を探索して、その中の赤,青,黄色に相当するランプの点灯状態を確認して、赤や黄色であれば信号のところで青が点灯するまで停止待機させ、青であればそのまま周囲の障害物を回避しながら自動走行を継続するようにプログラムすれば、交通信号機のある道路でも自動運転を容易に行なうことが可能となる。最終的に目的地の位置と姿勢で所定の場所に車が停車したならは、システムは終了の応答を返してくれるので、搭乗者は、目的地に着いたことを容易に知ることができる。途中で継続困難と応答された場合には、手動操作に切り替えて障害を回避した後に、再度、自動運転をさせるようにしても良い。また、途中で走行経路上の代表的な建物とか場所を認識した場合には、システムが現在そこを通過中であることをガイダンスするようにすることでもできる。以上のように、自動走行制御の中では、道路の状況を正しく認識して、その状況に対応する適切なプログラムを使用して自動走行制御を継続させる必要があり、途中、周囲環境の情景の沢山の物体を形状や色などの特徴も含めて認識させる必要があるが、本発明の視覚情報処理装置を適用することにより、前述したように、それらの認識を容易に実現することができるようになるため、このように自律的に走行する自動車などの自律移動ロボットも容易に実現することが可能となる。なお、実際には、視覚情報処理以外に周囲の音の情報、例えば、車が走行する音とかクラクションの音を指向性のあるマイクロフォンで検出して、その音源があると思われる方向の視覚情報処理を優先的に行なうというように、音の情報処理の結果も利用して周囲環境の認識速度を更に正確に高速に行なうことができるようにしても良い。また、この機能は、移動距離が短くても難しい運転を伴う車庫入れ操作に使用して自動運転で車庫入れを行なう自動車の自動運転などにも適用することができる。また、自動掃除機に適用して、初めての環境の地図も自動生成できるようにして、掃除した範囲とまだ清掃しない範囲を生成したCADデータを用いて管理するようにすることもできる。   Such a 74th means moves in a target position and / or posture or a target position and / or posture in an autonomous control type mobile robot constructed by applying the 73rd means or its control device. If the robot determines that it is difficult to finish, it will make it move to the destination autonomously according to the contents of the instruction, respond to the end when the movement is completed, Since a response to that effect is given, it is possible to easily obtain a robot or a car that automatically moves to the destination when the destination is designated. For example, when a destination is input by an automobile, a route to the destination is displayed by the function of the navigation device. Here, the automobile is automatically driven according to the displayed route. In the middle, the surrounding environment is generated as CAD data. Therefore, when an obstacle that is not on the map is newly detected, the obstacle avoidance program prepared for each obstacle pattern is handled in advance. If avoidance control is performed by a program, it is possible to continue automatic driving. As an obstacle avoidance program, the obstacle on the left front should avoid the right side, or if another car is on the front as an obstacle, make it recognize that it is a car from the shape. In the case of a car, it may be possible to prepare an avoidance program that can cope with various possible patterns such as waiting until it starts moving or decelerating. Here, when a pattern for which an avoidance program is not prepared is encountered, the system may determine that it is difficult to terminate and respond accordingly. If there is a traffic signal on the way, CAD data of the traffic signal is prepared in advance for searching, and the traffic signal is searched from the surrounding environment, and it corresponds to red, blue and yellow in the traffic signal. If you check the lighting status of the lamp, if it is red or yellow, make it stop and wait until blue lights at the signal, and if it is blue, program it to continue automatic driving while avoiding surrounding obstacles as it is In addition, automatic driving can be easily performed even on roads with traffic signals. When the car finally stops at a predetermined location according to the position and orientation of the destination, the system returns an end response, so that the passenger can easily know that the destination has been reached. If it is answered that it is difficult to continue, the automatic operation may be performed again after switching to the manual operation to avoid the failure. In addition, when a typical building or place on the travel route is recognized on the way, guidance can be made that the system is currently passing there. As described above, in automatic driving control, it is necessary to correctly recognize the road conditions and continue automatic driving control using an appropriate program corresponding to the conditions. It is necessary to recognize many objects including features such as shape and color, but by applying the visual information processing apparatus of the present invention, it is possible to easily recognize them as described above. Therefore, an autonomous mobile robot such as an automobile traveling autonomously as described above can be easily realized. Actually, in addition to visual information processing, information on surrounding sounds, for example, visual information on the direction in which the sound source is supposed to be detected by detecting the sound of a car traveling or horn with a directional microphone. As the processing is performed preferentially, the recognition speed of the surrounding environment may be more accurately performed at high speed using the result of sound information processing. This function can also be applied to an automatic driving of a car that uses a garage operation in an automatic operation by using it for a garage operation that is difficult even if the moving distance is short. In addition, it can be applied to an automatic cleaner so that a map of the first environment can be automatically generated, and can be managed using CAD data that generates a cleaned range and a range that has not yet been cleaned.

第75の手段は、前記第73の手段を適用して構成した自律制御型作業ロボットあるいはその制御装置において、作業内容を指示すると指示内容に従って自律的に作業を行なうようにし、作業終了したならば終了した旨を応答し、終了させることが困難とロボットが判断した場合にはその旨を応答するようにすることである。   In the autonomous control type working robot constructed by applying the 73rd means or its control device, the 75th means performs work autonomously according to the instruction content when the work content is instructed and It is to respond to the end, and when the robot determines that it is difficult to end, a response to that effect is made.

このような第75の手段は、前記第73の手段を適用して構成した自律制御型作業ロボットあるいはその制御装置において、作業内容を指示すると該指示内容に従って自律的に作業を行なうようにし、作業が終了したならば終了した旨を応答し、終了させることが困難とロボットが判断した場合には、その旨を応答するようにしているので、例えば、プラントのバルブの分解点検作業などの作業を行なわせるロボットシステムにおいても、自律的に作業する自律制御型作業ロボットを得ることが可能となる。すなわち、対象作業が、例えばバルブの分解点検作業であれば、一連の作業ロボットの動きは、動作プログラムとして組まれていて、その順番に制御が実行され、バルブはその総ての部品がプログラムが計画している場所に正確に位置していれば、単純なプログラム制御ロボットで自動的にバルブの分解点検作業を行なうことができるが、実際においては、バルブの設置位置やグランドを締め付けているボルトの位置などはバルブ毎に異なるし、同じバルブでも組み立てた状況によって様々な位置関係に組み立たるのが実際である。そこで、基本的には、前述した自動プログラムに従って作業を遂行するプログラムを実行させるが、途中、ロボットが取り扱う対象部品をアズビルトで生成したCADデータで認識させて、その部品の位置と姿勢を正確に検出してロボットを制御するようにすれば、たとえバルブの位置が大きくずれていても、バルブの分解点検作業を容易に自動で行なうができるようになる。また、いろいろな部品について認識できるように予め沢山の部品の形状データを探索用のCADデータとして用意しておけば、いろいろな種類のバルブの分解点検に対応できるようにすることもできる。しかしながら、分解途中で認識不可能な部品が出てきた場合には認識不可能となるので、その時点で作業の継続は困難となることから、その旨を応答して自動運転を終了する。最後まで作業が完了したならば、その旨を応答すれば作業が完了したことを容易に確認することができる。このように、本発明の視覚情報処理装置により物体の認識を容易に実現可能となるために、このような作業を自動的に行なうことのできる自律制御型作業ロボットも容易に実現することが可能となる。また、介護の必要な人のための介護ロボットへ適用すれば、スプーンとかコップとか、介護を要する人の口の位置とかを認識して、カップの中のスープなどをスプーンでとって介護者の口までもっていくような制御も容易に行なうことができるようになる。このような介護ロボットでは、介護者がロボットに大まかな指令を与えることで、介護者がロボットに実施させたい作業を実施させるシステムを容易に構成することができる。   According to such a 75th means, in the autonomous control type working robot constructed by applying the 73rd means or its control device, when the work content is designated, the work is autonomously performed according to the content of the work. If the robot determines that it is difficult to finish, it responds to that effect. Also in the robot system to be performed, it is possible to obtain an autonomous control type working robot that works autonomously. In other words, if the target work is, for example, a valve overhaul and inspection work, the movement of a series of work robots is organized as an operation program, control is executed in that order, and all parts of the valve are programmed. If it is accurately located at the planned location, the valve can be disassembled and inspected automatically with a simple program-controlled robot. The position of the valve varies from valve to valve, and it is actually assembled in various positional relationships depending on the situation where the same valve is assembled. Therefore, basically, a program for performing work in accordance with the above-described automatic program is executed. On the way, the target part handled by the robot is recognized by CAD data generated by as-built, and the position and orientation of the part are accurately determined. By detecting and controlling the robot, even if the position of the valve is greatly deviated, the valve can be easily disassembled and inspected. In addition, if a large amount of part shape data is prepared in advance as search CAD data so that various parts can be recognized, it is possible to cope with various types of valve disassembly and inspection. However, if an unrecognizable part comes out in the middle of disassembly, it becomes unrecognizable, and it is difficult to continue the work at that time. When the work has been completed to the end, it can be easily confirmed that the work has been completed by responding to that effect. As described above, since the visual information processing apparatus of the present invention can easily recognize an object, it is possible to easily realize an autonomously controlled work robot that can automatically perform such work. It becomes. If applied to a care robot for people who need care, it recognizes the position of the mouth of the person who needs care, such as a spoon or a cup, and takes the soup in the cup with a spoon to take care of the caregiver. The control to bring it to the mouth can be easily performed. In such a care robot, a system in which a caregiver performs a task that the caregiver wants the robot to perform can be easily configured by giving a general command to the robot.

第76の手段は、前記第73〜第75の手段を選択的に適用して構成した自律制御型ロボットあるいはその制御装置において、自律制御系とは独立系統でロボットが安全に動作していることを監視できるようにすることである。   The 76th means is that an autonomous control type robot or a control device thereof configured by selectively applying the 73rd to 75th means, wherein the robot operates safely in an independent system from the autonomous control system. Is to be able to monitor.

このような第76の手段は、前記第73〜第75の手段を選択的に適用して構成した自律制御型ロボットあるいはその制御装置において、自律制御系とは独立系統でロボットが安全に動作していることを監視できるようにしているので、自律制御型ロボットが目の届かない離れた場所で動いている場合にも安全に該ロボットを監視することができる。独立系統の監視手段を設けるために、複雑な自律制御による影響を受けないで常に監視することが可能となる。監視は、人間が直に行なうようにしても良いし、自動監視装置を用いて監視するようにしても良い。   Such a 76th means is an autonomous control type robot or a control device configured by selectively applying the 73rd to 75th means, and the robot operates safely in an independent system from the autonomous control system. Therefore, even when the autonomous control type robot is moving in a remote place where the eyes cannot reach, the robot can be monitored safely. Since the independent system monitoring means is provided, it is possible to always monitor without being influenced by complicated autonomous control. The monitoring may be performed directly by a human or may be monitored using an automatic monitoring device.

第77の手段は、前記第76の手段を適用して構成した自律制御系とは独立系統であって、ロボットが安全に動作していることを監視できるようにする手段を、独立制御系からなる監視カメラシステムであるとすることである。   The 77th means is an independent system from the autonomous control system configured by applying the 76th means, and means for enabling monitoring that the robot is operating safely from the independent control system. It is supposed to be a surveillance camera system.

このような第77の手段は、前記第76の手段を適用して構成した自律制御系とは独立系統でロボットが安全に動作していることを監視できるようにする手段を、独立制御系からなる監視カメラシステムとしていることで、映像によって直に目視する監視を行なうことができるので、より的確に現場の状況を把握することができる。   According to the 77th means, the independent control system can be used to monitor that the robot is operating safely in an independent system from the autonomous control system configured by applying the 76th means. By using the surveillance camera system as described above, it is possible to perform direct monitoring by video, so that the situation at the site can be grasped more accurately.

第78の手段は、前記第75および第76の手段を適用して構成した自律制御型ロボットあるいはその制御装置において、ロボットの安全監視中に緊急対応が必要となった場合に自律制御系とは独立系統でロボットの緊急対応制御を実行することができるようにすることである。   The 78th means is an autonomous control type robot or the control device configured by applying the above 75th and 76th means, and when an emergency response is required during safety monitoring of the robot, It is to be able to execute emergency response control of the robot in an independent system.

このような第78の手段は、前記第75または第76の手段を適用して構成した自律制御型ロボットあるいはその制御装置において、ロボットの安全監視中に緊急対応が必要となった場合には、自律制御系とは独立系統でロボットの緊急対応制御ができるようにしているので、万一の場合には、緊急停止とかマニアルへの切り替えが確実に行なえるようになる。また、監視映像系が途切れた場合は、自動または手動で自律的に終了させる機能をロボットに設けても良い。   The 78th means as described above is an autonomous control type robot or the control device configured by applying the 75th or 76th means, and when emergency response is required during safety monitoring of the robot, Since the emergency response control of the robot can be performed by an independent system from the autonomous control system, an emergency stop or switching to the manual can be surely performed in the event of an emergency. In addition, when the monitoring video system is interrupted, the robot may be provided with a function of automatically or manually terminating it.

第79の手段は、前記第61〜第78の手段を選択的に適用して構成した各種ロボット,文字読み取り装置,3次元計測装置,ナビゲーション装置,ピッキングシステム,検査装置あるいはその制御装置,処理装置において、マンマシンインタフェースの部分に音声認識機能あるいは音声合成機能あるいはその両方の機能をもたせるようにすることである。   A 79th means includes various robots, a character reading device, a three-dimensional measuring device, a navigation device, a picking system, an inspection device, a control device, or a processing device, which are configured by selectively applying the 61st to 78th means. The man-machine interface part has a voice recognition function and / or a voice synthesis function.

このような第79の手段は、前記第61〜第78の手段を適用して構成した各種ロボット,文字読み取り装置,3次元計測装置,ナビゲーション装置,ピッキングシステム,検査装置あるいはその制御装置,処理装置において、マンマシンインタフェースの部分に音声認識機能あるいは音声合成機能あるいはその両方の機能をもたせるようにしているので、人間とのI/Fが更に容易になる。例えば、音声認識で指令を受けてそれを正しく受けた場合には「はい」と応答を返し、指令の作業の実行を終了した場合には「終了しました」、途中で継続困難となった場合には「実行できませんでした」と応答するようにするので、ロボットの指示と結果の応答があるので、人間は容易に作業結果を理解することが可能となる。更に、途中の作業状況を音声出力して状況を人間に分かり易く知らせるようにしても良い。   The 79th means includes various robots, character reading devices, three-dimensional measuring devices, navigation devices, picking systems, inspection devices, control devices, or processing devices constructed by applying the 61st to 78th means. However, since the man-machine interface part is provided with a voice recognition function and / or a voice synthesis function, I / F with a human is further facilitated. For example, when a command is received in voice recognition and it is correctly received, a response of “Yes” is returned. When execution of the command is finished, “Finished”, or when it becomes difficult to continue Since “cannot be executed” is responded to, there is a response from the robot's instruction and result, so that a human can easily understand the work result. Furthermore, the work situation in the middle may be output as a voice so that the situation can be easily understood by humans.

第80の手段は、撮像装置において、1次元あるいは2次元の撮像素子(CCDセンサ)を回転させ、回転に同期してCCDセンサの信号を取り込み画像情報として出力可能とする信号処理回路を有し、当該信号処理回路はCCDセンサと共に回転するように構成することである。   According to an eighty-eighth means, the image pickup apparatus has a signal processing circuit which rotates a one-dimensional or two-dimensional image pickup device (CCD sensor), and can capture a CCD sensor signal and output it as image information in synchronization with the rotation The signal processing circuit is configured to rotate together with the CCD sensor.

このような第80の手段は、撮像装置において、1次元あるいは2次元の撮像素子(CCDセンサ)を回転させ、回転に同期してCCDセンサの信号を取り込み画像情報として出力可能とする信号処理回路を有し、この信号処理回路は、CCDセンサと共に回転するように構成しているので、広い範囲の撮影を行なえる撮像装置を容易に実現することができる。また、信号処理回路を回転するCCDセンサと一緒に回転させるので、CCDセンサと信号処理の間の信号の授受をスリップリングなどの回転部分を介在させて行なう必要がなくなり、回転式で広範囲を撮影することができる撮像装置を用意に実現することができる。   Such an 80th means is a signal processing circuit that allows a one-dimensional or two-dimensional image sensor (CCD sensor) to rotate in the image pickup apparatus, captures the signal of the CCD sensor in synchronization with the rotation, and outputs it as image information. Since this signal processing circuit is configured to rotate together with the CCD sensor, it is possible to easily realize an image pickup apparatus capable of taking a wide range of images. In addition, since the signal processing circuit is rotated together with the rotating CCD sensor, it is not necessary to exchange signals between the CCD sensor and the signal processing through a rotating part such as a slip ring, and a wide range is photographed with a rotary method. An image pickup apparatus that can do this can be readily realized.

第81の手段は、前記第80の手段を適用して構成した撮像装置において、信号処理回路は指令信号を入力可能として指令信号の指令内容に基づき画像情報を加工して出力可能とすることである。   According to an 81st means, in the imaging apparatus constructed by applying the 80th means, the signal processing circuit can input a command signal, and can process and output image information based on the command content of the command signal. is there.

このような第81の手段は、前記第80の手段を適用して構成した撮像装置において、信号処理回路は、指令信号を入力可能として指令信号の指令内容に基づき画像情報を加工して出力することができるので、必要な部分のみの情報を効率良く取り出せるようにすることができる。   In such an 81st means, in the imaging apparatus constructed by applying the 80th means, the signal processing circuit can input the command signal and process and output the image information based on the command content of the command signal. Therefore, it is possible to efficiently extract only the necessary part of information.

第82の手段は、前記第80および第81の手段を適用して構成した撮像装置において、信号や情報を外部と授受するための通信用に無線通信手段を有し、当該無線通信手段はセンサと共に回転するように構成することである。   The 82nd means is an imaging device constructed by applying the 80th and 81st means, and has wireless communication means for communication for exchanging signals and information with the outside, and the wireless communication means is a sensor. It is comprised so that it may rotate with.

このような第82の手段は、前記第80または第81の手段を適用して構成した撮像装置において、外部との通信用に無線通信手段を有し、この無線通信手段はCCDセンサと共に回転するように構成しているので、映像信号,制御信号など信号,情報を回転する部分から静止する部分に取り出すための信号用スリップリンなどを不要にすることができる。   Such an 82th means is an imaging apparatus constructed by applying the 80th or 81st means, and has a wireless communication means for communication with the outside, and this wireless communication means rotates together with the CCD sensor. With this configuration, it is possible to eliminate the need for signal sliplin and the like for extracting signals and information such as video signals and control signals from the rotating part to the stationary part.

第83の手段は、前記第80〜第82の手段を選択的に適用して構成した撮像装置において、電力発生装置を設け、この電力発生装置はセンサと共に回転するように構成することである。   The 83rd means is to provide an electric power generation device in an imaging apparatus configured by selectively applying the 80th to 82nd means, and to configure the electric power generation device to rotate together with the sensor.

このような第83の手段は、前記第80〜第82の手段を選択的に適用して構成した撮像装置において、電力発生装置を有し、この電力発生装置は、CCDセンサと共に回転するように構成しているので、電源供給用のスリップリングを不要にすることができる。   The 83rd means has an electric power generation device in the imaging apparatus configured by selectively applying the 80th to 82nd means, and the electric power generation device rotates with the CCD sensor. Since it comprises, the slip ring for power supply can be made unnecessary.

第84の手段は、前記第80〜第83の手段を選択的に適用して撮像装置において、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを有し、この視覚情報処理装置あるいは視覚情報処理システムはセンサと共に回転するように構成することである。   An 84th means is a visual information processing apparatus configured by selectively applying the first to 60th means in an imaging apparatus by selectively applying the 80th to 83rd means, or an application thereof. This visual information processing system or visual information processing system is configured to rotate together with the sensor.

このような第84の手段は、前記第80〜第83の手段を選択的に適用して構成した撮像装置において、前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムを有し、この視覚情報処理装置あるいは視覚情報処理システムは、CCDセンサと共に回転するように構成しているので、広範囲を撮影することができる撮像装置付きの視覚情報処理装置を簡単に構成することができる。   Such an 84th means is a visual information processing system configured by selectively applying the first to 60th means in an imaging device configured by selectively applying the 80th to 83rd means. Apparatus or a visual information processing system to which the apparatus is applied, and this visual information processing apparatus or visual information processing system is configured to rotate together with a CCD sensor. A visual information processing apparatus can be configured easily.

第85の手段は、複数の端末から送られてくる情報を中央情報センタで統合し、統合した情報の全部あるいは一部をユーザへ提供する情報統括提供サービスシステムにおいて、当該情報はCADデータあるいはCADデータと端末の状態情報を含むものであるとすることである。   The 85th means integrates information sent from a plurality of terminals at a central information center, and provides the user with all or part of the integrated information. It is supposed to include data and terminal status information.

このような第85の手段は、複数の端末から送られてくる情報を中央情報処理センタで統合し、統合した情報の全部あるいは一部をユーザへ提供する情報統括提供サービスシステムにおいて、これらの情報は、CADデータあるいはCADデータと端末の状態情報を含むものとしていることにより、互いに他の人が生成したCADデータを容易に利用し合えるようになる。   Such an 85th means integrates information sent from a plurality of terminals in a central information processing center, and provides information in a comprehensive information service system that provides all or part of the integrated information to the user. By including CAD data or CAD data and terminal status information, CAD data generated by other people can be easily used.

第86の手段は、前記第85の手段を適用して構成した情報統括提供サービスシステムにおいて、そのシステムの処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムあるいは前記第80〜第4の手段を選択的に適用して構成した撮像装置を適用することである。   A 86th means is a visual information processing system configured by selectively applying the first to 60th means to a processing device of the system in the information integrated provision service system constituted by applying the 85th means. An image processing apparatus or a visual information processing system to which the apparatus is applied or an imaging apparatus configured by selectively applying the 80th to fourth means is applied.

このような第86の手段は、前記第85の手段を適用して構成した情報統括提供サービスシステムにおいて、そのシステムの処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムあるいは前記第80〜第84の手段を選択的に適用して構成した撮像装置を適用しているので、容易にアズビルトのCADデータの生成と統合が可能となる。   The 86th means is configured by selectively applying the first to 60th means to the processing device of the system in the information management service system configured by applying the 85th means. Since the visual information processing apparatus or the visual information processing system to which the visual information processing apparatus is applied or the imaging apparatus configured by selectively applying the 80th to 84th means is applied, it is easy to generate and integrate as-built CAD data. Is possible.

第87の手段は、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、ユーザからのリクエストによりユーザを探索し、監視中はユーザを追跡して、ユーザおよびユーザの周辺を連続して監視するようにすることである。   In the monitoring service providing system that centrally monitors information sent from one or a plurality of terminals at the center, the 87th means searches for a user by a request from the user, tracks the user during monitoring, And continuously monitoring the user's surroundings.

このような第87の手段は、1台あるいは複数の端末から送られてくる情報をセンタで統括監視する監視サービス提供システムにおいて、ユーザからのリクエストによりユーザを探索し、監視中はユーザを追跡して、ユーザおよびユーザの周辺を連続して監視するようにしているので、ユーザの安全を保証する監視サービスシステムを容易に構築することが可能となる。ここで、追跡は、手動装置で行っても良いし、画像処理等で自動追尾を行なうようにしても良い。また、自律制御型ロボットのユーザがロボットの監視用に本サービスを利用することでもでる。画像は、監視中、録画されるようにして後で参照できるようにしておくと良い。また、監視カメラなどが設置されていない場所や設置数の少ない場所を人が移動するような場合には、人が携帯用の小型カメラ付けて本サービスを受けられるようにすることもできる。   In the monitoring service providing system that centrally monitors information sent from one or a plurality of terminals at the center, the 87th means searches for a user by a request from the user and tracks the user during monitoring. Thus, since the user and the user's surroundings are continuously monitored, it is possible to easily construct a monitoring service system that guarantees the safety of the user. Here, tracking may be performed by a manual device, or automatic tracking may be performed by image processing or the like. In addition, users of autonomous control robots can use this service for robot monitoring. The image may be recorded during monitoring so that it can be referenced later. In addition, when a person moves around a place where a surveillance camera or the like is not installed or a place where the number of installations is small, it is possible to attach a small portable camera so that the person can receive this service.

第88の手段は、前記第87の手段を適用して構成した監視サービス提供スシステムにおいて、そのシステムの処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムあるいは前記第80〜第84の手段を選択的に適用して構成した撮像装置を適用することである。   The 88th means is a monitoring service providing system configured by applying the 87th means, and the visual information processing configured by selectively applying the first to 60th means to a processing device of the system. An imaging apparatus configured by selectively applying the apparatus or the visual information processing system to which the apparatus or the 80th to 84th means are selectively applied.

このような第88の手段は、前記第87の手段を適用して構成した監視サービス提供スシステムにおいて、そのシステムの処理装置に前記第1〜第60の手段を選択的に適用して構成した視覚情報処理装置あるいはそれを適用した視覚情報処理システムあるいは前記第80〜第84の手段を選択的に適用して構成した撮像装置を適用しているので、3次元CADデータに基づいてユーザの自動追跡が容易になる。また、周辺の状況を3次元CADデータで見ることができるようになるので、より一層、的確に現場状況を確認することができるようになる。   In the monitoring service providing system configured by applying the 87th means, the 88th means is configured by selectively applying the first to 60th means to a processing device of the system. Since a visual information processing apparatus, a visual information processing system to which the visual information processing apparatus is applied, or an imaging apparatus configured by selectively applying the 80th to 84th means is applied, the user's automatic operation is performed based on three-dimensional CAD data. Tracking becomes easy. In addition, since the surrounding situation can be seen with the three-dimensional CAD data, the situation on the site can be more accurately confirmed.

本発明の実施の形態を図面を参照して説明する。   Embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の視覚情報処理装置における第1の手段および第2の手段の基本構成を示すブロック図である。   FIG. 1 is a block diagram showing the basic configuration of first means and second means in the visual information processing apparatus of the present invention.

画像情報処理装置100は、撮像装置10によって得た画像情報を直に/または記録媒体を介して間接的に入力してCADデータを生成し、生成したCADデータを記憶装置200に記憶させる。   The image information processing apparatus 100 generates CAD data by directly inputting image information obtained by the imaging apparatus 10 or indirectly through a recording medium, and stores the generated CAD data in the storage device 200.

撮像装置10は、移動するTVカメラのような装置であり、CADデータ化するあらゆる物体をいろいろな角度から撮影して画像情報を生成する。   The imaging device 10 is a device such as a moving TV camera, and shoots every object to be converted into CAD data from various angles to generate image information.

画像情報処理装置100は、撮像装置10が撮影して生成した画像情報を直に/または間接的に入力して該画像情報に含まれるあらゆる物体の3次元CDAデータを生成して記憶装置200に記憶させる。また、この画像情報処理装置100は、必要に応じて、記憶装置200に記憶している既成CADデータを読み込み、新たに生成した新生CADデータと精度を比較し、新生CADデータの精度が既成CADデータよりも高いときには記憶装置200に記憶している既成CADデータを新生CADデータで更新する。撮像装置10は、環境を自由に動き回ることができるので、環境にある物体に近寄ることや離れることもできる。撮像装置10が対象物体に近くなれば精度良く物体を撮影することができるので、例えば、遠くでは1本の線に見えていた部分が近くに寄るとか、見る角度が変わることによって2本に見えることがあるので、画像情報処理装置100は、先に生成した既成CADデータをより詳細になるように、また、先に誤認識して生成した部分を修正するように更新するCADデータ更新機能を有する。   The image information processing apparatus 100 directly or indirectly inputs image information generated by the imaging device 10 and generates three-dimensional CDA data of any object included in the image information, and stores it in the storage device 200. Remember me. In addition, the image information processing apparatus 100 reads the ready-made CAD data stored in the storage device 200 as needed, compares the newly-generated new-CAD data with accuracy, and the accuracy of the new-generation CAD data is the ready-made CAD data. When it is higher than the data, the existing CAD data stored in the storage device 200 is updated with the new CAD data. Since the imaging apparatus 10 can freely move around in the environment, the imaging apparatus 10 can approach or leave an object in the environment. Since the object can be photographed with high accuracy when the imaging device 10 is close to the target object, for example, a portion that was visible as a single line at a distance is closer, or two appear as the viewing angle changes. Therefore, the image information processing apparatus 100 has a CAD data update function for updating the previously generated CAD data so as to be more detailed and so as to correct a part that has been erroneously recognized and generated earlier. Have.

これによって、撮像装置10をいろいろと動かして物体を詳細に撮影すればするほどより正確なCADデータを構築することができるようになる。また、いろいろな位置に動き回ることができる撮像装置10であるので、物体の裏面も下面も上面も撮影して画像情報を生成することができるので、精度良いアズビルトのCADデータを容易に生成することができるようになる。   As a result, more accurate CAD data can be constructed as the imaging apparatus 10 is moved in various ways to capture an object in detail. In addition, since the imaging apparatus 10 can move to various positions, the image information can be generated by photographing the back surface, the bottom surface, and the top surface of the object, so that accurate as-built CAD data can be easily generated. Will be able to.

図2は、本発明の視覚情報処理装置における第3の手段および第4の手段の基本構成を示すブロック図である。   FIG. 2 is a block diagram showing the basic configuration of the third means and the fourth means in the visual information processing apparatus of the present invention.

画像情報処理装置100は、第1の撮像装置10と第2の撮像装置20によって撮影して得た2つの画像情報を直接または記録媒体を介在させて間接的に入力する。第1の撮像装置10と第2の撮像装置20は、ステレオ計測を行なうことができるように、所定の間隔をおいて固定する。この構成であれば、画像情報処理装置100は、2台の撮像装置10,20から入力する2つの画像情報を用いてステレオ計測で物体までの距離情報を計測しながらCADデータを生成することが可能となる。その他は、図1に示した視覚情報処理装置の構成と同じ構成である。   The image information processing apparatus 100 inputs two pieces of image information obtained by photographing with the first imaging device 10 and the second imaging device 20 directly or indirectly through a recording medium. The first imaging device 10 and the second imaging device 20 are fixed at a predetermined interval so that stereo measurement can be performed. With this configuration, the image information processing apparatus 100 can generate CAD data while measuring distance information to an object by stereo measurement using two pieces of image information input from the two imaging apparatuses 10 and 20. It becomes possible. The other configuration is the same as the configuration of the visual information processing apparatus shown in FIG.

次に、画像情報処理装置100の内部構成について説明する。画像情報処理装置100は、基本的には、演算処理装置と情報(演算)処理プログラムによって構成する。ここで、第1の手段および第2の手段は、図1に示すように単眼の撮像装置10を使用して構成する場合であり、第3の手段および第4の手段は、図2に示すように複眼(ステレオ)の撮像装置10,20を使用して構成する場合であるが、画像情報処理装置100の基本的な情報処理の流れは同じになるので、ここでは、まず、単眼の場合の基本的な処理の流れを説明した後に、図3〜図8を用いて、複眼(ステレオ)の場合の処理を説明する。単眼の場合の処理は、複眼(ステレオ)でないとできない処理を省いたような処理となる。   Next, the internal configuration of the image information processing apparatus 100 will be described. The image information processing apparatus 100 basically includes an arithmetic processing device and an information (arithmetic) processing program. Here, the first means and the second means are configured by using a monocular imaging device 10 as shown in FIG. 1, and the third means and the fourth means are shown in FIG. In this way, the configuration is made using the compound eye (stereo) imaging devices 10 and 20, but the basic information processing flow of the image information processing device 100 is the same. After the basic process flow is described, the process in the case of a compound eye (stereo) will be described with reference to FIGS. Processing in the case of a single eye is processing that omits processing that can only be performed with a compound eye (stereo).

単眼の場合の基本的な処理の流れでは、処理をスタートすると、撮像装置10によって得た画像情報を取り込み、微分処理やノイズ除去などの処理を行い、線分を抽出して、例えば、その線分の始点と終点をトラッキングなどで追跡することにより、複数の違った視点から撮影した複数枚の画像情報間で始点と終点のように対応する点の明確な画像情報が得られるので、写真計測法でそれらの点の3次元座標を計算する。そして、その3次元の始点と終点を結ぶ線分を3次元のCADデータとして定義し、同じように複数の線分について定義していくことにより、空間にある物体のいろいろな部分の線分のCADデータを生成する。ここで、更に、撮像装置10を移動させて対象物体に近寄せれば、撮像装置10は対象物体をより大きく撮像することができるので、分解能、すなわち、精度が良くなる。それで引き続きCADデータの生成処理を繰り返して、以前に1本に見えていた線が2本に見えるようになったならば(CADデータ更新対象判別機能およびCADデータ精度処理機能)、既成のCADデータにおける1本の線分を2本の線分に更新する(CADデータ更新処理機能)。   In the basic processing flow in the case of a monocular, when processing is started, image information obtained by the imaging device 10 is taken in, processing such as differentiation processing and noise removal is performed, and a line segment is extracted. By tracking the start point and end point of a minute by tracking, etc., it is possible to obtain clear image information of corresponding points like the start point and end point between multiple pieces of image information taken from different viewpoints, so photo measurement The three-dimensional coordinates of those points are calculated by the method. Then, a line segment connecting the three-dimensional start point and the end point is defined as three-dimensional CAD data, and by defining a plurality of line segments in the same manner, line segments of various parts of the object in the space are defined. CAD data is generated. Here, if the imaging device 10 is further moved closer to the target object, the imaging device 10 can capture a larger image of the target object, so that the resolution, that is, the accuracy is improved. Then, the CAD data generation process is repeated, and if the line that was previously seen as one appears as two lines (CAD data update target discrimination function and CAD data accuracy processing function), the ready-made CAD data The one line segment in is updated to two line segments (CAD data update processing function).

このような機能により、撮像装置10を移動させて対象物体をより詳しく観察(撮影)すればするほど、より精度の良いCADデータに置き換えていくことができる。   With such a function, the more accurately the target object is observed (photographed) by moving the imaging apparatus 10, the more accurate CAD data can be replaced.

このようにすることで、トラッキングの途中で線分の一方の端点が見えなくなってしまって、所定の枚数の画像情報の中で対応点がとれない点が生じるとしても、それはそれでその点はまだ処理をしないで対応点のとれた十分な枚数が揃った点のみを処理して、それらの点で3次元のCADデータを生成していく処理を繰り返せば、撮像装置10は移動を継続しているので、CADデータの更新処理機能と組み合わせることにより、徐々に計測される点も増えてCADデータも増え、また、より詳しく更新されながらCADデータがより正確なものになっていく。   By doing this, one end point of the line segment disappears in the middle of tracking, and even if a corresponding point cannot be obtained in a predetermined number of pieces of image information, that point is still If the process of processing only points where a sufficient number of corresponding points are collected without processing and generating three-dimensional CAD data at those points is repeated, the imaging apparatus 10 continues to move. Therefore, by combining with the update processing function of CAD data, the number of points that are gradually measured increases and the CAD data also increases, and the CAD data becomes more accurate while being updated in more detail.

ここで、1度、2本に見えた線を2本の線分のCADデータにした後に、再度、撮像装置10が物体から遠ざかって遠くから撮影するようになった場合には、再度、1本の線分に戻すような更新処理の仕方をしても良いが、1度、2本に見えるようになったものは、その後に1本になっても、2本が1本に見えているだけということで、CADデータを1本には更新しない処理方法とすることが、CADデータをより正確に作成するという目的の場合には適切である。この場合、例えば、3次元の座標を計算する場合のそのときのその計算結果の精度に関する情報を一緒に記憶しておくようにして、再度、同じ場所の同じあたりの点(先に計算されている点を中心に所定半径の球を考えてその中に入る点とかとして同じ場所か否かを判別しても良い。このとき、想定する半径は先に計算されている点の精度に応じて精度が良ければ小さく、精度が悪ければ大きく設定するようにしても良い。)が求められた場合には、今回求めた精度と前回求めた精度を比較して、精度の高い方を残すようにする処理方法にすると良い。   Here, once the two lines appear as CAD data for two lines, and the imaging apparatus 10 takes a picture from a distance away from the object, the line 1 is again displayed. You may do the update process to return to the line segment of the book, but once it looks like two, even if it becomes one after that, two appear as one Therefore, a processing method that does not update the CAD data to one is appropriate for the purpose of more accurately creating the CAD data. In this case, for example, when calculating the three-dimensional coordinates, information on the accuracy of the calculation result at that time is stored together, and again, the same point around the same place (calculated earlier) It is also possible to determine whether a sphere having a predetermined radius around a certain point is the same place as a point that falls within the sphere, and the assumed radius depends on the accuracy of the previously calculated point. If the accuracy is good, it may be set to small, and if the accuracy is poor, it may be set large.) If required, compare the accuracy obtained this time with the accuracy obtained last time, and leave the higher accuracy. It is better to use a processing method.

CADデータの更新の概念は、別途、図面を参照して詳細に説明する。ここでは、更新する処理機能を設けることによって、従来、難しいとされていた対応点を確実に追跡する問題を完全に解決する手段を適用しなくとも、そのときそのときに生成できる点のみや生成できる線分のみを生成して、より、精度良く生成された場合には置き換えていく、すなわち、更新していくことにより、撮像装置10を必要な精度のCADデータが十分に得られるように十分に移動することにより、使用目的に十分に対応することができる精度のCADデータを得ることができるようになる。   The concept of updating CAD data will be described in detail separately with reference to the drawings. Here, by providing a processing function to update, it is possible to generate only the points that can be generated at that time without applying a means to completely solve the problem of reliably tracking the corresponding points, which has been considered difficult in the past. By generating only line segments that can be generated and replacing them when they are generated more accurately, that is, by updating, it is sufficient to obtain sufficient CAD data of the required accuracy for the imaging apparatus 10. By moving to, it becomes possible to obtain CAD data with an accuracy sufficient to meet the purpose of use.

次に、図3〜図8を用いて、複眼(ステレオ)の場合の処理を説明する。複眼(ステレオ)の場合には、ステレオによる3次元の計測と、撮像装置10,20を移動させることによって、単眼の場合と同じように写真計測と組み合わせた場合の実施の形態を説明する。3次元(3D)座標を計測する手段、トラッキングの手段、何を特徴点としてトラッキングさせるかとか、CADデータは3次元データのみ生成するようにするとか、2次元の各画像情報ベースで2次元のCADデータも併用するなどCADデータの生成の仕方にもいろいろ考えられるので、処理速度とか、メモリ容量を小さくするとか、その目的にあった適切な手法を適用しても良い。このように本発明の適用の仕方はいろいろあるが、ここではあくまでも、一実施の形態として説明する。   Next, processing in the case of compound eyes (stereo) will be described with reference to FIGS. In the case of compound eyes (stereo), an embodiment will be described in which three-dimensional measurement using stereo and the imaging devices 10 and 20 are moved and combined with photo measurement as in the case of a single eye. Means for measuring three-dimensional (3D) coordinates, means for tracking, what is tracked as a feature point, CAD data is generated only for three-dimensional data, or two-dimensional image information based on two-dimensional Various methods of generating CAD data, such as using CAD data in combination, can be considered. Therefore, a processing speed, a memory capacity can be reduced, or an appropriate method suitable for the purpose may be applied. As described above, there are various ways of applying the present invention, but here, it will be described as an embodiment.

図3は、第3の手段,第4の手段を実現する画像情報処理装置100における処理の基本的な流れを示すフローチャートである。   FIG. 3 is a flowchart showing a basic flow of processing in the image information processing apparatus 100 realizing the third means and the fourth means.

スタート100aは、電源ONで処理がスタートするようにしても良いし、スタート釦などでスタートさせるようにしても良いが、処理の開始の部分である。スタート100aから処理が始まると、処理の流れとしては、まず、撮像装置10,20によって得た画像情報の取り込み処理100bを行なう。取り込んだ画像情報は、記憶装置200へ生画像情報として記憶しても良いし、画像情報処理装置100内の画像専用メモリに記憶するようにしても良いが、次の処理に使えるようにしておくことが必要である。   The start 100a may be started when the power is turned on, or may be started with a start button or the like, but is the start of processing. When the processing starts from the start 100a, first, the processing flow of the image information obtained by the imaging devices 10 and 20 is performed. The captured image information may be stored as raw image information in the storage device 200, or may be stored in an image-dedicated memory in the image information processing apparatus 100, but may be used for the next processing. It is necessary.

次に、取り込んだ画像情報の微分処理やノイズ除去などの処理(1)100cを行なう。   Next, processing (1) 100c such as differentiation processing and noise removal of the captured image information is performed.

ここで、この処理(1)100cの具体例を図4を参照して説明する。画像情報はステレオであるので2枚分ある。左の生画像情報(生画像)101aに対して微分処理などを行なうことによって、処理画像情報101cのような線画像情報(線画像)を生成する。この処理は、微分処理でなくても良く、輪郭を抽出する処理を行なえば同じ結果が得られる。右の生画像情報(生画像)101bも同様に処理することにより、処理画像情報101dのような線画像情報(線画像)に変換する。ここで、重要なことは、線分の始点,終点などをトラッキングで追従したりするので、照明の状態が少し変わったり、撮像装置10,20の視点が少し変わった程度で抽出される線分の長さとかが極端に変化しないような安定な処理結果が得られるように、微分処理を行なうパラメータとか、ノイズ除去のパラメータ、手法などを考慮することである。また、線分の端点が他の線分と接しているか否かもある閾値を用いて判定するような処理を行い、照明の条件などで線分が離れた状態で抽出されたような場合でもそれを付けるような補正をするようにすることが望ましい。但し、他の線分と接していると見做せない線分は、見做せる線分が抽出されるまで、そのままにする。何れも、撮像装置10,20の視点が多少変わっても同じように抽出されるようにするのが良い。   Here, a specific example of the processing (1) 100c will be described with reference to FIG. Since the image information is stereo, there are two images. By performing differential processing or the like on the left raw image information (raw image) 101a, line image information (line image) such as processed image information 101c is generated. This process does not have to be a differential process, and the same result can be obtained by performing a process of extracting a contour. The right raw image information (raw image) 101b is processed in the same manner to convert it into line image information (line image) such as processed image information 101d. Here, what is important is that the start point, end point, etc. of the line segment are followed by tracking, so that the line segment extracted when the lighting state changes slightly or the viewpoints of the imaging devices 10, 20 change slightly. In order to obtain a stable processing result in which the length of the signal does not change drastically, it is necessary to consider a parameter for performing differentiation processing, a parameter for noise removal, a method, and the like. In addition, even if the end point of a line segment is determined using a threshold that may or may not be in contact with other line segments, even if the line segment is extracted in a separated state due to lighting conditions, etc. It is desirable to make corrections such as However, a line segment that cannot be seen if it is in contact with another line segment is left as it is until a visible line segment is extracted. In either case, it is preferable that the images are extracted in the same manner even if the viewpoints of the imaging devices 10 and 20 change slightly.

次の処理(2)100dでは、線分にナンバリング処理をしたり、ステレオの場合には、左右の線分の対応付けを行なう。   In the next process (2) 100d, the line segments are numbered, or in the case of stereo, the left and right line segments are associated.

ここで、この処理(2)100dの詳細を図5を参照して説明する。抽出した線画像情報(線画像)の各線分に名前を付けて管理する。線理画像情報(線画像)102a,102bには、直方体の輪郭が各々抽出されている。この直方体を構成する各線分にL1からL9までの名前を付けて管理できるようにナンバリングを行なう。ナンバリングした各線分の線画像情報102a,102b上での座標で、その始点,終点,線種,曲線の場合には該曲線の関数などを2次元画像データベースとして内部メモリまたは記憶装置200へ記憶させて登録する。ここで、この2次元画像データベースの簡単なイメージを下記する。   Here, details of the process (2) 100d will be described with reference to FIG. Name and manage each line segment of the extracted line image information (line image). In the line image information (line images) 102a and 102b, outlines of rectangular parallelepipeds are extracted. Numbering is performed so that each line segment constituting the rectangular parallelepiped can be managed by giving names L1 to L9. In the case of the start point, end point, line type, and curve of the numbered line segment information on the line image information 102a and 102b, the function of the curve is stored in the internal memory or storage device 200 as a two-dimensional image database. And register. Here, a simple image of the two-dimensional image database will be described below.

Figure 2007098567
Figure 2007098567

これらのデータは、撮像装置10,20が移動して撮影シーンが変わったならば、シーン(2),(3)…と増やしていく。   These data are increased to scenes (2), (3), etc. when the imaging devices 10 and 20 move to change the shooting scene.

左右の撮像装置10,20は、人の左右の目と同じ程度に近くに離れた状態に設置することにより、左右の画像情報は少しずれてはいるがほとんど似た画像情報となる(左右の相関性は非常に良い)ので、それを利用して左右の画像データの各々対応する線分や点の対応付けを行なう。対象物体が目前にあって左右の画像情報が極端に違う場合の処理は、部分的なマッチングと十分に同じと判断できる部分の点のみを対応付ける。対応がとれなかった点は、後に撮像装置10,20が移動した場合の時系列の画像情報で写真計測から求めれば良いので、ここで100%の対応とれないからと言って処理ができなくなるものではない。求めた対応付けの関係は、左右の2次元画面データベースにも登録しておく。例えば、上記の例のように線分名称を同じにすることでも良い。線分名称をメモリのレコードNo.として定義しても良いし、左右のデータを記憶装置200内の物理的に別々のメモリへ記憶させて登録するようにしても良い。始点,終点の座標は、ここでは、画像メモリ上の番地になるので整数で良い。線種が直線の場合には、フィッティング関数の係数はなしで良い。曲線が2次曲線であれば、Y=aX+bX+cという関数でフィッティングさせる場合には、係数はa,b,cの3つとなる。線種が円や楕円の場合には、その関数に必要な係数を必要な数だけ登録する。点は、短い線分として始点と終点が一致している線分として定義して良い。 By installing the left and right imaging devices 10 and 20 as close to the left and right eyes of a person as possible, the left and right image information is a little shifted, but the image information is almost similar (left and right Since the correlation is very good), the line segments and points corresponding to the left and right image data are associated with each other. In the case where the target object is in front and the left and right image information are extremely different, only the points of the portion that can be determined to be sufficiently the same as the partial matching are associated. The point where the correspondence could not be taken can be obtained from photographic measurement with time-series image information when the imaging devices 10 and 20 are moved later, so that processing cannot be performed simply because 100% correspondence cannot be obtained here. is not. The obtained association relationship is also registered in the left and right two-dimensional screen databases. For example, the line names may be the same as in the above example. The line segment name is the record number of the memory. Alternatively, the left and right data may be stored in physically separate memories in the storage device 200 and registered. Here, the coordinates of the start point and end point may be integers because they are addresses on the image memory. When the line type is a straight line, the coefficient of the fitting function may be omitted. If the curve is a quadratic curve, when fitting with a function of Y = aX 2 + bX + c, there are three coefficients a, b, and c. When the line type is a circle or ellipse, the necessary number of coefficients necessary for the function are registered. A point may be defined as a short line segment whose start point and end point coincide.

次の処理(3)100eでは、ステレオ処理ができる複眼の場合には、この時点で各線分を3次元のデータに変換して3次元形状モデルを生成する。   In the next process (3) 100e, in the case of a compound eye capable of stereo processing, at this time, each line segment is converted into three-dimensional data to generate a three-dimensional shape model.

ここで、処理(3)100eの詳細を図6を参照して説明する。既に処理(2)の段階において左右で対応の取れた線分データがL1〜L9として得られているので、複眼のステレオ計測にて、各線分の始点,終点の座標は、3次元空間での座標に計算して求めることができる。その3次元の座標を計算した結果に基づいて、この処理(3)では、3次元データベースを生成する。   Here, details of the process (3) 100e will be described with reference to FIG. Since the line segment data corresponding to the left and right are already obtained as L1 to L9 in the stage of the process (2), the coordinates of the start point and end point of each line segment in the three-dimensional space are obtained in the stereo measurement of the compound eye. It can be calculated by calculating the coordinates. In this process (3), a three-dimensional database is generated based on the result of calculating the three-dimensional coordinates.

この3次元データベースの概念は、直方体の線分L1〜L9を3次元の線分データに変換することができ、また、各線分が繋がって閉ループを作れば、面S1,S2,S3を定義することができる形態である。また、何もない状態では、最初の平面(無限遠の無限平面と考えても良い。)S0を定義することができる。   The concept of this three-dimensional database is that the rectangular parallelepiped line segments L1 to L9 can be converted into three-dimensional line segment data, and if each line segment is connected to form a closed loop, surfaces S1, S2, and S3 are defined. It is a form that can. In addition, when there is nothing, the first plane (which may be considered as an infinite plane at infinity) S0 can be defined.

具体的には、左右の対応付けされた画像情報から3次元の線分L1〜L9の始点,終点,線種,線の関数を登録する。次に、3次元の線分で閉ループを形成している3次元の面S1〜S3の構成線分,面の種類,面の関数を登録する。背景は、取り敢えず、面S0として登録する(最初は、未だ背景面は定まらないので、データの中味はない状態である。)。   Specifically, the start point, end point, line type, and line function of the three-dimensional line segments L1 to L9 are registered from the left and right associated image information. Next, the constituent line segments, surface types, and surface functions of the three-dimensional surfaces S1 to S3 forming a closed loop with the three-dimensional line segments are registered. The background is registered as the surface S0 for the time being (at first, the background surface is not yet determined, so there is no data content).

この3次元データベースの簡単なイメージを下記する。   The following is a simple image of this three-dimensional database.

Figure 2007098567
Figure 2007098567

上記の面データは、単純な平面データのみであるので、面を構成する線分名称をデータとしてもつだけでも良い。   Since the above surface data is only simple plane data, it is also possible to have only the names of line segments constituting the surface as data.

次の処理(4)100fにおいて、必要であれば、見えない部分のデータを生成する。これは、総てのデータを円筒,球,円錐,直方体などの基本図形と見做してCADデータを生成する場合には有効である。但し、必ずしもそうする必要はない。   In the next process (4) 100f, if necessary, invisible data is generated. This is effective when CAD data is generated by considering all data as basic figures such as a cylinder, a sphere, a cone, and a rectangular parallelepiped. However, it is not necessary to do so.

この処理(4)100fの詳細を図7を参照して説明する。   Details of the process (4) 100f will be described with reference to FIG.

最初の撮影で得た画像情報に基づいて生成した3次元の平面群から基本図形の一部を構成していると推定することができる面群を探索する。見つからないときには、この処理をパスする。平面S1,S2,S3が基本図形の一部を構成していると推定したときには、その座標データに基づいて、基本図形に置き換えると、どの基本図形に一番近いかを判別する。そして、平面S1,S2,S3が直方体の一部であると判別すれば、見えてない面を推定平面SS4,SS5,SS6として生成する。このとき、見えていない部分の線分データも推定線分SL10,SL11,SL12として生成する。更に、構成面はS1,S2,S3,SS4,SS5,SS6である推定ソリッドデータSV1を定義する。そして、これらのデータを3次元データベースに登録する。   A group of faces that can be estimated to constitute a part of the basic figure is searched for from a group of three-dimensional planes generated based on the image information obtained by the first shooting. If not found, this process is passed. When it is estimated that the planes S1, S2, and S3 constitute a part of the basic figure, it is determined which basic figure is closest to the basic figure based on the coordinate data. Then, if it is determined that the planes S1, S2, and S3 are part of a rectangular parallelepiped, planes that are not visible are generated as estimated planes SS4, SS5, and SS6. At this time, line segment data of the invisible part is also generated as estimated line segments SL10, SL11, SL12. Furthermore, the configuration surface defines estimated solid data SV1, which is S1, S2, S3, SS4, SS5, SS6. These data are registered in the three-dimensional database.

このようにステレオ処理を併用すると、撮像装置10,20が動き出す前からCADデータを、一部に推定部分はあるものの、直ぐに、例えば、マニピュレータのハンドリングなどにおいて対象物体に向けてアームを移動させるための制御情報(物体検索情報)として利用できる状態にすることができる。   In this way, when stereo processing is used together, the CAD data before the imaging apparatuses 10 and 20 start moving, although there is an estimation part in part, immediately moves the arm toward the target object, for example, in manipulator handling etc. Can be used as control information (object search information).

ここで、推定データは、推定データであることが分かるように管理しておき、例えば、物体の裏側に回り込んで該裏側の部分を撮影した画像情報に基づき該裏側の部分のCADデータを生成したときには、推定CADデータは推定でないCADデータに置き換えるようにする。   Here, the estimated data is managed so as to be understood as estimated data. For example, CAD data of the back side portion is generated based on image information obtained by shooting the back side portion of the object. In such a case, the estimated CAD data is replaced with non-estimated CAD data.

以上のように、図3に示したフローチャートにおける処理(1)100c,処理(2)100d,処理(3)100e,処理(4)100fで必要な部分の処理を行なうようにして2次元画面データベースと3次元データベースへの登録と、撮像装置10,20からの画像情報の取り込みとを繰り返しながら行なうことにより、撮像装置10,20が動き出せば、多くの2次元画像データ(シーン)が蓄積される。そして、処理100gにおいて2次元画面データの溜り具合を監視し、ある程度溜まった段階で処理(5)100hの写真計測で座標を求めるようにすれば良い。   As described above, the two-dimensional screen database is configured so that the necessary portions are processed in the processing (1) 100c, processing (2) 100d, processing (3) 100e, and processing (4) 100f in the flowchart shown in FIG. When the imaging devices 10 and 20 start to move by repeatedly registering in the three-dimensional database and taking in the image information from the imaging devices 10 and 20, a large amount of two-dimensional image data (scene) is accumulated. . Then, in the process 100g, the accumulation degree of the two-dimensional screen data is monitored, and the coordinates may be obtained by the photo measurement of process (5) 100h when it is accumulated to some extent.

処理(5)100hの詳細を図8を参照して説明する。左右の撮像装置10,20の何れかの生画像情報と考えて良いが、生画像情報105aの物体も視点が変わると生画像情報105c,生画像情報105eのように見え方も変わる。   Details of the process (5) 100h will be described with reference to FIG. Although it may be considered as raw image information of either of the left and right imaging devices 10 and 20, when the viewpoint of the object of the raw image information 105a changes, the appearance changes as the raw image information 105c and the raw image information 105e.

ここで、右側は3次元データベースに登録されているデータに基づく線画像情報の概念で、線画像情報105b,105d,105fのように、撮像装置10(20)の視点の角度によっては見えないことから推定により生成している推定線分SL10,SL12の線分は、画像情報105dの段階では見えないので推定のレベルであるが、画像情報105fの段階では実際に撮影された画像情報では見えるようになることから該画像情報に基づいてこれらの線分を直に生成することができるようになるので、推定線分SL10は線分L10へ、推定線分SL12は線分L12に確定することができる。また、このように違う視点から撮影した画像情報に基づく2次元画像データが増えると写真計測を適用することができるので、各線分を定義している始点や終点のX,Y,Zの空間座標は、ステレオ計測で求めておいた座標値から写真計測で求める座標の方がより精度良く求められる部分は座標データを書き換えてCADデータの精度上げるように更新するようにする。このとき、3次元データベースの各座標値がステレオ計測で求められた場合にはそのときの測定精度をデータベースへ記憶させておき、新たにステレオ計測でも写真計測でも同じ点を再計算した場合には、その手法でそのときの条件で計算される3次元座標値の精度を求め、前の座標値を計算したときの精度よりも良い場合には座標値とその精度データを更新するようにする。因みに、3次元の座標計算の精度は、離れた物体については、ステレオ計測よりも写真計測の方が良い場合がある。これによって、精度が向上する場合にはCADデータを自動的に更新することができるようになる。   Here, the right side is a concept of line image information based on data registered in the three-dimensional database, and cannot be seen depending on the viewpoint angle of the imaging device 10 (20) like the line image information 105b, 105d, and 105f. The estimated line segments SL10 and SL12 generated by estimation from the above are not estimated at the stage of the image information 105d and are at the estimation level, but at the stage of the image information 105f, they are visible in the actually captured image information. Therefore, since these line segments can be generated directly based on the image information, the estimated line segment SL10 can be determined as the line segment L10, and the estimated line segment SL12 can be determined as the line segment L12. it can. In addition, as the two-dimensional image data based on image information taken from different viewpoints increases, photo measurement can be applied, so the spatial coordinates of the start point and end point defining each line segment are X, Y, and Z. Is updated so as to improve the accuracy of the CAD data by rewriting the coordinate data in the portion where the coordinates obtained by the photo measurement are more accurately obtained from the coordinate values obtained by the stereo measurement. At this time, if each coordinate value of the three-dimensional database is obtained by stereo measurement, the measurement accuracy at that time is stored in the database, and if the same point is newly recalculated in stereo measurement or photo measurement Then, the accuracy of the three-dimensional coordinate value calculated under the condition at that time is obtained by the method, and the coordinate value and its accuracy data are updated when the accuracy is better than the accuracy when the previous coordinate value is calculated. Incidentally, the accuracy of the three-dimensional coordinate calculation may be better for photo measurement than stereo measurement for a distant object. As a result, the CAD data can be automatically updated when the accuracy is improved.

なお、図3における処理(1)100c〜処理(4)100fを繰り返す場合の処理内容を以下に補足説明する。
(1) 最初は停止している撮像装置10,20もそのうちに移動する。撮像装置10,20の位置と姿勢の変化もこの中で計算して良い。
(2) 2次元画面データが逐次追加されるので、途中の変化の少ないデータは削除してデータ量が爆発(メモリが不足)しないようにする。
(3) 同じ画面内に新たな線分や点が生じた場合には、2次元図面データベースへ新たに登録する。
(4) 同じ画面内の同じ線分や点は、移動しても同じ線分や点として追跡管理する。動画のトラッキングとしての対応付けをこの2次元画面データベースにて管理する。
(5) 同時に左右の画像の対応点にも誤りがないかどうかを、逐次、チェックして、誤りが発見された場合には、それに関わる部分の再計算を直ぐに行い、2次元画面データベースおよび3次元データベースを修正する。
(6) 新たに新しい線分や点が生じた場合には、処理(3)100e,処理(4)100fにて3次元データベースに新たなモデルを追加生成する。
(7) 2次元画面データが蓄積されてきたならば、処理(5)100hも実施して、3次元データベースに新たなモデルを追加生成する。
The processing contents when processing (1) 100c to processing (4) 100f in FIG. 3 are repeated will be supplementarily described below.
(1) The imaging devices 10 and 20 that are initially stopped also move. Changes in the position and orientation of the imaging devices 10 and 20 may be calculated in this.
(2) Since two-dimensional screen data is added sequentially, data with little change in the middle is deleted so that the data amount does not explode (memory is insufficient).
(3) When a new line segment or point is generated in the same screen, it is newly registered in the two-dimensional drawing database.
(4) Even if the same line segment or point in the same screen is moved, it is tracked and managed as the same line segment or point. Correspondence as moving image tracking is managed in this two-dimensional screen database.
(5) At the same time, it is sequentially checked whether there is an error in the corresponding points of the left and right images, and if an error is found, the part related to it is immediately recalculated, and the two-dimensional screen database and 3 Modify the dimensional database.
(6) When a new line segment or point is newly generated, a new model is additionally generated in the three-dimensional database in processing (3) 100e and processing (4) 100f.
(7) If the two-dimensional screen data has been accumulated, the process (5) 100h is also performed to newly generate a new model in the three-dimensional database.

このように撮影シーンを画像処理して3次元座標を計算するときに、撮像装置10,20のレンズは、実用的には、広角レンズを使用して広範囲を撮影することにより、トラッキング追従している特徴点を見失う機会を少なくすると共に、短時間で広範囲の環境のCADデータを生成したり、検索できるようにすることが望ましいが、広角レンズを使用すると撮影して得た画像情報の周縁部分に歪みが発生して正確な3D計算を行なうことができなくなることがある。従って、広角レンズを使用するときには、歪みの少ない広角レンズを使用するようにする配慮や、レンズの歪みを画像処理で補正しながら3D計算を行なうようにする配慮が必要になる。   As described above, when the imaging scene is image-processed and the three-dimensional coordinates are calculated, the lenses of the imaging devices 10 and 20 practically follow the tracking by shooting a wide range using a wide-angle lens. It is desirable to be able to generate and search CAD data for a wide range of environments in a short time while reducing the chance of losing sight of feature points. Distortion may occur, and accurate 3D calculation may not be performed. Therefore, when using a wide-angle lens, consideration must be given to using a wide-angle lens with less distortion, and consideration must be given to performing 3D calculation while correcting lens distortion by image processing.

画像情報の歪みは、レンズの屈折により発生するものであり、レンズの屈折率の関係から、画像情報の歪み特性は、レンズの特性として既知となるので、レンズの歪み特性に応じた補正を画像処理の前処理の段階で行なうことにより、補正後の歪みのない画像情報に基づいた3D計算が可能となる。このような処理を高速に行なうためには、LSI回路のようなハードウェアによって行なうようにすると良い。また、ズームレンズを使用するときには、ズームの状態によってレンズの特性(補正パラメータ)が変わるので、ズーム状態を取り込んで補正処理を行なう補正回路とすることが望ましい。   The distortion of the image information is caused by the refraction of the lens. Since the distortion characteristic of the image information is known as the lens characteristic from the relationship of the refractive index of the lens, correction according to the distortion characteristic of the lens is performed on the image. By performing it at the pre-processing stage of processing, 3D calculation based on image information without distortion after correction becomes possible. In order to perform such processing at high speed, it is preferable that the processing is performed by hardware such as an LSI circuit. Also, when using a zoom lens, the lens characteristics (correction parameters) vary depending on the zoom state, so it is desirable to use a correction circuit that takes in the zoom state and performs correction processing.

図9は、CADデータとして生成される浮遊線分の活用の概念を示している。図9において、例えば、線分L11,L12,L13は、直方体の各面に付いている線であり、それらの線分データの座標データは、直方体の平面の一部に含まれる座標であり、直方体の形状を示している。また、実際に線が描かれている場合には、模様データとしてその物体の特徴を示す線分データとしても活用することが可能である。   FIG. 9 shows a concept of utilizing floating line segments generated as CAD data. In FIG. 9, for example, line segments L11, L12, and L13 are lines attached to each surface of the rectangular parallelepiped, and the coordinate data of the line segment data are coordinates included in a part of the plane of the rectangular parallelepiped. The shape of a rectangular parallelepiped is shown. Further, when a line is actually drawn, it can be used as line segment data indicating the feature of the object as pattern data.

従って、輪郭線を抽出したときに生じる平面を構成しない浮遊線分は、2次元画面データベースおよび3次元データベースに登録して管理する。各線分は、何れの面に付いているかも登録して管理する。これらの浮遊線分は、面データを作成するときに、面の中の線分の座標を参照することにより該面の形状を表現することができ、また、模様や傷などを参照データとして探索する場合には、マッチングするために必要なデータとなる。また、面データも何処かの面に付いている場合には、その関係を登録して管理する。   Therefore, floating line segments that do not constitute a plane generated when contour lines are extracted are registered and managed in the two-dimensional screen database and the three-dimensional database. Each line segment is registered and managed on which side. These floating line segments can express the shape of the surface by referring to the coordinates of the line segments in the surface when creating the surface data, and search for patterns and scratches as reference data. In this case, the data is necessary for matching. If surface data is attached to some surface, the relationship is registered and managed.

図10は、円筒や球体へ適用した場合の概念を示している。円筒には線分L7、球体には線分L8が付いている。これらは実際の線分データとして、円筒や球体の表面形状の一部を示しているデータとなる。   FIG. 10 shows a concept when applied to a cylinder or a sphere. The cylinder has a line segment L7, and the sphere has a line segment L8. These are data indicating a part of the surface shape of a cylinder or a sphere as actual line segment data.

図10において、線分L1,L4,L5,L7は、曲線としてデータベースに登録する。面S2,S3は、実際には曲面であるが、この段階では不明である(平面かも知れない)。面S2,S3は、視点が変わると線分L2,L3,L5の位置が変わることから、線分L2,L3,L5は、曲面の境界線であることが分かり、基本図形の特徴から円柱および球体と推定定義するか、浮遊線分L7,L8の座標から曲面関数として推定定義する。   In FIG. 10, line segments L1, L4, L5, and L7 are registered in the database as curves. The surfaces S2 and S3 are actually curved surfaces, but are unknown at this stage (may be planes). Since the positions of the lines L2, L3, and L5 change when the viewpoint changes in the surfaces S2 and S3, it can be seen that the line segments L2, L3, and L5 are the boundary lines of the curved surface. Estimate and define as a sphere, or estimate and define as a curved surface function from the coordinates of the floating line segments L7 and L8.

図11は、特殊曲面のCADデータとしての定義の一例を示している。例えば、木900の茂っている葉などは、遠くから撮影した画像情報では一枚毎の形状が見えない。その場合は、例えば、輪郭線L1が作っている特殊面S1に線分L2,L3,L4,L5,L6が付いていると見做す。各線分は、3次元の座標値をもっているので、その線分が表面に付いている特殊曲面S1の形状は、それ線分データの付いている部分に表面があると考えることが可能となる。このような特殊面の定義の概念を用いれば、皺のある布や着物の複雑な曲面とか、砂山などの表面を定義することが可能となる。   FIG. 11 shows an example of the definition of the special curved surface as CAD data. For example, the leaf of a tree 900 and the like cannot be seen for each piece of image information taken from a distance. In this case, for example, it is assumed that the line segment L2, L3, L4, L5, L6 is attached to the special surface S1 formed by the contour line L1. Since each line segment has a three-dimensional coordinate value, the shape of the special curved surface S1 attached to the surface of the line segment can be considered to have a surface in the portion to which the line segment data is attached. By using such a concept of defining a special surface, it is possible to define a complex curved surface of a cloth or a kimono with a wrinkle or a surface such as a sand pile.

具体的には、葉の茂った木900では、輪郭線L1,L7は、はっきりと抽出することができるが、頂点などがないので形状を定義し難いことから、輪郭線L1,L7が形成している曲面S1,S2を定義して、この曲面S1,S2上に浮遊線分L2,L3,L4,L5,L6,L8,L9,L10,L11などが存在するとして該曲面上に定義する。風で葉が揺れたり、光の具合で浮遊線分の位置や形状が変わったり、消えたりするが、その瞬間のデータを正と見做せばそれで良い。このような大雑把な表現で良いと考える理由は、遠くの物体のデータは、精度を必要とする制御に直接利用することはない、ことにある。マニピュレータで葉を掴むようなハンドリング制御では、手先が葉に近づけば、撮像装置10,20も同様に葉に近づいて葉の一枚一枚の詳細な画像情報が得られることから、CADデータも相応して詳細になって必要な精度が得られるようになるからである。   Specifically, in the leafy tree 900, the contour lines L1 and L7 can be clearly extracted, but since there are no vertices or the like, it is difficult to define the shape, so the contour lines L1 and L7 are formed. The curved surfaces S1 and S2 are defined, and floating line segments L2, L3, L4, L5, L6, L8, L9, L10, and L11 are defined on the curved surfaces S1 and S2. The leaves sway in the wind, and the position and shape of the floating line segment change or disappear depending on the light condition, but it is sufficient if the data at that moment is considered positive. The reason that such a rough expression is acceptable is that data of a distant object is not directly used for control that requires accuracy. In handling control such as grasping a leaf with a manipulator, if the hand approaches the leaf, the imaging devices 10 and 20 also approach the leaf and obtain detailed image information for each leaf. This is because the required accuracy can be obtained with corresponding details.

ソリッドデータとしても、同様に、浮遊線分L2,L3,L4,L5,L6,L8,L9,L10,L11などが存在する曲面からなる物体として定義することができる。このソリッドデータは、この程度の大きさのこのような形状の木として調べるときに利用することができる。曲面は、可能であれば、浮遊線分の座標データよりそれらの点を含む曲面の関数で表現した方が処理を機械化し易い場合もある。   Similarly, the solid data can be defined as an object made of a curved surface on which floating line segments L2, L3, L4, L5, L6, L8, L9, L10, and L11 exist. This solid data can be used when examining a tree of such a shape of this size. If possible, it may be easier to mechanize the process if the curved surface is expressed by a function of the curved surface including those points than the coordinate data of the floating line segment.

このような特殊曲面は、布,着物,かばん,タオルなどのように皺のある複雑な曲面の物体、人の指,腕,服など、砂山,遠くの山,カーテンなどの背景のような物体においても同様な表現となる。   Such special curved surfaces are objects such as cloths, kimonos, bags, towels, etc., complicated curved surfaces, human fingers, arms, clothes, sandstones, distant mountains, curtains, etc. This is also the same expression.

図12は、本発明の第1の手段,第2の手段,第3の手段においてCADデータを更新する場合の実施の形態を示したものである。   FIG. 12 shows an embodiment in which CAD data is updated in the first means, the second means, and the third means of the present invention.

(A)は、物体を該物体から遠く離れて位置する撮像装置10,20によって撮影したときの生画像情報であり、近くへ寄って撮影すると(B)のようになる。この物体は、例えば、机のようなものである。   (A) is raw image information when an object is photographed by the imaging devices 10 and 20 located far away from the object. When the object is photographed close to the object, (B) is obtained. This object is like a desk, for example.

この物体を遠くから撮影して得た生画像情報(A)に基づいてCADデータを生成すると、(a)に示すように、線分L1〜L9からなる直方体が生成される。そこで、撮像装置10,20を物体の近くに寄せて撮影して得た生画像情報(B)に基づいてCADデータを生成すると、(b)に示すようなデータを生成することになる。この場合には、新たな線分L10,L11,L12,L13,L14が生成して追加されると共に線分L1〜L9の始点と終点の座標データも近くで計測しているのでより精度の良い座標データに更新される。   When CAD data is generated based on raw image information (A) obtained by photographing this object from a distance, a rectangular parallelepiped composed of line segments L1 to L9 is generated as shown in (a). Therefore, when CAD data is generated based on raw image information (B) obtained by shooting the imaging devices 10 and 20 close to an object, data as shown in (b) is generated. In this case, new line segments L10, L11, L12, L13, and L14 are generated and added, and the coordinate data of the start and end points of the line segments L1 to L9 are also measured nearby, so that the accuracy is higher. Updated to coordinate data.

具体的には、物体を遠くから撮影して得た生画像情報に基づいて生成される1本の輪郭線は、近づいて撮影して得た生画像情報によれば、分解能が向上することから、2本の輪郭線となることがあり、より正確な形状データとなる場合がある。   Specifically, one outline generated based on raw image information obtained by photographing an object from a distance improves the resolution according to the raw image information obtained by approaching and photographing. There may be two contour lines, which may result in more accurate shape data.

ここでは、2次元画面データベースの更新で説明するが、同様に、関連する総ての3次元データベースも更新するものとする。   Here, the description will be made by updating the two-dimensional screen database. Similarly, all the related three-dimensional databases are also updated.

物体から遠く離れた位置で該物体を撮影して得た生画像情報に基づいて生成した線分L1,L2,L3,L5は、それぞれ1本であるが、近寄った位置で撮影して得た生画像情報に基づいて生成した線分は、それぞれが2本になる。線分L1,L2,L3,L5は、削除しないで、一番近い線分のより正確なデータとして、新しく求められる座標値に更新する。近い線分がないときには、削除して新たに生成し直す。新たな線分L10,L11,L12,L13,L14は、新たにナンバリングして追加登録する。   The line segments L1, L2, L3, and L5 generated based on the raw image information obtained by photographing the object at a position far away from the object are each one, but obtained by photographing at a close position. There are two line segments generated based on the raw image information. The line segments L1, L2, L3, and L5 are not deleted but updated to the newly obtained coordinate values as more accurate data of the nearest line segment. If there is no close line segment, delete it and create a new one. New line segments L10, L11, L12, L13, and L14 are newly numbered and additionally registered.

このように、CADデータの生成のみでなく更新も自動的に行なうようにすれば、移動可能な撮像装置10,20により撮影して得られる生画像情報に基づくCADデータの生成は、撮像装置10,20が移動すれば移動するほど精度が良くなる。また、最初の段階でもそれなりの精度でCADデータを生成することができるので、ロボットの制御などに早い段階からこのCADデータを利用することができるようになる。   In this way, if not only the generation of CAD data but also the update is automatically performed, the generation of CAD data based on the raw image information obtained by photographing by the movable imaging devices 10 and 20 is performed. , 20 moves, the better the accuracy. Also, since CAD data can be generated with a certain degree of accuracy even at the initial stage, this CAD data can be used from an early stage for robot control and the like.

図13は、第5の手段の実施の形態を示す概念図である。ここでは、撮像装置10,20が対象物である円柱状の物体(円柱)901の周りを回るように移動しながら撮影して得た画像情報に基づいてCADデータを生成することを考える。また、円柱901は、表面に「A」という文字101Aが描かれている物体とする。   FIG. 13 is a conceptual diagram showing an embodiment of the fifth means. Here, it is assumed that the imaging devices 10 and 20 generate CAD data based on image information obtained by shooting while moving around a cylindrical object (cylinder) 901 as a target. Further, the cylinder 901 is an object on which a character 101A “A” is drawn.

このような状態では、撮像装置10,20は、円柱901の側面のラインおよび上面あるいは下面の円板の淵が楕円に見える。しかし、それらの線は総てが輪郭線であり、そこに実際の線が存在するわけではない。そこで、3次元CADデータを生成していくときには、円柱901の淵の画像情報を密に取り込みながら周囲を回って沢山の輪郭線を検出してデータを生成していくと、3次元データベース200Gには、円柱902のようなワイヤーフレームのCADデータが生成される。   In such a state, in the imaging devices 10 and 20, the side line of the cylinder 901 and the upper or lower disc ridge appear to be an ellipse. However, all of these lines are outlines, and actual lines do not exist there. Therefore, when generating the three-dimensional CAD data, if the image is generated by densely capturing the image information of the ridges of the cylinder 901 and detecting a lot of contour lines around the periphery, the data is generated in the three-dimensional database 200G. In this case, CAD data of a wire frame like a cylinder 902 is generated.

また、円柱901の表面に描かれた文字「A」を構成する線分は、そこに実際に存在する線分である実際の線である。それは、例えば、CADデータの中では文字「A」902Aを構成する線分データとして生成される。このような輪郭線と実際の線は、CADデータを利用するときに使い分けると、CADデータを効率良く使うことができる。例えば、輪郭線の線分データは実際には存在しない線であるので、文字「A」の線分データを探すような場合には邪魔になる。また、円柱という形状データを参照したい場合には、多くの輪郭線も用いることでより詳細な形状に関するデータが得られるので、データを生成する上でこれは実際の線であるということが確定した段階で実際の線と定義するようにしてCADデータを生成する。この事例の場合には、撮像装置10,20が移動すると、円柱901の側面の輪郭線は、撮像装置10,20が移動しても見える場所が変わらないのに対して、文字「A」は、撮像装置10,20が移動すると見える場所が変わる。3次元のデータに変換した後に撮像装置10,20の移動前後における線分の位置を比較すると、移動前の輪郭線の線分は、移動後の位置には線分として見えない。しかしながら、実際の線である文字Aは、撮像装置10,20が移動しても同じ場所に存在する特徴から、「A」という文字を構成する線分は実際の線分であることを識別することができる。また、円柱901のような側面の輪郭線の場合、複眼の撮像装置10,20で見ている輪郭の位置は若干ずれた場所になるが、ステレオ計測でその輪郭線を生成する場合にはそれは誤差として影響するので、輪郭線というものはそういう誤差も含んでいるものであるということを区別していれば、利用するときに注意することも容易である。   In addition, the line segment constituting the letter “A” drawn on the surface of the cylinder 901 is an actual line that is a line segment actually present there. For example, it is generated as line segment data constituting the character “A” 902A in the CAD data. If such a contour line and an actual line are properly used when using CAD data, the CAD data can be used efficiently. For example, since the line segment data of the contour line does not actually exist, it becomes an obstacle when searching for the line segment data of the character “A”. In addition, if you want to refer to the shape data of a cylinder, you can get more detailed data by using many contour lines, so it was determined that this is an actual line when generating the data. CAD data is generated so as to be defined as an actual line at a stage. In this case, when the imaging devices 10 and 20 are moved, the outline of the side surface of the cylinder 901 does not change even if the imaging devices 10 and 20 are moved, whereas the letter “A” is When the imaging devices 10 and 20 are moved, the visible place changes. When the positions of the line segments before and after the movement of the imaging devices 10 and 20 are compared after being converted into three-dimensional data, the outline line segment before the movement is not visible as a line segment at the position after the movement. However, the character A, which is an actual line, identifies that the line segment constituting the character “A” is an actual line segment from the characteristics that exist in the same place even when the imaging devices 10 and 20 move. be able to. Further, in the case of a side contour line such as a cylinder 901, the position of the contour viewed by the compound-eye imaging devices 10 and 20 is slightly shifted. However, when generating the contour line by stereo measurement, Since it affects as an error, it is easy to be careful when using it if it is distinguished that the contour line includes such an error.

以下に、3次元データベースの概念の一例を示す。以下のように線種の中で区別するようにする一つの方法を示す。線分L1は、実際の線であることを示し、線分L2は、輪郭線であることを示している。   An example of the concept of a three-dimensional database is shown below. One method for distinguishing among line types is shown below. A line segment L1 indicates an actual line, and a line segment L2 indicates an outline.

Figure 2007098567
Figure 2007098567

次に、第6の手段の実施の形態を説明する。直方体の基本図形をソリッドデータSV1として生成する方法を図7を参照して説明したが、撮像装置が移動し、CADデータを更新するようにしたシステムでは、撮像装置が遠くから物体を見たときには直方体であっても、近くに寄って見たときには、例えば、サイコロのように直方体の角に丸みがある場合には、それを直方体として定義しておくことが適切ではなくなってくる。また、大きな建物を遠くから見ると直方体に見えるが、近くに寄ればドアがあり、中に入ると最初に直方体と見えていた建物は壁のような平面で囲まれた物体になる。更に、壁に近くに寄って見ると、厚みのある複数の平面の偏平な直方体となるようになることから、このようなシステムの場合には、必ずしもソリッドモデルにまで落とし込む必要はない。そこで、必要最小限のデータ構成を考えると、点と線と面まで上げられるので、必要最小限の面データまでを生成して更新していくシステムとするのが処理速度の観点などから有利である。   Next, an embodiment of the sixth means will be described. The method for generating the basic figure of the rectangular parallelepiped as the solid data SV1 has been described with reference to FIG. 7, but in a system in which the imaging device moves and updates the CAD data, the imaging device sees an object from a distance. Even if it is a rectangular parallelepiped, when viewed close to it, for example, when the corner of the rectangular parallelepiped is round like a dice, it is not appropriate to define it as a rectangular parallelepiped. Also, when you look at a large building from a distance, it looks like a rectangular parallelepiped, but if you get close, there is a door, and when you go inside, the building that was initially visible as a rectangular parallelepiped becomes an object surrounded by a plane like a wall. Furthermore, when viewed closer to the wall, it becomes a flat rectangular parallelepiped having a plurality of thicknesses. In such a system, it is not always necessary to drop it into a solid model. Therefore, considering the minimum necessary data configuration, it is possible to raise points, lines, and planes, so it is advantageous from the viewpoint of processing speed to create a system that generates and updates the minimum necessary plane data. is there.

次に、第7の手段の実施の形態を説明する。既に説明したデータベースは、線データを関数表現する形態と面データも関数表現するような形態であるが、面データを関数で表現することは、処理の複雑さとデータメモリ節約効率から考えると、節約の効果が少ない。そこで、少なくとも線データまでを関数表現することでデータ量を大幅に低減することを提案する。例えば、通常の環境を対象にして処理を行なうと莫大な数の線分が抽出される。それらの線分の形を、例えば、総て直線で表現しようとすると、円や複雑に曲がった形状の線分は、線分上に沢山の点を定義し、それらの点の間を直線の線分で繋いで円や曲がった形状を表現するようにしなければならず、多くの点データも必要となるので、莫大なメモリ容量が必要となる。そこで、曲線を関数で定義して、フィッティングさせる適切な係数(上記データ例のa1、b1…)で表現するようにすることによって、データ量を大幅に縮小することが可能となる。
第8の手段の実施の形態を説明する。この実施の形態は、生成および更新するCADデータにおける少なくとも面データに色情報をもたせるというものである。その概念を示すと以下のようになる。
Next, an embodiment of the seventh means will be described. The database already described has a form that expresses line data as a function and a form that also expresses surface data as a function. However, expressing surface data as a function saves in terms of processing complexity and data memory saving efficiency. Is less effective. Therefore, it is proposed that the data amount be greatly reduced by expressing the function of at least line data. For example, when processing is performed for a normal environment, an enormous number of line segments are extracted. If you try to express the shape of these line segments as a straight line, for example, a line segment with a circle or a complicated bent shape will define many points on the line segment, and a straight line between those points will be defined. It must be connected with line segments to express a circle or a bent shape, and a lot of point data is also required, so a huge memory capacity is required. Therefore, the amount of data can be greatly reduced by defining the curve as a function and expressing the curve with appropriate coefficients (a1, b1,... In the above data example).
An embodiment of the eighth means will be described. In this embodiment, color information is given to at least surface data in CAD data to be generated and updated. The concept is as follows.

Figure 2007098567
Figure 2007098567

勿論、赤,青…という表現ではなく、色コードで微妙な中間色まで区別できるようにしても良い。このように、CADデータに色情報があれば、赤いものを探すというような場合には赤い色情報をもつCADデータのみを探せば良いので、CADデータを取り扱うときの効率が良くなる。また、色情報で色の変わるところを境界線の線分データとして積極的に定義すれば、より多くの形状を示す線分データも得られるし、色の分布状態をより詳細に定義することも可能となる。   Of course, it may be possible to distinguish subtle intermediate colors by color code instead of red, blue, etc. Thus, if there is color information in the CAD data, it is only necessary to search for the CAD data having the red color information when searching for the red one, so that the efficiency in handling the CAD data is improved. In addition, if the point where the color changes in the color information is positively defined as the line segment data of the boundary line, the line segment data showing more shapes can be obtained, and the color distribution state can be defined in more detail. It becomes possible.

図14は、色情報を用いて輪郭を抽出する概念を例示している。参照符号110aは、生の画像情報とする。各メッシュの小さな枠が1画素に相当する部分である。そこに画像情報として、いろいろな色の面と線分などがあるという状況を示している。   FIG. 14 illustrates the concept of extracting a contour using color information. Reference numeral 110a is raw image information. A small frame of each mesh is a portion corresponding to one pixel. It shows the situation that there are various color surfaces and line segments as image information.

この画像データ上で2次元の画像データベースを作成することを考えると、例えば、各画素についてその周りの画素の色を自分の画素と比較しながら画面全体を処理し、色が変化する画素の部分に境界線を定義するようにすると、参照符号110bに示すような結果が得られる。それを更にシンボリックに定義すると、面データ110c,110f,110iは、それぞれの閉ループの中の色が定義されて面データには色情報も定義される。その他、境界部分には輪郭線データ110eや線のみの場合には面110fの中に線データ110d、また、単独に線データ110hなども定義される。ここでの輪郭線110eは、色違いの境界線を示しているので、ペイントされた模様であれば、これは実際の線として定義して良い。ここでは画面の淵の部分には仮想点110jを定義して、面データ110iを定義することができるようにしている。これらの図の概念は、2次元の画像データベースの概念であり、2次元の画像データベースでも線分データ以外に面データを定義するやり方をとっても良いし、面データの定義は3次元データベースでのみ行なうようにしても良い。   Considering the creation of a two-dimensional image database on this image data, for example, for each pixel, the entire screen is processed while comparing the color of the surrounding pixels with its own pixel, and the pixel portion where the color changes If the boundary line is defined in the table, the result shown by reference numeral 110b is obtained. If it is further defined symbolically, the surface data 110c, 110f, and 110i define colors in their respective closed loops, and color information is also defined in the surface data. In addition, in the boundary portion, only the contour line data 110e or the line data 110d is defined in the surface 110f when only the line is used, and the line data 110h is also independently defined. The contour line 110e here indicates a boundary line of different colors, so if it is a painted pattern, it may be defined as an actual line. Here, a virtual point 110j is defined in the heel portion of the screen so that the plane data 110i can be defined. The concept of these diagrams is a concept of a two-dimensional image database. A two-dimensional image database may take a method of defining surface data in addition to line segment data, and surface data is defined only in a three-dimensional database. You may do it.

ここで、図14の処理の手順を補足説明する。   Here, a supplementary description will be given of the procedure of the processing in FIG.

隣り合う画素の色や輝度を比較して、大きく変化している場合には輪郭と判断する。同様に周囲を探索していくと、閉ループの輪郭ができる。それを輪郭の線データ(境界なら無色)と閉ループの面データとして登録する。領域(面積)のないものは線データとして登録する。   The color and brightness of adjacent pixels are compared, and if it changes greatly, it is determined as a contour. Similarly, when searching around, a closed loop contour is created. It is registered as contour line data (colorless at the border) and closed loop surface data. Those without a region (area) are registered as line data.

次に、第9の手段の実施の形態を説明する。CADデータの例を以下に示す。   Next, an embodiment of the ninth means will be described. An example of CAD data is shown below.

Figure 2007098567
Figure 2007098567

ここでは、最大の明るさを100として、背景面S0は50の明るさ、赤い面S1は20の明るさ、青い面S2の明るさは100と例示している。このように定義しておくことによって、例えば、面S2が青ランプで光る面である場合には、その明るさデータ100を見れば、その青ランプは点灯していると判断させるような使い方をすることができるようになる。ここで、CADデータを生成するときに、撮像装置10,20によって得た画像情報の当該面の輝度値を参照してその情報をCADデータに登録すれば、CADデータに明るさの情報を追加することが可能である。   Here, the maximum brightness is set to 100, the background surface S0 is illustrated as 50 brightness, the red surface S1 is illustrated as 20 brightness, and the blue surface S2 is illustrated as 100 brightness. By defining in this way, for example, when the surface S2 is a surface that shines with a blue lamp, a method of using the brightness data 100 to determine that the blue lamp is lit is used. Will be able to. Here, when CAD data is generated, if brightness information of the surface of the image information obtained by the imaging devices 10 and 20 is referred to and the information is registered in the CAD data, brightness information is added to the CAD data. Is possible.

次に、第10の手段〜第12の手段の実施の形態を説明する。CADデータの例を以下に示す。   Next, embodiments of the tenth means to the twelfth means will be described. An example of CAD data is shown below.

Figure 2007098567
Figure 2007098567

以上の例では、面データS1,S2は、時刻13:15に生成されたデータと時刻13:20に生成されたデータの2種類が存在する部分を示している。このように、そのデータを生成した時刻データを登録しておくようにすることで、例えば、面データS2は、明るさが100から20に変わったので青のランプが消えた、ということを容易に認識することができるようになる。前の時刻に生成されたCADデータと違いのあるものは残しておくようにすれば、同じCADデータを調べることで変化の状態や履歴も認識させることが可能となる。また、このようにしてデータを追加していくとメモリ容量が足りなくなるので、例えば、重複するデータは、生成した時刻から1時間とか10分とかの所定の時間を経過した後には自動的に消去するようにプラグラムすることで、メモリ容量が爆発することを防ぐことができる。それは、例えば、CADデータの時刻を常に確認するようにして、所定の時間が経過したものは消去するようにすれば、自動消去処理が可能である。   In the above example, the plane data S1 and S2 indicate portions where two types of data, that is, data generated at time 13:15 and data generated at time 13:20 exist. In this way, by registering the time data at which the data was generated, for example, the surface data S2 can easily indicate that the blue lamp has disappeared because the brightness has changed from 100 to 20. To be able to recognize. If the data different from the CAD data generated at the previous time is left, it is possible to recognize the change state and history by examining the same CAD data. In addition, since the memory capacity becomes insufficient when data is added in this way, for example, duplicate data is automatically deleted after a predetermined time of 1 hour or 10 minutes from the generation time. By programming in such a way, it is possible to prevent the memory capacity from exploding. For example, automatic erasure processing can be performed by constantly checking the time of CAD data and erasing data after a predetermined time has elapsed.

図15および図16を参照して、第13の手段〜第18の手段の実施の形態を説明する。   With reference to FIGS. 15 and 16, embodiments of the thirteenth to eighteenth means will be described.

図15は、車903に人903aの虚像903b、太陽903cの虚像903dが写っていて、人903aの影903eが地面に写っている情景を撮像装置10,20で撮影して得た画像情報に基づいてCADデータを生成している例を示している。   FIG. 15 shows image information obtained by photographing the scene in which the virtual image 903b of the person 903a and the virtual image 903d of the sun 903c are reflected in the car 903 and the shadow 903e of the person 903a is reflected on the ground. The example which produces | generates CAD data based on this is shown.

ここで、生成されるCADデータは、車903のボディの曲面を形成している面S1が定義され、その面S1に虚像903b,903dや車913のマーク903fなどが付いているというように管理するようにするのが良いが、マーク903fは面S1に実際に付いているマークであり、虚像903b,903dは実際には面S1には付いていないデータであるので、CADデータを利用する場合には、区別し易くなっていると便利である。   Here, the generated CAD data is defined such that the surface S1 forming the curved surface of the body of the car 903 is defined, and the virtual image 903b, 903d, the mark 903f of the car 913, etc. are attached to the surface S1. However, since the mark 903f is a mark that is actually attached to the surface S1, and the virtual images 903b and 903d are data that is not actually attached to the surface S1, the CAD data is used. It is convenient if it is easy to distinguish.

そこで、処理としては、人903aが動けば虚像903bが動き、あるいは撮像装置10,20が移動すれば面S1上での虚像903bも動機、一方、実際に面S1に付いているマーク903fは、面S1の中での位置は変わることがないことから、面S1に付いているCADデータに着目して、それらの中でまとまって動くCADデータがある場合にはそれらを一まとまりのグループとして管理するようにする。すなわち、虚像903bを構成している線分や面のCADデータは、人903aが移動すると一緒に動くので、そのようなデータを検出してひとまとめに(グルーピング)して管理する。虚像903dも、同様に、太陽903cや車903や撮像装置10,20の何れかが動けば、面S1の中で移動するので、その座標データを参照してその位置の変化を検出できるようにすれば、同様に検出してグルーピングすることが可能である。また、太陽903cや人903aが移動すると地面の面S0に付いている影903eも動くので、その時点で影903eを構成する線分データや面データを抽出することができ、地面S0に実際に付いている他のCADデータとは区別することが可能となる。ここで、虚像903b,903dは、撮像装置10,20が移動すると動くが、影903eは動かないことから、写っている虚像と影を区別して管理するようにしても良い。また、例えば、車913の窓ガラスに付いているゴミは、窓ガラスの面に実際に付いているCADデータであるが、窓の奥に見えるCADデータは、一時的には付いているように見えるだけで、実際には奥のものが透けて見えているので、これも撮像装置10,20が移動すると動くことから、一時的には虚像として区別しておいて良い。   Therefore, as processing, if the person 903a moves, the virtual image 903b moves, or if the imaging devices 10 and 20 move, the virtual image 903b on the surface S1 is also motivated, while the mark 903f actually attached to the surface S1 is Since the position in the surface S1 does not change, paying attention to the CAD data attached to the surface S1, if there is CAD data that moves together in these, manage them as a group To do. That is, since the CAD data of the line segment and the surface constituting the virtual image 903b move together when the person 903a moves, such data is detected and managed together (grouped). Similarly, the virtual image 903d moves in the plane S1 if any of the sun 903c, the vehicle 903, and the imaging devices 10 and 20 moves, so that the change in the position can be detected with reference to the coordinate data. Then, it is possible to detect and group similarly. Further, when the sun 903c or the person 903a moves, the shadow 903e attached to the ground surface S0 also moves, so that the line segment data and surface data constituting the shadow 903e can be extracted at that time, and the ground S0 is actually It can be distinguished from other attached CAD data. Here, the virtual images 903b and 903d move when the imaging devices 10 and 20 move, but the shadow 903e does not move. Therefore, the captured virtual image and shadow may be managed separately. Further, for example, the dust attached to the window glass of the car 913 is the CAD data actually attached to the surface of the window glass, but the CAD data visible behind the window is temporarily attached. Since only the object can be seen and the object in the back is actually seen through, this also moves when the imaging devices 10 and 20 are moved. Therefore, it may be temporarily distinguished as a virtual image.

次に、虚像でも写って見える物体の虚像と透けて見える物体の虚像を区別して管理する場合の実施の形態を説明する。   Next, a description will be given of an embodiment in which a virtual image of an object that is visible even in a virtual image and a virtual image of an object that is visible are distinguished and managed.

図16は、写って見える虚像と透けて見える虚像を区別して管理する場合の実施の形態を説明する図である。図16に示す情景は、家の中の部屋の例であり、奥には窓910aがあり、絵910bと鏡910cが置いてある。この部屋の情景を撮像装置(図示省略)を移動させながら撮影して得た画像情報に基づいてCADデータを生成することを考える。   FIG. 16 is a diagram for explaining an embodiment in the case of distinguishing and managing a visible virtual image and a transparent virtual image. The scene shown in FIG. 16 is an example of a room in the house, with a window 910a in the back, and a picture 910b and a mirror 910c. Consider generating CAD data based on image information obtained by photographing the scene of this room while moving an imaging device (not shown).

CADデータの生成においては、線分がCADデータになって、閉ループを構成する部分が面データとして生成されるとすると、この情景では、鏡910cの内枠が構成する面S1、窓910aの内枠が構成する面S2、絵910bの額の内枠が構成する面S3などのCADデータが生成される。そして、床に置いてある円柱V1のCADデータも生成されるが、鏡面S1に写っている円柱V2もCADデータとして生成される。   In the generation of CAD data, if the line segment becomes CAD data and the portion constituting the closed loop is generated as surface data, in this scene, the surface S1 formed by the inner frame of the mirror 910c, the window 910a CAD data such as the surface S2 formed by the frame and the surface S3 formed by the inner frame of the frame of the picture 910b is generated. Then, CAD data of the cylinder V1 placed on the floor is also generated, but the cylinder V2 reflected on the mirror surface S1 is also generated as CAD data.

鏡面S1に写った円柱V2は、鏡面S1の表面に付いているゴミなどとは別に動くことから、虚像として区別することができるが、円柱V2は写って見えるのか透けて見えるのかはそのままでは区別することができない。窓910aの面S2に付いているように見える箱V3の虚像も同様である。これを判別する処理としては、例えば、先ず、面を鏡面と仮定して、撮像装置と面の位置関係から、面が鏡面であるとすれば反射して写るべき位置に実体があるということになるので、この実体の有無を確認することにより判別することができる。この実施の形態では、面S1に付いている円柱V2の実体である円柱V1が所定の位置にあることから、面S1は鏡面であると判別することができる。同じく、窓の面S2に付いているように見える虚像は、鏡面と仮定した場合には実体がないことから、奥に透けて見える物体であると識別することができる。   Since the cylinder V2 reflected on the mirror surface S1 moves separately from the dust attached to the surface of the mirror surface S1, it can be distinguished as a virtual image. Can not do it. The same applies to the virtual image of the box V3 that appears to be attached to the surface S2 of the window 910a. As a process for determining this, for example, assuming that the surface is a mirror surface, from the positional relationship between the imaging device and the surface, if the surface is a mirror surface, there is an entity at the position to be reflected and captured. Therefore, it can be determined by checking the existence of this entity. In this embodiment, since the cylinder V1 which is the substance of the cylinder V2 attached to the surface S1 is at a predetermined position, it can be determined that the surface S1 is a mirror surface. Similarly, since the virtual image that appears to be attached to the surface S2 of the window has no entity when it is assumed to be a mirror surface, it can be identified as an object that can be seen through.

また、絵910bの面S3には三角形の図形S4が付いているが、これは面S3に付いている他の絵やゴミなどと一緒に動くので、虚像ではないと識別することができる。   In addition, a triangular figure S4 is attached to the surface S3 of the picture 910b, and this moves together with other pictures or dust attached to the surface S3, so that it can be identified as not a virtual image.

このように、面を鏡面か透けて見える面かを周囲の実体と照らし合わせながら判別して、鏡面と分かったならば面データに鏡面であるというデータを付けてデータベースに登録するとか、鏡面のグループとして登録して管理する。このようにすれば、一度、鏡面と識別しておけば、違う虚像が写った場合にその都度同じ判別処理を繰り返さないで済むようになるので、効率良く処理することができるようになる。鏡面に写って見える虚像の線分や面データは、そのまま環境データとして作成すると実体のデータとの間に矛盾が生じるので、区別して管理するか抹消すると良い。   In this way, it is determined whether the surface is a mirror surface or a transparent surface by comparing it with the surrounding entities, and if it is determined to be a mirror surface, the surface data is added to the database as a mirror surface and registered in the database, Register and manage as a group. In this way, once it is discriminated as a mirror surface, the same discrimination process does not have to be repeated each time a different virtual image appears, so that it can be processed efficiently. If the line segment and surface data of the virtual image appearing on the mirror surface are created as environment data as they are, there is a contradiction with the actual data, so it is better to manage them separately or delete them.

透過する面は、同様に、透過する面として区別して登録しておけば、次からの処理は、初めから透過する面として処理することが可能となる。   Similarly, if a transparent surface is registered separately as a transparent surface, the subsequent processing can be processed as a transparent surface from the beginning.

ここで重要なことは、間違いなくそうだと確定した段階で確定フラグなどを付けるようにしておけば、重要なところに係わるものでも安全なシステムを構築することができる。   What is important here is that if a decision flag is attached at the stage where it is definitely decided, a safe system can be constructed even for important matters.

また、同じ面であっても、ゴミなどのように実際に付いているものと鏡面として反射して写っているものと透けて見えているものと最大で3つグループが存在する場合がある。そのような場合も考慮して、面の識別データには、ハーフミラーの識別も設けるようにすれば、それらの管理も容易になる。   In addition, even on the same surface, there are cases where there are a maximum of three groups, one that is actually attached such as dust, one that is reflected as a mirror surface, and one that is seen through. Considering such a case, if the identification data of the surface is also provided with the identification of the half mirror, the management thereof becomes easy.

なお、ゴミなどが付いているデータが一つもないという場合には、何もない開口部という場合もあるので、その可能性があるというような識別を設けるようにすると良い。また、実際には、反射の度合い、透過の度合いの異なる面が存在するので、例えば、実体と虚像の輝度の比などから反射率や透過率などを求めてその数値をその面データに追加するようにすると良い。また、人手によって後から正確な透過率や反射率を入力して設定できるようなシステムとしても良い。また、色によって透過率や反射率が異なる場合には、色別(波長別)にそれらの特性情報をもたせるようにしても良い。また、車のボディなどの塗装では、見る角度や光が当たる角度によって見える色が変わる表面も存在する。そのような場合には、例えば、この位置からこういう角度で見た場合には何色に見えた、というように面のCADデータの色情報にそのように見える条件を一緒に登録するようにしても良い。少なくとも、見る位置によって色が変わるような面であるというフラグだけでも登録するようにすれば、CADデータを利用して何色の車を探す、というような場合に、誤認識するのを防止することができるシステムを実現することができるようになる。   If there is no data with dust or the like, there may be an opening with nothing, so it is preferable to provide an identification that there is a possibility. In practice, there are surfaces with different degrees of reflection and transmission. For example, the reflectance and transmittance are obtained from the ratio of the luminance of the real image and the virtual image, and the numerical values are added to the surface data. It is good to do so. Moreover, it is good also as a system which can input and set an exact transmittance | permeability and reflectance later manually. Further, when the transmittance and reflectance differ depending on colors, the characteristic information may be provided for each color (for each wavelength). In addition, when painting a car body or the like, there is a surface that changes its color depending on the viewing angle and the angle of light. In such a case, for example, when it is viewed from this position at such an angle, what color it looks like is registered together in the color information of the CAD data of the surface together with such a condition. Also good. If at least a flag indicating that the color changes depending on the viewing position is registered, it is possible to prevent erroneous recognition in the case of searching for any color car using CAD data. It will be possible to realize a system that can.

図17は、このような鏡面判別処理のフローチャートを示し、図18は、この鏡面判別処理で判別することができる内容を示している。   FIG. 17 shows a flowchart of such mirror surface discrimination processing, and FIG. 18 shows contents that can be discriminated by this mirror surface discrimination processing.

図19を参照して第19の手段〜第21の手段の実施の形態を説明する。   An embodiment of the nineteenth means to the twenty-first means will be described with reference to FIG.

画像情報(画像)111aのシーンは、撮像装置10,20によって撮影して得た画像情報の一例を示している。画像には、レンズに付いているゴミ911aと人911bが写っている。また、撮像装置10,20のCCDなどの撮像素子が放射線で損傷した場合にもレンズにゴミが付いた状態と同じような画像になる。このような画像情報に基づいてCADデータを生成しようとすると、ゴミの画像も処理することになるので、その数が多くなると無駄な処理が多くなる。   The scene of the image information (image) 111 a shows an example of image information obtained by photographing with the imaging devices 10 and 20. The image shows dust 911a and people 911b attached to the lens. Further, when an image pickup device such as a CCD of the image pickup devices 10 and 20 is damaged by radiation, an image similar to a state in which dust is attached to the lens is obtained. If CAD data is to be generated based on such image information, dust images are also processed. Therefore, if the number increases, wasteful processing increases.

このようなゴミは、撮像装置10,20が移動しても画像の中で移動しない。画像情報111aでは、撮像装置10,20を移動すればシーンの中の人は移動するが、ゴミは移動しない。   Such dust does not move in the image even if the imaging devices 10 and 20 move. In the image information 111a, if the imaging devices 10 and 20 are moved, the person in the scene moves, but the dust does not move.

そこで、このような特性を利用して、撮像装置10,20を移動しても動かない画像情報は、2次元の画像情報を取り込んだ段階で消去することにより、その後のCADデータ生成処理の対象としないで済むようにして,そのようなゴミが多い場合の処理を効率的に行なうことができるようにする。   Therefore, by utilizing such characteristics, the image information that does not move even when the imaging devices 10 and 20 are moved is erased at the stage when the two-dimensional image information is taken in, and the object of the subsequent CAD data generation processing So that processing when there is a lot of such garbage can be performed efficiently.

また、画像情報(画像)111bのシーンでは、撮像装置10,20の電気回路などで生じるノイズ画像911cが対象の人911bと一緒に写っている。このノイズ画像911cも数が多くなるとCADデータ生成処理において無駄な処理を行わせることになるので、画像情報を取り込んだ直後に除去してCADデータ生成処理の対象外にする。そのための処理は、例えば、この場合には、撮像装置10,20を移動しても止めても同じようなパターンで動くノイズ画像911cが多いので、その特徴を使って除去するようにすれば良い。横に長く、定期的にアトランダムに生じる画像を抽出し、または、撮像装置10,20を移動させないときに動いているように生じるノイズパターンを抽出して、そのようなパターンを常に除去するようにすることで実現することができる。   Further, in the scene of the image information (image) 111b, a noise image 911c generated in the electric circuit of the imaging devices 10 and 20 is shown together with the target person 911b. If the number of the noise images 911c increases, wasteful processing is performed in the CAD data generation processing. Therefore, the noise information 911c is removed immediately after the image information is captured and excluded from the CAD data generation processing. For this purpose, for example, in this case, since there are many noise images 911c that move in the same pattern regardless of whether the imaging devices 10 and 20 are moved or stopped, they may be removed using the features. . An image that is long and horizontally and periodically generated randomly is extracted, or a noise pattern that appears to move when the imaging devices 10 and 20 are not moved is extracted, and such a pattern is always removed. This can be realized.

また、画像情報111cは、雨の中に人がいるシーンの例であるが、この場合には、沢山の雨911dがノイズ的に写っている。これらは、前記ノイズと同じように、2次元の画像情報を取り込んだときに縦に長いノイズという特徴を利用して最初に取り除く方法でも良いし、雨911dのCADデータは容易に生成することができるので、生成させてから、その特徴、すなわち細くて縦に長いもののデータを消去するとか、別グループに管理するようにして、例えば、人911bのCADデータを利用するときに人だけのCADデータを容易に取り扱えるようにすることでも良い。   Further, the image information 111c is an example of a scene where there is a person in the rain, but in this case, a lot of rain 911d appears in noise. Like the noise, these may be a method of removing first by using a feature of long noise when two-dimensional image information is taken in, and CAD data of rain 911d can be easily generated. Since it can be generated, its characteristics, that is, thin and vertically long data is deleted or managed in another group, for example, when using CAD data of person 911b, CAD data only for person It is also possible to make it easy to handle.

このような処理は、例えば、撮像装置10,20を水中ROVに搭載して水の中で浮遊させて得た画像情報に基づいてCADデータを生成する場合に、ある程度の大きさで浮遊しているゴミなどのように、具体的には流れに沿って一緒に動いているものなどのCADデータをその特徴から抽出して取り除いて必要なCADデータのみを効率良く取り扱うことができるようするときに利用することができる。   For example, when CAD data is generated based on image information obtained by mounting the imaging devices 10 and 20 on an underwater ROV and floating in water, such processing floats to some extent. When it is possible to efficiently handle only necessary CAD data by extracting and removing CAD data such as those that move together along the flow, such as trash Can be used.

図20は、第22の手段〜第26の手段の実施の形態を示すブロック図である。円柱物体901aがある場所に撮像装置10aと画像情報処理装置120aと無線装置aが接続して設置されており、画像情報処理装置120aの中には生成したCADデータを記憶する記憶装置200aがある。同様に、長方体物体901bがある場所に撮像装置10bと画像情報処理装置120bと無線装置bが接続して設置されており、画像情報処理装置120bの中には生成したCADデータを記憶する記憶装置200bがある。また、別の場所には無線装置cに接続された別の画像情報処理装置120cがあり、その中には記憶装置200cがある。   FIG. 20 is a block diagram showing an embodiment of the twenty-second means to the twenty-sixth means. The imaging device 10a, the image information processing device 120a, and the wireless device a are connected and installed in a place where the cylindrical object 901a exists, and the image information processing device 120a includes a storage device 200a that stores the generated CAD data. . Similarly, the imaging device 10b, the image information processing device 120b, and the wireless device b are connected and installed where the rectangular object 901b is, and the generated CAD data is stored in the image information processing device 120b. There is a storage device 200b. In another place, there is another image information processing device 120c connected to the wireless device c, and among them is a storage device 200c.

このような構成において、前述したいろいろな手段によって、各撮像装置10a,10bが撮影して得た画像情報に基づいてCADデータが生成される。具体的には、記憶装置200aの中には円柱902aのCADデータが生成され、記憶装置200bの中には長方体902bのCADデータが生成される。そして、無線装置121a〜121cを介して各々がCADデータを送受信し合えるようにすることで、1つの画像情報処理装置120a(120b)で生成したCADデータ902a(902b)を他の画像情報処理装置120b(120a)で利用して統合したCADデータを生成することが可能となる。CADデータの統合は、別な場所にある視覚情報処理装置120cで行なうようにすれば、画像情報処理装置120a,120bは、CADデータの統合処理を省略してCADデータの生成処理を専門に効率良く行なうことができるようになる。この統合処理は、画像情報処理装置120aが生成したCADデータ902aを画像情報処理装置120cへ送信し、画像情報処理装置120bが生成したCADデータ902bも画像情報処理装置120cへ送信して該画像情報処理装置120cでCADデータの統合処理を実行する。統合処理されたCADデータは、記憶装置200cの中に生成される。この場合、画像情報処理装置120a,120bで生成される座標系が同じになっているか、統合する前には合わせることができるようになっていることが必要である。例えば、最初に電源を入れたときに各画像情報処理装置120a,120bで現在の撮像装置10a,10bの位置と姿勢を共通の絶対的な座標系で入力するようにすれば、両方の画像情報処理装置120a,120bで生成するCADデータの座標系を一致したものとすることができる。また、両方の撮像装置10a,10bで同じ場所で対象物体をラップさせてCADデータを生成し、ラップして生成したCADデータが一致するように座標系を校正して合わせるようにしても良い。   In such a configuration, CAD data is generated based on image information obtained by the imaging devices 10a and 10b by the various means described above. Specifically, CAD data of the cylinder 902a is generated in the storage device 200a, and CAD data of the rectangular parallelepiped 902b is generated in the storage device 200b. Then, the CAD data 902a (902b) generated by one image information processing apparatus 120a (120b) can be converted into another image information processing apparatus by allowing the CAD data to be transmitted and received through the wireless apparatuses 121a to 121c. It becomes possible to generate CAD data integrated by using in 120b (120a). If the integration of CAD data is performed by the visual information processing device 120c located at another place, the image information processing devices 120a and 120b can omit the CAD data integration processing and efficiently perform the CAD data generation processing. You can do well. In this integration processing, the CAD data 902a generated by the image information processing apparatus 120a is transmitted to the image information processing apparatus 120c, and the CAD data 902b generated by the image information processing apparatus 120b is also transmitted to the image information processing apparatus 120c. The processing device 120c executes CAD data integration processing. The integrated CAD data is generated in the storage device 200c. In this case, it is necessary that the coordinate systems generated by the image information processing apparatuses 120a and 120b are the same or can be matched before integration. For example, if the current position and orientation of the imaging devices 10a and 10b are input in the common absolute coordinate system in the image information processing devices 120a and 120b when the power is first turned on, both pieces of image information are stored. The coordinate systems of the CAD data generated by the processing devices 120a and 120b can be matched. Further, it is also possible to generate CAD data by wrapping the target object at the same place in both the imaging devices 10a and 10b, and calibrate the coordinate system so that the CAD data generated by wrapping matches.

画像情報処理装置120aと画像情報処理装置120bが直接にCADデータの送受信を行なうようにすれば、直接的にCADデータの共有化が可能となるので、統合処理を行なう別の画像情報処理装置120cを不要にすることができる。このような場合には、画像情報処理装置120a,120bの中にCADデータを統合処理する機能も設けることが必要である。   If the image information processing apparatus 120a and the image information processing apparatus 120b directly transmit and receive CAD data, the CAD data can be directly shared. Therefore, another image information processing apparatus 120c that performs integration processing. Can be made unnecessary. In such a case, it is necessary to provide a function for integrating CAD data in the image information processing apparatuses 120a and 120b.

また、別の統合処理を実行する画像情報処理装置120cでの統合結果を各画像情報処理装置120a,120bへ戻すようにすることで、各画像情報処理装置120a,120bがお互いにお互いの生成したCADデータを利用し合えるようにすると、統合処理機能がない画像情報処理装置120a,120bでも統合処理した結果を利用することができるようになる。   Further, the image information processing apparatuses 120a and 120b generate each other by returning the result of integration in the image information processing apparatus 120c that executes another integration process to the image information processing apparatuses 120a and 120b. If CAD data can be used together, the result of the integration processing can be used even in the image information processing apparatuses 120a and 120b having no integration processing function.

画像情報処理装置120a,120b,120c間のデータの送受は、有線ケーブルを介して行なうものでも良いが、無線装置121a〜121cを介するようにすることで、撮像装置10を移動させながら撮影して得た画像情報に基づいてCADデータを生成する場合の機動性が向上し、対象物体をいろいろな角度から容易に撮影することができるようになる。また、広範囲にわたってCADデータを生成および統合する場合にも、ケーブルの長さを気にしないで広範囲のCADデータの生成および合成を行なうことができるようになる。   Data transmission / reception between the image information processing apparatuses 120a, 120b, and 120c may be performed via a wired cable. However, by using the wireless apparatuses 121a to 121c, shooting is performed while moving the imaging apparatus 10. The mobility in generating CAD data based on the obtained image information is improved, and the target object can be easily photographed from various angles. In addition, even when CAD data is generated and integrated over a wide range, it is possible to generate and synthesize a wide range of CAD data without worrying about the cable length.

図21,図22,図23,図24は、第27の手段〜第29の手段の実施の形態を示すブロック図である。   21, FIG. 22, FIG. 23, and FIG. 24 are block diagrams showing embodiments of the 27th to 29th means.

図21は、画像情報処理装置100に別のCPU等300を接続し、画像情報処理装置100の中でその都度計算されている撮像装置10,20、すなわちカメラの位置と姿勢情報を別のCPU300で取り出せるように構成した装置である。ここでは、例えば、カメラの位置と姿勢情報を定周期で画像情報処理装置100から出力させることにより、CPU300において、その周期でカメラの位置と姿勢情報を得ることができる。このように構成することによって、CPU300を使用して構成するアプリケーションシステムにおいて、カメラの位置と姿勢情報を利用することができるようになる。例えば、ロボットアームの制御のシステムであれば、ロボットアームの制御をCPU300が行なっているような場合には、カメラをロボットアームの先端に取り付けておくことによって、CPU300は、ロボットアームの先端の位置と姿勢情報を得ることができ、その結果を制御へ応用することができるようになる。   FIG. 21 shows a case where another CPU 300 is connected to the image information processing apparatus 100, and the position and orientation information of the imaging devices 10, 20, that is, the camera calculated in the image information processing apparatus 100 each time are stored in another CPU 300. This is a device that can be taken out with Here, for example, by outputting the camera position and orientation information from the image information processing apparatus 100 at regular intervals, the CPU 300 can obtain the camera position and orientation information at that interval. With this configuration, the position and orientation information of the camera can be used in an application system configured using the CPU 300. For example, in the case of a robot arm control system, if the CPU 300 controls the robot arm, the CPU 300 can be attached to the tip of the robot arm so that the CPU 300 can detect the position of the tip of the robot arm. And attitude information can be obtained, and the result can be applied to control.

図22は、アプリケーションシステムのCPU300がカメラの位置と姿勢情報を得るために該CPU300から画像情報処理装置100へ指令信号を入力するように構成し、その応答としてカメラの位置と姿勢情報を画像情報処理装置100から取得するように構成した装置である。従って、画像情報処理装置100は、CPU300が必要とするときにのみカメラの位置と姿勢情報を出力してCPU300に与えることができるようになる。   FIG. 22 shows a configuration in which the CPU 300 of the application system inputs a command signal from the CPU 300 to the image information processing apparatus 100 in order to obtain the camera position and orientation information, and the camera position and orientation information is received as image information in response. The apparatus is configured to be acquired from the processing apparatus 100. Therefore, the image information processing apparatus 100 can output the camera position and orientation information to the CPU 300 only when the CPU 300 requires it.

図23は、アプリケーションシステムのCPU300から画像情報処理装置100へCADデータの探索指令信号も入力できるように構成し、その応答として、画像情報処理装置100が探索したCADデータの情報(形状でも良いし、位置と姿勢情報でも良い。)をCPU300が取得できるように構成した装置である。これによって、CPU300側では、制御したいものの位置や姿勢情報と制御するときに必要となる相手側の位置や姿勢情報の両方を容易に得ることができるようになるので、制御にその情報を利用することができるようになる。   FIG. 23 is configured so that a CAD data search command signal can also be input from the CPU 300 of the application system to the image information processing apparatus 100, and as a response, information (shape or shape of CAD data searched by the image information processing apparatus 100 may be used. , Position and orientation information) may be acquired by the CPU 300. As a result, the CPU 300 side can easily obtain both the position and orientation information of the object to be controlled and the position and orientation information of the other party that is necessary for the control, so that information is used for the control. Will be able to.

図24は、CPU300から探索指令信号だけではなく、カメラの位置と姿勢情報を出力させる指令信号の両方を出力して、画像情報処理装置100から検索結果やカメラの位置や姿勢情報を取得するように構成した装置である。このように構成した装置では、例えば、コップなどをアームで把持するように構成するときには、カメラをアームの先端に設け、アームで把持しようとするコップのCADデータを画像情報処理装置100に探索させて該コップの位置と姿勢情報をCADデータの探索結果で得ることができるように構成し、ロボットハンドの先端の位置と姿勢情報はカメラの位置と姿勢情報として得て制御に利用することができる。カメラの位置と姿勢情報は、CADデータを生成するときに計算される情報であることから改めて計算処理するための別の時間を要しないので短時間に得られるメリットがある。勿論、対象のコップの位置と姿勢をCADデータで探索して、更に、ロボットハンドもハンドの形状データより探索して該ハンドの位置と姿勢情報を得るように構成することもできる。   In FIG. 24, not only the search command signal but also a command signal for outputting camera position and orientation information is output from the CPU 300, and a search result and camera position and orientation information are acquired from the image information processing apparatus 100. It is the apparatus comprised in. In the apparatus configured as described above, for example, when a cup is held by an arm, a camera is provided at the tip of the arm, and the image information processing apparatus 100 is made to search for CAD data of the cup to be held by the arm. The position and orientation information of the cup can be obtained from the CAD data search result, and the position and orientation information of the tip of the robot hand can be obtained as camera position and orientation information and used for control. . Since the camera position and orientation information is information calculated when CAD data is generated, there is an advantage that the camera position and orientation information can be obtained in a short time because it does not require another time for calculation processing. Of course, the position and orientation of the target cup can be searched using CAD data, and the robot hand can also be searched from the shape data of the hand to obtain the position and orientation information of the hand.

図25は、第27の手段〜第29の手段をロボット制御専用の視覚情報処理装置として実施する場合の画像情報処理装置100の処理の実施の形態を示すフローチャートである。   FIG. 25 is a flowchart showing an embodiment of processing of the image information processing apparatus 100 when the twenty-seventh to twenty-ninth means are implemented as a visual information processing apparatus dedicated to robot control.

画像情報処理装置100の処理は、先ず、スタート123aから入り、アプリケーションシステムにおけるCPU300などからのコマンド入力処理123bを行なう。ここで、CADデータ探索というコマンドの場合には、どのようなCADデータかという情報も入力する。   The processing of the image information processing apparatus 100 starts from start 123a and performs command input processing 123b from the CPU 300 or the like in the application system. Here, in the case of a command called CAD data search, information on what kind of CAD data is input.

次に、画像情報処理に移り、先ず、画像情報の取込処理123cを行なう。引き続き、3次元計測と3D−CADデータの生成処理とカメラの位置と姿勢計算処理123dを行なう。そして、CADデータの探索処理123eを行なう。   Next, the processing proceeds to image information processing, and first, image information capturing processing 123c is performed. Subsequently, three-dimensional measurement, 3D-CAD data generation processing, camera position and orientation calculation processing 123d are performed. Then, a CAD data search process 123e is performed.

そして、カメラと探索したCADデータの位置と姿勢情報をCPU300へ出力する処理123fを実行する。   And the process 123f which outputs the position and attitude | position information of CAD data searched with the camera to CPU300 is performed.

その後は、コマンド入力処理123bからの繰り返し処理となるようにする。この繰り返しサイクルが数10msecとかの高速で行なわれるようにすることで、ロボット等をリアルタイムで制御するCPU300は、ロボットの制御に利用する情報を容易に取得することができるようになる。   Thereafter, the process repeats from the command input process 123b. By making this repetitive cycle be performed at a high speed of several tens of milliseconds, the CPU 300 that controls the robot or the like in real time can easily acquire information used for controlling the robot.

具体的には、図25にも示しているように、ロボットハンド部に設けたカメラ123gと環境の中にある物体の1つで、例えば、円柱123hの位置と姿勢情報がリアルタイムに分かるようになることから、円柱123hを把持するためにロボットハンドを誘導する制御などを容易に実現することが可能となる。   Specifically, as shown in FIG. 25, the camera 123g provided in the robot hand unit and one of the objects in the environment, for example, so that the position and orientation information of the cylinder 123h can be known in real time. Therefore, it is possible to easily realize control for guiding the robot hand to hold the cylinder 123h.

図26および図27を参照して、第30の手段,第33の手段,第34の手段および第39の手段の実施の形態を説明する。   With reference to FIGS. 26 and 27, embodiments of the 30th means, the 33rd means, the 34th means and the 39th means will be described.

図26は、交通信号機やビルのある街の道路を車が走っている情景であり、その中のHITACHIビル904の看板を探索する場合の例を説明する。   FIG. 26 shows a scene where a car is running on a road in a city with traffic lights and buildings, and an example in the case of searching for a signboard of the HITACHI building 904 in the scene will be described.

CADデータの探索の方法としては、基本図形をもとにその基本図形に近いものを探索する方法を採用する。この場合、看板のサイズが分かっていれば、基本図形としては、所定の寸法の長方体を参照CADデータ904aとして用意し、生成されたCADデータの中からそれに近いものを探すようにする。そうすることによって、HITACHIビル904の看板を容易に探索することができる。   As a method of searching for CAD data, a method of searching for a thing close to the basic figure based on the basic figure is adopted. In this case, if the size of the signboard is known, a rectangular body having a predetermined dimension is prepared as the reference CAD data 904a as a basic figure, and the CAD data that is close to it is searched from the generated CAD data. By doing so, the signboard of the HITACHI building 904 can be easily searched.

また、図27に示す例は、基本図形だけでは限られた形状しか探索できないことから、予め、生成されたCADデータの中から一部分を取り出しておき、それを探索用の参照CADデータ904bとして入力するものである。この場合は、生成されたCADデータそのものであるので精度よくマッチングする部分が必ずあることから、より確実且つ正確に探索することができるようになる。また、基本図形にないどんな形状のCADデータのかたまりの一部分でも探索することができるようになる。   In the example shown in FIG. 27, since only a limited shape can be searched using only basic figures, a part of the generated CAD data is extracted in advance and input as reference CAD data 904b for search. To do. In this case, since the CAD data itself is generated, there is always a portion that matches with high accuracy, so that the search can be performed more reliably and accurately. In addition, it becomes possible to search a part of a block of CAD data having any shape not included in the basic figure.

ここで、探索データを予め読み出しておく方法としては、第33の手段の一例であるが、例えば、任意のサイズに変更可能な直方体を生成されたCADデータの中に表示して、その直方体のエリアの中をCADデータを探索用のCADデータとして読み出す方法がある。この方法によれば、必要な部分を簡単に取り出せるようになる。そのエリア904Aは、HITACHIビル904を包むような大きさで指定すれば、看板部を含む探索用CADデータを読み出すことが可能となる。このデータで探索すれば、看板の文字データも探索するときの特徴情報になるので、より確実に目的とする探索対象を探し出すことが可能となる。勿論、いろいろな場所を読み出しておけば、必要なときに、直ぐに、その場所を探索して確認できるようなシステムも構築することができるようになる。エリアは、直方体でなくても任意の大きさに設定できる球体でも良い。球体であれば姿勢まで指定しないで済むので、操作が容易になる。   Here, as a method of reading the search data in advance, it is an example of the thirty-third means. For example, a cuboid that can be changed to an arbitrary size is displayed in the generated CAD data, and the cuboid of the cuboid is displayed. There is a method of reading out CAD data as CAD data for search in an area. According to this method, a necessary part can be easily taken out. If the area 904A is designated with a size that encloses the HITACHI building 904, the CAD data for search including the signboard portion can be read out. By searching with this data, the character data of the signboard is also used as characteristic information when searching, so that the target search target can be found more reliably. Of course, if various locations are read out, it is possible to construct a system in which the locations can be searched and confirmed immediately when necessary. The area may not be a rectangular parallelepiped but may be a sphere that can be set to an arbitrary size. Since it is not necessary to specify the posture if it is a sphere, the operation becomes easy.

また、第34の手段は、最初に基本図形で看板を探索した後にその看板を含む大き目のエリアを探索用CADデータとして読み出す方法である。この方法であれば、最初は基本図形だけで探索することができ、次には、看板の文字も含めたその看板の部分を探索用に利用することができるようにすることができる。勿論、基本図形でない場合も、似たような場所を探して、似たような場所の周辺を探索用CADデータとして読み取るようにすれば、ずばりその場所を探索するのに適した探索用CADデータを得ることができる。   A thirty-fourth means is a method of first searching for a signboard with a basic figure and then reading a larger area including the signboard as search CAD data. With this method, it is possible to search using only the basic figure at first, and then to use the part of the signboard including characters of the signboard for searching. Of course, even if it is not a basic figure, if a similar place is searched and the vicinity of the similar place is read as search CAD data, the search CAD data suitable for searching for the place is used. Can be obtained.

このように第34の手段を用いれば、最初は基本図形程度しかなくても、徐々に似ているような場所を探して新たな探索用CADデータにすることができるので、容易に探索用CADデータ集を作ることも可能となる。   In this way, by using the thirty-fourth means, even if there is only a basic figure at first, it is possible to search for a similar place gradually and use it as new search CAD data. It is also possible to create a data collection.

第39の手段は、基本図形で探索する場合に、例えば、看板の直方体のサイズが不明の場合には、縦に長い直方体を示すような概略の縦横長さの比を指定するようにしてその比に近い直方体の物体を複数探索させる手法である。この手法は、形状が同じであれば、サイズは大きいものから小さいものまで探索したい、という場合に効果的である。バルブとか配管などのように、同じ形状でいろいろなサイズがあるものなどを探索するときには便利である。また、人のような形でも子供から大人まで探索するときのように、マッチング程度をある程度許容することで、同じ探索用データをサイズフリーで指示することで大小のある程度似たものを探索することができるようになる。探索用データも大きさの数だけもっている必要がないのでメモリの節約にもなる。   The thirty-ninth means is to search for a basic figure, for example, if the size of the rectangular parallelepiped of the signboard is unknown, specify the approximate ratio of the vertical and horizontal lengths indicating a long rectangular parallelepiped. This is a technique for searching for a plurality of rectangular parallelepiped objects close to the ratio. This method is effective when it is desired to search from a large size to a small size if the shapes are the same. This is useful when searching for valves with the same shape and various sizes, such as valves and pipes. In addition, even when searching from children to adults in a human-like form, by allowing a certain degree of matching, the same search data can be specified in a size-free manner to search for large and small similar items. Will be able to. Since the search data need not have the same number as the size, memory can be saved.

図28を参照して、第31の手段および第32の手段の実施の形態を説明する。撮像装置10は、撮影対象の物体905と共に部屋905aの中に入り、物体905を上下左右のいろいろな角度から撮影して画像情報を生成してCADデータを生成させる。この場合の撮影対象の物体905は花である。   With reference to FIG. 28, an embodiment of the 31st means and the 32nd means will be described. The imaging apparatus 10 enters the room 905a together with the object 905 to be imaged, images the object 905 from various angles, up and down, left and right, generates image information, and generates CAD data. In this case, the object 905 to be imaged is a flower.

一般の環境にある花は、いろいろなものの陰になったりするので、花の全体形状のCADデータを生成するのは難しいが、この手法を用いることで撮影対象の物体905の正確なCADデータ905cを容易に得ることができるようになる。また、専用の部屋905aとしてその中には他の物体が存在しないようにすれば、どのような角度から対象物体905を撮影しても他の物体が混入するようなことはない。部屋905aの内装は、床も壁も天井も真っ白とか、青とかにしておいても良いし、また、グリッドなどのメッシュを部屋の床,壁,天井に引いておき、CADデータ生成時にそのグリッドを利用するようにしても良い。   Since a flower in a general environment is shaded by various things, it is difficult to generate CAD data of the entire shape of the flower, but by using this method, accurate CAD data 905c of the object 905 to be photographed is used. Can be easily obtained. Further, if no other object is present in the dedicated room 905a, the other object will not be mixed even if the target object 905 is photographed from any angle. The interior of the room 905a may be white or blue on the floor, wall, and ceiling, or a grid such as a grid is drawn on the floor, wall, or ceiling of the room, and the grid is generated when CAD data is generated. May be used.

図29,図30,図31および図32を参照して、第35の手段〜第38の手段の実施の形態を説明する。この図29〜図32は、図25を参照して説明した基本処理における参照CADデータの探索処理123eの一例を説明するためのものである。   With reference to FIGS. 29, 30, 31, and 32, embodiments of the 35th to 38th means will be described. 29 to 32 are for explaining an example of the reference CAD data search process 123e in the basic process described with reference to FIG.

図29は、探索例の条件を整理したものである。現在の撮像装置(カメラ)の画像情報(映像)には4つの直方体が写っており、そのうちの3つの直方体は3段重ねになっている。そして、CADデータはある程度行なわれており、同じような環境のCADデータは既に生成されているものとする。具体的には、各直方体に相当するソリッドデータSV1,SV2,SV3,V4が生成されており、平面S0にソリッドSV1,V4が付いているデータが生成されているとする。この状態で、探索したい参照CADデータは、2段重ねの長方体の積み木である。   FIG. 29 is an arrangement of search example conditions. The image information (video) of the current imaging device (camera) includes four rectangular parallelepipeds, and three of the rectangular parallelepipeds are stacked in three stages. It is assumed that CAD data has been performed to some extent, and CAD data having a similar environment has already been generated. Specifically, it is assumed that solid data SV1, SV2, SV3, V4 corresponding to each rectangular parallelepiped has been generated, and data with solids SV1, V4 on the plane S0 has been generated. In this state, the reference CAD data to be searched is a two-layered rectangular block.

図30を参照して探索処理123eにおける処理(1)の例を説明する。この処理は、探索用CADデータ(参照CADデータ)の特徴量を計算する処理である。特徴量とは、CADデータによってはいろいろ考えられるが、ここでは、体積、細長比、頂点,線分,面の構成員数、凸凹の数、基本形状の数(直方体2個とか)、線分,面の特徴(曲面の場合の関数)、色情報などである。これらの計算処理は、新しい探索用CADデータが入力されたときに1回だけ行なう。   An example of the process (1) in the search process 123e will be described with reference to FIG. This process is a process of calculating a feature amount of search CAD data (reference CAD data). There are various features that can be considered depending on CAD data. Here, volume, slenderness ratio, vertices, line segments, number of faces, number of irregularities, number of basic shapes (two cuboids), line segments, These include surface characteristics (functions for curved surfaces), color information, and the like. These calculation processes are performed only once when new search CAD data is input.

図31を参照して探索処理123eにおける処理(2)の例を説明する。具体的には、現在見えている視野の中に入っているCADデータの中から処理(1)で抽出した特徴量と同じ特徴量を有するCADデータを探索する処理である。   An example of the process (2) in the search process 123e will be described with reference to FIG. Specifically, it is a process of searching for CAD data having the same feature quantity as the feature quantity extracted in the process (1) from CAD data in the field of view that is currently visible.

この例では、4つの直方体のデータがあるので、各々4つの直方体(候補1〜候補4)と、積み重なっている直方体では2つづつの組み合せが2種類(候補5と候補6)と、更に3段重ねの組み合せ(候補7)の合計7つの候補となることから、この7つの候補の特徴量と探索したい参照CADデータの特徴量を比較すれば、候補5が最も一致するということになる。基本図形で探索できるような単純な環境であれば、基本形状が最も近似する候補のCADデータが探索結果であるので、その結果として、この候補のCADデータの中心の位置と姿勢情報を出力するようにすれば良い。これは、図25の基本的な探索処理123eにおいて1回で全部実施するようにしても良いし、何回かに分けて実施するようにしても良い。すなわち、CADデータの生成サイクルの10回に1回の程度で探索結果を出力するようにしても良いし、1回毎に出力するようにしても良い。   In this example, since there are four cuboid data, each of the four cuboids (candidates 1 to 4) and the stacked cuboids have two combinations of two (candidate 5 and candidate 6) and three more stages. Since there are a total of seven candidates for the combination of the overlaps (candidate 7), if the feature amounts of the seven candidates are compared with the feature amounts of the reference CAD data to be searched, candidate 5 is the best match. In a simple environment in which a basic figure can be searched, the candidate CAD data with the most approximate basic shape is the search result, and as a result, the center position and orientation information of this candidate CAD data is output. You can do that. This may be performed all at once in the basic search process 123e in FIG. 25, or may be performed in several steps. That is, the search result may be output about once every 10 generation cycles of CAD data, or may be output every time.

図32は、環境が基本図形のみでない場合などに特に有効な処理方法であり、探索処理123eにおける処理(2)で最も近似する候補を1つ、場合によっては複数選択した後に参照CADデータと候補CADデータのパターンマッチングを行って、更に適切な候補を探索する処理(3)である。   FIG. 32 is a processing method that is particularly effective when the environment is not only a basic figure. Reference CAD data and candidates are selected after selecting one candidate that is closest to the process (2) in the search process 123e, or in some cases, selecting a plurality of candidates. This is a process (3) of searching for a more appropriate candidate by performing pattern matching of CAD data.

この例は、3Dポテンシャルマッチング法であり、最も近似する候補の最も確からしい位置,姿勢に参照CADデータをおいて最終マッチングを行なう。そして、マッチング度が所定値以上であれば、探索対象の物体であるとして特定し、未満の場合には、否として探索を継続する。   This example is a 3D potential matching method, in which reference CAD data is placed at the most probable position and orientation of the closest candidate to perform final matching. If the degree of matching is equal to or greater than a predetermined value, the object is specified as an object to be searched, and if it is less, the search is continued as no.

マッチング処理では、既に2次元処理で方法が確立しているパターンポテンシャルマッチング法を3次元に拡張したり、固有値空間マッチング法などを用いることによって探索速度を高速化することが可能となる。ここで、ポテンシャルマッチング法は、特開平02−137072号公報などに記載されている2次元ポテンシャルマッチングの処理を3次元の処理に拡張する使い方をする。固有値空間マッチング法は、文献で1997年5月電子情報通信学会論文誌D−II Vol.J80−D−II No.5 PP.1136−1143に記述されている手法などを応用する。何れの場合でも、最初に特徴量で候補を絞り込んで最終的な確定のために各種のマッチング法を用いる方法が良い。ここで用いるマッチング法は、上述のものに限定されるものではない。高速に高精度でマッチングできる手法と組み合わせて行なうようなマッチング手法でも良い。また、複数のマッチング手法を組み合わせて使用する方法でも良い。   In the matching processing, the search speed can be increased by extending the pattern potential matching method, which has already been established by the two-dimensional processing, to three dimensions, or using the eigenvalue space matching method. Here, the potential matching method is used to extend the two-dimensional potential matching processing described in Japanese Patent Laid-Open No. 02-137072 to three-dimensional processing. The eigenvalue space matching method is described in the literature of IEICE Transactions D-II Vol. J80-D-II No. 5 PP. The method described in 1136 to 1143 is applied. In any case, it is preferable to first use a variety of matching methods for final determination by narrowing down candidates by feature amount. The matching method used here is not limited to the above. A matching method that is performed in combination with a method capable of high-speed and high-precision matching may be used. Further, a method of using a combination of a plurality of matching methods may be used.

ここで、探索用CADデータは、3次元でも良いし、2次元でも良い。2次元のCADデータとは、模様や絵や看板の文字などである。すなわち、それらは、1つの面データの中にいろいろな面データと線分データが付いているようなCADデータで与えられる。面には色情報が付いていても良い。そのような探索用CADデータは、2次元で与えても探索する対象は3次元のCADデータの空間となるので、2次元のプレートの最もマッチングする部分を3次元空間の中から探索することになる。その場合、2次元のプレートは、向きや姿勢をいろいろな方向に変えてマッチングする場所を探索することになる。また、3次元の探索用CADデータの場合と同じように、スケールファクタは可変にして同じプレート、すなわち模様やマークで、大きいものから小さなものまで探索できるようにすると良い。   Here, the search CAD data may be three-dimensional or two-dimensional. The two-dimensional CAD data is a pattern, a picture, a signboard character, or the like. That is, they are given as CAD data in which various surface data and line segment data are attached to one surface data. Color information may be attached to the surface. Even if such CAD data for search is given in two dimensions, the object to be searched is the space of the three-dimensional CAD data, so that the most matching portion of the two-dimensional plate is searched from the three-dimensional space. Become. In that case, the two-dimensional plate searches for a matching place by changing its orientation and posture in various directions. As in the case of three-dimensional search CAD data, it is preferable that the scale factor is variable so that the same plate, that is, a pattern or a mark, can be searched from large to small.

ここで、マッチング探索について補足説明する。生成される環境のCADデータや入力される探索用CADデータは、そのデータ量を少なくするために、線データは、始点と終点と線種、線の関数パラメータなどで表現され、面データは、構成する線分の名称などで表現されるが、探索の時点では、マッチングを行なう部分に関しては、線分であれば線上の複数の点データに、面データであればその面を構成する複数の点データに変換して、点データ同士のマッチング処理、すなわち、相関をとる処理を行なうようにすれば良い。色情報をもっていた面データから置き換えられる点データには色情報ももたせて、色情報も考慮したマッチングとする。マッチング処理が終わったならば、置き換えた点データは消去可能である。その都度、点データに置き換えることで、通常もっていなければならないCADデータとしてのデータ量を少なくすることができる。   Here, a supplementary explanation of the matching search will be given. In order to reduce the amount of data generated in the CAD data of the generated environment and the input CAD data for search, the line data is expressed by the start point, the end point, the line type, the function parameter of the line, etc. It is expressed by the name of the line segment to be configured, etc., but at the time of the search, as for the portion to be matched, if it is a line segment, it will be a plurality of point data on the line, and if it is a plane data, it will be Conversion to point data may be performed to perform matching processing between the point data, that is, processing for obtaining correlation. The point data to be replaced from the surface data having the color information is also provided with the color information, and matching is performed in consideration of the color information. When the matching process is finished, the replaced point data can be deleted. By replacing the data with point data each time, the amount of data as CAD data that should normally be kept can be reduced.

また、点に置き換える場合の密度であるが、マッチング精度に応じて適切に変えるようにすると良い。基本的には、等ピッチ,等間隔で置き換えるが、複雑な形状、複雑な色模様の個所の密度を濃くし、単純な形状、単純な模様の色データの個所は粗くするようにすると良い。また、ソリッドのCADデータで管理、入出力するようにしている場合には、ソリッドデータもそのソリッド内空間に点データを一定密度で、あるいは、密と粗い部分を設けるなりして点データに置き換えて点データ同士のマッチングにすると良い。点データに置き換えることで、汎用的なマッチング処理を共通的に使用することができるようになる。なお、ここでは、点データに置き換える方法を説明したが、関数ベースでのマッチングができればそれでも良い。   Moreover, although it is the density at the time of replacing with a point, it is good to change appropriately according to matching accuracy. Basically, replacement is performed at equal pitches and equal intervals, but it is preferable to increase the density of locations of complex shapes and complex color patterns and to coarsen the locations of color data of simple shapes and simple patterns. In addition, if solid CAD data is used for management and input / output, the solid data is also replaced with point data in the solid space with a constant density or by providing dense and coarse portions. It is better to match the point data. By replacing with point data, a general-purpose matching process can be used in common. Here, the method of replacing with point data has been described, but it may be used as long as it can be matched on a function basis.

図33を参照して第40の手段および第41の手段の実施の形態を説明する。膨大で広範囲に生成したCADデータの中から参照CADデータを探索する場合には、探索速度を高速にするために、CADデータが生成される空間全体をブロック番地に区切り、区切番地を指定して探索範囲を絞り込むようにすると良い。   An embodiment of the 40th means and the 41st means will be described with reference to FIG. When searching for reference CAD data from among a large amount of CAD data generated extensively, in order to increase the search speed, the entire space where the CAD data is generated is divided into block addresses, and the partition addresses are designated. The search range should be narrowed down.

図33は、空間を同じ大きさのブロックに分断して探索する概念を示している。その中に撮像装置10であるカメラが存在しており、カメラ10は視野10Vの範囲を撮影している状況を示している。   FIG. 33 shows the concept of searching by dividing a space into blocks of the same size. The camera which is the imaging device 10 exists among them, and the camera 10 has shown the condition which image | photographs the range of the visual field 10V.

探索する場合には、カメラ10で見えている範囲を検索させる方法と、見えてない範囲を検索させる方法がある。勿論、CADデータを生成している中で検索させる方法もあるし、生成されたCADデータを使ってオフラインで検索処理のみを実施する方法もある。何れの方法においても、全エリアを検索するのは大変な時間がかかるので、例えば、対象空間が日本全国であって、現在の対象エリアが東京であれば、東京のブロック番地のみを探索対象にする方法で絞り込むようにする。   In the case of searching, there are a method of searching a range that is visible with the camera 10 and a method of searching a range that is not visible. Of course, there is a method of searching while CAD data is being generated, and there is also a method of performing only a search process offline using the generated CAD data. In any method, it takes a very long time to search the entire area. For example, if the target space is all over Japan and the current target area is Tokyo, only the block address in Tokyo is searched. Try to narrow down by the method.

また、第41の手段は、カメラ10の向きの方向のブロックを探索するようにするものである。すなわち、カメラ10の視野10Vの中に入っているブロックを探索の対象とするものである。ここで、生成するCADデータは、生成時にブロック番地で区分けして管理するようにしていくことにより、ブロックを指定すれば対象CADデータも自動的に絞り込めるようにすることができる。ブロックを指定して処理を行なえば、探索を効率良く行なうことができる。   In addition, the forty-first means searches for a block in the direction of the direction of the camera 10. That is, a block in the visual field 10V of the camera 10 is a search target. Here, the CAD data to be generated is classified and managed by block addresses at the time of generation, so that the target CAD data can be automatically narrowed down if a block is designated. If processing is performed by specifying a block, the search can be performed efficiently.

図34は、第42の手段の実施の形態である視覚情報処理装置のブロック図である。この視覚情報処理装置は、画像情報処理装置100に、I/Fとして、別のCPU300からの探索指令信号を入力する2つの系統と、探索結果を出力する2つの系統を設けた構成である。勿論、3つ以上でも良いし、1台のCPU300ではなく複数台のCPU300と接続されるように構成しても良い。   FIG. 34 is a block diagram of a visual information processing apparatus which is an embodiment of the forty-second means. This visual information processing apparatus has a configuration in which the image information processing apparatus 100 is provided with two systems for inputting a search command signal from another CPU 300 and two systems for outputting a search result as an I / F. Of course, the number may be three or more, and may be configured to be connected to a plurality of CPUs 300 instead of a single CPU 300.

このように、画像情報処理装置100に複数のI/Fを設けることにより、画像情報処理装置100の処理速度を上げてもCPU300とのデータ受け渡し速度が遅くてシステムの処理能力向上が制限されるような事態となるのを回避することができる。CADデータは、沢山の点や線分データから構成されている場合もあるし、探索によって沢山の候補データが探索され、また、それらの位置と姿勢情報以外に色とか形状の情報も読み出す場合には多くの時間がかかる。従って、画像情報処理装置100に複数のI/Fの出入り口を設けることにより、多くのCADデータの探索処理を効率良く行なうことができるようになる。   As described above, by providing the image information processing apparatus 100 with a plurality of I / Fs, even if the processing speed of the image information processing apparatus 100 is increased, the data transfer speed with the CPU 300 is slow, and the improvement of the processing capability of the system is limited. Such a situation can be avoided. The CAD data may be composed of many points and line segment data, or a lot of candidate data is searched by searching, and color or shape information is read in addition to the position and orientation information. Takes a lot of time. Therefore, by providing a plurality of I / F entrances in the image information processing apparatus 100, it is possible to efficiently perform a search process for a lot of CAD data.

図35および図36を参照して、第43の手段〜第50の手段の実施の形態を説明する。   With reference to FIGS. 35 and 36, embodiments of the 43rd means to the 50th means will be described.

図35は、生成されたCADデータの概念を示している。実際には細かな線分や面データの集合からなるCADデータであるが、ここでは、第31の手段および第32の手段を用いて、予め探索用CADデータがひとかたまりのものとして登録されているものとする。それらは、具体的には、机,花瓶,花,コップである。   FIG. 35 shows the concept of the generated CAD data. Actually, the CAD data is composed of a set of fine line segments and surface data. Here, the 31st means and the 32nd means are used to preliminarily register the search CAD data as one set. Shall. They are specifically desks, vases, flowers, and cups.

そこで、部屋の中のCADデータを生成したときに同じようなCADデータのかたまりが存在しているので、予め探索用にその物体のみで生成していたCADデータを使って探索させる。例えば、花のデータを使って探索させると花905を構成する線分や面データのかたまりが探索されるので、それをID=1と定義する。ID=1は、処理の中では花である。次に、花瓶906aを探索させるとその部分のデータが探索されるので、それをID=2と定義する。同様に、カップ906bのデータ部分はID=3と定義し、机907のデータを使って探索させると机と思われる線分と面データのかたまりが探索されるので、それをID=4と定義する。このIDを登録するときには、それを構成する線分や面のCADデータはグルーピングするようにする。IDを定義したCADデータには、そのIDの代表点の位置とかたまりとしての物体の姿勢情報を登録するようにしても良い。このようにマッチングした部分をかたまりとし定義して管理しておけば、次に探索するような場合には、IDを指定して探索するような使い方ができるようになり、便利である。   Therefore, since a similar set of CAD data exists when the CAD data in the room is generated, the search is performed using CAD data generated in advance only for the object for searching. For example, if a search is performed using flower data, a line segment or a block of surface data constituting the flower 905 is searched, and this is defined as ID = 1. ID = 1 is a flower in the process. Next, when the vase 906a is searched, the data of that portion is searched, and it is defined as ID = 2. Similarly, the data portion of the cup 906b is defined as ID = 3, and when searching using the data of the desk 907, a group of line segments and surface data which are considered to be a desk are searched, and this is defined as ID = 4. To do. When this ID is registered, the CAD data of the line segments and faces constituting the ID is grouped. In the CAD data defining the ID, the position of the representative point of the ID and the posture information of the object as a cluster may be registered. If the matched portions are defined and managed as a lump in this way, the next search can be conveniently performed by specifying an ID and performing a search.

予め用意しておいた探索用CADデータとマッチングしなかった部分908のかたまりがあるとすると、そのかたまりの部分が未認識の物体ということになる。そのような場合には、応用システムは、カメラを未確認物体908の周囲で上下左右に動かして該未認識物体908を撮影してCADデータを更に精度よく生成するようにすると良い。そして、その未確認物体908の部分にいままで取られていない新たなID番号を付けて管理するようにすれば、未確認物体があってもそれを良く観察して詳しいCADデータを生成して新たな物体として認識させることができるようになる。ここで、IDが付けられるということは、システムがその物体をIDの番号で認識しているということである。   If there is a lump of the portion 908 that has not been matched with the CAD data for search prepared in advance, the lump portion is an unrecognized object. In such a case, the application system may move the camera up and down, left and right around the unconfirmed object 908 to photograph the unrecognized object 908 and generate CAD data with higher accuracy. If the unidentified object 908 is managed by attaching a new ID number that has not been taken so far, even if there is an unconfirmed object, it is observed closely and detailed CAD data is generated to create a new one. It can be recognized as an object. Here, the fact that an ID is attached means that the system recognizes the object by the ID number.

IDには、種類と個々の番号をもたせるようにすると良い。例えば、コップが2つある場合にはID=(3の1)が1つ目、ID=(3の2)が2つ目というように管理すると良い。種類と個別番号を付けて管理するということである。   The ID may have a type and an individual number. For example, when there are two cups, ID = (1 of 3) may be managed first, and ID = (2 of 3) may be managed second. This means that they are managed with types and individual numbers.

第45の手段では、そのIDに人間の言葉を対応付けるようにするものである。この場合のCADデータの概念を以下に示す。   The 45th means associates human words with the ID. The concept of CAD data in this case is shown below.

Figure 2007098567
Figure 2007098567

このように、ID=1は、人間の言葉で「花」であることを対応させておくことにより、「花」を探索させることが可能となり、システムと人間とのI/Fを、操作(指示)し易いものに構築することができる。また、探索を行なうときに、例えば、「カップ(ID=3)とか花瓶(ID=2)は、机(ID=4)の上にある場合が多い。」という知識があれば、探索時には、先ずは机(ID=4)のCADデータの上に付いているCADデータを対象に探索するようにすることができる。このように範囲を特定して探索することで探索効率を上げることが可能となる。   In this way, ID = 1 can be searched for “flower” by making it correspond to “flower” in human language, and the I / F between the system and human can be operated ( It can be constructed to be easy to instruct). Further, when searching, for example, if there is knowledge that “a cup (ID = 3) or a vase (ID = 2) is often on a desk (ID = 4)”, at the time of searching, First, the CAD data attached on the CAD data of the desk (ID = 4) can be searched for. Thus, it becomes possible to raise search efficiency by specifying and searching a range.

図36は、知識データを入力するための実施の形態を示しており、図35を参照して説明した探索において、未認識の物体908のCADデータのかたまりが生じた場合には、システムは、人間に「この物体はなんですか?」という問いを出力し、人間がそれはID=5と定義することを入力しているときのLCDの表示画面を例示している。   FIG. 36 shows an embodiment for inputting knowledge data. In the search described with reference to FIG. 35, when a block of CAD data of an unrecognized object 908 occurs, the system The display screen of the LCD when the question “What is this object?” Is output to a human being and the human being inputs that it is defined as ID = 5 is illustrated.

このときに、知識データも一緒に入力するようにすると、入力漏れがなくなるシステムを構築することができる。また、知識データは、人間の言葉で入力するようにすれば、入力し易くなる。例えば、ID=5=「小包」と入力した後に、知識1=「小包」は「机」の「上にある」と入力すれば、必要なデータベースが自動的に作られるようにする。先に、総てのIDの言葉が登録されていれば、知識データベースは、人間の言葉からID番号に置き換えてID番号を所定の場所に記憶させるようにすることができる。また、ここで、「上にある」という言葉も何か他の記号に置き換えて記憶させるようにしても良いが、「上にある」ということは、その次にくるIDの物体の上(空間的に高い位置)のCADデータを探索することである、ということが対応付いているように探索のプログラムが記述されていることが前提になる。   At this time, if knowledge data is also input together, a system can be constructed that eliminates input leakage. Knowledge data can be easily input by inputting it in human language. For example, after inputting ID = 5 = “parcel”, if knowledge 1 = “parcel” is entered “above” of “desk”, a necessary database is automatically created. If the words of all IDs are registered first, the knowledge database can replace the human words with the ID numbers and store the ID numbers in a predetermined place. Here, the word “above” may be stored by replacing it with some other symbol. However, “being over” means that the object on the next ID (space) It is premised that a search program is described so as to correspond to searching for CAD data at a higher position.

第48の手段は、まとめて探索用CADデータを登録して各々IDも登録する場合を考慮して、知識データもオフラインで予め別ファイルで製作しておき、知識データを一括してシステムに読み込ませるようにする手段であり、効率よく知識データの登録が可能となる。   Forty-eighth means considers the case where the search CAD data is collectively registered and the ID is also registered, and the knowledge data is also prepared in advance in a separate file offline, and the knowledge data is collectively read into the system. The knowledge data can be registered efficiently.

なお、CADデータのデータベースの概念は、前述した実施の形態では、単純にデータをレコードNo.毎に羅列するように記述しているが、実際にシステムを実現する場合には、検索し易いデータベースにして、いろいろなデータにアクセスする時間を短くして、最終的には視覚情報処理装置あるいはそのシステムの処理速度を上げてリアルタイム性を向上するように工夫するのが良い。   It should be noted that the concept of the CAD data database is that the data is simply recorded in the record No. in the embodiment described above. Although it is described so that it is enumerated every time, when actually realizing the system, it is necessary to make the database easy to search, shorten the time to access various data, and finally the visual information processing device or It is advisable to increase the processing speed of the system so as to improve the real-time property.

第50の手段の実施の形態を図35を参照して説明する。元々、図35の個々のCADデータのかたまりは、実際には、生成された線分データや面データが複雑にしかも不完全に集合したものである。また、そのデータの数も多いので、探索してマッチング度がある程度一致した場合には、その部分を基本図形あるいは基本図形の集合体で定義された基本図形で置き換えるのが第50の手段である。このようにして置き換え可能な総てのCADデータを基本図形に置き換えれば、データ量は大幅に削減することが可能となる。   An embodiment of the 50th means will be described with reference to FIG. Originally, the block of individual CAD data in FIG. 35 is actually a complicated and incomplete collection of generated line segment data and surface data. In addition, since the number of data is large, the 50th means is to replace the portion with a basic figure defined by a basic figure or a set of basic figures when the matching degree matches to some extent after searching. . By replacing all replaceable CAD data with basic graphics in this way, the amount of data can be greatly reduced.

図37は、第51の手段の実施の形態である視覚情報処理システムの基本的な構成を示すブロック図である。画像情報処理装置100は、撮像装置10によって得た画像情報以外に該撮像装置10に取り付けた加速度センサ30とジャイロセンサ40などの撮像装置移動センサから出力する移動情報信号を入力するように構成している。また、この実施の形態では、撮像装置10はズームレンズ12が付いていて、ズームの度合いや必要であればフォーカスやアイリスなどのレンズ制御を画像情報処理装置100によって行い、レンズの状態をポジション信号として画像情報処理装置100へフィードバックするように構成している。ズームレンズ12は、オートフォーカス,オートアイリスにすれば、必要なレンズ制御信号は、ズーム比(画角)の調整のみで良い。ズームレンズ12を用いれば、物体を遠く離れた位置から撮影しても、視野は狭くなるが、分解能は上げられるので、離れた位置から精度良く計測したい場合に有効である。但し、その場合には、3D計測を行なうときには視野が分かっている必要があるので、ポジションフィードバック信号を取り込むようにすれば、視野が変わってもそれに合わせて3D計測の計算ができるようになる。勿論、ズーム比(画角)の変化は、カメラを物体の近くに寄せたり遠くへ離すことと等価であるので、レンズ系のポジションフィードバック信号は取り込まないようにして対応点のトラッキング探索でカメラの位置が変わったことを検出して3D計測の計算を行なうようにしても良い。   FIG. 37 is a block diagram showing a basic configuration of a visual information processing system which is an embodiment of the 51st means. The image information processing apparatus 100 is configured to input a movement information signal output from an imaging apparatus movement sensor such as the acceleration sensor 30 and the gyro sensor 40 attached to the imaging apparatus 10 in addition to the image information obtained by the imaging apparatus 10. ing. In this embodiment, the image pickup apparatus 10 includes a zoom lens 12, and the image information processing apparatus 100 performs lens control such as the degree of zoom and focus and iris if necessary, and the lens state is a position signal. As a feedback to the image information processing apparatus 100. If the zoom lens 12 is set to auto focus or auto iris, the necessary lens control signal only needs to be adjusted for the zoom ratio (view angle). If the zoom lens 12 is used, even if an object is photographed from a far away position, the field of view is narrowed, but the resolution can be increased, which is effective when it is desired to accurately measure from a far away position. However, in this case, it is necessary to know the field of view when performing 3D measurement. Therefore, if a position feedback signal is taken in, 3D measurement can be calculated accordingly even if the field of view changes. Of course, since the change in the zoom ratio (view angle) is equivalent to moving the camera closer to or away from the object, the position feedback signal of the lens system should not be captured and tracking of the corresponding point should be performed. It is also possible to calculate the 3D measurement by detecting that the position has changed.

また、画像情報の場合は、撮影するときの走査時間があるので、例えば、撮像装置10を早く動かした場合には、トラッキングで追跡している特徴点などが視野の中から直ぐに外に出てしまうのでトラッキング処理が間に合わないことになる。また、撮像装置10の移動が更に早くなると、画像が流れるようになるので、正常な画像処理ができなくなる。特に撮像装置10の向きを変える場合には、画像シーンは早く動いてしまう。高速度シャッタを使って画像が流れないようにしても良いが、第51の手段は、加速度センサ30やジャイロセンサ40の信号を用いて早く動いたときの移動量を検出し、この検出結果に基づいて撮像装置10の位置とか姿勢を推定するようにしている。それによって、画像処理では撮像装置10の位置と姿勢を見失っても、加速度センサ30やジャイロセンサ40からの信号に基づいてある程度の位置と姿勢を推定すれば、適度な移動速度に戻ったときには、どこからどちらを見ているかの対応が取れるようになることから、継続してCADデータを生成することができるようになる。   In the case of image information, since there is a scanning time when shooting, for example, when the imaging device 10 is moved quickly, the feature points and the like tracked by tracking immediately go out of the field of view. Therefore, the tracking process will not be in time. Further, when the movement of the imaging device 10 is further accelerated, an image starts to flow, and normal image processing cannot be performed. In particular, when the orientation of the imaging device 10 is changed, the image scene moves quickly. Although a high-speed shutter may be used to prevent the image from flowing, the 51st means detects the amount of movement when moving quickly using the signals of the acceleration sensor 30 and the gyro sensor 40, and the detection result is Based on this, the position or orientation of the imaging device 10 is estimated. Accordingly, even if the position and orientation of the imaging device 10 are lost in the image processing, if a certain position and orientation are estimated based on signals from the acceleration sensor 30 and the gyro sensor 40, when the movement speed returns to an appropriate level, Since it becomes possible to take correspondence between where the user is looking from, CAD data can be continuously generated.

ここで、撮像装置10が低速で移動している場合であっても撮影対象が特徴点が存在しない真っ白な壁などの場合には、画像シーンに画像処理を行なう特徴点がないことから正常な画像処理ができなくなる。このような場合にも加速度センサ30やジャイロセンサ40の信号から求めた移動情報を利用して、その後の処理の継続して行なうことができる。その後の処理を継続して行なう場合の処理としては以下のような手順で実現することが可能となる。   Here, even when the imaging apparatus 10 is moving at a low speed, if the object to be imaged is a white wall or the like where no feature points exist, it is normal because there are no feature points for image processing in the image scene. Image processing cannot be performed. Even in such a case, the subsequent processing can be continued by using the movement information obtained from the signals of the acceleration sensor 30 and the gyro sensor 40. The processing in the case where the subsequent processing is continued can be realized by the following procedure.

具体的な処理の実施の形態を図38〜図41を参照して説明する。図38は、最初の撮像装置10のCADデータ生成開始点などを座標系992aとして生成されたCADデータ群991aによるCADデータの概念を示している。この中で画像情報の正常な連続処理ができなくなった(不確定になった)ときの撮像装置10の位置を該撮像装置10の座標系が座標系992bの位置と姿勢にあるときからとする。図39では、次に再度画像処理可能な状態になったときの撮像装置10の座標系が992cの位置と姿勢にあるときで、正常な画像処理ができなくなった座標系の位置992bから座標系992cまでの移動距離と回転角度の情報(Δx,Δy,Δz,Δα,Δβ,Δγ)は、前述した加速度センサ30やジャイロセンサ40の移動情報信号から求めた移動情報を利用して求めることができるので、再開するときの撮像装置10の位置は座標系992cであることを最初の座標系992aの座標系の中で認識させることが可能である。ただし、加速度センサ30やジャイロセンサ40の移動情報信号から求めた移動情報にも誤差があるので、画像処理としては、いきなり最初の座標系992aに移動距離と回転角度の情報(Δx,Δy,Δz,Δα,Δβ,Δγ)を換算して追加生成していくのではなく、再開した最初は再開した最初の座標系992cで周囲のCADデータを生成していくものとする。その結果、図39において座標系992cにおけるCADデータ991bが新たに生成される。CADデータの量がある程度生成されてきたならば、以前に座標系992aで生成したCADデータ991aと同じ部分を重ねるようにマッチング処理を行なう。そうすると、図41に示すように、同じ環境部位を生成したCADデータは同じように生成されているので精度良く一致するCADデータの部分991cが存在する。その部分を精度良く一致させるための座標992bから座標992cへの移動、回転量Δx*,Δy*,Δz*,Δα*,Δβ*,Δγ*がより正しい移動および回転量となる。マッチング処理を行なう場合に、初めに加速度センサ30やジャイロセンサ40の移動情報信号から求めた移動情報(Δx,Δy,Δz,Δα,Δβ,Δγ)が分かっていれば、その移動および回転量から上下左右へ少しずつずらした場合により相関性が良くなる方向へ探索することによって、最終的に一番マッチングするとき(相関性の良いとき)の移動および回転量がより正しい移動および回転量Δx*,Δy*,Δz*,Δα*,Δβ*,Δγ*として得ることができる。加速度センサ30やジャイロセンサ40の移動情報信号から求めた移動情報を利用できない場合には、同じように、新たに座標系992cでCADデータの生成を行い、ある程度CADデータが生成できた時点で最初に生成したCADデータのどこか一部分マッチングする部分がないかどうかを探索することになるが、この場合は、探索の最初のスタート位置は正常な画像処理ができなくたった位置から始めることになる。この場合、図40に示すように、新たに生成した座標系992cは正常に画像処理することができなくなった座標系の位置992bと同じ位置と仮定してマッチングの探索を始める。すなわち、図40のCADデータと図38のCADデータの同じ部分のマッチングを探索する必要がある。この場合も、最終的には、図41のように同じCADデータの部分991cが精度良く一致する座標系の移動と回転の補正量Δx*,Δy*,Δz*,Δα*,Δβ*,Δγ*が求まることにはなるが、図40からスタートするために上下左右にいろいろな移動量と回転量を試みて一番一致する部分の多い移動と回転量を求めることになるので、計算回数などが多くなり、マッチング探索するのに多くの時間を要することになる。それでも、正常な処理ができなくなってから再度できるようになるまで、すなわち座標992bと992cの移動距離や回転量がわずかであれば、加速度センサ30やジャイロセンサ40の移動情報信号から求めた移動情報がなくとも比較的短時間にマッチング処理を完了して継続した処理を続けることが可能となる。加速度センサ30やジャイロセンサ40があれば、継続処理を開始するときの初期の位置がより実際の位置に近いところからスタートして探索できるので、より早く撮像装置10の位置と姿勢を以前に生成したCADデータの中で正しく補正した上での継続処理に復帰することができるということになる。ここで、マッチングするCADデータの物量は、最初の座標系992aで生成されていたCADデータ以上になることはないが、ある程度以上の物量でマッチングしないと本当に正しい位置に復帰することができたかどうかという問題が生じるので、ある程度の物量、たとえば線分の数や面データの数などで所定の量を定めて、その物量以上の範囲のCADデータがマッチングしたときに所定の位置に復帰したと判断し、それまで座標系992cで新たに生成されたCADデータを座標系992aへ変換して以前に座標系992aで生成されていたCADデータと統合する。そして、以降の処理は、座標系992aを固定の基準座標系として処理するようにする。所定の物量がマッチングするまでは、座標系992cでCADデータの生成を行いながら、座標系992aで生成されていたCADデータとマッチングする部分を探索するようにしても良い。   A specific process embodiment will be described with reference to FIGS. 38 to 41. FIG. 38 shows the concept of CAD data by the CAD data group 991a generated using the CAD data generation start point of the first imaging apparatus 10 as a coordinate system 992a. Among these, the position of the imaging apparatus 10 when normal continuous processing of image information cannot be performed (becomes uncertain) is from when the coordinate system of the imaging apparatus 10 is in the position and orientation of the coordinate system 992b. . In FIG. 39, when the coordinate system of the imaging apparatus 10 is in the position and orientation of 992c when the image processing is enabled again next time, the coordinate system starts from the coordinate system position 992b where normal image processing cannot be performed. Information on the movement distance and rotation angle up to 992c (Δx, Δy, Δz, Δα, Δβ, Δγ) can be obtained by using the movement information obtained from the movement information signals of the acceleration sensor 30 and the gyro sensor 40 described above. Therefore, it is possible to recognize in the coordinate system of the first coordinate system 992a that the position of the imaging device 10 when restarting is the coordinate system 992c. However, since there is an error in the movement information obtained from the movement information signals of the acceleration sensor 30 and the gyro sensor 40, the image processing suddenly includes information on the movement distance and rotation angle (Δx, Δy, Δz) in the first coordinate system 992a. , [Delta] [alpha], [Delta] [beta], [Delta] [gamma]) are not converted and additionally generated, but at the beginning of the restart, the surrounding CAD data is generated in the first coordinate system 992c that has been restarted. As a result, CAD data 991b in the coordinate system 992c is newly generated in FIG. If the amount of CAD data has been generated to some extent, matching processing is performed so as to overlap the same portion as the CAD data 991a previously generated in the coordinate system 992a. Then, as shown in FIG. 41, since the CAD data that generated the same environmental site is generated in the same way, there is a portion 991c of CAD data that matches with high accuracy. The movement and rotation amounts Δx *, Δy *, Δz *, Δα *, Δβ *, and Δγ * from the coordinate 992b to the coordinate 992c for matching the portions with high accuracy are more correct movement and rotation amounts. When performing the matching process, if the movement information (Δx, Δy, Δz, Δα, Δβ, Δγ) obtained from the movement information signal of the acceleration sensor 30 or the gyro sensor 40 is known first, the amount of movement and rotation is calculated. By searching in the direction in which the correlation is improved when the position is shifted little by little in the vertical and horizontal directions, the movement and the rotation amount when the best matching is finally achieved (when the correlation is good) are more accurate. , Δy *, Δz *, Δα *, Δβ *, Δγ *. Similarly, when the movement information obtained from the movement information signal of the acceleration sensor 30 or the gyro sensor 40 cannot be used, the CAD data is newly generated in the coordinate system 992c, and the CAD data is first generated when the CAD data can be generated to some extent. In this case, the initial start position of the search starts from a position where normal image processing cannot be performed. In this case, as shown in FIG. 40, the search for matching is started on the assumption that the newly generated coordinate system 992c is the same position as the position 992b of the coordinate system that has become unable to perform normal image processing. That is, it is necessary to search for matching of the same part of the CAD data of FIG. 40 and the CAD data of FIG. Also in this case, finally, as shown in FIG. 41, coordinate system movement and rotation correction amounts Δx *, Δy *, Δz *, Δα *, Δβ *, Δγ in which the same CAD data portion 991c coincides with high accuracy. * Will be obtained, but since starting from FIG. 40, various movement amounts and rotation amounts will be tried up and down, left and right, and the movement and rotation amount with the most consistent part will be obtained, so the number of calculations, etc. Therefore, it takes a lot of time to search for matching. Still, if normal processing cannot be performed until it can be performed again, that is, if the moving distance and the rotation amount of the coordinates 992b and 992c are small, the movement information obtained from the movement information signals of the acceleration sensor 30 and the gyro sensor 40 Even if there is no, it is possible to complete the matching process in a relatively short time and continue the process. With the acceleration sensor 30 and the gyro sensor 40, the initial position when starting the continuation process can be searched starting from a position closer to the actual position, so the position and orientation of the imaging device 10 can be generated earlier. This means that it is possible to return to the continuation process after correct | amending correctly in the CAD data. Here, the quantity of the CAD data to be matched does not exceed the CAD data generated in the first coordinate system 992a, but whether or not it was able to return to the correct position if it was not matched with a certain quantity or more. Therefore, when a predetermined amount is determined by a certain amount of object, for example, the number of line segments or the number of surface data, and it is determined that the CAD data in a range equal to or larger than the amount is matched, it is determined that the object has returned to the predetermined position. Then, the CAD data newly generated in the coordinate system 992c is converted into the coordinate system 992a and integrated with the CAD data previously generated in the coordinate system 992a. In the subsequent processing, the coordinate system 992a is processed as a fixed reference coordinate system. Until the predetermined quantity matches, the CAD data may be generated in the coordinate system 992c, and a portion matching the CAD data generated in the coordinate system 992a may be searched.

何時になってもマッチングする部分が探索できない場合は、前に生成していた座標系992aで生成していた空間を見失ったということで、復帰することができない状態となる。その場合、画像情報装置100からアプリケーション側CPU等300へ座標系992aでの撮像装置10の位置が正しく計算できなくなった「見失った状態」とか、新たに座標系992cで生成を始めて前の座標系992aで生成されているCADデータとのマッチング探索をしている「見失った座標系探索中状態」とか、マッチングして最初の座標系992aへ戻った「見失った状態から復帰した」などの状態を示す信号を出力するようにして、その状態に応じてアプリケーション側CPU300で適切な制御が行われるようにすると良い。また、「見失った座標系探索中状態」においては、そのときに固定座標系として新たに生成を始めた座標系の名前、この実施の形態の場合は座標系992cの座標系であること(例えば座標系992aをNo.1座標系とした場合、座標系992cはNo.2座標系のNo.2などで表現した座標系の名前)をアプリケーション側CPU300で分かるようにして、「見失った座標系探索状態」でも新たに生成していく座標系の中で物体の探索とか、現在位置の問い合わせなどをアプリケーション側CPU300が画像情報処理装置100に行なうことができてその回答情報に基づきアプリケーションの制御を行えるようにしても良い。この情報に基づき、アプリケーション側CPU300はよりマッチングできるように撮像装置10を移動制御しても良いし、長時間探索しても見つからずにこれ以上の探索は無駄と判断した場合は、アプリケーション側で次の作業行動に移るようにしても良い。これは、一度連続した画像処理による撮像装置10の位置の計算が途切れた場合に、途切れる前の位置を見失った場合にもアプリケーションシステムの制御を継続することができるようにするための手段として有効である。見失って新たに生成を始める座標系の数は、No.2の1つに限らず、No.3,No.4,…と複数となる場合もある。また、マッチングの結果、同じような環境が複数存在する場合には、元にもどったと判断しても、実際には違う場所に位置している場合もある。そのような場合には、アプリケーションCPU300側でその後の行動制御の中で矛盾が生じるので、その時点で復帰した場所が誤りであったと判断される場合もある。そのような場合でも、アプリケーション側で適切な次に行なうべき制御内容が考慮されていれば、ロボットなどの制御はアプリケーション側の制御次第で適切に復帰させることが可能である。   If no matching part can be searched at any time, the space generated by the previously generated coordinate system 992a has been lost, and it cannot be restored. In that case, the image information apparatus 100 to the application-side CPU 300 or the like 300 cannot correctly calculate the position of the imaging device 10 in the coordinate system 992a, or a new coordinate system 992c starts to be generated and the previous coordinate system A state such as “Lost coordinate system searching state” in which matching search is performed with CAD data generated in 992a, or “Returned from lost state” after returning to the first coordinate system 992a after matching. It is preferable to output a signal indicating that the application-side CPU 300 performs appropriate control in accordance with the state. Further, in the “lost coordinate system searching state”, the name of the coordinate system that has been newly generated as the fixed coordinate system at that time, in this embodiment, the coordinate system of the coordinate system 992c (for example, When the coordinate system 992a is the No. 1 coordinate system, the coordinate system 992c is the name of the coordinate system expressed by No. 2 of the No. 2 coordinate system, etc. The application-side CPU 300 can search the image information processing apparatus 100 for an object search or a current position inquiry in a newly generated coordinate system even in the “search state”, and control the application based on the answer information. You may be able to do it. Based on this information, the application-side CPU 300 may control the movement of the imaging device 10 so that matching can be performed. You may make it move to the next work action. This is effective as a means for allowing control of the application system to continue even when the position of the imaging device 10 is interrupted once by continuous image processing and the position before the interruption is lost. It is. The number of coordinate systems that are lost and start to be generated is No. 2 is not limited to one. 3, No. There may be a plurality of 4,. In addition, when there are a plurality of similar environments as a result of matching, even if it is determined that the environment has returned, it may actually be located at a different location. In such a case, since there is a contradiction in the subsequent behavior control on the application CPU 300 side, it may be determined that the place where it was restored at that time was an error. Even in such a case, if appropriate control content to be performed next is taken into consideration on the application side, the control of the robot or the like can be appropriately restored depending on the control on the application side.

また、この実施の形態では、撮像装置移動センサは、撮像装置10に直接取り付けた加速度センサ30やジャイロセンサ40であるが、撮像装置10がロボットアームの先端に取り付けてある場合には、ロボットアームの動作制御情報を代用しても良いし、移動ロボットや自動車の場合には、移動車輪の回転量から移動した距離を換算した移動情報信号で代用しても良いし、GPSを撮像装置に取り付けてGPSによる移動情報により同様な処理を行なうようにしても良い。   In this embodiment, the imaging device movement sensor is the acceleration sensor 30 or the gyro sensor 40 directly attached to the imaging device 10. However, when the imaging device 10 is attached to the tip of the robot arm, the robot arm In the case of a mobile robot or automobile, a movement information signal obtained by converting the distance moved from the amount of rotation of the moving wheel may be substituted, or a GPS is attached to the imaging device. The same processing may be performed based on movement information by GPS.

図42を参照して第52の手段の実施の形態を説明する。図42に示す実施の形態は、移動作業車であり、走行機構500と駆動制御装置501を備えた移動台車502にアーム機構400,CPU300,画像情報処理装置100,記憶装置200,撮像装置10を搭載した構成である。撮像装置10は、アーム機構400の先端に取り付けている。   An embodiment of the 52nd means will be described with reference to FIG. The embodiment shown in FIG. 42 is a mobile work vehicle, and an arm mechanism 400, a CPU 300, an image information processing device 100, a storage device 200, and an imaging device 10 are added to a mobile carriage 502 including a traveling mechanism 500 and a drive control device 501. This is the installed configuration. The imaging device 10 is attached to the tip of the arm mechanism 400.

CPU300は、駆動制御装置501に指示して走行機構500の駆動制御とアーム機構400の駆動制御を実行するように機能する。   The CPU 300 functions to instruct the drive control device 501 to execute the drive control of the traveling mechanism 500 and the drive control of the arm mechanism 400.

このような構成の移動作業車において、CPU300は、自分で走行機構500やアーム機構400を制御しているので、撮像装置10が移動しているか否かを判断することができ、撮像装置10の状態信号を画像情報処理装置100に入力することができるようにしておくことにより、画像情報処理装置100は、撮像装置10の状態(移動しているか、停止しているか)を認識することができる。また、画像情報処理装置100は、撮像装置10の動作状態が入力されれば、例えば、画像情報の全体が移動しているような場合に、撮像装置10が移動しているのか、対象物体が移動しているのかを、画像情報だけからでは判別できないような場合でも、容易に識別することができるようになる。   In the mobile work vehicle having such a configuration, since the CPU 300 controls the traveling mechanism 500 and the arm mechanism 400 by itself, the CPU 300 can determine whether or not the imaging device 10 is moving. By making it possible to input the state signal to the image information processing apparatus 100, the image information processing apparatus 100 can recognize the state (moving or stopped) of the imaging device 10. . In addition, when the operation state of the imaging apparatus 10 is input, the image information processing apparatus 100 determines whether the imaging apparatus 10 is moving or the target object is, for example, when the entire image information is moving. Even if it cannot be determined from the image information alone, it can be easily identified.

図43を参照して第53の手段および第54の手段の実施の形態を説明する。   An embodiment of the 53rd means and the 54th means will be described with reference to FIG.

図43に示した画像情報137のシーンは、中央部に2本の木137e,137f、右側に外灯137c、左上に太陽137aがある。太陽137aが撮影されると、実際には、ハレーションなどが生じて木137e,137fを正しく処理することができないような場合がある。第53の手段は、そのような場合を想定して、ハレーション部分、すなわち画像情報の輝度信号が飽和している状態の部分が広い場合には、その範囲または画面(画像情報)の全部について、CADデータの生成などの処理を行なわないようにするものである。それによって、不思議なCADデータが生成されるのを防止することが可能となる。また、範囲がある程度に限定されていれば、例えば、ハレーション影響部が太陽137aの周辺領域137bの範囲だけであれば、その範囲内のみを非処理にするものである。   The scene of the image information 137 shown in FIG. 43 has two trees 137e and 137f at the center, an outside lamp 137c on the right side, and a sun 137a on the upper left. When the sun 137a is photographed, in reality, halation or the like may occur and the trees 137e and 137f may not be processed correctly. The 53rd means assumes such a case, and when the halation part, ie, the part of the state where the luminance signal of image information is saturated, is wide, about the whole range or screen (image information), Processing such as generation of CAD data is not performed. As a result, it is possible to prevent generation of strange CAD data. Further, if the range is limited to some extent, for example, if the halation-affected portion is only in the range of the peripheral region 137b of the sun 137a, only the range is not processed.

また、外灯137cのように、光ってハレーション的に写ってはいるが、その大きさが小さい場合には、その位置は、概略でも計算することができるので、第54の手段は、概略の範囲として、ハレーション部位もCADデータとして生成するようにするものである。この例では、概略の範囲137dが外灯137cの範囲であり、その位置の概略は、3D計測して求めることが可能となる。このようにすれば、例えば、遠くに見える車のライトなどは、ハレーションでライトを正確にCADデータとして生成することはできないが、ハレーションの部位が小さければ、その位置を求めることができ、そのライトの車の位置もCADデータとして生成することが可能となる。   In addition, although the light is reflected in the halation like the external light 137c, when the size is small, the position can also be calculated roughly, so the 54th means is an approximate range. The halation site is also generated as CAD data. In this example, the approximate range 137d is the range of the outside lamp 137c, and the outline of the position can be obtained by 3D measurement. In this way, for example, a car light that is seen in the distance cannot be generated accurately as CAD data by halation, but if the halation part is small, its position can be obtained and the light can be obtained. The position of the car can be generated as CAD data.

図44を参照して第55の手段〜第57の手段を説明する。ステレオ計測の場合には、2眼の間隔が既知であれば、その長さを基準としてCADデータを生成することができるが、単眼の場合には、絶対的な寸法情報がないので、その絶対寸法を定義する方法を第55の手段〜第57の手段によって提供する。   The 55th to 57th means will be described with reference to FIG. In the case of stereo measurement, if the distance between two eyes is known, CAD data can be generated based on the length, but in the case of a monocular, there is no absolute dimensional information. A method for defining dimensions is provided by the 55th to 57th means.

CADデータが、例えばmmとか絶対的な寸法をもてば、アプリケーション側でもその都度換算する手間を省略することができるようになる。また、単眼処理の場合には、例えば、環境の中に寸法が既知の立方体などを入れておき、それにユニークなマークを付けておいてもかまわないが、それを基準に絶対寸法を決めるようにする。   If the CAD data has an absolute dimension, for example, mm, the application side can save time and effort for conversion each time. In the case of monocular processing, for example, a cube with a known dimension may be put in the environment and a unique mark may be put on it, but the absolute dimension is determined based on that. To do.

図44に例示した画像情報138のシーンでは、右下にある立方体138aが寸法既知の立方体である。これは、球体でも直方体でももっと複雑な形状のものでもそれが寸法既知のものであれば良い。また、画像情報138の左下に写っている物差し138bを撮像して、目盛りの所定の間隔(最低2点を特定してその間隔)の絶対寸法が分かれば、CADデータを絶対寸法に変換することが可能となる。物差し138bにある目盛りも画像処理で読み取るようにすることができる。   In the scene of the image information 138 illustrated in FIG. 44, the cube 138a at the lower right is a cube whose dimensions are known. This may be a sphere, a rectangular parallelepiped or a more complicated shape as long as it has a known dimension. In addition, by taking an image of the ruler 138b shown in the lower left of the image information 138, and knowing the absolute dimension of a predetermined interval of the scale (at least two points are specified), the CAD data is converted into an absolute dimension. Is possible. The scale on the ruler 138b can also be read by image processing.

図45を参照して第58の手段の実施の形態を説明する。この実施の形態は、本発明を実施する場合に適した視覚情報処理装置の基本的な製品形態の1つである。   An embodiment of the 58th means will be described with reference to FIG. This embodiment is one of basic product forms of a visual information processing apparatus suitable for implementing the present invention.

この実施の形態では、画像情報処理装置100は、前述したような画像情報処理機能を実現する手段(演算処理装置)をLSI化した視覚誘導チップとして構成し、撮像装置10,20は、2つのCCDカメラを使用し、記憶装置200は、スマートカード,メモリスティック,ICカード,ハードディスクなどのメモリを単独または組み合わせて使用し、別のCPU300は、ロボット制御装置などのアプリケーション側のCPUを使用し、拡張用として、加速度センサ30やジャイロセンサ40を用意する。   In this embodiment, the image information processing apparatus 100 is configured as a visual guidance chip in which the means (arithmetic processing apparatus) for realizing the image information processing function as described above is implemented as an LSI. Using a CCD camera, the storage device 200 uses a memory such as a smart card, a memory stick, an IC card, and a hard disk alone or in combination, and another CPU 300 uses a CPU on the application side such as a robot controller, An acceleration sensor 30 and a gyro sensor 40 are prepared for expansion.

画像情報処理装置100である視覚誘導チップには、画像情報や指令(コマンド)や探索用のCADデータやセンサ信号などを入力する入力I/Fと、指令に対する応答や撮像装置10,20や検索CADデータの位置や姿勢情報を出力する出力I/Fと、記憶装置200を接続するメモリ用I/Fなどを設ける。   The visual guidance chip, which is the image information processing apparatus 100, has an input I / F for inputting image information, commands (commands), search CAD data, sensor signals, and the like, responses to the commands, imaging devices 10, 20 and search. An output I / F that outputs CAD data position and orientation information, a memory I / F that connects the storage device 200, and the like are provided.

そして、この視覚誘導チップ(画像情報処理装置)100は、アプリケーション側のCPU300からの指令に従って、CCDカメラ(撮像装置)10,20から出力される生画像情報や加速度センサ30とジャイロセンサ40から出力されるセンサ信号を取り込んでCADデータを生成し、参照CADデータを探索する画像情報処理を実行し、探索結果をアプリケーション側のCPU300に報告し、生成したCADデータを記憶装置200に記憶させる処理を実行する。   The visual guidance chip (image information processing device) 100 outputs the raw image information output from the CCD cameras (imaging devices) 10 and 20 and the acceleration sensor 30 and the gyro sensor 40 in accordance with a command from the CPU 300 on the application side. Processing to generate CAD data by fetching the sensor signal to be performed, execute image information processing for searching for reference CAD data, report the search result to the CPU 300 on the application side, and store the generated CAD data in the storage device 200. Execute.

ここで、画像情報処理装置100の機能を実現する視覚誘導チップは、CADデータ生成と更新機能のハードチップ部とCADデータの探索機能のハードチップ部を分けるようにしても良い。その場合は、記憶装置200へのI/Fは、CADデータ生成と更新機能のハードチップ部とCADデータ探索機能のハードチップ部の両方に設け、同時に記憶装置200を読み書きしないように制御する。このような視覚誘導チップの構成とすれば、CADデータ生成と更新機能のみを必要とするアプリケーションには当該ハードチップ部だけを使用すれば良く、CADデータの探索機能が必要な場合に当該ハードチップ部を使用すれば良くなるので、合理的なアプリケーションシステムを経済的に構築することができるようになる。   Here, the visual guidance chip that realizes the functions of the image information processing apparatus 100 may be divided into a hard chip unit for CAD data generation and update functions and a hard chip unit for CAD data search functions. In that case, the I / F to the storage device 200 is provided in both the hard chip portion of the CAD data generation and update function and the hard chip portion of the CAD data search function, and is controlled not to read / write the storage device 200 at the same time. With such a visual guidance chip configuration, it is sufficient to use only the hard chip unit for an application that requires only the CAD data generation and update functions. When the CAD data search function is required, the hard chip is used. Therefore, a rational application system can be constructed economically.

次に、図46〜図54を参照して、図45に示した実施の形態の視覚誘導チップ(画像情報処理装置)100が実行する具体的な画像情報処理(CADデータの生成と更新機能)を詳細に説明する。   46 to 54, specific image information processing (CAD data generation and update function) executed by the visual guidance chip (image information processing apparatus) 100 according to the embodiment shown in FIG. Will be described in detail.

図46および図47は、視覚誘導チップ100が実行するメイン処理のフローチャートである。ここでは、アプリケーション側のCPU300からのコマンドとして、必要最小限の最も単純な4つのコマンドを用意した場合の例で説明する。そのコマンドは、コマンド=0が原点リセットでデータエリアをクリアするもの、コマンド=1がカメラ位置リクエスト、コマンド=2が探索指令、コマンド=3がデータ登録(ファイリング)の機能を有するものとする。   46 and 47 are flowcharts of main processing executed by the visual guidance chip 100. FIG. Here, an example will be described in which the four simplest commands that are the minimum necessary are prepared as commands from the CPU 300 on the application side. It is assumed that the command = 0 has a function of clearing the data area by resetting the origin, the command = 1 has a camera position request, the command = 2 has a search command, and the command = 3 has a data registration (filing) function.

システムの電源投入後のリセット信号で視覚誘導チップ100のメイン処理がスタートする。最初に処理(1)で撮像装置(カメラ)の現在の位置と姿勢データ(Xc,Yc,Zc,αc,βc,γc)をゼロリセットして、ワールド座標系を定義する。ワールド座標系は、ここでは、電源投入リセットスタート時のカメラ座標系をワールド座標系として定義する。そして、生成したCADデータを記憶させるメモリ200のデータ記憶エリアをゼロクリアする。   The main process of the visual guidance chip 100 is started by a reset signal after the system is turned on. First, in process (1), the current position and orientation data (Xc, Yc, Zc, αc, βc, γc) of the imaging device (camera) are reset to zero to define the world coordinate system. In the world coordinate system, the camera coordinate system at the start of power-on reset is defined as the world coordinate system. Then, the data storage area of the memory 200 that stores the generated CAD data is cleared to zero.

次の処理(2)では、アプリケーション側のCPU300からのコマンド入力を読み取る。ここでは、各コマンドを0,1,2,3の4種を番号で区別するようにした。   In the next process (2), the command input from the CPU 300 on the application side is read. Here, each command is distinguished by four numbers of 0, 1, 2, and 3.

その次の処理(3)では、コマンド=0かどうかを判定し、Yesの場合には処理(4)のコマンド=0に相当する処理の原点リセットを行ない、処理(5)でアプリケーション側のCPU300へ原点リセット完了の応答を出力する処理を実行する。   In the next process (3), it is determined whether or not the command = 0. If Yes, the origin of the process corresponding to the command = 0 in the process (4) is reset, and the CPU 300 on the application side is processed in the process (5). Execute the process to output a response to the origin reset completion.

前記処理(3)でコマンド=0でない場合は、処理(6)へジャンプする。この処理(6)では、コマンド=1か否かを判別し、Yesの場合には、処理(7)において撮像装置10,20の現在位置と姿勢情報をアプリケーション側のCPU300へ出力する応答処理を実行する。   If the command is not 0 in the process (3), the process jumps to the process (6). In this process (6), it is determined whether or not the command = 1, and in the case of Yes, a response process for outputting the current position and orientation information of the imaging devices 10 and 20 to the CPU 300 on the application side in the process (7). Execute.

処理(6)でコマンド=1でない場合は、処理(8)へジャンプする。処理(8)では、コマンド=3か否かを判別し、Yesの場合には、処理(9)において、現在までに生成したCADデータをファイル名を付けてメモリ200の生成CADデータ記憶エリアとは別の記憶エリアに登録する。そして、処理(10)でデータ登録完了をアプリケーション側のCPU300へ応答出力する処理を実行する。   If the command is not 1 in the process (6), the process jumps to the process (8). In the process (8), it is determined whether or not the command = 3. If Yes, the CAD data generated so far in the process (9) is attached with a file name and the generated CAD data storage area of the memory 200 Register in a separate storage area. Then, in a process (10), a process for outputting a data registration completion response to the CPU 300 on the application side is executed.

処理(8)でコマンド=3でない場合は、処理(11)へジャンプする。処理(11)は、撮像装置10,20からの生画像情報の取り込みである。撮像装置10と撮像装置20によって得た生画像情報(1),(2)を視覚誘導チップ100へ取り込む。撮像装置20が接続されていない場合には単眼の処理となり、接続されている場合にはステレオ処理も可能とする。   If the command is not 3 in the process (8), the process jumps to the process (11). Process (11) is capturing of raw image information from the imaging devices 10 and 20. Raw image information (1) and (2) obtained by the imaging device 10 and the imaging device 20 is taken into the visual guidance chip 100. When the imaging device 20 is not connected, monocular processing is performed. When the imaging device 20 is connected, stereo processing is also possible.

次の処理(12)では、3D座標計算,CADデータの生成処理を行なう。この処理(12)の詳細は、別途、図48を参照して後述する。   In the next processing (12), 3D coordinate calculation and CAD data generation processing are performed. Details of this process (12) will be described later with reference to FIG.

次の処理(13)では、コマンド=2か否かを判別し、Yesの場合には、処理(14)において3D−CADデータの探索処理を実行する。   In the next process (13), it is determined whether or not the command = 2. If Yes, the search process for 3D-CAD data is executed in the process (14).

そして、処理(15)において、探索できたか否かを判別して、Yesの場合には、処理(16)で探索結果として、候補数、各候補物体の座標姿勢データ、候補と決めた時のマッチング度などをアプリケーション側のCPU300へ応答出力する処理を実行し、処理(2)へ戻る。   Then, in the process (15), it is determined whether or not the search has been made. In the case of Yes, the number of candidates, the coordinate posture data of each candidate object, and the candidates are determined as the search results in the process (16). A process of outputting a matching degree and the like to the CPU 300 on the application side is executed, and the process returns to the process (2).

また、処理(13)の判別でコマンド=2でない場合と処理(15)で探索できなかった場合には、そこから処理(2)へ戻る。   If it is determined in the process (13) that the command is not 2 or if the search cannot be performed in the process (15), the process returns to the process (2).

このような処理を視覚誘導チップ100で実行できるようにすることにより、さまざまなアプリケーションの実現が容易になる。   By enabling the visual guidance chip 100 to execute such processing, various applications can be easily realized.

図48は、図47に示した視覚誘導チップ100のメイン処理における処理(12)である3D座標計算,CADデータ生成処理の詳細なフローチャートである。   FIG. 48 is a detailed flowchart of 3D coordinate calculation and CAD data generation processing, which is processing (12) in the main processing of the visual guidance chip 100 shown in FIG.

この処理では、処理(1)において、ステレオか単眼かの判別を行い、ステレオの場合には、処理(2)へ分岐する。   In this process, in process (1), it is determined whether it is stereo or monocular, and in the case of stereo, the process branches to process (2).

処理(2)では、ステレオ視の左右の画像データで対応する特徴点を複数抽出する。   In the process (2), a plurality of corresponding feature points are extracted from the left and right image data of the stereo view.

処理(3)では、抽出した左右の画像データの対応する特徴点を3D座標へ変換する。   In the process (3), corresponding feature points of the extracted left and right image data are converted into 3D coordinates.

そして、処理(4)において、3D−CADデータの生成処理を行なう。ステレオ視で3D座標を計算する手法は一般的であるので、ここでは詳細な説明を省略するが、3D座標が計算された後の処理(4)の詳細は、別途、図49〜図52を参照して後述する。その後、単眼の場合と合流して処理(5)を実行する。   In process (4), 3D-CAD data generation processing is performed. Since a method for calculating 3D coordinates in stereo view is common, detailed description thereof is omitted here, but details of the process (4) after the 3D coordinates are calculated are separately shown in FIGS. 49 to 52. Reference will be made later. Thereafter, the process (5) is executed by joining with the case of a single eye.

処理(5)は、処理(1)の判別で単眼の場合に分岐する処理である。ステレオの場合は、処理(2)〜(4)を実行した後にこの処理(5)に合流する。この処理(5)では、取り込み画像データの特徴点あるいは特徴物体を複数抽出する。   The process (5) is a process that branches in the case of a single eye in the determination of the process (1). In the case of stereo, after executing the processes (2) to (4), the process merges with the process (5). In this process (5), a plurality of feature points or feature objects of the captured image data are extracted.

次に処理(6)において、前回の取り込み画像データの特徴点と対応付けのできた特徴点は、前回のものと同じ名前を付け、新しい特徴点は新しい名前を付けて、今回の取り込み画像データを一時記憶する。処理(5),(6)は、特徴点のトラッキング処理の部分である。ステレオの場合には、少なくとも左右の何れか一方の画像情報について処理を行えば良い。   Next, in process (6), the feature points that can be associated with the feature points of the previous captured image data are given the same names as the previous ones, the new feature points are given new names, Memorize temporarily. Processes (5) and (6) are feature point tracking processes. In the case of stereo, processing may be performed on at least one of the left and right image information.

次に、処理(7)では、このトラッキングしながら蓄えた画像データが複数枚そろったか否かを識別する。   Next, in the process (7), it is identified whether or not a plurality of pieces of image data stored while tracking are prepared.

処理(7)でYesの場合は、処理(8)の写真計測での3D座標計算を実行する。具体的には、対応する複数の特徴点を3D座標へ変換する。このとき、各画像を撮影したカメラの位置や姿勢情報も計算されるので、その情報も一時記憶する。最新の取り込み画像のカメラ位置と姿勢情報は、変数Xc,Yc,Zc,αc,βc,γcにセットする。   In the case of Yes in the process (7), 3D coordinate calculation in the photo measurement of the process (8) is executed. Specifically, a plurality of corresponding feature points are converted into 3D coordinates. At this time, since the position and orientation information of the camera that captured each image is also calculated, the information is also temporarily stored. The camera position and orientation information of the latest captured image is set in variables Xc, Yc, Zc, αc, βc, and γc.

そして、処理(9)において、3D−CADデータ生成処理を実行しRETURNで戻る。処理(9)は、処理(4)と同じである。   Then, in the process (9), the 3D-CAD data generation process is executed, and the process returns with RETURN. Process (9) is the same as process (4).

処理(7)の判別で複数枚の画像データがそろわない場合には、そのままRETURNで戻る。写真計測に必要な画像データ枚数は、最小2枚であるが、更に多くの枚数を用いて写真計測するようにすると良い。3D座標計算に当たっては、スタート後、最初の取り込み画像を撮影したカメラ座標系をワールド座標系として3D座標を計算する。   If a plurality of pieces of image data are not found in the determination of the process (7), the process returns as it is with RETURN. Although the minimum number of image data required for photo measurement is two, it is preferable to measure the photo using a larger number. In the calculation of 3D coordinates, after the start, 3D coordinates are calculated using the camera coordinate system that captured the first captured image as the world coordinate system.

図49〜図52は、図48に示した処理における処理(4)と処理(9)の3D−CADデータ生成処理の詳細なフローチャートである。ここでは、最も基本となる第1の手段における更新機能の詳細も説明する。   49 to 52 are detailed flowcharts of the 3D-CAD data generation processing of processing (4) and processing (9) in the processing shown in FIG. Here, the details of the update function in the most basic first means will also be described.

この処理に入ったならば、処理(1)で3D座標に変換されたM(MAX)個の特徴点Q1〜QM(MAX)が、既に生成されているN個のCADデータの特徴点P1〜PNと既に生成されているL本のCADデータの線分L1〜LLに対して十分に離れた位置にある特徴点か否かを判別する。そして、十分に離れている特徴点がM個あった場合には、そのM個の特徴点を既に生成されているCADデータに追加する。すなわち、N個のCADデータにM個の点を追加する処理を行なう。ここで、十分に離れているか否かの判別は、Q点とP点の距離あるいはQ点とL線分との最短距離が、Q点が計算されたときの可能性のある最大誤差とP点あるいはL線分のQ点に近い点(LP点)の計算されたときの可能性のある最大誤差の和を比較して、それよりも離れている場合には、その近いP点あるいはLP点から十分に離れた新たな点であると判別するようにした。このように判別すれば、同じ特徴点を別の特徴点と誤って判別することはなくなる。ここでは、単純に可能性のある最大誤差を想定するとしたが、厳密には、発生する誤差は方向によって異なるので、方向と誤差の大きさも考慮して判別することにより、より正確な判別ができるのでそのようにすると良い。この処理(1)は、生成されたCADデータが既に生成されているCADデータの更新対象となるか否かの判別処理であり、更新対象でないM個の特徴点が新たに追加されたものである。残りのM(MAX)−M個の特徴点が更新対象の特徴点となり、次の処理(2)以降で更新処理を行なう。   If this process is entered, M (MAX) feature points Q1 to QM (MAX) converted into 3D coordinates in the process (1) are converted into feature points P1 to P1 of N CAD data that have already been generated. It is determined whether or not the PN is a feature point at a position sufficiently separated from the line segments L1 to LL of the L CAD data already generated. When there are M feature points that are sufficiently separated, the M feature points are added to the already generated CAD data. That is, a process of adding M points to N CAD data is performed. Here, whether or not the distance is sufficient is determined by determining whether the distance between the Q point and the P point or the shortest distance between the Q point and the L line segment is the maximum error that can be caused when the Q point is calculated and the P error. Compare the sum of the maximum possible errors when the point or the point close to the Q point (LP point) of the L line segment is calculated. Judged to be a new point that was sufficiently far from the point. If determined in this way, the same feature point is not erroneously determined as another feature point. Here, it is assumed that the maximum possible error is simply assumed. However, strictly speaking, the error to be generated varies depending on the direction. Therefore, more accurate determination can be made by considering the direction and the magnitude of the error. So you should do that. This process (1) is a process for determining whether or not the generated CAD data is an update target of already generated CAD data, and M feature points that are not the update target are newly added. is there. The remaining M (MAX) -M feature points become the feature points to be updated, and the update process is performed after the next process (2).

処理(2)では、既存点P点や線分から十分に離れていなく接近している特徴点を改めて次の処理のためにQ1〜QMに再定義する。ここでのM個は、前述のM(MAX)−M個とした。   In the process (2), the feature point that is not sufficiently separated from the existing point P or the line segment and is approaching again is redefined as Q1 to QM for the next process. Here, the number M is M (MAX) -M.

次の処理(3)では、処理(2)でQ1〜QMと再定義した特徴点に近い以前に生成されているKN個のP点とLP点をKP1〜KP(NK)に定義する。ここで、一つのP点に近いQ点は、複数ある場合もあることから、必ずしもM=KNとはならないので、別々の個数として定義している。このとき、互いに近いQ点とKP点の関係は、既にわかっているので、どの特徴点がどの特徴点に近いかを互いに関連付けておくと後の処理がより簡単になるので注記してある。   In the next process (3), KN P points and LP points generated before the feature points redefined as Q1 to QM in process (2) are defined as KP1 to KP (NK). Here, since there may be a plurality of Q points close to one P point, M = KN is not always satisfied, and therefore, the number is defined as a separate number. At this time, since the relationship between the Q point and the KP point that are close to each other is already known, it is noted that if the feature points are close to which feature points, the subsequent processing becomes easier.

図50に示した処理(4)〜処理(15)までの処理(A)は、点データの更新処理である。   Process (A) from process (4) to process (15) shown in FIG. 50 is a point data update process.

処理(4)ではi=1と設定して、処理(14)でi=KNとなるまで処理(15)でi=i+1としながら次の処理(5)以降の処理を繰り返す。すなわち、KN個の点KP1〜KP(KN)について同じ処理を行なうようにしている。   In the process (4), i = 1 is set, and in the process (14), i = i + 1 in the process (15) until i = KN, and the process after the next process (5) is repeated. That is, the same processing is performed for KN points KP1 to KP (KN).

処理(5)では、KPiに近い既存の点Q1〜QM点の中よりKM個の特徴点をKQ1〜KQ(KM)とし、処理(6)では、TEN=0,j=1として処理(12)でjがKMになるまで処理(13)でj=j+1としてKQ1〜KQ(KM)の総ての組み合せをチェックする。   In the process (5), KM feature points among the existing points Q1 to QM close to KPi are set as KQ1 to KQ (KM), and in the process (6), TEN = 0 and j = 1 are processed (12 ) Until all the combinations of KQ1 to KQ (KM) are checked with j = j + 1 in the process (13) until j becomes KM.

処理(7)では、KPiとKQjの計算されたときの精度を比較し、KQjの精度がUP(向上)している場合には、処理(10)あるいは処理(11)で更新処理を行なうようにし、精度がUPしていない場合には、処理(12)へジャンプする。   In the process (7), the accuracy when KPi and KQj are calculated is compared. If the precision of KQj is UP (improved), the update process is performed in the process (10) or the process (11). If the accuracy is not up, the process jumps to the process (12).

精度がUPしている場合には、同じKPi点について、最初の処理の場合には、処理(10)でKPiの座標を単純にKQjの座標に更新する。同じKPiの特徴点に対して、2回目以降は、処理(11)にて分割更新の処理を行なうようにする。これは、以前にはKPiという1つの特徴点を2つ以上に分割することになるので、最初に存在するKPi点以外にP点を追加して定義する。そのため、N=N+1の処理もここで行なうようにした。   If the accuracy is increased, for the same KPi point, in the case of the first process, the coordinates of KPi are simply updated to the coordinates of KQj in process (10). For the same KPi feature point, after the second time, the division update process is performed in the process (11). This is because one feature point called KPi is divided into two or more before, so that P point is defined in addition to the first existing KPi point. Therefore, the process of N = N + 1 is also performed here.

処理(9)でKPiが線分上の点(LP点)であったか否かを判別ロジックに入れているのは、線分上の特徴点であれば処理(10)の座標値の更新はなく、処理(11)で新たな特徴点を追加して分割更新させることが必要となるためである。   Whether or not KPi is a point (LP point) on the line segment in the process (9) is entered in the determination logic if the feature point on the line segment is not updated in the coordinate value of the process (10). This is because a new feature point needs to be added and divided and updated in the process (11).

以上の処理を総てのKPi点について行なえば点データの更新処理が行なわれることとなる。   If the above processing is performed for all KPi points, the point data update processing is performed.

図51に示した処理(16)〜処理(27)までの処理(B)は、線分データの更新と追加の処理である。   The process (B) from the process (16) to the process (27) shown in FIG. 51 is a process for updating and adding line segment data.

最初の処理(16)では、線分データの更新を行なうに当たって対象範囲の総ての点データを拾い上げる処理を行なう。すなわち、3D座標へ変換するときに参照した画像データの視野中の総ての点データを抽出してKN個のKP1〜KP(KN)点として定義する。ここでは、前の処理で追加されたP点や座標の値が更新されたP点も含まれる。   In the first process (16), when updating the line segment data, a process of picking up all point data in the target range is performed. That is, all point data in the field of view of the image data referred to when converting to 3D coordinates are extracted and defined as KN KP1 to KP (KN) points. Here, the P point added in the previous process and the P point with updated coordinate values are also included.

次に、処理(17)でi=1と設定し、処理(26)でi=KNとなるまで処理(27)でi=i+1としながら処理(18)以降の処理を繰り返す。すなわち、対象となる総ての点データ,KN個の点KP1〜KP(KN)について、同じ処理を行なうようにしている。   Next, i = 1 is set in the process (17), and the processes after the process (18) are repeated while i = i + 1 in the process (27) until i = KN in the process (26). That is, the same processing is performed for all target point data, KN points KP1 to KP (KN).

処理(18)ではj=i+1として処理(24)でj=KNになるまで処理(25)でj=j+1としてKP(i+1)〜KP(KN)の総ての組み合せをチェックする。同じ組み合せは2回処理しないで済むように、jはi+1からKNまでとしている。   In process (18), j = i + 1 is set, and in process (24), j = K + 1 is set, and j = j + 1 is set, and all combinations of KP (i + 1) to KP (KN) are checked. J is set to i + 1 to KN so that the same combination need not be processed twice.

処理(19)では、点KPiとKPjを結ぶ線分データが既に存在するか否かで次の処理を処理(20)と処理(22)に分ける。   In the process (19), the next process is divided into a process (20) and a process (22) depending on whether or not the line segment data connecting the points KPi and KPj already exists.

線分データが既にある場合には、処理(20)において点KPiかKPjの何れが更新あるいは追加されたものか否かを調べ、何れも更新も追加もされたものでない場合には、線分の更新処理は行わないで処理(24)へジャンプする。これは、線分の始点と終点の何れにも変化がなかったということから、途中の線分上も見直しするような変化はなかったと判断して処理を省略するものである。もちろん、始点と終点に変化がなくても途中の線分がより良く撮像されている場合もあるので、処理(20)を設けないで、総て処理(21)へ進むようにしても良い。   If the line segment data already exists, it is checked in process (20) whether either of the points KPi or KPj has been updated or added, and if neither has been updated or added, the line segment is The process jumps to the process (24) without performing the update process. Since there is no change in either the start point or the end point of the line segment, it is determined that there is no change to review the line segment in the middle, and the process is omitted. Of course, even if there is no change in the start point and the end point, the line segment in the middle may be better imaged. Therefore, the processing (20) may not be provided, and all the processing may proceed to the processing (21).

処理(21)は、線分の更新を行なう処理であり、輪郭抽出などで線画になった画像データを参照しながら、KPi点とKPj点を結ぶ線分データの見直しを行なう処理である。3D座標で計算されたKPi点とKPj点は、それを計算するときに用いた2次元の画像データ上の点として、どこの点であるかは対応が付いているので、画像データ中のKPi点とKPj点を結ぶ線分を抽出してその線分データを3次元の線分のデータ、すなわち、KPi点とKPj点を結ぶ3次元の点列データ、あるいは、KPi点とKPj点を結ぶ3次元の直線あるいは曲線の関数などを求めて線分データの見直し、再定義を行なう。ここで、処理(20)でKPi点かKPj点の何れかが追加あるいは更新されたという場合には、始点,終点となる点の精度がUPしたということであるので、線分データも見直せば精度はアップすることを期待した処理としている。また、既に存在する線分データが直線であっても、精度条件が良くなった場合に見直すことで、直線へのフィッティングに無理がある場合には、その時点で直線の線分データから曲線の線分データに変更すると良い。   The process (21) is a process for updating the line segment, and is a process for revising the line segment data connecting the KPi point and the KPj point while referring to the image data that has become a line drawing by the contour extraction or the like. Since the KPi point and KPj point calculated in 3D coordinates are associated with each other as a point on the two-dimensional image data used for calculating the KPi point in the image data. A line segment connecting the point and the KPj point is extracted and the line segment data is connected to the three-dimensional line segment data, that is, the three-dimensional point sequence data connecting the KPi point and the KPj point, or the KPi point and the KPj point. The function of a three-dimensional straight line or curve is obtained and the line segment data is reviewed and redefined. Here, if either KPi point or KPj point is added or updated in the process (20), it means that the accuracy of the start point and the end point has been improved, so if the line segment data is also reviewed. The processing is expected to improve accuracy. In addition, even if the existing line segment data is a straight line, if it is impossible to fit to the straight line by revising it when the accuracy condition is improved, the line segment data of the straight line at that point will be Change to line segment data.

一方、KPi点とKPj点を結ぶ線分データがない場合には、処理(22)へ進んで、線画などになった画像データを参照して、KPi点とKPj点を結ぶ線分が存在するか否かを判別して、結ぶ線分が存在しない場合には、処理(24)へジャンプする。   On the other hand, if there is no line segment data connecting the KPi point and the KPj point, the process proceeds to the process (22), and there is a line segment connecting the KPi point and the KPj point with reference to the image data as a line drawing. If there is no connecting line segment, the process jumps to the process (24).

結ぶ線分が存在する場合には、処理(23)で線分データの追加処理を行なう。すなわち、画像データ中のKPi点とKPj点を結ぶ線分を抽出し、その線分データを3次元の線分のデータ、すなわち、KPi点とKPj点を結ぶ3次元の点列データ、あるいは、KPi点とKPj点を結ぶ3次元の直線あるいは曲線の関数などを求めて線分データを新たに定義する。   If there is a line segment to be connected, line data is added in process (23). That is, a line segment connecting the KPi point and the KPj point in the image data is extracted, and the line segment data is converted into three-dimensional line segment data, that is, three-dimensional point sequence data connecting the KPi point and the KPj point, or A line segment data is newly defined by obtaining a function of a three-dimensional straight line or curve connecting the KPi point and the KPj point.

以上の処理をKP1〜KP(KN)点の総ての組み合せについて行なえば線分データの更新処理が行なわれることとなる。ここで、処理(21),処理(23)に引き続いて、面データの更新も直ぐに行なうようにしても良いが、この実施の形態では、次の処理でまとめて面データの更新を行なうようにしている。   If the above processing is performed for all combinations of the points KP1 to KP (KN), the line segment data updating process is performed. Here, following the processing (21) and processing (23), the surface data may be updated immediately, but in this embodiment, the surface data is updated together in the following processing. ing.

図52に示した処理(28)〜処理(40)までの処理(C)は、面データの更新と追加の処理である。   The process (C) from the process (28) to the process (40) shown in FIG.

最初の処理(28)では、面データの更新を行なうに当たって、前回の処理で更新された線分データの総てを拾い上げる処理を行なう。すなわち、前記処理(B)の処理の中で更新あるいは追加された線分データの総てをKN個の線分データとしてKL1〜KL(KN)と設定する。   In the first process (28), in updating the surface data, a process of picking up all the line segment data updated in the previous process is performed. That is, all the line segment data updated or added in the process (B) is set as KL1 to KL (KN) as KN line segment data.

次に、処理(29)でi=1と設定して、処理(39)でi=KNとなるまで処理(40)でi=i+1しながら処理(30)以降の処理を繰り返す。   Next, i = 1 is set in the process (29), and the processes after the process (30) are repeated while i = i + 1 in the process (40) until i = KN in the process (39).

処理(30)では、線分データKLiを成分とする面データを総て抽出してKM個の面データとしてKS1〜KS(KM)と設定する。ここで抽出対象となる面データは、総てである。総ての面データの中から、更新あるいは追加された線分データKLiを成分とする総ての面データを抽出する。具体的な抽出の方法としては、線分データKLiに繋がる線分データをCADデータ上で探索し、更に、その線分に繋がる線分というように線分データを探索して最初の線分データKLiに戻るルート、すなわち、線分データが作る閉ループを面として総て抽出する処理を実行する。   In the process (30), all the surface data whose components are the line segment data KLi are extracted and set as KM surface data KS1 to KS (KM). Here, all the surface data to be extracted are all. All the surface data whose components are the updated or added line segment data KLi are extracted from all the surface data. As a specific extraction method, the line segment data connected to the line segment data KLi is searched on the CAD data, and further, the line segment data is searched such as the line segment connected to the line segment to obtain the first line segment data. A process for extracting all the routes returning to KLi, that is, the closed loop created by the line segment data as a surface, is executed.

処理(31)でj=1とし、処理(37)でj=KMになるまで処理(38)でj=+1にして処理(32)以降の処理を繰り返し、抽出された総ての面データKS1〜KS(MK)について同じ処理を繰り返す。   In the process (31), j = 1 is set, and in the process (37), j = + 1 is set until j = KM, and the processes after the process (32) are repeated, and all the extracted surface data KS1 are processed. The same process is repeated for ˜KS (MK).

処理(32)では、面データKSjに相当する面データが既にCADデータとして定義されているか否かを判断する。通常、同じ線分の繋がりで構成される、いわゆる面の裏と表に関しては同じ面の裏と表としてCADデータを管理しても良いが、ここでは、将来より詳細な形状に表は表で裏は裏で分割生成されていくことなどを考慮して、裏と表は別の閉ループ(別の面データ)として抽出するのが良い。処理(30)では新たに追加,更新した線分データにかかわる総ての面データ(閉ループの線分データの繋がり)を抽出するので、既に面データが定義されている面データも抽出されるし、今まで定義されていなかった新たな面データも抽出される。そこで、処理(32)では、抽出された面データKSjが既に面データとして定義されているものか、今まで定義されてなく今回初めて面データとして抽出されたもの、すなわち、新たに線分データが追加あるいは更新されたことにより、線分データの新しく定義される閉ループが生じたものか否を判別している。ここでの判別は、面KSjとその近くに存在する総ての以前に生成されている面データとを比較して、その面を構成する線分レベルでその線分の想定される最大誤差と当該面KSjを構成する線分の想定される最大誤差を考慮して、その誤差内で一致しているか否かで判別するようにする。その面を構成する線分の繋がり関係のみで単純に比較すると、1本の線分がその途中で分かれた2本の線分に更新されている場合には、面としては同じ面を示しているが、構成する線分はより詳細に分割定義されているために、同じ面とは判別できなくなってしまう場合がある。また、1つの面がその面を分割する新たな線分データが生成されたことにより分割される場合もあるので、面データKSjの全部あるいは一部が既存の面データの全部あるいは一部に一致する場合を含めて、既にある面と一致するか否かを判別するようにする。そのために、誤差内で重なる同じ面データがあるか否かにて判断するようにする。その判別の結果、既に面データがある場合には、処理(33)の更新の処理へ進み、当該の面データKSjに相当する面データが以前に作成されているCADデータの中になかった場合には、処理(35)で新たな面データ(線分の繋がり閉ループ)の追加、登録を行なう処理へ進む。   In the process (32), it is determined whether or not the surface data corresponding to the surface data KSj is already defined as CAD data. Usually, the CAD data may be managed as the back and front of the same surface with respect to the so-called back and front of the surface composed of the same line segment connection, but here the table is a table with a more detailed shape in the future. Considering that the back side is divided and generated on the back side, the back side and the front side should be extracted as separate closed loops (different surface data). In the process (30), all the surface data related to the newly added / updated line segment data (connection of closed loop line segment data) is extracted, so that the surface data for which the surface data is already defined is also extracted. New surface data that has not been defined is also extracted. Therefore, in the process (32), whether the extracted surface data KSj has already been defined as surface data, or has not been defined so far and has been extracted as surface data for the first time, that is, new line segment data is newly created. It is determined whether or not a newly defined closed loop of line segment data has occurred due to the addition or update. Here, the determination is made by comparing the surface KSj with all the previously generated surface data existing in the vicinity thereof, the maximum error assumed for the line segment at the line segment level constituting the surface, and The maximum error assumed for the line segment constituting the surface KSj is considered, and the determination is made based on whether or not they match within the error. A simple comparison based only on the connection relationship of the line segments that make up the surface shows that when one line segment is updated to two line segments that are divided in the middle, the same surface is shown. However, since the constituent line segments are divided and defined in more detail, it may not be possible to distinguish them from the same plane. In addition, since one surface may be divided by generating new line segment data that divides the surface, all or part of the surface data KSj matches all or part of the existing surface data. Whether or not to match the existing surface is determined. Therefore, it is determined whether there is the same surface data that overlaps within the error. If the surface data already exists as a result of the determination, the process proceeds to the updating process (33), and the surface data corresponding to the surface data KSj is not included in the CAD data created previously. In the process (35), the process proceeds to a process of adding and registering new surface data (line segment connection closed loop).

処理(33)の面データの更新においては、既に点データや線分データは更新されているので、それらの更新内容を参照しながら面データを構成する線分データの見直しを行なうようにしても良いが、更新前の面データが構成する更新前の点データや線分データも参照できるようにしておくことでも良い。面の更新を行なう場合には、面データKSjに一致する既存の面データがあることが前提となるが、面データKSjと既存の面データとが誤差範囲内で全体が一致している場合には、各線分データをより精度よく生成された新しい線分データに置き換えて定義し直せば良い。また、面データKSjが既存の面データより小さく、既存の面データの一部と一致している場合には、一致している部分の面データを新たに定義し直すと共に残りの部分をもう1つの面データとして定義して分割する処理を行なう。また、面データKSjが既存の面データと一致する部分もあるが、既存の面データより大きな部分がある場合には、その面データKSjについては更新処理を行わないようにする。これは、抽出された面データの中には大きな閉ループを抽出するケースが含まれるために生じるが、その中に小さな閉ループの面も抽出されているために、小さい面データの場合に更新処理を行なえば当該部分の面データは更新されるので良いものとする。CADデータは、より精度よくなる場合に更新されるようにするので、小さな閉ループが大きく統合されるような処理を行なわないようにする。   In the update of the plane data in the process (33), the point data and line segment data have already been updated. Therefore, the line segment data constituting the plane data may be reviewed while referring to the updated contents. Although it is good, it is also possible to refer to the point data and line segment data before update, which are constituted by the surface data before update. When updating the surface, it is premised that there is existing surface data that matches the surface data KSj. However, when the surface data KSj and the existing surface data are entirely consistent within an error range. Can be defined by replacing each line segment data with new line segment data generated more accurately. If the surface data KSj is smaller than the existing surface data and matches a part of the existing surface data, the surface data of the matching part is newly redefined and the remaining part is replaced with another one. Define and divide as one plane data. Further, although there is a portion where the surface data KSj matches the existing surface data, if there is a portion larger than the existing surface data, the surface data KSj is not updated. This occurs because the extracted surface data includes a case where a large closed loop is extracted, but since a small closed loop surface is also extracted, the update process is performed for small surface data. If this is done, the surface data of that part will be updated. Since CAD data is updated when it becomes more accurate, processing that does not greatly integrate small closed loops is not performed.

処理(33)で面データを構成する線分の更新を行なった後に面データの属性を更新するが、処理(34)にて面データの属性を更新するに十分な画像情報があるか否かを確認し、ない場合には処理(37)へジャンプする。更新可能な画像情報がある場合には処理(36)へジャンプする。   Whether the attribute of the surface data is updated after the line segment constituting the surface data is updated in the process (33). Whether there is sufficient image information to update the attribute of the surface data in the process (34). If not, jump to step (37). If there is updateable image information, the process jumps to processing (36).

処理(35)は、面データKSjと重なる以前に生成された面データはない場合であるので、面データKSjを新たな面データとしてCADデータに追加定義する。ここでの定義は、面データを構成する線分データの定義である。   Since the process (35) is a case where there is no surface data generated before overlapping the surface data KSj, the surface data KSj is additionally defined in the CAD data as new surface data. The definition here is the definition of the line segment data constituting the surface data.

そして、その次に、処理(36)において、面データの属性を定義する。面データの属性は、画像データを参照する。元々、2次元の画像データより3D座標に変換して面データまで定義しているので、3D座標の点データと線分データにより構成される3Dの面データは、2次元の画像情報の中のどの点に対応しているかの対応が取れているため、その面と対応する部位の色、明るさなどの面データの属性を画像情報から読み取って面データの属性データとして登録する。処理(34)からジャンプしてきた場合には、面データの更新であるので、元々定義されていた面データの属性を見直し更新するものとする。元々処理(33)で更新されたことを前提に考えると、面の輪郭の線分データはより精度良く更新されていることから、今回の画像情報は、より正しい当該面の色、明るさを表していると考えて、処理(34)では、単純に当該面の画像情報の中の面積の大小や明るさで判断、すなわち輪郭は精度よく更新されたが、極端に斜めから見た場合とか、面は陰になって輪郭のみはっきりと見えているようなシーンであるか否かのみを判断するようにしても良いが、撮影時のカメラとその面を結ぶ線がその面の法線により近い場合、すなわち、その面をより正面から見ている条件の場合に更新するように、より厳密に判定させるようにしても良い。また、面の属性として透過率や反射率を定義するようにした場合には、その面の中に映り込んでいる奥の物体や反射して写っている物体の明るさをそれら物体との位置関係などの情報も用いて透過率や反射率に換算してから求めるため、必ずしも最初の処理で定義する必要はない。例えば、透過して見える物体があった場合に、その物体を直接見たときのその物体の面データの明るさと、その面を通して見たときの明るさと互いの距離関係などが総て求められたときに、その面の透過率を推定計算することができるようになるので、そのときに更新することができるようにしておくと良い。   Then, in the process (36), the attributes of the plane data are defined. The attribute of the surface data refers to the image data. Originally, surface data is defined by converting 2D image data into 3D coordinates, so 3D surface data composed of 3D coordinate point data and line segment data is included in 2D image information. Since correspondence with which point corresponds is taken, attributes of surface data such as color and brightness of the portion corresponding to the surface are read from the image information and registered as attribute data of the surface data. When jumping from the process (34), it is an update of the plane data, and therefore the attribute of the plane data originally defined is reviewed and updated. Assuming that it was originally updated in the process (33), the line segment data of the surface outline has been updated more accurately, so that the image information this time represents the correct color and brightness of the surface. In the processing (34), it is judged simply by the size or brightness of the area of the image information of the surface, that is, the outline is updated with high accuracy, but when viewed from an extremely oblique angle. , It may be possible to judge only whether or not the scene is shaded and the outline is clearly visible, but the line connecting the camera and the face at the time of shooting depends on the normal of the face. In the case of being close, that is, in a condition where the surface is viewed from the front, it may be determined more strictly so as to be updated. In addition, when the transmittance and reflectance are defined as the attributes of a surface, the brightness of the object reflected in the surface or the object reflected and reflected in the surface is the position of the object. Since it is obtained after conversion into transmittance and reflectance using information such as relationships, it is not always necessary to define it in the first process. For example, when there is an object that can be seen through, the brightness of the surface data of the object when directly looking at the object, the brightness when viewed through the surface, and the distance relationship between them are all obtained. Sometimes, it becomes possible to estimate and calculate the transmittance of the surface, and it is preferable to update it at that time.

以上の処理をKS1〜KS(KM)の総てKLiの線分に係わる面データに対して行い、更に更新,追加のあった総ての線分データKL1〜KL(KN)に対して行なうようにする。   The above processing is performed for all the surface data related to KLi line segments of KS1 to KS (KM), and further to all line segment data KL1 to KL (KN) that have been updated and added. To.

図53は、図49〜図52を参照して説明した3D−CADデータ生成処理において特に点データ,線分データが更新されるときの概念を示している。   FIG. 53 shows a concept when the point data and the line segment data are particularly updated in the 3D-CAD data generation processing described with reference to FIGS. 49 to 52.

ステップ(1)に示す図は、更新前のCADデータの概念であり、点P1と点P2を結ぶ線分L1というデータである。点P1,P2の周囲の点線の円は、それぞれの点が3D計測されたときに想定される最大誤差の円であり、3D上では球として誤差円があると見做す。線分L1には、各々の線分上の誤差円、3D上では最大誤差を半径とする球が定義されるが、それを線分L1上の総ての点で考えると、その球の包絡面と見做すことができる。それが線分L1の周囲にある点線の部分である。線分L1の途中の誤差半径の大きさは、ここでは、線分L1の端部のP1,P2の場所での誤差半径より推定して比例で求めた大きさとしている。   The diagram shown in step (1) is the concept of CAD data before update, and is data called a line segment L1 connecting the points P1 and P2. The dotted circles around the points P1 and P2 are circles of the maximum error assumed when the respective points are measured in 3D, and it is assumed that there is an error circle as a sphere on 3D. An error circle on each line segment is defined in the line segment L1, and a sphere having a radius as the maximum error is defined on 3D. Considering this in all points on the line segment L1, the envelope of the sphere is defined. It can be regarded as a face. That is the dotted line around the line segment L1. Here, the size of the error radius in the middle of the line segment L1 is assumed to be a size that is obtained proportionally by estimation from the error radii at the locations of P1 and P2 at the ends of the line segment L1.

ステップ(2)は、新たに求められた3D変換された点Q1〜Q4を更新前のCADデータの上に重ねて描いた概念を示している。点Q1〜Q4にもそれぞれの点が計算されたときの誤差を半径とする球を点線で描いている。点Q1とQ3は、その誤差半径を考慮すると、点P1の誤差半径の中に存在している可能性がある。すなわち、更新前にP1であった点がQ1である可能性もあり、Q3である可能性もある。同様に、点Q2は、点P2である可能性があり、点Q4は、線分L1上の点LP1である可能性があると見ることができる。   Step (2) shows a concept in which the newly obtained 3D-converted points Q1 to Q4 are drawn on the CAD data before update. A sphere having a radius as an error when each point is calculated is also drawn with dotted lines at the points Q1 to Q4. Considering the error radius, the points Q1 and Q3 may exist within the error radius of the point P1. That is, the point that was P1 before the update may be Q1, or may be Q3. Similarly, it can be seen that the point Q2 may be the point P2, and the point Q4 may be the point LP1 on the line segment L1.

ここで、この発明における更新処理を説明すると、ステップ(3)では、同じである可能性のある更新前の点データと新たに計算された点データの各々が計算されたときに想定される最大誤差の何れが大きいかを比較(ここでは、誤差を半径とする球の何れが小さいかを比較)して、小さい場合には、より精度よく計測されていると見做せるので、点データの更新を行なうようにする。ステップ(3)は、その更新の概念を示している。すなわち、点P1の誤差円と点Q1の誤差円を比べると、点Q1の誤差円の方が小さいので、点Q1の座標値を点P1の点データに入れ替える。同様に、点Q3の誤差円も点P1の誤差より小さいので置き換えるが、既に点P1の座標値は点Q1の座標値に更新されているので、ここでは、新たな点P3を定義して点Q3の座標を入れる。これは、更新前の点P1が更新後は点P1と点P3に分割されたことを意味する。同様に、点P2は、点Q2の方が誤差半径が小さいので、この点P2の座標が点Q2の座標に置き換えられることにより更新される。同様に、点LP1の誤差半径と点Q4の誤差半径も点Q4の方が小さいので、点Q4の座標を点LP1の座標とするが、LP1という点は、線分L1上の仮想の点であることから、CADデータとしては新たに点P4を定義してその座標に点Q4の座標値を入れて更新処理を行なうようにする。   Here, the update process in the present invention will be described. In step (3), the maximum assumed when each of the pre-update point data and the newly calculated point data which may be the same is calculated. Compare which of the errors is large (here, compare which of the spheres whose radius is the error is small). If it is small, it can be considered that the measurement is more accurate. Update it. Step (3) shows the concept of the update. That is, when the error circle of the point P1 and the error circle of the point Q1 are compared, the error circle of the point Q1 is smaller, so the coordinate value of the point Q1 is replaced with the point data of the point P1. Similarly, the error circle of the point Q3 is also replaced because it is smaller than the error of the point P1, but since the coordinate value of the point P1 has already been updated to the coordinate value of the point Q1, here a new point P3 is defined and the point Enter the coordinates of Q3. This means that the point P1 before the update is divided into the points P1 and P3 after the update. Similarly, the point P2 is updated by replacing the coordinates of the point P2 with the coordinates of the point Q2, since the error radius of the point Q2 is smaller. Similarly, since the error radius of the point LP1 and the error radius of the point Q4 are smaller at the point Q4, the coordinates of the point Q4 are the coordinates of the point LP1, but the point LP1 is a virtual point on the line segment L1. For this reason, a new point P4 is defined as the CAD data, and the update process is performed by putting the coordinate value of the point Q4 into the coordinate.

その結果、ステップ(4)に示すように、更新後のCADデータとして、点データは、P1,P2,P3,P4が更新されている。また、線分更新としても、ステップ(1)に示されている更新前のCADデータの点P1と点P2を結ぶL1という線分データは、点P2と点P4を結ぶ線分L2と点P4と点P1を結ぶ線分L3と点P4と点P3を結ぶ線分L1という線分データに更新されており、これらの処理は、図49〜図52に示した処理を実行することにより実現する。   As a result, as shown in step (4), P1, P2, P3, and P4 are updated as point data as updated CAD data. In addition, as for the line segment update, the line segment data L1 connecting the point P1 and the point P2 of the CAD data before the update shown in step (1) is the line segment L2 and the point P4 connecting the point P2 and the point P4. And the line segment L3 connecting the point P1 and the line L1 connecting the point P4 and the point P3 are updated, and these processes are realized by executing the processes shown in FIGS. .

図54は、図49〜図52を参照して説明した3D−CADデータ生成処理の中の新規なデータの生成と更新の概念を一般的な図形の生成と更新の概念に当てはめて描いた図である。   FIG. 54 is a diagram in which the concept of new data generation and update in the 3D-CAD data generation processing described with reference to FIGS. 49 to 52 is applied to the general graphic generation and update concept. It is.

(1)は、点P1と点P2を結ぶ線分L1が初めは線分の長さが1mであったものが、次の計測により点P1と点P2の位置がより精度よく更新された結果、線分L1の長さも0.97mに更新される概念を示している。これは、精度UPによる更新の処理である。   (1) shows that the line segment L1 connecting the point P1 and the point P2 has a length of 1 m at first, but the position of the points P1 and P2 is updated more accurately by the next measurement. The concept of updating the length of the line segment L1 to 0.97 m is also shown. This is an update process with increased accuracy.

(2)は、線分L1が生成されている状態で更に線分K2が見えて追加生成された状況を示している。これは、初めは物の陰になっていて見えなかった線分L2が、撮像装置10,20が移動して線分L2が見えるようになり、新たに点P3,P4が生成され、線分L2も生成された状況を示している。これは、新たな線分の生成という概念に該当する。   (2) shows a situation in which the line segment K2 is further visible while the line segment L1 is generated, and the line segment L1 is additionally generated. This is because the line segment L2 that was initially hidden behind the object and cannot be seen becomes visible when the imaging devices 10 and 20 are moved, and points P3 and P4 are newly generated. L2 also indicates the generated situation. This corresponds to the concept of generating a new line segment.

(3)は、容器の側面などの線分L1が見えていてCADデータにも線分L1が生成されているが、撮像装置10,20が物体を近くから撮像することによって新たな線分が見え、その線分が矩形S1を構成して最初の線分L1に付いている状況を示している。この場合、矩形S1の線分は、今まで見えてなかったものが見えるようになって新たに追加生成されたものであるので、生成の概念に該当するが、矩形S1の線分L1と接している部位は、データとしては、線分L1が線分L1と線分L2と線分L3に分断されるので、線分L1については、更新されるという概念になる。   In (3), the line segment L1 such as the side surface of the container is visible, and the line segment L1 is also generated in the CAD data. It can be seen that the line segment forms a rectangle S1 and is attached to the first line segment L1. In this case, the line segment of the rectangle S1 is newly generated by making it possible to see what has not been seen so far, and therefore corresponds to the generation concept, but is in contact with the line segment L1 of the rectangle S1. Since the line segment L1 is divided into the line segment L1, the line segment L2, and the line segment L3, the concept is that the line segment L1 is updated.

(4)では、初めは線分L1が生成されているが、近くで見ると、点P1は点P1と点P3に分割して見え、点P2は点P2と点P4に分割して見えてきて、線分L1は線分L1と線分L2に分割生成されるので、この場合には精度もUPすることから、分割の更新の概念となる。   In (4), a line segment L1 is initially generated, but when viewed close, the point P1 appears to be divided into points P1 and P3, and the point P2 appears to be divided into points P2 and P4. Since the line segment L1 is divided and generated into the line segment L1 and the line segment L2, in this case, the accuracy is also improved, and this is the concept of division update.

最後の(5)では、最初は側面が線分L1,L2,L3,L4からなる容器の側面のようなものに矩形S1のようなものと線分L5が付いている状況であるが、この場合も、撮像装置10,20が物体に近づいて詳しく撮影すると、矩形S1の左の1辺は矩形S2という形状であり、線分L5も矩形S3になる。この場合にも更新処理となる。   In the last (5), the situation is such that the side is like the side of the container consisting of the line segments L1, L2, L3, and L4, and the one like the rectangle S1 and the line segment L5 are attached. Also in this case, when the imaging devices 10 and 20 are close to the object and photographed in detail, the left side of the rectangle S1 has a shape of a rectangle S2, and the line segment L5 also becomes a rectangle S3. Also in this case, the update process is performed.

これら(1)〜(5)のケースが代表的な例であるが、図49〜図52に示した処理フローに基づいて3D−CADデータの生成処理を行なうと、このような生成と更新が行なわれることになる。   These cases (1) to (5) are typical examples. However, when 3D-CAD data generation processing is performed based on the processing flow shown in FIGS. 49 to 52, such generation and updating are performed. Will be done.

図55を参照して第59の手段の実施の形態を説明する。この実施の形態も別な応用システムで本発明を実施する場合の適した製品形態を示している。この実施の形態は、画像情報処理装置100の画像情報処理機能とアプリケーション側の制御用CPU300の制御処理機能を、遠隔制御装置を構成する1つのパソコンなどの主制御装置600に内蔵したソフトウェア(プログラム)を実行することによって実現する移動作業車である。   An embodiment of the 59th means will be described with reference to FIG. This embodiment also shows a product form suitable for implementing the present invention in another application system. In this embodiment, the image information processing function of the image information processing apparatus 100 and the control processing function of the control CPU 300 on the application side are installed in a software (program) built in the main control device 600 such as one personal computer constituting the remote control device. ) Is a mobile work vehicle realized by executing.

この実施の形態における移動作業車は、走行機構500と駆動制御装置501を備えた移動台車502にアーム機構400と撮像装置10と通信装置503を搭載している。撮像装置10は、アーム機構400の先端に取り付けて設ける。   In the mobile work vehicle in this embodiment, the arm mechanism 400, the imaging device 10, and the communication device 503 are mounted on a mobile carriage 502 including a traveling mechanism 500 and a drive control device 501. The imaging device 10 is provided by being attached to the tip of the arm mechanism 400.

遠隔制御装置の主制御装置600は、通信装置601を介して移動台車500の前記通信装置503と制御指令/制御状態や画像情報の授受を行なう。   The main control device 600 of the remote control device exchanges control commands / control states and image information with the communication device 503 of the mobile carriage 500 via the communication device 601.

移動台車502に搭載した通信装置503は、受信した制御指令を駆動制御装置501に伝えて走行機構500やアーム機構400を制御させ、その制御状態と撮像装置10から出力される画像情報を通信装置601に送信する。   The communication device 503 mounted on the movable carriage 502 transmits the received control command to the drive control device 501 to control the traveling mechanism 500 and the arm mechanism 400, and the control state and image information output from the imaging device 10 are communicated with the communication device. 601 is transmitted.

このような移動作業車によれば、主制御装置600の画像情報処理機能用ソフトウェア100は、移動台車502と共に移動する撮像装置10から出力される画像情報を通信装置503,601を介して取り込んでCADデータを生成し、ハードディスクなどの記憶装置200へ記憶(登録)する。また、制御機能用ソフトウェア300は、前記画像情報処理機能用ソフトウェア100から移動台車502が移動している環境の中の対象物の位置や姿勢情報や撮像装置10の位置と姿勢情報を取得して参照し、アーム機構400や移動台車502をどのように動かせば良いかを判断して制御指令信号を与える。   According to such a mobile work vehicle, the image information processing function software 100 of the main control device 600 takes in image information output from the imaging device 10 that moves together with the mobile carriage 502 via the communication devices 503 and 601. CAD data is generated and stored (registered) in the storage device 200 such as a hard disk. The control function software 300 acquires the position and orientation information of the object in the environment in which the movable carriage 502 is moving, and the position and orientation information of the imaging device 10 from the image information processing function software 100. Referring to this, it is determined how to move the arm mechanism 400 and the movable carriage 502, and a control command signal is given.

この実施の形態のように、画像情報処理装置100をソフトウェアで構成すれば、特定のアプリケーションに対して最も適したI/Fで作り込むことが可能となる。また、アプリケーションの制御機能用ソフトウェアを実行するために用意するパソコン(主制御装置)600によって画像情報処理機能用ソフトウェア100も実行するように構成することにより、専用のハードウェアを簡素化することができる。アーム機構400および走行機構500の動作速度が比較的遅くてソフトウェアでの処理速度でも問題にならない場合の実施の形態として特に有効である。   If the image information processing apparatus 100 is configured by software as in this embodiment, it can be built with an I / F that is most suitable for a specific application. Further, by configuring the personal computer (main control device) 600 prepared for executing the application control function software so that the image information processing function software 100 is also executed, the dedicated hardware can be simplified. it can. This is particularly effective as an embodiment in which the operating speeds of the arm mechanism 400 and the traveling mechanism 500 are relatively slow and the processing speed by software does not cause a problem.

図56を参照して第60の手段の実施の形態を説明する。ここでは、撮影対象物体を高速度で回転しているスケート選手とする。   An embodiment of the 60th means will be described with reference to FIG. Here, it is assumed that the object to be photographed is a skate player rotating at a high speed.

高速で回転するスケート選手909を撮影する撮像装置10として、スケート選手909が滑る場所を取り囲むように4台の撮像装置10(1),10(2),10(3),10(4)を配置する。これらの撮像装置10(1)〜10(4)は、固定しておいて良い。画像情報処理装置100(図示省略)は、これらの4台の撮像装置10(1)〜10(4)から出力する画像情報を順番に切り替えて直接または間接的に入力することを考える。画像情報処理装置100は、初めは撮像装置10(1)の画像情報を入力し、次には撮像装置10(2)に切り替えて画像情報を入力し、更に、撮像装置10(3),10(4)の順番に画像情報を入力し、その次には、撮像装置10(3),10(2)のように逆の順番で隣に設置されている撮像装置の画像情報に切り替えながら入力するように構成する。沢山の撮像装置10を使用して、スケート場(滑る場所)の全周を密に取り囲むように設置することができる場合には、一方向に周回するように順次に切り替えて入力するようにしても良い。   As the imaging device 10 for photographing the skate player 909 rotating at high speed, four imaging devices 10 (1), 10 (2), 10 (3), and 10 (4) are provided so as to surround a place where the skate player 909 slides. Deploy. These imaging devices 10 (1) to 10 (4) may be fixed. The image information processing apparatus 100 (not shown) considers that the image information output from these four imaging apparatuses 10 (1) to 10 (4) is sequentially switched and input directly or indirectly. The image information processing apparatus 100 first inputs the image information of the imaging device 10 (1), then switches to the imaging device 10 (2) and inputs the image information, and further, the imaging devices 10 (3), 10 The image information is input in the order of (4), and then the image information is input while switching to the image information of the adjacent image capturing apparatus in the reverse order such as the image capturing apparatuses 10 (3) and 10 (2). To be configured. If you can install a lot of imaging devices 10 so that the entire circumference of the skate rink (sliding place) can be tightly surrounded, you should switch and input sequentially so that it circulates in one direction. Also good.

このように固定した複数台の撮像装置を用意して切り替えるようにすれば、切り替えは、画像情報の電気信号の切り替えであるので瞬間的に切り替えることが可能であり、1台の撮像装置10で撮影することを想定すると、例えば、1台の撮像装置10が撮像装置10(1)の位置から撮像装置10(2)の位置に瞬間的に移動したことになる。このように構成することによって、高速で移動する撮影対象物体に対しても有効に適用することが可能となる。   If a plurality of imaging devices fixed in this way are prepared and switched, the switching can be instantaneously performed because the switching is an electrical signal of image information. Assuming that shooting is performed, for example, one imaging device 10 instantaneously moves from the position of the imaging device 10 (1) to the position of the imaging device 10 (2). With this configuration, the present invention can be effectively applied to a shooting target object that moves at high speed.

ここで、撮像装置10の配置は、画像情報のトラッキングなどに支障がでない程度に密に配置するのが良い。そうすれば、3D計測時に撮像装置10の設置位置を気にしないでもCADデータの生成処理を実現することが可能となる。また、撮像装置10の配置位置が予め分かれば、その位置情報を3D計測の中で使用することにより、画像情報処理装置100における処理を単純化することができる。   Here, it is preferable that the imaging devices 10 are arranged densely so as not to hinder the tracking of image information. Then, CAD data generation processing can be realized without worrying about the installation position of the imaging device 10 during 3D measurement. Further, if the arrangement position of the imaging device 10 is known in advance, the processing in the image information processing apparatus 100 can be simplified by using the position information in 3D measurement.

図57を参照して第61の手段および第62の手段の実施の形態を説明する。この実施の形態は、走行クレーン142eに搭載されて走行,横行する台車に設けた昇降可能なマストの下端に取り付けられているマニピュレータ142fである。マニピュレータ142fの手先にはハンド部があり、通常の把持用ハンドを装着したり、場合によっては、必要時に別の場所に置いてあるボルト着脱専用のエンドエフェクタへ先端の把持用ハンドを自動交換する機能を有するものでも良い。   An embodiment of the 61st means and the 62nd means will be described with reference to FIG. This embodiment is a manipulator 142f that is mounted on a traveling crane 142e and is attached to the lower end of a mast that can be moved up and down provided on a traveling and traversing cart. The hand of the manipulator 142f has a hand portion, and a normal gripping hand is attached, or in some cases, the gripping hand at the tip is automatically exchanged with an end effector dedicated to detaching a bolt when necessary. It may have a function.

通常のマニピュレータ142fの制御は、オペレータがオペレータコンソール142bへ指令を入力すると、ある程度の自動運転を制御装置142cが実行するように構成しいている。マニピュレータ142fの動作状況は、LCDモニタ142aに表示するように構成し、オペレータは、このLCDモニタ142aを観察することによってマニピュレータ142fの状態を確認することができるようにする。また、自動運転以外にも、オペレータがLCDモニタ142aを見ながら手動操作できるように構成する。モニタ142aは、CRTモニタであっても良い。   The normal control of the manipulator 142f is configured such that when the operator inputs a command to the operator console 142b, the control device 142c executes a certain degree of automatic operation. The operation state of the manipulator 142f is configured to be displayed on the LCD monitor 142a, and the operator can check the state of the manipulator 142f by observing the LCD monitor 142a. In addition to automatic operation, the operator can perform manual operation while viewing the LCD monitor 142a. The monitor 142a may be a CRT monitor.

このシステムに本発明を適用すると、マニピュレータ142fの手先に撮像装置(手先カメラ)10を設け、その画像情報を無線モデム142dなどの回線を介して画像情報処理装置100へ入力できるように構成し、画像情報処理装置100は生成したアズビルトのCADデータを記憶する記憶装置200と自律制御装置300へ接続する構成となる。ここで、自律制御装置300は、オペレータからの概略の指令に基づいて、具体的な動作タスクの組み合せで自動プログラムを自動生成する機能を有するものである。例えば、「建屋の入り口にあるOX装置を掴んで建屋の奥にある作業台の上に運ぶ。」という大まかな指令を入力すると、自律制御装置300は、予め保持している建屋の入り口と作業台などの位置データを参照して、走行クレーン142eやマニピュレータ142fを現在の位置から建屋入り口まで障害物を避けながら移動させる経路(軌道)情報を生成して、その経路情報をマニピュレータ142fやクレーン142eの制御装置142cなどへ与える。自律制御装置300は、この経路情報を生成するときに、記憶装置200に格納されているアズビルトのCADデータを参照する。   When the present invention is applied to this system, an imaging device (hand camera) 10 is provided at the hand of a manipulator 142f, and the image information is input to the image information processing device 100 via a line such as a wireless modem 142d. The image information processing apparatus 100 is configured to be connected to the storage device 200 that stores the generated as-built CAD data and the autonomous control device 300. Here, the autonomous control device 300 has a function of automatically generating an automatic program by a specific combination of operation tasks based on a general command from an operator. For example, when the general command “Grip the OX device at the entrance of the building and carry it on the work table in the back of the building” is input, the autonomous control device 300 performs the entrance and work of the building held in advance. By referring to position data such as a table, route (trajectory) information for moving the traveling crane 142e and the manipulator 142f from the current position to the building entrance while avoiding obstacles is generated, and the route information is used as the manipulator 142f and the crane 142e. To the control device 142c. The autonomous control device 300 refers to the as-built CAD data stored in the storage device 200 when generating the route information.

その後、生成した軌道に沿って走行クレーン142eおよびマニピュレータ142fを移動させて対象物体であるOX装置を把持するまで制御装置142cに制御させるが、経路情報は、あくまでも最初に計画した軌道であるので、その時々の環境の中で本当に衝突しないかなどを自動でチェックできるようにしないと自律型の自動運転を円滑に行なうことができない。そこで、画像情報処理装置100は、手先カメラ10から出力する画像情報に基づいて環境のCADデータを生成して記憶装置200のCADデータをリアルタイムで更新するように構成し、自律制御装置300は、記憶装置200を参照して最初に立てた計画どおりの軌道で良いかどうかを常にチェックし、万一、環境が変わった場合には、必要に応じて、即座に軌道修正を行なって、修正した軌道(経路情報)を制御装置142cへ出力するようにする。修正が時間的に間に合わない場合とか、対応している状況に適切な軌道修正プログラムが用意されていないような場合には、自律制御を続行することが困難であることをLCDモニタ142aに表示してアラームを出すことによりオペレータに知らせるように構成する。   After that, the traveling crane 142e and the manipulator 142f are moved along the generated trajectory and controlled by the control device 142c until the target OX device is gripped, but the path information is only the originally planned trajectory, Autonomous automatic driving cannot be carried out smoothly unless it is possible to automatically check whether there is a real collision in the environment at that time. Therefore, the image information processing apparatus 100 is configured to generate the CAD data of the environment based on the image information output from the hand camera 10 and update the CAD data of the storage device 200 in real time. The storage device 200 was always checked to see if the orbit was as planned, and if the environment changed, the trajectory was corrected immediately and corrected if necessary. The trajectory (route information) is output to the control device 142c. If the correction is not in time, or if an appropriate trajectory correction program is not prepared for the corresponding situation, it is displayed on the LCD monitor 142a that it is difficult to continue the autonomous control. To notify the operator by issuing an alarm.

また、OX装置を把持する場合には、マニピュレータ142fの位置が走行クレーン142eの停止制御誤差などによって計画位置からずれると、通常の自動制御運転ではOX装置を確実に把持することができなくなる事態が発生する。このような事態の発生を避けるために、画像情報処理装置100は、手先カメラ10から出力される画像情報に基づいて○X装置の位置と姿勢を正確に検出すると共に手先カメラ10の位置と姿勢も正確に検出するように構成し、その情報を自律制御装置300へ与えることができるように構成する。このようにすれば、自律制御装置300は、手先と○X装置の相対的な位置関係のずれを知ることができるので、そのずれをなくすように制御装置142cへ適切な制御信号を与えるとこによって、マニピュレータ142fでOX装置を確実に把持することが可能となる。その後は、建屋の奥まで戻ってきて、所定の場所(位置)も同様に手先カメラ10の画像情報に基づいて補正しながら目的の場所にOX装置を搬送して設置することが可能となる。   Further, when gripping the OX device, if the position of the manipulator 142f deviates from the planned position due to a stop control error of the traveling crane 142e or the like, there is a situation in which the OX device cannot be reliably gripped by normal automatic control operation. appear. In order to avoid the occurrence of such a situation, the image information processing apparatus 100 accurately detects the position and orientation of the X device based on the image information output from the hand camera 10, and the position and orientation of the hand camera 10. Are configured so that the information can be accurately detected and the information can be given to the autonomous control device 300. In this way, the autonomous control device 300 can know the deviation of the relative positional relationship between the hand and the X device, and therefore, by giving an appropriate control signal to the control device 142c so as to eliminate the deviation. The manipulator 142f can reliably hold the OX device. After that, it is possible to return to the back of the building and transport and install the OX apparatus at the target location while correcting the predetermined location (position) based on the image information of the hand camera 10 in the same manner.

このように一通りの作業が終了したときには、その旨をLCDモニタ142aに表示することによって、与えられた作業を終了したことをオペレータに伝える。   Thus, when a series of work is completed, the fact is displayed on the LCD monitor 142a to notify the operator that the given work has been completed.

以上の制御機能は、主に、自動運転中の画像情報に基づくマニピュレータ142の誘導制御であるが、それ以外にも、先ず、環境がそれほど変化しない場合には、予め移動軌跡をオフラインで計画するようにしても良い。そのときには、記憶装置200のCADデータ200を利用してアズビルト環境を用意し、その中にクレーンやマニピュレータのCADモデルも入れて、それらをオフラインの状態で手動操作制御してそのときの動作軌跡を自動運転中の動作軌跡とするオフラインティーチング機能にもアズビルトのCADデータを利用すると有効である。また、オフラインティーチング後に、本当に正しいデータができたどうかをオフラインでシミュレーションさせる機能も用意すれば、事前に間違いないことを確認することができる。このときにも、アズビルトのCADデータを使うことによって、より正確なシミュレーションとなる。   The above control function is mainly guidance control of the manipulator 142 based on image information during automatic operation. In addition to this, first, when the environment does not change so much, the movement trajectory is planned offline beforehand. You may do it. At that time, an as-built environment is prepared by using the CAD data 200 of the storage device 200, and a CAD model of a crane or a manipulator is also put therein, and these are manually operated and controlled in an off-line state, and an operation locus at that time is obtained. It is also effective to use as-built CAD data for the off-line teaching function that makes the operation locus during automatic operation. In addition, it is possible to confirm that there is no mistake in advance by preparing a function for simulating offline whether or not the correct data has been actually created after offline teaching. Even at this time, more accurate simulation can be achieved by using as-built CAD data.

また、自動運転中に常に生成されるアズビルトのCADデータを参照することによって障害物を避けて安全な自動運転が行なわれていることを該自動運転中に自動チェックする安全監視機能も、リアルタイムで生成されるアズビルトのCADデータがあれば容易に実現することが可能となる。   In addition, a safety monitoring function is also provided in real time to automatically check during automatic operation that safe automatic operation is performed avoiding obstacles by referring to as-built CAD data that is always generated during automatic operation. If there is as-built CAD data to be generated, it can be easily realized.

また、手先カメラ10だけでは死角などが生じる場合には、マニピュレータ142fの肩の位置にもカメラを設置し、更には、クレーンにもカメラを設置し、更には、建屋の床,壁,天井などに設置した首振りタイプの固定カメラなどからの画像情報も使って、アズビルトのCADデータを生成するように構成すると良い。また、それらのカメラは、ポジションフィードバック付きのズームレンズを用いて離れた場所からでも精度良い画像情報を出力することができるようにしてアズビルトのCADデータを生成することができるようにすると良い。ポジションフィードバック付きズームレンズを使用することが困難な場合には、既に画角の分かっている広角レンズのカメラと望遠レンズのカメラの2台を一組にして使用し、両方の画像情報を必要に応じて切り替えて入力するように構成しても良い。また、両方の画像情報を同時に処理するように構成しても良い。   Further, when a blind spot or the like occurs only with the hand camera 10, a camera is also installed at the shoulder position of the manipulator 142f, a camera is also installed at the crane, and further, the floor, wall, ceiling, etc. of the building. It may be configured to generate as-built CAD data using image information from a swing-type fixed camera or the like installed in the camera. In addition, these cameras are preferably configured to generate as-built CAD data by using a zoom lens with position feedback so that accurate image information can be output even from a remote location. If it is difficult to use a zoom lens with position feedback, use a pair of a wide-angle lens camera and a telephoto lens camera with a known angle of view, and need both image information. You may comprise so that it may switch and input according to it. Moreover, you may comprise so that both image information may be processed simultaneously.

また、特殊なマニピュレータで上下に昇降する伸縮アームの先端にハンドがあるようなマニピュレータシステムにおいては、伸縮アームの先端に下を見るカメラを付ければ、同様なシステムを容易に構築することができる。先端のカメラは、そのポジションフィードバックがあれば、首振り機構付きでも良い。そうすると、カメラの視野がより広くなる。勿論、高分解能カメラと魚眼レンズなどとを組み合わせて最初に画像情報の歪を補正してから同様に広範囲の視野で適用するようにしても良い。   Further, in a manipulator system having a hand at the tip of a telescopic arm that moves up and down with a special manipulator, a similar system can be easily constructed if a camera that looks down is attached to the tip of the telescopic arm. The tip camera may have a swing mechanism as long as there is position feedback. Then, the field of view of the camera becomes wider. Needless to say, a high resolution camera and a fisheye lens may be combined to first correct distortion of image information and then be applied in a wide field of view.

図58は、第62の手段を適用して構成した水中ROVの実施の形態を示している。水中深く潜水したROVは、水面上からは見えなくなる場合があるので、水中ROVが今どこにいるかを表示する表示機能が望まれている。本発明の画像情報処理装置100は、このような表示機能を容易に実現することができる。そして、このような水中ROVは、海とか湖あるいはプラント内のプールの水中にある構造物などの目視点検やUT検査などに使用すると便利である。   FIG. 58 shows an embodiment of an underwater ROV constructed by applying the 62nd means. Since the ROV that is deeply submerged in the water may not be visible from the surface of the water, a display function for displaying where the underwater ROV is now is desired. The image information processing apparatus 100 of the present invention can easily realize such a display function. Such an underwater ROV is convenient when used for visual inspection or UT inspection of structures in the sea, lakes, or pools in a plant.

水中ROV143aは、水中における前後上下左右、更には左右の旋回などをオペレータコンソール(操作部)143bから遠隔操作することができる。通常は、水中ROV143aに設けたTVカメラからの画像情報信号に基づく映像を見ながら遠隔操作することが多い。しかしながら、水中に同じような構造物143cが沢山あるような場合には、どこの構造体を見ているかがわからなくなることから、水中ROV143aの現在位置の確認手段が望まれている。本発明の画像情報処理装置100は、水中ROV143aのカメラによって得た画像情報を処理して周囲環境のCADデータを生成して表示しながら該水中ROV143aを目的の検査場所まで移動させるように操縦するのを支援するのに好適である。   The underwater ROV 143a can be remotely operated from the operator console (operation unit) 143b in front / rear, up / down, left / right, and left / right turning in the water. Usually, remote operation is often performed while watching a video based on an image information signal from a TV camera provided in the underwater ROV 143a. However, when there are many similar structures 143c in the water, it is difficult to know which structure is being viewed, so a means for confirming the current position of the underwater ROV 143a is desired. The image information processing apparatus 100 of the present invention manipulates image information obtained by the camera of the underwater ROV 143a to generate and display CAD data of the surrounding environment so as to move the underwater ROV 143a to a target inspection location. It is suitable for supporting.

画像情報処理装置100(図示省略)をオペレータコンソール143bに内蔵し、水中ROV143aのカメラから入力する画像情報に基づいて生成したCADデータと該カメラの現在位置をオペレータコンソール143bのLCDモニタに表示するように構成すれば、検査対象の構造体143cと水中ROV143aに搭載したカメラの位置と姿勢をオペレータコンソール143b上で視認することができ、遠隔操作が容易になる。   The image information processing apparatus 100 (not shown) is built in the operator console 143b, and CAD data generated based on image information input from the camera of the underwater ROV 143a and the current position of the camera are displayed on the LCD monitor of the operator console 143b. If it comprises, the position and attitude | position of the camera mounted in structure 143c to be examined and underwater ROV 143a can be visually recognized on operator console 143b, and remote control becomes easy.

また、予め構造体の図面などを用意しておけば、それと生成CADデータを照らし合わせることによって、絶対位置の対応付けも容易に行なうことができるようになる。   Also, if a drawing of the structure is prepared in advance, the absolute position can be easily associated by comparing it with the generated CAD data.

この実施の形態は、水中ROVであるが、飛行船のような場合にも、同様にして、現在飛行している場所を撮影する搭載カメラからの画像情報に基づいて生成したCADデータとカメラの位置を一緒に表示するように構成すれば、飛行船の現在位置を表示するシステムを容易に構築することができる。   Although this embodiment is an underwater ROV, even in the case of an airship, CAD data generated based on image information from an on-board camera that captures the current flight location and the position of the camera If the system is configured to display together, it is possible to easily construct a system for displaying the current position of the airship.

図59は、第62の手段を適用して構成した自動掃除機の実施の形態を示している。   FIG. 59 shows an embodiment of an automatic cleaner constituted by applying the 62nd means.

この実施の形態における自動掃除機144cは、カメラ10(2眼でも良い)と画像情報処理装置100(図示省略)を備え、部屋の中を動き回ることにより撮影される障害物144a,144bや周囲の壁などの画像情報に基づいてアズビルトのCADデータを生成する。生成されるCADデータは、3次元の環境データであるので、上方の凹凸情報も積極的に活用して埃を取るような制御を実行しても良いが、床だけの清掃であれば、3次元のCADデータを上から見た平面図の情報で制御するように構成すれば良い。   The automatic cleaner 144c in this embodiment includes a camera 10 (which may be two eyes) and an image information processing apparatus 100 (not shown), and obstacles 144a and 144b photographed by moving around in a room and surroundings Generate as-built CAD data based on image information such as walls. Since the CAD data to be generated is three-dimensional environmental data, the upper unevenness information may be actively used to perform dusting control. However, if the floor is to be cleaned, 3 What is necessary is just to comprise so that dimension CAD data may be controlled with the information of the top view seen from the top.

自動掃除機144cは、自分で動き回った経路をカメラの現在位置情報としてモニタすることで移動軌跡が残るので、現在、部屋のどこの部分を掃除して掃除済みエリア144dがどうで、どこが残っているかをアズビルトの地図の中で確認しながら残りの掃除してない部分を効率よく清掃するように制御することができる。掃除機は、間取りの異なる各家庭で使用するので、部屋の地図情報を予め登録しておくことが困難であることから、アズビルトでCADデータを生成することができる機能は有効である。リセットするまでは同じ部屋のデータを残しておき、毎回、最初からCADデータを生成しないで済むようにすれば、使えば使うほど正確なCADデータが生成されていく。また、部屋の模様変えを行なった場合には、CADデータも更新されるので、そういう場合にも有効である。また、処理速度がリアルタイムであれば、廊下を歩いている住人もリアルタイムで検出して衝突を避ける制御を実行することができるようになる。毎日、掃除を始める時には既に生成されているCADデータの平面図などを表示するように構成し、どのように掃除機を置いたかを最初に設定するようにすれば、最初の位置の絶対同定は容易になる。もちろん、周囲の環境のCADデータと前に生成したCADデータの部分マッチングを行なうことにより、自動的に絶対値を検出させることも可能である。   The automatic cleaner 144c keeps track of the movement by monitoring the route that it has moved around as the current position information of the camera, so what part of the room is currently cleaned by cleaning the area 144d and where it remains? It is possible to control the remaining uncleaned parts to be efficiently cleaned while confirming whether they are in the as-built map. Since the vacuum cleaner is used in each home with different floor plans, it is difficult to register the map information of the room in advance, so the function that can generate CAD data in an as-built manner is effective. If data in the same room is kept until reset and it is not necessary to generate CAD data from the beginning every time, the more CAD data is used, the more accurate it is generated. In addition, when the room is changed, the CAD data is also updated, which is also effective in such a case. In addition, if the processing speed is real time, a resident walking in the corridor can also execute control to avoid collision by detecting in real time. Every day, when cleaning is started, it is configured to display a plan view of CAD data that has already been generated, and if you set the vacuum cleaner first, absolute identification of the first position will be It becomes easy. Of course, it is also possible to automatically detect the absolute value by performing partial matching between the CAD data of the surrounding environment and the previously generated CAD data.

図60は、第63の手段を適用して構成した文字読み取り装置の実施の形態を示している。本発明の画像情報処理装置100は、3次元CADデータを生成するので、刻印文字などのCADデータを生成してマッチングさせることが容易にできるようになる。ここでは、移動する文字を読み取る装置の例で説明する。   FIG. 60 shows an embodiment of a character reading apparatus constructed by applying the 63rd means. Since the image information processing apparatus 100 of the present invention generates three-dimensional CAD data, CAD data such as engraved characters can be easily generated and matched. Here, an example of an apparatus that reads a moving character will be described.

ビル145aなどに設置された電光掲示板145bに表示される文字は流れて見えるので、通常のやりかたでは、予めどの程度の文字がどういうタイミングで移動してくるかを調べておいて、カメラを電光掲示板145bの正面に設置し、専用の処理プログラムを用意しておく必要があるが、本発明の画像情報処理装置100を適用すれば、電光掲示板145bを斜めから見ても3次元で文字のCADデータを生成することができるので、カメラ10,20を電光掲示板145bの正面に設置する必要がなくなる。また、探索では、明朝体やゴシックなどの基本的な文字から近い文字を探すようにすれば、予め電光掲示板特有の文字を調べて登録するような作業を行なわなくとも良くなる。更に、生成されるCADデータには時刻が入ることから、例えば、時間と移動距離から移動速度を求めることも容易であり、電光掲示板145bを見ていて10:15の20秒から28秒までに生成されたCADデータを繋げて読むように処理すれば、一度には全文表示されていない文章でも「今日は晴れ時々曇りです。」のように全文の形態で読み取ることもできるようになる。   Since appears to flow characters to be displayed on the electric bulletin board 145b, which is installed in a building 145a, in the normal way, keep in Determine in advance how much of the character comes to move in what timing, lightning the camera bulletin board Although it is necessary to install a dedicated processing program in front of 145b, if the image information processing apparatus 100 of the present invention is applied, CAD data of characters in three dimensions even when the electronic bulletin board 145b is viewed from an oblique direction. Therefore, it is not necessary to install the cameras 10 and 20 in front of the electric bulletin board 145b. In the search, if a character closer to the basic character such as Mincho and Gothic is searched, it is not necessary to perform an operation of checking and registering a character unique to the electronic bulletin board in advance. Furthermore, since the time is entered in the generated CAD data, for example, it is easy to obtain the moving speed from the time and the moving distance. From the electronic bulletin board 145b, from 20 seconds to 28 seconds at 10:15. If the generated CAD data is processed so as to be connected, it is possible to read a sentence that is not displayed in full text at a time in the form of a full text such as “Today is sunny and cloudy.”

図61は、第64の手段〜第66の手段を適用して構成した3次元計測装置の実施の形態を示している。カメラを撮影対象物体の近くに寄せれば分解能、すなわち計測精度があがるので、近くに寄れる場合には、汎用カメラを使用して撮影して得た画像情報に基づいて3次元計測を行なったり、3次元CADデータを生成するシステムを構築することができる。   FIG. 61 shows an embodiment of a three-dimensional measuring apparatus configured by applying the 64th means to the 66th means. If the camera is brought close to the object to be photographed, the resolution, that is, the measurement accuracy is improved. If the camera is close to the object, three-dimensional measurement is performed based on image information obtained by photographing using a general-purpose camera, A system for generating three-dimensional CAD data can be constructed.

図61に示した3次元計測装置は、カメラ10aと画像情報処理装置120aが接続されており、環境の対象物体901aの周囲を撮影して得た画像情報に基づいてCADデータを生成して記憶装置200aに記憶する構成を示している。撮影現場では、そのようなCADデータ生成作業を行い、それが終わったならば、画像情報処理装置120aと計算機146cを接続して画像情報処理装置120aの記憶装置200aのCADデータ902aを取り出せるように構成する。画像情報処理装置120aで生成するCADデータ902aは、高速処理に適したデータ構造にしておき、取り出すときに汎用のCADデータの構造に変換して出力するようにする。計算機146cへ出力したCADデータ902zは、汎用的に他のアプリケーションでも使用できるデータ構造に変換されていれば、生成されたCADデータを利用し易くなる。CADデータには寸法の情報も入っているので、このように構築したシステムは、現場のアズビルト寸法もCADデータの座標や大きさ(長さ)を確認することで3次元計測システムとして利用することができる。また、CADデータの生成の仕方では、撮影しながらCADデータを生成するようにしても良いが、例えば、図55のカメラ単体10zで画像情報をテープやMOなどの記録媒体146aに記録して、それを後で、画像情報処理装置120aに入力してCADデータを生成する方法としても良い。撮影現場でCADデータを生成してその内容をCADデータの絵で表示しながら撮影するようにすれば、現場作業での間違いは少なくなるが、モニタや処理装置が持ち込めない狭い場所などでは、後でCADデータを生成する方法が有効である。また、CADデータ902aをCADデータ902zに変換して出力するときに、単純に点は点、線データは線データ、面データは面データでデータフォーマットだけの変換をするのではなく、例えば、基本図形の幾つかにマッチング処理して基本図形に変換して出力するようにすれば、更に利用し易いCADデータを取り出すことができるようになる。この基本図形への変換機能も画像情報処理装置120aの機能でやる方法もあるが、計算機146cに別の変換ソフトを用意して行なうようなシステムを構築するようにしても良い。   61 has a camera 10a and an image information processing device 120a connected to each other, and generates and stores CAD data based on image information obtained by photographing the environment around the target object 901a. The structure memorize | stored in the apparatus 200a is shown. At the shooting site, such CAD data generation work is performed, and when it is finished, the image information processing apparatus 120a and the computer 146c are connected so that the CAD data 902a of the storage device 200a of the image information processing apparatus 120a can be taken out. Constitute. The CAD data 902a generated by the image information processing apparatus 120a has a data structure suitable for high-speed processing, and is converted into a general-purpose CAD data structure and output when extracted. If the CAD data 902z output to the computer 146c is converted into a data structure that can be used for other applications for general purposes, the generated CAD data can be easily used. Since CAD data also includes dimension information, the system constructed in this way can be used as a three-dimensional measurement system by checking the coordinates and size (length) of CAD data on site as well. Can do. Further, in the method of generating CAD data, CAD data may be generated while photographing, but for example, image information is recorded on a recording medium 146a such as a tape or MO by using the camera 10z in FIG. This may be input later to the image information processing apparatus 120a to generate CAD data. If CAD data is generated at the shooting site and the content is displayed as a picture of the CAD data, the mistakes in the field work will be reduced, but in narrow spaces where monitors and processing equipment cannot be brought in, A method for generating CAD data is effective. In addition, when the CAD data 902a is converted into CAD data 902z and output, the data is not simply converted from a point to a point, line data to line data, and surface data to surface data. If matching processing is performed on some of the figures and converted into basic figures for output, CAD data that is easier to use can be extracted. Although there is a method of performing the conversion function to the basic figure by the function of the image information processing apparatus 120a, a system may be constructed in which another conversion software is prepared in the computer 146c.

図62を参照して第67の手段の実施の形態を説明する。この実施の形態は、環境のCADデータを生成する形態である。この第67の手段は、町並みのCADデータ、すなわち3次元地図データを生成するのに適した手段であり、カメラを自動車または二輪車に搭載し、または人が持ってカメラを移動させながら環境を撮影して得た画像時用法に基づいてCADデータを生成する手段である。図62に示す実施の形態は、自動車に搭載したカメラ147aで町のビルなどを撮影して得た画像情報を画像情報処理装置100(図示省略)に入力してCADデータを生成する構成である。また、上空では、飛行船の下部にカメラ147bを搭載して上空より下のビルなどの環境を撮影して画像情報を得るようにしている。このカメラ147bの画像情報も、同様に、画像情報処理装置に入力してCADデータを生成し、両方のCADデータを合成する。   An embodiment of the 67th means will be described with reference to FIG. In this embodiment, CAD data of the environment is generated. The 67th means is a means suitable for generating townscape CAD data, that is, three-dimensional map data. The camera is mounted on an automobile or a two-wheeled vehicle, or the environment is photographed while a person moves the camera. This is means for generating CAD data based on the image usage. The embodiment shown in FIG. 62 is configured to generate CAD data by inputting image information obtained by photographing a building in a town with a camera 147a mounted on an automobile to the image information processing apparatus 100 (not shown). . In the sky, a camera 147b is mounted on the lower part of the airship, and an image such as a building below the sky is photographed to obtain image information. Similarly, the image information of the camera 147b is input to the image information processing apparatus to generate CAD data, and both CAD data are combined.

自動車に搭載したカメラ147aで撮影して得た画像情報だけでも町並みの下方のCADデータを生成することができるが、上方、特にビルの上面については、下からでは死角になるのでCADデータを生成することができない。一方、上方の飛行船に搭載したカメラ147bで撮影して得た画像情報だけでは、下方、特に下面は上方からの死角となっているのでCADデータを生成することができない。両方の画像情報に基づいて生成したCADデータを統合することによって、町並みの下から上までの正確なCADデータを生成することができるようになる。   Although it is possible to generate CAD data below the streets using only the image information obtained by the camera 147a mounted on the car, the CAD data is generated from the bottom, especially the upper surface of the building. Can not do it. On the other hand, CAD data cannot be generated only by image information obtained by photographing with the camera 147b mounted on the upper airship because the lower, particularly the lower surface, is a blind spot from above. By integrating CAD data generated based on both pieces of image information, accurate CAD data from the bottom to the top of the street can be generated.

図63は、第68の手段を適用して構成したナビゲーション装置の実施の形態を示している。実環境の情景148aは、自動車が交通信号機のある交差点にさしかかっている情景である。この情景は、予め3次元のCADデータ148bとして生成されているものとする。   FIG. 63 shows an embodiment of a navigation apparatus constructed by applying the 68th means. The real environment scene 148a is a scene in which a car is approaching an intersection with a traffic signal. It is assumed that this scene is generated in advance as three-dimensional CAD data 148b.

走行している自動車は、カメラ(図示省略)を搭載しており、このカメラで撮影して得た画像情報に基づいて生成した最新のCADデータで既成のCADデータを更新しながら、画像情報処理装置100で求めたカメラの位置と姿勢情報に基づいて3次元CADデータ148bの中には現在のカメラの位置と姿勢情報(自動車についているカメラの位置が既知であれば自動車の位置と姿勢情報)を表示するようにする。これによって、自動車がCADデータ148bの中で現在どこを走っているかがわかる。このように構成すれば、GPS不要のカーナビゲーション装置を構成することができる。また、予めCADデータがある場合には、その目的地を指示すると、現在の位置から目的地までの最善ルートを表示してナビゲートする機能をGPSによる従来のカーナビゲーション装置と同様に機能させることができる。予め3次元のCADデータが用意されていない場合には、最低限、2次元のマップ情報があれば、2次元のマップ情報とそのときに生成しているCADデータとの対応付けを取れるようにしておくことにより、目的地までのガイドを2次元のマップ上で行なうことができ、現在位置の確認は、生成したCADデータと2次元マップとの対応付けで行なう。2次元のマップ情報は、ポイントポイントを3次元の情報ももたせて生成した3次元のCADデータと対応を取り易くしておくのが良い。例えば、特徴あるビルとか交通信号機の有無などは、基本図形で概略の形状を模擬したものでも3次元のCADデータで用意しておくのが良い。また、途中に用意した目印と同じ場所を生成されたCADデータの中から探索することができた場合には、そこを通過したということでアナウンスするようにすると良い。例えば、3次元CADデータ148bの中の交通信号機がカメラの視野に入ってきたならば、「どこそこの交差点を通過しました。」とアナウンスするように構成する。このようなことは、画像情報処理装置100の探索機能を使って、ここでは、参照CADデータに交通信号機のデータ148dを使って探索させることにより実現する。また、目的地のHITACHIビルの参照CADデータ148cを使えば、目的地を探索することができる。このように、通過点の目印となる物とか最終目的地の目印(この場合はHITACHIビルの看板)が探索できた場合には、表示しているCADデータ148b上でここが探索できたということがわかるように色を変えて表示またはその部位を点滅表示して場所を知らせるように構成すると良い。CADデータが予め用意されていない場所へ自動車が行くと、CADデータを更新するだけではなく、積極的に新しいCADデータを生成しながら走行するようにする。これによって、アズビルトのCADデータは、自動車が走ることによってより広範囲のものが生成されるようになる。地図が何もない場合には、目的地までのナビゲーションを行なうことはできないが、それまで走ってきたところまでのCADデータを生成することから新しい地図情報が蓄積されることになるので、2回目からは、その地図情報を使用して目的地までのナビゲーションを確実に行なうことができるようになる。また、生成されたCADデータの所定のエリアを指定してその部分を探索用のCADデータとして名前を付けて登録できる機能も設けるのが良い。登録名称がHITACHIビルの参照データ148cは、そのようにして登録する。登録するときには、ユニークな形状,色,模様のあるものが良いので、看板などは適切である。交通信号機などのような汎用的に目印となるものは、予め典型的なものを何種類か登録しておき、カーナビゲーション装置のユーザに供給される前に登録しておくことでも良い。   A traveling car is equipped with a camera (not shown), and image information processing is performed while updating existing CAD data with the latest CAD data generated based on image information obtained by photographing with the camera. Based on the camera position and orientation information obtained by the apparatus 100, the current camera position and orientation information is included in the three-dimensional CAD data 148b (the position and orientation information of the vehicle if the position of the camera attached to the vehicle is known). Is displayed. Thereby, it can be known where the car is currently running in the CAD data 148b. With this configuration, a car navigation device that does not require GPS can be configured. Also, if CAD data is available in advance, when the destination is indicated, the function of displaying and navigating the best route from the current position to the destination is made to function in the same manner as a conventional car navigation device using GPS. Can do. If 3D CAD data is not prepared in advance, if there is at least 2D map information, the 2D map information can be associated with the CAD data generated at that time. Thus, the guide to the destination can be performed on the two-dimensional map, and the current position is confirmed by associating the generated CAD data with the two-dimensional map. The two-dimensional map information should be easily associated with the three-dimensional CAD data generated by providing the point points with the three-dimensional information. For example, the presence or absence of a characteristic building or traffic signal may be prepared with three-dimensional CAD data even if it is a basic figure that simulates an approximate shape. Further, when the same place as the mark prepared in the middle can be searched from the generated CAD data, it is preferable to announce that it has passed there. For example, if a traffic signal in the three-dimensional CAD data 148b comes into the field of view of the camera, it is configured to announce “where has passed an intersection”. Such a case is realized by using the search function of the image information processing apparatus 100 and, here, making the reference CAD data search using the traffic signal data 148d. Further, by using the reference CAD data 148c of the destination HITACHI building, the destination can be searched. In this way, when a thing that serves as a mark of the passing point or a mark of the final destination (in this case, a signboard of the HITACHI building) can be searched, it can be searched on the displayed CAD data 148b. It may be configured to change the color so that it can be seen or display the part in a blinking manner to notify the location. When the vehicle goes to a place where CAD data is not prepared in advance, the vehicle is not only updated, but also actively generates new CAD data. As a result, a wider range of CAD data of azbilt is generated as the automobile runs. If there is no map, navigation to the destination cannot be performed, but new map information is accumulated because CAD data is generated up to the place where it has been running, so the second time From now on, navigation to the destination can be reliably performed using the map information. In addition, it is preferable to provide a function for specifying a predetermined area of the generated CAD data and registering that portion as a search CAD data. The reference data 148c whose registered name is the HITACHI building is registered in this way. When registering, signs with unique shapes, colors and patterns are good, so signboards are appropriate. As a general-purpose mark such as a traffic signal device, several typical types may be registered in advance and registered before being supplied to the user of the car navigation device.

自動車で走りながらCADデータを生成して行くが、1台の自動車で日本中を走り回ることは困難であるので、新しく生成したCADデータは、携帯電話のデータ通信回線などを利用して中央の情報処理センターに送信できるようにする。この中央の情報処理センターでは、各地の自動車から送られてくる最新のCADデータを受信して統合することにより、日本中の道路のCADデータを作成することが可能となる。また、中央の情報処理センターで統合して作成したCADデータは、各自動車のカーナビゲーション装置から要求があれば、必要なエリアの最新のCADデータを携帯電話などのデータ通信回線を使って中央の情報処理センターから各自動車のカーナビゲーション装置に送信できるようにする。もちろん、統合されたCADデータを3次元地図情報としてCDなどの記憶媒体を使用して各自動車のカーナビゲーション装置のデータとして入力できるようにすることでも良い。   CAD data is generated while running in a car, but it is difficult to run around in Japan with a single car, so the newly generated CAD data is stored in the central information using the data communication line of a mobile phone. Enable to send to processing center. In this central information processing center, it is possible to create CAD data of roads throughout Japan by receiving and integrating the latest CAD data sent from automobiles in various places. In addition, CAD data created by integration at a central information processing center can be updated using the latest CAD data in the required area using a data communication line such as a mobile phone if requested by the car navigation system of each car. The information can be transmitted from the information processing center to the car navigation device of each car. Of course, the integrated CAD data may be input as 3D map information as data of a car navigation device of each automobile using a storage medium such as a CD.

中央の情報処理センターは、CADデータを統合するときには、CADデータが生成された日時(時期)を注意して統合する。すなわち、冬のデータには雪が積雪している場合があり、夏と冬では、同じ地形でもCADデータが異なる場合がある。また、短い周期で見れば、夜に生成されたCADデータと昼に生成されたCADデータは異なるので統合処理するときに、生成された時期によってCADデータを分類しながら統合するとか、その時期ゆえに影響される雪とか夜のライトなどのデータは、一時的なものとして管理するように統合するのが良い。   When integrating the CAD data, the central information processing center carefully integrates the date and time (time) when the CAD data was generated. In other words, snow may be accumulated in winter data, and CAD data may be different even in the same topography in summer and winter. In addition, since the CAD data generated in the night and the CAD data generated in the day are different in a short cycle, when integrating the CAD data, the CAD data is classified while being classified according to the generation time. Data such as affected snow and night lights should be integrated to be managed as temporary.

図64を参照して第69の手段の実施の形態を説明する。この実施の形態は、カーナビゲーション装置におけるLCDモニタであり、平面図と鳥瞰図を必要に応じて選択的に表示できるように構成するのが良い。図64は、自動車149aがさしかかった交差点の近傍を上から見た情景を表示している平面図である。交差する道路の一方は狭い道路であり、そこから自動車149bが広い道路に出ようとしている。また、狭い道路には、歩行者149cも表示されている。   An embodiment of the 69th means will be described with reference to FIG. This embodiment is an LCD monitor in a car navigation device, and is preferably configured to selectively display a plan view and a bird's eye view as necessary. FIG. 64 is a plan view displaying a scene when the vicinity of the intersection where the automobile 149a is approaching is viewed from above. One of the intersecting roads is a narrow road, from which the car 149b is going out to a wide road. A pedestrian 149c is also displayed on the narrow road.

カーナビゲーション装置のLCDモニタにこのような情報を表示することができれば、交差点における出会い頭の衝突を防止することができる。また、歩行者の飛び出しについても、事前に注意して運転することが可能となる。表示形態は、移動している向き、速度などが見易いように工夫するのが良い。例えば、移動速度が速くなればなるほど点滅周期を短くして点滅速度を速くするとか、表示色を青から黄色、赤へと変えるとかして、直感的に危険な速度がでていることがわかるようにするのが良い。   If such information can be displayed on the LCD monitor of the car navigation device, it is possible to prevent a collision at the intersection. In addition, it is possible to drive with caution regarding pedestrian jumping. The display form should be devised so that the moving direction, speed, etc. are easy to see. For example, the faster the moving speed, the shorter the blinking period and the faster the blinking speed, or the display color is changed from blue to yellow and red, so you can see that the dangerous speed is intuitively understood. It is good to be.

自動車149bのカーナビゲーション装置は、近くにいる自動車149aのカーナビゲーション装置に対して、自分(自車)の現在位置と姿勢、必要であれば移動速度などの情報もあわせて送信することができるように構成し、近くにいる自動車149aのカーナビゲーション装置は、自動車149bのカーナビゲーション装置から受信した情報をLCDモニタに表示するように構成することにより、自動車149a,149bの衝突の危険性を運転者に認識させることができる。また、歩行者149cもカーナビナビゲーション装置と同様な機能をもったナビゲーション装置を携帯して、この歩行者149cのナビゲーション装置も歩行者149cの現在位置と向きなどの情報を送信し、自動車149aのカーナビゲーション装置がこの情報を受信LCDモニタに表示するように構成することにより、自動車149aの運転者に歩行者の存在を認識させて該歩行者の飛び出しの可能性を予測させることができる。   The car navigation device of the automobile 149b can also transmit information such as the current position and posture of the vehicle (own vehicle) and the moving speed if necessary to the car navigation device of the automobile 149a nearby. The car navigation device of the nearby vehicle 149a is configured to display the information received from the car navigation device of the vehicle 149b on the LCD monitor, so that the risk of a collision between the vehicles 149a and 149b is displayed to the driver. Can be recognized. Also, the pedestrian 149c carries a navigation device having the same function as the car navigation system, and the navigation device of the pedestrian 149c also transmits information such as the current position and orientation of the pedestrian 149c, so By configuring the navigation device to display this information on the reception LCD monitor, the driver of the automobile 149a can recognize the presence of the pedestrian and can predict the possibility of the pedestrian jumping out.

お互いのナビゲーション装置で各自の情報を授受して各ナビゲーション装置のLCDモニタに表示するように構成すれば、お互いに環境状況(相手の状態)を認識して行動することが可能となる。   If each navigation device is configured to send and receive their own information and display them on the LCD monitor of each navigation device, it becomes possible to recognize each other's environmental situation (the state of the other party) and act.

この実施の形態は、ナビゲーション装置同士が直接的に情報交換を行なう構成であるが、各ナビゲーション装置が自分の位置と姿勢、必要ならば速度情報などの情報を中央の情報処理センタに送信し、中央の情報処理センタでは、送られてくる総ての情報を収集して管理し、各ナビゲーション装置に対して該ナビゲーション装置の近くにいる他のナビゲーション装置の情報を配信して表示させるように構成することも可能である。   This embodiment is a configuration in which navigation devices directly exchange information, but each navigation device transmits information such as its position and posture, speed information if necessary, to a central information processing center, The central information processing center is configured to collect and manage all information sent and to distribute and display information of other navigation devices near the navigation device to each navigation device. It is also possible to do.

このような実施の形態では、危険な状況では、注意を喚起するようにアラームを出すように構成するのが良いし、自動車の場合には、自動車の運転制御装置と連係させて危険な運転操作を制限する機能を実現するように構成すると良い。   In such an embodiment, in a dangerous situation, it may be configured to issue an alarm so as to call attention, and in the case of a car, a dangerous driving operation is linked with a driving control device of the car. It may be configured to implement a function for limiting the above.

図65を参照して歩行者が携帯するナビゲーション装置の実施の形態を説明する。この実施の形態におけるナビゲーション装置は、歩行者が必要に応じて頭に被る帽子のような形態のタイプのナビゲーション装置150aや肩に乗せるような形態のナビゲーション装置150b,150cに構成する。各ナビゲーション装置150a〜150cは、撮像装置(カメラ)10と画像情報処理装置100と無線通信機能付きの記憶装置200とバッテリ(図示省略)を備える。全体は小型で軽いものに構成するのが良い。高齢者や子供を交通事故から守ることを目的とする装置では、LCDモニタは不要であり、自分自身の位置を検出して中央の情報処理センタあるいは近くの自動車のカーナビゲーション装置に送信する機能があれば足りる。歩行者は、ナビゲーション装置150a〜150cの何れか1つを携帯すれば足りるように構成することが望ましい。カメラを両肩に載せるような形態に構成すれば、略全周を死角なく撮影することができるようになる。また、カメラや処理回路をシート状の基板に焼き付けて帽子や服に実装することにより、ウエラブルの装置としても良い。カメラや処理回路を更に小型化して、胸ポケットに入れることができるペン型に構成したり、腕時計,ブローチ,ペンダント,めがね,イアリングなどに組み込むようにしても良い。   An embodiment of a navigation device carried by a pedestrian will be described with reference to FIG. The navigation device in this embodiment is configured as a navigation device 150a in the form of a hat that a pedestrian wears on the head as necessary, or the navigation devices 150b and 150c in a form of being put on a shoulder. Each navigation device 150a to 150c includes an imaging device (camera) 10, an image information processing device 100, a storage device 200 with a wireless communication function, and a battery (not shown). The whole should be small and light. An LCD monitor is not required for devices intended to protect elderly people and children from traffic accidents, and it has the function of detecting its own position and transmitting it to a central information processing center or a car navigation device of a nearby car. If there is enough. It is desirable that the pedestrian be configured to carry any one of the navigation devices 150a to 150c. If the camera is configured to be placed on both shoulders, it is possible to take a picture of almost the entire circumference without blind spots. In addition, a wearable device may be obtained by baking a camera or a processing circuit on a sheet-like substrate and mounting it on a hat or clothes. The camera and processing circuit may be further miniaturized and configured into a pen shape that can be placed in a breast pocket, or incorporated in a wristwatch, brooch, pendant, glasses, earring, or the like.

図66は、第70の手段を適用して構成したピッキングシステムの実施の形態を示している。ピッキングシステムは、生産現場などに乱雑に置かれた部品をマニユレータ151aによって1つ1つハンドリングするシステムである。   FIG. 66 shows an embodiment of a picking system configured by applying the 70th means. The picking system is a system in which parts placed randomly in a production site or the like are handled one by one by a manipulator 151a.

マニピュレータ151aの先端に撮像装置(TVカメラ)10を取り付け、部品把持用ハンド151bとTVカメラ10の位置関係を既知情報として画像情報処理装置100を構成する視覚誘導チップへ予め設定しておく。   The imaging device (TV camera) 10 is attached to the tip of the manipulator 151a, and the positional relationship between the component gripping hand 151b and the TV camera 10 is set in advance to the visual guidance chip constituting the image information processing apparatus 100 as known information.

TVカメラ10の画像情報である映像信号は、画像情報処理装置100へ入力して処理する。マニピュレータ151aの各関節のモータ151cは、駆動装置151dによって駆動制御して各関節の角度を変えることにより先端の把持用ハンド151bの位置と姿勢を調整し、そのための制御指令は、マニピュレータ制御装置300によって生成する構成は、一般の産業用ロボットの制御系の構成と同様である。   A video signal which is image information of the TV camera 10 is input to the image information processing apparatus 100 and processed. The motor 151c of each joint of the manipulator 151a is driven and controlled by the drive device 151d to adjust the position and posture of the gripping hand 151b at the tip by changing the angle of each joint, and a control command for this is given by the manipulator control device 300. The configuration generated by is the same as the configuration of the control system of a general industrial robot.

制御装置300は、通信ケーブルを介して画像情報処理装置100に接続し、制御指令を生成するときに参照する情報を画像情報処理装置100から取得する。また、制御装置300は、オペレータ151eから作業指令を取得する。   The control apparatus 300 is connected to the image information processing apparatus 100 via a communication cable, and acquires information to be referred to when generating a control command from the image information processing apparatus 100. Moreover, the control apparatus 300 acquires a work command from the operator 151e.

例えば、作業テーブルの上にある部品AをトレーAに入れ、部品BをトレーBに分類して入れるような作業指令が与えられると、制御装置300における制御指令生成部は、以下のような処理を行なう。
(1) 先ず、作業台の上のCADデータの生成を開始する指令を画像情報処理装置100に与える。
(2) 次に、マニピュレータ151aを動作させて先端のTVカメラ10が作業台をいろいろな角度から撮像することができるように制御する。これは、予め部品に接触しないエリアを想定してマニピュレータ151bの動作軌跡をティーチングしておき、その動作をプレイバック運転するように制御することで良い。
(3) 次に、ある程度作業台の上のCADデータ151fが生成されたならば(これは、画像情報処理装置100における処理においてCADデータの更新内容が少なくなって更に同じ動作を繰返してもCADデータは更新されないぐらい生成されたという信号を該画像情報処理装置100から受け取って判断するようにしても良いし、TVカメラ10を動かした量で十分にできていると自ら経験的に判断するようにしても良い)、部品Aを探索するように画像情報処理装置100に指令を与える。部品Aの探索用CADデータ151gは、制御装置300に登録しておき、必要時に指令と一緒に画像情報処理装置100へ送信するようにすると良いし、予め画像情報処理装置100へ登録しておいて部品番号で指定できるようにしておいても良い。TVカメラ10の位置と姿勢情報は、常に送信されるようにしておいても良いし、今からのタイミングで送信開始してもらうようにしても良い。
(4) 画像情報処理装置100から部品Aの探索結果として作業台上の部品Aの位置と姿勢情報の応答があったならば、複数候補のうちのどの部品を最初に把持させるかをマニピュレータ151aとの位置関係などから優先順序として決定する。優先順序を決定する機能は、画像情報処理装置100に設け、一番候補の部品の位置と姿勢情報のみが送られてくるようにすると良い。
(5) 次に、決定した部品Aを把持するようにマニピュレータ151aを把持制御させる。部品Aの位置と姿勢が分かっていることから、把持用ハンド151bをどこへどういう姿勢でアクセスすれば良いかを容易に計画することができる。そして、その計画に基づき先端の制御軌道を計画して各関節の動作角度に換算して具体的な制御を実行する。TVカメラ10の位置と姿勢情報は、確認用にチェックすることで良い。但し、マニピュレータ151aが移動台車に固定されて移動して位置がずれる可能性のある場合には、TVカメラ10の位置と姿勢情報は、部品A,Bの位置と姿勢を求めるCADデータの空間上での位置と姿勢情報になっているので、マニピュレータ151aや作業台が移動してずれるような場合には、TVカメラ10の現在の位置と姿勢情報を参照しながらマニピュレータ151aの制御を行なうようにすると良い。
(6) マニピュレータ151aの把持ハンド151bが部品Aを把持したならば、部品AをトレーAへ運搬して該部品AをトレーAへ入れる制御を行なう。部品Aを把持したかどうかの判断は、把持ハンド151aに圧覚センサなどを設け、その信号に基づいて確実に把持したことを確認することにより、次の動作の制御へ移動するようにすると良い。
(7) 部品Bについても、探索用CADデータ151hを参照して同様に行なえば、部品Aと部品Bを各々別のトレーに自動的に分類して収容することができるようになる。
For example, when a work command is given such that the part A on the work table is put into the tray A and the part B is put into the tray B, the control command generation unit in the control device 300 performs the following processing. To do.
(1) First, a command to start generation of CAD data on the work table is given to the image information processing apparatus 100.
(2) Next, the manipulator 151a is operated so that the TV camera 10 at the tip can take an image of the work table from various angles. This can be achieved by teaching the operation locus of the manipulator 151b in advance assuming an area that does not contact the part, and controlling the operation to perform a playback operation.
(3) Next, if CAD data 151f on the work table is generated to some extent (this is because even if the update contents of the CAD data are reduced in the processing in the image information processing apparatus 100 and the same operation is repeated, the CAD data 151f is generated. It may be determined by receiving a signal from the image information processing apparatus 100 that the data has been generated so as not to be updated, or it may be determined empirically that the amount of movement of the TV camera 10 is sufficient. However, the image information processing apparatus 100 is instructed to search for the component A. The CAD data 151g for searching for the part A may be registered in the control device 300 and transmitted to the image information processing device 100 together with a command when necessary, or may be registered in advance in the image information processing device 100. It may be possible to specify the part number. The position and orientation information of the TV camera 10 may be constantly transmitted, or may be transmitted at the current timing.
(4) If there is a response of the position and orientation information of the part A on the work table from the image information processing apparatus 100 as a search result of the part A, the manipulator 151a determines which part of the plurality of candidates is to be gripped first. The priority order is determined from the positional relationship with The function for determining the priority order may be provided in the image information processing apparatus 100 so that only the position and orientation information of the first candidate component is sent.
(5) Next, the manipulator 151a is controlled to grip so as to grip the determined part A. Since the position and posture of the part A are known, it is possible to easily plan where and in what posture the gripping hand 151b should be accessed. Then, based on the plan, the control trajectory at the tip is planned and converted into the operation angle of each joint to execute specific control. The position and orientation information of the TV camera 10 may be checked for confirmation. However, when the manipulator 151a is fixed to the movable carriage and may move and the position may be shifted, the position and orientation information of the TV camera 10 is in the space of CAD data for obtaining the positions and orientations of the parts A and B. Therefore, when the manipulator 151a or the work table moves and shifts, the manipulator 151a is controlled while referring to the current position and orientation information of the TV camera 10. Good.
(6) If the gripping hand 151b of the manipulator 151a grips the part A, the part A is transported to the tray A and the part A is put into the tray A. The determination as to whether or not the component A has been gripped may be performed by providing a pressure sensor or the like on the gripping hand 151a and confirming that the gripping hand 151a is securely gripped to move to the next operation control.
(7) With respect to the part B, if the same process is performed with reference to the CAD data for search 151h, the part A and the part B can be automatically classified and accommodated in separate trays.

把持センサの例を説明したが、自律制御型ロボットもそうであるが、総てのアプリケーションのケースにおいて、画像情報処理装置100の情報だけで制御する必要はなく、制御装置300は、必要に応じて各種センサの情報を総合的に判断してどのように制御するかを決定するように構成するのが良い。   Although the example of the grip sensor has been described, the autonomous control type robot is also the same. However, in all application cases, it is not necessary to control only by the information of the image information processing apparatus 100. It is preferable to determine how to control by comprehensively judging information of various sensors.

図67を参照して第71の手段および第72手段を適用して構成した検査装置の実施の形態を説明する。図67は、検査工程部分にこの実施の形態の検査装置を適用したCD,DVDなどの生産ラインの模式図である。   An embodiment of an inspection apparatus configured by applying the 71st means and the 72nd means will be described with reference to FIG. FIG. 67 is a schematic diagram of a production line such as a CD and a DVD in which the inspection apparatus according to this embodiment is applied to the inspection process part.

検査対象物体であるDVD152cは、コンベア152bによって搬送し、それをマニピュレータ152aの先端に設けた撮像装置(カメラ)10aで撮像する。カメラ10aを設けたマニピュレータ152aは、1台でも良いし、より早く、検査漏れがないようするために複数台設置しても良い。マニピュレータ152aは、DVD152cをいろいろな角度から撮像して、その画像情報を画像情報処理装置100に入力して検査対象物体であるDVD152cの3次元CADデータを生成する。一方、画像情報処理装置100には、正常な検査対象物体であるDVD152cのCADデータも参照用CADデータとして予め登録しておき、生成したCADデータとの比較を行って異なる部分を抽出することにより、検査対象物体であるDVD152cの良否を判定(自動検査)する。例えば、良品のDVDを予め撮影してCADデータとして生成しておき、画像情報処理装置100の探索機能を用いても良いし、別にマッチング機能を用意しても良いが、検査対象物体であるDVD152cを撮影して生成したデータと良品のデータで異なる部分を抽出すれば、例えば、DVD152cの表面の傷152dなどがある場合には、その部分が大きな相違点として抽出できるので、当該DVDは不良品であると判定する。   The DVD 152c that is the object to be inspected is conveyed by the conveyor 152b, and is imaged by the imaging device (camera) 10a provided at the tip of the manipulator 152a. The number of manipulators 152a provided with the camera 10a may be one, or a plurality of manipulators 152a may be installed in order to prevent an inspection omission earlier. The manipulator 152a images the DVD 152c from various angles, inputs the image information to the image information processing apparatus 100, and generates three-dimensional CAD data of the DVD 152c that is the object to be inspected. On the other hand, in the image information processing apparatus 100, CAD data of the DVD 152c which is a normal inspection target object is also registered in advance as reference CAD data, and compared with the generated CAD data to extract different portions. Then, the quality of the DVD 152c that is the inspection object is determined (automatic inspection). For example, a good DVD may be photographed in advance and generated as CAD data, and the search function of the image information processing apparatus 100 may be used, or a matching function may be separately prepared. For example, if there is a scratch 152d on the surface of the DVD 152c, the portion can be extracted as a large difference, so that the DVD is a defective product. It is determined that

3次元CADデータ同士を一番マッチングする姿勢で合わせたり、基準となる部分が一致するように姿勢を合わせて差分処理(差分処理は互いのCADデータを点データの集合に変化して行なうのが良い。)をとって異なる部分を抽出するようにし、その抽出された部分(点データ)の体積,面積,長さなどの相違する量(点データの数)とか、色の差(点の色情報同士の差分結果)、色の差が所定の値以上に生じた部分の面積(点データの数)などで判定するようにすることもできる。また、参照CADデータを設計図面から生成する理想的なCADデータにすれば、基準をより確かなものとすることができる。このようにいろいろな角度から撮影するので、詳細な外観検査の自動化を実現することができるようになる。   Match the 3D CAD data with the best matching posture, or match the posture so that the reference parts match, and perform differential processing (difference processing is performed by changing each CAD data into a set of point data. )) To extract different parts, and the extracted parts (point data) volume, area, length, etc., different amounts (number of point data), or color differences (point color) It is also possible to make a determination based on the difference result between the information), the area of the portion where the color difference is greater than a predetermined value (number of point data), and the like. Further, if the reference CAD data is ideal CAD data generated from the design drawing, the standard can be made more reliable. Since photographing is performed from various angles as described above, it becomes possible to realize automation of a detailed appearance inspection.

また、第72の手段では、TVカメラ10をマイクロスコープ付きとすることで、より微細な欠陥も3次元ADデータとして生成することができ、詳細な検査を行なうことも可能となる。   According to the 72nd means, since the TV camera 10 is equipped with a microscope, finer defects can be generated as three-dimensional AD data, and a detailed inspection can be performed.

なお、以上の実施の形態では、検査装置は、検査対象物体を固定してカメラをマニピュレータなどで移動する形態であるが、カメラを固定して検査対象物体を移動させながら撮影するように構成しても良い。また、カメラと検査対象物体の両方を移動させるように構成しても良い。また、人間の顔のいろいろな表情を撮影して画像情報処理装置100で3次元CADデータを生成することにより、本人のID(名前など)と対応付けて登録しておき、再度、同じ人間か否かを判定するような検査システムへ適用するようにしても良い。また、マイクロスコープと組み合わせて指紋の3次元CADデータを生成して指紋による本人の確認を行なう検査システムへ適用しても良い。   In the above embodiment, the inspection apparatus is a form in which the inspection target object is fixed and the camera is moved by a manipulator or the like. However, the inspection apparatus is configured to capture the image while moving the inspection target object with the camera fixed. May be. Moreover, you may comprise so that both a camera and a test object may be moved. Also, various facial expressions of a human face are photographed and three-dimensional CAD data is generated by the image information processing apparatus 100, so that it is registered in association with the person's ID (name, etc.), and again the same person. You may make it apply to the inspection system which determines whether or not. Further, the present invention may be applied to an inspection system that generates three-dimensional CAD data of a fingerprint in combination with a microscope and confirms the identity of the person using the fingerprint.

図68〜図71は、第73の手段〜第79の手段を適用して構成した2つのホームロボットの実施の形態を示している。また、自動車の実施の形態は、図64を参照して説明する。   68 to 71 show an embodiment of two home robots configured by applying the 73rd means to the 79th means. An embodiment of the automobile will be described with reference to FIG.

図68は、ペットロボットの制御系のブロック図である。この実施の形態におけるペットロボットの制御系は、2000年11−20号NO.783日経エレクトロニクスのP.53で紹介されたペットロボットAIBOの制御系に本発明の画像情報処理装置100と記憶装置200を組み入れて構成したものである。   FIG. 68 is a block diagram of the control system of the pet robot. The control system of the pet robot in this embodiment is a P.I. The image information processing apparatus 100 and the storage device 200 of the present invention are incorporated in the control system of the pet robot AIBO introduced in 53.

AIBOの基本制御系は、マイクロプロセッサ300によって頭部と前後左右の脚の動作を制御する構成である。この実施の形態におけるペットロボットでは、頭部に設置してあるカメラで撮影して得た画像情報を画像情報処理装置100に入力して3次元の環境CADデータを生成して記憶装置200に記憶するように構成する。そして、マイクロプロセッサ300は、必要に応じて、カメラの位置と姿勢情報や特定のCADデータを探索させてその位置と姿勢情報を参照できるように構成する。マイクロプロセッサ300が記憶装置200に生成されているCADデータを直に参照できるように構成しても良い。マイクロプロセッサ300が実行する制御処理は、図70を参照して後述する。   The basic control system of AIBO has a configuration in which the microprocessor 300 controls the movement of the head and the front, rear, left and right legs. In the pet robot in this embodiment, image information obtained by photographing with a camera installed on the head is input to the image information processing apparatus 100 to generate three-dimensional environment CAD data and store it in the storage device 200. To be configured. Then, the microprocessor 300 is configured to be able to refer to the position and orientation information by searching the camera position and orientation information and specific CAD data as necessary. The microprocessor 300 may be configured so that the CAD data generated in the storage device 200 can be directly referred to. Control processing executed by the microprocessor 300 will be described later with reference to FIG.

図69は、簡単なハンドリングを行なうホームロボットの実施の形態の模式図である。このホームロボットは、壁掛けタイプのロボットであり、対象物体を把持する把持用ハンド154cとその位置と姿勢を制御するアーム154aを備え、アーム154aの根本を壁にしっかりと固定することができるように構成する。このロボットを使用する環境は、家庭のダイニングとかリビングなどを想定しており、テーブル154dとかコップ154eなどが置いてある環境である。   FIG. 69 is a schematic diagram of an embodiment of a home robot that performs simple handling. This home robot is a wall-hanging type robot, and includes a gripping hand 154c for gripping a target object and an arm 154a for controlling the position and posture thereof, so that the root of the arm 154a can be firmly fixed to the wall. Constitute. The environment in which this robot is used is assumed to be a home dining room or living room, and is an environment in which a table 154d, a cup 154e, and the like are placed.

把持用ハンド154cにはTVカメラ10が取り付け、このTVカメラ10で撮影して得た画像情報を画像情報処理装置100に入力して処理することにより、周囲のテーブル154dやコップ154eのCADデータを生成し、テーブル154d上のカップ154eを把持してマスタへ差し出すようにアーム154aと把持用ハンド154cを制御する構成である。この実施の形態の詳細な制御系は、図71を参照して後述する。   A TV camera 10 is attached to the gripping hand 154c, and image information obtained by photographing with the TV camera 10 is input to the image information processing apparatus 100 and processed, whereby CAD data of the surrounding table 154d and the cup 154e is obtained. The arm 154a and the gripping hand 154c are controlled so as to generate and grip the cup 154e on the table 154d and put it out to the master. A detailed control system of this embodiment will be described later with reference to FIG.

図70は、図68を参照して説明したペットロボットにおけるマイクロプロセッサ300が自律制御を行なう場合に実行するプログラムのフローチャートである。ここで述べる自律制御の内容は、AIBOの場合を例示して説明するが、自動車や自動掃除機や図69を参照して説明したホームロボットにおけるアームの場合にも同じような考え方で自律制御することができる。   FIG. 70 is a flowchart of a program executed when the microprocessor 300 in the pet robot described with reference to FIG. 68 performs autonomous control. The contents of the autonomous control described here will be described by taking the case of AIBO as an example, but autonomous control is performed in the same way for the case of an arm in a home robot described with reference to FIG. be able to.

先ず、電源ONまたはスタート釦を押すと、マイクロプロセッサ300は、スタート155aから始まり、最初に、第1優先タスクの処理155bを実行する。この第1優先タスクの処理155bでは、自律制御型ロボットで重要となるバッテリの残容量を確認し、残容量が少ない場合には、環境CADデータの中から充電器の場所を探索して、その場所までの移動経路を計画して途中障害物を避けながら充電器のところまで移動し、充電器に接続して充電する処理を行なう。充電器は、予め専用充電器が用意されていれば、その形状や色などの特徴を予め探索用CADデータとして登録しておく。家庭用コンセントからの充電も可能であれば、家庭用コンセントの形状を登録しておく。このときに、環境CADデータの生成が不十分で、直ちに充電器を探索することができない場合には、周囲を移動してCADデータを生成しながら充電器を探索する処理を行なうようにする。バッテリの残容量が十分である場合には、このタスクを実行しないで、次の第2優先タスクの処理155cに移る。   First, when the power is turned on or the start button is pressed, the microprocessor 300 starts from the start 155a and first executes the process 155b of the first priority task. In the process 155b of the first priority task, the remaining capacity of the battery which is important for the autonomous control type robot is confirmed. If the remaining capacity is small, the location of the charger is searched from the environmental CAD data, The travel route to the place is planned, the vehicle is moved to the charger while avoiding obstacles, and connected to the charger for charging. If a dedicated charger is prepared in advance, the charger is preliminarily registered with features such as shape and color as search CAD data. If charging from a household outlet is possible, register the shape of the household outlet. At this time, if the generation of the environmental CAD data is insufficient and the charger cannot be searched immediately, a process of searching for the charger is performed while moving around and generating the CAD data. If the remaining capacity of the battery is sufficient, the process proceeds to the next second priority task process 155c without executing this task.

第2優先タスクの処理155cは、マスタの指示を聞いて、その内容を実行する処理である。マスタをマスタと認識する手段は、画像情報処理装置100によってマスタの顔の特徴などを最初に登録するようにしても良いし、マスタの指に特徴ある人形などを装着してその人形を認識させるようにしても良いし、マイクから入力した音を音声認識してマスタと識別させるようにしても良いし、ロボットのボディについている所定の釦が押されたことにより判別するようにしても良い。「マスタの方へ走ってくるように」という指令がマスタから出された場合には、マイクロプロセッサ300は、画像情報処理装置100を利用してマスタの位置を探索し、現在の位置からマスタの位置までの移動経路を計画してその経路に沿って途中障害物を避けながら走る制御を行なうようにする。画像情報処理装置100は、常にリアルタイムでアズビルトCADデータを生成することで、途中で新たに生じた障害物についても環境CADデータが生成されることから、移動経路が適切か否かを常に最新の環境CADデータを参照しながら確認し、必要であれば移動経路の計画内容の見直しを行いながら、走らせる制御を行なう。そして、途中に大きな障害物があり、その障害物を回避するプログラムが用意されていなかったり、何度か回避プログラムを実行しても回避困難となる場合には、マスタに対して実行不可の旨を、例えば、吠えることで伝えるようにする。また、指示通りにとマスタの近くに到達することができた場合には、指令を実行したということで、実行不可の場合とは別の泣き声で吠えるようにする。なお、この実行タスクの途中で、更に優先度の高いタスクを実行する条件が発生した場合には、優先度の高い処理を途中からでも実行するように制御する。   The process 155c of the second priority task is a process of listening to the instruction from the master and executing the contents. The means for recognizing the master as the master may first register the features of the face of the master by the image information processing apparatus 100, or attach a characteristic doll to the finger of the master to recognize the doll. Alternatively, the sound input from the microphone may be recognized as voice and recognized as the master, or may be determined by pressing a predetermined button on the robot body. When an instruction “run toward the master” is issued from the master, the microprocessor 300 uses the image information processing apparatus 100 to search for the position of the master, and from the current position, The movement route to the position is planned, and control is performed along the route while avoiding obstacles. Since the image information processing apparatus 100 always generates azbild CAD data in real time, environmental CAD data is also generated for an obstacle newly generated in the middle. Confirmation is made by referring to the environmental CAD data, and if necessary, the running control is performed while reviewing the contents of the plan of the movement route. If there is a large obstacle on the way and a program to avoid the obstacle is not prepared, or if it is difficult to avoid even if the avoidance program is executed several times, it is impossible to execute for the master. , For example, by telling. Further, when the robot can reach the master as instructed, it is possible to bark with a cry different from the case where the command cannot be executed because the command has been executed. If a condition for executing a task with a higher priority occurs in the middle of the execution task, control is performed so that a process with a higher priority is executed even in the middle.

マスタからの指示がない場合には、次の第3優先タスクの処理155dに移る。この第3優先タスクは、不審者の見つけたならば不審者を追いかけて吠えるというタスクである。不審者の探索は、例えば、画像情報処理装置100で過去に用意した参照用CADデータには当てはまらない未認識の移動体が検出された場合とか、通常聞いたことの無いような音がマイクなどに入った場合に、それをトリガにして不審者の探索を開始するようにすると良い。移動する不審者を未認識物体のかたまりとして認識した場合には、その位置を検出して追いかけるように移動させる。このタスク実行中にマスタが現われて指示が出た場合とか、バッテリの残容量が少なくなった場合には、第2,第1優先タスクの優先度の高いものを優先して実行するようにする。バッテリ残容量が十分であって、マスタや不審者がいないような場合には、第4優先タスクの処理155eに移る。   If there is no instruction from the master, the process proceeds to the next third priority task process 155d. This third priority task is a task of chasing a suspicious person if a suspicious person is found. The suspicious person is searched for when, for example, an unrecognized moving object that does not apply to the reference CAD data prepared in the past by the image information processing apparatus 100 is detected, or a sound that has not been heard normally is a microphone or the like. When entering, it is recommended to use it as a trigger to start searching for suspicious individuals. When a moving suspicious person is recognized as a cluster of unrecognized objects, the position is detected and moved to follow. If a master appears during this task execution and an instruction is issued, or if the remaining battery capacity is low, the task with the higher priority of the second and first priority tasks is executed with priority. . If the remaining battery capacity is sufficient and there is no master or suspicious person, the process proceeds to the process 155e of the fourth priority task.

第4優先タスクの処理155eは、周囲を歩き回って環境CADデータを生成する処理である。無制限に歩きまわらないように、半径5m以内とか制限条件を設けて制御するようにすると良い。そして、CADデータを十分に生成することができた場合には、第5優先タスクの処理155fに移る。   The fourth priority task process 155e is a process of walking around and generating environmental CAD data. In order not to walk indefinitely, it is preferable to control by setting a limiting condition such as within a radius of 5 m. If the CAD data can be generated sufficiently, the process moves to the process 155f of the fifth priority task.

第5優先タスクの処理155fは、バッテリの無駄な消耗を防止するための処理であり、休止状態、具体的には、歩かない、立たないで、センサ情報を入力して周囲環境の変化を検出するような状態を継続させる。カメラと画像情報処理装置100による電力消費も節約する場合には、マイクと接触センサ程度のモニタリングのみにすると良い。ここで、重要なことは、優先度の高いタスクは、実施条件が整った場合には何時でも実行するということである。優先度は、プログラムで所定の順番に規定しても良いし、優先順番を変更可能なデータとして設定可能にしても良い。優先順番の変更は、学習によって記憶するようにしてマスタが教示できるようにすると良い。また、安全に係わるタスクの処理は、ユーザの嗜好で変えられないようにハードウェアあるいはプログラムで規定して、ユーザの嗜好で優先順番を決めても差し支えないタスクの処理は、ユーザが優先を変えられるようにしても良い。   The fifth priority task process 155f is a process for preventing wasteful consumption of the battery, and detects a change in the surrounding environment by inputting sensor information in a hibernation state, specifically, without walking or standing. To continue the state. In order to save power consumption by the camera and the image information processing apparatus 100, it is preferable to monitor only about a microphone and a contact sensor. Here, what is important is that a task with a high priority is executed whenever the execution conditions are met. The priority may be defined in a predetermined order by a program, or may be set as data in which the priority order can be changed. The change of the priority order is preferably stored by learning so that the master can teach it. In addition, the task processing related to safety is defined by hardware or a program so that it cannot be changed according to the user's preference, and the user can change the priority of the task processing that may be decided according to the user's preference. You may be allowed to.

以上に説明した処理は、主に移動することを目的にした自律制御型ロボットであるが、これは自動車などでも同じである。   The processing described above is an autonomous control type robot mainly for the purpose of moving, but this is the same for automobiles and the like.

自動車の場合を図63を参照して説明する。基本的には、ナビゲーション装置で説明したように、現在の位置から目標位置までの最善ルートが生成されるので、そのルートに沿って自動車を制御するように構成する。この場合、CADデータは、できる限り詳細に生成して、道路の車線の区別は勿論のこと、路上の障害物や路上に駐車中の他の自動車のCADデータも生成してそれを回避する自動車の旋回軌跡などの特性も考慮して移動ルートを生成するようにし、且つ、リアルタイムに生成されるCADデータでそのルートを変更する必要がないかどうかも常にチェックし、必要であれば移動ルートの微妙な変更も行ないながら自動運転走行を行なうように構成する。これは、3次元のアズビルトCADデータをリアルタイムで生成して参照できるようにしておくことによりば、容易に実現することが可能となる。また、自動車の場合には、道路の周囲の標識とか交通信号機を探索し、探索できた場合には、その内容を確認してその結果に応じて自動車を制御するように構成する。例えば、交通信号機を参照用CADデータ148dで探索し、交通信号機のランプの位置からその面の色や明るさの情報を確認し、青のランプが点灯していると判断することができる場合には、他の障害物を回避しながら自動運転を継続し、赤のランプが点灯している場合には、横断報道や停止線を検出してその手前で停止するように自動制御する。勿論、前方に他の車がある場合には、それは障害物となるので、左右に回避できない場合には、自車の走行速度を落として衝突を回避する自動制御を行なうようにプログラムしておく。また、一方通行とか、制限時速など道路標識は、色や大きさなどが決まっているの
で、予め、探索用CADデータとして登録しておくものとする。そして、常に、それらの標識の有無を探索させるようにして、それらの標識を探索し出した場合には、その結果を自動車の主制御装置300へ出力するように構成して、その標識に基づく制御を行なうようにすることにより、自動車の自動運転が可能となる。
The case of an automobile will be described with reference to FIG. Basically, as described in the navigation device, since the best route from the current position to the target position is generated, the vehicle is configured to be controlled along the route. In this case, CAD data is generated in as much detail as possible, not only to distinguish road lanes, but also to generate CAD data of obstacles on the road and other cars parked on the road to avoid it. In consideration of characteristics such as the turning trajectory of the vehicle, the travel route is generated, and the CAD data generated in real time always checks whether the route needs to be changed. It is configured to perform automatic driving while making subtle changes. This can be easily realized by generating and referencing three-dimensional as-built CAD data in real time. Further, in the case of an automobile, a sign or traffic signal around the road is searched, and if it can be found, the contents are confirmed and the automobile is controlled according to the result. For example, when a traffic signal is searched with reference CAD data 148d, information on the color and brightness of the surface is confirmed from the position of the traffic signal lamp, and it can be determined that the blue lamp is lit. Continues automatic driving while avoiding other obstacles. When the red lamp is lit, it automatically detects crossing reports and stop lines and stops it before that. Of course, if there is another vehicle ahead, it will be an obstacle, and if it cannot be avoided to the left or right, it is programmed to perform automatic control to reduce the traveling speed of the vehicle and avoid collision. . In addition, since road signs such as one-way traffic and speed limit are determined in color and size, they are registered in advance as search CAD data. And when always searching for the presence or absence of those signs and searching for those signs, the result is output to the main controller 300 of the automobile, and based on the signs. By performing the control, the vehicle can be automatically operated.

移動指令としては、概略の位置だけでなく、姿勢も制御させることが必要な場合がある。例えば、AIBOの場合には、狭い場所に体を入れる制御を実行させる場合には、最終的に目標とする位置と姿勢を環境CADデータベースの中で設定し、その位置でその姿勢と一致するように制御を行なうように処理すれば実現可能である。位置と姿勢を環境CADデータベースの中で自動設定する方法としては、マスタがAIBOを持ち上げて教えたい場所にもって行き、ここが、○×の場所と教示するように構成しても良いし、AIBOが認識している部品パーツのある場所で指定して、その部品パーツに対して正対するとか、お尻を向けるとか、横並びするとか、幾つかのその部品に対する姿勢の種類の表現を決めておき、それで姿勢も指示できるように構成しても良い。自動車の場合には、目標地点のビルに横付けするとか、目標地点の駐車場へ後ろから入った姿勢などを入力して設定できるように構成すれば良い。自動車をバックで指定姿勢に移動させる場合には、後方を撮像する撮像装置を充実させておき、新たに生成された障害物なども安全に回避制御しながら目的の姿勢となって目的とする位置まで移動できるように構成する。途中の障害物に対しては、それらのパターンに応じた回避プログラムを準備するが、例えば、車が通過できるスペースがなく、用意されている回避プログラムでは回避困難であると判断した場合には、自動車を停止させ、実行困難な旨を出力してユーザ(マスタ)へ知らせるように構成する。また、自動車の自律走行制御の場合の優先順は、以下のようにするのが良い。   As a movement command, it is sometimes necessary to control not only the approximate position but also the posture. For example, in the case of AIBO, when performing control to put a body in a narrow place, the target position and posture are finally set in the environmental CAD database so that the posture matches the posture. This can be realized by processing so as to perform control. As a method of automatically setting the position and orientation in the environment CAD database, the master may lift the AIBO to the place where it wants to be taught, and this may be configured to teach the place of XX, or AIBO. Specify the location of the part that is recognized, and determine the expression of the type of posture for the part, such as facing the part, facing the hips, side by side, etc. Then, the configuration may be such that the posture can also be indicated. In the case of an automobile, it may be configured so that it can be set by being placed next to the building at the target location, or by entering an attitude that has entered the parking lot at the target location from behind. When moving the vehicle to the specified posture in the back, the imaging device that captures the rear is enriched, and the newly created obstacles etc. are safely avoided and controlled to become the desired posture and the target position It is configured to be able to move up to. For obstacles on the way, prepare an avoidance program according to those patterns, but for example, if there is no space where the car can pass and it is difficult to avoid with the prepared avoidance program, The automobile is stopped, and it is configured to output a notification that execution is difficult and notify the user (master). Moreover, the priority order in the case of autonomous driving control of a car is preferably as follows.

1)歩行者の安全、2)搭乗者の安全、3)他の車の搭乗者の安全、4)周囲の建物や建造物の中の人の安全、5)自分自身(自車)の安全(但し、これを優先することが搭乗者優先となる場合が多い)、6)他の車の安全、7)周囲の建物や建造物の安全、の順番で安全を確保するために必要な運転操作を実行するプログラムを用意するようにする。   1) Safety of pedestrians, 2) Safety of passengers, 3) Safety of passengers of other vehicles, 4) Safety of people in surrounding buildings and structures, 5) Safety of self (own vehicle) (However, priority is often given to passengers.) 6) Safety of other vehicles, 7) Safety of surrounding buildings and buildings, etc. Prepare a program to execute the operation.

また、壁掛けのアーム型ロボットは、コップを取るなどの作業ロボットであるので、作業が終了したならば終了の応答を返し、作業が実行できない場合には実行不可の応答を返すように構成する。また、AIBOなどのようなペットロボットを、自動車と同じような考え方で制御することにより、歩行者をナビゲートするようにして盲導犬ロボットとして適用することもできる。   The wall-mounted arm type robot is a work robot such as taking a cup. Therefore, when the work is completed, an end response is returned, and when the work cannot be executed, an unexecutable response is returned. In addition, by controlling a pet robot such as AIBO in the same way as an automobile, it can be applied as a guide dog robot so as to navigate a pedestrian.

次に、第76の手段〜第78の手段の実施の形態を説明する。この実施の形態では、図68を参照して説明したペットロボットの構成に自律制御を行なうマイクロプロセッサ300とは独立系統の撮像装置である監視カメラ153aを設けている。この監視カメラ153aで撮像して生成した画像情報は、同じく独立系統の無線機153bを介して送信してマスタのモニタで監視することができるように構成する。ペットロボットがマスタの目の届く範囲にいる場合には、緊急時には、マスタが必要な対応をすることができる。また、部屋の中からペットロボットが物理的に出られないようになっていれば良いが、マスタの目の届かない外へ出て行けるような場合、あるいは他の家の庭などへ入っていってしまった場合には、ペットロボットが他の人に危害を加えたり、物を壊すなどの恐れがあるので、マスタの責任において常にペットロボットを監視できるようにすることが重要である。監視手段は、監視カメラに限るものではないが、監視カメラは直接に情景を撮像して伝えることができるので、状況を正しく判断できるようにするには監視カメラを設けることが望ましい。   Next, an embodiment of the 76th to 78th means will be described. In this embodiment, a monitoring camera 153a, which is an imaging device independent of the microprocessor 300 that performs autonomous control, is provided in the configuration of the pet robot described with reference to FIG. Image information generated by imaging with the monitoring camera 153a is configured to be transmitted via the wireless system 153b of the independent system and monitored on the master monitor. If the pet robot is within the reach of the master's eyes, the master can take the necessary action in an emergency. In addition, it is only necessary that the pet robot be physically out of the room, but if you can go out of reach of the master's eyes, or enter the garden of another house. In such a case, it is important that the pet robot can always monitor the pet robot under the responsibility of the master because there is a risk that the pet robot may harm other people or destroy things. The monitoring means is not limited to the monitoring camera, but since the monitoring camera can directly capture and convey the scene, it is desirable to provide a monitoring camera so that the situation can be determined correctly.

図68の実施の形態では、この監視カメラ152aは、ペットロボットの背中に搭載する構成を例示しているが、ペットロボットが動き回る場所に固定の監視カメラを設置し、この固定の監視カメラの画像情報信号に基づく映像で監視する構成としても良い。重要なことは、ペットロボットの自律制御装置であるマイクロプロセッサ300から切り離れた独立系であることである。この監視カメラとしてペットロボットの頭部のカメラを利用すると、この頭部は、マイクロプロセッサ300によって動作制御されて自律制御に必要な形態に動作することから、マスタが監視したい場所をマスタの意思で見ることができるように撮影させることが困難となる。監視カメラが全然違う場所を撮影していてマスタが現在の状況を正確に判断することができないような場合には、その時点で無線で緊急停止指令を制御装置(マイクロプロセッサ)300へ送信することができるように構成しても良いが、自律制御系が暴走している場合もあるので、自律制御系とは独立した系統の電源遮断機能へ直接送信することができるようにしておくのが良い。   In the embodiment of FIG. 68, the surveillance camera 152a is exemplified as being mounted on the back of the pet robot. However, a fixed surveillance camera is installed in a place where the pet robot moves around, and an image of this stationary surveillance camera. A configuration may be adopted in which monitoring is performed using video based on information signals. What is important is that it is an independent system separated from the microprocessor 300 which is an autonomous control device of the pet robot. When the camera of the head of the pet robot is used as the monitoring camera, the head is controlled by the microprocessor 300 and operates in a form necessary for autonomous control. It becomes difficult to make it photograph so that it can see. When the surveillance camera is photographing a completely different place and the master cannot accurately determine the current situation, an emergency stop command is wirelessly transmitted to the control device (microprocessor) 300 at that time. However, since the autonomous control system may be out of control, it is better to be able to send directly to the power-off function of the system independent of the autonomous control system. .

AIBOのようなペットロボットの場合には、頭部のカメラを代用しても良いが、もっと大きな人型のロボットの場合には、万一の場合の影響度も大きくなるので、体の各場所に独立系の監視カメラを設置し、万一の場合には、動力断や緊急停止指令を送れる構成としておくのが良い。自律歩行しているロボットは、突然に動力断すると、倒れてより危険な場合もあるので、マスタが危険と判断したならば、最優先のタスク処理として緊急停止の自動制御プログラムを起動し、周囲の状況を判断しながら自律的に安全に停止できるようにすることが望ましい。この緊急停止プログラムは、通常の自律制御(他のタスク)に影響されないようにすることが大事である。また、監視カメラも、通常の自律制御動作で監視が妨げられないようにすることが大事である。   In the case of a pet robot such as AIBO, the head camera may be substituted, but in the case of a larger humanoid robot, the influence in the event of an emergency will increase, so each place of the body It is recommended that an independent surveillance camera be installed in the system so that in the event of an emergency, a power interruption or emergency stop command can be sent. A robot that is autonomously walking may be more dangerous if it suddenly loses power, so if the master determines that it is dangerous, it launches an emergency stop automatic control program as a top-priority task process. It is desirable to be able to stop autonomously and safely while judging the situation. It is important that this emergency stop program is not affected by normal autonomous control (other tasks). It is also important for the surveillance camera not to be obstructed by normal autonomous control operation.

状況を判断することができないような事態では、マスタの責任で緊急停止プログラムを起動することになるので、独立系の監視カメラは、どのような状況でも適切に監視領域を撮影することができるように、自律制御系とは独立に設けておくことが望ましい。図68に例示したペットロボットでは、画像情報が無線機153bから正常に送信されていることをマイクロプロセッサ300へ知らせる信号線153cを設けた。これによって、自律制御の中で監視映像(画像情報)が正常に出力されない場合には、緊急停止プログラムを作動させてロボットの動きを停止させることができるようになる。図70に示したフローチャートの中では、第1優先タスクの処理155bの更に上位で最も優先度の高いタスク(第0優先タスク)の処理155gとして実行する。監視カメラで撮影して得た画像情報の映像を見ているマスタからの無線指令で緊急停止指令が入力された場合にも、同様に、先ず、このタスクが起動するように構成すると良いし、制御装置300とは全く別の独立した制御系で緊急停止制御を行なうように構成することでも良い。   In situations where the situation cannot be judged, the emergency stop program will be started at the responsibility of the master, so that the independent surveillance camera can properly capture the surveillance area in any situation. In addition, it is desirable to provide it independently of the autonomous control system. In the pet robot illustrated in FIG. 68, a signal line 153c for notifying the microprocessor 300 that image information is normally transmitted from the wireless device 153b is provided. As a result, when the monitoring video (image information) is not normally output during the autonomous control, the robot can be stopped by operating the emergency stop program. In the flowchart shown in FIG. 70, the process is executed as the process 155g of the task having the highest priority (the 0th priority task) which is higher than the process 155b of the first priority task. Similarly, when an emergency stop command is input as a wireless command from a master watching a video of image information captured by a monitoring camera, first, it may be configured to start this task first. The emergency stop control may be performed by an independent control system that is completely different from the control device 300.

監視カメラから画像情報が正常に出力されていない場合には、自律制御系が正常であっても監視系がダウンしていることから、マスタによって安全監視ができなくなるので、ペットロボットが自ら緊急自動停止するように構成する。画像情報が監視カメラから正常に出ている場合には、マスタが監視しているので、マスタからの緊急停止信号で安全に停止させることができる。監視カメラの画像情報がマスタ側で正常に表示することができなくなった場合には、マスタによる監視ができていないということで、緊急停止させるようにした。無線機153bは、監視カメラ153aで撮影して得た画像情報をマスタ側へ送信し、マスタ側から画像情報が確かに届いたという応答を確認してマイクロプロセッサ300の側へ回線153cを使って正常であることを伝えるように構成することにより、万全な安全対策を施すことが可能となる。あとは、マスタが十分に監視しているかどうかのマスタの運用責任となる。   If the image information is not normally output from the surveillance camera, the surveillance system will be down even if the autonomous control system is normal, so the master will not be able to perform safety monitoring. Configure to stop. When the image information is normally output from the monitoring camera, since the master is monitoring, it can be safely stopped by an emergency stop signal from the master. When the image information of the monitoring camera cannot be displayed normally on the master side, the emergency stop is performed because the monitoring by the master is not possible. The wireless device 153b transmits image information obtained by photographing with the monitoring camera 153a to the master side, confirms a response that the image information has surely arrived from the master side, and uses the line 153c to the microprocessor 300 side. It is possible to take thorough safety measures by composing such that it is normal. After that, it becomes the operation responsibility of the master whether the master is monitoring enough.

自動車の場合には、マスタが同乗している場合には、マスタが自動走行状態を直接監視して、危険な場合には、マニアル運転に切り替えるとか、緊急釦を操作することにより、非常時対応処理(減速して安全に停止するプログラム)が実行されるようにように構成する。また、独立系の監視カメラを搭載し、カーナビやCADデータなどの情報も使って遠隔地で自動走行状態を監視するように構成しても良いし、この監視を自動監視することでも良い。また、マスタが第3者の監視代行機関へ監視業務を委託した場合には、その契約に基づき監視代行機関が責任をもって監視するような運用としても良い。   In the case of a car, if the master is on board, the master directly monitors the automatic driving state, and if it is dangerous, respond to an emergency by switching to manual operation or operating the emergency button. The process (a program that decelerates and stops safely) is executed. In addition, an independent monitoring camera may be mounted so that the automatic running state is monitored remotely using information such as car navigation and CAD data, or this monitoring may be automatically monitored. When the master entrusts monitoring work to a third party monitoring agency, the monitoring agency may be responsible for monitoring based on the contract.

図71は、第79の手段の実施の形態であるホームロボット(図69に示したアーム型ロボット)の制御系のブロック図である。   FIG. 71 is a block diagram of a control system of a home robot (arm type robot shown in FIG. 69) which is an embodiment of the 79th means.

アーム機構156fは、アーム154aと把持用ハンド154cによって構成した機構部であり、この機構部は、壁にかけられるように構成する。また、アーム154aの根本のベースケースの中には制御装置も収納する。この制御装置は、アーム機構156fの動作を制御する制御装置156eを備え、この制御装置156eにどのようにアーム154aを動かし、先端の把持用ハンド154cの位置と姿勢をどのように制御すれば良いかの目標指令を生成するマイクロプロセッサ300に相当する自律制御チップ156dを接続する。撮像装置10であるカメラは、アーム機構156fの先端に取り付け、このカメラ10で撮影して得た画像情報を画像情報処理装置(視覚誘導チップ)100に入力し、自律制御チップ156dは、画像情報処理装置100へ各種環境データの問い合わせなどを行い、その結果を得ることができるように構成する。   The arm mechanism 156f is a mechanism portion configured by the arm 154a and the gripping hand 154c, and this mechanism portion is configured to be hung on a wall. A control device is also housed in the base case of the arm 154a. This control device includes a control device 156e that controls the operation of the arm mechanism 156f, and how to move the arm 154a to the control device 156e and control the position and posture of the gripping hand 154c at the tip. The autonomous control chip 156d corresponding to the microprocessor 300 that generates the target command is connected. The camera that is the imaging device 10 is attached to the tip of the arm mechanism 156f, and image information obtained by photographing with the camera 10 is input to the image information processing device (visual guidance chip) 100. The autonomous control chip 156d It is configured so that various kinds of environmental data can be inquired to the processing apparatus 100 and the results can be obtained.

そして、電源ONかスタート釦が押されると、自律制御チップ156dは、画像情報処理装置100にCADデータを生成させるために、アーム機構156fをいろいろと動かして先端のカメラ10で環境を撮影することにより、周囲の画像情報(環境データ)を生成するように構成する。このとき、アーム機構156fの動作範囲には障害物が存在しないように運用上考慮するように構成するか、自律制御チップ156dによる制御処理によって、最初はアーム機構156fを縮めた姿勢でカメラ10の向きをいろいろ変えて周囲の環境CADデータを生成し、この環境CADデータをチェックして周囲に障害物がないことを確認しながら、アーム機構156fの動作範囲を徐々に広げて広い範囲にカメラ10を移動させるように構成すると良い。   Then, when the power is turned on or the start button is pressed, the autonomous control chip 156d moves the arm mechanism 156f variously to photograph the environment with the tip camera 10 in order to cause the image information processing apparatus 100 to generate CAD data. Thus, it is configured to generate surrounding image information (environment data). At this time, the operation mechanism of the arm mechanism 156f is configured to be considered in operation so that there is no obstacle, or by the control processing by the autonomous control chip 156d, the arm mechanism 156f is initially contracted in a posture in which the camera 10 is contracted. The surrounding environment CAD data is generated in various directions, and the environment CAD data is checked to confirm that there are no obstacles in the surroundings, and the operating range of the arm mechanism 156f is gradually expanded to widen the camera 10 It is good to comprise so that it may move.

アーム機構156fの操作範囲内に衝突する障害物が存在する場合には、それを避けるようにアーム機構156fを動かして、その障害物も含めていろいろな角度からカメラ10でできる限り近くから撮像するようにしてCADデータをできる限り精度良く正確に生成するようにアーム機構156fを制御する。   When there is an obstacle that collides within the operation range of the arm mechanism 156f, the arm mechanism 156f is moved so as to avoid it, and images are taken from various angles including the obstacle as close as possible with the camera 10. In this way, the arm mechanism 156f is controlled so as to generate CAD data as accurately and accurately as possible.

予め家庭内で使用されることを想定して、家庭内に多くある、例えば、テーブル,椅子,踏み台,ビン,缶,バッグなどの標準部品の形状などを探索用CADデータとして登録しておく。テーブルや椅子などは、丸いものや四角いものなど、メーカなどによって形状が異なるので、全メーカの商品サンプルで探索用CADデータを準備しておいても良いが、代表的な形状のものを選抜して登録しておくようにすると良い。マスタ(住人の顔など)は、ユーザ(マスタ)が購入後にCADデータを生成して最初に登録するように構成する。この場合には、環境CADデータを生成させた後に、改めてセッティングしたアーム機構156fの正面にマスタが立っていろいろな角度から撮影させてCADデータを生成させ、それをマスタであると登録するように構成する。このようにすると、先に環境CADデータが生成されているので、新たに追加になったCADデータが新たに登録される名称の物体であるので、環境CADデータとの切り分けを容易に行なうことができる。   The shape of standard parts such as tables, chairs, step stools, bottles, cans, bags, etc., which are often used in the home, are registered as search CAD data. Tables and chairs have round or square shapes that vary from manufacturer to manufacturer. Search CAD data may be prepared using product samples from all manufacturers, but those with representative shapes are selected. It is good to register it. A master (resident's face or the like) is configured such that a user (master) generates CAD data and registers it first after purchase. In this case, after generating the environmental CAD data, the master stands in front of the newly set arm mechanism 156f, and images are taken from various angles to generate the CAD data, which is registered as the master. Constitute. In this way, since the environmental CAD data has been generated first, the newly added CAD data is an object with a newly registered name, so that it can be easily separated from the environmental CAD data. it can.

同様にして、マスタ以外の個々の物品のCADデータも登録していくように構成しても良い。この場合には、最初は、部屋に何もない状況、あるいは見えないようにして部屋だけのCADデータを生成させ、できれば、床,壁,天井などに分けて登録できるようにするのが良い。そして、1つづつ、家具や小物を入れていき、その家具や小物の名前で登録していけば、前の環境と区別しながら新たに追加になった部分を登録部品の名称として対応付けし易くなる。   Similarly, the CAD data of individual articles other than the master may be registered. In this case, at first, it is preferable that CAD data for only the room is generated in a state where there is nothing in the room or is not visible, and if possible, it can be registered separately for floors, walls, ceilings, and the like. If you add furniture and small items one by one and register with the names of the furniture and small items, the newly added part is associated with the registered part name while distinguishing it from the previous environment. It becomes easy.

また、この実施の形態では、マイク156aも把持用ハンド154cの部位に組み込み、マイク156aからの音声情報信号は、音声認識部156bで該音声認識部に予め登録されている言葉と比較して認識することができるように構成している。予め、認識可能な言葉の信号パターンは、製品出荷前に登録しておくように構成する。例えば、家庭に代表的なものの名称とか、前後上下左右の方向に関する言葉とか、把持用ハンド154cで掴むとか,放すとか,引くとか,上げるとか,押すなどのようにロボットの動作制御に関連する言葉は、少なくとも認識できるように登録しておくようにする。それで、例えば、マスタが「テーブルの上の青いコップを取って」と発声した場合には、マイク156aからこの音声信号が入力されるので、少なくとも音声認識部156bは、「テーブル」「の」「上」「の」「コップ」「取って」=「取る」という言葉を認識することができれば、自律制御チップ156dへのコマンド入力として、例えば、「対象物」=「テーブル」「の」「上」「の」「コップ」、「動作指令」=「取る」=「把持」して「マスタの前に移動」という指令を出力することができる。ここで、「取る」という言葉は、命令口調の場合、「取って」以外に「取れ」とか「取ってください」「取ってね」などがあるので、ある程度の語尾の変化も考慮して認識することができるように、全部の言葉を認識することができるように登録しておいて、それらのどれかが入力されたならば「取る」ということばに置き換えて処理することができるようにしておくと良い。   In this embodiment, the microphone 156a is also incorporated in the gripping hand 154c, and the voice information signal from the microphone 156a is recognized by the voice recognition unit 156b in comparison with the words registered in the voice recognition unit in advance. It is configured to be able to. A signal pattern of recognizable words is registered in advance before product shipment. For example, a name representative of a home, a word related to the front / rear / up / down / left / right direction, a word related to the robot motion control such as grasping, releasing, pulling, raising, pushing, etc. with the gripping hand 154c. Is registered so that it can be recognized at least. Thus, for example, when the master utters “take a blue cup on the table”, this voice signal is input from the microphone 156a, so that at least the voice recognition unit 156b performs “table” “no” “ If the words “up”, “no”, “cup”, “take” = “take” can be recognized, for example, “object” = “table” “no” “up” as command input to the autonomous control chip 156d. “No” “Copp”, “Operation command” = “Take” = “Grip” and “Move to Master” command can be output. Here, in the case of the command tone, the word “take” is recognized in consideration of a certain ending change because there are “take”, “please take”, and “take off” in addition to “take”. Register so that all words can be recognized, and if any of them is entered, replace it with the word "take" so that it can be processed It is good to leave.

ここで、自律制御チップ156dへの指令は、先ずは、単純に「対象物体」+「動作の種類」で構成するようにする。動作の種類は、掴むとか上げるとかであり、そのコマンドに対して、「掴む」は「把持用ハンド154cを把持動作させること」、「上げる」は「把持用ハンド154cを現在の位置からより上方へ上げること」などとロボットの動作制御をどうするかという内容と対応させて定義しておくことにより、予め用意した言葉に対してはそれに対応する動作プログラムを準備しておくことができる。「取る」という動作指令は、「把持する」そして「把持しているものをマスタの前に移動する」というように定義しておけば、「取って」という指令で「把持して」「こちらへ移動する」という動作を連続して行なわせることも可能となる。また、自律制御チップ156dへの指令を「対象物体」+「動作の種類」+「動作の形容1」+「動作の形容2」で構成するようにして、「動作の形容1」と「動作の形容2」は、省略可能なオペランドとすることで、例えば、「押す」=「ハンドを移動する」という動作の種類に対して「動作の形容1」=「右へ」、「動作の形容2」=「ゆっくり」という動作の仕方を指示できるようにすれば、今の状態から把持用ハンド154cを右側へゆっくり動作させる制御を行なわせることもできる。それで、自律制御チップ156dが指令を受け取ったならば、アーム機構156fなどを動作させて指令を具体的に実施するようにプログラムを用意する。テーブルの上の青いコップを取る場合には、先ずは、対象物を探索する。「の」で複数の言葉がある場合には最後のことば=「コップ」が対象であるので、ここでは、環境CADデータの中から探索用にコップのデータを読み出して画像情報処理装置100にその位置と姿勢を探索させる。探索結果が複数ある場合には、その中からテーブルの上かどうかを判別(テーブルを探索してテーブルの上面の座標値とカップの座標位置より上にあるものかを判断)したり、青いものを選択(これは探索したCADデータを色を確認して青でないものは対象外として青いコップを選ぶ)することで対象物の位置と姿勢を特定する。ここで、最初にテーブルを探索してその上にあるものを探すように構成しても良いし、予め探索用CADデータに青いコップを指定して青い色とコップという形状の両方がマッチングするものを探索させるようにしても良い。   Here, first, the command to the autonomous control chip 156d is simply composed of “target object” + “type of operation”. The types of movement are grabbing and raising. In response to the command, “grabbing” means “gripping the gripping hand 154c”, and “raising” means “the gripping hand 154c is moved upward from the current position. By defining the correspondence with the content of how to control the operation of the robot and the like, it is possible to prepare an operation program corresponding to the word prepared in advance. If the action command “take” is defined as “gripping” and “moving the object being held in front of the master”, the command “take” “ It is also possible to continuously perform the operation of “move to”. Further, the command to the autonomous control chip 156d is composed of “target object” + “motion type” + “motion description 1” + “motion description 2”, and “motion description 1” and “motion “Description 2 of” is an optional operand. For example, “Description of operation 1” = “To right”, “Description of operation” for the type of operation “Press” = “Move the hand” If it is possible to instruct the operation method of “2” = “slow”, it is possible to control the gripping hand 154c to move slowly to the right from the current state. Therefore, when the autonomous control chip 156d receives a command, a program is prepared so that the arm mechanism 156f or the like is operated to specifically execute the command. When taking a blue cup on the table, first, the object is searched. When there are a plurality of words of “no”, the last word = “cop” is an object, so here, the data of the cup is read out from the environment CAD data for searching and the image information processing apparatus 100 reads the data. Search for position and orientation. If there are multiple search results, it is determined whether it is on the table (search the table to determine whether it is above the coordinate value of the top surface of the table and the coordinate position of the cup) or blue one (This is to identify the position and orientation of the object by checking the color of the searched CAD data and selecting a blue cup as an object that is not blue). Here, the table may be searched first to find what is on it, or a blue cup is specified in advance for the CAD data for search, and both the blue color and the shape of the cup are matched. You may make it search.

次に、把持用ハンド154cの現在位置をCADデータの探索またはカメラの位置と姿勢情報に基づいて入手して、対象のカップの位置と姿勢情報からそこまでのアーム機構156fの移動軌跡と把持用ハンド154cの最終位置決め位置と姿勢を定めて、その軌道に沿って目標位置と姿勢へ把持用ハンドが移動するように、自律制御チップ156dによってアーム機構制御装置156eへ各関節の動作指令にまでブレイクして出力する。このとき、把持用ハンド154cは、開の状態でアクセスする。   Next, the current position of the gripping hand 154c is obtained based on the CAD data search or the camera position and posture information, and the movement locus of the arm mechanism 156f up to that point and the gripping position from the target cup position and posture information. The final positioning position and posture of the hand 154c are determined, and the autonomous control chip 156d breaks up to the operation command of each joint by the autonomous control chip 156d so that the gripping hand moves to the target position and posture along the trajectory. And output. At this time, the gripping hand 154c is accessed in an open state.

次に、把持用ハンド154cを目標とする位置と姿勢、すなわちコップ154eを把持することができる位置へ位置決め完了したならば、把持用ハンド154cでカップ154eを把持し、移動するために少し持ち上げた後に、画像情報処理装置100にマスタの現在位置を探索させてその位置までカップ154eを把持したまま移動するように制御する。それで、「テーブルの上の青いコップを取って!」というマスタの指令に対する動作制御は終了するので、自律制御チップ156dは、正常に終了したことを音声認識・合成156bへ応答する。音声認識・合成156bは、予め用意している応答内容の中から適切なものを選んで、例えば、正常に指令が終了したときには「はい。は〜い。」と応答するように構成しておくことにより、用意してある言葉を音声合成してスピーカ156cより「はい。は〜い。」と発音してマスタへ応答する。また、途中で、どうしても指令実行不可能と判断した場合には、自律制御チップ156dからの応答は、「実行困難」という信号として、その応答を受けて音声認識合成部156bはスピーカ156cから「実行困難です。」という応答を返すように構成する。自律制御チップ156dが実行不可能な原因が分かっていて、その言葉も容易されているような場合には、実行困難な理由も発音してマスタ分かるようにすることができる。   Next, when the gripping hand 154c is positioned to the target position and posture, that is, the position where the cup 154e can be gripped, the cup 154e is gripped by the gripping hand 154c and slightly lifted to move. After that, the image information processing apparatus 100 is made to search for the current position of the master, and control is performed so as to move to the position while holding the cup 154e. Thus, the operation control for the master command “take a blue cup on the table!” Is completed, and the autonomous control chip 156d responds to the speech recognition / synthesis 156b that the operation has been completed normally. The speech recognition / synthesis 156b is configured to select an appropriate response content prepared in advance, and respond, for example, “Yes. As a result, the words that have been prepared are synthesized by voice, and “Yes. On the other hand, when it is determined that the command cannot be executed during the process, the response from the autonomous control chip 156d is “difficult to execute” and the speech recognition / synthesis unit 156b receives the response from the speaker 156c. "It is difficult." If the cause that the autonomous control chip 156d cannot execute is known and the words are also easy, the reason why it is difficult to execute can be pronounced so that the master can be understood.

この実施の形態では、マスタからの指令を音声で入力することができ、マスタは、指令の実行結果を音声で確認することができるので、言葉による命令で容易に自立型ロボットを操作することができる。また、自動車の場合には、行きたい行き先を言えば、そこまで運行して着いたならば「どこそこへ着きました。」と応答してくれる自律制御型自動車となる。また、この音声で指示するシステムは、介護を必要とする人の補助を行なうロボットへ適用すれば、音声指示で指令を与えることができ、応答も音声で確認することができるようになるので、介護を必要とする人が一人でロボットを容易に操作することができるようになる。   In this embodiment, the command from the master can be input by voice, and the master can confirm the execution result of the command by voice. Therefore, the autonomous robot can be easily operated by the command by words. it can. In the case of a car, if you say where you want to go, it will be an autonomously controlled car that responds with "Where have you arrived?" In addition, if this voice instruction system is applied to a robot that assists a person who needs care, a command can be given by voice instruction and a response can be confirmed by voice. A person who needs care can easily operate the robot alone.

この実施の形態において、アーム先端の位置と姿勢情報は、先端のカメラによる撮影と画像情報処理装置100による処理で得ることができるので、例えば、6軸のアーム機構156fであれば、6軸の各関節のエンコーダなどの角度センサを省略して、画像情報処理装置100で得られる先端の位置と姿勢から各6軸の関節角度を計算して各軸のサーボ制御を行ように構成することにより合理的なものとすることができる。また、この場合、最初は、環境CADデータを生成するためにアーム機構156fに多少無駄な動作をさせるようにしたり、各関節の可動端センサを設けて該センサ情報程度を参考にしながらアーム機構156fの制御を行なうようにしても良い。また、この実施の形態は、壁掛式のアーム機構156fであるが、このアーム機構156fは、床面を走行する移動機構や予め各部屋内または複数の部屋間に設置されたレールに沿って移動可能に設置された台車に搭載したものとして、移動範囲をより広く構成しても良い。また、部屋の中で動作するアーム機構156fの本体部は、プラスチック製にすると共に各関節機構も過負荷で滑るように構成することにより、人に当たった場合でも安全に対処することができるようにしておくのが良い。   In this embodiment, the position and orientation information of the arm tip can be obtained by photographing with the camera at the tip and processing by the image information processing apparatus 100. For example, in the case of the six-axis arm mechanism 156f, By omitting angle sensors such as encoders for each joint, and calculating the joint angles for each of the six axes from the position and orientation of the tip obtained by the image information processing apparatus 100, and performing servo control for each axis It can be reasonable. In this case, first, the arm mechanism 156f is caused to perform a somewhat wasteful operation to generate the environmental CAD data, or the arm mechanism 156f is provided while providing a movable end sensor of each joint and referring to the degree of the sensor information. You may make it perform control of. In addition, this embodiment is a wall-hanging type arm mechanism 156f, and this arm mechanism 156f moves along a moving mechanism that travels on the floor surface or a rail that is previously installed in each room or between a plurality of rooms. The moving range may be configured to be wider as the vehicle is mounted on a trolley that can be installed. In addition, the main body of the arm mechanism 156f that operates in the room is made of plastic and each joint mechanism is configured to slide under an overload, so that it is possible to safely cope with a person hitting. It is good to leave.

図72〜図74を参照して第81の手段〜第84の手段の実施の形態を説明する。広範囲で高分解能の撮像装置は、高分解能のCCDセンサと魚眼レンズなどを組み合わせて撮影して生成した画像情報(映像)の歪を補正するように構成することにより実現することができるが、高分解能のCCDセンサの使用は困難であるので、この実施の形態では、比較的簡単に広視野の高分解能カメラ(撮像装置)を実現する手段を提案する。   Embodiments of the 81st means to the 84th means will be described with reference to FIGS. A wide-range, high-resolution imaging device can be realized by correcting the distortion of image information (video) generated by combining a high-resolution CCD sensor and a fisheye lens. Since this CCD sensor is difficult to use, this embodiment proposes a means for realizing a high resolution camera (imaging device) with a wide field of view relatively easily.

図72を参照してその基本構造を説明する。センサ部は、比較的高分解能が得られるCCDラインセンサ157cとレンズ157dを組み合わせて構成した複数組のセンサを組み合わせて構成する。この実施の形態では、一組のセンサで真下から水平までの90°の視野157mが得られるように構成する。このセンサ部は、真下から水平までの範囲を複数のセンサで分担するように構成すれば、1組のセンサの視野を更に狭くすることができるので分解能を上げることができる。CCDラインセンサ157cには、照明手段(例えばLED)をセットで実装しても良い。ステレオ視することができるようにするときには、水平方向に所定の間隔で2セットのラインセンサ157cを設置する。CCDラインセンサ157cからの画像情報信号は、画像処理LSI157iに入力し、マイコン157hからの指令に基づいて映像信号を生成して小形の無線ユニット157jを介して送信出力することができるように構成する。マイコン157hへの指令も無線ユニット157jを介して入力するように構成する。   The basic structure will be described with reference to FIG. The sensor unit is configured by combining a plurality of sets of sensors configured by combining a CCD line sensor 157c and a lens 157d capable of obtaining a relatively high resolution. In this embodiment, a set of sensors is configured to obtain a 90 ° field of view 157m from directly below to the horizontal. If this sensor unit is configured to share a range from directly below to horizontal with a plurality of sensors, the field of view of one set of sensors can be further narrowed, so that the resolution can be increased. The CCD line sensor 157c may be mounted with illumination means (for example, LED) as a set. In order to enable stereoscopic viewing, two sets of line sensors 157c are installed at predetermined intervals in the horizontal direction. The image information signal from the CCD line sensor 157c is input to the image processing LSI 157i, a video signal is generated based on a command from the microcomputer 157h, and can be transmitted and output via the small wireless unit 157j. . A command to the microcomputer 157h is also input via the wireless unit 157j.

ラインセンサ157cとレンズ157dは、マイコン157h,画像処理LSI157i,無線ユニット157jなどと共にモータ部157aで回転できるように支持する。回転部は、軸受157bによって安定に回転することができるように支持する。モータ部157aは、外部電源へ繋がる電源コード157kから受電する。また、モータ部157aの回転を検出する回転センサ157fは、回転するラインセンサ157c側に取り付けて該回転センサ157fから出力する回転情報を画像処理LSI157iへ入力して同期信号として利用する。この回転センサ157fは、光学式エンコーダと同じように固定側に設けたスリットの明暗を電気信号に変換してそのパルス信号を入力するように構成する。回転センサ157fから出力するパルス信号に基づいて回転している位置を検出することができるので、その回転信号に合わせてラインセンサ157cから画像情報信号を出力させて画像処理LSI157iの中の画像メモリに書き込むようにすることにより、メモリ上には1回転したときに360°の画像情報を記録することができる。回転部分を高速回転させて画像情報信号をメモリへ上書きするようにすれば、動画情報も生成することができるようになる。このように、回転センサ157fのパルス信号で画像情報を生成するように構成すれば、モータ部157aの回転速度が多少変動したり、古くなって回転速度が変わっても、常に正常な画像情報をメモリへ書き込むことが可能となる。   The line sensor 157c and the lens 157d are supported so as to be rotated by the motor unit 157a together with the microcomputer 157h, the image processing LSI 157i, the wireless unit 157j, and the like. The rotating portion is supported by the bearing 157b so as to be stably rotated. The motor unit 157a receives power from a power cord 157k connected to an external power source. The rotation sensor 157f that detects the rotation of the motor unit 157a is attached to the rotating line sensor 157c, and the rotation information output from the rotation sensor 157f is input to the image processing LSI 157i and used as a synchronization signal. The rotation sensor 157f is configured to convert the light and darkness of the slit provided on the fixed side into an electric signal and input the pulse signal as in the optical encoder. Since the rotating position can be detected based on the pulse signal output from the rotation sensor 157f, an image information signal is output from the line sensor 157c in accordance with the rotation signal, and the image information is stored in the image memory in the image processing LSI 157i. By writing, 360 ° image information can be recorded on the memory after one rotation. If the image information signal is overwritten in the memory by rotating the rotating portion at a high speed, moving image information can be generated. As described above, when the image information is generated by the pulse signal of the rotation sensor 157f, normal image information is always obtained even if the rotation speed of the motor unit 157a slightly varies or becomes older and the rotation speed changes. It becomes possible to write to the memory.

また、回転部分には、回転することにより発電する回転発電電源157gを設け、モータ部157aが回転するエネルギーの一部を電力に変換して回転部分に取り付けた部品の電力を供給するように構成する。回転発電電源157gの代わりにソーラーバッテリやマイクロ波などで回転部分で該回転部分で必要なエネルギーを発生できるようにすれば構成手段は問わない。   In addition, the rotating portion is provided with a rotating power generation power source 157g that generates electric power by rotating, and a part of the energy rotated by the motor unit 157a is converted into electric power to supply the power of the components attached to the rotating portion To do. Any means may be used as long as the energy required in the rotating part can be generated in the rotating part by a solar battery or microwave instead of the rotating power generation power source 157g.

このように構成することによって、通信用のスリップリングや電源供給ライン用のスリップリングを使用しないで長寿命型で広視野,高分解能の撮像装置を実現することができる。動作磨耗や動作損傷する可能性の高い部分は、回転するモータ部157aと軸受157bだけであり、その他の部分は回転しているものの基本的には駆動部分ではないので、信頼性の高い撮像装置とすることができる。   With this configuration, it is possible to realize a long-life, wide-field, high-resolution imaging device without using a communication slip ring or a power supply line slip ring. The parts that are highly likely to be worn and damaged due to operation are only the rotating motor part 157a and the bearing 157b, and the other parts are rotating but basically not the driving part. It can be.

この実施の形態は、このカメラを吊り下げて下方を撮影する場合を想定しているが、これを上下逆にすれば、下に設置して上方を撮影するように使用することができる。また、水平方向の視野の範囲を更に広くすれば、より広範囲な視野をカバーすることができるようになる。また、真下や真上は撮像しなくとも良ければ、それなりの視野の範囲となるようにラインセンサ157cとレンズ157dを傾けて取り付けるように構成すれば良い。上下を逆にした撮像装置は、自動車の屋根の上とか、運転席の隣の助手席に設置する撮像装置として適切である。また、下方を撮像する吊り下げ形の撮像装置は、飛行船などの下部へ設置したり、街灯に取り付けて上から路上を監視するようなカメラとして好適である。   In this embodiment, it is assumed that the camera is suspended and the lower part is photographed. However, if the camera is turned upside down, the camera can be used as a lower part and photographed upward. Further, if the range of the visual field in the horizontal direction is further widened, a wider field of view can be covered. In addition, if it is not necessary to take an image directly below or directly above, the line sensor 157c and the lens 157d may be mounted so as to be inclined so that the range of the field of view is appropriate. An imaging device that is upside down is suitable as an imaging device that is installed on the roof of an automobile or in a passenger seat next to a driver's seat. Moreover, the hanging type imaging device that images the lower side is suitable as a camera that is installed in the lower part of an airship or attached to a streetlight to monitor the road from above.

また、回転部分に診断センサ157eを設置し、この診断センサ157eから出力する診断信号をマイコン157hへ入力し、主要な構成部分が故障または故障しそうになった場合には、無線ユニット157jから異常警報信号を無線送信することができるように構成して、監視カメラとして使用する撮像装置が故障または故障しそうになった場合に、管理者へ直ぐに知らせることができるように構成すると良い。この診断センサ157eは、回転部分で寿命が心配されるモータ部157aや軸受157bを診断するように構成するのが良いが、画像情報信号が正常に出力されていることを確認できるような診断センサを設けるように構成しても良い。   In addition, a diagnostic sensor 157e is installed in the rotating part, and a diagnostic signal output from the diagnostic sensor 157e is input to the microcomputer 157h. It is preferable to configure so that a signal can be wirelessly transmitted so that an administrator can be immediately notified when an imaging device used as a surveillance camera fails or is about to fail. The diagnostic sensor 157e may be configured to diagnose the motor unit 157a or the bearing 157b whose life is concerned at the rotating portion, but the diagnostic sensor can confirm that the image information signal is normally output. You may comprise so that it may provide.

図73は、画像処理LSI157iの中の画像メモリに書き込んだ画像情報の概念を示している。横軸は、水平方向(回転方向)における基準位置である0°〜360°を示し、縦軸は、真下から水平までの範囲を読み込んで書き込んだ状態を示している。この画像メモリは、高分解能な画像情報を記憶しているので、通信回線の容量によっては、そのまま全部の情報を画像情報信号として出力するのは不都合である場合もあるので、画像情報信号を無線で受け取る側から無線でマイコン157hへどのような形態で画像情報信号を出力すれば良いかを指令できるようにする。通常は、図73に例示した画像情報の全体からデータを間引きして適切な分解能まで落として全部の撮像範囲の画像情報を出力するように構成しておき、マイコン157hへ部分的に場所を指定してその部分を拡大(ズームアップ)した画像情報信号として出力させる指令が与えられときには、間引きしないで該当部分の高分解能な画像情報信号をそのままの解像度で出力するように構成すると良い。例えば、図73のエリア158bが指定されたときには、エリア158bの範囲の画像情報のみを高分解の画像情報信号で出力する。このようにすれば、必要部分だけの情報を詳細に取り出すことができるようになる。勿論、合成処理を適切に行なえば、回転させるCCDラインセンサ157cを2次元のCCDセンサとすることもできる。   FIG. 73 shows the concept of the image information written in the image memory in the image processing LSI 157i. The horizontal axis indicates 0 ° to 360 °, which is a reference position in the horizontal direction (rotation direction), and the vertical axis indicates a state in which a range from right below to horizontal is read and written. Since this image memory stores high-resolution image information, it may be inconvenient to output all information as an image information signal as it is depending on the capacity of the communication line. From the receiving side, it is possible to instruct the microcomputer 157h in what form the image information signal should be output. Normally, it is configured so that data is thinned out from the entire image information illustrated in FIG. 73 to a suitable resolution and image information of the entire imaging range is output, and a location is partially specified to the microcomputer 157h. When a command for outputting the image information signal as an enlarged (zoomed-up) image information signal is given, the high-resolution image information signal of the corresponding portion may be output at the same resolution without being thinned out. For example, when the area 158b in FIG. 73 is designated, only the image information within the area 158b is output as a high resolution image information signal. In this way, it is possible to extract only the necessary part in detail. Of course, if the combining process is appropriately performed, the rotated CCD line sensor 157c can be a two-dimensional CCD sensor.

図74は、図72および図73を参照して説明した実施の形態を更に発展させて構成した視覚情報処理装置であり、回転部分に画像情報処理装置100および記憶装置200を搭載した実施の形態である。画像情報処理装置100は、画像処理LSI157iから出力される画像情報を入力してCADデータを生成して記憶装置200に記憶させる構成である。   FIG. 74 is a visual information processing apparatus constructed by further developing the embodiment described with reference to FIGS. 72 and 73, and an embodiment in which the image information processing apparatus 100 and the storage device 200 are mounted on the rotating portion. It is. The image information processing apparatus 100 is configured to input image information output from the image processing LSI 157 i, generate CAD data, and store the CAD data in the storage device 200.

この視覚情報処理装置を車などに搭載して移動させることにより、ラインセンサ157cとレンズ157dを回転させて広い範囲の環境を高分解能で撮影して画像情報を生成し、画像情報処理装置100によって環境CADデータを生成して記憶装置100に蓄積することができる。マイコン157hから画像情報処理装置100への信号ライン159aは、画像情報処理装置100で実行するCADデータの生成やCADデータの探索処理やマッチング処理やCADデータの中の検索対象を追跡するような処理やその結果を無線出力させる処理をマイコン157hから指令する信号ラインである。   By moving this visual information processing apparatus mounted on a car or the like, the line sensor 157c and the lens 157d are rotated to capture a wide range of environments with high resolution, and image information is generated. Environmental CAD data can be generated and stored in the storage device 100. The signal line 159a from the microcomputer 157h to the image information processing apparatus 100 is a process for generating CAD data executed by the image information processing apparatus 100, a search process for CAD data, a matching process, and a process for tracking a search target in the CAD data. And a signal line for instructing from the microcomputer 157h a process for outputting the result wirelessly.

この視覚情報処理装置において、画像情報処理装置100と記憶装置200は、必ずしも回転部分に搭載する必要はなく、静止部分に設置し、無線ユニット157jから送信出力される画像情報信号を受信して画像情報処理装置100へ入力するように構成しても良い。   In this visual information processing device, the image information processing device 100 and the storage device 200 do not necessarily have to be mounted on the rotating portion, but are installed on the stationary portion, and receive an image information signal transmitted from the wireless unit 157j to receive an image. You may comprise so that it may input into the information processing apparatus 100. FIG.

また、このように画像情報処理装置100と記憶装置200を内蔵した視覚情報処理装置に図72を参照して説明した撮像装置を組み合わせ、複数の画像情報を総合的に処理して環境をCADデータ化するように構成しても良い。この構成は、ステレオ視に構成したラインセンサを回転させるよりもラインセンサの間隔を広く取ることができるので、遠くの3D計測精度をより良くすることができる。   In addition, the imaging apparatus described with reference to FIG. 72 is combined with the visual information processing apparatus incorporating the image information processing apparatus 100 and the storage device 200 as described above, and a plurality of pieces of image information are comprehensively processed to convert the environment into CAD data. You may comprise so that it may become. In this configuration, the distance between the line sensors can be set wider than when the line sensor configured for stereo vision is rotated, so that it is possible to improve the 3D measurement accuracy far away.

図75を参照して第85の手段および第86の手段の実施の形態を説明する。この実施の形態は、視覚情報処理装置(端末)を搭載した複数の自動車が全国の道路網を任意に走り回って環境を撮影して得た画像情報に基づいて生成した環境CADデータを中央情報処理センタに送信し、中央情報処理センターでは、各端末から受信した環境CADデータを統合処理して全国的な環境CADデータを生成し、各端末からの要求に応じて該端末に配信するサービスシステムである。   An embodiment of the 85th means and the 86th means will be described with reference to FIG. In this embodiment, environmental CAD data generated based on image information obtained by photographing a plurality of automobiles equipped with visual information processing devices (terminals) arbitrarily traveling around a nationwide road network is centrally processed. In the central information processing center, an environmental CAD data received from each terminal is integrated to generate nationwide environmental CAD data, and distributed to the terminal in response to a request from each terminal. is there.

撮像装置と画像情報処理装置を備えた端末(視覚情報処理装置)160a〜160cを搭載した複数の自動車が全国の町中を任意に走行しながら各端末160a〜160cが周囲を撮像して得た画像情報に基づいてCADデータを生成して中央情報処理センタ160eに無線送信し、中央情報処理センタ160eは、受信したCADデータを統合処理することにより、全国の道路網の周辺のCADデータを生成する。また、各端末160a,160b,160cは、現在の情報(主として、位置や姿勢情報)も中央情報処理センタ160eに送信する。そして、中央情報処理センタ160eは、統合して生成した環境CADデータや他の端末の情報を各端末からの要求に応じて該端末160a〜160cに配信する。ここで、端末160a〜160cとして前述した視覚情報処理装置を使用すれば、CADデータを容易に生成および統合することができるようになる。   A plurality of vehicles equipped with terminals (visual information processing devices) 160a to 160c equipped with an imaging device and an image information processing device were obtained by imaging each of the terminals 160a to 160c while arbitrarily driving around towns throughout the country. Based on the image information, CAD data is generated and wirelessly transmitted to the central information processing center 160e, and the central information processing center 160e generates CAD data around the national road network by integrating the received CAD data. To do. Each terminal 160a, 160b, 160c also transmits current information (mainly position and orientation information) to the central information processing center 160e. Then, the central information processing center 160e distributes the environment CAD data and other terminal information generated by integration to the terminals 160a to 160c in response to requests from the respective terminals. Here, if the visual information processing apparatus described above is used as the terminals 160a to 160c, CAD data can be easily generated and integrated.

このシステムのサービス料は、各端末(ユーザ)160a〜160cを登録制にして月会費や年会費として徴収する方法や、統合したCADデータの利用時間とか利用データ量で料金を加算して徴収する方法を採用することができる。   Service fees for this system are collected by adding each terminal (user) 160a-160c as a monthly fee or annual fee, or by adding fees based on the usage time or amount of data used for integrated CAD data. The method can be adopted.

また、このシステムは、視覚情報処理装置の端末をもたないユーザであっても、パソコンなどの端末160dからインターネットなどを介して中央情報処理センタ160eにアクセスし、統合されたCADデータを有償で利用することができるように構成することができる。また、CDなどの記録媒体を使用して統合したCADデータをユーザへ供給するようにすることもできる。   In addition, this system allows a user who does not have a terminal of a visual information processing apparatus to access the central information processing center 160e from a terminal 160d such as a personal computer via the Internet or the like and charge integrated CAD data for a fee. It can be configured to be used. Further, CAD data integrated using a recording medium such as a CD can be supplied to the user.

図76を参照して第87の手段および第88の手段の実施の形態を説明する。この実施の形態は、環境監視サービスシステムである。   An embodiment of the 87th means and the 88th means will be described with reference to FIG. This embodiment is an environment monitoring service system.

街灯161aなどに監視カメラ161bを設置する。この監視カメラ161bは、図72を参照して説明した広い範囲を高分解能で撮影することができる撮像装置であることが望ましい。監視カメラ161bは、撮影して生成した画像情報を無線通信で監視センタ161gへ送信することができるように構成する。無線通信手段は、携帯電話の回線を使用して構成することにより、監視カメラ161bで撮影した画像情報を電話会社161eとネットワーク回線161fを介して監視センタ161gに送ることができるようにする。   A monitoring camera 161b is installed on a streetlight 161a or the like. The monitoring camera 161b is desirably an imaging device that can capture the wide range described with reference to FIG. 72 with high resolution. The monitoring camera 161b is configured to transmit image information generated by photographing to the monitoring center 161g by wireless communication. The wireless communication means is configured to use a mobile phone line, so that image information captured by the monitoring camera 161b can be sent to the monitoring center 161g via the telephone company 161e and the network line 161f.

監視サービスを求めるユーザは、例えばPHSや携帯電話で監視センタ161gへ監視サービス(監視サービスON)を申し込むように構成する。監視センタ161gは、携帯電話やPHSの通信経路を参照してユーザの位置の概略を求めた後に監視カメラ161bからの画像情報に基づく映像を使ってユーザを特定し、このユーザの環境を撮影して安全性を監視するサービスである。ユーザが移動すれば、それに追従して撮像領域を移動する。ユーザの追跡は、画面(画像情報)上で捕らえたユーザの画像情報を画像処理して自動追跡で行なうように構成する。複数の監視カメラ161bの撮像領域にまたがってユーザが移動する場合には、両方の監視カメラ161bの画像情報で重複して監視する状態が生じても連続して監視することができるように構成する。   The user who requests the monitoring service is configured to apply for the monitoring service (monitoring service ON) to the monitoring center 161g by, for example, PHS or a mobile phone. The monitoring center 161g obtains an outline of the position of the user by referring to the communication path of the mobile phone or the PHS, identifies the user using the video based on the image information from the monitoring camera 161b, and shoots the environment of the user. It is a service that monitors safety. If the user moves, the imaging area is moved following the movement. The tracking of the user is configured to perform automatic tracking by processing the image information of the user captured on the screen (image information). In the case where the user moves across the imaging areas of the plurality of monitoring cameras 161b, it is possible to continuously monitor even when a state of overlapping monitoring occurs in the image information of both the monitoring cameras 161b. .

このように構成することで、ユーザが不審者161dから危害を受けそうになった場合には、監視センタ161gから警察へ通報するとか、監視カメラ161bに併設したスピーカから不審者161dに警告して、危害が加えられるのを未然に防止することができるようにする。危害を受けたような場合には、そのときの画像情報を監視センター161gに記録しておくことにより、危害を加えた不審者を特定するときに参照することができる。   With this configuration, when the user is likely to be harmed by the suspicious person 161d, the monitoring center 161g notifies the police or warns the suspicious person 161d from the speaker attached to the monitoring camera 161b. , So that harm can be prevented in advance. In the case of being injured, the image information at that time is recorded in the monitoring center 161g, so that it can be referred to when identifying the suspicious person who has done the harm.

ユーザが、図65を参照して説明したようなウエラブルな監視カメラを身につけ、その監視カメラで撮影して得た画像情報を監視センタ161gに送って監視サービスを受けられるように構成すれば、監視カメラが設置されていない場所でも監視サービスを受けることができるようになる。   If the user wears a wearable surveillance camera as described with reference to FIG. 65 and is configured to receive the surveillance service by sending image information obtained by photographing with the surveillance camera to the surveillance center 161g, A monitoring service can be received even in a place where a surveillance camera is not installed.

この監視サービスシステムは、前述した視覚情報処理装置を使用して生成した3次元のCADデータの時系列の変化情報として記録するように構成すれば、より正確に現場の状況を監視したり、不審者を特定するための情報を提供することが可能になる。   If this monitoring service system is configured to record the time-series change information of the three-dimensional CAD data generated by using the visual information processing apparatus described above, the situation of the site can be more accurately monitored or suspicious. It is possible to provide information for identifying a person.

サービス料金は、サービス時間と連動するように電話の通話量として徴収する方法や会費制として徴収する方法を採用することができる。   The service fee can be collected as a telephone call volume linked to the service time or as a membership fee system.

以上のように、本発明によれば、撮像装置を移動させながら撮影して得た画像情報に基づいてCADデータを生成し、既成のCADデータと同一の対象部分について精度の高いCADデータが生成されたときには該既成のCADデータを新成CADデータで更新するように構成しているので、最初に複数枚の写真の中の対応する特徴点を人が入力設定しないで済むようにしたり、テクスチャマッピングをしないで正確なCADデータを生成させることや、最初はそれなりの精度でCADデータを生成させて最初からロボットなどの制御に利用することができるようにすることや、複数の撮像装置で撮影して得た画像情報に基づいて生成したCADデータを統合させることが容易にできるようになり、更に、アズビルトのCADデータを生成したのちに、あるいは生成しながら、任意のCADデータを探索させる機能と組み合わせて、ロボット等自動機械の視覚誘導制御装置や自動車などのナビゲーションシステムに適用することや、自律制御型ロボットなどに適用することなども容易に行なえるようになる。すなわち、アズビルト3D−CADデータをリアルタイムで自動生成可能とし、また、CADデータの探索機能と組み合わせて、ロボット等の各種自動機械の視覚誘導制御装置として、また、ナビゲーションシステムなどとして適用可能な視覚情報処理装置及びその応用システムを得ることができる。   As described above, according to the present invention, CAD data is generated based on image information obtained by moving an image pickup apparatus, and highly accurate CAD data is generated for the same target portion as the existing CAD data. Since the existing CAD data is updated with the new CAD data, it is not necessary for the person to input and set the corresponding feature points in the plurality of photos at first. It is possible to generate accurate CAD data without mapping, to generate CAD data with a certain degree of accuracy at first, and to be able to use it for control of robots from the beginning, or to shoot with multiple imaging devices CAD data generated based on the obtained image information can be easily integrated, and further, as-built CAD data is generated. Applying it to a visual guidance control device of an automatic machine such as a robot, a navigation system of an automobile, etc., or applying it to an autonomous control robot, etc. Etc. can be easily performed. In other words, as-built 3D-CAD data can be automatically generated in real time, and in combination with a CAD data search function, the visual information can be applied as a visual guidance control device for various automatic machines such as robots, and as a navigation system. A processing apparatus and its application system can be obtained.

本発明の視覚情報処理装置における第1の手段および第2の手段の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the 1st means and the 2nd means in the visual information processing apparatus of this invention. 本発明の視覚情報処理装置における第3の手段および第4の手段の基本構成を示すブロック図である。It is a block diagram which shows the basic composition of the 3rd means and the 4th means in the visual information processing apparatus of this invention. 第3の手段および第4の手段を実現する画像情報処理装置の処理の基本的な流れを示すフローチャートである。It is a flowchart which shows the basic flow of a process of the image information processing apparatus which implement | achieves a 3rd means and a 4th means. 図3に示した処理(1)の内容を例示する図面である。It is drawing which illustrates the content of the process (1) shown in FIG. 図3に示した処理(2)の内容を例示する図面である。It is drawing which illustrates the content of the process (2) shown in FIG. 図3に示した処理(3)の内容を例示する図面である。It is drawing which illustrates the content of the process (3) shown in FIG. 図3に示した処理(4)の内容を例示する図面である。It is drawing which illustrates the content of the process (4) shown in FIG. 図3に示した処理(5)の内容を例示する図面である。It is drawing which illustrates the content of the process (5) shown in FIG. CADデータとして生成される浮遊線分の活用の概念を示す図である。It is a figure which shows the concept of utilization of the floating line segment produced | generated as CAD data. 円筒や球体のCADデータとして生成される浮遊線分の活用の概念を示す図である。It is a figure which shows the concept of utilization of the floating line segment produced | generated as CAD data of a cylinder or a sphere. 特殊曲面のCADデータとしての定義の一例を示す図である。It is a figure which shows an example of the definition as CAD data of a special curved surface. 本発明の第1の手段,第2の手段,第3の手段においてCADデータを更新する場合の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment in the case of updating CAD data in the 1st means, 2nd means, and 3rd means of this invention. 本発明の第5の手段の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment of the 5th means of this invention. 本発明の第8の実施の形態における色情報を用いて輪郭を抽出する概念図である。It is a conceptual diagram which extracts an outline using the color information in the 8th Embodiment of this invention. 本発明の第13の手段〜第18の手段の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment of the 13th means-18th means of this invention. 本発明の第13の手段〜第18の手段の実施の形態を示す概念図である。It is a conceptual diagram which shows embodiment of the 13th means-18th means of this invention. 本発明における鏡面判別処理のフローチャートである。It is a flowchart of the mirror surface discrimination | determination process in this invention. 図17に示した鏡面判別処理によって判別することができる内容を示す図である。It is a figure which shows the content which can be discriminate | determined by the mirror surface discrimination | determination process shown in FIG. 本発明の第19の手段〜第21の手段の実施の形態を説明する画像情報である。It is the image information explaining embodiment of the 19th means-the 21st means of the present invention. 本発明の第22の手段〜第26の手段の実施の形態を示すブロック図である。It is a block diagram which shows embodiment of the 22nd means-26th means of this invention. 本発明の第27の手段〜第29の実施の形態を示すブロック図である。It is a block diagram which shows the 27th means-29th Embodiment of this invention. 本発明の第27の手段〜第29の他の実施の形態を示すブロック図である。It is a block diagram which shows 27th means-29th other embodiment of this invention. 本発明の第27の手段〜第29の手段の更に他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the 27th means-29th means of this invention. 本発明の第27の手段〜第29の手段の更に他の実施の形態を示すブロック図である。It is a block diagram which shows other embodiment of the 27th means-29th means of this invention. 本発明の第27の手段〜第29の手段をロボット制御専用の視覚情報処理装置として実施する場合の視覚情報処理装置の処理の実施の形態を示すフローチャートである。It is a flowchart which shows embodiment of a process of the visual information processing apparatus in the case of implementing the 27th means-29th means of this invention as a visual information processing apparatus only for robot control. 本発明の第30の手段、第33の手段、第34の手段および第39の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 30th means, 33rd means, 34th means, and 39th means of this invention. 本発明の第30の手段、第33の手段、第34の手段および第39の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 30th means, 33rd means, 34th means, and 39th means of this invention. 本発明の第31の手段および第32の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 31st means and 32nd means of this invention. 本発明の第35の手段〜第38の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 35th means-38th means of this invention. 本発明の第35の手段〜第38の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 35th means-38th means of this invention. 本発明の第35の手段〜第38の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 35th means-38th means of this invention. 本発明の第35の手段〜第38の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 35th means-38th means of this invention. 本発明の第40の手段および第41の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 40th means and 41st means of this invention. 本発明の第42の手段の実施の形態である視覚情報処理装置のブロック図である。It is a block diagram of the visual information processing apparatus which is the embodiment of the forty-second means of the present invention. 本発明の第43の手段〜第50の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 43rd means-50th means of this invention. 本発明の第43の手段〜第50の実施の形態における表示画面である。It is a display screen in the 43rd means-50th embodiment of this invention. 本発明の第51の手段の実施の形態である視覚情報処理システムの基本的な構成を示すブロック図である。It is a block diagram which shows the basic composition of the visual information processing system which is embodiment of the 51st means of this invention. 図37に示した視覚情報処理システムにおける移動情報取得のためのCADデータの概念図である。It is a conceptual diagram of CAD data for movement information acquisition in the visual information processing system shown in FIG. 図37に示した視覚情報処理システムにおける移動情報取得のためのCADデータの概念図である。It is a conceptual diagram of CAD data for movement information acquisition in the visual information processing system shown in FIG. 図37に示した視覚情報処理システムにおける移動情報取得のためのCADデータの概念図である。It is a conceptual diagram of CAD data for movement information acquisition in the visual information processing system shown in FIG. 図37に示した視覚情報処理システムにおける移動情報取得のためのCADデータの概念図である。It is a conceptual diagram of CAD data for movement information acquisition in the visual information processing system shown in FIG. 本発明の第52の手段の実施の形態である移動作業車の模式図である。It is a schematic diagram of the mobile work vehicle which is embodiment of the 52nd means of this invention. 本発明の第53の手段および第54の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 53rd means and 54th means of this invention. 本発明の第55の手段〜第57の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 55th means-57th means of this invention. 本発明の第58の手段の実施の形態である視覚情報処理装置のブロック図である。It is a block diagram of the visual information processing apparatus which is the embodiment of the 58th means of the present invention. 図45に示した実施の形態における視覚誘導チップが実行するメイン処理のフローチャートである。It is a flowchart of the main process which the visual guidance chip | tip in embodiment shown in FIG. 45 performs. 図45に示した実施の形態における視覚誘導チップが実行するメイン処理のフローチャートである。It is a flowchart of the main process which the visual guidance chip | tip in embodiment shown in FIG. 45 performs. 図47に示した処理(2)における3D座標計算,CADデータ生成処理の詳細なフローチャートである。48 is a detailed flowchart of 3D coordinate calculation and CAD data generation processing in processing (2) shown in FIG. 47. 図48に示した処理(4)と処理(9)の3D−CAD生成処理における追加生成処理の詳細なフローチャートである。49 is a detailed flowchart of additional generation processing in the 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 48. 図48に示した処理(4)と処理(9)の3D−CAD生成処理における点データ更新処理の詳細なフローチャートである。49 is a detailed flowchart of a point data update process in the 3D-CAD generation process of the process (4) and the process (9) shown in FIG. 48. 図48に示した処理(4)と処理(9)の3D−CAD生成処理における線分データの更新および追加処理の詳細なフローチャートである。49 is a detailed flowchart of line segment data update and addition processing in the 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 48. 図48に示した処理(4)と処理(9)の3D−CAD生成処理における面データの更新および追加処理の詳細なフローチャートである。49 is a detailed flowchart of surface data update and addition processing in the 3D-CAD generation processing of processing (4) and processing (9) shown in FIG. 48. 図49〜図52に示した3D−CADデータ生成処理におけるデータ更新の概念図である。FIG. 53 is a conceptual diagram of data update in the 3D-CAD data generation process shown in FIGS. 49 to 52. 図49〜図52に示した3D−CADデータ生成処理における新規なデータの生成と更新の概念を一般的な図形の生成と更新の概念に当てはめて描いた図である。FIG. 53 is a diagram depicting the concept of generation and update of new data in the 3D-CAD data generation process shown in FIGS. 49 to 52 by applying it to the concept of generation and update of general graphics. 本発明の第59の手段の実施の形態である移動作業車の模式図である。It is a schematic diagram of the mobile work vehicle which is an embodiment of the 59th means of the present invention. 本発明の第60の手段の実施の形態である視覚情報処理システムの模式図である。It is a schematic diagram of the visual information processing system which is an embodiment of the 60th means of the present invention. 本発明の第61の手段および第62の手段の実施の形態であるマニピュレータの模式図である。It is a schematic diagram of the manipulator which is embodiment of the 61st means and 62nd means of this invention. 本発明の第62の手段の実施の形態である水中ROVの模式図である。It is a schematic diagram of underwater ROV which is an embodiment of the 62nd means of the present invention. 本発明の第62の手段の実施の形態である自動掃除機の模式図である。It is a schematic diagram of the automatic cleaner which is embodiment of the 62nd means of this invention. 本発明の第63の手段の実施の形態である文字読み取り装置の模式図である。It is a schematic diagram of the character reader which is embodiment of the 63rd means of this invention. 本発明の第64の手段〜第66の手段である3次元計測装置の模式図である。It is a schematic diagram of the three-dimensional measuring apparatus which is the 64th means-the 66th means of this invention. 本発明の第67の手段の実施の形態を説明する概念図である。It is a conceptual diagram explaining embodiment of the 67th means of the present invention. 本発明の第68の手段の実施の形態であるナビゲーション装置を説明する概念図である。It is a conceptual diagram explaining the navigation apparatus which is embodiment of the 68th means of this invention. 本発明の第69の手段の実施の形態であるカーナビゲーション装置におけるLCDモニタの表示画面である。It is a display screen of the LCD monitor in the car navigation apparatus which is the 69th embodiment of the present invention. 歩行者が装着するナビゲーション装置の実施の形態を説明する模式図である。It is a schematic diagram explaining embodiment of the navigation apparatus with which a pedestrian wears. 本発明の第70の手段の実施の形態であるピッキングシステムのブロック図である。It is a block diagram of the picking system which is an embodiment of the 70th means of the present invention. 本発明の第71の手段および第72の手段の実施の形態である検査装置の模式図である。It is a schematic diagram of the inspection apparatus which is embodiment of the 71st means and 72nd means of this invention. 本発明の第73の手段〜第79の手段の実施の形態であるホームロボットのブロック図である。It is a block diagram of a home robot which is an embodiment of the 73rd means to the 79th means of the present invention. 本発明の第73の手段〜第79の手段の実施の形態であるホームロボットの模式図である。It is a schematic diagram of the home robot which is embodiment of the 73rd means-the 79th means of this invention. 図68に示したペットロボットのマイクロプロセッサが実行する自律制御処理のフローチャートである。FIG. 69 is a flowchart of an autonomous control process executed by a microprocessor of the pet robot shown in FIG. 68. 図69に示したホームロボットのブロック図である。FIG. 70 is a block diagram of the home robot shown in FIG. 69. 本発明の第80の手段〜第84の手段の実施の形態である撮像装置の模式図である。It is a schematic diagram of the imaging device which is embodiment of the 80th means-84th means of this invention. 図72に示した撮像装置の画像メモリに書き込んだ画像情報の概念図である。FIG. 73 is a conceptual diagram of image information written in an image memory of the imaging apparatus shown in FIG. 72. 本発明の第80の手段〜第84の手段の実施の形態である視覚情報処理装置の模式図である。It is a schematic diagram of the visual information processing apparatus which is an embodiment of the 80th to 84th means of the present invention. 本発明の第85の手段と第86の手段の実施の形態であるサービスシステムの模式図である。It is a schematic diagram of the service system which is embodiment of the 85th means and the 86th means of this invention. 本発明の第87の手段および第88の手段の実施の形態である環境監視サービスシステムの模式図である。It is a schematic diagram of the environmental monitoring service system which is an embodiment of the 87th means and 88th means of the present invention.

符号の説明Explanation of symbols

10,10a,10b,20…撮像装置(カメラ)、30…加速度センサ、40…ジャイロセンサ、100,120a,120b,120c…画像情報処理装置、200…記憶装置。   10, 10a, 10b, 20 ... imaging device (camera), 30 ... acceleration sensor, 40 ... gyro sensor, 100, 120a, 120b, 120c ... image information processing device, 200 ... storage device.

Claims (4)

自律制御型ロボットにおいて、
自律制御系とは別の独立系統によって該ロボットの動作の安全性を監視できるようにしたことを特徴とする自律制御型ロボット。
In autonomous control robots,
An autonomous control robot characterized in that the safety of the operation of the robot can be monitored by an independent system different from the autonomous control system.
自律制御型ロボットの制御装置において、
自律制御系とは別の独立系統によって該ロボットの動作の安全性を監視できるようにしたことを特徴とする自律制御型ロボットの制御装置。
In the control device for autonomous control robots,
A control apparatus for an autonomous control type robot, wherein the safety of operation of the robot can be monitored by an independent system different from the autonomous control system.
自律制御型ロボットにおいて、
ロボットの安全監視中に緊急対応が必要となった場合に自律制御系とは別の独立系統によって該ロボットの緊急対応制御を行なうことができるようにしたことを特徴とする自律制御型ロボット。
In autonomous control robots,
An autonomous control robot characterized in that emergency response control of a robot can be performed by an independent system different from the autonomous control system when emergency response is required during safety monitoring of the robot.
自律制御型ロボットの制御装置において、
ロボットの安全監視中に緊急対応が必要となった場合に自律制御系とは別の独立系統によって該ロボットの緊急対応制御を行なうことができるようにしたことを特徴とする自律制御型ロボットの制御装置。
In the control device for autonomous control robots,
Control of an autonomously controlled robot characterized in that emergency response control of the robot can be performed by an independent system different from the autonomous control system when emergency response is required during safety monitoring of the robot apparatus.
JP2006258168A 2006-09-25 2006-09-25 Autonomous control type robot and its control device Pending JP2007098567A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006258168A JP2007098567A (en) 2006-09-25 2006-09-25 Autonomous control type robot and its control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006258168A JP2007098567A (en) 2006-09-25 2006-09-25 Autonomous control type robot and its control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002368134A Division JP3965686B2 (en) 2002-12-19 2002-12-19 Visual information processing apparatus and application system

Publications (1)

Publication Number Publication Date
JP2007098567A true JP2007098567A (en) 2007-04-19

Family

ID=38026004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006258168A Pending JP2007098567A (en) 2006-09-25 2006-09-25 Autonomous control type robot and its control device

Country Status (1)

Country Link
JP (1) JP2007098567A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011115897A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
WO2012160901A1 (en) * 2011-05-25 2012-11-29 ソニー株式会社 Robot device, control method for robot device, computer program, and program storage medium
JP2014102775A (en) * 2012-11-22 2014-06-05 Fujitsu Ltd Image processing device, image processing method, and image processing program
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program
JP2014197386A (en) * 2013-03-08 2014-10-16 キヤノン株式会社 Image processing apparatus and image processing method
JP2018091656A (en) * 2016-11-30 2018-06-14 キヤノン株式会社 Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
JP2020041862A (en) * 2018-09-07 2020-03-19 倉敷紡績株式会社 Band-like object three-dimensional measurement method and band-like object three-dimensional measurement device
JP2020097415A (en) * 2014-09-30 2020-06-25 Case特許株式会社 Automatic drive control device and vehicle
CN111844025A (en) * 2020-07-02 2020-10-30 上海发那科机器人有限公司 Device and method for recording visual data of glue coating robot
CN112672859A (en) * 2018-09-03 2021-04-16 仓敷纺绩株式会社 Method for determining working position of strip-shaped object, robot control method, device for determining working position of strip-shaped object, strip-shaped object processing system, method for three-dimensionally measuring strip-shaped object, and device for three-dimensionally measuring strip-shaped object
US11657506B2 (en) 2019-03-06 2023-05-23 General Electric Company Systems and methods for autonomous robot navigation

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983487B2 (en) 2007-11-07 2011-07-19 Mitsubishi Electric Research Laboratories, Inc. Method and system for locating and picking objects using active illumination
JP2011115897A (en) * 2009-12-03 2011-06-16 Honda Motor Co Ltd Robot
JP2011179908A (en) * 2010-02-26 2011-09-15 Canon Inc Three-dimensional measurement apparatus, method for processing the same, and program
JP2012245570A (en) * 2011-05-25 2012-12-13 Sony Corp Robot device, control method for robot device, computer program, and program storage medium
US10421190B2 (en) 2011-05-25 2019-09-24 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US11014245B2 (en) 2011-05-25 2021-05-25 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US10675764B2 (en) 2011-05-25 2020-06-09 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US11794351B2 (en) 2011-05-25 2023-10-24 Sony Group Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US9358690B2 (en) 2011-05-25 2016-06-07 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US11000954B2 (en) 2011-05-25 2021-05-11 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
US9802320B2 (en) 2011-05-25 2017-10-31 Sony Corporation Robot device, method of controlling robot device, computer program, and program storage medium
WO2012160901A1 (en) * 2011-05-25 2012-11-29 ソニー株式会社 Robot device, control method for robot device, computer program, and program storage medium
JP2014102775A (en) * 2012-11-22 2014-06-05 Fujitsu Ltd Image processing device, image processing method, and image processing program
JPWO2014102995A1 (en) * 2012-12-28 2017-01-12 株式会社日立製作所 Information recording medium storing monitoring system, method and program
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program
JP2014197386A (en) * 2013-03-08 2014-10-16 キヤノン株式会社 Image processing apparatus and image processing method
JP2020097415A (en) * 2014-09-30 2020-06-25 Case特許株式会社 Automatic drive control device and vehicle
JP2018091656A (en) * 2016-11-30 2018-06-14 キヤノン株式会社 Information processing apparatus, measuring apparatus, system, calculating method, program, and article manufacturing method
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
CN112672859A (en) * 2018-09-03 2021-04-16 仓敷纺绩株式会社 Method for determining working position of strip-shaped object, robot control method, device for determining working position of strip-shaped object, strip-shaped object processing system, method for three-dimensionally measuring strip-shaped object, and device for three-dimensionally measuring strip-shaped object
JP7177639B2 (en) 2018-09-07 2022-11-24 倉敷紡績株式会社 Three-dimensional measurement method for belt-shaped object and three-dimensional measurement device for belt-shaped object
JP2020041862A (en) * 2018-09-07 2020-03-19 倉敷紡績株式会社 Band-like object three-dimensional measurement method and band-like object three-dimensional measurement device
US11657506B2 (en) 2019-03-06 2023-05-23 General Electric Company Systems and methods for autonomous robot navigation
CN111844025A (en) * 2020-07-02 2020-10-30 上海发那科机器人有限公司 Device and method for recording visual data of glue coating robot
CN111844025B (en) * 2020-07-02 2024-04-16 上海发那科机器人有限公司 Device and method for recording visual data of gluing robot

Similar Documents

Publication Publication Date Title
JP2007098567A (en) Autonomous control type robot and its control device
CN111897332B (en) Semantic intelligent substation robot humanoid inspection operation method and system
JP3965686B2 (en) Visual information processing apparatus and application system
WO2020223974A1 (en) Method for updating map and mobile robot
JP2006003263A (en) Visual information processor and application system
CN106092104B (en) A kind of method for relocating and device of Indoor Robot
CN109643127A (en) Construct map, positioning, navigation, control method and system, mobile robot
CN103869814B (en) Terminal positioning and navigation method and mobile terminal
CN109460029A (en) Livestock and poultry cultivation place inspection mobile platform and its control method
WO2016184255A1 (en) Visual positioning device and three-dimensional mapping system and method based on same
CN109828658B (en) Man-machine co-fusion remote situation intelligent sensing system
CN106289285A (en) Map and construction method are scouted by a kind of robot associating scene
CN106162144A (en) A kind of visual pattern processing equipment, system and intelligent machine for overnight sight
CN109521767A (en) Independent navigation robot system
CN113116224A (en) Robot and control method thereof
CN109222772A (en) A kind of full-automatic sweeping robot of outdoor multimedia
Nickerson et al. The ARK project: Autonomous mobile robots for known industrial environments
JP4624000B2 (en) Compound artificial intelligence device
CN114527763A (en) Intelligent inspection system and method based on target detection and SLAM composition
JP2007068195A (en) Monitor service system
JP2007048306A (en) Visual information processor and application system
WO2021117543A1 (en) Information processing device, information processing method, and program
CN206399422U (en) Multifunctional vision sensor and mobile robot
CN112327868A (en) Intelligent robot automatic navigation system
Hong et al. Feature detection and tracking for mobile robots using a combination of ladar and color images

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20071127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100112