JPH04259076A - Method and device for recognizing object - Google Patents

Method and device for recognizing object

Info

Publication number
JPH04259076A
JPH04259076A JP3040742A JP4074291A JPH04259076A JP H04259076 A JPH04259076 A JP H04259076A JP 3040742 A JP3040742 A JP 3040742A JP 4074291 A JP4074291 A JP 4074291A JP H04259076 A JPH04259076 A JP H04259076A
Authority
JP
Japan
Prior art keywords
image
information
photographed
image information
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3040742A
Other languages
Japanese (ja)
Other versions
JP3154501B2 (en
Inventor
Masanori Watanabe
正規 渡辺
Yoshiyuki Ota
善之 太田
Shigeru Sasaki
繁 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04074291A priority Critical patent/JP3154501B2/en
Publication of JPH04259076A publication Critical patent/JPH04259076A/en
Application granted granted Critical
Publication of JP3154501B2 publication Critical patent/JP3154501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control By Computers (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To easily recognize an object provided with an invisible part by moving a photographing system corresponding to the arranging status of the object in a method and device for recognizing object to be photographed which discriminates the object by analyzing an image acquired by an image pickup means with a computer. CONSTITUTION:In an object recognizing device which discriminates the shape of the object to be photographed by analyzing image information obtained by photographing with an image pickup machine 12, the photographic position of insufficient image information is decided based on comparison between the image information of a photographed image and knowledge information with respect to a known object, and the image pickup machine 12 is moved according to the information of the photographic position, and photographing is performed from the photographic position where the image information of the object to be photographed is insufficient, and the insufficient image information is supplemented, thereby, the shape of the object to be photographed can be discriminated.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、撮像手段によって獲得
される画像を計算機によって分析することにより被写物
体を判別する物体認識方法および物体認識装置に関する
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition method and an object recognition apparatus for identifying a photographed object by analyzing an image obtained by an imaging means using a computer.

【0002】0002

【従来の技術】従来、撮像手段によって獲得される画像
を判別する物体認識装置として、撮像系の姿勢を固定し
て撮影した一枚の静止画像のみをもちいる装置があった
。このような装置では、物体は見る方向によって見掛け
の形状が異なる。従って、物体を一方向のみから見て判
別する装置では如何なる方向から見ても物体を判別でき
るように、該当物体の全周囲から見た場合の見掛けの形
状を記憶している。そして、被写物体の認識時には、記
憶しておいた見掛けの形状の中から、得られた画像と類
似した形状を見つけることにより、物体を判別する。
2. Description of the Related Art Conventionally, as an object recognition device for discriminating images captured by an imaging means, there has been a device that uses only a single still image taken with the imaging system fixed in position. In such a device, the apparent shape of an object changes depending on the viewing direction. Therefore, in a device that discriminates an object by viewing it from only one direction, the apparent shape of the object when viewed from all around is stored so that the object can be discriminated from any direction. When recognizing a photographed object, the object is determined by finding a shape similar to the obtained image from among the stored apparent shapes.

【0003】また、撮像系を移動させて撮影した複数の
静止画像を用いて判別する装置もあった。この装置の場
合には、あらかじめ撮像系を移動する位置を決め、その
決められた位置のすべての位置において撮影を行い、各
移動位置から得られた見掛けの形状と類似した形状を、
記憶した見掛けの形状の中から探し、その結果の組合せ
によって物体を判別する。
[0003] There has also been an apparatus that performs discrimination using a plurality of still images taken by moving an imaging system. In the case of this device, the position to which the imaging system will be moved is determined in advance, images are taken at all of the determined positions, and a shape similar to the apparent shape obtained from each movement position is captured.
It searches among the memorized apparent shapes and identifies objects based on the combination of results.

【0004】0004

【発明が解決しようとする課題】上記従来の技術におい
ては、撮像系の姿勢が固定された場合では、物体の裏側
が見えない。また、画像中のある物体が他の物体を遮る
こともある。このような状態を「隠れ」ということにす
ると、隠れが生じると物体を判別できないことがある。
SUMMARY OF THE INVENTION In the conventional technique described above, when the posture of the imaging system is fixed, the back side of the object cannot be seen. Also, some objects in the image may block other objects. If such a state is referred to as "hiddenness," when the object is hidden, it may not be possible to distinguish the object.

【0005】従来の一枚の静止画像のみを用いる装置で
は隠れを回避することはできない。また、異なる位置か
ら撮影した複数の静止画像を用いる装置でも、あらかじ
め移動位置を設定する場合には、隠れを完全に回避する
ことはできない。このため、いずれの装置においても、
隠れが発生する可能性があり、物体の配置によってはそ
の判別が不可能なことがある。
[0005] Hiding cannot be avoided with conventional devices that use only one still image. Furthermore, even in a device that uses a plurality of still images taken from different positions, hiding cannot be completely avoided if the moving position is set in advance. Therefore, in any device,
Hidden objects may occur, and depending on the placement of objects, it may be impossible to distinguish between them.

【0006】この隠れが発生した場合、残りの部分から
判別を試みるため、限られた画像情報からできるだけ多
くの判別情報を引き出すべく撮影状況、撮影場所に関す
る情報を用いて物体を推測する等、複雑な処理が要求さ
れる。また、そのために、多大な記憶容量と計算量を必
要とする。
[0006] When this occlusion occurs, in order to try to distinguish it from the remaining parts, complicated processes such as estimating the object using information about the shooting situation and the shooting location are performed in order to extract as much discrimination information as possible from the limited image information. processing is required. Moreover, this requires a large amount of storage capacity and calculation amount.

【0007】あらかじめ撮影位置が設定されているため
、被写物体を観察する方向を制御できず、あらゆる方向
から眺めた見え方を記憶する必要があり、従って、多大
な記憶容量を必要とするばかりか、ある視点からの見え
方が複雑な場合には、計算機内での記憶方法も複雑にな
り、それを取り扱うために多大な計算量を必要とする等
、多くの問題点があった。
[0007] Since the photographing position is set in advance, it is not possible to control the direction in which the object is observed, and it is necessary to memorize how it looks from all directions, thus requiring a large amount of storage capacity. In addition, when the appearance from a certain viewpoint is complicated, the storage method within the computer becomes complicated, and there are many problems such as a large amount of calculation is required to handle it.

【0008】本発明は、上記従来の技術における問題点
を解消するためのものであり、物体の配置状況に応じて
撮影系を移動することにより、容易に隠れのある物体を
認識できるようにした物体認識方法および物体認識装置
の提供を課題とする。
[0008] The present invention is intended to solve the above-mentioned problems in the conventional technology, and makes it possible to easily recognize hidden objects by moving the photographing system according to the arrangement of the objects. The object of the present invention is to provide an object recognition method and an object recognition device.

【0009】[0009]

【課題を解決するための手段】本発明は、隠れのある物
体を認識できるようにするため、図1に示すように、物
体認識方法においては、撮像機12により撮影して得た
画像情報を解析し被写物体の形状を判別する物体認識装
置において、すでに撮影した画像の画像情報と既知物体
に関する知識情報との比較に基づき不足画像情報の撮影
位置を決定し、この撮影位置の情報に従って撮像機12
を移動させ、被写物体の画像情報が不足していた撮影位
置から撮像し、不足していた画像情報を補充して、被写
物体の形状を判別することを特徴とする。
[Means for Solving the Problems] In order to recognize hidden objects, the present invention uses image information obtained by photographing with an imaging device 12 in an object recognition method, as shown in FIG. An object recognition device that analyzes and determines the shape of a photographed object determines the photographing position of the missing image information based on a comparison between the image information of the already photographed image and the knowledge information about the known object, and then images according to the information on this photographing position. Machine 12
The present invention is characterized in that the shape of the object is determined by moving the object, taking an image from a shooting position where image information of the object is lacking, and replenishing the missing image information.

【0010】また、この方法を実行する物体認識装置に
おいては、既知物体に関する知識情報を格納する知識情
報記憶部11と、物体を撮影して画像情報を得る撮像機
12と、該撮像機12を取り付けて撮影位置を任意に変
更させる可動装置13と、画像情報を解析して撮影され
た物体の見掛けの情報を抽出する画像解析部14と、物
体の認識に必要な画像情報を獲得するための前記撮像機
12による撮影位置の座標情報を決定して出力するとと
もに撮影した物体の画像解析結果を知識情報と照合して
物体を認識する物体認識部15と、撮影位置の座標情報
に従い前記可動装置13を制御する可動装置制御部16
とを備えたことを特徴とする。
[0010] In addition, an object recognition device that executes this method includes a knowledge information storage section 11 that stores knowledge information regarding a known object, an image pickup device 12 that obtains image information by photographing an object, and a knowledge information storage section 11 that stores knowledge information about known objects; A movable device 13 that can be attached to change the photographing position arbitrarily, an image analysis unit 14 that analyzes image information and extracts apparent information of the photographed object, and a device that acquires image information necessary for object recognition. an object recognition unit 15 that determines and outputs the coordinate information of the photographing position by the imaging device 12 and recognizes the object by comparing the image analysis result of the photographed object with knowledge information; and the movable device according to the coordinate information of the photographing position. movable device control unit 16 that controls 13;
It is characterized by having the following.

【0011】[0011]

【作用】このように構成したことにより、物体認識方法
においては、すでに撮影した画像の画像情報と既知物体
に関する知識情報との比較に基いて不足画像情報の撮影
位置を決定し、決定された撮影位置の情報に従って撮像
機12を動作させて、被写物体を画像情報が不足してい
た撮影位置から撮像し、被写物体の配置により隠れた面
を撮像して、不足していた画像情報を得たのち、被写物
体の形状を判別する。
[Operation] With this configuration, in the object recognition method, the photographing position of the missing image information is determined based on the comparison between the image information of the already photographed image and the knowledge information about the known object, and the determined photographing position is determined. The imaging device 12 is operated according to the position information to image the object from the shooting position where the image information was missing, and to image the hidden surface due to the arrangement of the object to capture the missing image information. After obtaining the information, the shape of the object is determined.

【0012】また、物体認識装置においては、可動装置
13を動作させて撮像機12を被写物体に向けて初期撮
影し、得られた画像情報から撮影された物体の見掛けの
情報を画像解析部14によって抽出し、得られた物体の
見掛けの情報と知識情報記憶部11からの既知物体に関
する知識情報とを物体認識部15によって比較照合して
、隠れなどの情報不足が生じる場合には物体の認識に必
要な画像情報を獲得するための座標情報を決定して、可
動装置制御部16を介して可動装置13を動作させ、撮
影位置を必要な向きに変更させて再度撮像機12により
被写物体を撮影し、物体認識部15に補充した画像情報
を加えて、物体の見掛けの情報と既知物体に関する知識
情報とを再度比較照合して物体を認識する。
[0012] In the object recognition device, the movable device 13 is operated to point the image pickup device 12 at the object to take an initial photograph, and the apparent information of the photographed object is extracted from the obtained image information by the image analysis section. The object recognition section 15 compares and checks the apparent information of the object extracted and obtained by the object recognition section 14 with the knowledge information about the known object from the knowledge information storage section 11. Coordinate information for acquiring the image information necessary for recognition is determined, the movable device 13 is operated via the movable device control unit 16, the photographing position is changed to the required orientation, and the subject is photographed again by the image pickup device 12. The object is photographed, the supplemented image information is added to the object recognition unit 15, and the apparent information of the object and the knowledge information about the known object are again compared and verified to recognize the object.

【0013】[0013]

【実施例】本発明における以下の実施例では、把手のあ
るカップを認識する場合について説明する。
[Embodiment] In the following embodiment of the present invention, a case will be described in which a cup with a handle is recognized.

【0014】図2は実施例におけるロボットアームを示
す図である。ここに21はビデオカメラであり、物体を
撮影する。22は6軸のロボットアームであり、ビデオ
カメラ21を先端に取り付けて、任意の方向にビデオカ
メラ21の向きを向ける。
FIG. 2 is a diagram showing a robot arm in this embodiment. Here, 21 is a video camera that photographs objects. 22 is a six-axis robot arm, a video camera 21 is attached to the tip, and the video camera 21 is directed in any direction.

【0015】図3は実施例装置を示すブロック図である
。23は処理装置であって、被写体(図示せず)をビデ
オカメラ21で撮影して得た画像情報を解析し、被写体
が何かを判定する。この処理装置23では被写体の判定
に充分な画像情報が得られていない場合には、ロボット
アーム22を動作させてビデオカメラ21の被写体に対
する向きを変更して撮影し、被写体の判定に必要な画像
情報を補充することができる。
FIG. 3 is a block diagram showing an embodiment of the apparatus. 23 is a processing device that analyzes image information obtained by photographing a subject (not shown) with the video camera 21 and determines what the subject is. If this processing device 23 does not obtain enough image information for object determination, the robot arm 22 is operated to change the direction of the video camera 21 with respect to the object and take images to obtain the images necessary for object determination. Information can be supplemented.

【0016】処理装置23には、画像情報を解析する画
像解析部24と、画像解析結果をメモリ25に記憶させ
ている物体に関する知識情報と照合して被写体を判定す
る物体認識部26と、被写体の判定に画像情報が不足し
ている場合、必要な撮影位置の座標情報を物体認識部2
6から受けてロボットアーム22の制御信号を求めるア
ーム制御部27を備える。
The processing device 23 includes an image analysis unit 24 that analyzes image information, an object recognition unit 26 that determines the subject by comparing the image analysis results with knowledge information about the object stored in the memory 25, and If there is insufficient image information for determination, the coordinate information of the necessary shooting position is sent to the object recognition unit 2.
6 and obtains a control signal for the robot arm 22.

【0017】画像解析部24は、ビデオカメラ21から
得られた画像の色情報を調べることにより画像内に観察
される物体の見掛けの情報を抽出し、解析結果は物体認
識部26に与えると同時に物体認識部26の部分結果を
解析処理に利用する。色情報の調査には、その明度、彩
度、色相の統計量の算出、空間微分値、空間積分値の計
算を行う。さらに、特定の色、微分値、積分値を示した
点に対しては、その空間分布を幾何学的に調べる。解析
処理は認識したい物体、その見え方によって画像に適用
する処理を変え、解析処理には画像中、必要十分な部分
にのみ適用する。また、物体認識の部分結果は解析手法
の選択、適用部分の決定に利用することもある。
The image analysis section 24 extracts the apparent information of the object observed in the image by examining the color information of the image obtained from the video camera 21, and provides the analysis result to the object recognition section 26 at the same time. Partial results from the object recognition unit 26 are used for analysis processing. In order to investigate color information, statistics of brightness, saturation, and hue are calculated, as well as spatial differential values and spatial integral values. Furthermore, the spatial distribution of points exhibiting specific colors, differential values, and integral values is investigated geometrically. The analysis process changes the process applied to the image depending on the object to be recognized and how it looks, and the analysis process is applied only to necessary and sufficient parts of the image. In addition, partial results of object recognition may be used to select an analysis method and decide which part to apply.

【0018】この画像解析部24には、図4に示すよう
に、ビデオカメラ21から得られた画像を格納する画像
メモリ31と、画像の全体または部分に対して明度のヒ
ストグラム、平均、標準偏差を求める色情報の統計量算
出部32と、ある閾値を境界として画像を二値化した後
に縮退、膨張、膨張、縮退を行い小領域を除去する領域
分割部33と、与えられた点列に対して直線または曲線
をあてはめて適合した部分点列として直線、曲線を検出
する直線及び曲線検出部34と、領域輪郭の直線、曲線
表現をした形状の幾何学的関係を調べてその領域が四角
形であるか円であるかなどの幾何形状を判断する領域の
幾何形状判断部35と、領域構成点の座標情報に基づい
て重心を算出する領域の重心算出部36と、円に対して
は輪郭を構成する各点の座標を用い、また四角形に対し
ては各辺の始点と終点の座標を用いるなど図形の中心の
座標を求める幾何図形の中心算出部37と、特定の領域
に対して構成点の色情報およびその平均値より領域の色
を判別する領域の色判別部38とを備える。
As shown in FIG. 4, this image analysis unit 24 includes an image memory 31 for storing images obtained from the video camera 21, and a brightness histogram, average, and standard deviation for the whole or part of the image. A color information statistics calculation unit 32 that calculates the color information, an area division unit 33 that binarizes an image using a certain threshold as a boundary, and then performs degeneration, dilation, dilation, and degeneration to remove small areas; A straight line and curve detection unit 34 detects straight lines and curves as a sequence of fitted partial points by applying straight lines or curves to the area, and a straight line and curve detection unit 34 detects straight lines and curves as a matched partial point sequence, and a straight line and curve detection unit 34 that checks the geometric relationship between the straight line and curved shape of the area outline and determines whether the area is a quadrilateral. A region geometric shape determination unit 35 determines the geometric shape such as whether it is a circle or a circle, a region centroid calculation unit 36 calculates the center of gravity based on the coordinate information of the region constituent points, and a region A geometric figure center calculation unit 37 that calculates the coordinates of the center of the figure by using the coordinates of each point constituting the figure, or by using the coordinates of the start and end points of each side for a quadrilateral, and the It also includes a region color discrimination section 38 that discriminates the color of the region from point color information and its average value.

【0019】メモリ25は、既知の物体に関する知識情
報を記憶する。このメモリ25には物体の三次元形状に
関する知識を格納する記憶部41と、物体の見掛けの形
状に関する知識を格納する記憶部42と、物体表面の色
に関する知識を格納する記憶部43とを備える。例えば
、カップを上、下、横、斜め等から見た形状や、カップ
の底面、側面、内部の色等を記憶させる。
Memory 25 stores knowledge information regarding known objects. The memory 25 includes a storage section 41 that stores knowledge about the three-dimensional shape of the object, a storage section 42 that stores knowledge about the apparent shape of the object, and a storage section 43 that stores knowledge about the color of the object's surface. . For example, the shape of the cup when viewed from above, below, side, diagonally, etc., and the color of the bottom, side, and interior of the cup are stored.

【0020】物体認識部26は、画像解析部24の結果
に基づいて、どのような物体をどの方向から見ているか
を判定する。判定時に画像情報が不足して物体を認識で
きない場合には、不足している情報は何かを判断し、そ
の情報を獲得するためにビデオカメラ21の姿勢(ある
いは向き)をどのように変更したら良いかを決定し、新
しく撮像する位置の座標情報をアーム制御部27に与え
る。変更する撮像位置が正しいか否かは、物体認識の部
分結果に基づいて、新しい撮像位置から獲得される画像
を予測し、実際に撮像位置を変更して獲得した画像との
照合を行うことにより検証する。
The object recognition section 26 determines, based on the results of the image analysis section 24, what kind of object is being viewed and from which direction. If the object cannot be recognized due to lack of image information at the time of determination, determine what information is missing and how to change the posture (or direction) of the video camera 21 in order to acquire that information. The coordinate information of the new imaging position is then given to the arm control unit 27. Whether the changed imaging position is correct or not is determined by predicting the image that will be acquired from the new imaging position based on the partial results of object recognition, and comparing it with the image that was actually acquired after changing the imaging position. Verify.

【0021】この物体認識部26には、図5に示すよう
に既知物体に関する知識と画像解析結果を照合する照合
部45と、撮像姿勢を判断する姿勢判断部46と、物体
認識において画像情報が不足しているか判断する不足画
像判断部47と、ビデオカメラ21の移動位置を決定し
あるいは検証する位置決定検証部48とを備える。
As shown in FIG. 5, the object recognition unit 26 includes a collation unit 45 that collates knowledge about the known object with the image analysis results, an attitude determination unit 46 that determines the imaging orientation, and a system that collects image information in object recognition. It includes a missing image determining unit 47 that determines whether there is a shortage, and a position determination verification unit 48 that determines or verifies the moving position of the video camera 21.

【0022】照合部45は、画像解析部24において獲
得した円や四角形の形状情報、また、それらの図形の色
情報とメモリ25に格納されている知識情報とを照合し
、観察された物体が何であるかを判断する。例えば、カ
ップの見え方および表面の色と知識情報との照合など。
The collation unit 45 collates the shape information of circles and rectangles obtained by the image analysis unit 24 and the color information of these figures with the knowledge information stored in the memory 25 to determine whether the observed object is determine what it is. For example, matching the appearance of the cup and the color of its surface with knowledge information.

【0023】姿勢判断部46は、照合部45の結果に基
づき、物体に対するビデオカメラ21の姿勢を判断する
。例えば、カップとビデオカメラ21の相対的位置関係
の判断を行う。
[0023] The attitude determining unit 46 determines the attitude of the video camera 21 with respect to the object based on the result of the matching unit 45. For example, the relative positional relationship between the cup and the video camera 21 is determined.

【0024】不足画像判断部47は、照合部45の結果
に基づき、物体を認識するために不足している情報が何
かを判断する。例えば、カップの底面と把手の位置を判
断する際に獲得した画像が十分か否かを判断する。
The missing image determining unit 47 determines, based on the results of the matching unit 45, what information is missing in order to recognize the object. For example, it is determined whether the acquired images are sufficient to determine the positions of the bottom surface and handle of the cup.

【0025】位置決定検証部48は、姿勢判断部46と
不足画像判断部47の部分結果に基づき、不足している
画像情報を獲得するためには、何処へ移動すれば良いか
を決定し、そして、新しい移動位置から獲得される画像
を予測し、実際に移動して獲得した画像との照合を行う
ことにより移動位置を検証する。例えば、カップの底面
、内部、双方が見えなかった場合、どのように姿勢変更
をすべきかを決定するとともに、変更位置の検証を行う
The position determination verification section 48 determines, based on the partial results of the posture determination section 46 and the missing image determination section 47, where to move in order to acquire the missing image information. Then, the moving position is verified by predicting an image to be acquired from the new moving position and comparing it with the image obtained by actually moving. For example, if both the bottom and the inside of the cup cannot be seen, it is determined how the posture should be changed and the changed position is verified.

【0026】アーム制御部27は、物体認識部26から
与えられた撮影位置の座標情報をロボットアーム22の
制御信号に変換し、ロボットアーム22を制御すること
で、ロボットアーム22に取り付けられたビデオカメラ
21の姿勢(あるいは向き)を変更する。
The arm control unit 27 converts the coordinate information of the photographing position given from the object recognition unit 26 into a control signal for the robot arm 22 and controls the robot arm 22 to control the video attached to the robot arm 22. The attitude (or direction) of the camera 21 is changed.

【0027】このように構成した実施例の処理手順は、
図6に示すように、まず、事前に設定した位置にビデオ
カメラ21およびロボットアーム22からなる撮像系を
移動し、被写体を撮影する(ステップ51)。撮影した
被写体の画像情報から色情報を抽出し、その色情報に対
して明度、彩度、色相の統計量、空間微分値、空間積分
値を計算し、さらに特定の色を示した点、また、特定の
空間微分値、空間積分値を示した点に対しては、画像中
の空間分布を調べ、画像内で観察される面の模様、画像
内で観察される図形の幾何情報を抽出して、これらの情
報に基づいて、視野内に観察される線、面の色、模様お
よび三次元空間内における位置、向きを計算する(ステ
ップ52)。この結果に基づいて被写体が何であるか、
どのように配置されているかを判別する(ステップ53
)。被写体の判別ができれば処理を終了する。
The processing procedure of the embodiment configured as described above is as follows:
As shown in FIG. 6, first, an imaging system consisting of a video camera 21 and a robot arm 22 is moved to a preset position and a subject is photographed (step 51). Color information is extracted from the image information of the photographed subject, and the brightness, saturation, hue statistics, spatial differential value, and spatial integral value are calculated for the color information, and the points that indicate a specific color, , for points showing specific spatial differential values and spatial integral values, we examine the spatial distribution in the image and extract the pattern of the surface observed in the image and the geometric information of the figure observed in the image. Then, based on this information, the lines observed within the field of view, the color and pattern of the surface, and the position and orientation in the three-dimensional space are calculated (step 52). Based on this result, what is the subject?
Determine how it is arranged (step 53
). If the object can be identified, the process ends.

【0028】もし、被写体の判別ができなければ、ステ
ップ53で部分的に認識した結果に基づいて、ステップ
51で撮影した位置では隠れていて見えなかった部分が
見えるようになり、被写体を判別できる情報が得られる
ような撮像系の姿勢の候補を計算する。そして、それら
の候補の中から、姿勢を変更したことによって被写体に
関する情報を最も豊富に得られる姿勢を決定する。それ
と同時に、変更後に撮影した画像を予測する(ステップ
54)。得られた姿勢の候補に従い、撮像系の姿勢を変
更して再度撮影する(ステップ55)。再度撮影して得
られた画像をステップ54で予測した画像と比較する(
ステップ56)。撮影画像と予測画像とが一致しなかっ
た場合には、ステップ54に戻り、次の候補姿勢を求め
、撮影後の画像を予測する。撮影画像と予測画像とが一
致した場合には、ステップ52に戻り、被写体の判別に
必要な処理を行い、これらの処理を被写体の判別ができ
るようになるまで繰り返す。
If the object cannot be identified, based on the results of partial recognition in step 53, the parts that were hidden at the photographed position in step 51 become visible, and the object can be identified. Calculate candidate postures of the imaging system that will allow information to be obtained. Then, from among these candidates, the posture that allows the most abundant information about the subject to be obtained by changing the posture is determined. At the same time, the image taken after the change is predicted (step 54). According to the obtained orientation candidates, the orientation of the imaging system is changed and images are taken again (step 55). The image obtained by photographing again is compared with the image predicted in step 54 (
Step 56). If the photographed image and the predicted image do not match, the process returns to step 54, the next candidate posture is determined, and the image after photographing is predicted. If the photographed image and the predicted image match, the process returns to step 52 and processes necessary to identify the subject are performed, and these processes are repeated until the subject can be identified.

【0029】このように構成した実施例においては、例
えば、図7に示す把手61aのあるカップ61を判別さ
せる場合、カップ61の側面、把手、底面、内部の色は
既知であり、メモリ25に予め格納しておくことにする
。カップ61を机の上においた場合に、それが通常の置
き方でなく、逆さまに置かれていたとしても、あるいは
倒れていたとしても、もしカップ61の上方から真下に
見下ろすならば、図8(a) のように円形の部分と小
さな長方形から構成される形状に見えるか、図8(b)
 のように長方形の部分に把手61aがついた形状もし
くはそれらが二次元平面内で回転した形状に見える。
In the embodiment configured as described above, for example, when the cup 61 with the handle 61a shown in FIG. I will store it in advance. When the cup 61 is placed on a desk, even if it is not placed in the usual way, and even if it is placed upside down or fallen down, if you look directly down from above the cup 61, if you look down from the top of the cup 61, Does it look like a shape consisting of a circular part and a small rectangle as shown in (a), or as shown in Fig. 8(b)?
It looks like a shape with a handle 61a attached to a rectangular part, or a shape where these parts are rotated within a two-dimensional plane.

【0030】この場合の物体認識は、まず、ビデオカメ
ラ21を机の上方、机を真下にみるように移動して、カ
ップ61を撮影する。こうして撮影した画像からカップ
61以外の色をした部分を背景として取り除く。この背
景の除去には、色情報の統計量算出部32により画像全
体に対する明度のヒストグラムを算出し、ヒストグラム
を二分する明度値を決定し、そして、領域分割部33に
よりその値を閾値として二値化を行い、カップ61と背
景を切り分けて、画像より背景を取り除く。
In object recognition in this case, first, the video camera 21 is moved above the desk so as to look directly below the desk, and the cup 61 is photographed. From the thus photographed image, the portions having colors other than the cup 61 are removed as the background. To remove this background, the color information statistics calculation unit 32 calculates a brightness histogram for the entire image, determines a brightness value that divides the histogram into two, and then the area division unit 33 uses this value as a threshold to create a binary value. The cup 61 and the background are separated, and the background is removed from the image.

【0031】残った部分の輪郭が、図8 (a) のよ
うな形状か、あるいは図8 (b) のような形状か、
見掛けの形状を調べる。この形状判断には、直線及び曲
線検出部34を用いて、背景を取り除いた部分に対して
、その輪郭に相当する点列から直線または曲線を抽出す
る。次に、領域の幾何形状判断部35により得られた直
線または曲線から輪郭が四角形であるか円形であるか判
断する。
[0031] Is the outline of the remaining part as shown in Fig. 8(a) or as shown in Fig. 8(b)?
Examine the apparent shape. For this shape determination, the straight line and curve detection unit 34 is used to extract a straight line or curved line from a sequence of points corresponding to the contour of the portion from which the background has been removed. Next, it is determined whether the contour is a rectangle or a circle based on the obtained straight line or curved line by the region geometric shape determination unit 35.

【0032】図8 (a) のような形状の場合、領域
の色判別部38により背景を取り除いた領域の円形部分
の色が予め記憶しておいたカップ底面の色か内部の色か
調べ、その結果によってカップ61の底面の位置を判断
する。次に、領域の重心算出部36により背景を取り除
いた領域の重心を算出し、幾何図形の中心算出部37に
より背景を取り除いた領域の円形部分の中心を算出する
。 そして、図9に示すように、領域の重心と円形部分の中
心とのずれの向きから把手61aの位置を判断する。
In the case of the shape shown in FIG. 8(a), the area color determination unit 38 checks whether the color of the circular part of the area from which the background has been removed is the previously stored color of the bottom of the cup or the color of the interior; Based on the result, the position of the bottom surface of the cup 61 is determined. Next, the center of gravity calculation unit 36 calculates the center of gravity of the area from which the background has been removed, and the center of geometric figure calculation unit 37 calculates the center of the circular portion of the area from which the background has been removed. Then, as shown in FIG. 9, the position of the handle 61a is determined from the direction of deviation between the center of gravity of the area and the center of the circular portion.

【0033】図8 (b) のような形状の場合、領域
の幾何形状判断部35により、背景を取り除いた領域の
長方形の部分に対して、長方形の長辺と短辺の位置およ
び画像上での長方形の傾きを計算する。その結果に基づ
いてカップ61がビデオカメラ21に垂直な面が見える
ようにビデオカメラ21を移動する。すなわち、図10
に示すように、まず、初期位置から長方形の2つの短辺
側にビデオカメラ21を倒して移動位置1または移動位
置2に変更する。もしカップ61の内部が見えるように
なるならば、図7を回転させた画像が得られると予測さ
れる。そして、ビデオカメラ21を倒して得られた画像
が予測した画像であるか、または新しく見えた部分の色
が予め記憶しておいたカップ61の底面の色であるか内
部の色であるかを調べ、カップ61の底面の位置を判断
する。次に、領域の重心算出部36により背景を取り除
いた領域の重心を算出し、幾何図形の中心算出部37に
より背景を取り除いた領域の長方形の中心を算出する。 そして、図11に示すように、領域の重心と長方形の中
心とのずれの向きから把手61aの位置を判断する。
In the case of a shape as shown in FIG. 8(b), the region geometric shape determination unit 35 determines the positions of the long and short sides of the rectangle and the position of the rectangle on the image with respect to the rectangular part of the region from which the background has been removed. Calculate the slope of the rectangle. Based on the result, the video camera 21 is moved so that the cup 61 can see the surface perpendicular to the video camera 21. That is, FIG.
As shown in , first, the video camera 21 is tilted from the initial position to the two short sides of the rectangle to change to the movement position 1 or the movement position 2. If the inside of the cup 61 becomes visible, it is predicted that a rotated image of FIG. 7 will be obtained. Then, check whether the image obtained by tilting the video camera 21 is the predicted image, or whether the newly visible color is the color of the bottom or inside of the cup 61 that has been stored in advance. Examine and determine the position of the bottom of the cup 61. Next, the center of gravity calculation unit 36 calculates the center of gravity of the area from which the background has been removed, and the center of geometric figure calculation unit 37 calculates the center of the rectangle of the area from which the background has been removed. Then, as shown in FIG. 11, the position of the handle 61a is determined from the direction of deviation between the center of gravity of the area and the center of the rectangle.

【0034】このようにビデオカメラ21をカップ61
の上方に位置させ、カップ61を真下に見下ろすことに
より、カップ61の把手61aを必ず観察することがで
きる。カップ61が倒れている場合、始めは底面を見る
ことができないが、ビデオカメラ21を移動することに
より、カップ61の底面を判断することができる。また
、このような処理は、輪郭の形状判断、長方形の中心位
置、円の中心位置、領域の重心位置の計算、また、領域
の色の判断等、いずれも比較的単純な画像処理により構
成されており、把手61aを認識するために曲線の形状
判断をする必要がないため、短時間で容易に処理できる
In this way, the video camera 21 is attached to the cup 61.
By positioning the handle 61a above the cup 61 and looking down at the cup 61, the handle 61a of the cup 61 can be observed without fail. When the cup 61 is fallen down, the bottom surface cannot be seen at first, but by moving the video camera 21, the bottom surface of the cup 61 can be determined. Furthermore, such processing involves relatively simple image processing, such as determining the shape of an outline, calculating the center position of a rectangle, the center position of a circle, and the center of gravity of an area, and determining the color of an area. Since there is no need to judge the shape of the curve in order to recognize the handle 61a, the process can be easily performed in a short time.

【0035】[0035]

【発明の効果】以上のように本発明では、物体認識方法
においては、すでに撮影した画像の画像情報と既知物体
に関する知識情報との比較に基いて不足画像情報の撮影
位置を決定し、決定された撮影位置の情報に従って撮像
機を動作させて、被写物体を不足していた撮影位置から
撮像し、不足していた画像情報を補充して、被写物体の
形状を判別できるようになり、被写物体の配置に応じた
撮像位置に移動できて物体の隠れを回避することができ
る。このため、撮影位置が異なる複数の画像に対して、
各撮影状況に応じた必要最小限の判別情報を抽出すれば
良く、解析処理量を減少させ、解析時間を短縮させるこ
とができる。また、不足していた画像情報を補充して判
別することができるため、知識情報として記憶させてお
く被写物体の見掛けの形状を表す画像情報の総数を減少
させることができる。
As described above, in the object recognition method of the present invention, the photographing position of the missing image information is determined based on the comparison between the image information of the already photographed image and the knowledge information about the known object. By operating the imaging device according to the information on the photographed position, the object can be imaged from the missing photographing position, the missing image information can be supplemented, and the shape of the object can be determined. It is possible to move to an imaging position according to the arrangement of the object, and avoid hiding the object. Therefore, for multiple images taken at different shooting positions,
It is only necessary to extract the minimum necessary discrimination information according to each photographing situation, and it is possible to reduce the amount of analysis processing and shorten the analysis time. Further, since missing image information can be supplemented for discrimination, the total number of image information representing the apparent shape of the object to be stored as knowledge information can be reduced.

【0036】また、物体認識装置においては、可動装置
13を動作させて撮像機12を被写物体に向けて初期撮
影し、得られた画像情報から撮影された物体の見掛けの
情報を画像解析部14によって抽出し、得られた物体の
見掛けの情報と知識情報記憶部11からの既知物体に関
する知識情報とを物体認識部15によって比較照合し、
隠れなどの情報不足が生じる場合には物体の認識に必要
な画像情報を獲得するための座標情報を決定して、可動
装置制御部16を介して可動装置13を動作させ、撮影
位置を必要な向きに変更させて再度撮像機12により被
写物体を撮影し、画像解析部14によって抽出された補
充画像情報を物体認識部15に加えて、物体認識部15
によって物体の見掛けの情報と既知物体に関する知識情
報とを再度比較照合して物体を認識させることができる
ようにしたため、判別処理により得られた情報に基づき
撮像機12の姿勢を決定し、変更して撮影し、被写物体
を判別できるようになるまで物体の見掛けの情報を補充
することができて、被写物体の隠れが生じることによる
判別不能状態を回避できる。また、可動装置13を動作
させて撮像機12を被写物体の隠れた面が撮影できるよ
うに向けることができるため、撮影位置が異なる複数の
画像に対して各撮影状況に応じた必要最小限の判別情報
を抽出すれば良く、解析時間が短縮できる。さらに、最
適比較面を撮影できるため、記憶しておく被写物体の見
え方を減少させることができ、記憶容量を減らすことが
できる。
In the object recognition device, the movable device 13 is operated to point the image pickup device 12 at the object to take an initial photograph, and the apparent information of the photographed object is extracted from the obtained image information by the image analysis section. The object recognition unit 15 compares and matches the apparent information of the object extracted and obtained by the object recognition unit 14 with the knowledge information about the known object from the knowledge information storage unit 11;
If information is insufficient, such as when the object is hidden, coordinate information for acquiring image information necessary for object recognition is determined, and the movable device 13 is operated via the movable device control unit 16 to change the shooting position to the required position. The object is photographed again by the imaging device 12 after changing its orientation, and supplementary image information extracted by the image analysis section 14 is added to the object recognition section 15.
Since the object can be recognized by comparing the apparent information of the object and the knowledge information about the known object again, the attitude of the imaging device 12 is determined and changed based on the information obtained by the discrimination process. It is possible to supplement the apparent information of the object until it becomes possible to distinguish the photographed object by photographing the photographed object, and it is possible to avoid an indistinguishable state due to the occurrence of the hidden object. In addition, since the movable device 13 can be operated to direct the imaging device 12 so that the hidden side of the object can be photographed, it is possible to handle multiple images at different photographing positions to the minimum required amount according to each photographing situation. It is only necessary to extract the discrimination information, and the analysis time can be shortened. Furthermore, since the optimum comparison surface can be photographed, the appearance of the object to be stored can be reduced, and the storage capacity can be reduced.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理構成図である。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】実施例においてカメラを取り付けたロボットア
ームを示す斜視図である。
FIG. 2 is a perspective view showing a robot arm with a camera attached in the example.

【図3】実施例装置のブロック図である。FIG. 3 is a block diagram of an example device.

【図4】実施例における画像解析部のブロック図である
FIG. 4 is a block diagram of an image analysis section in the embodiment.

【図5】実施例における物体認識部のブロック図である
FIG. 5 is a block diagram of an object recognition unit in the embodiment.

【図6】実施例における処理手順を示す流れ図である。FIG. 6 is a flowchart showing the processing procedure in the embodiment.

【図7】実施例における把手を右方に見た場合のカップ
を示す斜視図である。
FIG. 7 is a perspective view showing the cup when the handle in the embodiment is viewed from the right.

【図8】実施例におけるカップの見かけの形状であって
、(a)はカップの上方から真下に見下ろした場合、(
b)はカップを真横から見た場合である。
FIG. 8 shows the apparent shape of the cup in the example; (a) shows the shape of the cup when viewed directly below from above;
b) is when the cup is viewed from the side.

【図9】実施例におけるカップの見え方が円形の場合に
おける把手の位置を示す説明図である。
FIG. 9 is an explanatory diagram showing the position of the handle when the cup appears circular in the embodiment.

【図10】実施例におけるカップが机上で倒れている場
合のカメラの移動を示す説明図である。
FIG. 10 is an explanatory diagram showing the movement of the camera when the cup falls down on the desk in the example.

【図11】実施例におけるカップの見え方が長方形の場
合における把手の位置を示す説明図である。
FIG. 11 is an explanatory diagram showing the position of the handle when the cup appears rectangular in the embodiment.

【符号の説明】[Explanation of symbols]

11  知識情報記憶部 12  撮像機 13  可動装置 14  画像解析部 15  物体認識部 16  可動装置制御部 11 Knowledge information storage unit 12 Imaging device 13. Movable device 14 Image analysis department 15 Object recognition section 16 Movable device control section

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】撮像機(12)により撮影して得た画像情
報を解析し被写物体の形状を判別する物体認識装置にお
いて、すでに撮影した画像の画像情報と既知物体に関す
る知識情報との比較に基づき不足画像情報の撮影位置を
決定し、この撮影位置の情報に従って撮像機(12)を
移動させ、被写物体の画像情報が不足していた撮影位置
から撮像し、不足していた画像情報を補充して、被写物
体の形状を判別することを特徴とする物体認識方法。
Claim 1: In an object recognition device that analyzes image information obtained by photographing with an imaging device (12) and determines the shape of a photographed object, the image information of an already photographed image is compared with knowledge information about a known object. Based on this, determine the shooting position of the missing image information, move the imaging device (12) according to the information of this shooting position, take an image from the shooting position where the image information of the object was missing, and remove the missing image information. An object recognition method characterized in that the shape of a photographed object is determined by supplementing the .
【請求項2】既知物体に関する知識情報を格納する知識
情報記憶部(11)と、物体を撮影して画像情報を得る
撮像機(12)と、該撮像機(12)を取り付けて撮影
位置を任意に変更させる可動装置(13)と、画像情報
を解析して撮影された物体の見掛けの情報を抽出する画
像解析部(14)と、物体の認識に必要な画像情報を獲
得するための前記撮像機(12)による撮影位置の座標
情報を決定して出力するとともに撮影した物体の画像解
析結果を知識情報と照合して物体を認識する物体認識部
(15)と、撮影位置の座標情報に従い前記可動装置(
13)を制御する可動装置制御部(16)とを備えたこ
とを特徴とする物体認識装置。
2. A knowledge information storage unit (11) that stores knowledge information about a known object; an image pickup device (12) that photographs the object to obtain image information; a movable device (13) that can be changed arbitrarily; an image analysis unit (14) that analyzes image information and extracts apparent information about a photographed object; an object recognition unit (15) that determines and outputs the coordinate information of the photographing position by the imaging device (12) and recognizes the object by comparing the image analysis result of the photographed object with knowledge information; The movable device (
13) A movable device control section (16) for controlling the object recognition device.
JP04074291A 1991-02-14 1991-02-14 Object recognition method and object recognition device Expired - Fee Related JP3154501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04074291A JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04074291A JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JPH04259076A true JPH04259076A (en) 1992-09-14
JP3154501B2 JP3154501B2 (en) 2001-04-09

Family

ID=12589087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04074291A Expired - Fee Related JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP3154501B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041343A (en) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ Attitude estimation device, attitude estimation method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5361664B2 (en) 2009-10-30 2013-12-04 キヤノン株式会社 Image processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015041343A (en) * 2013-08-23 2015-03-02 株式会社デンソーアイティーラボラトリ Attitude estimation device, attitude estimation method, and program

Also Published As

Publication number Publication date
JP3154501B2 (en) 2001-04-09

Similar Documents

Publication Publication Date Title
KR0158038B1 (en) Apparatus for identifying person
CN107273846B (en) Human body shape parameter determination method and device
JP3768174B2 (en) Work take-out device
US7801335B2 (en) Apparatus and methods for detecting the presence of a human eye
US7738015B2 (en) Red-eye filter method and apparatus
CN110926330B (en) Image processing apparatus, image processing method, and program
KR101035055B1 (en) System and method of tracking object using different kind camera
JP2003178306A (en) Personal identification device and personal identification method
WO1997021188A1 (en) Wide field of view/narrow field of view recognition system and method
JP3454726B2 (en) Face orientation detection method and apparatus
JP2001101429A (en) Method and device for observing face, and recording medium for face observing processing
JP2006343859A (en) Image processing system and image processing method
US20120219179A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2000251078A (en) Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
JP2010123019A (en) Device and method for recognizing motion
JPH08287216A (en) In-face position recognizing method
JP2000123186A (en) Object recognizing device
JP2004062393A (en) Method and device for determining attention
CN111199533B (en) Image processing apparatus and method
WO2019016879A1 (en) Object detection device and object detection method
JPH04259076A (en) Method and device for recognizing object
US11188749B2 (en) Method for biometric recognition from irises
JP2021071420A (en) Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method
JPH0981737A (en) Three-dimensional object model generating method
JPH08279044A (en) Pattern recognition device and gesture recognition device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19991019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080202

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090202

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees