JP3154501B2 - Object recognition method and object recognition device - Google Patents

Object recognition method and object recognition device

Info

Publication number
JP3154501B2
JP3154501B2 JP04074291A JP4074291A JP3154501B2 JP 3154501 B2 JP3154501 B2 JP 3154501B2 JP 04074291 A JP04074291 A JP 04074291A JP 4074291 A JP4074291 A JP 4074291A JP 3154501 B2 JP3154501 B2 JP 3154501B2
Authority
JP
Japan
Prior art keywords
shape
image
information
image information
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP04074291A
Other languages
Japanese (ja)
Other versions
JPH04259076A (en
Inventor
正規 渡辺
善之 太田
繁 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP04074291A priority Critical patent/JP3154501B2/en
Publication of JPH04259076A publication Critical patent/JPH04259076A/en
Application granted granted Critical
Publication of JP3154501B2 publication Critical patent/JP3154501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control By Computers (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、撮像手段によって獲得
される画像を計算機によって分析することにより被写物
体を判別する物体認識方法および物体認識装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing method and an object recognizing apparatus for discriminating a subject by analyzing an image obtained by an image pickup means by a computer.

【0002】[0002]

【従来の技術】従来、撮像手段によって獲得される画像
を判別する物体認識装置として、撮像系の姿勢を固定し
て撮影した一枚の静止画像のみをもちいる装置があっ
た。このような装置では、物体は見る方向によって見掛
けの形状が異なる。従って、物体を一方向のみから見て
判別する装置では如何なる方向から見ても物体を判別で
きるように、該当物体の全周囲から見た場合の見掛けの
形状を記憶している。そして、被写物体の認識時には、
記憶しておいた見掛けの形状の中から、得られた画像と
類似した形状を見つけることにより、物体を判別する。
2. Description of the Related Art Conventionally, as an object recognizing device for judging an image obtained by an image pickup means, there has been a device using only one still image photographed with the posture of an image pickup system fixed. In such a device, an object has a different apparent shape depending on the viewing direction. Therefore, an apparatus that determines an object by viewing the object from only one direction stores an apparent shape when the object is viewed from the entire periphery of the object so that the object can be determined from any direction. Then, when recognizing the object,
The object is determined by finding a shape similar to the obtained image from the stored apparent shapes.

【0003】また、撮像系を移動させて撮影した複数の
静止画像を用いて判別する装置もあった。この装置の場
合には、あらかじめ撮像系を移動する位置を決め、その
決められた位置のすべての位置において撮影を行い、各
移動位置から得られた見掛けの形状と類似した形状を、
記憶した見掛けの形状の中から探し、その結果の組合せ
によって物体を判別する。
[0003] Further, there has been an apparatus for discriminating using a plurality of still images taken by moving an imaging system. In the case of this device, the position to which the imaging system is moved is determined in advance, shooting is performed at all of the determined positions, and a shape similar to the apparent shape obtained from each movement position is obtained.
A search is performed from the stored apparent shapes, and the object is determined based on a combination of the results.

【0004】[0004]

【発明が解決しようとする課題】上記従来の技術におい
ては、撮像系の姿勢が固定された場合では、物体の裏側
が見えない。また、画像中のある物体が他の物体を遮る
こともある。このような状態を「隠れ」ということにす
ると、隠れが生じると物体を判別できないことがある。
In the above prior art, the back side of the object cannot be seen when the posture of the imaging system is fixed. Also, an object in an image may obstruct another object. If such a state is referred to as "hidden", the object may not be discriminated if occlusion occurs.

【0005】従来の一枚の静止画像のみを用いる装置で
は隠れを回避することはできない。また、異なる位置か
ら撮影した複数の静止画像を用いる装置でも、あらかじ
め移動位置を設定する場合には、隠れを完全に回避する
ことはできない。このため、いずれの装置においても、
隠れが発生する可能性があり、物体の配置によってはそ
の判別が不可能なことがある。
[0005] In a conventional apparatus using only one still image, occlusion cannot be avoided. Further, even in a device using a plurality of still images photographed from different positions, hiding cannot be completely avoided if the moving position is set in advance. Therefore, in any device,
There is a possibility that occlusion may occur, and it may not be possible to determine this depending on the arrangement of the objects.

【0006】この隠れが発生した場合、残りの部分から
判別を試みるため、限られた画像情報からできるだけ多
くの判別情報を引き出すべく撮影状況、撮影場所に関す
る情報を用いて物体を推測する等、複雑な処理が要求さ
れる。また、そのために、多大な記憶容量と計算量を必
要とする。
[0006] When this occlusion occurs, in order to try to discriminate from the remaining portion, it is necessary to extract as much discrimination information as possible from limited image information, and to guess an object using information on a shooting situation and a shooting location. Processing is required. In addition, a large storage capacity and a large amount of calculation are required for that purpose.

【0007】あらかじめ撮影位置が設定されているた
め、被写物体を観察する方向を制御できず、あらゆる方
向から眺めた見え方を記憶する必要があり、従って、多
大な記憶容量を必要とするばかりか、ある視点からの見
え方が複雑な場合には、計算機内での記憶方法も複雑に
なり、それを取り扱うために多大な計算量を必要とする
等、多くの問題点があった。
Since the photographing position is set in advance, it is not possible to control the direction in which the object is observed, and it is necessary to store the appearance viewed from all directions. Therefore, a large storage capacity is required. On the other hand, when the view from a certain viewpoint is complicated, the storage method in the computer is also complicated, and there are many problems such as a large amount of calculation required to handle it.

【0008】本発明は、上記従来の技術における問題点
を解消するためのものであり、物体の配置状況に応じて
撮影系を移動することにより、容易に隠れのある物体を
認識できるようにした物体認識方法および物体認識装置
の提供を課題とする。
An object of the present invention is to solve the above-mentioned problems in the prior art, in which a hidden object can be easily recognized by moving a photographing system according to an arrangement state of the object. It is an object to provide an object recognition method and an object recognition device.

【0009】[0009]

【課題を解決するための手段】本発明は、隠れのある物
体を認識できるようにするため、図1に示すように、物
体認識方法においては、撮像機12により撮影して得た
画像情報を解析し被写物体の形状を判別する物体認識方
法において、撮影した被写物体の画像情報と既知物体に
関する3次元形状、見掛けの形状、物体表面の色の知識
情報との形状および色の比較に基づき、前記撮影した被
写物体の画像情報がどのような物体をどの方向から見て
いる画像の情報かを判定し、この判定の結果より、前記
被写物体の形状が判別できた場合には処理を終了し、判
定時に画像情報が不足して物体形状が判別できない場合
には不足している画像情報を獲得するための撮影位置を
求め、この撮影位置の情報に従って撮像機12を移動さ
せ、前記被写物体を画像情報が不足していた撮影位置か
ら撮像し、不足していた画像情報を補充して、前記被写
物体の形状を判別することを特徴とする。
According to the present invention, in order to make it possible to recognize a hidden object, as shown in FIG. In the object recognition method that analyzes and determines the shape of the object, the shape and color of the image information of the object to be photographed are compared with the three-dimensional shape of the known object, the apparent shape, and the knowledge information of the color of the surface of the object. Based on whether the image information of the captured object is information of an image of what kind of object is viewed from which direction, and from the result of this determination, if the shape of the object can be determined, When the processing is completed and the object shape cannot be determined due to lack of image information at the time of determination, a shooting position for acquiring the missing image information is obtained, and the imaging device 12 is moved according to the information of the shooting position. The object Captured from the photographing position image information is missing, supplemented with image information missing, characterized in that to determine the shape of the object scene object.

【0010】また、この方法を実行する物体認識装置に
おいては、既知物体に関する3次元形状、見掛けの形
状、物体表面の色の知識情報を格納する知識情報記憶部
11と、被写物体を撮影して画像情報を得る撮像機12
と、該撮像機12を取り付けて撮影位置を任意に変更さ
せる可動装置13と、前記撮像機12からの色情報を含
む画像情報を解析して、撮影された被写物体における見
掛けの形状の画像情報を抽出する画像解析部14と、こ
の画像解析部14からの画像情報と前記既知物体に関す
る知識情報との形状及び色の比較に基づき前記被写物体
の画像情報がどのような物体をどの方向から見ている画
像の情報かを判定し、この判定の結果より、前記被写物
体の形状が判別できた場合には物体認識処理を終了し、
判定時に画像情報が不足して物体形状が判別できない場
合には、その物体の認識に必要な不足している画像情報
を獲得するための前記撮像機12による撮影位置の座標
情報を求めて出力するとともに補充された不足している
画像情報を照合して検証し、前記被写物体の形状を判別
できるようになるまで、不足画像情報の獲得および画像
情報の照合、検証を繰り返す物体認識部15と、撮影位
置の座標情報に従い前記可動装置13を制御する可動装
置制御部16とを備えて前記被写物体の形状を判別する
ことを特徴とする。
Further, in the object recognizing apparatus that executes this method, a knowledge information storage unit 11 for storing knowledge information of a three-dimensional shape, an apparent shape, and a color of an object surface relating to a known object, and an image of the object to be photographed. Imager 12 that obtains image information by using
And a movable device 13 to which the imaging device 12 is attached to arbitrarily change a photographing position; and image information including color information from the imaging device 12, and an image of an apparent shape of the photographed object is analyzed. An image analysis unit 14 for extracting information; and an image information of the object based on the shape and color of the image information from the image analysis unit 14 and the knowledge information on the known object. It is determined whether the information of the image viewed from, from the result of this determination, if the shape of the object can be determined, the object recognition process ends,
If the object shape cannot be determined due to lack of image information at the time of determination, the coordinate information of the photographing position by the imaging device 12 for obtaining the missing image information necessary for recognition of the object is obtained and output. The object recognizing unit 15 repeats the acquisition of the missing image information, the comparison of the image information, and the verification until the missing image information supplemented and collated is verified and the shape of the object can be determined. And a movable device control section 16 for controlling the movable device 13 in accordance with coordinate information of a photographing position, wherein the shape of the object is determined.

【0011】[0011]

【作用】このように構成したことにより、物体認識方法
においては、撮影した被写物体の画像情報と既知物体に
関する3次元形状、見掛けの形状、物体表面の色等の知
識情報との形状および色の比較に基づき、前記撮影した
被写物体の画像情報がどのような物体をどの方向から見
ている画像の情報かを判定し、この判定の結果より、前
記被写物体の形状が判別できた場合には処理を終了し、
判定時に画像情報が不足して物体形状が判別できない場
合には不足している画像情報を獲得するための撮影位置
を求め、この撮影位置の情報に従って撮像機12を移動
させ、前記被写物体を画像情報が不足していた撮影位置
から撮像し、不足していた画像情報を補充して、前記被
写物体の形状を判別する。
With this configuration, in the object recognition method, the shape and color of the image information of the photographed object and the knowledge information such as the three-dimensional shape, apparent shape, and color of the surface of the object relating to the known object are obtained. Based on the comparison, the image information of the photographed object is determined as to what kind of object is viewed from which direction, and from the result of the determination, the shape of the object can be determined. If so, end the process,
When the object shape cannot be determined due to lack of image information at the time of the determination, a shooting position for acquiring the missing image information is obtained, and the imaging device 12 is moved according to the information of the shooting position, and the object to be shot is moved. An image is taken from the shooting position where the image information was insufficient, and the missing image information is supplemented to determine the shape of the object.

【0012】また、物体認識装置においては、可動装置
13を動作させて撮像機12を被写物体に向けて初期撮
影し、得られた画像情報から撮影された被写物体におけ
る色情報を含む見掛けの形状の画像情報を画像解析部1
4によって抽出し、得られた被写物体の画像情報と知識
情報記憶部11からの既知物体に関する3次元形状、見
掛けの形状、物体表面の色の知識情報とを物体認識部1
5によって形状及び色を比較照合して、前記被写物体の
画像情報がどのような物体をどの方向から見ている画像
の情報かを判定し、この判定の結果より、前記被写物体
の形状が判別できた場合には処理を終了し、判定時に、
隠れなどの情報不足が生じて前記被写物体の形状が判別
できない場合には、物体の認識に必要な不足している画
像情報を獲得するための撮影位置の座標情報を求めて、
可動装置制御部16を介して可動装置13を動作させ、
撮影位置を必要な向きに変更して再度撮像機12により
被写物体を撮影し、物体認識部15に不足している画像
情報を補充して、被写物体における見掛けの形状の画像
情報と既知物体に関する知識情報とを再度比較照合して
検証し、前記被写物体の形状を判別できるようになるま
で、不足画像情報の獲得および画像情報の照合、検証を
繰り返す。
In the object recognizing device, the movable device 13 is operated to initially shoot the image pickup device 12 at the object to be photographed, and an apparent image including color information of the object to be photographed is obtained from the obtained image information. Image information of the shape of the image
4, the obtained image information of the object and the three-dimensional shape, the apparent shape, and the knowledge information of the color of the surface of the object from the knowledge information storage unit 11 are stored in the object recognition unit 1.
5. The shape and color are compared and compared according to 5 to determine whether the image information of the object is information of an image in which the object is viewed from which direction, and from the result of this determination, the shape of the object Is determined, the process ends.
If the shape of the object cannot be determined due to lack of information such as occlusion, the coordinate information of the shooting position to obtain the missing image information necessary for object recognition is obtained.
Operate the movable device 13 via the movable device control unit 16,
The photographing position is changed to the required direction, the object to be photographed is again photographed by the image pickup device 12, and the missing image information is replenished to the object recognizing unit 15 so that the image information of the apparent shape of the object to be known is obtained. Acquisition of missing image information, and collation and verification of image information are repeated until the knowledge information on the object is compared and verified again to verify the shape of the object.

【0013】[0013]

【実施例】本発明における以下の実施例では、把手のあ
るカップを認識する場合について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following embodiments of the present invention, a case where a cup with a handle is recognized will be described.

【0014】図2は実施例におけるロボットアームを示
す図である。ここに21はビデオカメラであり、物体を
撮影する。22は6軸のロボットアームであり、ビデオ
カメラ21を先端に取り付けて、任意の方向にビデオカ
メラ21の向きを向ける。
FIG. 2 is a view showing a robot arm in the embodiment. Here, reference numeral 21 denotes a video camera, which shoots an object. Reference numeral 22 denotes a six-axis robot arm, to which the video camera 21 is attached at the tip, and turns the video camera 21 in an arbitrary direction.

【0015】図3は実施例装置を示すブロック図であ
る。23は処理装置であって、被写体(図示せず)をビ
デオカメラ21で撮影して得た画像情報を解析し、被写
体が何かを判定する。この処理装置23では被写体の判
定に充分な画像情報が得られていない場合には、ロボッ
トアーム22を動作させてビデオカメラ21の被写体に
対する向きを変更して撮影し、被写体の判定に必要な画
像情報を補充することができる。
FIG. 3 is a block diagram showing the apparatus according to the embodiment. A processing unit 23 analyzes image information obtained by photographing a subject (not shown) with the video camera 21 and determines what the subject is. When sufficient image information for determining the subject is not obtained in the processing device 23, the robot arm 22 is operated to change the direction of the video camera 21 with respect to the subject, and the image is captured. Information can be supplemented.

【0016】処理装置23には、画像情報を解析する画
像解析部24と、画像解析結果をメモリ25に記憶させ
ている物体に関する知識情報と照合して被写体を判定す
る物体認識部26と、被写体の判定に画像情報が不足し
ている場合、必要な撮影位置の座標情報を物体認識部2
6から受けてロボットアーム22の制御信号を求めるア
ーム制御部27を備える。
The processing device 23 includes an image analyzing unit 24 for analyzing image information, an object recognizing unit 26 for judging a subject by comparing the image analysis result with knowledge information about the object stored in a memory 25, When the image information is insufficient for the determination of the object, the coordinate information of the necessary photographing position is
And an arm control unit 27 for receiving a control signal of the robot arm 22 from the control unit 6.

【0017】画像解析部24は、ビデオカメラ21から
得られた画像の色情報を調べることにより画像内に観察
される物体の見掛けの情報を抽出し、解析結果は物体認
識部26に与えると同時に物体認識部26の部分結果を
解析処理に利用する。色情報の調査には、その明度、彩
度、色相の統計量の算出、空間微分値、空間積分値の計
算を行う。さらに、特定の色、微分値、積分値を示した
点に対しては、その空間分布を幾何学的に調べる。解析
処理は認識したい物体、その見え方によって画像に適用
する処理を変え、解析処理には画像中、必要十分な部分
にのみ適用する。また、物体認識の部分結果は解析手法
の選択、適用部分の決定に利用することもある。
The image analysis unit 24 extracts the apparent information of the object observed in the image by examining the color information of the image obtained from the video camera 21, and provides the analysis result to the object recognition unit 26. The partial result of the object recognition unit 26 is used for analysis processing. Investigation of the color information involves calculating the statistics of the brightness, saturation, and hue, and calculating the spatial differential value and the spatial integral value. Further, for points showing specific colors, differential values, and integral values, the spatial distribution is geometrically examined. The analysis process changes the process applied to the image depending on the object to be recognized and the appearance of the object. The analysis process is applied only to a necessary and sufficient portion in the image. The partial result of the object recognition may be used for selecting an analysis method and determining an applied part.

【0018】この画像解析部24には、図4に示すよう
に、ビデオカメラ21から得られた画像を格納する画像
メモリ31と、画像の全体または部分に対して明度のヒ
ストグラム、平均、標準偏差を求める色情報の統計量算
出部32と、ある閾値を境界として画像を二値化した後
に縮退、膨張、膨張、縮退を行い小領域を除去する領域
分割部33と、与えられた点列に対して直線または曲線
をあてはめて適合した部分点列として直線、曲線を検出
する直線及び曲線検出部34と、領域輪郭の直線、曲線
表現をした形状の幾何学的関係を調べてその領域が四角
形であるか円であるかなどの幾何形状を判断する領域の
幾何形状判断部35と、領域構成点の座標情報に基づい
て重心を算出する領域の重心算出部36と、円に対して
は輪郭を構成する各点の座標を用い、また四角形に対し
ては各辺の始点と終点の座標を用いるなど図形の中心の
座標を求める幾何図形の中心算出部37と、特定の領域
に対して構成点の色情報およびその平均値より領域の色
を判別する領域の色判別部38とを備える。
As shown in FIG. 4, the image analyzer 24 stores an image memory 31 for storing images obtained from the video camera 21 and a brightness histogram, an average and a standard deviation for the whole or a part of the image. A color information statistic calculation unit 32, a region dividing unit 33 that binarizes an image with a certain threshold value as a boundary, performs erosion, dilation, dilation, and erosion and removes a small region; On the other hand, a straight line or a curve is applied as a sequence of partial points, and a straight line, a straight line for detecting a curve and a curve detecting unit 34, and a geometric relationship between a straight line of an area contour and a shape expressed by a curve are examined. A geometric shape judging unit 35 for judging a geometric shape such as a circle or a circle; a center of gravity calculating unit 36 for calculating a center of gravity based on coordinate information of an area constituting point; Make up A geometric figure center calculation unit 37 for calculating the coordinates of the center of the figure, such as using the coordinates of a point, and using the coordinates of the start and end points of each side for a rectangle, and the color information of the constituent points for a specific area And an area color discriminator 38 for discriminating the color of the area from the average value.

【0019】メモリ25は、既知の物体に関する知識情
報を記憶する。このメモリ25には物体の三次元形状に
関する知識を格納する記憶部41と、物体の見掛けの形
状に関する知識を格納する記憶部42と、物体表面の色
に関する知識を格納する記憶部43とを備える。例え
ば、カップを上、下、横、斜め等から見た形状や、カッ
プの底面、側面、内部の色等を記憶させる。
The memory 25 stores knowledge information on a known object. The memory 25 includes a storage unit 41 that stores knowledge about the three-dimensional shape of the object, a storage unit 42 that stores knowledge about the apparent shape of the object, and a storage unit 43 that stores knowledge about the color of the surface of the object. . For example, the shape of the cup as viewed from above, below, laterally, obliquely, and the like, and the bottom, side, and inner colors of the cup are stored.

【0020】物体認識部26は、画像解析部24の結果
に基づいて、どのような物体をどの方向から見ているか
を判定する。判定時に画像情報が不足して物体を認識で
きない場合には、不足している情報は何かを判断し、そ
の情報を獲得するためにビデオカメラ21の姿勢(ある
いは向き)をどのように変更したら良いかを決定し、新
しく撮像する位置の座標情報をアーム制御部27に与え
る。変更する撮像位置が正しいか否かは、物体認識の部
分結果に基づいて、新しい撮像位置から獲得される画像
を予測し、実際に撮像位置を変更して獲得した画像との
照合を行うことにより検証する。
The object recognizing unit 26 determines what kind of object is viewed from which direction based on the result of the image analyzing unit 24. If the object cannot be recognized due to lack of image information at the time of determination, what kind of missing information is determined, and how to change the attitude (or orientation) of the video camera 21 in order to obtain the information It is determined whether or not it is good, and the coordinate information of the position where a new image is to be taken is given to the arm control unit 27. Whether or not the imaging position to be changed is correct is to predict the image acquired from the new imaging position based on the partial result of the object recognition, and to collate with the image acquired by actually changing the imaging position. Verify.

【0021】この物体認識部26には、図5に示すよう
に既知物体に関する知識と画像解析結果を照合する照合
部45と、撮像姿勢を判断する姿勢判断部46と、物体
認識において画像情報が不足しているか判断する不足画
像判断部47と、ビデオカメラ21の移動位置を決定し
あるいは検証する位置決定検証部48とを備える。
As shown in FIG. 5, the object recognizing section 26 includes a collating section 45 for collating knowledge about a known object and an image analysis result, an attitude judging section 46 for judging an imaging attitude, and image information for object recognition. The camera includes an insufficient image determining unit 47 for determining whether there is a shortage, and a position determination verifying unit 48 for determining or verifying the moving position of the video camera 21.

【0022】照合部45は、画像解析部24において獲
得した円や四角形の形状情報、また、それらの図形の色
情報とメモリ25に格納されている知識情報とを照合
し、観察された物体が何であるかを判断する。例えば、
カップの見え方および表面の色と知識情報との照合な
ど。
The collating unit 45 collates the shape information of the circle and the quadrangle obtained by the image analyzing unit 24 and the color information of those figures with the knowledge information stored in the memory 25, and determines the observed object. Determine what it is. For example,
Collation of cup appearance and surface color with knowledge information.

【0023】姿勢判断部46は、照合部45の結果に基
づき、物体に対するビデオカメラ21の姿勢を判断す
る。例えば、カップとビデオカメラ21の相対的位置関
係の判断を行う。
The posture determining section 46 determines the posture of the video camera 21 with respect to the object based on the result of the collating section 45. For example, the relative positional relationship between the cup and the video camera 21 is determined.

【0024】不足画像判断部47は、照合部45の結果
に基づき、物体を認識するために不足している情報が何
かを判断する。例えば、カップの底面と把手の位置を判
断する際に獲得した画像が十分か否かを判断する。
The missing image determining section 47 determines what information is missing for recognizing the object based on the result of the matching section 45. For example, it is determined whether the image acquired when determining the position of the handle and the bottom surface of the cup is sufficient.

【0025】位置決定検証部48は、姿勢判断部46と
不足画像判断部47の部分結果に基づき、不足している
画像情報を獲得するためには、何処へ移動すれば良いか
を決定し、そして、新しい移動位置から獲得される画像
を予測し、実際に移動して獲得した画像との照合を行う
ことにより移動位置を検証する。例えば、カップの底
面、内部、双方が見えなかった場合、どのように姿勢変
更をすべきかを決定するとともに、変更位置の検証を行
う。
The position determination verification unit 48 determines where to move to obtain the missing image information based on the partial results of the posture determination unit 46 and the missing image determination unit 47, Then, the image obtained from the new moving position is predicted, and the moving position is verified by comparing the image with the image obtained by actually moving. For example, when the bottom, inside, and both sides of the cup are not visible, how to change the posture is determined, and the changed position is verified.

【0026】アーム制御部27は、物体認識部26から
与えられた撮影位置の座標情報をロボットアーム22の
制御信号に変換し、ロボットアーム22を制御すること
で、ロボットアーム22に取り付けられたビデオカメラ
21の姿勢(あるいは向き)を変更する。
The arm control unit 27 converts the coordinate information of the photographing position given from the object recognizing unit 26 into a control signal for the robot arm 22 and controls the robot arm 22 to thereby control the video signal attached to the robot arm 22. The posture (or direction) of the camera 21 is changed.

【0027】このように構成した実施例の処理手順は、
図6に示すように、まず、事前に設定した位置にビデオ
カメラ21およびロボットアーム22からなる撮像系を
移動し、被写体を撮影する(ステップ51)。撮影した
被写体の画像情報から色情報を抽出し、その色情報に対
して明度、彩度、色相の統計量、空間微分値、空間積分
値を計算し、さらに特定の色を示した点、また、特定の
空間微分値、空間積分値を示した点に対しては、画像中
の空間分布を調べ、画像内で観察される面の模様、画像
内で観察される図形の幾何情報を抽出して、これらの情
報に基づいて、視野内に観察される線、面の色、模様お
よび三次元空間内における位置、向きを計算する(ステ
ップ52)。この結果に基づいて被写体が何であるか、
どのように配置されているかを判別する(ステップ5
3)。被写体の判別ができれば処理を終了する。
The processing procedure of the embodiment configured as described above is as follows.
As shown in FIG. 6, first, the imaging system including the video camera 21 and the robot arm 22 is moved to a position set in advance, and an object is photographed (step 51). Color information is extracted from the image information of the photographed subject, and brightness, saturation, hue statistics, spatial differential values, and spatial integral values are calculated for the color information, and a point indicating a specific color, and For points showing specific spatial differential values and spatial integral values, the spatial distribution in the image is examined, and the surface pattern observed in the image and the geometric information of the figure observed in the image are extracted. Then, based on the information, the line and surface colors and patterns observed in the visual field, and the position and orientation in the three-dimensional space are calculated (step 52). Based on this result, what the subject is,
Determine how they are arranged (Step 5
3). If the subject can be determined, the process ends.

【0028】もし、被写体の判別ができなければ、ステ
ップ53で部分的に認識した結果に基づいて、ステップ
51で撮影した位置では隠れていて見えなかった部分が
見えるようになり、被写体を判別できる情報が得られる
ような撮像系の姿勢の候補を計算する。そして、それら
の候補の中から、姿勢を変更したことによって被写体に
関する情報を最も豊富に得られる姿勢を決定する。それ
と同時に、変更後に撮影した画像を予測する(ステップ
54)。得られた姿勢の候補に従い、撮像系の姿勢を変
更して再度撮影する(ステップ55)。再度撮影して得
られた画像をステップ54で予測した画像と比較する
(ステップ56)。撮影画像と予測画像とが一致しなか
った場合には、ステップ54に戻り、次の候補姿勢を求
め、撮影後の画像を予測する。撮影画像と予測画像とが
一致した場合には、ステップ52に戻り、被写体の判別
に必要な処理を行い、これらの処理を被写体の判別がで
きるようになるまで繰り返す。
If the subject cannot be determined, the part hidden and not visible at the position photographed in step 51 becomes visible based on the result of partial recognition in step 53, and the subject can be determined. A candidate for the orientation of the imaging system from which information can be obtained is calculated. Then, from those candidates, a posture that can obtain the richest information about the subject by changing the posture is determined. At the same time, the image photographed after the change is predicted (step 54). According to the obtained posture candidates, the posture of the imaging system is changed and the image is taken again (step 55). The image captured again is compared with the image predicted in step 54 (step 56). If the captured image does not match the predicted image, the process returns to step 54, where the next candidate posture is obtained, and the image after capturing is predicted. If the captured image and the predicted image match, the process returns to step 52, and performs the processing necessary for subject discrimination, and repeats these processes until the subject can be discriminated.

【0029】このように構成した実施例においては、例
えば、図7に示す把手61aのあるカップ61を判別さ
せる場合、カップ61の側面、把手、底面、内部の色は
既知であり、メモリ25に予め格納しておくことにす
る。カップ61を机の上においた場合に、それが通常の
置き方でなく、逆さまに置かれていたとしても、あるい
は倒れていたとしても、もしカップ61の上方から真下
に見下ろすならば、図8(a) のように円形の部分と小
さな長方形から構成される形状に見えるか、図8(b)
のように長方形の部分に把手61aがついた形状もしく
はそれらが二次元平面内で回転した形状に見える。
In the embodiment configured as described above, for example, when the cup 61 having the handle 61a shown in FIG. 7 is determined, the color of the side, the handle, the bottom, and the inside of the cup 61 is known. It will be stored in advance. If the cup 61 is placed on a desk and it is placed upside down instead of in a normal position, or if it is lying down, if it looks down from directly above the cup 61, FIG. It looks like a shape composed of a circular part and a small rectangle as shown in FIG.
It looks like a shape with a handle 61a attached to a rectangular portion as shown in FIG.

【0030】この場合の物体認識は、まず、ビデオカメ
ラ21を机の上方、机を真下にみるように移動して、カ
ップ61を撮影する。こうして撮影した画像からカップ
61以外の色をした部分を背景として取り除く。この背
景の除去には、色情報の統計量算出部32により画像全
体に対する明度のヒストグラムを算出し、ヒストグラム
を二分する明度値を決定し、そして、領域分割部33に
よりその値を閾値として二値化を行い、カップ61と背
景を切り分けて、画像より背景を取り除く。
In the object recognition in this case, first, the video camera 21 is moved so as to look above the desk and directly below the desk to photograph the cup 61. A portion having a color other than the cup 61 is removed from the captured image as a background. To remove this background, a color information statistic calculation unit 32 calculates a brightness histogram for the entire image, determines a brightness value that divides the histogram into two, and a region division unit 33 uses the value as a threshold to perform a binary Then, the background is removed from the image by separating the cup 61 from the background.

【0031】残った部分の輪郭が、図8 (a) のような
形状か、あるいは図8 (b) のような形状か、見掛けの
形状を調べる。この形状判断には、直線及び曲線検出部
34を用いて、背景を取り除いた部分に対して、その輪
郭に相当する点列から直線または曲線を抽出する。次
に、領域の幾何形状判断部35により得られた直線また
は曲線から輪郭が四角形であるか円形であるか判断す
る。
It is checked whether the contour of the remaining portion has a shape as shown in FIG. 8A or a shape as shown in FIG. In this shape determination, a straight line or a curve is extracted from a point sequence corresponding to the outline of the portion from which the background has been removed, using the straight line and curve detecting unit 34. Next, it is determined from the straight line or the curve obtained by the region geometric shape determining unit 35 whether the contour is a quadrangle or a circle.

【0032】図8 (a) のような形状の場合、領域の色
判別部38により背景を取り除いた領域の円形部分の色
が予め記憶しておいたカップ底面の色か内部の色か調
べ、その結果によってカップ61の底面の位置を判断す
る。次に、領域の重心算出部36により背景を取り除い
た領域の重心を算出し、幾何図形の中心算出部37によ
り背景を取り除いた領域の円形部分の中心を算出する。
そして、図9に示すように、領域の重心と円形部分の中
心とのずれの向きから把手61aの位置を判断する。
In the case of the shape as shown in FIG. 8A, the color discriminating section 38 of the area checks whether the color of the circular portion of the area from which the background has been removed is the color of the bottom of the cup or the color of the inside stored in advance. Based on the result, the position of the bottom surface of the cup 61 is determined. Next, the center of gravity of the region from which the background has been removed is calculated by the center of gravity calculating unit 36 of the region, and the center of the circular portion of the region from which the background has been removed is calculated by the center calculating unit 37 of the geometric figure.
Then, as shown in FIG. 9, the position of the handle 61a is determined from the direction of displacement between the center of gravity of the region and the center of the circular portion.

【0033】図8 (b) のような形状の場合、領域の幾
何形状判断部35により、背景を取り除いた領域の長方
形の部分に対して、長方形の長辺と短辺の位置および画
像上での長方形の傾きを計算する。その結果に基づいて
カップ61がビデオカメラ21に垂直な面が見えるよう
にビデオカメラ21を移動する。すなわち、図10に示
すように、まず、初期位置から長方形の2つの短辺側に
ビデオカメラ21を倒して移動位置1または移動位置2
に変更する。もしカップ61の内部が見えるようになる
ならば、図7を回転させた画像が得られると予測され
る。そして、ビデオカメラ21を倒して得られた画像が
予測した画像であるか、または新しく見えた部分の色が
予め記憶しておいたカップ61の底面の色であるか内部
の色であるかを調べ、カップ61の底面の位置を判断す
る。次に、領域の重心算出部36により背景を取り除い
た領域の重心を算出し、幾何図形の中心算出部37によ
り背景を取り除いた領域の長方形の中心を算出する。そ
して、図11に示すように、領域の重心と長方形の中心
とのずれの向きから把手61aの位置を判断する。
In the case of the shape as shown in FIG. 8 (b), the region geometric shape judging section 35 determines the position of the long side and the short side of the rectangle and the position on the image with respect to the rectangular portion of the region from which the background has been removed. Calculate the slope of the rectangle. Based on the result, the video camera 21 is moved so that the cup 61 can see a plane perpendicular to the video camera 21. That is, as shown in FIG. 10, first, the video camera 21 is tilted to the two short sides of the rectangle from the initial position and the moving position 1 or the moving position 2 is moved.
Change to If the inside of the cup 61 becomes visible, it is expected that an image obtained by rotating FIG. 7 will be obtained. Whether the image obtained by defeating the video camera 21 is the predicted image, or whether the color of the newly seen portion is the color of the bottom surface of the cup 61 or the color of the inside stored in advance. A check is made to determine the position of the bottom surface of the cup 61. Next, the center of gravity of the region from which the background has been removed is calculated by the center of gravity calculating unit 36 of the region, and the center of the rectangle of the region from which the background has been removed is calculated by the center calculating unit 37 of the geometric figure. Then, as shown in FIG. 11, the position of the handle 61a is determined from the direction of displacement between the center of gravity of the region and the center of the rectangle.

【0034】このようにビデオカメラ21をカップ61
の上方に位置させ、カップ61を真下に見下ろすことに
より、カップ61の把手61aを必ず観察することがで
きる。カップ61が倒れている場合、始めは底面を見る
ことができないが、ビデオカメラ21を移動することに
より、カップ61の底面を判断することができる。ま
た、このような処理は、輪郭の形状判断、長方形の中心
位置、円の中心位置、領域の重心位置の計算、また、領
域の色の判断等、いずれも比較的単純な画像処理により
構成されており、把手61aを認識するために曲線の形
状判断をする必要がないため、短時間で容易に処理でき
る。
As described above, the video camera 21 is
And the handle 61a of the cup 61 can be always observed by looking down the cup 61 directly below. When the cup 61 has fallen, the bottom surface cannot be seen at first, but by moving the video camera 21, the bottom surface of the cup 61 can be determined. In addition, such processing is configured by relatively simple image processing, such as determination of the shape of a contour, calculation of the center position of a rectangle, the center position of a circle, the position of the center of gravity of a region, and determination of the color of a region. Since it is not necessary to judge the shape of the curve in order to recognize the handle 61a, the processing can be easily performed in a short time.

【0035】[0035]

【発明の効果】以上のように本発明では、物体認識方法
においては、撮影した被写物体の画像情報と既知物体に
関する知識情報との形状および色の比較に基いて、撮影
した被写物体の画像情報がどのような物体をどの方向か
ら見ている画像の情報かを判定し、この判定の結果よ
り、被写物体の形状が判別できた場合には処理を終了
し、判定時に画像情報が不足して物体形状が判別できな
い場合には不足している画像情報の撮影位置を求め、求
められた撮影位置の情報に従って撮像機を動作させて、
被写物体を撮像し、不足していた画像情報を補充して、
被写物体の形状を判別できるようにし、被写物体の配置
に応じた撮像位置に移動できて物体の隠れを回避するこ
とができる。このため、撮影位置が異なる複数の画像に
対して、各撮影状況に応じた必要最小限の判別情報を抽
出すれば良く、解析処理量を減少させ、解析時間を短縮
させることができる。また、不足していた画像情報を補
充して判別することができるため、知識情報として記憶
させておく被写物体における見掛けの形状を表す画像情
報の総数を減少させることができる。
As described above, according to the present invention, in the object recognition method, the shape and color of the photographed object are compared with the image information of the photographed object and the knowledge information on the known object. The image information is used to determine what kind of object is viewed from which direction. From the result of this determination, if the shape of the object can be determined, the process ends. If the object shape cannot be determined due to lack, the shooting position of the missing image information is obtained, and the imaging device is operated according to the obtained shooting position information,
Take an image of the object, supplement the missing image information,
The shape of the object can be determined, and the object can be moved to an imaging position according to the arrangement of the object, so that hiding of the object can be avoided. Therefore, it is only necessary to extract minimum necessary discrimination information according to each photographing situation from a plurality of images at different photographing positions, thereby reducing the amount of analysis processing and the analysis time. Further, since the missing image information can be supplemented and determined, the total number of pieces of image information representing the apparent shape of the subject to be stored as knowledge information can be reduced.

【0036】また、物体認識装置においては、可動装置
13を動作させて撮像機12を被写物体に向けて初期撮
影し、得られた画像情報から撮影された被写物体におけ
る見掛けの形状の画像情報を画像解析部14によって抽
出し、得られた被写物体の色情報を含む画像情報と知識
情報記憶部11からの既知物体に関する3次元形状、見
掛けの形状、物体表面の色の知識情報とを物体認識部1
5によって形状及び色を比較照合して、前記被写物体の
画像情報がどのような物体をどの方向から見ている画像
の情報かを判定し、この判定の結果より、前記被写物体
の形状が判別できた場合には処理を終了し、判定時に隠
れなどの情報不足が生じて物体形状が判別できない場合
には、物体の認識に必要な不足している画像情報を獲得
するための撮影位置の座標情報を求めて、可動装置制御
部16を介して可動装置13を動作させ、撮影位置を必
要な向きに変更して再度撮像機12により被写物体を撮
影し、物体認識部15に不足している画像情報を補充し
て、被写物体における色情報を含む見掛けの形状の画像
情報と既知物体に関する知識情報とを再度比較照合し、
被写物体の形状を判別できるようになるまで、この処理
を繰り返すことができるため、判別処理により得られた
情報に基づき撮像機12の姿勢を決定し、変更して撮影
し、被写物体を判別できるようになるまで物体の見掛け
の情報を補充することができて、被写物体の隠れが生じ
ることによる判別不能状態を回避できる。また、可動装
置13を動作させて被写物体の隠れた面が撮影できるよ
うに撮像機12を向けることができるため、撮影位置が
異なる複数の画像に対して各撮影状況に応じた必要最小
限の判別情報を抽出すれば良く、解析時間が短縮でき
る。さらに、最適比較面を撮影できるため、記憶してお
く被写物体の見え方を減少させることができ、記憶容量
を減らすことができる。
In the object recognition device, the movable device 13 is operated to initially shoot the image pickup device 12 at the object, and an image of the apparent shape of the object captured from the obtained image information. The information is extracted by the image analyzing unit 14, and the obtained image information including the color information of the object to be obtained and the knowledge information of the known object from the knowledge information storage unit 11 such as the three-dimensional shape, the apparent shape, the color of the surface of the object, To the object recognition unit 1
5. The shape and color are compared and compared according to 5 to determine whether the image information of the object is information of an image in which the object is viewed from which direction, and from the result of this determination, the shape of the object If the object shape can not be determined due to lack of information such as occlusion at the time of determination and the object shape cannot be determined, the shooting position for acquiring the insufficient image information necessary for object recognition , The movable device 13 is operated via the movable device control unit 16, the photographing position is changed to a required direction, the object is again photographed by the image pickup device 12, and the object recognizing unit 15 has a shortage. Replenishing the image information that has been, the image information of the apparent shape including the color information in the object to be compared and the knowledge information about the known object again,
This process can be repeated until the shape of the object can be determined. Therefore, the posture of the image pickup device 12 is determined based on the information obtained by the determination process, and the posture is changed. The apparent information of the object can be replenished until the object can be identified, and the indistinguishable state due to the hiding of the object can be avoided. In addition, since the movable device 13 is operated to direct the image pickup device 12 so that the hidden surface of the object can be photographed, the minimum necessary for a plurality of images at different photographing positions according to each photographing situation can be obtained. It is only necessary to extract the discrimination information of, and the analysis time can be reduced. Further, since the optimum comparison plane can be photographed, the appearance of the object to be stored can be reduced, and the storage capacity can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理構成図である。FIG. 1 is a principle configuration diagram of the present invention.

【図2】実施例においてカメラを取り付けたロボットア
ームを示す斜視図である。
FIG. 2 is a perspective view showing a robot arm to which a camera is attached in the embodiment.

【図3】実施例装置のブロック図である。FIG. 3 is a block diagram of an embodiment apparatus.

【図4】実施例における画像解析部のブロック図であ
る。
FIG. 4 is a block diagram of an image analysis unit in the embodiment.

【図5】実施例における物体認識部のブロック図であ
る。
FIG. 5 is a block diagram of an object recognition unit in the embodiment.

【図6】実施例における処理手順を示す流れ図である。FIG. 6 is a flowchart showing a processing procedure in the embodiment.

【図7】実施例における把手を右方に見た場合のカップ
を示す斜視図である。
FIG. 7 is a perspective view showing the cup when the handle in the embodiment is viewed to the right.

【図8】実施例におけるカップの見かけの形状であっ
て、(a)はカップの上方から真下に見下ろした場合、
(b)はカップを真横から見た場合である。
FIG. 8 shows the apparent shape of the cup in the embodiment, wherein (a) is a case where the cup is looked down from directly above the cup.
(B) is a case where the cup is viewed from the side.

【図9】実施例におけるカップの見え方が円形の場合に
おける把手の位置を示す説明図である。
FIG. 9 is an explanatory diagram showing the position of the handle in the case where the cup looks circular in the embodiment.

【図10】実施例におけるカップが机上で倒れている場
合のカメラの移動を示す説明図である。
FIG. 10 is an explanatory diagram showing movement of a camera when a cup is falling on a desk in the embodiment.

【図11】実施例におけるカップの見え方が長方形の場
合における把手の位置を示す説明図である。
FIG. 11 is an explanatory diagram showing the position of the handle in the case where the cup looks rectangular in the embodiment.

【符号の説明】[Explanation of symbols]

11 知識情報記憶部 12 撮像機 13 可動装置 14 画像解析部 15 物体認識部 16 可動装置制御部 Reference Signs List 11 Knowledge information storage unit 12 Image pickup device 13 Mobile device 14 Image analysis unit 15 Object recognition unit 16 Mobile device control unit

フロントページの続き (72)発明者 佐々木 繁 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 昭晃堂、1990.10.30発行:人工知能 シリーズ,第11巻 第7回配本「ロボッ トビジョン」第7.3章 P163〜181Continuation of the front page (72) Inventor Shigeru Sasaki 1015 Uedanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture Inside Fujitsu Limited (56) References Shokodo, 1990.10.30 Published: Artificial Intelligence Series, Volume 11, Volume 7 Distribution book “Robot Vision”, Chapter 7.3, pages 163-181

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮像機(12)により撮影して得た画像情
報を解析し被写物体の形状を判別する物体認識方法にお
いて、 影した被写物体の画像情報と既知物体に関する3次元
形状、見掛けの形状、物体表面の色の知識情報との形状
および色の比較に基づき、前記撮影した被写物体の画像
情報がどのような物体をどの方向から見ている画像の情
報かを判定し、この判定の結果より、前記被写物体の形
状が判別できた場合には処理を終了し、判定時に画像情
報が不足して物体形状が判別できない場合には不足して
いる画像情報を獲得するための撮影位置を求め、この撮
影位置の情報に従って撮像機(12)を移動させ、前記
被写物体を画像情報が不足していた撮影位置から撮像
し、不足していた画像情報を補充して、前記被写物体の
形状を判別することを特徴とする物体認識方法。
We claim: 1. have you <br/> the object recognition method to determine the imaging device (12) analyzed Hiutsushi object shape of the image information obtained by photographing by the image information of the shooting object and shooting and Based on a comparison of the shape and color with the knowledge information of the three-dimensional shape, the apparent shape, and the color of the surface of the known object, the image information of the object to be photographed is from which direction the image is viewed. Information, and from the result of this determination, the shape of the object
If the shape can be determined, the process ends. If the image information is insufficient at the time of the determination and the object shape cannot be determined, a shooting position for acquiring the missing image information is obtained. Moving the imaging device (12) in accordance with the above, taking an image of the object from a shooting position where image information was insufficient, supplementing the missing image information, and determining the shape of the object. Object recognition method to be featured.
【請求項2】既知物体に関する3次元形状、見掛けの形
状、物体表面の色の知識情報を格納する知識情報記憶部
(11)と、 被写物体を撮影して画像情報を得る撮像機(12)と、 該撮像機(12)を取り付けて撮影位置を任意に変更さ
せる可動装置(13)と、 前記撮像機(12)からの色情報を含む画像情報を解析
して、撮影された被写物体における見掛けの形状の画像
情報を抽出する画像解析部(14)と、 この画像解析部(14)からの画像情報と前記既知物体
に関する知識情報との形状及び色の比較に基づき前記被
写物体の画像情報がどのような物体をどの方向から見て
いる画像の情報かを判定し、この判定の結果より、前記
被写物体の形状が判別できた場合には物体認識処理を終
了し、判定時に画像情報が不足して物体形状が判別でき
ない場合には、その物体の認識に必要な不足している画
像情報を獲得するための前記撮像機(12)による撮影
位置の座標情報を求めて出力するとともに補充された不
足している画像情報を照合して検証し、前記被写物体の
形状を判別できるようになるまで、不足画像情報の獲得
および画像情報の照合、検 証を繰り返す物体認識部(1
5)と、 撮影位置の座標情報に従い前記可動装置(13)を制御
する可動装置制御部(16)とを備えて前記被写物体の
形状を判別することを特徴とする物体認識装置。
2. A knowledge information storage unit (11) for storing knowledge information of a three-dimensional shape, an apparent shape, and a color of an object surface relating to a known object, and an imager (12) for photographing an object to obtain image information. ), A movable device (13) to which the imaging device (12) is attached to arbitrarily change a photographing position, and image information including color information from the imaging device (12) is analyzed to obtain a photographed subject. An image analysis unit (14) for extracting image information of an apparent shape of the object; and the object to be captured based on a comparison of the shape and color between the image information from the image analysis unit (14) and the knowledge information on the known object. image information is determined what image information looking object from any direction, from the results of this determination, the
When the shape of the object can be determined, the object recognition process is terminated.
If the image information is insufficient at the time of the determination and the object shape cannot be determined , the image pickup device (12) for acquiring the insufficient image information necessary for recognizing the object. The coordinate information of the shooting position is obtained and output, and the supplemented missing image information is collated and verified, and the image of the subject is verified .
Acquisition of missing image information until the shape can be determined
And collation of the image information, the object recognition unit repeated verification (1
5) and a movable device control section (16) for controlling the movable device (13) in accordance with the coordinate information of the photographing position .
An object recognition device characterized by determining a shape .
JP04074291A 1991-02-14 1991-02-14 Object recognition method and object recognition device Expired - Fee Related JP3154501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04074291A JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04074291A JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JPH04259076A JPH04259076A (en) 1992-09-14
JP3154501B2 true JP3154501B2 (en) 2001-04-09

Family

ID=12589087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04074291A Expired - Fee Related JP3154501B2 (en) 1991-02-14 1991-02-14 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP3154501B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8526679B2 (en) 2009-10-30 2013-09-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6042289B2 (en) * 2013-08-23 2016-12-14 株式会社デンソーアイティーラボラトリ Posture estimation apparatus, posture estimation method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
昭晃堂、1990.10.30発行:人工知能シリーズ,第11巻 第7回配本「ロボットビジョン」第7.3章 P163〜181

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8526679B2 (en) 2009-10-30 2013-09-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPH04259076A (en) 1992-09-14

Similar Documents

Publication Publication Date Title
KR0158038B1 (en) Apparatus for identifying person
Bustard et al. Toward unconstrained ear recognition from two-dimensional images
Wahl et al. Surflet-pair-relation histograms: a statistical 3D-shape representation for rapid classification
US7684592B2 (en) Realtime object tracking system
CN100397410C (en) Method and device for distinguishing face expression based on video frequency
Intille et al. Visual tracking using closed-worlds
CN109271937A (en) Athletic ground Marker Identity method and system based on image procossing
CN107016348B (en) Face detection method and device combined with depth information and electronic device
JP2001307096A (en) Image recognition device and method
JP2008538623A (en) Method and system for detecting and classifying events during motor activity
CN102999918A (en) Multi-target object tracking system of panorama video sequence image
JP2001101429A (en) Method and device for observing face, and recording medium for face observing processing
JP2006343859A (en) Image processing system and image processing method
Xu et al. Integrated approach of skin-color detection and depth information for hand and face localization
US20120219179A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
Brunnström et al. Active fixation for scene exploration
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
CN113887387A (en) Ski field target image generation method, system and server
JP4465150B2 (en) System and method for measuring relative position of an object with respect to a reference point
JPH08287216A (en) In-face position recognizing method
Haritaoglu et al. Ghost/sup 3D: detecting body posture and parts using stereo
JP3154501B2 (en) Object recognition method and object recognition device
Roh et al. Robust player gesture spotting and recognition in low-resolution sports video
JP2002133413A (en) Method and device for identifying three-dimensional object using image processing
Makris et al. Robust 3d human pose estimation guided by filtered subsets of body keypoints

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19991019

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080202

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090202

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees