JP2002296010A - Own position identifying method using image - Google Patents

Own position identifying method using image

Info

Publication number
JP2002296010A
JP2002296010A JP2001096306A JP2001096306A JP2002296010A JP 2002296010 A JP2002296010 A JP 2002296010A JP 2001096306 A JP2001096306 A JP 2001096306A JP 2001096306 A JP2001096306 A JP 2001096306A JP 2002296010 A JP2002296010 A JP 2002296010A
Authority
JP
Japan
Prior art keywords
image
teaching
camera
images
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001096306A
Other languages
Japanese (ja)
Inventor
Atsushi Shiraishi
篤史 白石
Naoyuki Sawazaki
直之 沢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001096306A priority Critical patent/JP2002296010A/en
Publication of JP2002296010A publication Critical patent/JP2002296010A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the accuracy of a technique for determining an object or identifying an own position by comparing a camera-inputted image with a template image. SOLUTION: An image is inputted from an imaging means such as a camera, and the photographed image is compared with a teaching image (template image) photographed with a wider visual field while the resolution of images is varied. This is repeated to search for the object of teaching related to the teaching image (template image). If the object has absolute positional information in a room, the own position of the imaging means can be determined by determining the position of the object from at least two photographed images. Based on this, a movable body can be navigated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、周囲の環境画像よ
りカメラの視線方向や特定の対象物を発見する技術に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technology for finding a line of sight of a camera or a specific target object from a surrounding environment image.

【0002】[0002]

【従来の技術】ロボットのナビゲーション技術において
は、当該ロボットの目ともなるカメラの画像より対象物
を特定したり、自己の位置を同定することが必須であ
る。
2. Description of the Related Art In a navigation technique of a robot, it is essential to specify a target object from a camera image which is also an eye of the robot and to identify a position of the robot.

【0003】そのために、ロボット自身にあらかじめテ
ンプレートとなる画像を用意しておき、このテンプレー
ト画像と実際のロボットのカメラ画像とを比較して対象
物を把握したり自己の位置を同定することが行われてい
た。
[0003] For this purpose, an image serving as a template is prepared in advance in the robot itself, and the template image is compared with an actual camera image of the robot to grasp an object or identify its own position. Had been

【0004】このとき、対象物を確実に把握するために
は、画像精度の高い(高分解能な)テンプレート画像を
用意しておき、これをカメラ画像と比較する作業を行っ
ていた。
At this time, in order to reliably grasp the target, a template image with high image accuracy (high resolution) is prepared, and an operation for comparing the template image with a camera image is performed.

【0005】しかし、このような高分解能なテンプレー
ト画像を用いた場合、カメラ画像との比較のために計算
量が大きくなり、テンプレート画像と類似する物体がカ
メラ画像内に複数あった場合に誤った検出を行ってしま
う可能性があった。さらに、テンプレート画像がそのと
きのカメラ画像に含まれているか否かを判定するため
に、当該カメラのその時点での視線方向の情報を特定す
る必要があった。
However, when such a high-resolution template image is used, the amount of calculation becomes large for comparison with the camera image, and an error occurs when a plurality of objects similar to the template image exist in the camera image. There was a possibility that detection would be performed. Further, in order to determine whether or not the template image is included in the camera image at that time, it is necessary to specify information on the line of sight of the camera at that time.

【0006】一方、カメラ画像は必ずしも厳密にテンプ
レート画像と一致するわけではなく、対象物探索や自己
位置同定の基礎となる情報を特定できないことが多かっ
た。
[0006] On the other hand, the camera image does not always exactly match the template image, and in many cases, information that is the basis of object search or self-position identification cannot be specified.

【0007】たとえば、実際のカメラ画像がテンプレー
ト画像の撮影位置よりも対象物に接近している場合には
カメラ画像の対象物はテンプレート画像のそれよりも大
きく撮影されてしまうことになる。
For example, if the actual camera image is closer to the object than the photographing position of the template image, the object of the camera image will be photographed larger than that of the template image.

【0008】このように、テンプレート画像取得時のカ
メラ位置と、実際のカメラ画像入力時におけるカメラ位
置が微小にずれていた場合、画像のある部分は引き延ば
され、ある部分は収縮してしまう等の変化が生じ、類似
性の確認処理がそのままでは困難となっていた。
As described above, when the camera position at the time of template image acquisition and the camera position at the time of actual camera image input are slightly deviated, a certain portion of the image is elongated and a certain portion is contracted. This makes it difficult to confirm the similarity as it is.

【0009】なお、このような課題はロボット技術に限
られず、カーナビゲーション等の分野においても同様の
課題として認識されている。
[0009] Such a problem is not limited to the robot technology, and is recognized as a similar problem in the field of car navigation and the like.

【0010】[0010]

【発明が解決しようとする課題】本発明は、このような
点に鑑みてなされたものであり、カメラ入力画像とテン
プレート画像とを比較して行う対象物の特定や自己位置
の同定技術の精度を高め、ひいては対象物に対する制御
や移動体のナビゲーションを確実に行うことのできる技
術を提供することを技術的課題とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above points, and has been made in consideration of the accuracy of a technique for identifying an object and identifying its own position by comparing a camera input image with a template image. It is an object of the present invention to provide a technique capable of reliably controlling a target object and navigating a moving object.

【0011】[0011]

【課題を解決するための手段】本発明は、カメラ等の撮
像手段より画像を入力して、この撮影画像をそれよりも
広範囲の視野で撮影された教示画像(テンプレート画
像)とを画像の分解能を変更しながら比較する。これを
繰り返すことで前記教示画像(テンプレート画像)と関
係付けられた教示対象物(オブジェクト)を探索する。
この教示対象物が部屋の中での絶対的な位置情報をもっ
ていれば、この教示対象物の位置の特定を少なくとも2
以上の撮像画像から行うことにより当該撮像手段の自己
位置を特定でき、これに基づいて移動体のナビゲーショ
ンを行うことができる。
According to the present invention, an image is inputted from an image pickup means such as a camera, and the captured image is compared with a teaching image (template image) taken in a wider field of view than the image. Change while comparing. By repeating this, the teaching target (object) associated with the teaching image (template image) is searched.
If the teaching object has absolute position information in the room, the position of the teaching object is specified at least two times.
The self-position of the imaging unit can be specified by performing the above-described captured image, and the navigation of the moving object can be performed based on this.

【0012】[0012]

【発明の実施の形態】以下、図面に基づいて、本発明の
実施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【実施例】図1は、本発明の実施例である処理の概念を
示した説明図、図2は処理の過程を示すブロック図であ
る。
FIG. 1 is an explanatory diagram showing the concept of a process according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a process of the process.

【0013】本実施例の処理は、汎用のコンピュータシ
ステムによって実現され、以下に示す機能は当該コンピ
ュータシステムに提供されるプログラムを該コンピュー
タシステムの中央処理装置(CPU)が読み出して実行
することにより行われる。
The processing of this embodiment is realized by a general-purpose computer system. The functions described below are executed by a central processing unit (CPU) of the computer system reading and executing a program provided to the computer system. Will be

【0014】このコンピュータシステムには、RAM、
ROMまたはハードディスク装置(HD)等の記憶装置
を有しており、これらの記憶媒体中に前記プログラムは
インストールされている。これらの記憶媒体中には、図
1に示した教示画像と、教示対象部品画像とが格納され
ている。ここで、教示画像とは、あらかじめ室内を撮影
した画像であり、図1ではシステムキッチン(台所)の
ガスレンジユニット、シンクユニットおよび冷蔵庫が配
置された画像となっている。教示対象部品画像は、ガス
レンジユニットのスイッチ、グリル、点火口の画像がそ
れぞれ用意されている。これらの教示対象部品画像は、
前記教示画像と関連付けられて、部屋の中での絶対的な
位置情報を有しており、これらの教示対象部品画像の位
置を取得することにより、部屋の中におけるカメラ位置
が算出できるようになっている。
The computer system includes a RAM,
It has a storage device such as a ROM or a hard disk device (HD), and the program is installed in these storage media. In these storage media, the teaching image shown in FIG. 1 and the teaching target part image are stored. Here, the teaching image is an image obtained by photographing the room in advance, and in FIG. 1, it is an image in which a gas range unit, a sink unit, and a refrigerator of a system kitchen (kitchen) are arranged. As the teaching target component image, an image of the switch, grill, and ignition port of the gas range unit is prepared. These teaching target part images are
It has absolute position information in the room in association with the teaching image, and by acquiring the positions of these teaching target part images, the camera position in the room can be calculated. ing.

【0015】カメラ(TVC)は室内を移動可能な移動
体、たとえばロボット等に取り付けられており、室内の
画像を順次任意に撮影し、この撮影画像は前記コンピュ
ータシステムの中央処理装置(CPU)によってデジタ
ル画像化されカメラ画像として、前記教示画像、教示対
象部品画像とともに前記記憶媒体に格納される(S
1)。
A camera (TVC) is attached to a mobile object that can move in a room, for example, a robot, and arbitrarily shoots images of the room sequentially. The shot images are taken by a central processing unit (CPU) of the computer system. The digital image is stored in the storage medium as a camera image together with the teaching image and the teaching target part image (S
1).

【0016】中央処理装置(CPU)は、画像処理プロ
ラムによりハードディスク装置(HD)に蓄積されたカ
メラ画像と教示画像とを読み出して低分解能処理を行う
(S2)。この低分解能処理とは、たとえば教示画像の
分解能を下げて少ないデータ量でカメラ画像との類似性
の比較を行うことができる(S3)。
The central processing unit (CPU) reads the camera image and the teaching image stored in the hard disk drive (HD) by the image processing program and performs low resolution processing (S2). In the low-resolution processing, for example, the resolution of the teaching image can be reduced to compare the similarity with the camera image with a small amount of data (S3).

【0017】このときの判定方法の一例を示したものが
図3である。すなわち、低分解能画像の中央を横切る線
上の輝度変化の現れる順番、すなわち輝度変化数列を、
各教示画像およびカメラ入力画像を特徴付ける数列とし
て用いる。輝度変化数列の比較は、(1)補間により数列
の要素数を一致させる、(2)次に次式に示す正規化相関
値の最大値により一致の程度を定量化することによって
行う。
FIG. 3 shows an example of the determination method at this time. That is, the order in which the luminance changes appear on a line crossing the center of the low-resolution image, that is, the luminance change sequence,
Each teaching image and the camera input image are used as a character sequence. The comparison of the brightness change sequence is performed by (1) matching the number of elements of the sequence by interpolation, and (2) quantifying the degree of matching by the maximum value of the normalized correlation value shown in the following equation.

【数1】 ここで、sは入力画像の輝度変化数列の要素を、tはテ
ンプレート画像の輝度変化数列の要素をあらわす。
(Equation 1) Here, s represents an element of the sequence of brightness changes of the input image, and t represents an element of the sequence of brightness changes of the template image.

【0018】これを図3を用いて具体的に説明する。ま
ず、図1に示したようなキッチン室内の教示画像より、
低分解能全周パノラマ画像(たとえば24×138画素
程度)を取得し、この画像より輝度特性を算出し、任意
に選択したa0〜a3の等分割線との交点を輝度数列と
して取得する。この数列は、同図では、a1,a2,a
3,a3,a2,a1,a0,a0,a0,a0・・・
となる。
This will be specifically described with reference to FIG. First, from the teaching image in the kitchen room as shown in FIG.
A low-resolution full-circle panoramic image (for example, about 24 × 138 pixels) is acquired, luminance characteristics are calculated from this image, and an intersection point with an arbitrarily selected a0-a3 equal dividing line is acquired as a luminance sequence. This sequence is represented by a1, a2, a
3, a3, a2, a1, a0, a0, a0, a0,.
Becomes

【0019】一方、カメラ画像からも前記教示画像に対
応した低分解能画像を取得し、このカメラ画像からの輝
度特性を算出し、前記教示画像処理と同じ等分割線との
交点の輝度数列を取得する。ところで、教示画像取得時
のカメラ位置と、実際のカメラ画像入力時におけるカメ
ラ位置との間に差異がある場合、画像としても差異が現
れる。このことを図4を用いて説明する。
On the other hand, a low-resolution image corresponding to the teaching image is also obtained from the camera image, a brightness characteristic from the camera image is calculated, and a brightness sequence at the intersection with the same dividing line as in the teaching image processing is obtained. I do. By the way, when there is a difference between the camera position at the time of acquiring the teaching image and the camera position at the time of inputting the actual camera image, a difference appears as an image. This will be described with reference to FIG.

【0020】たとえば、図中Aの地点でCを撮影した画
像が教示画像となっているときに、実際のカメラがロボ
ットに装着されてBの地点からCを撮影した場合、教示
画像上でのCの画面と、カメラ画像上でのCの画面では
カメラ位置が異なるために画像に差異が現れる。すなわ
ち、Aの地点で撮影したCの画像(教示画像)よりもB
の地点で撮影したCの画像(カメラ画像)の方が拡大さ
れた画像となっている。一方、B地点で全周パノラマ画
像を得た場合には、Cの180度反対側の位置(図中D
の地点)のカメラ画像は教示画像よりも縮小された画像
となって現れる。
For example, when an image obtained by photographing C at point A in the figure is a teaching image and an actual camera is mounted on the robot and photographing C from point B, Since the camera position is different between the screen of C and the screen of C on the camera image, a difference appears in the image. That is, the image B (the teaching image) photographed at the point A is smaller than the image B (the teaching image).
The image of C (camera image) photographed at the point is a magnified image. On the other hand, when an all-around panoramic image is obtained at point B, a position 180 degrees opposite to C (D in the figure)
The camera image at the point ()) appears as an image reduced from the teaching image.

【0021】したがって、実際のカメラ画像は教示画像
よりも部分的に拡大・縮小された画像になってしまって
いるため、教示画像とカメラ画像とを画素単位で比較し
ても一致点が見いだせない。このように、テレビ画像と
して低分解能全周パノラマ画像を取得した場合、教示画
像とこのパノラマ画像(テレビ画像)との取得位置のず
れにより輝度値の変化には部分的な引き延ばしや縮小が
現れることになる。
Therefore, since the actual camera image is a partially enlarged / reduced image than the teaching image, no coincidence point can be found even when the teaching image and the camera image are compared in pixel units. . As described above, when a low-resolution full-circle panoramic image is acquired as a television image, a partial enlargement or reduction appears in a change in the luminance value due to a shift in the acquisition position between the teaching image and the panoramic image (television image). become.

【0022】しかし、このような輝度値の変化に伸び縮
みがあったとしても輝度変化数列そのものは影響を受け
ない。そのため、教示画像とテレビ画像の一致点を見つ
けることが容易となり、教示画像中のテレビ画像の一致
点を検出することが可能となる。
However, even if such a change in the brightness value is expanded or contracted, the brightness change sequence itself is not affected. Therefore, it is easy to find a matching point between the teaching image and the television image, and it is possible to detect a matching point between the television image in the teaching image.

【0023】この教示画像中のテレビ画像の一致点検出
は、低分解能の教示画像を初期検索対象画面として、こ
れを次第に分解能を高めながらテレビ画像との一致箇所
を検索する。このとき、教示画像とカメラ画像との類似
性を確認する段階で、カメラ画像に対して教示対象部品
画像位置を検索しながらその位置(対象部品の位置)を
探索してもよい(S4)。
In the detection of the coincidence point of the television image in the teaching image, a coincidence point with the television image is searched while gradually increasing the resolution by using the low-resolution teaching image as an initial search target screen. At this time, at the stage of confirming the similarity between the teaching image and the camera image, the position (the position of the target component) may be searched while searching for the teaching target component image position in the camera image (S4).

【0024】前記低分解能画像で教示画像との類似性が
予測できた場合には、教示画像およびカメラ画像の分解
能を所定分だけ高めて再度S3〜S5の処理を繰り返
す。このように、画像の解像度を順次低分解能画像→高
分解能画像にしながらカメラ画像と教示画像(教示対象
部品画像)との比較を繰り返すことによって、カメラ画
像内での教示画像(対象部品)との類似性の予測精度が
高まり、その位置が特定できる。
If the similarity with the teaching image can be predicted from the low-resolution image, the resolution of the teaching image and the camera image is increased by a predetermined amount, and the processing of S3 to S5 is repeated again. In this way, by repeatedly comparing the camera image with the teaching image (taught target component image) while sequentially changing the resolution of the image from a low-resolution image to a high-resolution image, the teaching image (target component) in the camera image can be compared with the teaching image (target component). The similarity prediction accuracy is increased, and the position can be specified.

【0025】このとき、検出された2以上の教示対象部
品の位置関係から室内でのカメラ位置を特定することが
できる(S7)。また、第1のカメラ位置から得られた
教示対象部品の位置と、第2のカメラ位置から得られた
同一の教示対象部品との位置からカメラ位置を特定する
こともできる。
At this time, the camera position in the room can be specified from the positional relationship between the detected two or more teaching target components (S7). Further, the camera position can be specified from the position of the teaching target component obtained from the first camera position and the position of the same teaching target component obtained from the second camera position.

【0026】この第1および第2のカメラ位置とは、移
動体によりカメラが移動した前後の位置でそれぞれ撮影
を行った位置であってもよいし、移動体上に2つのカメ
ラを搭載しており、同時に撮影したそれぞれのカメラ位
置であってもよい。このようにして室内でのカメラ位置
が特定できることによって、室内における移動体を制御
することができる(S8)。
The first camera position and the second camera position may be the positions before and after the camera has been moved by the moving body, or may be the positions where two cameras are mounted on the moving body. Alternatively, the positions of the cameras that have been photographed at the same time may be used. By specifying the camera position in the room in this way, it is possible to control the moving object in the room (S8).

【0027】なお、図3に示した例では閾値としてのa
0〜a3はたとえば輝度の最大値と最小値との間を均等
に5分割して4本の閾値を決めているがこれに限定され
ない。また、閾値間は等間隔である必要もない。
Note that, in the example shown in FIG.
For 0 to a3, for example, the range between the maximum value and the minimum value of the luminance is equally divided into five and four threshold values are determined, but the present invention is not limited to this. In addition, the intervals between the thresholds need not be equal.

【0028】このように、本実施例によれば、入力カメ
ラ画像の教示画像に対するカメラ位置のずれに起因する
部分部分の多少の拡大/縮小に左右されない安定した画
像特性を抽出することができるため、これを指標として
入力カメラ画像と教示画像との類似性の検出が容易とな
る。
As described above, according to the present embodiment, it is possible to extract a stable image characteristic which is not influenced by a slight enlargement / reduction of a portion caused by a deviation of the camera position of the input camera image from the teaching image. Using this as an index, it becomes easy to detect the similarity between the input camera image and the teaching image.

【0029】なお、教示画像とカメラ入力画像との類似
性の比較に際しては、カメラ入力画像の所定の部分に対
応する位置の教示画像の部分との類似性の総和を用いて
行うようにしてもよい。この場合、カメラ入力画像を分
割した断片画像に対して拡大/等倍/縮小等の処理を行
い、教示画像のほぼそれに相当する位置の断片画像との
相関の最良の値を計算する。そして、全ての断片画像に
ついて計算したその相関値の和を指標として、入力カメ
ラ画像と教示画像との類似性の把握を可能にする。より
具体的には、カメラ入力画像を水平方向に短冊状に分割
した断片画像を作成し、それぞれの断片画像に対して拡
大/等倍/縮小の処理を行ったものを一旦記憶媒体に保
存する。
It should be noted that the similarity between the teaching image and the camera input image may be compared using the sum of similarities between the teaching image portion at a position corresponding to a predetermined portion of the camera input image. Good. In this case, processing such as enlargement / same magnification / reduction is performed on the fragment image obtained by dividing the camera input image, and the best value of the correlation with the fragment image at a position substantially corresponding to the teaching image is calculated. Then, using the sum of the correlation values calculated for all the fragment images as an index, it is possible to grasp the similarity between the input camera image and the teaching image. More specifically, a fragment image obtained by dividing a camera input image into strips in the horizontal direction is created, and an image obtained by performing enlargement / same magnification / reduction processing on each fragment image is temporarily stored in a storage medium. .

【0030】次に、教示画像を読み出して、この教示画
像のほぼそれに相当する位置の断片画像との相関を各大
きさの断片画像に対して計算し、最も相関のよかった場
合の相関値を記録する。全ての断片画像に対してこの処
理を繰り返し、最良の相関値の和を指標として入力カメ
ラ画像と教示画像との類似性を求めるものである。
Next, the teaching image is read out, the correlation between the teaching image and the fragment image at a position corresponding to the teaching image is calculated for the fragment image of each size, and the correlation value when the correlation is the best is recorded. I do. This process is repeated for all the fragment images, and the similarity between the input camera image and the teaching image is obtained using the best sum of the correlation values as an index.

【0031】次に、記憶媒体に保持している教示画像と
カメラ入力画像との微小な位置のずれに基づいて教示画
像からみたカメラ入力画像取得時のカメラ位置の方向を
決定することもできる。具体的には、図4に示すよう
に、カメラ入力画像取得位置と教示画像取得時のカメラ
位置がずれている場合、その2つの画像を重ね合わせる
と、ある場所では教示画像に比べてカメラ入力画像の微
小領域が右方向に、ある場所ではその反対方向にずれて
いる。このずれが最大および最小となる方向をもとに、
カメラ入力画像取得時におけるカメラ位置が教示画像取
得時のカメラ位置とどの方向にずれているのかが把握で
きる。
Next, the direction of the camera position at the time of acquiring the camera input image as viewed from the teaching image can be determined based on the slight positional shift between the teaching image held in the storage medium and the camera input image. Specifically, as shown in FIG. 4, when the camera input image acquisition position and the camera position at the time of acquiring the teaching image are shifted, when the two images are superimposed, the camera input image is compared with the teaching image at a certain place. The minute area of the image is shifted to the right, and in some places in the opposite direction. Based on the direction in which this deviation is maximum and minimum,
It is possible to grasp in which direction the camera position at the time of acquiring the camera input image is different from the camera position at the time of acquiring the teaching image.

【0032】また、教示画像とカメラ入力画像との画像
の大きさの変化に基づいて室内におけるカメラのずれも
把握できる。すなわち、図4に示すように、カメラ入力
画像取得位置と教示画像取得時のカメラ位置がずれてい
る場合、その2つの画像を重ね合わせると、ある場所で
は教示画像に比べてカメラ入力画像の微小領域が拡大
し、ある場所では縮小している。部屋が円形でその中央
付近で各画像の取得位置が微小移動する場合には、移動
方向(接近方向)の画像が最も大きくなり、その反対方
向(離反方向)の画像が最も小さくなる傾向にある。し
たがって、微小領域画像の拡大/縮小の程度がそれぞれ
最大となる方向をもとに、カメラ入力画像取得時のカメ
ラ位置が、教示画像取得時のカメラ位置からどの方向に
ずれているのかを概略推定することができる。
Further, the displacement of the camera in the room can be grasped based on the change in the size of the image between the teaching image and the camera input image. That is, as shown in FIG. 4, when the camera input image acquisition position and the camera position at the time of acquiring the teaching image are shifted, when the two images are superimposed, the camera input image is slightly smaller than the teaching image at a certain place. The area is expanding and in some places shrinking. When the room is circular and the image acquisition position slightly moves near the center of the room, the image in the moving direction (approaching direction) tends to be the largest, and the image in the opposite direction (separating direction) tends to be the smallest. . Therefore, based on the direction in which the degree of enlargement / reduction of the minute area image is maximized, it is roughly estimated in which direction the camera position at the time of acquiring the camera input image is deviated from the camera position at the time of acquiring the teaching image. can do.

【0033】これらのように、教示画像とその取得時の
カメラ位置を関連付けておくことにより、カメラ入力画
像とこの教示画像との位置のずれおよび大きさの差に基
づいて部屋内のカメラの方向および位置を特定すること
が可能となる。
As described above, by associating the teaching image with the camera position at the time of acquiring the teaching image, the direction of the camera in the room can be determined based on the positional shift and the difference in size between the camera input image and the teaching image. And the position can be specified.

【0034】以上の説明のように、教示画像とカメラ入
力画像との類似性に基づいて移動体に搭載されたカメラ
の位置を決定することができる。このような教示画像
は、空間的に所定の距離をおいて間欠的に記憶媒体上に
取得蓄積しておき、これらの教示画像とカメラ入力画像
との類似性の確認処理を順次繰り返すことにより、前記
教示画像を取得したカメラの移動経路に沿って自己位置
をナビゲートすることができる。
As described above, the position of the camera mounted on the moving body can be determined based on the similarity between the teaching image and the camera input image. Such teaching images are acquired and accumulated intermittently on a storage medium at a predetermined spatial distance, and by successively repeating similarity checking processing between these teaching images and the camera input image, The self-position can be navigated along the movement path of the camera that has acquired the teaching image.

【0035】図5は、45cm間隔で撮影したナビゲー
ション用の教示画像群である。同図に示すように、教示
画像を連続的に読み出してカメラ入力画像との類似性を
確認し続けることによってカメラを搭載した移動体が正
しい経路上を移動していること保証し、移動体を正確な
経路に沿ってナビゲートすることができる。
FIG. 5 shows a group of teaching images for navigation taken at 45 cm intervals. As shown in the figure, by continuously reading the teaching image and continuously checking the similarity with the camera input image, it is assured that the moving object equipped with the camera is moving on the correct route, and the moving object is You can navigate along the exact route.

【0036】また、最新のカメラ入力画像の、最も適合
した教示画像に対する角度からの自己の進行方向も把握
でき、教示画像に対する姿勢を修正することができる。
この場合の教示画像は必ずしも全周パノラマ画像となっ
ている必要はなく、進行方向を中心にある範囲が確保さ
れていればよい。
Further, the self-moving direction from the angle of the latest camera input image with respect to the most suitable teaching image can be grasped, and the posture with respect to the teaching image can be corrected.
In this case, the teaching image does not necessarily need to be a full-circle panoramic image, and it is sufficient that a range around the traveling direction is secured.

【0037】また、目標地点への到着を厳密に判断する
ために、カメラ入力画像の中央部分を拡大/縮小した画
像を最後の教示画像と比較し、拡大または縮小しない画
像と一致したカメラ入力画像が得られた位置が最終到達
位置と判定してもよい。
Further, in order to strictly determine the arrival at the target point, an image obtained by enlarging / reducing a central portion of the camera input image is compared with the last teaching image, and a camera input image which matches an image which is not enlarged or reduced is obtained. May be determined as the final arrival position.

【0038】以上、本発明の実施例を説明したが、本発
明はこれらの実施例に限定されるものではなく、以下の
付記をも包含している。すなわち、
Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, but includes the following supplementary notes. That is,

【0039】(付記1) 撮像手段より画像を入力し、
前記入力された撮影画像よりも広範囲の視野で撮影され
た教示画像とを比較し、前記比較は、前記撮影画像また
は教示画像の分解能を変更しながら画像同士の比較を繰
り返すことによって行い、前記教示画像と関係付けられ
た教示対象物を探索する対象物探索方法。
(Supplementary Note 1) An image is input from the imaging means,
The input image is compared with a teaching image captured in a wider field of view than the input captured image, and the comparison is performed by repeating the comparison between the images while changing the resolution of the captured image or the teaching image. An object search method for searching for a teaching object associated with an image.

【0040】(付記2) 撮像手段より画像を入力し、
前記入力された撮影画像よりも広範囲の視野で撮影され
た教示画像とを比較し、前記比較は、前記撮影画像また
は教示画像の分解能を変更しながら画像同士の類似性の
比較を繰り返すことによって行い、前記教示画像と関係
付けられた教示対象物を探索し、前記撮影画像中の教示
対象物の位置を特定し、前記教示対象物の位置の特定
を、少なくとも2以上の撮像画像から行うことにより撮
像手段の自己位置を同定する自己位置同定方法。
(Supplementary Note 2) An image is input from the imaging means,
Compare the input image with the teaching image captured in a wider field of view than the input captured image, the comparison is performed by repeatedly comparing the similarity between the images while changing the resolution of the captured image or the teaching image By searching for a teaching target associated with the teaching image, specifying the position of the teaching target in the captured image, and specifying the position of the teaching target from at least two or more captured images. A self-position identification method for identifying a self-position of an imaging unit.

【0041】(付記3) 前記撮像手段は所定の環境内
を移動可能な移動体に設けられている付記2記載の自己
位置同定方法。
(Supplementary note 3) The self-position identification method according to supplementary note 2, wherein the imaging means is provided on a movable body that is movable in a predetermined environment.

【0042】(付記4) 前記画像同士の類似性の比較
は、撮影画像と教示画像とのそれぞれの水平方向の輝度
変化数列の比較により行う付記2記載の自己位置同定方
法。
(Supplementary Note 4) The self-position identification method according to Supplementary Note 2, wherein the comparison of the similarity between the images is performed by comparing the respective sequences of luminance changes in the horizontal direction between the captured image and the teaching image.

【0043】(付記5) 前記画像同士の類似性の比較
は、撮影画像の部分画像と教示画像の部分画像との類似
性の総和により行う付記2記載の自己位置同定方法。
(Supplementary Note 5) The self-position identification method according to Supplementary Note 2, wherein the comparison of the similarity between the images is performed by summing the similarity between the partial image of the captured image and the partial image of the teaching image.

【0044】(付記6) 前記撮影画像の所定の部分で
の教示画像との微小な位置の変化に基づいて、教示画像
取得時のカメラ位置からみた前記撮影画像取得時のカメ
ラ位置を特定する付記1または2記載の自己位置同定方
法。
(Supplementary Note 6) A supplementary note that specifies the camera position at the time of acquiring the photographed image as viewed from the camera position at the time of acquiring the teach image, based on a minute change in the position of the photographed image from the teaching image at a predetermined portion. 3. The self-position identification method according to 1 or 2.

【0045】(付記7) 前記撮影画像の所定の部分で
の教示画像との微小な対象画像の大きさの変化に基づい
て、教示画像取得時のカメラ位置からみた前記撮影画像
取得時のカメラ位置を特定する付記1または2記載の自
己位置同定方法。
(Supplementary Note 7) The camera position at the time of acquiring the photographed image as viewed from the camera position at the time of acquiring the teach image, based on a change in the size of a minute target image with respect to the teach image at a predetermined portion of the photographed image. 3. The self-position identification method according to claim 1 or 2, wherein

【0046】(付記8) 前記に加えて、教示画像を空
間的に所定の距離毎に間欠的に蓄積し、当該教示画像と
撮影画像との類似性の検出を前記教示画像毎に順次繰り
返して教示画像を取得したカメラ位置の移動経路に沿っ
て自己位置をナビゲートする付記1または2記載の自己
位置同定方法を利用したナビゲート方法。
(Supplementary Note 8) In addition to the above, teaching images are intermittently accumulated at predetermined spatial intervals, and similarity detection between the teaching images and the photographed images is sequentially repeated for each of the teaching images. A navigation method using the self-position identification method according to Supplementary note 1 or 2, wherein the self-position is navigated along the movement path of the camera position from which the teaching image was acquired.

【0047】(付記9) 撮像手段より画像を入力し、
前記入力された撮影画像よりも広範囲の視野で撮影され
た教示画像とを比較し、前記比較は、前記撮影画像また
は教示画像の分解能を変更しながら画像同士の比較を繰
り返すことによって行い、前記教示画像と関係付けられ
た教示対象物を探索するコンピュータ実行可能なプログ
ラム。
(Supplementary Note 9) An image is input from the imaging means,
The input image is compared with a teaching image captured in a wider field of view than the input captured image, and the comparison is performed by repeating the comparison between the images while changing the resolution of the captured image or the teaching image. A computer-executable program for searching for a teaching object associated with an image.

【0048】(付記10) 撮像手段より画像を入力
し、前記入力された撮影画像よりも広範囲の視野で撮影
された教示画像とを比較し、前記比較は、前記撮影画像
または教示画像の分解能を変更しながら画像同士の類似
性の比較を繰り返すことによって行い、前記教示画像と
関係付けられた教示対象物を探索し、前記撮影画像中の
教示対象物の位置を特定し、前記教示対象物の位置の特
定を、少なくとも2以上の撮像画像から行うことにより
撮像手段の自己位置を同定するコンピュータ実行可能な
プログラム。
(Supplementary Note 10) An image is input from an imaging means, and the input captured image is compared with a teaching image captured in a wider field of view than the input captured image. Performed by repeatedly comparing the similarity between the images while changing, searching for the teaching target associated with the teaching image, specifying the position of the teaching target in the captured image, A computer-executable program for identifying a position of an imaging unit by identifying a position from at least two or more captured images.

【発明の効果】本発明によれば、カメラ入力画像とテン
プレート画像とを比較して行う対象物の特定や自己位置
を同定技術の精度を高め、さらにはカメラの位置の把握
を容易にし、ナビゲーションを確実に行うことができ
る。
According to the present invention, the accuracy of the technique for identifying an object and identifying its own position by comparing a camera input image with a template image is improved, and further, the position of the camera is easily grasped, and navigation is performed. Can be performed reliably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例を示す概念図FIG. 1 is a conceptual diagram showing an embodiment.

【図2】 実施例の処理を示すブロック図FIG. 2 is a block diagram illustrating processing according to the embodiment;

【図3】 実施例の輝度変化数列の比較による画像の類
似性を判定する技術を示す説明図
FIG. 3 is an explanatory diagram showing a technique of determining image similarity by comparing a luminance change number sequence according to the embodiment;

【図4】 実施例のカメラ位置と画像のずれ(拡大・縮
小)との関係を説明するための図
FIG. 4 is a diagram for explaining a relationship between a camera position and an image shift (enlargement / reduction) according to the embodiment.

【図5】 実施例のナビゲーションのための間欠的な教
示画面群の例
FIG. 5 is an example of an intermittent teaching screen group for navigation in the embodiment.

【符号の説明】[Explanation of symbols]

HD ハードディスク装置 HD hard disk drive

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 7/18 H04N 7/18 Z 5L096 Fターム(参考) 2F065 AA00 AA03 BB05 DD03 FF04 JJ03 JJ26 MM21 PP01 QQ13 QQ24 QQ29 QQ38 QQ42 RR02 RR03 3C007 KT11 MT04 5B057 AA05 AA16 DA08 DA12 DB02 DB09 DC34 5C054 AA01 FC04 FC14 FF01 HA28 5H301 AA02 AA10 BB14 CC03 CC06 DD02 GG09 5L096 AA06 BA05 CA02 EA03 EA22 EA35 FA81 GA06 GA17 HA02 JA03 JA09 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 7/18 H04N 7/18 Z 5L096 F term (Reference) 2F065 AA00 AA03 BB05 DD03 FF04 JJ03 JJ26 MM21 PP01 QQ13 QQ24 QQ29 QQ38 QQ42 RR02 RR03 3C007 KT11 MT04 5B057 AA05 AA16 DA08 DA12 DB02 DB09 DC34 5C054 AA01 FC04 FC14 FF01 HA28 5H301 AA02 AA10 BB14 CC03 CC06 DD02 GG09 5L096 AA06 BA05 CA03 EA03 GA03 JA03 EA03 GA03

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段より画像を入力し、 前記入力された撮影画像よりも広範囲の視野で撮影され
た教示画像とを比較し、 前記比較は、前記撮影画像または教示画像の分解能を変
更しながら画像同士の類似性の比較を繰り返すことによ
って行い、 前記教示画像と関係付けられた教示対象物を探索し、 前記撮影画像中の教示対象物の位置を特定し、 前記教示対象物の位置の特定を、少なくとも2以上の撮
像画像から行うことにより撮像手段の自己位置を同定す
る自己位置同定方法。
1. An image is inputted from an image pickup means, and the input image is compared with a teaching image photographed in a wider field of view than the input photographed image. The comparison changes the resolution of the photographed image or the teaching image. By repeatedly comparing the similarity between the images while searching, searching for the teaching target associated with the teaching image, specifying the position of the teaching target in the captured image, A self-position identification method for identifying a self-position of an imaging unit by performing identification from at least two or more captured images.
【請求項2】 前記画像同士の類似性の比較は、撮影画
像と教示画像とのそれぞれの水平方向の輝度変化数列の
比較により行う請求項1記載の自己位置同定方法。
2. The self-position identification method according to claim 1, wherein the comparison of the similarity between the images is performed by comparing respective sequences of luminance change numbers in the horizontal direction between the captured image and the teaching image.
【請求項3】 前記画像同士の類似性の比較は、撮影画
像の部分画像と教示画像の部分画像との類似性の総和に
より行う請求項1記載の自己位置同定方法。
3. The self-position identification method according to claim 1, wherein the comparison of the similarity between the images is performed based on the sum of the similarities between the partial image of the captured image and the partial image of the teaching image.
【請求項4】 前記撮影画像の所定の部分での教示画像
との微小な位置の変化に基づいて、教示画像取得時のカ
メラ位置からみた前記撮影画像取得時のカメラ位置を特
定する請求項1記載の自己位置同定方法。
4. A camera position at the time of acquiring the photographed image as viewed from the camera position at the time of acquiring the teach image, based on a minute change in the position of the photographed image with respect to the teach image at a predetermined portion. Self-locating method as described.
【請求項5】 前記撮影画像の所定の部分での教示画像
との微小な対象画像の大きさの変化に基づいて、教示画
像取得時のカメラ位置からみた前記撮影画像取得時のカ
メラ位置を特定する請求項1記載の自己位置同定方法。
5. A camera position at the time of acquisition of the photographed image as viewed from the camera position at the time of acquisition of the teach image, based on a change in the size of a minute target image with respect to the teach image at a predetermined portion of the photographed image. The self-position identification method according to claim 1.
JP2001096306A 2001-03-29 2001-03-29 Own position identifying method using image Withdrawn JP2002296010A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001096306A JP2002296010A (en) 2001-03-29 2001-03-29 Own position identifying method using image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001096306A JP2002296010A (en) 2001-03-29 2001-03-29 Own position identifying method using image

Publications (1)

Publication Number Publication Date
JP2002296010A true JP2002296010A (en) 2002-10-09

Family

ID=18950233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001096306A Withdrawn JP2002296010A (en) 2001-03-29 2001-03-29 Own position identifying method using image

Country Status (1)

Country Link
JP (1) JP2002296010A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2398196A (en) * 2003-02-05 2004-08-11 Fairfield Imaging Ltd Determination of position in microscope images
JP2008229834A (en) * 2007-03-20 2008-10-02 Samsung Electronics Co Ltd Position recognition method for mobile robot
KR100926783B1 (en) 2008-02-15 2009-11-13 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
JP2010146238A (en) * 2008-12-18 2010-07-01 Yaskawa Electric Corp Teaching method for traveling object, controlling device for traveling object and traveling object system
JP2010204922A (en) * 2009-03-03 2010-09-16 Yaskawa Electric Corp Moving body
JP2010288112A (en) * 2009-06-12 2010-12-24 Nissan Motor Co Ltd Self-position estimation device, and self-position estimation method
USRE42220E1 (en) 1999-04-21 2011-03-15 Hamamatsu Photonics K.K. Microscopy
JP2011239310A (en) * 2010-05-13 2011-11-24 Hitachi Ltd Network camera apparatus for which arbitrary installation is possible
JP2012252477A (en) * 2011-06-02 2012-12-20 Hitachi Ltd Image retrieval device and image retrieval system
JP2013030851A (en) * 2011-07-26 2013-02-07 Kokusai Kogyo Co Ltd Optical axis direction specification method, optical axis direction specification device, and optical axis direction specification program
JP2013109624A (en) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd Image processing device and image processing method
US8738179B2 (en) 2008-12-01 2014-05-27 Kabushiki Kaisha Yaskawa Denki Robot system
JPWO2014097413A1 (en) * 2012-12-19 2017-01-12 株式会社日立製作所 Work support terminal and work support system
JP2017211893A (en) * 2016-05-27 2017-11-30 国立研究開発法人農業・食品産業技術総合研究機構 Moving vehicle travelling control device
CN114468857A (en) * 2022-02-17 2022-05-13 美智纵横科技有限责任公司 Control method and device of cleaning equipment, cleaning equipment and readable storage medium
WO2022127541A1 (en) * 2020-12-16 2022-06-23 北京极智嘉科技股份有限公司 Robot and localization method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE42220E1 (en) 1999-04-21 2011-03-15 Hamamatsu Photonics K.K. Microscopy
US8107770B2 (en) 2003-02-05 2012-01-31 Hamamatsu Photonics K.K. Microscope system and method
GB2398196B (en) * 2003-02-05 2005-06-01 Fairfield Imaging Ltd Microscope system and method
US7602996B2 (en) 2003-02-05 2009-10-13 Hamamatsu Photonics K.K. Microscope system and method
GB2398196A (en) * 2003-02-05 2004-08-11 Fairfield Imaging Ltd Determination of position in microscope images
US8478073B2 (en) 2003-02-05 2013-07-02 Hamamatsu Photonics K.K. Microscope system and method
JP2008229834A (en) * 2007-03-20 2008-10-02 Samsung Electronics Co Ltd Position recognition method for mobile robot
JP4572240B2 (en) * 2007-03-20 2010-11-04 三星電子株式会社 Mobile robot and mobile robot position recognition method
US8588512B2 (en) 2007-03-20 2013-11-19 Samsung Electronics Co., Ltd. Localization method for a moving robot
KR100926783B1 (en) 2008-02-15 2009-11-13 한국과학기술연구원 Method for self-localization of a robot based on object recognition and environment information around the recognized object
US8738179B2 (en) 2008-12-01 2014-05-27 Kabushiki Kaisha Yaskawa Denki Robot system
JP2010146238A (en) * 2008-12-18 2010-07-01 Yaskawa Electric Corp Teaching method for traveling object, controlling device for traveling object and traveling object system
JP2010204922A (en) * 2009-03-03 2010-09-16 Yaskawa Electric Corp Moving body
JP2010288112A (en) * 2009-06-12 2010-12-24 Nissan Motor Co Ltd Self-position estimation device, and self-position estimation method
JP2011239310A (en) * 2010-05-13 2011-11-24 Hitachi Ltd Network camera apparatus for which arbitrary installation is possible
JP2012252477A (en) * 2011-06-02 2012-12-20 Hitachi Ltd Image retrieval device and image retrieval system
JP2013030851A (en) * 2011-07-26 2013-02-07 Kokusai Kogyo Co Ltd Optical axis direction specification method, optical axis direction specification device, and optical axis direction specification program
JP2013109624A (en) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd Image processing device and image processing method
JPWO2014097413A1 (en) * 2012-12-19 2017-01-12 株式会社日立製作所 Work support terminal and work support system
JP2017211893A (en) * 2016-05-27 2017-11-30 国立研究開発法人農業・食品産業技術総合研究機構 Moving vehicle travelling control device
WO2022127541A1 (en) * 2020-12-16 2022-06-23 北京极智嘉科技股份有限公司 Robot and localization method
CN114468857A (en) * 2022-02-17 2022-05-13 美智纵横科技有限责任公司 Control method and device of cleaning equipment, cleaning equipment and readable storage medium

Similar Documents

Publication Publication Date Title
JP2002296010A (en) Own position identifying method using image
JP4636064B2 (en) Image processing apparatus, image processing method, and program
US20060188160A1 (en) Device, method, and computer-readable medium for detecting changes in objects in images and their features
JP2004354257A (en) Calibration slippage correction device, and stereo camera and stereo camera system equipped with the device
JP7147753B2 (en) Information processing device, information processing method, and program
JPH07129770A (en) Image processor
JPH0935061A (en) Image processing method
KR101753097B1 (en) Vehicle detection method, data base for the vehicle detection, providing method of data base for the vehicle detection
JP2010033447A (en) Image processor and image processing method
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP6240016B2 (en) Tracking device and tracking system
JP2001076156A (en) Device for monitoring image
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN107895344B (en) Video splicing device and method
KR101456172B1 (en) Localization of a mobile robot device, method and mobile robot
JP5024116B2 (en) Subject tracking program and subject tracking device
JP2003346158A (en) Face area tracking method by face image
JP2004012429A (en) Self-position/attitude identification device and self-position/attitude identification method
WO2022237048A1 (en) Pose acquisition method and apparatus, and electronic device, storage medium and program
JPH11150676A (en) Image processor and tracking device
JPH05303643A (en) Pattern matching method
CN111199533A (en) Image processing apparatus
CN114723977A (en) Stable feature point identification method for visual SLAM system
JP2019075051A (en) Image processor
JP2008211506A (en) Image processing apparatus, imaging apparatus and its program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603