JPH08145738A - Active recognition device - Google Patents

Active recognition device

Info

Publication number
JPH08145738A
JPH08145738A JP28516894A JP28516894A JPH08145738A JP H08145738 A JPH08145738 A JP H08145738A JP 28516894 A JP28516894 A JP 28516894A JP 28516894 A JP28516894 A JP 28516894A JP H08145738 A JPH08145738 A JP H08145738A
Authority
JP
Japan
Prior art keywords
belief
network
conviction
observation
observing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP28516894A
Other languages
Japanese (ja)
Inventor
Katsuto Fujimoto
克仁 藤本
Daiki Masumoto
大器 増本
Yoshinori Yaginuma
義典 柳沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP28516894A priority Critical patent/JPH08145738A/en
Publication of JPH08145738A publication Critical patent/JPH08145738A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE: To provide an active recognition device capable of high speed recognition in which the generation, integration, and transmission of the conviction of a conviction network are repeated on the basis of the characteristic quantity from a proper observing means of a plurality of observing means, and circularly performed until a target to be recognition is attained, and the conventional calculation required in the holding of a unsure conviction in the conviction network is minimized. CONSTITUTION: This device has a conviction network 1 showing the connecting relation of convictions, a plurality of observing means 6 for observing the characteristic quantity of a target in environments, a conviction generating means 3 for generating a conviction on the basis of the characteristic quantity observed by one selected observing means 6, and a conviction integrating means 5 for the conviction generated by the conviction generating means 3 with the corresponding conviction in the conviction network 1. When the integrated conviction in the conviction network 1 attains the target to be confirmed, the recognition result is outputted, and when the target is not attained, the following observing means 6 is selected and executed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、不確実な信念を保持し
対象物の観測した特徴量をもとに当該信念を更新して認
識を行う能動的認識装置であって、マニピュレータによ
る物体の操作、移動ロボットのナビゲーションなどに用
いられる能動的認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an active recognition device which holds an uncertain belief and updates the belief based on the observed feature amount of an object to recognize the object. The present invention relates to an active recognition device used for operation, navigation of a mobile robot, and the like.

【0002】未知あるいは変動する環境における認識装
置は、前もって動作手順を固定的に記述しておくことは
できない。認識装置は、その時点で得られている環境状
態についての情報を信念として保持し、信念に基づいて
センサによる観測などの動作手順を自動的に決定する能
力、即ち信念維持能力と観測戦略生成能力を持つ必要が
ある。一般にこれらの能力を持つ認識装置を能動的認識
装置と呼ぶ。
A recognition device in an unknown or fluctuating environment cannot describe in advance a fixed operation procedure. The recognition device holds the information about the environmental condition obtained at that time as a belief, and the ability to automatically determine the operation procedure such as observation by the sensor based on the belief, that is, the belief maintenance ability and the observation strategy generation ability. Need to have. Generally, a recognition device having these capabilities is called an active recognition device.

【0003】センサによる観測には誤りが含まれる可能
性がある。また、通常、1つの観測では環境の状態を一
意に決定できず、複数回の観測により徐々に絞り込む必
要がある。従って、能動的認識装置は、環境状態の候補
などの不確実な信念を取り扱う能力を持っていることが
必要である。
Observations made by sensors can be erroneous. Further, usually, one observation cannot uniquely determine the state of the environment, and it is necessary to gradually narrow it down by a plurality of observations. Therefore, active recognizers need to be capable of handling uncertain beliefs, such as candidates for environmental conditions.

【0004】近年、認識装置を搭載した機器の取り扱う
環境の範囲は既知あるいは固定のものから、未知あるい
は変動するものに拡大している。このため、不確実な信
念を取り扱うことのできる能動的認識装置はこれらの機
器を構成する上で技術要素として重要な役割を担うもの
となった。
In recent years, the range of environments handled by equipment equipped with a recognition device has been expanded from known or fixed environments to unknown or variable environments. For this reason, active recognition devices that can handle uncertain beliefs have played an important role as technical elements in constructing these devices.

【0005】[0005]

【従来の技術】従来、図9の(a)に示すRimey,Brown
(注1)(注2)の提案している信念の表現に確率分布を用い
た能動的認識装置がある。図9の(b)は、信念ネット
ワークを構成する信念に対応する確率分布、信念関係デ
ータの構成を示す。
2. Description of the Related Art Conventionally, Rimey and Brown shown in FIG.
(Note 1) There is an active recognition device that uses a probability distribution for the belief expression proposed in (Note 2). FIG. 9B shows the structure of the probability distribution and belief relationship data corresponding to the beliefs forming the belief network.

【0006】図10は、図9の(a)、(b)の構成の
動作説明フローチャートを示す。図10において、S5
1は、観測手段による環境の測定を行う。これは、図9
の(a)の複数の観測手段によって環境中の対象物の状
態を観測する。
FIG. 10 shows a flowchart for explaining the operation of the configuration shown in FIGS. 9 (a) and 9 (b). In FIG. 10, S5
1 measures the environment by the observation means. This is shown in FIG.
The state of the object in the environment is observed by the plurality of observation means in (a).

【0007】S52は、信念ネットワークの操作を行
う。これは、S51で環境の測定を行って取得した環境
情報をもとに、図9の(b)の信念ネットワークを操作
する。例えば信念(確率分布)を環境情報で更新を行
う。
In step S52, the belief network is operated. This operates the belief network of (b) of FIG. 9 based on the environmental information acquired by measuring the environment in S51. For example, the belief (probability distribution) is updated with environmental information.

【0008】S53は、S52で更新を行った後の信念
(確率分布)について認識目標が達成されたか判別す
る。YESの場合には、認識目標が達成されたので、終
了する(END)。一方、NOの場合には、認識目標が
達成されないと判明したので、S51に戻り、認識目標
が達成されるまで、観測した環境情報をもとに信念ネッ
トワークの更新を繰り返す。
In step S53, it is determined whether or not the recognition target for the belief (probability distribution) after the update in step S52 is achieved. In the case of YES, since the recognition target has been achieved, the process ends (END). On the other hand, in the case of NO, since it is found that the recognition target is not achieved, the process returns to S51, and the belief network is repeatedly updated based on the observed environmental information until the recognition target is achieved.

【0009】(注1)Rimey,Brown:"Control of Selective
Perception Using Bayes Nets andDecision Theory",I
nt.J,of Computer Vision,Vol.12,No.2/3,pp.173-207(1
994). (注2)Rimey,Brown:"Task-oriented Vision with Multip
le Bayes Nets",Active Vision,pp.217-236,MIT Press
(1992).
(Note 1) Rimei, Brown: "Control of Selective
Perception Using Bayes Nets and Decision Theory ", I
nt.J, of Computer Vision, Vol.12, No.2 / 3, pp.173-207 (1
994). (Note 2) Rimey, Brown: "Task-oriented Vision with Multip
le Bayes Nets ", Active Vision, pp.217-236, MIT Press
(1992).

【0010】[0010]

【発明が解決しようとする課題】上述したように、従来
の能動的認識装置は、より柔軟な環境状態候補の記述を
可能にするために信念ネットワークとして信念を任意の
確率分布で保持しているため、その確率分布が正規分布
のような計算し易い分布にならなくて任意の確率分布と
なるために空間的計算量や時間的計算量が膨大となって
しまうなどがあり、実用的ではないという問題があっ
た。
As described above, the conventional active recognition apparatus holds the belief as an belief network with an arbitrary probability distribution in order to enable more flexible description of environmental state candidates. Therefore, the probability distribution does not become a distribution that is easy to calculate like a normal distribution and becomes an arbitrary probability distribution, so that the spatial calculation amount and the temporal calculation amount become enormous, which is not practical. There was a problem.

【0011】本発明は、これらの問題を解決するため、
複数の観測手段のうちの適切な観測手段からの特徴量を
もとに信念ネットワークの信念の生成、統合、伝達を繰
り返し認識目標が達成されるまで循環的に行い、従来の
不確実な信念を信念ネットワークに保持する場合に要す
る計算量を少なくして高速に認識可能にすることを目的
としている。
The present invention solves these problems.
The belief of the belief network is repeatedly generated, integrated, and transmitted repeatedly based on the feature amount from the appropriate observation means of the plurality of observation means until the recognition target is achieved, and the conventional uncertain beliefs are maintained. The purpose is to reduce the amount of calculation required to store in the belief network and enable recognition at high speed.

【0012】[0012]

【課題を解決するための手段】図1を参照して課題を解
決するための手段を説明する。図1において、信念ネッ
トワーク1は、信念の接続関係を表すネットワークであ
り、信念は環境7に存在する対象物8の状態の候補を表
す。
[Means for Solving the Problems] Means for solving the problems will be described with reference to FIG. In FIG. 1, a belief network 1 is a network that represents a connection of beliefs, and the belief represents candidates for the state of an object 8 existing in an environment 7.

【0013】信念操作手段2は、信念ネットワーク1に
ついて、観測手段6によって観測した特徴量をもとに信
念を操作(更新)するものであって、信念生成手段3、
信念伝達手段4、および信念統合手段5から構成される
ものである。
The belief manipulating means 2 operates (updates) the belief of the belief network 1 based on the characteristic amount observed by the observing means 6, and the belief generating means 3,
It is composed of a belief transmitting means 4 and a belief integrating means 5.

【0014】信念生成手段3は、特徴量をもとに信念を
生成するものである。信念伝達手段4は、信念ネットワ
ーク1上で信念を伝達するものである。信念統合手段5
は、信念を統合するものである。
The belief generating means 3 is for generating a belief based on a feature amount. The belief transmitting means 4 transmits a belief on the belief network 1. Belief integration means 5
Integrates beliefs.

【0015】観測手段6は、環境7中の対象物8の特徴
量を観測するものである。環境7は、認識対象の対象物
8が存在する環境である。対象物8は、認識対象の対象
物である。
The observing means 6 is for observing the characteristic amount of the object 8 in the environment 7. The environment 7 is an environment in which the recognition target object 8 exists. The target object 8 is a target object to be recognized.

【0016】戦略生成手段11は、最も効果の大きい観
測手段6を選択し、信念操作手段2に指示してその観測
手段6によって観測した特徴量をもとに信念ネットワー
ク1を操作(更新)するものである。
The strategy generating means 11 selects the observing means 6 having the greatest effect and instructs the belief operating means 2 to operate (update) the belief network 1 based on the feature amount observed by the observing means 6. It is a thing.

【0017】[0017]

【作用】本発明は、図1に示すように、環境中の対象物
の特徴量を観測する複数の観測手段6から選択した1つ
の観測手段6によって観測した特徴量をもとに、信念生
成手段3が対象物8の状態の候補を表す信念を生成し、
信念統合手段5がこの生成された信念と信念ネットワー
ク1中の該当する信念とを統合し、統合した後の信念ネ
ットワーク1中の信念が認識目標を達成した場合にその
認識結果を出力し、達成しなかった場合に次の観測手段
6を選択して実行することを繰り返すようにしている。
According to the present invention, as shown in FIG. 1, belief generation is performed based on the feature quantity observed by one observation means 6 selected from a plurality of observation means 6 for observing the feature quantity of the object in the environment. Means 3 generates a belief representing a candidate for the state of the object 8;
The belief integrating means 5 integrates the generated belief with the corresponding belief in the belief network 1, outputs the recognition result when the belief in the belief network 1 after integration achieves the recognition target, and achieves it. If not, the next observation means 6 is selected and executed repeatedly.

【0018】また、環境中の対象物の特徴量を観測する
複数の観測手段6から選択した1つの観測手段6によっ
て観測した特徴量をもとに、信念生成手段3が対象物8
の状態の候補を表す信念を生成し、信念統合手段5がこ
の生成された信念と信念ネットワーク1中の該当する信
念とを統合し、信念伝達手段4が信念を信念ネットワー
ク1中の該当する信念に伝達して統合することを繰り返
し、統合した後の信念ネットワーク1中の信念が認識目
標を達成した場合にその認識結果を出力し、達成しなか
った場合に次の観測手段6を選択して実行することを繰
り返すようにしている。
Further, the belief generating means 3 causes the belief generating means 3 to target the object 8 based on the feature quantity observed by one observation means 6 selected from a plurality of observation means 6 for observing the feature quantity of the object in the environment.
A belief representing a candidate of the state of the belief, the belief integrating means 5 integrates the generated belief with the corresponding belief in the belief network 1, and the belief transmitting means 4 converts the belief into the belief in the belief network 1. When the belief in the belief network 1 after the integration achieves the recognition target, the recognition result is output, and when it is not achieved, the next observation means 6 is selected. I try to repeat what I do.

【0019】これらの際に、複数の観測手段6のそれぞ
れの特徴量の取り得る範囲の任意の特徴量をもとに信念
ネットワーク1の強化の度合を算出してその平均を算出
し、この算出した平均の強化の度合と、認識目標との差
が最小の観測手段6を選び、当該選択した観測手段6か
らの特徴量をもとに信念の生成、統合、伝達を行うよう
にしている。
In these cases, the degree of reinforcement of the belief network 1 is calculated based on an arbitrary feature amount within the range of the respective feature amounts of the plurality of observation means 6, and the average thereof is calculated, and this calculation is performed. The observation means 6 having the smallest difference between the average reinforcement degree and the recognition target is selected, and the belief is generated, integrated, and transmitted based on the feature amount from the selected observation means 6.

【0020】従って、複数の観測手段6のうちの適切な
観測手段6からの特徴量をもとに信念ネットワーク1の
信念、即ち対象物の状態の候補の生成、統合、伝達を繰
り返し認識目標が達成されるまで循環的に実行すること
により、従来の不確実な信念(確率分布)を信念ネット
ワークに保持する場合に要する計算量を少なくして高速
に認識することが可能となった。
Therefore, the belief of the belief network 1, that is, the generation, integration, and transmission of the candidates of the state of the object are repeated based on the feature amount from the appropriate observing means 6 among the plurality of observing means 6, and the recognition target is set. By executing it cyclically until it is achieved, it became possible to recognize the uncertain belief (probability distribution) in the conventional belief network with a small amount of calculation and high speed recognition.

【0021】[0021]

【実施例】次に、図1から図8を用いて本発明の実施例
の構成および動作を順次詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, the construction and operation of an embodiment of the present invention will be described in detail with reference to FIGS.

【0022】図1は、本発明の1実施例構成図を示す。
図1において、戦略生成手段11は、複数の観測手段6
から選択した1つに観測指令を発してそのときの特徴量
をもとに信念操作指令を発し、信念ネットワーク1につ
いて操作(信念の生成、信念の伝達、信念の統合という
操作)を行って更新し、更新後の信念が認識目標14に
達したときに認識達成とし、認識目標14に達しないと
きに次の観測手段6について循環的に繰り返すものであ
る。この戦略生成手段11は、予測部12、立案部1
3、認識目標14、決定部15、および観測戦略決定基
準16などから構成されるものである(後述する)。
FIG. 1 shows a block diagram of an embodiment of the present invention.
In FIG. 1, the strategy generation means 11 includes a plurality of observation means 6
The observation command is issued to one selected from among, and the belief operation command is issued based on the feature quantity at that time, and the belief network 1 is operated (belief generation, belief transmission, belief integration) and updated. However, when the updated belief reaches the recognition target 14, the recognition is achieved, and when the updated belief does not reach the recognition target 14, the next observation means 6 is cyclically repeated. The strategy generation means 11 includes a prediction unit 12 and a planning unit 1.
3, a recognition target 14, a determination unit 15, an observation strategy determination standard 16 and the like (described later).

【0023】次に、図2のフローチャートの順序に従
い、図1の構成の動作を詳細に説明する。図2におい
て、S1は、信念ネットワークの初期設定を行う。これ
は、後述する例えば図5の(a)に示すように、信念ネ
ットワーク1の各信念の初期値として全空間を一様に設
定する。
Next, the operation of the configuration of FIG. 1 will be described in detail according to the order of the flowchart of FIG. In FIG. 2, S1 initializes the belief network. This uniformly sets the entire space as an initial value of each belief of the belief network 1, as shown in (a) of FIG. 5, which will be described later.

【0024】S2は、信念ネットワークの強化のために
適切な観測手段を選択する。これは、図1の複数の観測
手段6のうちから、信念ネットワーク1の強化のために
適切と思われる観測手段6を1つ選択する。
S2 selects appropriate observation means for strengthening the belief network. This selects one of the plurality of observation means 6 shown in FIG. 1 that seems appropriate for strengthening the belief network 1.

【0025】S3は、観測する。これは、S2で選択し
た1つの観測手段6が対象物8の状態を観測して特徴量
を得る。S4は、特徴量に基づいて信念を生成する。こ
れは、右側に記載したように“A:信念の生成”を行
う、即ちS3で選択した1つの観測手段6が対象物8の
状態を観測しそのときの特徴量をもとに、信念を生成す
る。例えば後述する図5の(b)のパーツBの信念に示
すように、観測手段6のあるカメラで撮影した画像をも
とに信念(視点から角度θの範囲内に当該パーツBが存
在するという信念)を生成する。
At S3, observation is performed. In this case, one observing means 6 selected in S2 observes the state of the object 8 to obtain a feature amount. In S4, the belief is generated based on the feature amount. This is because "A: Belief generation" is performed as described on the right side, that is, one observing means 6 selected in S3 observes the state of the target object 8 and the belief is calculated based on the feature quantity at that time. To generate. For example, as shown in the belief of the part B in FIG. 5B, which will be described later, the belief (the part B is present within the range of the angle θ from the viewpoint based on the image taken by the camera having the observing means 6). Belief).

【0026】S5は、元の信念と生成された信念を統合
する。これは、元の信念と、S4で生成された信念とを
統合、例えば後述する図4に示すように元の信念と生成
された信念との共通部分を統合後の信念として統合す
る。
S5 integrates the original and generated beliefs. This integrates the original belief and the belief generated in S4, for example, a common part of the original belief and the generated belief is integrated as a belief after the integration, as shown in FIG. 4 described later.

【0027】S6は、信念の伝達を行う。これは、S5
で統合した信念を、他の信念に伝達する。例えば後述す
る図6の(c)に示すように、パーツBの信念をパーツ
Aの信念に伝達する。
At S6, the belief is transmitted. This is S5
Communicate the beliefs integrated in to other beliefs. For example, the belief of the part B is transmitted to the belief of the part A as shown in FIG.

【0028】S7は、元の信念と伝達された信念を統合
する。これは、S6で伝達された信念と、元の信念との
統合を行う(後述する図7の(d)参照)。S8は、認
識目標が達成されたか判別する。これは、S5の生成し
た信念の統合、およびS7の伝達した信念の統合を行っ
た状態で、これらの統合後の信念と認識目標との差が所
定閾値以下となってその認識目標を達するように信念の
強化が行われたか判別する。YESの場合には、認識目
標との差が所定閾値以下の信念ネットワークが得られた
ので終了する(END)。一方、NOの場合には、次の
観測手段6について、循環的にS2以降を繰り返す。
S7 integrates the original belief and the transmitted belief. This integrates the belief transmitted in S6 and the original belief (see (d) of FIG. 7 described later). In S8, it is determined whether the recognition target has been achieved. This is a state in which the belief generated in S5 and the belief transmitted in S7 are integrated, and the difference between the belief after the integration and the recognition target is below a predetermined threshold so that the recognition target is reached. Determine if the belief has been strengthened. In the case of YES, a belief network whose difference from the recognition target is less than or equal to a predetermined threshold is obtained, and thus the process ends (END). On the other hand, in the case of NO, S2 and subsequent steps are cyclically repeated for the next observation means 6.

【0029】以上によって、複数の観測手段6のうちか
ら1つを選択して信念ネットワーク1を構成する信念の
生成、伝達、統合を行い、その統合後の信念が認識目標
に達したときに認識できたこととなる。一方、認識目標
に達しないときは他の観測手段6について循環的に繰り
返す。これらにより、図1の構成のもとで、適切な観測
手段6を選択して観測しその特徴量をもとに信念ネット
ワーク1の信念の生成、統合、伝達を行い、変動する対
象物8の認識を、従来の変動する確率分布を信念に保持
させることなく、能動的に行うことが可能となった。以
下詳細に説明する。
As described above, one of the plurality of observation means 6 is selected to generate, transmit, and integrate the beliefs forming the belief network 1, and the belief after the integration is recognized when it reaches the recognition target. It was done. On the other hand, when the recognition target is not reached, the other observation means 6 are cyclically repeated. With these, under the configuration of FIG. 1, an appropriate observing means 6 is selected and observed, and the belief of the belief network 1 is generated, integrated, and transmitted based on the feature amount, and the changing target 8 is detected. It has become possible to perform recognition actively without holding the conventional fluctuating probability distribution in belief. This will be described in detail below.

【0030】図3は、本発明の概念説明図(その1)を
示す。図3の(a)は、認識対象物がここでは、4つの
パーツからなる物体の例を示す。ここでは、4つのパー
ツは、図示のパーツA、パーツB、パーツC、パーツD
である。
FIG. 3 is a conceptual explanatory view (1) of the present invention. FIG. 3A shows an example of an object in which the recognition target object is composed of four parts here. Here, the four parts are the illustrated parts A, B, C, and D.
Is.

【0031】図3の(b)は、認識目標がパーツAの位
置の推定の例を示す。これは、図3の(a)のパーツ
A、B、C、Dが空間上にあり、パーツAを認識目標と
して推定すると仮定する。
FIG. 3B shows an example of estimating the position of the part A whose recognition target is the recognition target. It is assumed that parts A, B, C, and D in FIG. 3A are in space and that part A is estimated as a recognition target.

【0032】図3の(c)は、信念ネットワークの例を
示す。この信念ネットワーク1は、図3の(a)からパ
ーツA、B、C、Dの4つがあるので、図示のようにそ
れぞれの信念が図示の矢印のように関連づけられている
と仮定する(矢印に従い、後述する信念の伝達を行
う)。この矢印を、例えばパーツAとパーツDの位置関
係(信念間関係データの一種である)と呼ぶ。また、パ
ーツBの信念は、右側に拡大して表示したように、全空
間に一様に存在するとしたときを初期値とし、ある1つ
の観測手段6で観測した特徴量をもとに、信念を生成す
ると、図示のパーツBの存在する可能性のある領域とな
り、元の初期値と統合、即ち共通にある領域が統合後の
信念となる(ここでは生成した信念と同じ領域)。
FIG. 3C shows an example of a belief network. Since this belief network 1 has four parts A, B, C, and D from FIG. 3A, it is assumed that the beliefs are associated with each other as shown by arrows (arrows). According to the belief described below). This arrow is called, for example, the positional relationship between the parts A and D (which is a type of belief relationship data). Further, the belief of the part B is based on the feature amount observed by a certain observing means 6 as an initial value when it is assumed to exist uniformly in the entire space as shown in the enlarged view on the right side. Is generated, it becomes a region in which the illustrated part B may exist, and integrated with the original initial value, that is, a common region becomes a belief after the integration (here, the same region as the generated belief).

【0033】図3の(d)は、特徴量の例を示す。この
特徴量は、図1の1つの観測手段6である例えばライン
センサによって対象物8であるパーツAを観測し、その
ときのスクリーン上の長さL、視点からの角度がθであ
った場合、パーツAの信念は、当該長さLおよび角度θ
という特徴量から生成される。
FIG. 3D shows an example of the feature quantity. This feature amount is obtained by observing the part A which is the object 8 by one observing means 6 in FIG. 1, for example, a line sensor, and the length L on the screen at that time and the angle from the viewpoint are θ. , The belief of part A is that the length L and angle θ
Is generated from the feature amount.

【0034】図4の(e)は、信念の統合の例を示す。
これは、元の信念と生成/伝達された信念の交わりを求
める。例えば図示のように、元の信念の領域が右下がり
の斜線の領域であり、生成/伝達された信念の領域が網
掛けの領域であった場合、両者の共に交わる領域が統合
後の信念の領域となる。
FIG. 4 (e) shows an example of belief integration.
This seeks the intersection of the original belief and the belief generated / transmitted. For example, as shown in the figure, if the original belief area is a diagonally downward-sloping area and the generated / transmitted belief area is a shaded area, the area where both of them intersect is the belief after integration. It becomes an area.

【0035】次に、図5から図7を用いて4つのパーツ
A、B、C、Dの信念の生成、統合、伝達について具体
的に説明する。図5、図6、図7は、本発明の具体例説
明図を示す。
Next, the belief generation, integration, and transmission of the four parts A, B, C, and D will be specifically described with reference to FIGS. FIG. 5, FIG. 6, and FIG. 7 are views for explaining specific examples of the present invention.

【0036】図5、図6、図7において、図5の(a)
は、信念ネットワークの初期化の例を示す。ここでは、
パーツA、B、C、Dの各信念を全空間に初期化し一様
とする。
In FIGS. 5, 6 and 7, (a) of FIG.
Shows an example of belief network initialization. here,
The beliefs of parts A, B, C, and D are initialized in all spaces and made uniform.

【0037】図5の(b)は、信念の生成の例を示す。
例えばパーツBの特徴量として角度θが図5の(b−
1)に示すように得られた場合、図5の(b−2)に示
すように、パーツBの信念は図示のように、視点から角
度θであって当該パーツBが存在する可能性の範囲とな
り、これと図5の(a)のパーツBの信念(初期化した
一様な全空間)とを統合すると、ここでは、生成した信
念の領域が求める生成・統合後の信念となる。
FIG. 5B shows an example of belief generation.
For example, as the feature amount of the part B, the angle θ is (b-
If obtained as shown in FIG. 1), as shown in (b-2) of FIG. 5, the belief of the part B is the angle θ from the viewpoint as shown, and the possibility that the part B exists. This is a range, and when this is integrated with the belief of the part B in FIG. 5A (initialized uniform entire space), the belief after the generation / integration is obtained by the region of the generated belief here.

【0038】図6の(c)は、信念の伝達の例を示す。
これは、図5の(b)のパーツBの生成した信念を、信
念ネットワーク1の矢印の位置関係をもとに、パーツA
の信念に伝達する。ここで、パーツAの信念に伝達する
と、図示の“伝達された信念”となり、元の図5の
(a)のパーツAの信念(初期化した一様な全空間)と
を統合すると、ここでは、伝達された信念の領域が求め
る伝達・統合後の信念となる。
FIG. 6C shows an example of belief transmission.
This is based on the belief generated by the part B in FIG. 5B based on the positional relationship of the arrows in the belief network 1.
Communicate to the belief of. Here, when the belief of the part A is transmitted, it becomes the “conveyed belief” illustrated, and when the belief of the part A of FIG. 5A (initialized uniform whole space) is integrated, here Then, it becomes the belief after the transmission / integration that the domain of the transmitted belief requires.

【0039】図7の(d)は、信念の強化(信念の生
成、伝達、統合)の例を示す。パーツA、B、C、Dの
信念の生成、伝達、統合は図示の下記のようになる。 ・パーツBの信念: ・生成(1)された信念と、元の信念とから統合(2)
された信念となる。
FIG. 7D shows an example of belief strengthening (belief generation, transmission, and integration). The belief generation, transmission, and integration of the parts A, B, C, and D are as shown below.・ Belief of part B: ・ Integrated (2) from the belief generated (1) and the original belief
It is the belief that was given.

【0040】・パーツAの信念: ・パーツBから伝達(3)された信念と、元の信念とか
ら統合(4)された信念となる。
Belief of part A: Belief integrated (4) from the belief transmitted (3) from part B and the original belief.

【0041】・パーツCの信念: ・パーツBから伝達(5)された信念と、元の信念とか
ら統合(6)された信念となる。
Belief of Part C: Belief transmitted from Part B (5) and original belief are integrated (6).

【0042】・パーツDの信念: ・パーツAから伝達(7)された信念およびパーツCか
ら伝達(8)された信念と、元の信念とから統合(9)
された信念となる。
Belief of part D: Belief transmitted from part A (7) and belief transmitted from part C (8) and original belief integrated (9)
It is the belief that was given.

【0043】図7の(e)は、観測、信念の強化を繰り
返し、パーツAの位置が推定できた(認識目標の達成が
できた)状態を示す。この状態では、各パーツA、B、
C、Dの信念は、認識目標の範囲内に納まった状態であ
って、全空間中の図示の小さい領域が認識した範囲とな
る。
FIG. 7E shows a state in which the position of the part A can be estimated (the recognition target can be achieved) by repeating observation and belief strengthening. In this state, each part A, B,
The beliefs of C and D are in a state of being within the range of the recognition target, and the small area (not shown) in the entire space is the recognized range.

【0044】図8は、本発明の観測手段の選択フローチ
ャートを示す。これは、複数の観測手段6から適切な1
つの観測手段6を選択するときの手順を示したものであ
る。図8において、S11は、観測手段の候補を観測手
段の集合から1つ選ぶ。これは、図1の複数の観測手段
6中から1つの観測手段6を選ぶ。
FIG. 8 shows a flowchart for selecting the observation means of the present invention. This is a suitable one from multiple observation means 6.
It shows a procedure for selecting one observation means 6. In FIG. 8, S11 selects one observing means candidate from the observing means set. This selects one observing means 6 from the plurality of observing means 6 in FIG.

【0045】S12は、特徴量の取り得る範囲を求め
る。これは、S11で選んだ観測手段6によって対象物
8を観測するときの取り得る特徴量の範囲を求める。S
13は、取り得る範囲からある特徴量を選ぶ。
In step S12, the range of possible feature quantities is obtained. This obtains the range of possible feature quantities when the object 8 is observed by the observation means 6 selected in S11. S
13 selects a certain feature amount from the possible range.

【0046】S14は、選んだ特徴量が観測されたと仮
定して、信念の強化(信念の生成、信念の伝達、信念の
統合)を行う。これは、既述した図7の(d)の信念の
強化を行う。
In step S14, the belief is strengthened (belief generation, belief transmission, belief integration) on the assumption that the selected feature amount is observed. This reinforces the belief of FIG. 7 (d) already described.

【0047】S15は、信念ネットワークの強化の度合
を計算する(例えば度合いは信念の領域面積)。これ
は、例えば既述した図7の(d)、(e)に示すよう
に、信念の強化を行った後の信念ネットワーク1の各信
念の強度の度合いとして、信念の存在する領域の面積の
小ささ(エントロピィ)を計算する。
In S15, the degree of reinforcement of the belief network is calculated (for example, the degree is the belief region area). For example, as shown in (d) and (e) of FIG. 7 described above, this is the degree of the strength of each belief in the belief network 1 after the belief is strengthened, and the area of the region in which the belief exists. Calculate the smallness (entropy).

【0048】S16は、特徴量の取り得る範囲から、平
均を取るために十分な数の特徴量についての強化の度合
いを計算したか判別する。YESの場合には、S17に
進む。NOの場合には、S13に戻り、別の特徴量を選
び繰り返す。
In step S16, it is determined whether or not the degree of enhancement has been calculated for a sufficient number of feature quantities to obtain an average from the range of possible feature quantities. In the case of YES, the process proceeds to S17. If NO, the process returns to S13 to select another feature amount and repeat.

【0049】S17は、特徴量の取り得る範囲につい
て、強化の度合の平均をとる。S18は、観測手段の集
合に含まれる全ての観測手段について、強化の度合の平
均を計算したか判別する。YESの場合には、S19に
進む。NOの場合には、残りの観測手段6についてS1
1以降を繰り返す。
In step S17, the degree of reinforcement is averaged over the range of possible feature quantities. In S18, it is determined whether or not the average degree of reinforcement has been calculated for all the observation means included in the set of observation means. In the case of YES, it progresses to S19. In the case of NO, S1 for the remaining observation means 6
Repeat 1 and later.

【0050】S19は、強化の度合の平均と、目標とす
る強化の度合との差が最も小さい観測手段6を1つ選
ぶ。以上によって、複数の観測手段6について、それぞ
れの特徴量の取り得る範囲内の特徴量をもとに信念の強
化(信念の生成、信念の伝達、信念の統合)について平
均を取るに十分な数の特徴量について行い、これら求め
た平均の強化の度合のうち、認識目標との差が最も小さ
い観測手段6を選び、当該観測手段6によって実際の観
測した特徴量をもとに信念ネットワーク1の強化を行
う。
In S19, one observing means 6 having the smallest difference between the average degree of reinforcement and the target degree of reinforcement is selected. From the above, a sufficient number of observing means 6 can be averaged for belief strengthening (belief generation, belief transmission, belief integration) based on the feature amount within the range of each feature amount. The observation means 6 having the smallest difference from the recognition target is selected from the obtained degree of enhancement of the average, and the belief network 1 of the belief network 1 is selected on the basis of the actually observed characteristics by the observation means 6. Strengthen.

【0051】次に、数式を用いて本発明の概念および動
作を詳細に説明する。ここでは、図1の構成のもとで、
複数の物体が存在する環境で当該物体の位置姿勢情報を
観測により獲得してタスクを遂行する能動的認識装置を
例に以下説明する。この場合、環境を記述するパラメー
タは各物体の位置姿勢の集合{Xi}である。
Next, the concept and operation of the present invention will be described in detail using mathematical expressions. Here, under the configuration of FIG.
An active recognition apparatus that acquires the position and orientation information of the objects by observation and performs a task in an environment where a plurality of objects exist will be described below as an example. In this case, the parameter that describes the environment is the set {X i } of the position and orientation of each object.

【0052】 Xi=(xi,yi,zi;αiii)∈P (式1) ここで、(αiii)∈R3は物体iの重心の位置を
3次元デカルト作業座標系により、(αiii)∈
[0,2π]3は物体iの姿勢をオイラ角により、それ
ぞれ表現したものである。P=R3×[0,2π]3は、
位置姿勢空間を表している。
X i = (x i , y i , z i ; α i , β i , γ i ) εP (Formula 1) where (α i , β i , γ i ) εR 3 is the object i The position of the center of gravity of (α i , β i , γ i ) ∈
[0,2π] 3 represents the posture of the object i by the Euler angle. P = R 3 × [0,2π] 3 is
It represents the position and orientation space.

【0053】環境に存在する物体の数をNとすると、環
境は各物体の位置姿勢の集合、即ち[X1,・・・XN
により記述されることとなる。環境に存在する物体がN
個存在するので、信念はN個存在し、各信念は各物体の
位置姿勢についての状態候補を表現した候補データによ
り表現される。位置姿勢は6次元ベクトルなので候補デ
ータは6次元空間内の部分集合で表現できる。即ち、物
体iに対応する信念Biは、次のような候補データRi
より表現される。
Assuming that the number of objects existing in the environment is N, the environment is a set of position and orientation of each object, that is, [X 1, ... X N ].
It will be described by. N objects in the environment
Since there are N beliefs, there are N beliefs, and each belief is represented by candidate data representing state candidates for the position and orientation of each object. Since the position and orientation are 6-dimensional vectors, candidate data can be represented by a subset in 6-dimensional space. That is, the belief B i corresponding to the object i is expressed by the following candidate data R i .

【0054】 Ri={物体iの位置姿勢の候補を表現する6次元ベクトル}⊂P =R3×[0,2π]3 (式2) 信念ネットワーク1は、上記N個の候補データからな
る。信念ネットワーク1は、1つ以上の信念に加えて、
信念間の相互作用を表す1つ以上の信念間関係データを
持つ場合がある。
R i = {6-dimensional vector expressing position / orientation candidate of object i} ⊂P = R 3 × [0,2π] 3 (Equation 2) The belief network 1 is composed of the above N candidate data. . Belief Network 1 includes one or more beliefs,
It may have one or more belief-to-belief relationship data that represent interactions between beliefs.

【0055】信念操作手段2は、候補データを取り扱う
信念生成手段3、信念伝達手段4、および信念統合手段
5から構成されるものである。信念生成手段3は、戦略
生成手段11により起動され、このとき次の3つの引数
を渡される。
The belief operating means 2 comprises a belief generating means 3 for handling candidate data, a belief transmitting means 4, and a belief integrating means 5. The belief generating means 3 is activated by the strategy generating means 11, and at this time, the following three arguments are passed.

【0056】・視覚センサの作業座標系における位置姿
勢:γ ・生成対象となる信念の候補データ:Ri ・生成に用いられる観測アルゴリズム:Aj 観測アルゴリズムは、複数存在してもよい。生成する信
念に対応する物体を視覚センサで撮影した時の画像上の
面積、重心等を観測値として用いて、候補データを絞り
込むL種類のアルゴリズムを使用する。それぞれのアル
ゴリズムは、視覚センサを作業座標系において指定され
た位置姿勢に配置した場合において、観測された面積や
重心などの特徴量と、観測対象物の作業座標系における
位置姿勢との関係を保持しており、生成対象の信念の現
在の候補データの要素の中から観測の結果得られた特徴
量にふさわしい要素のみを選択して候補データを絞り込
むことができる。絞り込まれた結果の候補データが新た
に生成された信念となる。信念生成手段3のアルゴリズ
ムを、より厳密に定式化してみると下記のようになる。
Position / orientation in the working coordinate system of the visual sensor: γ Candidate data for belief to be generated: R i Observation algorithm used for generation: A j There may be a plurality of observation algorithms. An L-type algorithm for narrowing down candidate data is used by using the area on the image, the center of gravity, and the like when an object corresponding to the belief to be generated is photographed by a visual sensor as observation values. Each algorithm maintains the relationship between the observed area and the feature such as the center of gravity and the position and orientation of the observation target in the work coordinate system when the visual sensor is placed in the specified position and orientation in the work coordinate system. Therefore, it is possible to narrow down the candidate data by selecting only the elements suitable for the feature amount obtained as a result of the observation from the elements of the current candidate data of the belief to be generated. The candidate data resulting from the narrowing down becomes the belief that is newly generated. The following is a more rigorous formulation of the algorithm of the belief generating means 3.

【0057】信念生成手段3は、信念Biに対する観測
アルゴリズムAjについて、視覚センサを作業座標系に
おいて指定された位置姿勢r∈Pに配置した場合におい
て、観測された面積や重心などの特徴量f∈F⊂Rd
観測対象物体の作業座標系における位置姿勢p∈R6
の特徴信念間関係データM(r)i,jを、テーブルなどのな
んからの形式で保持している。視覚センサの位置姿勢γ
における対応関係M(r)i ,jは一般に多対多の関係である
ため、特徴空間Fと位置姿勢空間Pの積集合F×Pの部
分集合として定義される。即ち、 M(r)i,j⊂F×P (式3) である。
For the observation algorithm A j for the belief B i , the belief generating means 3 arranges the visual sensor in the position / orientation rεP designated in the working coordinate system, and observes the feature amount such as the area and the center of gravity. F∈F⊂R d wherein belief among related data M (r) i and the position and orientation P∈R 6 in the working coordinate system of the observation target object, the j, held in the form of a flame, such as a table. Position and orientation of visual sensor γ
Since the correspondence relation M (r) i , j in is generally a many-to-many relation, it is defined as a subset of the product set F × P of the feature space F and the position / orientation space P. That is, M (r) i, j ⊂F × P (Equation 3).

【0058】また、観測による特徴量fの取得は誤差Δ
fが伴うとすると、信念Biが候補データRiを持つと
き、対応関係M(r)i,jを持つ観測アルゴリズムAjによ
り新たに生成される候補データR(r)i,j,f genは次のよ
うに求められる。
Further, the acquisition of the feature quantity f by observation has an error Δ
Assuming that f is involved, when the belief B i has the candidate data R i , the candidate data R (r) i, j, f newly generated by the observation algorithm A j having the correspondence M (r) i, j. gen is calculated as follows.

【0059】 R(r)i,j,f gen={p∈P|(f',p)∈M(r)i,jかつ||f-f'||<Δf} (式4) ここで、||f-f'||は、fとf'の距離を表している。この
(式4)は、位置姿勢空間Pに含まれる候補の中で、誤差
Δfを含む観測による特徴量fに対して対応関係M
(r)i,jを満たす候補が選択され、新たな候補データR
(r)i,j,f genを形成することを表している。
R (r) i, j, f gen = {pεP | (f ′, p) εM (r) i, j and || f-f ′ || <Δf} (Equation 4) where , || f-f '|| represents the distance between f and f'. this
(Equation 4) is a correspondence relationship M among the candidates included in the position / orientation space P with respect to the observed feature amount f including the error Δf.
(r) A candidate satisfying i, j is selected, and new candidate data R
(r) i, j, f gen is formed.

【0060】信念統合手段5は、指定された信念Bi
ついて元の候補データRiと信念生成手段3により生成
された候補データR(r)i,j,f genを矛盾なく統合して新
たな候補データR(r)i,j,f newを求める。
The belief integrating means 5 integrates the original candidate data R i and the candidate data R (r) i, j, f gen generated by the belief generating means 3 with respect to the specified belief B i without any contradiction and newly creates the new belief data. New candidate data R (r) i, j, f new is obtained.

【0061】 R(r)i,j,f new=Ri∩R(r)i,j,f gen (式5) 戦略生成手段11は、信念ネットワーク1の現在の信念
の候補データの集合{Ri|i=1・・・N}、即ち、
現在得られている環境状態の候補に基づいて、今後実行
すべき動作手順を決定する。より詳しくは、信念操作手
段2を構成する信念生成手段3、信念統合手段5の対象
となる信念Bjと観測アルゴリズムAkおよび視覚センサ
の位置姿勢γを決定する。
R (r) i, j, f new = R i ∩R (r) i, j, f gen (Equation 5) The strategy generation means 11 is a set of candidate data of the current belief of the belief network 1. R i | i = 1 ... N}, that is,
Based on the currently obtained environmental condition candidates, the operation procedure to be executed in the future is determined. More specifically, the belief generating means 3 constituting the belief operating means 2, the belief B j to be the subject of the belief integrating means 5, the observation algorithm A k, and the position and orientation γ of the visual sensor are determined.

【0062】戦略生成手段11は、全ての信念Rjに対
する全ての観測アルゴリズムAkについて、更に全ての
視覚センサの位置姿勢の候補γについて、仮にそのよう
な観測に基づいて信念操作を行ったとした場合のタスク
への効果を予測し、効果の最も大きいものを選択し、動
作指令を発行する。
It is assumed that the strategy generating means 11 performs the belief operation based on such observations for all the observation algorithms A k for all the beliefs R j, and for all position / orientation candidates γ of the visual sensors. In that case, the effect on the task is predicted, the one with the greatest effect is selected, and the operation command is issued.

【0063】タスクへの効果を定量化するために、信念
のエントロピーの概念を説明する。タスク達成のために
は、外部環境状態についてタスク達成に必要な範囲であ
る程度確かな情報を得る必要がある。言い換えると、タ
スク達成に必要な範囲で不確実性の少ない信念を得る必
要がある。そこでまず、信念の不確実性を定量化する。
信念は環境状態の候補の集合であるから、候補数がより
多ければ不確実性が増すこととなる。そこで、信念の不
確実性を表現する定量的尺度として、信念Rのエントロ
ピーEnt[R]を情報量についての定義から導出し、
次のように定義する。
In order to quantify the effect on the task, the concept of belief entropy will be explained. In order to accomplish the task, it is necessary to obtain certain reliable information about the external environmental condition within the range necessary for accomplishing the task. In other words, it is necessary to obtain a belief with less uncertainty to the extent necessary to accomplish the task. Therefore, first, the uncertainty of belief is quantified.
A belief is a set of environmental state candidates, so the greater the number of candidates, the greater the uncertainty. Therefore, as a quantitative measure expressing the uncertainty of belief, the entropy Ent [R] of the belief R is derived from the definition of the amount of information,
It is defined as follows.

【0064】 Ent[R]=logS(R) (式6) ここで、Sは堆積を表す。上記(式6)に定義した信念
のエントロピーの概念を用いると、各信念BJに対する
タスク達成のための目標エントロピーをEnti goal
すると、候補データRiを持つ信念の不確かさと期待さ
れる不確かさとの自乗誤差diffは次のように計算で
きる。
Ent [R] = logS (R) (Equation 6) where S represents deposition. Using the concept of belief entropy defined in (Equation 6) above, if the target entropy for achieving the task for each belief B J is Ent i goal , the uncertainty of belief with candidate data R i and the expected uncertainty The squared error diff between and can be calculated as follows.

【0065】 ある観測を行った結果得られる信念について、上記の自
乗誤差diffの最も小さい観測がタスク達成のために
最も効果の高い観測であると考えることができる。
[0065] Regarding the belief obtained as a result of performing some observation, it can be considered that the observation having the smallest square error diff is the most effective observation for achieving the task.

【0066】次に、信念生成のタスクへの効果の予測手
法について説明する。即ち、現在の信念を表現する候補
データの集合が{Ri|i=1・・・N}であるとき、
ある信念Bjに対してある観測アルゴリズムAkを用いた
位置姿勢γに配置された視覚センサによる観測により信
念生成を行ったとした場合のタスクへの効果の予測を行
う。そのために、上記観測を行った時に得られるであろ
う特徴量の範囲F(r),j,kを求めると、 F(r),j,k={f∈F|(f,p)∈M(r),j,kかつp∈Rj} (式8) となる。信念Rjについて観測アルゴリズムAkを行った
結果、特徴量f∈F(r), j,kが誤差Δfで得られたとす
ると、信念Riに対して予測される生成統合後の信念R
i,(r),(i,k),f expは次のようにして求められる。
Next, a method of predicting the effect of the belief generation on the task will be described. That is, when the set of candidate data expressing the current belief is {R i | i = 1 ... N},
For a certain belief B j , the effect on the task when the belief is generated by the observation by the visual sensor arranged in the position and orientation γ using the certain observation algorithm A k is predicted. Therefore, when the range F (r), j, k of the feature quantity that will be obtained when the above observation is performed, F (r), j, k = {fεF | (f, p) ε M (r), j, k and pεR j } (Equation 8). Assuming that the feature quantity fεF (r), j, k is obtained with an error Δf as a result of performing the observation algorithm A k on the belief R j , the belief R after the generation integration predicted for the belief R i is obtained.
i, (r), (i, k), f exp are obtained as follows.

【0067】 Ri,(r),(i,k),f exp={p∈Rj|(f',p)∈M(r),j,kかつ||f-f'||<Δf}(i=jの場合) Ri (i≠jの場合) 以上から、観測の結果、特徴量f∈F(r),j,kが誤差Δ
fで得られたとする時の、信念Riに対して予測される
新たな信念のエントロピーEnti,(r),(j,k),f expは、 Enti,(r),(j,k),f exp=Ent[Ri,(r),(j,k),f exp] (式9) で与えられる。更に、特徴量の範囲F(r),j,kについて
平均を取れば、観測の結果、信念Riに対して予測され
る新たな信念のエントロピーの期待値Enti,(r)
,(j,k) expが得られる。即ち、Enti,(r),(j,k) exp=Aver
ge f∈F(r),j,k[Enti,(r),(j,k),f exp](式10)で
ある。このエントロピーの期待値により信念Bjに対し
て位置姿勢γの視覚センサによる観測Akを行った場合
の、タスク達成のための目標エントロピーとの差dif
(r),j,kは次のように計算できる。 diff(r),j,k=Σ(Enti,(r),(j,k) exp−Entgoal)2 (式10) 戦略生成手段11は、以上に説明した信念生成のタスク
への効果の予測手法を用いて、最も効果の大きい観測を
選択し、動作指令を発行する。即ち、diff (r),j,k
が最も小さくなる(エントロピーの予測値は目標に最も
近い)視覚センサの位置姿勢γと生成対象の信念Bi
観測アルゴリズムAjを選択し、信念生成・信念統合指
令を発行する。
Ri, (r), (i, k), f exp= {p ∈ Rj| (f ', p) ∈ M(r), j, kAnd || f-f '|| <Δf} (when i = j) Ri(When i ≠ j) From the above, as a result of the observation, the feature quantity f ∈ F(r), j, kIs the error Δ
Belief R when it is supposed to be obtained in fiPredicted against
Entropy Ent of new beliefi, (r), (j, k), f expIs Enti, (r), (j, k), f exp= Ent [Ri, (r), (j, k), f exp] (Equation 9) is given. Furthermore, the range F of the feature amount(r), j, kabout
If you take the average, the observation result, belief RiPredicted against
Expected Entropy of new beliefs Enti, (r)
, (j, k) expIs obtained. That is, Enti, (r), (j, k) exp= Aver
ge f ∈ F(r), j, k[Enti, (r), (j, k), f exp] (Equation 10)
is there. Belief B by the expected value of this entropyjAgainst
Observation of the position and orientation γ with a visual sensor AkIf you do
Difference from the target entropy for task achievement dif
f(r), j, kCan be calculated as follows. diff(r), j, k= Σ (Enti, (r), (j, k) exp−Entgoal)2 (Equation 10) The strategy generating means 11 is the belief generating task described above.
The most effective observation using the method of predicting the effect on
Select and issue operation command. That is, diff (r), j, k
Is the smallest (the predicted entropy value is the most
(Near) the position and orientation γ of the visual sensor and the belief B of the generation targetiWhen
Observation algorithm AjSelect the belief generation / belief integration finger
Issue a decree.

【0068】また、信念伝達手段4は、戦略生成手段1
1により起動され、この時次の3つの引数を渡される。 ・伝達元の信念の候補データ:Ri ・伝達元と伝達先の信念間関係データ:Ki,j ・伝達先の信念のindex:j 伝達元と伝達先の2つの信念は、信念ネットワークのア
ークで直接接続された2つのノードに対応している。従
って、伝達元と伝達先の2つの信念の間の相対位置姿勢
関係を表す信念間関係データKi,jが保持されている。
信念伝達手段4は、伝達元の候補データRiと信念間関
係データKi,jを用いて、伝達先の信念を実現する未統
合候補データRj propを次のように計算する。
Further, the belief transmitting means 4 is the strategy generating means 1
It is started by 1, and the following three arguments are passed at this time.・ Belief data of the belief of the transmission source: R i・ Relationship belief data between the transmission source and the transmission destination: K i, j・ Index of the belief of the transmission destination: j The two beliefs of the transmission source and the transmission destination are belief networks. It corresponds to two nodes directly connected by an arc. Therefore, the belief relationship data K i, j representing the relative position / orientation relationship between the two beliefs of the transmission source and the transmission destination is held.
The belief transmitting means 4 calculates the unintegrated candidate data R j prop that realizes the belief of the transmission destination by using the transmission source candidate data R i and the belief relationship data K i, j as follows.

【0069】 Rj prop={q∈P|p∈Riかつ(p,q)∈Ki,j} (式11)R j prop = {qεP | pεR i and (p, q) εK i, j } (Equation 11)

【0070】[0070]

【発明の効果】以上説明したように、本発明によれば、
複数の観測手段6のうちの適切な観測手段6からの特徴
量をもとに信念ネットワーク1の信念、即ち対象物の状
態の候補の生成、統合、伝達を繰り返し認識目標が達成
されるまで循環的に実行する構成を採用しているため、
従来の不確実な信念(確率分布)を信念ネットワークに
保持する場合に比較して保持に要する計算量を少なく
し、また、従来技術に比べ、信念の保持・操作に要する
計算量を著しく減少させることができ、より短い時間で
能動的認識を行うことができるようになるので、複雑な
未知/変動環境に対して実時間で対応できる即応性のあ
るシステムの構築に寄与するところが大きい。
As described above, according to the present invention,
The belief of the belief network 1, that is, the generation, integration, and transmission of candidates for the state of the object are repeated based on the feature amount from an appropriate observation means 6 of the plurality of observation means 6, and the recognition cycle is repeated until the target is achieved. Since it adopts a configuration that executes
Compared with the conventional method of holding uncertain beliefs (probability distribution) in the belief network, the amount of calculation required to hold the belief is reduced, and the amount of computation required to hold and operate the belief is significantly reduced compared to the conventional technology. Since it is possible to perform active recognition in a shorter time, it greatly contributes to the construction of a responsive system capable of responding to a complicated unknown / variable environment in real time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の1実施例構成図である。FIG. 1 is a configuration diagram of an embodiment of the present invention.

【図2】本発明の動作説明フローチャートである。FIG. 2 is a flowchart explaining the operation of the present invention.

【図3】本発明の概念説明図(その1)である。FIG. 3 is a conceptual explanatory diagram (1) of the present invention.

【図4】本発明の概念説明図(その2)である。FIG. 4 is a conceptual explanatory view (No. 2) of the present invention.

【図5】本発明の具体例説明図(その1)である。FIG. 5 is a specific example explanatory view (1) of the present invention.

【図6】本発明の具体例説明図(その2)である。FIG. 6 is a specific example explanatory diagram (2) of the present invention.

【図7】本発明の具体例説明図(その3)である。FIG. 7 is a diagram (part 3) for explaining a specific example of the present invention.

【図8】本発明の観測手段の選択フローチャートであ
る。
FIG. 8 is a flowchart for selecting observation means of the present invention.

【図9】従来技術の説明図(その1)である。FIG. 9 is an explanatory diagram (1) of a conventional technique.

【図10】従来技術の説明図(その2)である。FIG. 10 is an explanatory view (No. 2) of the related art.

【符号の説明】[Explanation of symbols]

1:信念ネットワーク 2:信念操作手段 3:信念生成手段 4:信念伝達手段 5:信念統合手段 6:観測手段 7:環境 8:対象物 11:戦略生成手段 1: Belief network 2: Belief operating means 3: Belief generating means 4: Belief transmitting means 5: Belief integrating means 6: Observing means 7: Environment 8: Target 11: Strategy generating means

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】信念の接続関係を表す信念ネットワーク
(1)と、 環境中の対象物の特徴量を観測する複数の観測手段
(6)と、 選択した1つの観測手段(6)によって観測した特徴量
をもとに信念を生成する信念生成手段(3)と、 この信念生成手段(3)によって生成された信念と上記
信念ネットワーク(1)中の該当する信念とを統合する
信念統合手段(5)とを備え、 統合した後の信念ネットワーク(1)中の信念が認識目
標を達成した場合にその認識結果を出力し、達成しなか
った場合に次の観測手段(6)を選択して実行すること
を特徴とする能動的認識装置。
1. A belief network (1) showing a connection of beliefs, a plurality of observation means (6) for observing the feature amount of an object in the environment, and one observation means (6) selected. A belief generating means (3) for generating a belief based on a feature amount, and a belief integrating means (3) for integrating a belief generated by the belief generating means (3) and a corresponding belief in the belief network (1). 5) and, if the belief in the belief network (1) after integration achieves the recognition target, the recognition result is output, and if not, the next observation means (6) is selected. An active recognition device characterized by executing.
【請求項2】信念の接続関係を表す信念ネットワーク
(1)と、 環境中の対象物の特徴量を観測する複数の観測手段
(6)と、 選択した1つの観測手段(6)によって観測した特徴量
をもとに信念を生成する信念生成手段(3)と、 この信念生成手段(3)によって生成された信念と上記
信念ネットワーク(1)中の該当する信念とを統合、お
よび伝達を受けた信念と元の信念とを統合する信念統合
手段(5)と、 この信念統合手段(5)によって統合した信念を、上記
信念ネットワーク(1)中の該当する信念に伝達する信
念伝達手段(4)とを備え、 統合あるいは伝達・統合した後の信念ネットワーク
(1)中の信念が認識目標を達成した場合にその認識結
果を出力し、達成しなかった場合に次の観測手段(6)
を選択して実行するする能動的認識装置。
2. A belief network (1) showing a connection of beliefs, a plurality of observing means (6) for observing the feature amount of an object in the environment, and one observing means (6) selected. A belief generating means (3) for generating a belief based on a feature amount, a belief generated by this belief generating means (3) and a corresponding belief in the belief network (1) are integrated and transmitted. Belief integrating means (5) for integrating the belief with the original belief, and a belief transmitting means (4) for transmitting the belief integrated by the belief integrating means (5) to the corresponding belief in the belief network (1). ), And if the belief in the belief network (1) after integration or transmission / integration achieves the recognition target, the recognition result is output, and if not, the next observation means (6)
An active recognition device that selects and executes.
【請求項3】上記複数の観測手段(6)のそれぞれの特
徴量の取り得る範囲の任意の特徴量をもとに上記信念ネ
ットワーク(1)の強化の度合を算出してその平均を算
出し、この算出した平均の強化の度合と、認識目標との
差が最小の観測手段(6)を選び、当該選択した観測手
段(6)からの特徴量をもとに信念の生成、統合、伝達
を行うことを特徴とする請求項1あるいは請求項2に記
載の能動的認識装置。
3. A degree of strengthening of the belief network (1) is calculated based on an arbitrary feature amount within a range of possible feature amounts of each of the plurality of observation means (6), and an average thereof is calculated. , Selecting the observation means (6) having the smallest difference between the calculated average reinforcement degree and the recognition target, and generating, integrating, and transmitting the belief based on the feature amount from the selected observation means (6). The active recognition device according to claim 1 or 2, wherein
JP28516894A 1994-11-18 1994-11-18 Active recognition device Withdrawn JPH08145738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28516894A JPH08145738A (en) 1994-11-18 1994-11-18 Active recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28516894A JPH08145738A (en) 1994-11-18 1994-11-18 Active recognition device

Publications (1)

Publication Number Publication Date
JPH08145738A true JPH08145738A (en) 1996-06-07

Family

ID=17687983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28516894A Withdrawn JPH08145738A (en) 1994-11-18 1994-11-18 Active recognition device

Country Status (1)

Country Link
JP (1) JPH08145738A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262625A (en) * 2009-02-27 2010-11-18 Honda Research Inst Europe Gmbh Artificial vision system and method for knowledge-based selective visual analysis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262625A (en) * 2009-02-27 2010-11-18 Honda Research Inst Europe Gmbh Artificial vision system and method for knowledge-based selective visual analysis

Similar Documents

Publication Publication Date Title
US20180129974A1 (en) Control systems using deep reinforcement learning
CN106256512B (en) Robot device including machine vision
Boots et al. Learning predictive models of a depth camera & manipulator from raw execution traces
Ahmad et al. On the solution to the inverse kinematic problem
US20210398346A1 (en) Systems and Methods for Fine Adjustment of Roof Models
Pacelli et al. Learning task-driven control policies via information bottlenecks
Aragues et al. Feature-based map merging with dynamic consensus on information increments
US20230115521A1 (en) Device and method for training a machine learning model for recognizing an object topology of an object from an image of the object
JP2022502791A (en) Systems and methods for estimating robot posture, robots, and storage media
Riehl et al. Cooperative graph-based model predictive search
JPH08145738A (en) Active recognition device
CN117369507A (en) Unmanned aerial vehicle dynamic path planning method of self-adaptive particle swarm algorithm
JP2011197964A (en) Sensor network, and state estimation method and program
US11207773B2 (en) Action transfer device, action transfer method, and non-transitory computer-readable medium storing action transfer program
JP5872401B2 (en) Region dividing device
US11934176B2 (en) Device and method for controlling a robot
Uchibe Model-based imitation learning using entropy regularization of model and policy
Kim et al. Vision-based deep reinforcement learning to control a manipulator
Xu et al. Delay safety-aware digital twin empowered industrial sensing-actuation systems using transferable and reinforced learning
Coskun et al. Robotic Grasping in Simulation Using Deep Reinforcement Learning
Jia et al. Distributed Initialization for Visual-Inertial-Ranging Odometry with Position-Unknown UWB Network
JP2003130947A (en) Target tracking apparatus and method
Wong et al. Active Anomaly Detection in Confined Spaces Using Ergodic Traversal of Directed Region Graphs
Okorn et al. Deep Projective Rotation Estimation through Relative Supervision
WO2022091895A1 (en) Robot control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020205