JP2003042718A - Apparatus and method for image processing - Google Patents

Apparatus and method for image processing

Info

Publication number
JP2003042718A
JP2003042718A JP2002107013A JP2002107013A JP2003042718A JP 2003042718 A JP2003042718 A JP 2003042718A JP 2002107013 A JP2002107013 A JP 2002107013A JP 2002107013 A JP2002107013 A JP 2002107013A JP 2003042718 A JP2003042718 A JP 2003042718A
Authority
JP
Japan
Prior art keywords
image
image processing
action
moving body
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002107013A
Other languages
Japanese (ja)
Other versions
JP4159794B2 (en
Inventor
Takamasa Echizen
孝方 越膳
Koji Tsujino
広司 辻野
Koji Akatsuka
浩二 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002107013A priority Critical patent/JP4159794B2/en
Priority to US10/133,114 priority patent/US7221797B2/en
Priority to EP02009680A priority patent/EP1255177A2/en
Publication of JP2003042718A publication Critical patent/JP2003042718A/en
Application granted granted Critical
Publication of JP4159794B2 publication Critical patent/JP4159794B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor by which the behavior of a moving body is recognized with high accuracy on the basis of image information on an external environment acquired when the moving body behaves. SOLUTION: A behavior-command output part 12 outputs a behavior command which makes the moving body 32 behave. A local-feature extraction part 16 extracts local feature information on an image on the basis of the image information on the external environment acquired in the moving body 32 when the behavior command is output. A hole-feature extraction part 18 extracts feature information on a whole region in the image from the local feature information. In a learning part 20, a probability statistical model used to recognize the behavior command given to the moving body 22 is calculated on the basis of the feature information on the whole region. In a movement after that, the probability statistical model is applied to the image information on the external environmental acquired in the moving body 32, and the behavior of the moving body 32 is recognized at high speed and with high accuracy.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置及び
画像処理方法に関し、より詳細には、移動体の移動時に
取得した外部環境の画像情報を用いて移動体の行動を高
精度に認識するための画像処理装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more specifically, it accurately recognizes the behavior of a moving body using image information of the external environment acquired when the moving body moves. And an image processing apparatus and method therefor.

【0002】[0002]

【従来の技術】従来、移動体が取得する外部環境の画像
情報を用いて移動体の行動を認識する方法として、入力
される連続画像から画像濃度の勾配変化などを計算して
オプティカルフローを検出する方法が良く知られてい
る。
2. Description of the Related Art Conventionally, as a method of recognizing the behavior of a moving body using image information of the external environment acquired by the moving body, an optical flow is detected by calculating a gradient change in image density from input continuous images. It is well known how to do it.

【0003】例えば、特開2000−171250号公
報では、オプティカルフローを用いて移動体の現在位置
を検出する方法が開示されている。この方法によれば、
予め移動体を所定の走行領域に沿って走行させた時に、
その走行領域について所定距離間隔毎に走行領域近傍の
情景のオプティカルフローが検出され、オプティカルフ
ローと検出位置との関係が記憶される。そして、後の走
行時にも走行領域のオプティカルフローが検出され、こ
れと記憶している全てのオプティカルフローとのマッチ
ングが行われる。このマッチングにおいて最大マッチン
グ結果を示すオプティカルフローが選択され、選択され
たオプティカルフローに対応付けられている位置が移動
体の現在走行位置であると認識される。
For example, Japanese Unexamined Patent Publication No. 2000-171250 discloses a method of detecting the current position of a moving body by using an optical flow. According to this method
When the moving body is run along a predetermined running area in advance,
The optical flow of the scene in the vicinity of the traveling area is detected at predetermined distance intervals in the traveling area, and the relationship between the optical flow and the detected position is stored. Then, the optical flow in the traveling area is also detected during the subsequent traveling, and matching with all the stored optical flows is performed. In this matching, the optical flow showing the maximum matching result is selected, and the position associated with the selected optical flow is recognized as the current traveling position of the mobile body.

【0004】また、特開平11−134504号公報に
は、動画像からオプティカルフローを算出し、これをニ
ューラルネット層で処理することで行動を認識し、必要
な処理を判断する技術が開示されている。この技術によ
れば、簡単な構成のニューラルネットによって動画像か
ら障害物への接近を判断することが可能となる。
Further, Japanese Laid-Open Patent Publication No. 11-134504 discloses a technique of calculating an optical flow from a moving image and processing the optical flow in a neural network layer to recognize an action and determine necessary processing. There is. According to this technique, it is possible to determine the approach of an obstacle from a moving image using a neural network having a simple structure.

【0005】[0005]

【発明が解決しようとする課題】しかし、前者の方法で
位置認識するには、予め所定領域を移動してオプティカ
ルフローと位置との関係を記憶しておく必要がある。ま
た、一般に動画像のみに基づいてオプティカルフロー等
の特徴抽出を行い、位置や行動を認識するには以下のよ
うな問題がある。すなわち、移動体の移動に伴い太陽光
や蛍光灯などの光源と移動体に搭載されたカメラとの位
置関係が時々刻々と変わるため、明度などの画像強度が
変化して特徴抽出を精度良く行うのが困難となる。ま
た、移動体の移動時の振動がカメラに伝わるため、取得
する連続画像が振動の影響を受けて特徴抽出の精度を低
下させてしまう。さらに、上記画像強度の変化や振動の
悪影響を取り除くために、画像情報に対し複数フレーム
に渡ってスムージング処理を行うように構成すると、計
算負荷が増大し、かつ時間変動の大きな高速動作をする
対象物を捉えるための特徴抽出が困難になってしまうと
いう問題もある。
However, in order to recognize the position by the former method, it is necessary to move the predetermined region in advance and store the relationship between the optical flow and the position. In addition, in general, there are the following problems in performing feature extraction such as optical flow based on only moving images and recognizing positions and actions. That is, since the positional relationship between the light source such as sunlight or a fluorescent lamp and the camera mounted on the moving body changes every moment as the moving body moves, the image intensity such as the brightness changes and the feature extraction is performed accurately. Becomes difficult. Further, since the vibration of the moving body during movement is transmitted to the camera, the acquired continuous images are affected by the vibration and the accuracy of feature extraction is reduced. Furthermore, in order to eliminate the adverse effects of the change in the image intensity and the vibration, if the smoothing process is performed on the image information over a plurality of frames, the calculation load increases, and the target for high-speed operation with large time fluctuation There is also a problem that feature extraction for capturing an object becomes difficult.

【0006】本発明は、上記の点に鑑みてなされたもの
であり、実環境においても移動体が取得する外部環境の
画像情報を用いて移動体の行動を高速かつ高精度に認識
することができる画像処理装置及び画像処理方法を提供
することを目的とする。
The present invention has been made in view of the above points, and it is possible to recognize the action of a mobile body at high speed and with high accuracy by using image information of the external environment acquired by the mobile body even in an actual environment. An object of the present invention is to provide an image processing apparatus and an image processing method that can be performed.

【0007】[0007]

【課題を解決するための手段】本発明の原理は、移動体
に対する行動コマンドと当該行動コマンドに従って移動
した際に移動体が取得した外部環境の画像情報との関係
を学習によって確率統計モデルとして生成しておき、以
後の移動時には移動体が取得する外部環境の画像情報及
び確率統計モデルに基づき現在の行動を高速かつ高精度
に認識する点にある。
The principle of the present invention is to generate a probability statistical model by learning the relationship between an action command for a moving body and the image information of the external environment acquired by the moving body when moving according to the action command. The point is that the current behavior is recognized at high speed and with high accuracy based on the image information of the external environment acquired by the moving body and the probability statistical model during the subsequent movement.

【0008】本発明は、従来の方法においてノイズの影
響を除去するために必要とされた特徴抽出を行う前のス
ムージング処理等をすることなしに、実環境におけるオ
ンライン的な学習を事前学習段階で行い、そのようなノ
イズをも特徴抽出のデータして利用することによって、
環境の変化に対するロバスト性を向上して不良設定問題
を回避しようとするものである。
According to the present invention, online learning in a real environment is performed at a pre-learning stage without performing a smoothing process or the like before performing the feature extraction required for removing the influence of noise in the conventional method. By using such noise as feature extraction data,
It aims to improve the robustness against environmental changes and avoid the problem of defective setting.

【0009】本発明は、移動体を行動させる行動コマン
ドを出力する行動コマンド出力部と、該行動コマンド出
力時に前記移動体において取得された外部環境の画像情
報から画像の局所領域の特徴情報を抽出する局所特徴抽
出部と、抽出された局所領域の特徴情報を使用して画像
の全体領域の特徴情報を抽出する全体特徴抽出部と、抽
出された全体領域の特徴情報に基づいて行動コマンドを
認識するための確率統計モデルを計算する学習部を含む
画像処理装置を提供する。
According to the present invention, an action command output section for outputting an action command for moving a moving body, and feature information of a local region of an image are extracted from image information of an external environment acquired by the moving body when the moving command is output. A local feature extraction unit that extracts the feature information of the entire region of the image using the extracted feature information of the local region, and recognizes the action command based on the feature information of the extracted entire region Provided is an image processing device including a learning unit that calculates a probability statistical model for performing.

【0010】局所特徴抽出部はガボールフィルタを用い
て画像の局所領域の特徴情報を抽出する。局所領域の特
徴情報の抽出には、正成分及び負成分のガボールフィル
タを適用して得られる画像強度を使用する。ガボールフ
ィルタは8方向について適用するのが好ましい。
The local feature extraction unit extracts the feature information of the local region of the image using the Gabor filter. The image intensity obtained by applying the Gabor filter of the positive component and the negative component is used for the extraction of the characteristic information of the local region. The Gabor filter is preferably applied in eight directions.

【0011】全体特徴抽出部は、ガウス関数を用いて局
所領域の特徴情報を融合する。
The overall feature extraction unit fuses the feature information of the local area using a Gaussian function.

【0012】確率統計モデルの計算は期待値最大化アル
ゴリズムとニューラルネットワークによる教師付き学習
により行われるのが好ましいが、他の学習アルゴリズム
を使用することも可能である。
The calculation of the probability statistical model is preferably performed by supervised learning using an expectation maximization algorithm and a neural network, but other learning algorithms can be used.

【0013】確率モデルが形成されると、新たに取得さ
れた画像にこの確率モデルを適用することで移動体の行
動を高精度に認識できるようになる。従って本発明の画
像処理装置は、画像情報に対して確率統計モデルを使用
したベイズ則を適用し、各行動コマンドについての確信
度を算出することにより移動体の行動を認識する行動認
識部をさらに含む。
When the probabilistic model is formed, the behavior of the moving body can be recognized with high accuracy by applying the probabilistic model to the newly acquired image. Therefore, the image processing apparatus of the present invention further applies a Bayesian rule using a probability statistical model to image information, and further includes an action recognition unit that recognizes the action of the moving object by calculating the certainty factor for each action command. Including.

【0014】上記のようにして移動体の行動を認識する
ことが可能となるが、常に一定レベル以上の確信度を有
する行動の認識が行われることが好ましい。従って本発
明の画像処理装置は、行動認識部の算出した確信度に基
づく値と所定の値を比較することによって行動認識を評
価する行動評価部と、行動評価部における評価に応じ
て、確率統計モデルを更新させる注意要求を生成する注
意生成部と、注意要求に応じて全体特徴抽出部の所定の
パラメータを変更する注意転調部をさらに含むことがで
きる。この場合、学習部は、パラメータの変更後に確率
統計モデルを再度計算する。そして行動認識部は、この
確率統計モデルを用いて移動体の行動の認識をやり直
す。
Although it is possible to recognize the behavior of the moving body as described above, it is preferable to always recognize the behavior having a certainty level or higher. Therefore, the image processing device of the present invention, the behavior evaluation unit that evaluates the behavior recognition by comparing the value based on the certainty factor calculated by the behavior recognition unit and a predetermined value, and the probability statistics according to the evaluation in the behavior evaluation unit. It may further include an attention generation unit that generates an attention request for updating the model, and an attention modulation unit that changes a predetermined parameter of the overall feature extraction unit according to the attention request. In this case, the learning unit recalculates the probability statistical model after changing the parameters. Then, the action recognition unit redoes the action recognition of the moving body using this probability statistical model.

【0015】[0015]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0016】図1は、本発明の一実施形態である画像処
理装置10のブロック構成図である。画像処理装置10
は、行動コマンド出力部12、局所特徴抽出部16、全
体特徴抽出部18、学習部20、記憶部22、行動認識
部24、行動評価部26、注意生成部28、及び注意転
調部30等から構成される。
FIG. 1 is a block diagram of an image processing apparatus 10 which is an embodiment of the present invention. Image processing device 10
From the action command output unit 12, the local feature extraction unit 16, the overall feature extraction unit 18, the learning unit 20, the storage unit 22, the action recognition unit 24, the action evaluation unit 26, the attention generation unit 28, the attention modulation unit 30, and the like. Composed.

【0017】画像処理装置10の動作は、予めカメラ等
を搭載した移動体32を実環境下で行動させながら取得
した画像とそのときの行動の対応関係について学習を行
う事前学習段階と、事前学習段階で学習した知識を利用
して新たに取得した画像情報から移動体32の行動を認
識する行動認識段階の二段階からなる。
The operation of the image processing apparatus 10 includes a pre-learning stage in which learning is carried out on a correspondence relationship between an image acquired while the moving body 32 equipped with a camera or the like is made to act in an actual environment in advance and the action at that time, and a pre-learning stage. The action recognition stage includes two stages of recognizing the action of the moving body 32 from the image information newly acquired by using the knowledge learned in the stage.

【0018】事前学習段階では、図1中の行動コマンド
出力部12、局所特徴抽出部16、全体特徴抽出部1
8、学習部20及び記憶部22が使用される。行動認識
段階では、これらに加えて行動認識部24、行動評価部
26、注意生成部28及び注意転調部30も使用され
る。
At the pre-learning stage, the action command output unit 12, local feature extraction unit 16 and overall feature extraction unit 1 shown in FIG.
8, the learning unit 20 and the storage unit 22 are used. At the action recognition stage, in addition to these, the action recognition unit 24, the action evaluation unit 26, the attention generation unit 28, and the attention modulation unit 30 are also used.

【0019】まず、事前学習段階において使用される各
部を説明する。
First, each part used in the pre-learning stage will be described.

【0020】行動コマンド出力部12は、移動体32に
対し行動コマンドを出力する。行動コマンドとは、移動
体32に直進、右折、左折などの行動をさせるコマンド
である。行動コマンド出力部12は、外部から受信する
指示信号に応じて行動コマンドを出力するが、予め時系
列で設定されたコマンド列を図示しないメモリから読み
出してきて出力するようにしても良い。また、移動体3
2が取得画像に基づいて自己の行動を認識して随時次に
とるべき行動を決定し、行動コマンド出力部12はその
決定に応じた行動コマンドを出力する構成としても良
い。出力された行動コマンドは、無線または有線により
移動体32に送られると共に、全体特徴抽出部18に供
給されて、後述する全体特徴情報の生成に使用される。
The action command output section 12 outputs an action command to the moving body 32. The action command is a command that causes the moving body 32 to take an action such as going straight, turning right, turning left, or the like. Although the action command output unit 12 outputs an action command in response to an instruction signal received from the outside, the action command output unit 12 may read a command sequence set in advance in time series from a memory (not shown) and output it. In addition, the moving body 3
The configuration may be such that 2 recognizes its own action based on the acquired image, determines the action to be taken next at any time, and the action command output unit 12 outputs the action command according to the determination. The output action command is sent to the moving body 32 wirelessly or by wire, and is also supplied to the overall feature extraction unit 18 to be used for generating overall feature information described later.

【0021】移動体32にはCCDカメラ等の画像取得
部14が付設されている。画像取得部14は、時刻tに
おける移動体32の外部環境の画像I(t)を所定の時間間
隔で取得し、局所特徴抽出部16に供給する。
An image acquisition unit 14 such as a CCD camera is attached to the moving body 32. The image acquisition unit 14 acquires images I (t) of the external environment of the moving body 32 at time t at predetermined time intervals and supplies them to the local feature extraction unit 16.

【0022】局所特徴抽出部16は、画像I(t)の局所領
域の特徴情報を抽出する。本明細書において「局所領
域」とは、画像取得部14が取得する画像I(t)の全体領
域をそれぞれが同一の大きさを有するように分割したと
きの各小領域のことを指しており、各局所領域は複数の
画素を含む。本実施形態では、時間的に連続する2枚の
画像I(t)、I(t+1)からオプティカルフローを算出して、
これを各局所領域の特徴情報(以下、「局所特徴情報」
という)の生成に使用する。局所特徴抽出部16によっ
て抽出された局所特徴情報は、全体特徴抽出部18に供
給される。
The local feature extraction unit 16 extracts the feature information of the local area of the image I (t). In the present specification, the “local area” refers to each small area when the entire area of the image I (t) acquired by the image acquisition unit 14 is divided so as to have the same size. , Each local region includes a plurality of pixels. In the present embodiment, an optical flow is calculated from two temporally consecutive images I (t) and I (t + 1),
This is the feature information of each local area (hereinafter, “local feature information”).
Used to generate). The local feature information extracted by the local feature extraction unit 16 is supplied to the overall feature extraction unit 18.

【0023】全体特徴抽出部18は、画像I(t)について
得られた全ての局所特徴情報を融合して画像全体につい
ての特徴情報(以下、「全体特徴情報」という)を抽出
する。抽出された全体特徴情報は学習部20に供給され
る。
The overall feature extraction unit 18 fuses all the local feature information obtained for the image I (t) to extract feature information for the entire image (hereinafter referred to as "overall feature information"). The extracted overall characteristic information is supplied to the learning unit 20.

【0024】学習部20は、全体特徴抽出部18から供
給される全体特徴情報に基づいて学習を行い、後述する
確率モデルを作成する。本実施形態では、この学習に公
知の期待値最大化アルゴリズムとニューラルネットワー
クを用いた教師付き学習を使用するが、他の学習アルゴ
リズムを用いることもできる。学習結果である確率統計
モデルは記憶部22に格納され、行動認識段階における
移動体32の行動の認識に使用される。
The learning section 20 performs learning based on the overall characteristic information supplied from the overall characteristic extracting section 18 and creates a probability model described later. In this embodiment, a known learning method using an expected value maximization algorithm and a neural network is used for this learning, but other learning algorithms may be used. The probabilistic statistical model that is the learning result is stored in the storage unit 22 and is used for recognizing the action of the moving body 32 in the action recognition stage.

【0025】事前学習段階が終了すると、その学習結果
(確率モデル)を新たに取得した画像に適用して移動体
32の行動を高精度に認識可能な状態になる。以下、行
動認識段階において使用される各部を説明する。
When the pre-learning stage ends, the learning result (probabilistic model) is applied to the newly acquired image, and the behavior of the moving body 32 can be recognized with high accuracy. Hereinafter, each unit used in the action recognition stage will be described.

【0026】事前学習段階と同様、画像取得部14は時
刻tにおける移動体32の外部環境の画像I(t)を所定の
時間間隔で取得し、行動認識部24に供給する。
Similar to the pre-learning stage, the image acquisition unit 14 acquires images I (t) of the external environment of the moving body 32 at time t at predetermined time intervals and supplies them to the action recognition unit 24.

【0027】行動認識部24は、供給された画像I(t)に
対して記憶部22に格納されている確率モデルを適用し
て、各行動コマンドについて確信度を算出し、最大のも
のを移動体32の行動と認識する。算出された確信度は
行動評価部26に供給される。
The action recognition unit 24 applies the probability model stored in the storage unit 22 to the supplied image I (t), calculates the certainty factor for each action command, and moves the maximum one. Recognize as the action of the body 32. The calculated certainty factor is supplied to the behavior evaluation unit 26.

【0028】行動評価部26は、行動コマンドの確信度
について対数尤度を計算する。注意生成部28は、確信
度の対数尤度が所定値以上であれば何も行わない。確信
度の対数尤度が所定値未満の場合、認識した行動は十分
な確信度を得ていないとして、注意要求信号を生成して
注意転調部30に供給する。
The behavior evaluation unit 26 calculates the log likelihood for the certainty factor of the behavior command. The attention generator 28 does nothing if the log-likelihood of the certainty factor is equal to or larger than a predetermined value. When the logarithmic likelihood of the certainty factor is less than the predetermined value, it is determined that the recognized action does not have sufficient certainty factor, and the attention request signal is generated and supplied to the attention modulation unit 30.

【0029】注意転調部30は、注意生成部28から注
意要求信号を受信すると、学習のアルゴリズムにおける
所定のパラメータ値を変更(転調)して、学習部20に
確率モデルの更新を行わせる。学習部20は更新した確
率モデルを記憶部22に格納する。行動認識部24は、
更新後の確率モデルを適用して再度移動体32の行動を
認識する。これによって、常に一定レベル以上の確信度
を有する行動の認識が行われることになる。
Upon receiving the attention request signal from the attention generation unit 28, the attention modulation unit 30 changes (modulates) a predetermined parameter value in the learning algorithm and causes the learning unit 20 to update the probability model. The learning unit 20 stores the updated probabilistic model in the storage unit 22. The action recognition unit 24
The behavior of the moving body 32 is recognized again by applying the updated probabilistic model. As a result, an action having a certainty level or higher is always recognized.

【0030】なお、画像取得部14は移動体32に付設
されている必要があるが、画像処理装置10は、画像取
得部14と一体でまたは別個に移動体32に付設されて
いても、あるいは移動体32とは別の場所に設置されて
いてもよい。画像取得部14と画像処理装置10の間の
通信は、有線でも無線でもよい。
Although the image acquisition unit 14 needs to be attached to the moving body 32, the image processing apparatus 10 may be attached to the moving body 32 either integrally with the image obtaining unit 14 or separately. It may be installed in a place different from the moving body 32. The communication between the image acquisition unit 14 and the image processing apparatus 10 may be wired or wireless.

【0031】続いて、図1及び図2を用いて事前学習段
階について詳細に説明する。図2は事前学習段階の処理
の流れを示すフローチャートである。
Next, the pre-learning stage will be described in detail with reference to FIGS. FIG. 2 is a flowchart showing the flow of processing in the pre-learning stage.

【0032】行動コマンド出力部12からの行動コマン
ドに応じて移動体32が行動する際に、移動体32に付
設された画像取得部14は、時間的に連続する2枚の画
像を取得する(ステップS42)。そして、局所特徴抽
出部16は、画像取得部14が取得した画像から局所特
徴情報を抽出する(ステップS44〜S48)。具体的
には、取得した画像中の各局所領域画像に対して複数方
向のガボールフィルタを適用して、各局所領域について
ガボールフィルタの各方向における画像強度E i(xt,yt)
を計算する(ステップS44)。画像強度Ei(xt,yt)
は、以下の式(1)により計算される。
Action command from action command output unit 12
When the moving body 32 acts in accordance with the
The image acquisition unit 14 provided has two images that are temporally continuous.
An image is acquired (step S42). And local feature extraction
The output unit 16 determines a local feature from the image acquired by the image acquisition unit 14.
The signature information is extracted (steps S44 to S48). concrete
For each local area image in the acquired image,
Gabor filter for each local region
Image intensity E in each direction of the Gabor filter i(xt, yt)
Is calculated (step S44). Image intensity Ei(xt, yt)
Is calculated by the following equation (1).

【0033】 Ei(xt,yt)=Img(t)×Gbri(+)+Img(t+1)×Gbri(-) (1) ここで、Gbri(+)、Gbri(-)はそれぞれ正成分及び負成分
のガボールフィルタであることを示す。また、添え字
「i」はガボールフィルタの方向を示し、本実施形態で
はi=1,…,8である。Img(t)は時刻tにおいて取得さ
れた画像の局所領域画像を示し、Img(t+1)は次の時刻t
+1において取得された画像の局所領域画像を示す。さ
らに、(xt,yt)は、時刻tにおける局所領域内での画素
の座標を表している。従って、Ei(xt,yt)は当該局所領
域における方向iの画像強度を表す。
E i (x t , y t ) = Img (t) × Gbr i (+) + Img (t + 1) × Gbr i (−) (1) Here, Gbr i (+) and Gbr i ( -) Indicates Gabor filters with positive and negative components, respectively. Further, the subscript "i" indicates the direction of the Gabor filter, and i = 1, ..., 8 in this embodiment. Img (t) represents a local area image of the image acquired at time t, and Img (t + 1) is the next time t.
4 shows a local area image of the image acquired at +1. Furthermore, (x t , y t ) represents the coordinates of the pixel in the local area at time t. Therefore, E i (x t , y t ) represents the image intensity in the direction i in the local area.

【0034】ガボールフィルタの方向及び適用する数は
任意であるが、本実施形態では人間の視覚機能の受容野
を模倣して、全体画像の中心から等角に放射状に伸びる
8方向のガボールフィルタを使用している。
Although the direction of the Gabor filter and the number of Gabor filters to be applied are arbitrary, in the present embodiment, an 8-direction Gabor filter that radially extends equiangularly from the center of the entire image is imitated by receptive fields of human visual function. I'm using it.

【0035】次に、局所特徴抽出部16は、ステップ4
4で計算した各局所領域における8方向の画像強度E
i(xt,yt)(i=1,…,8)から、次式(2)により各局所
領域において最も画像強度の大きい方向jを選択する
(ステップS46)。
Next, the local feature extraction unit 16 executes step 4
Image intensity E in 8 directions in each local region calculated in 4
i (x t, y t) (i = 1, ..., 8) from, to select the larger direction j of the most image intensity in each local region by the following equation (2) (step S46).

【0036】 j=argmaxii(xt,yt) (2) ここで、方向j(j=1,…,8)は、局所領域毎に異な
ることに注意する。
J = argmax i E i (x t , y t ) (2) Here, note that the direction j (j = 1, ..., 8) is different for each local region.

【0037】続いて、局所特徴抽出部16は、次式(3)
のように最大の画像強度Ej(xt,yt)に対してガウス関数
を使用して、各局所領域について局所特徴情報Ψj(xt,y
t)を算出する(ステップS48)。
Subsequently, the local feature extraction unit 16 uses the following equation (3)
Maximum image intensity E j (x t, y t ) by using a Gaussian function with respect to, the local characteristic information Ψ j (x t for each local region, y as
t ) is calculated (step S48).

【0038】[0038]

【数1】 [Equation 1]

【0039】ここで、式(3)中、「μj」は、当該局所
領域における画像強度Ej(xt,yt)の平均値である。ま
た、「σj」はこれらの画像強度Ej(xt,yt)の分散を示
す。従って、局所特徴情報Ψj(xt,yt)は、各局所領域に
おいて画像強度が最大値を有する方向に関する画像強度
j(xt,yt)を確率密度分布で表現したものになる。局所
特徴情報Ψj(xt,yt)は、局所領域の数と等しいだけ求め
られるが、それぞれの局所領域について局所特徴情報Ψ
j(xt,yt)を求めた方向jは異なっていることに注意す
る。
Here, in equation (3), “μ j ” is the average value of the image intensities E j (x t , y t ) in the local area. Further, “σ j ” denotes the variance of these image intensities E j (x t , y t ). Therefore, the local feature information Ψ j (x t , y t ) is the image intensity E j (x t , y t ) in the direction in which the image intensity has the maximum value in each local region, represented by the probability density distribution. . The local feature information Ψ j (x t , y t ) is obtained by the number equal to the number of local regions.
Note that the direction j in which j (x t , y t ) is determined is different.

【0040】全体特徴抽出部18は、行動コマンド出力
部12から行動コマンドを、局所特徴抽出部16から局
所特徴情報Ψj(xt,yt)を受け取ると、次式(4)に従っ
て、画像強度の最大方向jの各方向について、その方向
に関して求められた全ての局所特徴情報Ψj(xt,yt)を融
合して全体特徴情報ρjt|l)を算出する(ステップS
50)。
When the overall feature extraction unit 18 receives the action command from the action command output unit 12 and the local feature information Ψ j (x t , y t ) from the local feature extraction unit 16, the image is calculated according to the following equation (4). For each direction of the maximum intensity direction j, all local feature information Ψ j (x t , y t ) obtained for that direction is fused to calculate overall feature information ρ jt | l) (step S
50).

【0041】[0041]

【数2】 ここで、「χt」は(xt,yt)による二次元直交座標を意味
する。
[Equation 2] Here, “χ t ” means two-dimensional Cartesian coordinates by (x t , y t ).

【0042】算出した全体特徴情報ρjt|l)は、それ
ぞれ元の画像I(t)を取得したときに行動コマンド出力部
12が出力した行動コマンドの別にクラス分けして格納
される(ステップS52)。ここで、「l」は行動コマ
ンドを表す。本実施形態では3つの行動コマンド(直
進、左折及び右折)が使用されているので、l=1を直
進、l=2を左折、l=3を右折の行動コマンドとして
いる。従って、移動体の直進(l=1)時に取得された
複数の全体特徴情報ρjt|1)と、左折(l=2)時
に取得された複数の全体特徴情報ρjt|2)と、右折
(l=3)時に取得された複数の全体特徴情報ρjt|
3)は、それぞれ別々のクラスに格納される。
The calculated overall characteristic information ρ jt | l) is stored by classifying the action commands output by the action command output unit 12 when the original image I (t) is obtained. (Step S52). Here, "l" represents an action command. Since three action commands (straight ahead, left turn, and right turn) are used in the present embodiment, l = 1 is a straight ahead action, l = 2 is a left turn action, and l = 3 is a right turn action command action. Accordingly, the straight moving body (l = 1) a plurality of whole feature information acquired during [rho j | a (chi t 1), left (l = 2) a plurality of whole feature information acquired at ρ jt | 2) and a plurality of overall characteristic information ρ jt | acquired at the time of right turn (l = 3)
3) are stored in separate classes.

【0043】このクラスは「注意のクラス」Ωlであ
る。注意のクラスとは、新たな特徴情報が提示されたと
きにその全てを学習結果に反映させるのではなく、特定
の特徴情報に注目することで効率良く学習を更新するた
めのものである。
This class is the “class of attention” Ω l . The attention class is for not only reflecting all of the new feature information in the learning result when the new feature information is presented, but for efficiently updating the learning by focusing on the specific feature information.

【0044】なお、注意のクラスは3つに限られず、行
動コマンドの数と対応づけて任意の数設定することがで
きる。
The number of attention classes is not limited to three, and an arbitrary number can be set in association with the number of action commands.

【0045】全体特徴情報ρjt|l)は所定間隔毎に取
得される画像I(t)について行動コマンドに関連付けて計
算されるので、式(4)の計算によって、8方向の全体特
徴情報のセットがそれぞれ複数、行動コマンドの別に格
納されることになる。
Since the overall feature information ρ jt | l) is calculated in association with the action command for the image I (t) acquired at every predetermined interval, the overall characteristic in eight directions is calculated by the equation (4). A plurality of sets of characteristic information are stored separately for each action command.

【0046】図3〜図5は、元の画像I(t)と、局所特徴
情報Ψj(xt,yt)と、全体特徴情報ρ jt|l)の対応を示
す図である。図3は移動体32の直進時に、図4は左折
時に、図5は右折時に取得された画像にそれぞれ対応す
る。
3 to 5 show the original image I (t) and the local features.
Information Ψj(xt, yt) And the overall characteristic information ρ jt| l)
It is a figure. 3 shows the moving body 32 going straight, and FIG. 4 shows a left turn.
Occasionally, Figure 5 corresponds to the images acquired during the right turn.
It

【0047】各図の(a)は、画像取得部14により取得
された画像I(t)の一例である。各図の(b)は、ガボール
フィルタのある1方向の局所特徴情報を画像全体につい
てグラフ化したものであり、Z軸は局所特徴情報Ψ
j(xt,yt)の絶対値を表す。この例では、画像全体が77
×57個の局所領域に分割されている。各図の(c)は、
(b)の局所特徴情報から式(4)の計算によって算出され
た全体特徴情報ρjt|l)を、ガボールフィルタの適用
方向毎に示した極形マップである。図(c)中、の1から
8の数字はガボールフィルタの適用方向(上方向、右上
方向、…)に対応している。
(A) of each figure is an example of the image I (t) acquired by the image acquisition unit 14. (B) of each figure is a graph of the local feature information in one direction with a Gabor filter for the entire image, and the Z axis is the local feature information Ψ.
Represents the absolute value of j (x t , y t ). In this example, the entire image is 77
It is divided into x57 local regions. (C) of each figure
It is a polar map showing the overall feature information ρ jt | l) calculated by the calculation of equation (4) from the local feature information of (b) for each application direction of the Gabor filter. In the figure (c), the numbers 1 to 8 correspond to the application direction (upward direction, upper right direction, ...) Of the Gabor filter.

【0048】図3〜5の(c)の極形マップに現れた形状
を比較すると、各画像について8方向の全体特徴情報を
求めることで移動体32の行動(行動コマンドl)につ
いての特徴が捉えられていることがわかる。
Comparing the shapes appearing in the polar maps of FIGS. 3 to 5 (c), the characteristics of the action of the moving body 32 (action command l) are obtained by obtaining the overall feature information in eight directions for each image. You can see that they are being captured.

【0049】図2に戻り、ステップS52で全体特徴情
報ρjt|l)を格納した後、学習部20は全体特徴情報
ρjt|l)に基づいて学習を行う(ステップS54〜S
58)。具体的には、期待値最大化アルゴリズム(EM
アルゴリズム)とニューラルネットワークを用いた教師
付き学習を行って、移動体32の行動を認識するための
確率モデルを生成する。以下、本実施形態におけるEM
アルゴリズムとニューラルネットワークを用いた教師付
き学習の適用について順に説明する。
Returning to FIG. 2, after storing the overall feature information ρ jt | l) in step S52, the learning section 20 performs learning based on the overall feature information ρ jt | l) (step S54 ~ S
58). Specifically, the expected value maximization algorithm (EM
Algorithm) and a neural network are used to perform supervised learning to generate a probabilistic model for recognizing the behavior of the moving body 32. Hereinafter, the EM in the present embodiment
The application of supervised learning using algorithms and neural networks will be described in order.

【0050】EMアルゴリズムは、観測データが不完全
データであるときに最大尤度になるパラメータθを推測
する繰り返しアルゴリズムである。観測データの平均を
μl、共分散をΣlとすると、パラメータθはθ(μl,
Σl)と表わすことができる。EMアルゴリズムでは、パ
ラメータθ(μll)の適当な初期値から開始して、E
ステップ(Expectation step)とMステップ(Maximiza
tion step)の2つのステップを反復することでパラメ
ータθ(μll)の値を逐次更新していく。
The EM algorithm is an iterative algorithm for estimating the parameter θ which has the maximum likelihood when the observed data is incomplete data. If the mean of the observed data is μ l and the covariance is Σ l , the parameter θ is θ (μ l ,
Σ l ). In the EM algorithm, starting from a suitable initial value of the parameter θ (μ l , Σ l )
Step (Expectation step) and M step (Maximiza
The value of the parameter θ (μ l , Σ l ) is sequentially updated by repeating the two steps of (tion step).

【0051】まず、Eステップでは、次式(5)により条
件付き期待値ψ(θ|θ(k))を算出する。
First, in step E, the conditional expected value ψ (θ | θ (k) ) is calculated by the following equation (5).

【0052】[0052]

【数3】 [Equation 3]

【0053】次に、Mステップでは、次式(6)によりψ
(θ|θ(k))を最大にするパラメータμl、Σlを計算し、
これを新たな推測値θ(k+1)とする。
Next, in the M step, ψ is calculated by the following equation (6).
Calculate the parameters μ l and Σ l that maximize (θ | θ (k) ),
This is a new estimated value θ (k + 1) .

【0054】[0054]

【数4】 [Equation 4]

【0055】このEステップとMステップを反復してい
き、得られた条件付き期待値ψ(θ|θ(k))をθ(k)に関
して偏微分する。そして、偏微分の結果を「0」と置く
ことによって、最終的なμl、Σlが算出される。EMア
ルゴリズムは当技術分野において周知なので、これ以上
詳細な説明は省略する。
By repeating the E step and the M step, the conditional expectation value ψ (θ | θ (k) ) obtained is partially differentiated with respect to θ (k) . Then, by setting the result of the partial differentiation as “0”, the final μ l and Σ l are calculated. The EM algorithm is well known in the art and will not be described in further detail.

【0056】EMアルゴリズムにより、各注意のクラス
Ωlの全体特徴情報を正規分布で表すことができる(ス
テップS54)。
By the EM algorithm, the overall feature information of each attention class Ω l can be represented by a normal distribution (step S54).

【0057】全体特徴抽出部18は、行動コマンドlに
ついて算出したμl、Σlを次式(7)に用いて、全体特徴
情報ρjt|l)が行動コマンドlのクラスΩに属する
確率である事前確率p-(ρ|Ωl)を算出する(ステップS
56)。
The overall feature extraction unit 18 uses μ l and Σ l calculated for the action command l in the following equation (7), and the overall feature information ρ jt | l) is the class Ω l of the action command l. The prior probability p- (ρ | Ω l ) which is the probability of belonging to (step S
56).

【0058】[0058]

【数5】 上式において、Nは全体特徴情報ρjt|l)の次元数で
ある。
[Equation 5] In the above equation, N is the number of dimensions of the overall feature information ρ jt | l).

【0059】次に、ニューラルネットワークを用いた教
師付き学習について説明する。この学習では、注意のク
ラスΩlを教師信号として、画像取得部14により取得
された画像I(t)について、条件付き確率密度関数p(I(t)
l)を算出する(ステップS58)。
Next, supervised learning using a neural network will be described. In this learning, the conditional probability density function p (I (t) is set for the image I (t) acquired by the image acquisition unit 14 using the attention class Ω l as a teacher signal.
| Ω l ) is calculated (step S58).

【0060】図6は、このニューラルネットワークを用
いた教師付き学習に使用される階層型ニューラルネット
ワークの構成例を示す図である。この階層型ニューラル
ネットワークは3層のノードを有し、入力層72は元の
画像I(t)、中間層74は全体特徴情報ρjt|l)、出力
層76は行動コマンドlの注意のクラスΩlにそれぞれ
対応する。なお、入力層72には簡単のために3つのノ
ードのみ描かれているが、実際にはノードは画像I(t)の
数だけ存在する。同様に、中間層74には入力層72と
同数の全体特徴情報ρjt|l)のノードがあり、両者は
それぞれ1対1に接続されている。また出力層76のノ
ードは注意クラスΩlの数(本実施形態では3つ)だけ
生成される。
FIG. 6 is a diagram showing an example of the structure of a hierarchical neural network used for supervised learning using this neural network. This hierarchical neural network has three layers of nodes, the input layer 72 is the original image I (t), the intermediate layer 74 is the overall feature information ρ jt | l), and the output layer 76 is the action command l. Corresponds to each class of attention Ω l . Although only three nodes are drawn in the input layer 72 for simplicity, there are actually as many nodes as there are images I (t). Similarly, the intermediate layer 74 has the same number of nodes as the total feature information ρ jt | l) as the input layer 72, and both nodes are connected in a one-to-one relationship. The number of nodes in the output layer 76 is the same as the number of attention classes Ω l (three in this embodiment).

【0061】図6において、「λ」は階層型ニューラル
ネットワークのシナプス荷重である。EMアルゴリズム
によって全体特徴情報ρjt|l)がそれぞれの注意のク
ラスΩlに属する確率が求められており、また全体特徴
情報ρjt|l)は1組の画像I(t)、I(t+1)に1:1に対
応して算出されるので、注意のクラスΩlを教師信号と
する教師付き学習を繰り返していくことで画像I(t)と注
意のクラスΩlの確率的な関係(つまり図6中のλ)が
決定されていく。この確率的な関係は条件付き確率密度
関数p(I(t)|Ωl)である。階層型ニューラルネットワー
クは当技術分野において周知なので、これ以上詳細な説
明は省略する。
In FIG. 6, “λ” is the synapse weight of the hierarchical neural network. Whole feature information by EM algorithm ρ jt | l) has been required probability belonging to the class Omega l of each note, also the whole feature information ρ jt | l) is the set of images I ( Since t) and I (t + 1) are calculated in a one-to-one correspondence, the image I (t) and the attention class can be obtained by repeating supervised learning with the attention class Ω l as the teacher signal. The probabilistic relationship of Ω l (that is, λ in FIG. 6) is determined. This probabilistic relationship is the conditional probability density function p (I (t) | Ω l ). Hierarchical neural networks are well known in the art and will not be described in further detail.

【0062】このようなニューラルネットワークを用い
た教師付き学習によって、画像I(t)と注意のクラスΩl
との確率的な対応関係である条件付き確率密度関数p(I
(t)|Ωl)を得ることができる。
By the supervised learning using such a neural network, the image I (t) and the attention class Ω l
Conditional probability density function p (I
(t) | Ω l ) can be obtained.

【0063】なお、ステップS54〜S58の処理は、
行動コマンドl毎に実行される。従って本実施形態で
は、行動コマンドl=1、2、3のそれぞれについて事
前確率p-(ρ|Ωl)と条件付き確率密度関数p(I(t)|Ωl)
(これらをまとめて「確率モデル」という)が算出され
る。
The processing of steps S54 to S58 is as follows.
It is executed for each action command l. Therefore, in the present embodiment, the a priori probability p- (ρ | Ω l ) and the conditional probability density function p (I (t) | Ω l ) for each of the action commands l = 1, 2, and 3.
(These are collectively referred to as a “probabilistic model”) is calculated.

【0064】学習部20によって算出された確率モデル
は、記憶部22に格納される(ステップS60)。事前
学習を継続する場合はステップS62で「yes」とな
り再度ステップ42からの一連の処理が繰り返され、確
率モデルが更新される。事前学習は、移動体32が行動
をしている間、所定の間隔で取得される画像I(t)の全て
について実行される。そして、所定数の画像I(t)につい
て処理を完了する等、行動認識に十分精度の高い確率モ
デルが生成されたと判断される時点で終了する(ステッ
プS64)。
The probability model calculated by the learning unit 20 is stored in the storage unit 22 (step S60). In the case of continuing the pre-learning, the result in step S62 is "yes", and the series of processes from step 42 is repeated again, and the probabilistic model is updated. The pre-learning is executed for all the images I (t) acquired at a predetermined interval while the moving body 32 is acting. Then, the process ends for a predetermined number of images I (t), etc., and ends when it is determined that a stochastic model with sufficient accuracy for action recognition has been generated (step S64).

【0065】続いて、図1及び図7を用いて行動認識段
階について詳細に説明する。図7は行動認識段階の処理
の流れを示すフローチャートである。
Next, the action recognition stage will be described in detail with reference to FIGS. FIG. 7 is a flowchart showing the flow of processing in the action recognition stage.

【0066】画像取得部14は、所定の時間間隔ごとに
2枚の画像を取得する(ステップ82)。
The image acquisition unit 14 acquires two images at predetermined time intervals (step 82).

【0067】次に、事前学習時に算出された確率モデ
ル、すなわち事前確率p-(ρll)と条件付き確率密度
関数p(I(t)|Ωl)が以下のベイズ則において使用され、
各注意のクラスΩlの確信度p(Ωl(t))(confidence)が
計算される(ステップS84)。この確信度p(Ωl(t))
は、画像取得部14の取得した画像I(t)が各注意のクラ
スΩlに属している確率を表している。
Next, the probability model calculated at the time of pre-training, that is, the prior probability p- (ρ l | Ω l ) and the conditional probability density function p (I (t) | Ω l ) are used in the following Bayes law. Is
The confidence level p (Ω l (t)) (confidence) of each attention class Ω l is calculated (step S84). This certainty factor p (Ω l (t))
Represents the probability that the image I (t) acquired by the image acquisition unit 14 belongs to each attention class Ω l .

【0068】[0068]

【数6】 そして、算出された3つの確信度p(Ω1(t))、p(Ω
2(t))、p(Ω3(t))のうち、最大のものが選択される(ス
テップS86)。
[Equation 6] Then, the calculated three confidences p (Ω 1 (t)), p (Ω
Of 2 (t)) and p (Ω 3 (t)), the maximum one is selected (step S86).

【0069】行動評価部26は、行動認識部24におい
て選択された確信度p(Ωl(t))について、対数尤度log p
l(t))が所定値Kより大きいか否かを判別する(ステ
ップS88)。log p(Ωl(t))>Kの場合、確信度が最
大である注意のクラスΩlに対応する行動コマンドl
が、画像I(t)が取得されたときに現実になされている移
動体32の行動であると認識される(ステップS9
2)。
The behavior evaluation unit 26, with respect to the certainty factor p (Ω l (t)) selected by the action recognition unit 24, the log likelihood log p.
It is determined whether (Ω l (t)) is larger than a predetermined value K (step S88). When log p (Ω l (t))> K, the action command l corresponding to the attention class Ω l with the highest certainty factor
Is recognized as the action of the moving body 32 that is actually performed when the image I (t) is acquired (step S9).
2).

【0070】一方、log p(Ωl(t))≦Kの場合、注意生
成部28は注意要求を行う。注意転調部30は、式(7)
におけるガウシアンミクスチャ「m」を所定値だけ増加
(すなわち、注意転調)する(ステップS90)。そし
て、学習部20において図2のステップS56〜S60
の一連の処理が再度実行され、確率モデル(事前確率p-
(ρ|Ωl)及び条件付き確率密度関数p(I(t)|Ωl))が更
新される。
On the other hand, if log p (Ω l (t)) ≦ K, the caution generator 28 issues a caution request. Note The modulation unit 30 is calculated by the formula (7).
The Gaussian mixture "m" in (1) is increased by a predetermined value (that is, attention modulation) (step S90). Then, in the learning unit 20, steps S56 to S60 of FIG.
The series of processing of is executed again, and the probabilistic model (prior probability p-
(ρ | Ω l ) and the conditional probability density function p (I (t) | Ω l )) are updated.

【0071】そしてプロセスは図7のステップS84に
戻り、ステップS84〜S88の処理が繰り返され、対
数尤度log p(Ωl(t))が所定の値K以上になるまでガウ
シアンミクスチャmが増加される。
Then, the process returns to step S84 in FIG. 7 and the processes of steps S84 to S88 are repeated, and the Gaussian mixture m increases until the logarithmic likelihood log p (Ω l (t)) becomes equal to or larger than the predetermined value K. To be done.

【0072】なお、このような更新の過程がなく予め作
成された確率モデルが常に使用されるとしてもよい。
Note that a probabilistic model created in advance may always be used without such an updating process.

【0073】以上説明したように、本発明では画像情報
のみから移動体の行動を認識するのではなく、画像情報
から抽出した全体特徴情報と行動コマンドとの関係につ
いての学習を予め行っておき、その学習結果を利用して
行動認識を行うので、実環境においても移動体の行動を
高速かつ高精度に認識することができる。
As described above, according to the present invention, the action of the moving body is not recognized only from the image information, but the relationship between the overall feature information extracted from the image information and the action command is learned in advance, Since the action recognition is performed using the learning result, the action of the moving body can be recognized at high speed and with high accuracy even in the actual environment.

【0074】また、移動体32のタイヤの取り付け不良
等によって、移動体32が与えられた行動コマンドに応
じた正しい移動をしなくなった場合でも、画像から真の
移動状況が把握できる。
Even if the moving body 32 does not move correctly in response to a given action command due to a tire mounting failure or the like, the true moving state can be grasped from the image.

【0075】続いて、本発明の実施例について説明す
る。図8は、本発明の画像処理装置10を搭載したラジ
オコントロールカー(以下、「RCカー」という)10
0のブロック図である。画像処理装置10の各部は図1
に関連して説明したものと同様の機能を有する。RCカ
ー100には、画像処理装置10の他、画像を取得する
画像入力カメラ114、行動コマンドに従ってRCカー
100の行動を制御する操舵制御部132及び駆動制御
部134、外部と通信を行うための受信機136及び送
信機138が設けられている。受信機136は外部から
行動コマンド指令信号を受信し、行動コマンド出力部1
2に供給する。RCカー100は行動コマンドに応じて
直進、左折、右折の3つの行動の何れかをとる。また、
行動認識部24の認識したRCカー100の行動は、送
信機138を介して外部に送信される。
Next, examples of the present invention will be described. FIG. 8 is a radio control car (hereinafter referred to as “RC car”) 10 equipped with the image processing apparatus 10 of the present invention.
It is a block diagram of 0. Each part of the image processing apparatus 10 is shown in FIG.
It has a function similar to that described in connection with. In addition to the image processing device 10, the RC car 100 includes an image input camera 114 for acquiring an image, a steering control unit 132 and a drive control unit 134 for controlling the behavior of the RC car 100 in accordance with a behavior command, and communication with the outside. A receiver 136 and a transmitter 138 are provided. The receiver 136 receives the action command command signal from the outside, and the action command output unit 1
Supply to 2. The RC car 100 takes one of three actions of going straight, turning left, and turning right according to the action command. Also,
The action of the RC car 100 recognized by the action recognition unit 24 is transmitted to the outside via the transmitter 138.

【0076】このRCカー100に対して右折、直進、
及び左折の各行動コマンドを与えながら画像を取得させ
て事前学習段階を完了させた後、24フレームの画像に
ついて行動認識をさせたときの結果を以下に述べる。
Turn right on this RC car 100, go straight,
The following is a description of the results when the action recognition is performed on the image of 24 frames after the image is acquired while the action commands of turning left and the left turn are given and the pre-learning stage is completed.

【0077】図9は、注意のクラスの確信度の対数尤度
log p(Ωl(t))の値の変化を示すグラフである。横軸は
式(7)のガウシアンミクスチャmの値を表し、縦軸は確
信度の対数尤度log p(Ωl(t))を表す。図9より、ガウ
シアンミクスチャの数が50前後になると、対数尤度が
飽和することが分かる。各画像に対する注意のクラスの
確信度の対数尤度が大きいということは、各画像を取得
したときのRCカー100が当該注意のクラスに対応す
る行動をしている可能性が十分に高いと画像処理装置1
0が認識していることに相当する。
FIG. 9 shows the log-likelihood of the certainty factor of the attention class.
6 is a graph showing changes in the value of log p (Ω l (t)). The horizontal axis represents the value of the Gaussian mixture m in equation (7), and the vertical axis represents the logarithmic likelihood log p (Ω l (t)) of the certainty factor. It can be seen from FIG. 9 that the log-likelihood is saturated when the number of Gaussian mixtures is around 50. The fact that the log-likelihood of the confidence level of the attention class for each image is large means that it is highly likely that the RC car 100 at the time of acquiring each image is performing an action corresponding to the attention class. Processor 1
This corresponds to 0 being recognized.

【0078】図10はガウシアンミクスチャ(ガウス関
数の個数)mがm=20のときの式(8)で求めた確信度
の対数尤度log p(Ωl)の結果を示し、図11はm=50
のときの同様の結果を示す。図10及び図11における
縦軸は、(a)では行動コマンドl=1(直進)の注意の
クラスΩ1についての確信度の対数尤度log p(Ω1)、(b)
では行動コマンドl=2(左折)の注意のクラスΩ2
ついての確信度の対数尤度log p(Ω2)、(c)では行動コ
マンドl=3(右折)の注意のクラスΩ3についての確
信度の対数尤度log p(Ω3)をそれぞれ示している。各図
の横軸は行動認識をさせた24個の画像に対応してい
る。24個の画像のうち最初の8つ(画像1〜8)はR
Cカー100に左折の行動コマンドl=2を与えたとき
に、中央の8つ(画像9〜16)は直進の行動コマンド
l=1を与えたときに、最後の8つ(画像17〜24)
は右折の行動コマンドl=3を与えたときに、それぞれ
対応している。
FIG. 10 shows the result of the logarithmic likelihood log p (Ω l ) of the certainty factor obtained by the equation (8) when the Gaussian mixture (the number of Gaussian functions) m is m = 20, and FIG. 11 shows m. = 50
The same result is shown for. The vertical axis in FIGS. 10 and 11 is, in (a), the logarithmic likelihood log p (Ω 1 ) of the certainty factor for the attention class Ω 1 of the action command l = 1 (straight ahead), (b)
In action command l = 2 log-likelihood confidence for attention class Omega 2 of (left) log p (Ω 2), for the attention of the class Omega 3 (c), the action command l = 3 (right turn) The log-likelihood log p (Ω 3 ) of the certainty factor is shown. The abscissa of each figure corresponds to 24 images for which action recognition is performed. The first 8 out of 24 images (images 1-8) are R
When the left turn action command l = 2 is given to the C-car 100, the middle eight (images 9 to 16) are the last eight (images 17 to 24) when the straight ahead action command l = 1 is given. )
Correspond to the right turn action command l = 3.

【0079】そこで図10を参照すると、(a)では中央
の8つの画像(すなわち直進時)について最大の確信度の
対数尤度を示し、(b)では最初の8つの画像(すなわち左
折時)について、(c)では最後の8つの画像(すなわち右
折時)について、それぞれ同様である。しかし画像間の
対数尤度のばらつきが大きく、行動の認識は十分とは言
えない。
Therefore, referring to FIG. 10, (a) shows the log-likelihood of the maximum confidence for the central eight images (that is, when going straight), and (b) shows the first eight images (that is, when turning left). (C) is the same for each of the last eight images (that is, when turning right). However, the variation of log-likelihood between images is large, and it cannot be said that the recognition of actions is sufficient.

【0080】次に図11を参照すると、(a)、(b)、(c)
ともに図10と同様、行動コマンドlに対応する画像が
最大の確信度の対数尤度を示している。しかし図11に
おいては、図10に比べて画像間の対数尤度のばらつき
が少なく、滑らかになっている。これは注意転調により
ガウシアンミクスチャを増加することによって達成され
たものである。
Next, referring to FIG. 11, (a), (b), (c)
In both cases, as in FIG. 10, the image corresponding to the action command 1 shows the log likelihood of the maximum certainty factor. However, in FIG. 11, there is less variation in the log likelihood between images as compared with FIG. 10, and the image is smooth. This was achieved by increasing the Gaussian mixture by attentional modulation.

【0081】このように、本発明の画像処理装置を用い
ることによって、事前学習段階においてボトムアップ的
に形成された注意のクラスが学習を重ねることにより信
頼性が向上し、行動認識段階では、確信度の対数尤度が
所定値を超えるまで確率モデルが更新されるので、行動
の認識精度が向上する。
As described above, by using the image processing device of the present invention, the reliability is improved by the learning of the attention class formed in the bottom-up in the pre-learning stage, and the confidence is increased in the action recognition stage. Since the probability model is updated until the log-likelihood of the degree exceeds a predetermined value, the action recognition accuracy is improved.

【0082】[0082]

【発明の効果】本発明によると、画像情報のみから移動
体の行動を認識するのではなく、画像情報と行動コマン
ドとの関係についての学習を予め行っておき、その学習
結果を利用して判断するので、実環境においても移動体
の行動を高速かつ高精度に認識することができる。
According to the present invention, the action of the moving body is not recognized only from the image information, but the relationship between the image information and the action command is learned in advance, and the learning result is used to make a decision. Therefore, the behavior of the moving body can be recognized at high speed and with high accuracy even in the actual environment.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態である画像処理装置の機能
ブロック図である。
FIG. 1 is a functional block diagram of an image processing apparatus that is an embodiment of the present invention.

【図2】本発明による画像処理方法の事前学習段階を示
すフローチャートである。
FIG. 2 is a flowchart showing a pre-learning stage of the image processing method according to the present invention.

【図3】移動体の直進時(Ω1)の画像認識結果を示す
図である。
FIG. 3 is a diagram showing an image recognition result when a moving body is straight ahead (Ω 1 ).

【図4】移動体の左折時(Ω2)の画像認識結果を示す
図である。
FIG. 4 is a diagram showing an image recognition result when a moving body turns left (Ω 2 ).

【図5】移動体の右折時(Ω3)の画像認識結果を示す
図である。
FIG. 5 is a diagram showing an image recognition result when a moving body turns right (Ω 3 ).

【図6】ニューラルネットワークを用いた教師付き学習
に使用される階層型ニューラルネットワークの構成例を
示す図である。
FIG. 6 is a diagram showing a configuration example of a hierarchical neural network used for supervised learning using a neural network.

【図7】本発明による画像処理方法の行動認識段階を示
すフローチャートである。
FIG. 7 is a flowchart showing an action recognition step of the image processing method according to the present invention.

【図8】本発明による画像処理装置を使用したRCカー
の全体的な構成を示すブロック図である。
FIG. 8 is a block diagram showing the overall configuration of an RC car using the image processing apparatus according to the present invention.

【図9】確信度の対数尤度の変化を示す図である。FIG. 9 is a diagram showing a change in log likelihood of confidence.

【図10】ガウシアンミクスチャm=20のときのRC
カーの行動の認識結果を示す図である。
FIG. 10: RC when Gaussian mixture m = 20
It is a figure which shows the recognition result of the behavior of a car.

【図11】ガウシアンミクスチャm=50のときのRC
カーの行動の認識結果を示す図である。
FIG. 11: RC when Gaussian mixture m = 50
It is a figure which shows the recognition result of the behavior of a car.

【符号の説明】[Explanation of symbols]

10 画像処理装置 12 行動コマンド出力部 14 画像取得部 16 局所特徴抽出部 18 全体特徴抽出部 20 学習部 22 記憶部 24 行動認識部 26 行動評価部 28 注意生成部 30 注意転調部 32 移動体 10 Image processing device 12 Action command output section 14 Image acquisition unit 16 Local Feature Extraction Unit 18 Overall Feature Extraction Unit 20 Learning Department 22 Memory 24 Action recognition unit 26 Behavior Evaluation Department 28 Attention generator 30 Attention modulation section 32 moving bodies

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 100 G06T 7/20 100 // G05D 1/02 G05D 1/02 K (72)発明者 赤塚 浩二 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 2F065 AA01 BB15 DD06 FF04 JJ03 JJ26 PP01 QQ00 QQ14 QQ17 QQ24 QQ26 QQ27 QQ33 QQ41 5B057 AA05 AA06 BA02 CE06 DA07 DB02 DB09 DC08 DC22 DC34 DC40 5H301 AA01 DD02 GG09 5L096 AA06 BA04 BA05 CA04 FA34 FA67 FA69 GA30 GA55 HA04 HA11 JA18 KA04 KA15 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 7/20 100 G06T 7/20 100 // G05D 1/02 G05D 1/02 K (72) Inventor Akatsuka Koji 1-4-1 Chuo, Wako City, Saitama Prefecture F-term in Honda R & D Co., Ltd. (Reference) 2F065 AA01 BB15 DD06 FF04 JJ03 JJ26 PP01 QQ00 QQ14 QQ17 QQ24 QQ26 QQ27 QQ33 QQ41 5B057 AA05 AA06 BA02 DB06 DC07 DB07 CE07 DA07 DB07 DB07 DC34 DC40 5H301 AA01 DD02 GG09 5L096 AA06 BA04 BA05 CA04 FA34 FA67 FA69 GA30 GA55 HA04 HA11 JA18 KA04 KA15

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】移動体を行動させる行動コマンドを出力す
る行動コマンド出力部と、 該行動コマンド出力時に前記移動体において取得された
外部環境の画像情報から画像の局所領域の特徴情報を抽
出する局所特徴抽出部と、 抽出された局所領域の特徴情報を使用して画像の全体領
域の特徴情報を抽出する全体特徴抽出部と、 抽出された全体領域の特徴情報に基づいて行動コマンド
を認識するための確率統計モデルを計算する学習部と、 を含む画像処理装置。
1. A behavior command output unit for outputting a behavior command for acting a moving body, and a local for extracting characteristic information of a local region of an image from image information of an external environment acquired in the moving body at the time of outputting the behavior command. A feature extraction unit, which extracts feature information of the entire region of the image using the extracted feature information of the local region, and an action command to recognize the action command based on the feature information of the extracted entire region An image processing apparatus including: a learning unit that calculates a probability statistical model of.
【請求項2】前記局所特徴抽出部はガボールフィルタを
用いて画像の局所領域の特徴情報を抽出する請求項1に
記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the local feature extracting section extracts feature information of a local region of an image using a Gabor filter.
【請求項3】前記画像の局所領域の特徴情報の抽出に
は、正成分及び負成分のガボールフィルタを適用して得
られる画像強度を使用する請求項2に記載の画像処理装
置。
3. The image processing apparatus according to claim 2, wherein the image intensity obtained by applying a Gabor filter of a positive component and a negative component is used for extracting the characteristic information of the local region of the image.
【請求項4】前記ガボールフィルタは8方向のガボール
フィルタである請求項2または3に記載の画像処理装
置。
4. The image processing apparatus according to claim 2, wherein the Gabor filter is an 8-direction Gabor filter.
【請求項5】前記全体特徴抽出部はガウス関数を用いて
局所領域の特徴情報を融合する請求項1乃至4の何れか
1項に記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the overall feature extraction unit fuses feature information of local areas using a Gaussian function.
【請求項6】前記確率統計モデルの生成は期待値最大化
アルゴリズムとニューラルネットワークによる教師付き
学習により行われる請求項1乃至5の何れか1項に記載
の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the probability statistical model is generated by supervised learning using an expected value maximizing algorithm and a neural network.
【請求項7】前記画像情報に対して前記確率統計モデル
を使用したベイズ則を適用し、各行動コマンドについて
の確信度を算出することにより前記移動体の行動を認識
する行動認識部をさらに含む、請求項1乃至6の何れか
1項に記載の画像処理装置。
7. An action recognition unit for recognizing the action of the moving body by applying Bayes' rule using the probability statistical model to the image information and calculating a certainty factor for each action command. The image processing apparatus according to claim 1.
【請求項8】前記行動認識部の算出した確信度に基づく
値と所定の値を比較することによって前記行動認識を評
価する行動評価部と、 前記行動評価部における評価に応じて、前記確率統計モ
デルを更新させる注意要求を生成する注意生成部と、 前記注意要求に応じて前記全体特徴抽出部の所定のパラ
メータを変更する注意転調部をさらに備え、 前記学習部は前記パラメータの変更後に再度前記確率統
計モデルを計算する、請求項7に記載の画像処理装置。
8. An action evaluation unit that evaluates the action recognition by comparing a value based on a certainty factor calculated by the action recognition unit with a predetermined value, and the probability statistics according to the evaluation by the action evaluation unit. An attention generating unit that generates an attention request for updating a model, and an attention modulation unit that changes a predetermined parameter of the overall feature extraction unit according to the attention request are further provided, and the learning unit re-executes the parameter after changing the parameter. The image processing apparatus according to claim 7, which calculates a probability statistical model.
【請求項9】移動体を行動させる行動コマンドを出力
し、 該行動コマンド出力時に前記移動体において取得された
外部環境の画像情報から画像の局所領域の特徴情報を抽
出し、 抽出された局所領域の特徴情報を使用して画像の全体領
域の特徴情報を抽出し、 抽出された全体領域の特徴情報に基づいて行動コマンド
を認識するための確率統計モデルを計算することを含む
画像処理方法。
9. An action command for moving a moving body is output, feature information of a local region of an image is extracted from image information of an external environment acquired in the moving body at the time of outputting the action command, and the extracted local region is extracted. An image processing method comprising: extracting feature information of an entire region of an image using the feature information of, and calculating a probability statistical model for recognizing an action command based on the extracted feature information of the entire region.
【請求項10】前記局所領域の特徴情報の抽出はガボー
ルフィルタを用いて行われる請求項9に記載の画像処理
方法。
10. The image processing method according to claim 9, wherein the extraction of the characteristic information of the local region is performed using a Gabor filter.
【請求項11】前記局所領域の特徴情報の抽出には、正
成分及び負成分のガボールフィルタを適用して得られる
画像強度を使用する請求項10に記載の画像処理方法。
11. The image processing method according to claim 10, wherein image intensity obtained by applying a Gabor filter of a positive component and a negative component is used for extracting the characteristic information of the local region.
【請求項12】前記ガボールフィルタは8方向のガボー
ルフィルタである請求項10または11に記載の画像処
理方法。
12. The image processing method according to claim 10, wherein the Gabor filter is an 8-direction Gabor filter.
【請求項13】前記全体領域の特徴情報の抽出はガウス
関数を用いて局所領域の特徴情報を融合することによっ
て行われる請求項9乃至12の何れか1項に記載の画像
処理方法。
13. The image processing method according to claim 9, wherein the feature information of the entire region is extracted by fusing feature information of the local region using a Gaussian function.
【請求項14】前記確率統計モデルの生成は期待値最大
化アルゴリズムとニューラルネットワークによる教師付
き学習により行われる請求項9乃至13の何れか1項に
記載の画像処理方法。
14. The image processing method according to claim 9, wherein the probability statistical model is generated by supervised learning using an expected value maximizing algorithm and a neural network.
【請求項15】前記画像情報に対して前記確率統計モデ
ルを使用したベイズ則を適用し、各行動コマンドについ
ての確信度を算出することにより前記移動体の行動を認
識することをさらに含む、請求項9乃至14の何れか1
項に記載の画像処理方法。
15. The method further comprises recognizing the action of the moving body by applying a Bayes rule using the probability statistical model to the image information and calculating a certainty factor for each action command. Any one of items 9 to 14
The image processing method described in the item.
【請求項16】前記算出された確信度に基づく値と所定
の値を比較して前記行動認識を評価し、 該評価に応じて、前記確率統計モデルを更新させる注意
要求を生成し、 前記注意要求に応じて前記全体特徴抽出部の所定のパラ
メータを変更することをさらに含み、 前記パラメータの変更後に前記確率統計モデルが再度計
算される、請求項15に記載の画像処理方法。
16. The behavior recognition is evaluated by comparing a value based on the calculated certainty factor with a predetermined value, and a caution request for updating the probability statistical model is generated according to the evaluation. The image processing method according to claim 15, further comprising changing a predetermined parameter of the overall feature extraction unit according to a request, wherein the probability statistical model is recalculated after the parameter is changed.
JP2002107013A 2001-05-02 2002-04-09 Image processing apparatus and method Expired - Fee Related JP4159794B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002107013A JP4159794B2 (en) 2001-05-02 2002-04-09 Image processing apparatus and method
US10/133,114 US7221797B2 (en) 2001-05-02 2002-04-26 Image recognizing apparatus and method
EP02009680A EP1255177A2 (en) 2001-05-02 2002-04-29 Image recognizing apparatus and method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001-134848 2001-05-02
JP2001134848 2001-05-02
JP2002107013A JP4159794B2 (en) 2001-05-02 2002-04-09 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2003042718A true JP2003042718A (en) 2003-02-13
JP4159794B2 JP4159794B2 (en) 2008-10-01

Family

ID=26614620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002107013A Expired - Fee Related JP4159794B2 (en) 2001-05-02 2002-04-09 Image processing apparatus and method

Country Status (3)

Country Link
US (1) US7221797B2 (en)
EP (1) EP1255177A2 (en)
JP (1) JP4159794B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285422A (en) * 2005-03-31 2006-10-19 Denso It Laboratory Inc Scene-estimating device, scene-image extracting method, and sound-reproducing apparatus
JP2007008327A (en) * 2005-06-30 2007-01-18 Toyota Motor Corp Driving tendency estimation system and driving support system
JP2008262288A (en) * 2007-04-10 2008-10-30 Denso Corp Estimation device
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP3979894B2 (en) * 2002-07-22 2007-09-19 本田技研工業株式会社 Object detection apparatus and method
US7162056B2 (en) * 2002-08-16 2007-01-09 Evolution Robotics, Inc. Systems and methods for the automated sensing of motion in a mobile robot using visual data
US7171028B2 (en) * 2002-11-22 2007-01-30 The Boeing Company Method and apparatus for covertly determining the rate of relative motion between two objects
US7162338B2 (en) * 2002-12-17 2007-01-09 Evolution Robotics, Inc. Systems and methods for computing a relative pose for global localization in a visual simultaneous localization and mapping system
GB0305304D0 (en) * 2003-03-07 2003-04-09 Qinetiq Ltd Scanning apparatus and method
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
AU2004202179B2 (en) * 2004-05-20 2011-04-21 The Boeing Company Method and apparatus for covertly determining the rate of relative motion between two objects
US20090041297A1 (en) * 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications
US20070040065A1 (en) * 2005-08-19 2007-02-22 Von Thal German Flexible refueling boom extendable tube
WO2008070205A2 (en) * 2006-06-09 2008-06-12 Carnegie Mellon University Obstacle detection arrangements in and for autonomous vehicles
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
US8132759B2 (en) * 2007-03-21 2012-03-13 The Boeing Company System and method for facilitating aerial refueling
KR100877071B1 (en) * 2007-07-18 2009-01-07 삼성전자주식회사 Method and apparatus of pose estimation in a mobile robot based on particle filter
US8509538B2 (en) * 2007-12-20 2013-08-13 Intel Corporation Method and apparatus for obtaining and processing Gabor image features
US8340818B2 (en) * 2009-04-24 2012-12-25 Robert Bosch Gmbh Method of accurate mapping with mobile robots
WO2012040644A1 (en) 2010-09-24 2012-03-29 Evolution Robotics, Inc. Systems and methods for vslam optimization
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
CA2863602A1 (en) 2011-05-04 2013-11-08 The Regents Of The University Of Michigan Intubation device
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN102521592B (en) * 2011-11-30 2013-06-12 苏州大学 Multi-feature fusion salient region extracting method based on non-clear region inhibition
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
WO2015015554A1 (en) * 2013-07-29 2015-02-05 Necソリューションイノベータ株式会社 3d printer device, 3d printing method and method for manufacturing stereolithography product
US9058517B1 (en) * 2014-04-16 2015-06-16 I.R.I.S. Pattern recognition system and method using Gabor functions
US10915114B2 (en) * 2017-07-27 2021-02-09 AI Incorporated Method and apparatus for combining data to construct a floor plan
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
DE112019000070T5 (en) 2018-01-07 2020-03-12 Nvidia Corporation GUIDING VEHICLES BY VEHICLE MANEUVER USING MODELS FOR MACHINE LEARNING
CN110352153A (en) 2018-02-02 2019-10-18 辉达公司 It is analyzed in autonomous vehicle for the security procedure of Obstacle avoidance
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
US10937150B2 (en) 2018-06-28 2021-03-02 General Electric Company Systems and methods of feature correspondence analysis
US11520345B2 (en) 2019-02-05 2022-12-06 Nvidia Corporation Path perception diversity and redundancy in autonomous machine applications
CN111753590B (en) * 2019-03-28 2023-10-17 杭州海康威视数字技术股份有限公司 Behavior recognition method and device and electronic equipment
CN115457447B (en) * 2022-11-07 2023-03-28 浙江莲荷科技有限公司 Moving object identification method, device and system, electronic equipment and storage medium

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0092381B1 (en) * 1982-04-15 1989-04-12 Kabushiki Kaisha Toshiba Pattern features extracting apparatus and method and pattern recognition system
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5307419A (en) * 1990-11-30 1994-04-26 Honda Giken Kogyo Kabushiki Kaisha Control device of an autonomously moving body and evaluation method for data thereof
US5500904A (en) * 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
JP3369368B2 (en) * 1995-10-11 2003-01-20 富士通株式会社 Image processing device
US5751838A (en) 1996-01-26 1998-05-12 Nec Research Institute, Inc. Correction of camera motion between two image frames
JP3886618B2 (en) 1997-10-28 2007-02-28 本田技研工業株式会社 Video processing method
US6532305B1 (en) * 1998-08-04 2003-03-11 Lincom Corporation Machine learning method
US6353679B1 (en) * 1998-11-03 2002-03-05 Compaq Computer Corporation Sample refinement method of multiple mode probability density estimation
JP2000171250A (en) 1998-12-02 2000-06-23 Japan Aviation Electronics Industry Ltd Method for detecting current position of mobile
JP4226730B2 (en) * 1999-01-28 2009-02-18 株式会社東芝 Object region information generation method, object region information generation device, video information processing method, and information processing device
US6307959B1 (en) 1999-07-14 2001-10-23 Sarnoff Corporation Method and apparatus for estimating scene structure and ego-motion from multiple images of a scene using correlation
US6323807B1 (en) * 2000-02-17 2001-11-27 Mitsubishi Electric Research Laboratories, Inc. Indoor navigation with wearable passive sensors
JP4624594B2 (en) * 2000-06-28 2011-02-02 パナソニック株式会社 Object recognition method and object recognition apparatus
JP4581210B2 (en) * 2000-09-29 2010-11-17 日本電気株式会社 Video conference system
KR100415313B1 (en) * 2001-12-24 2004-01-16 한국전자통신연구원 computation apparatus of optical flow and camera motion using correlation and system modelon sequential image
CN1459761B (en) * 2002-05-24 2010-04-21 清华大学 Character identification technique based on Gabor filter set

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285422A (en) * 2005-03-31 2006-10-19 Denso It Laboratory Inc Scene-estimating device, scene-image extracting method, and sound-reproducing apparatus
JP4634842B2 (en) * 2005-03-31 2011-02-16 株式会社デンソーアイティーラボラトリ Landscape estimation device
JP2007008327A (en) * 2005-06-30 2007-01-18 Toyota Motor Corp Driving tendency estimation system and driving support system
JP2008262288A (en) * 2007-04-10 2008-10-30 Denso Corp Estimation device
JP2016530640A (en) * 2013-09-06 2016-09-29 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and controller for recognizing an object in image information
US9842262B2 (en) 2013-09-06 2017-12-12 Robert Bosch Gmbh Method and control device for identifying an object in a piece of image information

Also Published As

Publication number Publication date
EP1255177A2 (en) 2002-11-06
US20030007682A1 (en) 2003-01-09
JP4159794B2 (en) 2008-10-01
US7221797B2 (en) 2007-05-22

Similar Documents

Publication Publication Date Title
JP2003042718A (en) Apparatus and method for image processing
US10691952B2 (en) Adapting to appearance variations when tracking a target object in video sequence
Chang et al. Online boosting for vehicle detection
CN107209873B (en) Hyper-parameter selection for deep convolutional networks
US10846593B2 (en) System and method for siamese instance search tracker with a recurrent neural network
US20190147602A1 (en) Hybrid and self-aware long-term object tracking
Lange et al. Online vehicle detection using deep neural networks and lidar based preselected image patches
CN109614907B (en) Pedestrian re-identification method and device based on feature-enhanced guided convolutional neural network
CN109993101B (en) Vehicle detection method based on multi-branch circulation self-attention network and circulation frame regression
US10964033B2 (en) Decoupled motion models for object tracking
JP7263216B2 (en) Object Shape Regression Using Wasserstein Distance
Li et al. Pushing the “Speed Limit”: high-accuracy US traffic sign recognition with convolutional neural networks
WO2019234175A1 (en) Image segmentation
Jain et al. AI-enabled object detection in UAVs: challenges, design choices, and research directions
Palazzo et al. Domain adaptation for outdoor robot traversability estimation from RGB data with safety-preserving loss
CN111192294A (en) Target tracking method and system based on target detection
KR101050687B1 (en) Pedestrian recognition device and method using posterior probability and pedestrian protection device using it
US20210224646A1 (en) Method for generating labeled data, in particular for training a neural network, by improving initial labels
CN113793371B (en) Target segmentation tracking method, device, electronic equipment and storage medium
Jeong et al. Facial landmark detection based on an ensemble of local weighted regressors during real driving situation
KR20190134380A (en) A Method of Association Learning for Domain Invariant Human Classifier with Convolutional Neural Networks and the method thereof
KR102462733B1 (en) Robust Multi-Object Detection Apparatus and Method Using Siamese Network
Lin et al. Boosted vehicle detection using local and global features
Zernetsch et al. Cyclist intention detection: A probabilistic approach
Hartmann et al. Night time road curvature estimation based on Convolutional Neural Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080716

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110725

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120725

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130725

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140725

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees