JP2007280151A - Image analyzer, image analytical method, and program - Google Patents

Image analyzer, image analytical method, and program Download PDF

Info

Publication number
JP2007280151A
JP2007280151A JP2006106999A JP2006106999A JP2007280151A JP 2007280151 A JP2007280151 A JP 2007280151A JP 2006106999 A JP2006106999 A JP 2006106999A JP 2006106999 A JP2006106999 A JP 2006106999A JP 2007280151 A JP2007280151 A JP 2007280151A
Authority
JP
Japan
Prior art keywords
vector
connection weight
image
self
weight vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006106999A
Other languages
Japanese (ja)
Other versions
JP4696245B2 (en
Inventor
Retsu Yamakawa
烈 山川
Keiichi Horio
恵一 堀尾
Eishin Nakajima
英信 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2006106999A priority Critical patent/JP4696245B2/en
Publication of JP2007280151A publication Critical patent/JP2007280151A/en
Application granted granted Critical
Publication of JP4696245B2 publication Critical patent/JP4696245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To analyze an image to monitor or to do likewise a proper portion in the picked-up image, while taking, in overall, knowledges in the present and in the past into consideration. <P>SOLUTION: This image analyzer/image analytical method includes: a frame image acquiring part 14 for acquiring a frame image sequentially; an image analytical part 16 for judging a marked position vector in the frame image acquired sequentially; and an analytical area judging part 18 for generating an analytical area for specifying an area in the frame image serving as an analytical object by the image analytical part 16, based on the marked position vector. The analytical area judging part 18 makes a coupling weight vector of a self-organization map for short period storage get near to a coupling weight vector of a self-organization map for long period storage, according to the lapse of time, while making at least one part of the coupling weight vector of the self-organization map for the short period storage get near to the marked position vector, based on the marked position vector. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は画像解析装置、画像解析方法及びプログラムに関し、特に画像中の解析対象箇所を判断する情報処理に関する。   The present invention relates to an image analysis apparatus, an image analysis method, and a program, and more particularly, to information processing for determining an analysis target portion in an image.

車両前方の歩行者を素早く確実に検知して、車両運転者に報知する各種システムが提案されている。例えば、下記特許文献1には、ステレオカメラからの画像に基づいて歩行者を検出して、それにより各種警報を行う歩行者検出装置が開示されている。
特開2005−228127号公報
Various systems have been proposed in which a pedestrian in front of a vehicle is quickly and reliably detected and notified to a vehicle driver. For example, Patent Document 1 below discloses a pedestrian detection device that detects a pedestrian based on an image from a stereo camera and thereby performs various warnings.
JP 2005-228127 A

車両前方を撮像した画像を解析して、そこから歩行者等の対象物体を検知し、またその対象物体の重要度を判定しようとする場合、画像全体を常に解析対象とするのは非効率であり、対象物体の検知及びその重要度の判定を素早く行うことが困難となる。そこで、画像の一部領域のみを解析対象とすることが考えられる。   Analyzing an image taken in front of the vehicle, detecting a target object such as a pedestrian from there, and determining the importance of the target object, it is inefficient to always analyze the entire image In other words, it is difficult to quickly detect the target object and determine its importance. Therefore, it is conceivable that only a partial region of the image is to be analyzed.

この点、人間は現に目視できている歩行者を監視し、重要度が低いと(危険が去ったと)判断すると、過去の経験に基づいて他の歩行者が居そうな場所に目線を写す。このように、車両前方のうち現在及び過去の知見を総合勘案して、適切な箇所に対して監視等のための画像解析を行うことは、この種の情報処理を合理化するのに極めて重要である。   In this regard, humans monitor pedestrians that are actually visible, and if they are judged to be less important (has passed the danger), they look at the places where other pedestrians may be based on past experience. Thus, it is extremely important to streamline this type of information processing by comprehensively taking into account current and past knowledge in front of the vehicle and performing image analysis for monitoring, etc. at appropriate locations. is there.

本発明は上記課題に鑑みてなされたものであって、その目的は、現在及び過去の知見を総合勘案して、撮像された画像中の適切な箇所に対して監視等のための画像解析を行うことができる画像解析装置、画像解析方法及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and its purpose is to comprehensively consider current and past knowledge, and to perform image analysis for monitoring or the like on an appropriate location in a captured image. An object of the present invention is to provide an image analysis apparatus, an image analysis method, and a program that can be performed.

上記課題を解決するために、本発明に係る画像解析装置は、画像を順次取得する画像取得手段と、順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断手段と、第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第1結合重みベクトル記憶手段と、第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第2結合重みベクトル記憶手段と、前記注目位置ベクトル判断手段により判断される前記画像中の注目位置ベクトルに基づき、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに近づける第1結合重みベクトル更新手段と、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成手段と、前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新手段と、を含み、前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行う、ことを特徴とする。   In order to solve the above problems, an image analysis apparatus according to the present invention includes an image acquisition unit that sequentially acquires images, a target position vector determination unit that determines target position vectors in the sequentially acquired images, A first combination weight vector storage means for storing a plurality of combination weight vectors respectively corresponding to the units arranged in the competitive layer of the self-organizing map, and a unit arranged in the competitive layer of the second self-organizing map Second coupling weight vector storage means for storing a plurality of corresponding coupling weight vectors, and storage in the first coupling weight vector storage means based on the attention position vector in the image determined by the attention position vector determination means. While at least part of the plurality of coupled weight vectors corresponding to the target position vector is brought close to the target position vector, First connection weight vector updating means for bringing the plurality of connection weight vectors stored in the first connection weight vector storage means closer to the plurality of connection weight vectors stored in the second connection weight vector storage means according to progress; First output vector generation means for generating an output vector of the first self-organizing map based on the plurality of connection weight vectors stored in the first connection weight vector storage means; and the first output vector generation means Based on the output vector of the first self-organizing map generated by the above, at least a part of the plurality of connection weight vectors stored in the second connection weight vector storage means according to the output vector is output. Second connection weight vector updating means for bringing the vector close to a vector, and the first connection weight vector of the image Performing a predetermined image analysis processing on the portions corresponding to the plurality of coupling weight vector stored in the 憶 means, characterized in that.

また、本発明に係る画像解析方法は、画像を順次取得する画像取得ステップと、順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断ステップと、前記注目位置ベクトル判断ステップにより判断される前記画像中の注目位置ベクトルに基づき、第1結合重みベクトル記憶手段に記憶される、第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルのうち、該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを、第2結合重みベクトル記憶手段に記憶される、第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルに近づける第1結合重みベクトル更新ステップと、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成ステップと、前記第1出力ベクトル生成ステップで生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新ステップと、を含み、前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行う、ことを特徴とする。   The image analysis method according to the present invention is determined by an image acquisition step of sequentially acquiring images, an attention position vector determination step of determining an attention position vector in the sequentially acquired images, and the attention position vector determination step. A plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the first self-organizing map, stored in the first connection weight vector storage means, based on the attention position vector in the image The plurality of connection weight vectors stored in the first connection weight vector storage unit as time elapses while at least a part corresponding to the target position vector is brought close to the target position vector. A plurality of connections, each corresponding to a unit located in a competitive layer of the second self-organizing map A first connection weight vector updating step for bringing the first connection weight vector closer to the first vector, and a first self-organization map output vector based on the plurality of connection weight vectors stored in the first connection weight vector storage means Based on the output vector generation step and the output vector of the first self-organizing map generated in the first output vector generation step, the plurality of connection weight vectors stored in the second connection weight vector storage means A second connection weight vector updating step for causing at least a part of the output vector to approach the output vector, and the plurality of connection weight vectors stored in the first connection weight vector storage means of the image A predetermined image analysis process is performed on the part corresponding to the above.

また、本発明に係るプログラムは、画像を順次取得する画像取得手段、順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断手段、第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第1結合重みベクトル記憶手段、第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第2結合重みベクトル記憶手段、前記注目位置ベクトル判断手段により判断される前記画像中の注目位置ベクトルに基づき、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに近づける第1結合重みベクトル更新手段、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成手段、及び前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新手段としてコンピュータを機能させるとともに、該コンピュータに、前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行わせる、ことを特徴とする。このプログラムは、CD−ROMやDVD−ROM等の各種のコンピュータ読み取り可能な情報記憶媒体に格納されてよい。   Further, the program according to the present invention is arranged in an image acquisition unit that sequentially acquires images, a target position vector determination unit that determines target position vectors in the sequentially acquired images, and a competitive layer of the first self-organizing map. A first connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to the selected units, and a plurality of connection weight vectors respectively corresponding to the units arranged in the competitive layer of the second self-organizing map. Based on the attention position vector in the image determined by the second connection weight vector storage means and the attention position vector determination means, the attention value among the plurality of connection weight vectors stored in the first connection weight vector storage means. The first combination weight as time passes while at least part of the position vector is close to the target position vector First connection weight vector updating means for bringing the plurality of connection weight vectors stored in the Kutor storage means closer to the plurality of connection weight vectors stored in the second connection weight vector storage means, and the first connection weight vector storage means 1st output vector generation means for generating an output vector of the first self-organizing map based on the plurality of connection weight vectors stored in the first output vector, and the first output vector generation means Based on the output vector of the self-organizing map, a second connection weight vector that causes at least a part of the plurality of connection weight vectors stored in the second connection weight vector storage means to be close to the output vector. A computer is made to function as an update means, and the computer is caused to have the first image out of the images. Goomomi vector storage means to perform a predetermined image analysis processing on the portions corresponding to the plurality of coupling weight vector stored in, characterized in that. This program may be stored in various computer-readable information storage media such as a CD-ROM and a DVD-ROM.

本発明によれば、第2の自己組織化マップの結合重みベクトルは、過去の注目位置ベクトルを反映したものとなる。一方、第1の自己組織化マップの結合重みベクトルは、こうした性格を有する第2の自己組織化マップの結合重みベクトルを基礎に、そこに最近の注目位置ベクトルの影響を加えたものとなる。従って、過去の注目位置ベクトルに近似する注目位置ベクトルがカメラによる撮像画像その他の画像から得られた場合には、該注目位置ベクトルに応じた少なくとも一部が、素早く、該注目位置ベクトルに非常に近いものに変わる。また、注目位置ベクトルの入力が無ければ、第1の自己組織化マップの結合重みベクトルは、時間経過に従って第2の自己組織化マップの結合重みベクトルに近づく。従って、第1の自己組織化マップの結合重みベクトルに基づいて画像中の画像解析処理の対象領域を決定すると、注目位置があればその位置に応じた領域が画像解析処理の対象領域となり、注目位置が無くなれば過去の注目位置に応じた領域が画像解析処理の対象領域となる。このため、あたかも人間のように、現在及び過去の知見を総合勘案して、画像中の適切な箇所に対して監視等のための画像解析処理を行うことができる。   According to the present invention, the connection weight vector of the second self-organizing map reflects the past attention position vector. On the other hand, the coupling weight vector of the first self-organizing map is based on the coupling weight vector of the second self-organizing map having such a character and the influence of the recent attention position vector is added thereto. Accordingly, when a target position vector that approximates a past target position vector is obtained from an image captured by a camera or another image, at least a part corresponding to the target position vector is quickly and very much included in the target position vector. Change to something close. If there is no input of the target position vector, the connection weight vector of the first self-organizing map approaches the connection weight vector of the second self-organizing map as time passes. Therefore, when the target region for image analysis processing in the image is determined based on the coupling weight vector of the first self-organizing map, if there is a target position, the region corresponding to that position becomes the target region for image analysis processing. If the position disappears, the area corresponding to the past attention position becomes the target area for the image analysis processing. For this reason, like a human being, it is possible to perform an image analysis process for monitoring or the like on an appropriate portion in an image in consideration of current and past knowledge.

本発明の一態様では、第3の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第3結合重みベクトル記憶手段と、前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第3結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第3結合重みベクトル更新手段と、前記第3結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第3の自己組織化マップの出力ベクトルを生成する第3出力ベクトル生成手段と、をさらに含み、前記第2結合重みベクトル更新手段は、前記第3出力ベクトル生成手段により生成される前記第3の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける。こうすれば、第3の自己組織化マップをいわばバッファのように使用して、第1の自己組織化マップの出力ベクトルに基づいて第2の自己組織化マップの結合重みベクトルが更新されるのを遅延させることができ、第2の自己組織化マップの結合重みベクトルの変動を抑制することができるようになる。   In one aspect of the present invention, third connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the third self-organizing map; and the first output vector generation means Based on the output vector of the first self-organizing map generated by the above, at least a part of the plurality of connection weight vectors stored in the third connection weight vector storage means according to the output vector is output. A third output unit for generating an output vector of the third self-organizing map based on a plurality of connection weight vectors stored in the third connection weight vector storage unit; Vector generating means, wherein the second combined weight vector updating means is generated by the third output vector generating means. Based on the output vector of said third self-organizing map, close to the output vector at least a portion corresponding to the output vector of the plurality of coupling weight vector stored in the second coupling weight vector storage means. In this way, the third self-organizing map is used like a buffer, and the connection weight vector of the second self-organizing map is updated based on the output vector of the first self-organizing map. Can be delayed, and fluctuations in the coupling weight vector of the second self-organizing map can be suppressed.

また、本発明の一態様では、前記所定の画像解析処理は、前記注目位置ベクトル判断手段による前記画像中の注目位置ベクトルを判断する処理である。こうすれば、注目位置ベクトルを判断する処理を画像の適切な一部に限ることができ、処理を高速化することができる。   In the aspect of the invention, the predetermined image analysis process is a process of determining an attention position vector in the image by the attention position vector determination unit. In this way, the process of determining the target position vector can be limited to an appropriate part of the image, and the process can be speeded up.

また、本発明の一態様では、前記注目位置ベクトル判断手段は、前記画像中の注目位置ベクトルとともに該注目位置ベクトルに関する重要度を判断し、前記第1結合重みベクトル更新手段は、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置とともに判断される重要度に応じて該注目位置ベクトルに近づける。こうすれば、注目位置ベクトルに応じて第1の自己組織化マップの結合重みベクトルを更新する場合に、その注目位置ベクトルの重要度が高いほど大きく更新され、注目位置ベクトルに大きく近づくようにできる。   In one aspect of the present invention, the attention position vector determination means determines the importance of the attention position vector together with the attention position vector in the image, and the first combination weight vector update means determines the first combination weight vector. At least a part of the plurality of combined weight vectors stored in the weight vector storage unit according to the target position vector is brought close to the target position vector according to the importance determined together with the target position. In this way, when the connection weight vector of the first self-organizing map is updated according to the target position vector, the higher the degree of importance of the target position vector, the larger the update, and the closer the target position vector is. .

また、本発明の一態様では、前記第1出力ベクトル生成手段は、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのそれぞれについて、周囲のユニットに対応する前記結合重みベクトルとの密集度を算出し、該密集度に応じて選択される前記結合重みベクトルを前記第1の自己組織化マップの出力ベクトルとして生成する。あるユニットに対応する結合重みベクトルの密集度が高ければ、その結合重みベクトルと近似する注目位置ベクトルが繰り返し第1の自己組織化マップに入力されたと評価することができるから、この態様によれば、繰り返し入力された注目位置ベクトルを選択的に第1の自己組織化マップの出力とすることができる。この結果、第2の自己組織化マップの結合重みベクトルを、繰り返し入力された注目位置ベクトルに応じたものとすることができる。   In the aspect of the invention, the first output vector generation unit may generate the connection weight vector corresponding to a surrounding unit for each of the plurality of connection weight vectors stored in the first connection weight vector storage unit. And the connection weight vector selected according to the density is generated as an output vector of the first self-organizing map. If the density of the connection weight vector corresponding to a certain unit is high, it can be evaluated that the position vector of interest that approximates the connection weight vector has been repeatedly input to the first self-organizing map. The attention position vector repeatedly input can be selectively used as the output of the first self-organizing map. As a result, the connection weight vector of the second self-organizing map can be made to correspond to the attention position vector repeatedly input.

以下、本発明の実施形態について図面に基づき詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る画像解析装置の構成を示す図である。同図に示すように、この画像解析装置10は、動画像カメラ12、フレーム画像取得部14、画像解析部16、解析領域判断部18、重要度算出部20、警告部22を含んで構成されている。フレーム画像取得部14、画像解析部16、解析領域判断部18、重要度算出部20は、公知のコンピュータに解析用プログラムを実行させることにより実現されており、この解析用プログラムは、例えばCD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体により、コンピュータにインストールされる。   FIG. 1 is a diagram illustrating a configuration of an image analysis apparatus according to an embodiment of the present invention. As shown in the figure, the image analysis apparatus 10 includes a moving image camera 12, a frame image acquisition unit 14, an image analysis unit 16, an analysis region determination unit 18, an importance calculation unit 20, and a warning unit 22. ing. The frame image acquisition unit 14, the image analysis unit 16, the analysis region determination unit 18, and the importance calculation unit 20 are realized by causing a known computer to execute an analysis program. It is installed in a computer by a computer-readable information storage medium such as a ROM or a DVD-ROM.

画像解析装置10は、例えば自動車に設置され、車両運転上の危険を運転者に報知するものであり、動画像カメラ12は車両前方の動画像を撮像するよう設置される。動画像カメラ12により撮像された車両前方の動画像データは、図2に示すように、所定時間(例えば1/60秒)毎の車両前方の画像(フレーム画像)を含んでおり、フレーム画像取得部14は、この動画像データから各時刻のフレーム画像を切り出す。そして、このフレーム画像を示すフレーム画像データを画像解析部16に供給する。図3は、図2に示す動画像データから切り出されたフレーム画像を示している。同図に示すように、フレーム画像の中央には道路(画像解析装置10が搭載された自動車が走行する車線)が映し出され、場合により該道路を横切る歩行者Tが映し出される。   The image analysis apparatus 10 is installed in, for example, an automobile and notifies the driver of the danger in driving the vehicle. The moving image camera 12 is installed so as to capture a moving image in front of the vehicle. As shown in FIG. 2, the moving image data in front of the vehicle captured by the moving image camera 12 includes an image (frame image) in front of the vehicle every predetermined time (for example, 1/60 seconds). The unit 14 cuts out a frame image at each time from the moving image data. Then, frame image data indicating the frame image is supplied to the image analysis unit 16. FIG. 3 shows a frame image cut out from the moving image data shown in FIG. As shown in the figure, a road (a lane in which a vehicle on which the image analysis apparatus 10 is mounted) is projected in the center of the frame image, and a pedestrian T crossing the road is projected in some cases.

画像解析部16は、フレーム画像データにより示されるフレーム画像から、歩行者T(図3参照)の有無及び歩行者Tの位置座標(フレーム画像における位置を特定する座標)を判断し、フレーム画像に歩行者が表れている場合には、その位置座標を示す注目位置ベクトルXsを重要度算出部20及び解析領域判断部18に供給する。   The image analysis unit 16 determines the presence / absence of the pedestrian T (see FIG. 3) and the position coordinates of the pedestrian T (coordinates for specifying the position in the frame image) from the frame image indicated by the frame image data, and determines the frame image. When the pedestrian appears, the attention position vector Xs indicating the position coordinate is supplied to the importance calculation unit 20 and the analysis region determination unit 18.

画像解析部16は、フレーム画像を解析して、歩行者Tの有無及び歩行者Tの位置座標を判断する際、フレーム画像全体では無く、図4の符号Rで示されるフレーム画像中の部分領域のように、フレーム画像の一部を画像解析対象としている。この解析対象となる一部は、解析領域判断部18から供給される解析領域データによって特定されるものであり、フレーム画像において歩行者が映し出されている可能性が高い部分である。   When the image analysis unit 16 analyzes the frame image to determine the presence / absence of the pedestrian T and the position coordinates of the pedestrian T, the image analysis unit 16 does not represent the entire frame image but a partial region in the frame image indicated by the symbol R in FIG. As described above, a part of the frame image is the object of image analysis. The part to be analyzed is specified by the analysis area data supplied from the analysis area determination unit 18 and is a part where a pedestrian is highly likely to be displayed in the frame image.

画像解析部16では、解析領域判断部18から供給される解析領域データによって特定される画像領域に対して、各種の移動物体検出処理を施すことにより、歩行者Tの有無及び歩行者Tの位置座標を判断することができる。例えばモラベックオペレータ(Moravec Operator)を適用することにより、フレーム画像における特徴点を特定し、さらにフレーム画像のフレーム間差分を算出することにより、フレーム画像における動きのある領域(差分領域)を特定する。そして、特徴点のうち差分領域に含まれるものから、所定基準により移動物体(歩行者T)の位置を判断する。その他、人間の外観によるパターンマッチングでフレーム画像における歩行者Tの有無及び歩行者Tの位置座標を判断してもよい。   In the image analysis unit 16, presence / absence of the pedestrian T and the position of the pedestrian T are performed by performing various moving object detection processes on the image region specified by the analysis region data supplied from the analysis region determination unit 18. Coordinates can be determined. For example, a feature point in a frame image is specified by applying a Moravec Operator, and a region (difference region) in the frame image is specified by calculating a difference between frames of the frame image. . Then, the position of the moving object (pedestrian T) is determined from the feature points included in the difference area based on a predetermined reference. In addition, the presence or absence of the pedestrian T and the position coordinates of the pedestrian T in the frame image may be determined by pattern matching based on the appearance of the human.

重要度算出部20は、画像解析部16から供給される歩行者Tの位置座標を示すデータ、すなわち注目位置ベクトルXに基づいて、該注目位置ベクトルXの重要度dを算出する。ここでは、歩行者Tが道路の左右どちらにいるか、歩行者Tの移動速度、歩行者Tの位置によって、歩行者Tに迫る危険の程度が異なることに着目して、重要度dを算出する。このため、図5に示すように、まずフレーム画像に映し出された道路が遠方で消失する点である、道路消失点Dを判定し、この道路消失点Dの位置よりも左側(領域A)に歩行者Tが映し出されているか、右側(領域B)に映し出されているかを判断する。また、フレーム画像の左上隅を原点とし、下方をy方向、右方をx方向として、現在時刻tにおける歩行者Tが映し出されている位置座標(x(t),y(t))を求める。また、x(t)のフレーム間差分より、歩行者Tの右方向に移動しているか、左方向に移動しているかを判定する。さらに、この位置座標(x,y)のフレーム時間間隔における移動距離より、歩行者Tの移動速度S(t)を求める。 Importance calculation section 20, data indicating position coordinates of the pedestrian T supplied from the image analyzing unit 16, i.e. on the basis of the target position vector X s, and calculates the importance d of the noted position vector X s. Here, the importance d is calculated by paying attention to whether the pedestrian T is on the left or right of the road, the moving speed of the pedestrian T, and the degree of danger approaching the pedestrian T depending on the position of the pedestrian T. . For this reason, as shown in FIG. 5, first, a road vanishing point D, which is a point where the road projected in the frame image disappears in the distance, is determined, and on the left side (region A) from the position of the road vanishing point D. It is determined whether the pedestrian T is projected or is projected on the right side (region B). Also, position coordinates (x (t), y (t)) where the pedestrian T is projected at the current time t are obtained with the upper left corner of the frame image as the origin, the lower direction in the y direction, and the right side in the x direction. . Further, it is determined whether the pedestrian T is moving in the right direction or the left direction based on the inter-frame difference of x (t). Further, the moving speed S (t) of the pedestrian T is obtained from the moving distance of the position coordinates (x, y) in the frame time interval.

その後、以下の式(1)〜(4)によって重要度dを算出する。すなわち、歩行者Tが領域Aに映し出され、歩行者Tの移動方向が左であれば、式(1)により重要度dを算出する。また、歩行者Tが領域Aに映し出され、歩行者Tの移動方向が右であれば、式(2)により重要度dを算出する。また、歩行者Tが領域Bに映し出され、歩行者Tの移動方向が左であれば、式(3)により重要度dを算出する。さらに、歩行者Tが領域Bに映し出され、歩行者Tの移動方向が右であれば、式(4)により重要度dを算出する。ここで、k1〜k4は定数であり、k4<k1<k3<k2を満足する。   Thereafter, the importance d is calculated by the following equations (1) to (4). That is, if the pedestrian T is projected in the area A and the moving direction of the pedestrian T is left, the importance d is calculated by the equation (1). If the pedestrian T is projected in the area A and the movement direction of the pedestrian T is right, the importance d is calculated by the equation (2). Also, if the pedestrian T is projected in the region B and the moving direction of the pedestrian T is left, the importance d is calculated by Expression (3). Furthermore, if the pedestrian T is projected in the area B and the moving direction of the pedestrian T is right, the importance d is calculated by the equation (4). Here, k1 to k4 are constants and satisfy k4 <k1 <k3 <k2.

なお、上記の道路消失点Dの検出は、例えば、Hough変換やクラスタリング手法により直線を検出して、これら直線の交点から検出するようにしてもよい。   The road vanishing point D may be detected by, for example, detecting a straight line by Hough transform or a clustering technique and detecting from the intersection of these straight lines.

図1に戻り、警告部22はLCD等の表示装置やスピーカ等の発音装置を含んで構成されており、重要度算出部20により算出される重要度dが所定値以上であれば、表示装置にその旨を表示したり、発音装置により警告音を出力したりして、車両運転者に警告を行うものである。   Returning to FIG. 1, the warning unit 22 includes a display device such as an LCD and a sound generation device such as a speaker. If the importance d calculated by the importance calculation unit 20 is equal to or greater than a predetermined value, the display device is displayed. The vehicle driver is warned by displaying a message to that effect or by outputting a warning sound by a sounding device.

また、重要度算出部20により算出される重要度dは、解析領域判断部18にも供給されている。解析領域判断部18は、この重要度dと画像解析部176から供給される注目位置ベクトルXsとに基づいて、解析領域データを生成するものである。   The importance d calculated by the importance calculation unit 20 is also supplied to the analysis region determination unit 18. The analysis region determination unit 18 generates analysis region data based on the importance d and the attention position vector Xs supplied from the image analysis unit 176.

図6は、解析領域判断部18の構成を詳細に示している。同図に示すように、解析領域判断部18は、3つの自己組織化マップ(SOM;Self Organizing Map)を管理しており、短期記憶用SOM管理部18sと、中期記憶用SOM管理部18mと、長期記憶用SOM18lと、を含んで構成されている。   FIG. 6 shows the configuration of the analysis region determination unit 18 in detail. As shown in the figure, the analysis area determination unit 18 manages three self-organizing maps (SOMs), a short-term storage SOM management unit 18s, and a medium-term storage SOM management unit 18m. And SOM 181 for long-term storage.

短期記憶用SOM管理部18sは、図7に示す短期記憶用SOM(第1の自己組織化マップ)を管理するものであり、短期記憶用SOMの結合重みベクトルW p,qの更新、出力ベクトルの算出を行う。短期記憶用SOMには、注目位置ベクトルXが入力されており、競合層にN行M列に配置されたユニットU p,qのそれぞれに関する結合重みベクトルW p,qは、入力された注目位置ベクトルX及び重要度dにより更新される。 The short-term memory SOM management unit 18s manages the short-term memory SOM (first self-organizing map) shown in FIG. 7, and updates and outputs the connection weight vector W s p, q of the short-term memory SOM. Calculate the vector. The short-term memory SOM is input with the target position vector X s, and the connection weight vector W s p, q for each of the units U s p, q arranged in N rows and M columns in the competitive layer is input. It was updated by the target position vector X s and importance d.

すなわち、短期記憶用SOMには、画像解析部16から供給される注目位置ベクトルXが入力される。この注目位置ベクトルXは、次式(5)に示すように2次元ベクトルである。 That is, the short-term memory for SOM, the target position vector X s supplied from the image analyzing unit 16 is inputted. The target position vector X s is a two-dimensional vector as shown in the following equation (5).

また、図6に示されるように、短期記憶用SOM管理部18sには、長期記憶用SOM管理部18lにより管理される長期記憶用SOMの結合重みベクトルW p,qがフィードバックされており、短期記憶用SOMの結合重みベクトルW p,qは次式(6)に従って更新されている。 Further, as shown in FIG. 6, the short-term memory for SOM management unit 18s, the coupling weight vector of long-term memory for SOM managed by long-term memory for SOM management unit 18l W l p, q are fed back, The connection weight vector W s p, q of the short-term memory SOM is updated according to the following equation (6).

ここで、W p,q(t)は時刻tにおける短期記憶用SOMの結合重みベクトルであり、objは時刻tのフレーム画像に歩行者Tが映し出されていれば1の値をとり、映し出されていなければ0の値をとる。また、βは所与の定数である。さらに、αは、重要度dを用いて次式(7)によって算出される。 Here, W sp , q (t) is a combination weight vector of the short-term memory SOM at time t, and obj takes a value of 1 if the pedestrian T is projected in the frame image at time t, and is projected. If not, the value is 0. Β s is a given constant. Further, α s is calculated by the following equation (7) using the importance d.

ここで、σは定数であり、p及びqは競合層における勝者ユニットを特定するものであり、勝者ユニットは次式(8)により特定される。 Here, σ is a constant, p c and q c specify the winner unit in the competitive layer, and the winner unit is specified by the following equation (8).

更新式(6)における第2項は、結合重みベクトルW p,qを入力ベクトルである注目位置ベクトルXに近づける働きを有する。この際、注目位置ベクトルXに近づく程度は、式(7)により重要度dに比例する。また、第3項は、結合重みベクトルW p,qを長期記憶用SOMの結合重みベクトルW p,qに近づける働きを有する。更新式(6)によれば、短期記憶用SOMの結合重みベクトルW p,qは、通常は、長期記憶用SOMの結合重みベクトルW p,qに近づいており、注目位置ベクトルXが入力されると、その影響を受けて注目位置ベクトルXに近づくことになる。 The second term in the update formula (6) has a function of bringing the coupling weight vector W s p, q closer to the target position vector X s that is the input vector. In this case, the degree of approach to the target position vector X s is proportional to the degree of importance d by the equation (7). The third term has a function of bringing the connection weight vector W s p, q closer to the connection weight vector W l p, q of the long-term storage SOM. According to the update formula (6), the connection weight vector W s p, q of the short-term storage SOM is normally close to the connection weight vector W l p, q of the long-term storage SOM, and the attention position vector X s There is input, becomes closer to the target position vector X s are affected.

短期記憶用SOMの出力を決定するにあたり、短期記憶用SOM管理部18sでは、次式(9)により各結合重みベクトルW p,qの密集度conf p,qを算出する。 In determining the output of the short-term memory SOM, the short-term memory SOM management unit 18s calculates the density conf s p, q of each of the connection weight vectors W s p, q by the following equation (9).

ここで、d p,qは、ユニットU p,qの結合重みベクトルW p,qと、その周囲のユニットU p+1,q、U p−1,q、U p,q+1、U p,q−1の結合重みベクトルW p+1,q、W p−1,q、W p,q+1、W p,q−1と、平均距離であり、次式(10)により表される。 Here, d s p, q is the unit U s p, the coupling weight vector W of q s p, and q, the surrounding unit U s p + 1, q, U s p-1, q, U s p, q + 1 , U s p, q−1 , and weight averages W s p + 1, q , W s p−1, q , W s p, q + 1 , W s p, q−1 , and average distance, ).

そして、短期記憶用SOMからは、密集度conf p,qが所定の閾値θ以上であるユニットU p,qについてのみ、その結合重みベクトルW p,qが出力される。短期記憶用SOM管理部18sからは、結合重みベクトルW p,q、その結合重みベクトルW p,qに係る密集度conf p,qが、中期記憶用SOM管理部18mに入力されている。 Then, from the short-term memory SOM, the connection weight vector W s p, q is output only for the unit U s p, q whose density conf s p, q is equal to or greater than the predetermined threshold θ s . From the short-term memory for SOM management unit 18s, the coupling weight vector W s p, q, the coupling weight vector W s p, density conf s p of the q, q is inputted to the medium-term storage for SOM manager 18m Yes.

また、短期記憶用SOM管理部18sは、短期記憶用SOMの結合重みベクトルW p,qのうち、密集度conf p,qの最大値に対応するものを、注視点として選出するとともに、その周囲の所定の広さを有する領域のデータを解析領域データとして画像解析部16にフィードバックしている。これにより、画像解析部16における画像解析処理をフレーム画像の一部領域に限定している。 Moreover, short-term memory for SOM management unit 18s includes coupling weight vector W s p of short-term memory for SOM, among q, density conf s p, those corresponding to the maximum value of q, as well as selected as the fixation point, The data of the surrounding area having a predetermined area is fed back to the image analysis unit 16 as analysis area data. Thereby, the image analysis processing in the image analysis unit 16 is limited to a partial region of the frame image.

中期記憶用SOM管理部18mは、図8に示す中期記憶用SOM(第3の自己組織化マップ)を管理するものであり、中期記憶用SOMの結合重みベクトルW p,qの更新、出力ベクトルの算出を行う。中期記憶用SOMには、密集度conf p,qが閾値θ以上である短期記憶用SOMのユニットU p,qの結合重みベクトルW p,qが入力されている。そして、競合層にN行M列に配置されたユニットU p,qのそれぞれに関する結合重みベクトルW p,qは、入力された結合重みベクトルW p,q及び密集度conf p,qにより更新される。 The medium-term memory SOM management unit 18m manages the medium-term memory SOM (third self-organizing map) shown in FIG. 8, and updates and outputs the connection weight vector W m p, q of the medium-term memory SOM. Calculate the vector. The combination weight vector W s p, q of the unit U s p, q of the short-term storage SOM whose density conf s p, q is equal to or greater than the threshold θ s is input to the medium-term storage SOM. Then, the connection weight vector W m p, q for each of the units U m p, q arranged in N rows and M columns in the competitive layer is the input connection weight vector W s p, q and the density conf s p, Updated by q .

すなわち、中期記憶用SOMには、次式(11)のように、短期記憶用SOMの結合重みベクトルW p,qのうち、密集度conf p,qが閾値θ以上のものが、入力ベクトルXとして入力される。 That is, the medium-term memory SOM includes a combination weight vector W s p, q of the short-term memory SOM having a density conf s p, q that is greater than or equal to the threshold θ s as shown in the following equation (11). is input as input vector X m.

そして、中期記憶用SOMの結合重みベクトルW p,qは、次式(12)に従って更新されている。 Then, the connection weight vector W m p, q of the medium term storage SOM is updated according to the following equation (12).

ここで、W p,q(t)は時刻tにおける中期記憶用SOMの結合重みベクトルであり、objは時刻tのフレーム画像に歩行者Mが映し出されていれば1の値をとり、映し出されていなければ0の値をとる。また、βは所与の定数である。Winit p,qは、中期記憶用SOMの結合重みベクトルW p,qの初期配置である。さらに、αは、中期記憶用SOM管理部18sから入力される密集度conf p,qを用いて、次式(13)によって算出される。 Here, W m p, q (t) is a coupling weight vector of the medium term storage SOM at time t, and obj takes a value of 1 if the pedestrian M is projected in the frame image at time t, and is projected. If not, the value is 0. Β m is a given constant. W init p, q is an initial arrangement of the connection weight vector W m p, q of the SOM for medium-term storage. Furthermore, alpha m is density conf s p inputted from the mid-term storing SOM management unit 18s, with q, is calculated by the following equation (13).

ここで、σは定数であり、p及びqは競合層における勝者ユニットを特定するものであり、勝者ユニットは上記式(8)と同様にして特定される。 Here, sigma is a constant, the p c and q c is intended to identify the winner unit in the competitive layer, the winner unit is identified in the same manner as in the above formula (8).

更新式(12)における第2項は、結合重みベクトルW p,qを入力ベクトルXに近づける働きを有する。この際、入力ベクトルXに近づく程度は、式(13)により密集度conf p,qに比例する。また、第3項は、結合重みベクトルW p,qを初期配置Winit p,qに近づける働きを有する。更新式(12)によれば、中期記憶用SOMの結合重みベクトルW p,qは、フレーム画像に歩行者Tが映し出されている間は、入力ベクトルX、すなわち短期記憶用SOMの密集度conf p,qが高い値の結合重みベクトルW p,qに近づき、フレーム画像から歩行者Tが消えると、初期配置Winit p,qに近づく。 The second term in the update equation (12) has a function of bringing the coupling weight vector W m p, q closer to the input vector X m . In this case, the degree of approach the input vector X m is density conf s p by the equation (13), is proportional to q. The third term has a function of bringing the coupling weight vector W m p, q closer to the initial arrangement W init p, q . According to the update formula (12), the connection weight vector W sp , q of the medium term storage SOM is equal to the input vector X m , that is, the short term storage SOM is dense while the pedestrian T is displayed in the frame image. When the degree conf s p, q approaches a high value of the connection weight vector W s p, q and the pedestrian T disappears from the frame image, the initial position W init p, q is approached.

中期記憶用SOMの出力を決定するにあたり、中期記憶用SOM管理部18mでは、次式(14)により各結合重みベクトルW p,qの密集度conf p,qを算出する。 In determining the output of the medium term storage SOM, the medium term storage SOM management unit 18m calculates the density conf m p, q of each of the connection weight vectors W m p, q by the following equation (14).

ここで、d p,qは、ユニットU p,qの結合重みベクトルW p,qと、その周囲のユニットU p+1,q、U p−1,q、U p,q+1、U p,q−1の結合重みベクトルW p+1,q、W p−1,q、W p,q+1、W p,q−1と、平均距離であり、次式(10)と同様にして求められる。 Here, d m p, q are unit U m p, coupling weight vector W of q m p, and q, the surrounding unit U m p + 1, q, U m p-1, q, U m p, q + 1 , U m p, q−1 , and W m p + 1, q , W m p−1, q , W m p, q + 1 , W m p, q−1, and the average distance, ).

そして、フレーム画像から歩行者Tが消失した場合に、中期記憶用SOMから結合重みベクトルW p,qが出力される。そして、中期記憶用SOM管理部18mからは、結合重みベクトルW p,q、その結合重みベクトルW p,qに係る密集度conf p,qが、長期記憶用SOM管理部18lに入力される。 When the pedestrian T disappears from the frame image, the combined weight vector W m p, q is output from the medium term storage SOM. Then, the medium-term storage for SOM management unit 18m, the connection weight vector W m p, q, the coupling weight vector W m p, density conf m p according to q, q is input into long-term memory for SOM management unit 18l Is done.

長期記憶用SOM管理部18lは、図9に示す長期記憶用SOM(第2の自己組織化マップ)を管理するものであり、長期記憶用SOMの結合重みベクトルW p,qの更新、出力ベクトルの算出を行う。長期記憶用SOMには、フレーム画像から歩行者Mが消失した際、中期記憶用SOMのユニットU p,qの結合重みベクトルW p,qが入力されている。そして、競合層にN行M列に配置されたユニットU p,qのそれぞれに関する結合重みベクトルW p,qは、入力された結合重みベクトルW p,q及び密集度conf p,qにより更新される。 The long-term storage SOM management unit 181 manages the long-term storage SOM (second self-organizing map) shown in FIG. 9, and updates and outputs the connection weight vector W l p, q of the long-term storage SOM. Calculate the vector. When the pedestrian M disappears from the frame image , the combination weight vector W m p, q of the unit U m p, q of the medium-term storage SOM is input to the long-term memory SOM. Then, the connection weight vectors W l p, q for each of the units U l p, q arranged in N rows and M columns in the competitive layer are the input connection weight vectors W m p, q and the density conf m p, Updated by q .

すなわち、長期記憶用SOMには、次式(15)のように、中期記憶用SOMの結合重みベクトルW p,qが、入力ベクトルXとして入力される。 That is, to the long-term memory SOM, the connection weight vector W m p, q of the medium-term memory SOM is input as the input vector X 1 as shown in the following equation (15).

そして、長期記憶用SOMの結合重みベクトルW p,qは、次式(16)に従って更新されている。 Then, the connection weight vector W l p, q of the long-term storage SOM is updated according to the following equation (16).

ここで、W p,q(t)は時刻tにおける長期記憶用SOMの結合重みベクトルであり、Δtは中期記憶用SOMの記憶時間(フレーム画像に歩行者Mが表れてから、歩行者Tが消失するまでの時間)である。さらに、αは、中期記憶用SOM管理部18mから入力される密集度conf p,qを用いて、次式(17)によって算出される。 Here, W l p, q (t) is a connection weight vector of the long-term memory SOM at time t, and Δt is the storage time of the medium-term memory SOM (after the pedestrian M appears in the frame image, the pedestrian T Is the time until disappearance). Furthermore, α l is calculated by the following equation (17) using the density conf m p, q input from the medium term storage SOM management unit 18m.

ここで、σは定数であり、p及びqは競合層における勝者ユニットを特定するものであり、勝者ユニットは上記式(8)と同様にして特定される。 Here, sigma is a constant, the p c and q c is intended to identify the winner unit in the competitive layer, the winner unit is identified in the same manner as in the above formula (8).

更新式(16)における第2項は、結合重みベクトルW p,qを入力ベクトルXlに近づける働きを有する。この際、入力ベクトルXに近づく程度は、式(17)により密集度conf p,qに比例する。更新式(12)によれば、長期記憶用SOMの結合重みベクトルW p,qは、中期記憶用SOMの結合重みベクトルW p,qに近づく。こうして更新される結合重みベクトルW p,qは、短期記憶用SOM管理部18sにフィードバックされ、短期記憶用SOMの結合重みベクトルW p,qの更新に用いられる。 The second term in the update equation (16) has a function of bringing the coupling weight vector W l p, q closer to the input vector Xl. At this time, the degree of approach to the input vector X l is proportional to the density conf m p, q according to the equation (17). According to the update equation (12), the connection weight vector W l p, q of the long-term storage SOM approaches the connection weight vector W m p, q of the medium-term storage SOM. Coupling weight vector W l p, q thus updated is fed back to the short-term memory for SOM management unit 18s, the coupling weight vector W s p of short-term memory for SOM, used for updating of q.

本実施形態によれば、長期記憶用SOMの結合重みベクトルW p,qは、過去の注目位置ベクトルXを反映したものとなる。一方、短期記憶用SOMの結合重みベクトルW p,qは、こうした性格を有する長期記憶用SOMの結合重みベクトルW p,qを基礎に、そこに最近の注目位置ベクトルXの影響を加えたものとなる。従って、過去の注目位置ベクトルXに近似する注目位置ベクトルXが動画像カメラ12による撮像されたフレーム画像から得られた場合には、該注目位置ベクトルXに応じた少なくとも一部が、素早く、該注目位置ベクトルXに非常に近いものに変わる。また、注目位置ベクトルXの入力が無ければ(歩行者Mがフレーム画像から消失すれば)、短期記憶用SOMの結合重みベクトルW p,qは、時間経過に従って長期記憶用SOMの結合重みベクトルW p,qに近づく。従って、短期記憶用SOMの結合重みベクトルW p,qに基づいてフレーム画像中の画像解析処理(歩行者Tの有無及び歩行者Tの位置座標の算出処理)の対象領域を決定すると、歩行者Tがフレーム画像に表れていればその位置に応じた領域が画像解析処理の対象領域となり、歩行者Tがフレーム画像から消失すれば過去の注目位置に応じた領域が画像解析処理の対象領域となる。このため、あたかも人間のように、現在及び過去の知見を総合勘案して、フレーム画像中の適切な箇所に対して歩行者Tの検出処理を行うことができる。 According to the present embodiment, the connection weight vector W l p, q of the long-term storage SOM reflects the past attention position vector X s . On the other hand, the coupling weight vector W s p of short-term memory for SOM, q is a bond weight vector W l p of long-term memory for SOM having such character, the basis of q, there the effects of recent interest position vector X s It will be added. Therefore, when the target position vector X s that approximates the past target position vector X s is obtained from the frame image captured by the video image camera 12, at least a portion corresponding to the noted position vector X s, quickly, it changes to those very close to the noted position vector X s. Further, if there is no input of the attention position vector X s (if the pedestrian M disappears from the frame image), the connection weight vector W s p, q of the short-term storage SOM becomes the connection weight of the long-term storage SOM as time passes. It approaches the vector W l p, q . Therefore, when the target region of the image analysis processing (presence / absence of pedestrian T and position coordinate calculation of pedestrian T) in the frame image is determined based on the combination weight vector W sp , q of the short-term memory SOM, walking If the person T appears in the frame image, the area corresponding to the position becomes the target area for the image analysis process, and if the pedestrian T disappears from the frame image, the area corresponding to the past attention position becomes the target area for the image analysis process. It becomes. For this reason, like a human being, the present and past knowledge can be comprehensively considered, and the detection process of the pedestrian T can be performed on an appropriate location in the frame image.

図10は、本実施形態に係る画像解析装置10を用いて、車両前方の動画像を処理した様子を示している。同図の最上段は、時刻t=0、t=10、t=20、t=30、t=40におけるフレーム画像を示している。上段の各フレーム画像に表された矩形は、歩行者Tの位置を示している。また、各フレーム画像の下には、t=0、t=20、t=30、t=40における短期記憶用SOM、中期記憶用SOM、長期記憶用SOMの結合重みベクトルW p,q、W p,q、W p,qがそれぞれ上から順に示されている。短期用SOMの結合重みベクトルW p,qの図には、注視点が丸印で示されている。これらの図から解るように、フレーム画像に歩行者Tが映し出されていると、通常はその位置に近い位置が注視点となる(t=10,20,30)。しかし、フレーム画像に歩行者Tが映し出されていても、歩行者Tがフレーム画像の端に移動するなどして、その重要度dが低下すると、注視点は歩行者Tの位置から離れ、長期記憶用SOMの結合重みベクトルW p,qに応じた位置に移る。このように、本実施形態によれば、あたかも人間のように、現在及び過去の知見を総合勘案して、フレーム画像中の適切な箇所に対して歩行者Tの検出処理を行うことができる。 FIG. 10 shows a state in which a moving image in front of the vehicle is processed using the image analysis apparatus 10 according to the present embodiment. The uppermost part of the figure shows frame images at times t = 0, t = 10, t = 20, t = 30, and t = 40. The rectangles represented in the upper frame images indicate the position of the pedestrian T. Also, below each frame image, a combination weight vector W s p, q of t = 0, t = 20, t = 30, and SOM for short-term storage, SOM for medium-term storage, and SOM for long-term storage at t = 40, W m p, q and W l p, q are shown in order from the top. Coupling weight vector W s p short for SOM, the figure q is gazing point is indicated by circles. As can be seen from these figures, when the pedestrian T is projected in the frame image, the position close to the position is usually the gazing point (t = 10, 20, 30). However, even if the pedestrian T is displayed in the frame image, if the importance d is reduced due to the pedestrian T moving to the end of the frame image or the like, the point of gazing will move away from the position of the pedestrian T, It moves to a position corresponding to the coupling weight vector W l p, q of the storage SOM. As described above, according to the present embodiment, the pedestrian T can be detected at an appropriate location in the frame image in consideration of current and past knowledge as if they were humans.

本発明の実施形態に係る画像解析装置の構成図である。1 is a configuration diagram of an image analysis apparatus according to an embodiment of the present invention. 動画像データの一例を示す図である。It is a figure which shows an example of moving image data. 動画像データから切り出されるフレーム画像データの一例を示す図である。It is a figure which shows an example of the frame image data cut out from moving image data. 解析対象領域を示す図である。It is a figure which shows an analysis object area | region. 注目位置の重要度を算出する処理を説明する図である。It is a figure explaining the process which calculates the importance of an attention position. 解析領域判断部の構成図である。It is a block diagram of an analysis area judgment part. 短期記憶用SOMを示す図である。It is a figure which shows SOM for short-term memory. 中期記憶用SOMを示す図である。It is a figure which shows SOM for medium term memory | storage. 長期記憶用SOMを示す図である。It is a figure which shows SOM for long-term memory | storage. 本実施形態に係る画像解析装置の動作例を示す図である。It is a figure which shows the operation example of the image analysis apparatus which concerns on this embodiment.

符号の説明Explanation of symbols

10 画像解析装置、12 動画像カメラ、14 フレーム画像取得部、16 画像解析部、18 解析領域判断部、18s 短期記憶用SOM管理部、18m 中期記憶用SOM管理部、18l 長期記憶用SOM管理部、20 重要度算出部、22 警告部。   DESCRIPTION OF SYMBOLS 10 Image analysis apparatus, 12 Moving image camera, 14 Frame image acquisition part, 16 Image analysis part, 18 Analysis area judgment part, 18s SOM management part for short term memory, 18m SOM management part for medium term memory, 18l SOM management part for long term memory , 20 Importance calculation part, 22 Warning part.

Claims (7)

画像を順次取得する画像取得手段と、
順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断手段と、
第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第1結合重みベクトル記憶手段と、
第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第2結合重みベクトル記憶手段と、
前記注目位置ベクトル判断手段により判断される前記画像中の注目位置ベクトルに基づき、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに近づける第1結合重みベクトル更新手段と、
前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成手段と、
前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新手段と、を含み、
前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行う、
ことを特徴とする画像解析装置。
Image acquisition means for sequentially acquiring images;
Attention position vector determination means for determining an attention position vector in the images acquired sequentially,
First connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in a competitive layer of the first self-organizing map;
Second connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the second self-organizing map;
Based on the target position vector in the image determined by the target position vector determining unit, at least a part of the plurality of combined weight vectors stored in the first combined weight vector storage unit according to the target position vector. The plurality of connection weight vectors stored in the first connection weight vector storage means as the plurality of connection weight vectors stored in the second connection weight vector storage means as time elapses. A first connection weight vector updating means for approaching;
First output vector generation means for generating an output vector of the first self-organizing map based on the plurality of connection weight vectors stored in the first connection weight vector storage means;
Based on the output vector of the first self-organizing map generated by the first output vector generation means, according to the output vector among the plurality of connection weight vectors stored in the second connection weight vector storage means. Second connection weight vector updating means for bringing at least a part close to the output vector,
A predetermined image analysis process is performed on a portion of the image corresponding to the plurality of connection weight vectors stored in the first connection weight vector storage unit.
An image analysis apparatus characterized by that.
請求項1に記載の画像解析装置において、
第3の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第3結合重みベクトル記憶手段と、
前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第3結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第3結合重みベクトル更新手段と、
前記第3結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第3の自己組織化マップの出力ベクトルを生成する第3出力ベクトル生成手段と、をさらに含み、
前記第2結合重みベクトル更新手段は、前記第3出力ベクトル生成手段により生成される前記第3の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける、
ことを特徴とする画像解析装置。
The image analysis apparatus according to claim 1,
Third connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the third self-organizing map;
Based on the output vector of the first self-organizing map generated by the first output vector generation means, according to the output vector among the plurality of connection weight vectors stored in the third connection weight vector storage means. Third connection weight vector updating means for bringing at least a part close to the output vector;
Further comprising third output vector generation means for generating an output vector of the third self-organizing map based on the plurality of connection weight vectors stored in the third connection weight vector storage means;
The second connection weight vector updating unit is configured to store the plurality of the plurality of second combination weight vector storage units stored in the second connection weight vector storage unit based on the output vector of the third self-organizing map generated by the third output vector generation unit. At least part of the combination weight vector corresponding to the output vector is brought close to the output vector;
An image analysis apparatus characterized by that.
請求項1又は2に記載の画像解析装置において、
前記所定の画像解析処理は、前記注目位置ベクトル判断手段による前記画像中の注目位置ベクトルを判断する処理である、
ことを特徴とする画像解析装置。
In the image analysis device according to claim 1 or 2,
The predetermined image analysis process is a process of determining an attention position vector in the image by the attention position vector determination means.
An image analysis apparatus characterized by that.
請求項1乃至3のいずれかに記載の画像解析装置において、
前記注目位置ベクトル判断手段は、前記画像中の注目位置ベクトルとともに該注目位置ベクトルに関する重要度を判断し、
前記第1結合重みベクトル更新手段は、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置とともに判断される重要度に応じて該注目位置ベクトルに近づける、
ことを特徴とする画像解析装置。
In the image analysis device according to any one of claims 1 to 3,
The attention position vector determination means determines the importance of the attention position vector together with the attention position vector in the image,
The first combination weight vector updating unit determines the importance of determining at least a part of the plurality of combination weight vectors stored in the first combination weight vector storage unit according to the target position vector together with the target position. Depending on the target position vector,
An image analysis apparatus characterized by that.
請求項1乃至4のいずれかに記載の画像解析装置において、
前記第1出力ベクトル生成手段は、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのそれぞれについて、周囲のユニットに対応する前記結合重みベクトルとの密集度を算出し、該密集度に応じて選択される前記結合重みベクトルを前記第1の自己組織化マップの出力ベクトルとして生成する、
ことを特徴とする画像解析装置。
The image analysis apparatus according to any one of claims 1 to 4,
The first output vector generation means calculates a density of the connection weight vectors corresponding to surrounding units for each of the plurality of connection weight vectors stored in the first connection weight vector storage means, Generating the connection weight vector selected according to the density as an output vector of the first self-organizing map;
An image analysis apparatus characterized by that.
画像を順次取得する画像取得ステップと、
順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断ステップと、
前記注目位置ベクトル判断ステップにより判断される前記画像中の注目位置ベクトルに基づき、第1結合重みベクトル記憶手段に記憶される、第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルのうち、該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを、第2結合重みベクトル記憶手段に記憶される、第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルに近づける第1結合重みベクトル更新ステップと、
前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成ステップと、
前記第1出力ベクトル生成ステップで生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新ステップと、を含み、
前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行う、
ことを特徴とする画像解析方法。
An image acquisition step for sequentially acquiring images;
An attention position vector determination step for determining an attention position vector in the images sequentially obtained;
Corresponding to each unit arranged in the competitive layer of the first self-organizing map stored in the first combined weight vector storage means based on the target position vector in the image determined by the target position vector determination step The plurality of connection weight vectors stored in the first connection weight vector storage means as time elapses while at least part of the plurality of connection weight vectors is close to the target position vector. A first connection weight vector update step of approaching a plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the second self-organizing map, stored in the second connection weight vector storage means;
A first output vector generation step of generating an output vector of the first self-organizing map based on the plurality of connection weight vectors stored in the first connection weight vector storage means;
Based on the output vector of the first self-organizing map generated in the first output vector generating step, according to the output vector among the plurality of connection weight vectors stored in the second connection weight vector storage means. A second combined weight vector updating step for bringing at least a portion closer to the output vector,
A predetermined image analysis process is performed on a portion of the image corresponding to the plurality of connection weight vectors stored in the first connection weight vector storage unit.
An image analysis method characterized by the above.
画像を順次取得する画像取得手段、
順次取得される前記画像中の注目位置ベクトルを判断する注目位置ベクトル判断手段、
第1の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第1結合重みベクトル記憶手段、
第2の自己組織化マップの競合層に配置されたユニットにそれぞれ対応する複数の結合重みベクトルを記憶する第2結合重みベクトル記憶手段、
前記注目位置ベクトル判断手段により判断される前記画像中の注目位置ベクトルに基づき、前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該注目位置ベクトルに応じた少なくとも一部を該注目位置ベクトルに近づけつつ、時間経過に従って前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルを前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに近づける第1結合重みベクトル更新手段、
前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに基づき、前記第1の自己組織化マップの出力ベクトルを生成する第1出力ベクトル生成手段、及び
前記第1出力ベクトル生成手段により生成される前記第1の自己組織化マップの出力ベクトルに基づき、前記第2結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルのうち該出力ベクトルに応じた少なくとも一部を該出力ベクトルに近づける第2結合重みベクトル更新手段としてコンピュータを機能させるとともに、
該コンピュータに、前記画像のうち前記第1結合重みベクトル記憶手段に記憶される前記複数の結合重みベクトルに応じた部分に対して所定の画像解析処理を行わせる、
ことを特徴とするプログラム。
Image acquisition means for sequentially acquiring images;
Attention position vector determination means for determining an attention position vector in the images acquired sequentially,
First connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in a competitive layer of the first self-organizing map;
Second connection weight vector storage means for storing a plurality of connection weight vectors respectively corresponding to units arranged in the competitive layer of the second self-organizing map;
Based on the target position vector in the image determined by the target position vector determining unit, at least a part of the plurality of combined weight vectors stored in the first combined weight vector storage unit according to the target position vector. The plurality of connection weight vectors stored in the first connection weight vector storage means as the plurality of connection weight vectors stored in the second connection weight vector storage means as time elapses. A first connection weight vector updating means for approaching;
First output vector generation means for generating an output vector of the first self-organizing map based on the plurality of connection weight vectors stored in the first connection weight vector storage means; and the first output vector generation means Based on the output vector of the first self-organizing map generated by the above, at least a part of the plurality of connection weight vectors stored in the second connection weight vector storage means according to the output vector is output. Causing the computer to function as a second connection weight vector update means that approaches a vector,
Causing the computer to perform a predetermined image analysis process on a portion of the image corresponding to the plurality of connection weight vectors stored in the first connection weight vector storage unit;
A program characterized by that.
JP2006106999A 2006-04-07 2006-04-07 Image analysis apparatus, image analysis method, and program Active JP4696245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006106999A JP4696245B2 (en) 2006-04-07 2006-04-07 Image analysis apparatus, image analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006106999A JP4696245B2 (en) 2006-04-07 2006-04-07 Image analysis apparatus, image analysis method, and program

Publications (2)

Publication Number Publication Date
JP2007280151A true JP2007280151A (en) 2007-10-25
JP4696245B2 JP4696245B2 (en) 2011-06-08

Family

ID=38681523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006106999A Active JP4696245B2 (en) 2006-04-07 2006-04-07 Image analysis apparatus, image analysis method, and program

Country Status (1)

Country Link
JP (1) JP4696245B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176283A (en) * 2007-11-28 2009-08-06 Honda Research Inst Europe Gmbh Adaptive driver assistance system with robust estimation of object properties
CN109214407A (en) * 2018-07-06 2019-01-15 阿里巴巴集团控股有限公司 Event detection model, calculates equipment and storage medium at method, apparatus
WO2021132566A1 (en) * 2019-12-26 2021-07-01 パナソニックIpマネジメント株式会社 Display control device, display system, and display control method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200300266002, 市村 直幸, "自己組織化型状態空間モデルを用いた運動軌跡のフィルタリング", 情報処理学会研究報告 Vol.2001 No.66, 20010706, 第2001巻 第66号, JP, 社団法人情報処理学会 *
JPN6011005163, 市村 直幸, "自己組織化型状態空間モデルを用いた運動軌跡のフィルタリング", 情報処理学会研究報告 Vol.2001 No.66, 20010706, 第2001巻 第66号, JP, 社団法人情報処理学会 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176283A (en) * 2007-11-28 2009-08-06 Honda Research Inst Europe Gmbh Adaptive driver assistance system with robust estimation of object properties
CN109214407A (en) * 2018-07-06 2019-01-15 阿里巴巴集团控股有限公司 Event detection model, calculates equipment and storage medium at method, apparatus
CN109214407B (en) * 2018-07-06 2022-04-19 创新先进技术有限公司 Event detection model, method and device, computing equipment and storage medium
WO2021132566A1 (en) * 2019-12-26 2021-07-01 パナソニックIpマネジメント株式会社 Display control device, display system, and display control method
US11987122B2 (en) 2019-12-26 2024-05-21 Panasonic Automotive Systems Co., Ltd. Display control device, display system, and display control method for controlling display of alert

Also Published As

Publication number Publication date
JP4696245B2 (en) 2011-06-08

Similar Documents

Publication Publication Date Title
KR102109941B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera
US10210286B1 (en) Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets
JP4173901B2 (en) Vehicle periphery monitoring device
CN105719311B (en) For detecting the Vehicular system and its operating method of target
JP4173902B2 (en) Vehicle periphery monitoring device
US9165197B2 (en) Vehicle surroundings monitoring apparatus
JPWO2018051944A1 (en) People flow estimation device, people flow estimation method and program
JP2005159392A (en) Vehicle periphery monitoring device and method
KR101825687B1 (en) The obstacle detection appratus and method using difference image
JP2007241740A (en) Vehicle periphery monitoring device
JP2007148835A (en) Object distinction device, notification controller, object distinction method and object distinction program
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
US20150169980A1 (en) Object recognition device
JP2007293627A (en) Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
JP4991384B2 (en) Approaching object detection device and approaching object detection program
JP4631036B2 (en) Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
JP2010079582A (en) Apparatus, method and program for detecting object
JP2006202047A (en) Moving-object detection device and method
JP2020046882A (en) Information processing device, vehicle control device, and moving body control method
JP2007011490A (en) Device and method for detecting road parameter
JP2001357402A (en) Method and device for detecting vehicle
JP4696245B2 (en) Image analysis apparatus, image analysis method, and program
KR20180047149A (en) Apparatus and method for risk alarming of collision
JP2006027481A (en) Object warning device and its method
JP4321410B2 (en) Object detection apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201