JP5013319B2 - Stereo image processing apparatus and image processing program - Google Patents

Stereo image processing apparatus and image processing program Download PDF

Info

Publication number
JP5013319B2
JP5013319B2 JP2007254216A JP2007254216A JP5013319B2 JP 5013319 B2 JP5013319 B2 JP 5013319B2 JP 2007254216 A JP2007254216 A JP 2007254216A JP 2007254216 A JP2007254216 A JP 2007254216A JP 5013319 B2 JP5013319 B2 JP 5013319B2
Authority
JP
Japan
Prior art keywords
image
stereo
image processing
processing apparatus
shift amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007254216A
Other languages
Japanese (ja)
Other versions
JP2009088840A (en
Inventor
慶 谷全
秀行 関
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2007254216A priority Critical patent/JP5013319B2/en
Publication of JP2009088840A publication Critical patent/JP2009088840A/en
Application granted granted Critical
Publication of JP5013319B2 publication Critical patent/JP5013319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、光軸が平行なステレオカメラによる床面から高さのある異物を認識するためのステレオ画像処理装置及び同画像処理用プログラムに関する。   The present invention relates to a stereo image processing apparatus and a program for image processing for recognizing a foreign object having a height from a floor surface by a stereo camera having parallel optical axes.

ステレオ画像処理における立体異物の抽出方法として、例えば特許文献1に記載されたように、左右の画像の細かな各部分毎に対応付けを行い視差を求め、これによりカメラからの距離を演算し、3次元の距離データ画像を求めるものがある。このようにして得られた立体画像から、侵入者や障害物などの立体異物を抽出することができる。しかし、この処理は複雑で処理装置の処理負担が非常に重いという問題がある。また、特許文献に記載されたものではないが、光軸が平行でないステレオカメラで撮像した画像から射影変換した左右の画像の比較で立体異物を抽出する方法も知られている。
特開2005−270484号公報
As a method for extracting a three-dimensional foreign object in stereo image processing, for example, as described in Patent Document 1, a fine parallax between left and right images is associated with each other to obtain a parallax, thereby calculating a distance from the camera, Some require a three-dimensional distance data image. A three-dimensional foreign object such as an intruder or an obstacle can be extracted from the three-dimensional image thus obtained. However, there is a problem that this processing is complicated and the processing load on the processing apparatus is very heavy. Although not described in the patent literature, a method of extracting a three-dimensional foreign object by comparing left and right images obtained by projective transformation from an image captured by a stereo camera whose optical axes are not parallel is also known.
JP 2005-270484 A

本発明は、従来技術の処理負担の問題を解決すべくなされたものであって、その目的は、光軸が平行なステレオカメラを用いた上記従来の装置のように写像変換のような複雑な処理を行うことなく、床に一本の線を引く(又は置く)だけで、侵入者や障害物などの立体異物を正確に抽出できるようにすることである。   The present invention has been made to solve the problem of the processing burden of the prior art, and its purpose is to perform a complicated process such as mapping conversion as in the conventional apparatus using a stereo camera with parallel optical axes. It is to be able to accurately extract three-dimensional foreign objects such as intruders and obstacles by simply drawing (or placing) a single line on the floor without processing.

請求項1の発明は、異物を検知するためのステレオ画像処理装置であって、監視領域の床面に引いた基準線を撮像した左右画像のうち、一方の画像の基準線を他方の画像の基準線に一致させるために必要なシフト量を取得する手段と、前記シフト量に従って前記一方の画像をシフト処理する第1のシフト処理手段と、前記シフト処理した画像と前記他方の画像との差分画像を背景画像として保存する手段と、取得したシフト量を記憶手段に記録する手段と、監視領域の左右画像のうち、一方の画像を前記記憶手段に記録したシフト量に応じてシフト処理する第2のシフト処理手段と、前記シフト処理した監視領域の画像と他方の監視領域の画像との監視領域差分画像を形成する手段と、前記監視領域差分画像と前記背景画像との差分画像を形成する手段と、差分画像から異物画像を抽出する手段と、を有することを特徴とする。
請求項2の発明は、請求項1に記載されたステレオ画像処理装置において、前記必要なシフト量を取得する手段は、左右画像の基準線を一致させたときの、前記一方の画像における当該画像を横断する複数のライン毎のエッジ画像のシフト量を算出する手段、を有することを特徴とする。
請求項3の発明は、請求項1又は2に記載されたステレオ画像処理装置において、前記異物画像を抽出する手段で得た異物抽出画像を2値化する手段を有することを特徴とする。
請求項4の発明は、ステレオ画像処理装置のコンピュータを請求項1乃至3のいずれかのステレオ画像処理装置の上記各手段として機能させるためのステレオ画像処理用プログラムである。
The invention according to claim 1 is a stereo image processing apparatus for detecting a foreign object, and among the left and right images obtained by imaging the reference line drawn on the floor surface of the monitoring area, the reference line of one image is used as the reference image of the other image. Means for obtaining a shift amount necessary for matching with a reference line, first shift processing means for shifting the one image according to the shift amount, and a difference between the shifted image and the other image A means for storing the partial image as a background image, a means for recording the acquired shift amount in the storage means, and one of the left and right images of the monitoring area is shifted according to the shift amount recorded in the storage means. A second shift processing means; a means for forming a monitoring area difference image between the image of the monitoring area subjected to the shift process and the image of the other monitoring area; and a difference image between the monitoring area difference image and the background image. And having means for, means for extracting foreign image from the difference image.
According to a second aspect of the present invention, in the stereo image processing apparatus according to the first aspect, the means for obtaining the necessary shift amount is the image in the one image when the reference lines of the left and right images are matched. Means for calculating the shift amount of the edge image for each of a plurality of lines crossing the line.
A third aspect of the present invention, the stereo image processing apparatus according to claim 1 or 2, characterized in that it comprises means for binarizing the foreign object extraction image obtained by means for extracting the foreign image.
A fourth aspect of the present invention is a stereo image processing program for causing a computer of a stereo image processing apparatus to function as each means of the stereo image processing apparatus according to any one of the first to third aspects.

本発明によれば、比較的単純な処理により立体異物を容易に抽出することができる。つまり、光軸が平行なステレオカメラにおいて、床に一本の基準線を引くだけで射影変換を行わないで立体異物を抽出することができる。   According to the present invention, a three-dimensional foreign object can be easily extracted by a relatively simple process. That is, in a stereo camera with parallel optical axes, it is possible to extract a three-dimensional foreign object by simply drawing a single reference line on the floor without performing projective transformation.

本発明は、光軸が平行なステレオカメラによる床面から高さのある異物を認識するためのステレオ画像処理システムであって、従来のようにフレーム毎にラインの輝度変化のマッチングを演算して3次元データを求めるのではなく、地面は平面であることに着目して、その面上で左右の視差が消えるように機械的変換、つまり予め変換処理した一方の画像と他方の画像との差分画像を利用して地面から浮き上がっている異物のみを抽出するものである。   The present invention is a stereo image processing system for recognizing a foreign object having a height from the floor surface by a stereo camera having parallel optical axes, and calculates a matching of line luminance change for each frame as in the prior art. Focusing on the fact that the ground is a flat surface instead of obtaining three-dimensional data, mechanical conversion is performed so that the left and right parallax disappear on that surface, that is, the difference between one image and the other image that has been converted in advance. Only foreign matter floating from the ground is extracted using an image.

本発明の実施形態について図面を参照して説明する。
図1Aは、本発明の1実施形態に係るステレオ画像処理システムを概略的に示すブロック図であり、図1Bはステレオ画像処理装置を概略的に示すブロック図である。
本ステレオ画像処理システム1は、一対のデジタルステレオカメラ10と、画像処理装置20とから成っている。デジタルステレオカメラ10は市販のものでよく、デジタルステレオカメラ10で撮像した画像データは、例えばUSB(Universal Serial Buss)ケーブルなどの周知のインタフェース部30を介して画像処理装置20に送られる。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1A is a block diagram schematically illustrating a stereo image processing system according to an embodiment of the present invention, and FIG. 1B is a block diagram schematically illustrating a stereo image processing apparatus.
The stereo image processing system 1 includes a pair of digital stereo cameras 10 and an image processing device 20. The digital stereo camera 10 may be commercially available, and image data captured by the digital stereo camera 10 is sent to the image processing apparatus 20 via a known interface unit 30 such as a USB (Universal Serial Bus) cable.

画像処理装置20は、図1Bに示すようにその全体を制御するためのコンピュータである制御部22とデータや指令を入力するための入力部24,入力や出力を確認するため等に用いる表示部26とから成っている。
制御部22は、データの処理や演算などを行うCPU(Central Processing Unit)200と、CPU200を動作させるプログラムなどを記録したROM(Read Only Memory)202、CPU200のワークエリアとして処理データ等を一時的に保存するRAM(Random Access Memory)204と、NV(Non-Volatile)RAMからなる画像メモリ206とから成っている。
なお、本実施形態では画像処理のための負担が従来に比して大幅に低減できるので、上記CPU200として、FPGA(Field Programmable Gate Array)と低パーフォーマンスCPUを組み合わせたもの或いはCPU220の代わりに低コストDSP(Digital Signal Processor)を用いることができ、それによってコストを低減することができる。ここでは、これらのものを含めてCPUという。
As shown in FIG. 1B, the image processing apparatus 20 includes a control unit 22 that is a computer for controlling the whole, an input unit 24 for inputting data and commands, and a display unit used for confirming input and output. It consists of 26.
The control unit 22 temporarily stores processing data and the like as a CPU (Central Processing Unit) 200 that performs data processing and calculation, a ROM (Read Only Memory) 202 that records programs for operating the CPU 200, and the work area of the CPU 200. RAM (Random Access Memory) 204 and image memory 206 made up of NV (Non-Volatile) RAM.
In this embodiment, since the burden for image processing can be significantly reduced as compared with the conventional case, the CPU 200 is a combination of a field programmable gate array (FPGA) and a low performance CPU, or a low level instead of the CPU 220. A cost DSP (Digital Signal Processor) can be used, thereby reducing the cost. Here, these things are called CPU.

以上の構成において、まず、本ステレオ画像処理システムの設定段階における原理について概略的に説明する。
本ステレオ画像処理システムは、(1)異物がない状態で画面中央に基準線である1本のマーカーラインMLを置いてステレオ画像を取得する。なお、ここではマーカーライン(基準線)MLを画像中央部に配置しているが、基準線としては画像中央部でなくとも、左右のカメラ画像に写る位置であればどこの位置に配置してもよい。
(2)取得した左右画像のうち左画像を、画面中央部のみに着目して、画面全体に水平に写し込んだ複数(例えば30本程度でよい)各ライン毎に、上記マーカーラインMLが右画像のマーカーラインMLと合致するために必要なシフト量を演算し、そのシフト量のテーブルを作成する。
(3)上記テーブルを参照し、左画像をライン毎にシフトさせた左画像を作成する(つまり一種のアフィン変換を行う)。
(4)右画像とシフト変換した左画像との差分画像を作成する(ステレオ差分背景画像)。
In the above configuration, first, the principle in the setting stage of the stereo image processing system will be schematically described.
The stereo image processing system (1) obtains a stereo image by placing one marker line ML as a reference line at the center of the screen in the absence of foreign matter. Here, the marker line (reference line) ML is arranged at the center of the image. However, the reference line may be arranged at any position as long as it is reflected in the left and right camera images, not the center of the image. Also good.
(2) Of the acquired left and right images, paying attention only to the center of the screen, the marker line ML is placed on the right for each of a plurality of lines (for example, about 30) that are horizontally projected on the entire screen. A shift amount necessary to match the marker line ML of the image is calculated, and a table of the shift amount is created.
(3) Referring to the table, a left image is created by shifting the left image for each line (that is, a kind of affine transformation is performed).
(4) A difference image between the right image and the shift-converted left image is created (stereo difference background image).

以上が、ステレオ画像処理の概要であるが、次に、より詳細に説明する。
ステレオ画像処理は、立体画像から異物を抽出するに当たり、先ずその準備のための設定段階と、設定後の運用段階の2段階で構成される。
そこで、まず、設定段階から説明する。設定段階では、監視領域を撮像するための固定デジタルカメラ10を左右2台(一台のステレオカメラでもよい)設置し、図2に示すように、デジタルカメラの視野内で床に基準となる一本の縦のマーカーラインMLを引く、次に左側のカメラで写した画像(図3A参照)のマーカーラインMLと右側のカメラで写した画像(図3B参照)を画像処理装置20に送る。画像処理装置20では、その制御部22の処理により、映像内のマーカーラインMLが同一位置になるように、ここでは左画像を、後述するように、画像に付した上記複数のラインごとシフトを行う(図3C参照)。このシフト量を、NVRAM206に設けたテーブルに記録する処理を行う。この状態で左右の画像間の差分画像(図3D参照)を背景画像として上記NVRAM206に保存する。
最後にマーカーラインMLを外して設定を完了する。また、この設定は設置時に1度行うだけでよい。
The above is the outline of the stereo image processing. Next, it will be described in more detail.
The stereo image processing is composed of two stages, that is, a setting stage for preparation and an operation stage after setting when extracting a foreign object from a stereoscopic image.
First, the setting stage will be described. In the setting stage, two fixed digital cameras 10 for imaging the monitoring area are installed on the left and right sides (or a single stereo camera). As shown in FIG. The vertical marker line ML of the book is drawn, and then the marker line ML of the image (see FIG. 3A) taken by the left camera and the image (see FIG. 3B) taken by the right camera are sent to the image processing device 20. In the image processing device 20, the left image is shifted here for each of the plurality of lines attached to the image, as will be described later, so that the marker line ML in the video is at the same position by the processing of the control unit 22. (See FIG. 3C). The shift amount is recorded in a table provided in the NVRAM 206. In this state, the difference image (see FIG. 3D) between the left and right images is stored in the NVRAM 206 as a background image.
Finally, the marker line ML is removed to complete the setting. This setting only needs to be performed once at the time of installation.

図4は、設定時に行う処理を説明するためのフロー図である。
設置設定では、ライン毎のシフト量算出が行われる。まず、設置者は、カメラ2台(光軸が平行なステレオカメラを使用する:一台のステレオカメラでもよい)を床面と並行になるように設置して、床にマーカーラインMLを置く(又は引く)ことで設置の準備が整う。
次に、設置したステレオカメラでマーカーラインMLを撮像し、その左画像及び右画像を入力する(S101)。次に入力画像の歪みつまり歪曲補正を行う(S102)。入力画像の歪みを補正した後、左画像を各画素毎にその濃度を検出し、その検出値と予め定めた閾値とを比較して例えば閾値未満であれば白画像、閾値以上であれば黒画像のエッジを検出し、エッジの2値化画像を作成する(S103)。得られたエッジ画像について、当該画像を横方向に分断する複数のラインを定め、左画像と右画像のマーカーラインMLを一致させたときの左画像における各ライン毎のエッジ画像のシフト量を算出し(S104)、算出されたライン毎のシフト量をテーブルに記録して(S105)、背景左画像及び右画像を画像メモリに保存する(S106)。
FIG. 4 is a flowchart for explaining processing performed at the time of setting.
In the installation setting, the shift amount for each line is calculated. First, the installer installs two cameras (uses a stereo camera with parallel optical axes: a single stereo camera) so as to be parallel to the floor surface, and places a marker line ML on the floor ( (Or pull) to prepare for installation.
Next, the marker line ML is imaged with the installed stereo camera, and the left image and the right image are input (S101). Next, distortion of the input image, that is, distortion correction is performed (S102). After correcting the distortion of the input image, the density of the left image is detected for each pixel, and the detected value is compared with a predetermined threshold value. An edge of the image is detected, and a binarized image of the edge is created (S103). For the obtained edge image, a plurality of lines that divide the image in the horizontal direction are defined, and the shift amount of the edge image for each line in the left image when the left image and the marker line ML of the right image are matched is calculated. Then, the calculated shift amount for each line is recorded in a table (S105), and the background left image and the right image are stored in the image memory (S106).

ここで、上記設置時におけるCPU200が行うライン毎のシフト量の算出方法についてその一例を説明する。マーカーラインMLは画像の中心付近にあると仮定した場合、作成した左画像のエッジの2値化画像の中心位置の画素を左から右方向に走査していき、エッジの画像を探す。エッジが見つかれば、そのエッジの画素を中心とした左カメラ画像のブロック(例えば大きさ9×9画素のブロック)に相当する部分が、右カメラ画像では横に何ブロックずれているかを検出し、そのずれ量をそのラインのシフト量とする。
その評価方法としては、ブロック内の各画素について、輝度差の絶対値を合計したものがある探査範囲内で最小となるブロックを画素一致点とする方法を用いる。全てのラインについて同様の処理を行う。
Here, an example of a method for calculating the shift amount for each line performed by the CPU 200 at the time of installation will be described. If it is assumed that the marker line ML is near the center of the image, the pixel at the center position of the binarized image of the edge of the created left image is scanned from the left to the right to search for the edge image. If an edge is found, the part corresponding to the block of the left camera image (for example, a block of 9 × 9 pixels) centered on the pixel of the edge is detected how many blocks are shifted horizontally in the right camera image, The shift amount is set as the shift amount of the line.
As the evaluation method, for each pixel in the block, a method is adopted in which the block that is the smallest in the search range in which the absolute values of the luminance differences are summed is used as a pixel coincidence point. The same processing is performed for all lines.

図5Aはシフト量を取得する際に行うマーカーラインのエッジの走査範囲を示す図であり、図5Bは、シフト量を記録するプロセスを説明するフロー図である。
まず、左画像のある走査範囲内(ここでは、マーカーラインMLを含む処置の幅内)でエッジ点を見つける(S201:図5A参照)。エッジ点をみつけたら、その点が右画像のどの点と一致するか、ライン上の右ブロックと上述のように、輝度差の絶対値を合計したものがある探査範囲内で最小となるブロックを探し出すことによって(S202)、それが何ブロックずれているかを計数する。そのブロックのずれ量(ブロック数)をシフト量として記録する。これを全てのラインについて行う、各ライン毎のシフト量をテーブルに記録する(S203)。
FIG. 5A is a diagram showing the scanning range of the edge of the marker line performed when acquiring the shift amount, and FIG. 5B is a flowchart for explaining the process of recording the shift amount.
First, an edge point is found within a certain scanning range of the left image (here, within the width of the treatment including the marker line ML) (S201: see FIG. 5A). Once the edge point is found, which point in the right image matches that point, the right block on the line and the block that is the smallest in the search range with the sum of the absolute values of the luminance differences as described above. By searching (S202), the number of blocks that are shifted is counted. The shift amount (number of blocks) of the block is recorded as a shift amount. This is performed for all lines, and the shift amount for each line is recorded in the table (S203).

次に、設定後の運用時の処理について説明する。
運用時には前記テーブルを参照し、左画像をシフト変形した画像と右画像の差分画像を、設定時に保存した背景画像との差分をとることで立体異物を抽出する。
Next, processing during operation after setting will be described.
In operation, the table is referred to, and a three-dimensional foreign object is extracted by taking a difference between an image obtained by shifting and deforming the left image and a right image and a background image stored at the time of setting.

運用時における処理を以下で概略的に説明する。なお、図6は運用時における撮像画像及び処理画像を示す。
(1)2台のステレオカメラによりステレオ画像を撮像する。
(2)左画像(図6A)を、設定時に作成したテーブルに基づきシフト変換した画像(図6B)を作成する。
(3)右画像とシフト変換した左画像の差分画像を作成する(図6C)。
(4)設置設定時のステレオ用背景左画像と上記差分画像との差分画像を作成する(図6D)。この差分画像で2値化処理すると地面より浮き上がっている物体が現れる。
(5)更に、ノイズ除去、ブロック化、ラベリング処理などで例えば40×30程度の画素にて異物を抽出する。
The processing at the time of operation will be schematically described below. FIG. 6 shows a captured image and a processed image during operation.
(1) A stereo image is taken by two stereo cameras.
(2) An image (FIG. 6B) obtained by shift-converting the left image (FIG. 6A) based on the table created at the time of setting is created.
(3) A difference image between the right image and the shift-converted left image is created (FIG. 6C).
(4) A difference image between the stereo background left image at the time of installation setting and the difference image is created (FIG. 6D). When binarization processing is performed on this difference image, an object floating above the ground appears.
(5) Further, foreign matter is extracted with, for example, about 40 × 30 pixels by noise removal, blocking, labeling processing, and the like.

次に、以上で説明した背景画像差分により移動立体異物を抽出する工程を図7のフロー図で説明する。
図中、まず、設定時と同様に、ステレオデジタルカメラで撮像した左画像と右画像を入力し(S301)、入力画像の歪曲補正を行い(S302)、続いて、背景左画像と現在左画像のシフト変換後画像、即ち背景画像と現在左画像を各ライン毎にテーブルから読み出したシフト量だけシフトさせたシフト変換後画像を作成する(S303:図6B参照)。
得られた背景シフト変換後画像から背景右画像を引いた、背景ステレオ差分画像を取得し(S304)、さらに現在左シフト変換後画像から現在右画像を引いた現在ステレオ差分画像を取得し(S305:図6C参照)、それぞれ取得した背景ステレオ差分画像から現在ステレオ差分画像を引くことで異物抽出画像を取得し(S306:図6D参照)、このようにして取得した異物抽出画像を上述の処理で2値化する(S307)。
ここで、得られた2値化画像から定法によりノイズを除去し、2値化した画素をブロック化し、ラベリング処理を行い、収縮更に膨張処理等を必要に応じて行い、異物画像を抽出して処理を終了する(S308)。
Next, the process of extracting a moving solid foreign object based on the background image difference described above will be described with reference to the flowchart of FIG.
In the figure, as in the setting, first, a left image and a right image captured by a stereo digital camera are input (S301), distortion correction of the input image is performed (S302), and then a background left image and a current left image A shift-converted image obtained by shifting the background image and the current left image by the shift amount read from the table for each line is created (S303: see FIG. 6B).
A background stereo difference image obtained by subtracting the background right image from the obtained background shift converted image is obtained (S304), and a current stereo difference image obtained by subtracting the current right image from the current left shift converted image is obtained (S305). : Refer to FIG. 6C), a foreign object extraction image is acquired by subtracting the current stereo difference image from each acquired background stereo difference image (S306: refer to FIG. 6D), and the acquired foreign object extraction image is obtained by the above-described processing. Binarization is performed (S307).
Here, noise is removed from the obtained binarized image by a normal method, binarized pixels are blocked, labeling processing is performed, contraction and expansion processing are performed as necessary, and a foreign object image is extracted. The process ends (S308).

以上の説明において、マーカーラインMLは全てのラインに必ず写っていなければならないわけではなく、写っている床が全て平面であったり、一定傾斜角度の坂である場合(図2)には、図8に示すように、マーカーラインMLが写っているラインのみのシフト量を算出後、そのシフト量の近似直線式又は近似曲線式を最小二乗法で求め、マーカーラインMLが写っていない部分のシフト量をその求めた近似式より推定して当てはめることもできる。但し、写っている床の傾斜角度が一定でない場合、例えば坂―平面―坂や階段等では推定することはできない。   In the above description, the marker line ML does not have to be shown on all lines. If all the floors shown are flat or have a certain inclination angle (FIG. 2), As shown in FIG. 8, after calculating the shift amount of only the line in which the marker line ML is shown, an approximate linear equation or approximate curve formula of the shift amount is obtained by the least square method, and the shift of the portion where the marker line ML is not shown The quantity can be estimated and applied from the obtained approximate expression. However, if the angle of inclination of the reflected floor is not constant, it cannot be estimated, for example, on a hill-plane-slope or stairs.

なお、以上の説明では左画像をシフトさせる場合を例に採って説明したが、逆に右画像を左画像に合わせてシフトするように処理するようにしてもよい。   In the above description, the case where the left image is shifted has been described as an example, but conversely, the right image may be processed so as to be shifted in accordance with the left image.

以上説明したように、本実施形態によれば、床面に引いた(又は置いた)一本のマーカーラインを基準に左右画像の視差を利用して床面上にある異物を、少ない画像処理で容易に抽出することができる。   As described above, according to the present embodiment, a small amount of image processing is performed on the floor surface using the parallax of the left and right images based on one marker line drawn (or placed) on the floor surface. Can be easily extracted.

図1Aは本発明の1実施形態に係るステレオ画像処理システムを概略的に示すブロック図であり、図1Bはステレオ画像処理装置を概略的に示すブロック図である。FIG. 1A is a block diagram schematically showing a stereo image processing system according to an embodiment of the present invention, and FIG. 1B is a block diagram schematically showing a stereo image processing apparatus. 設定段階におけるカメラの配置及び床面に引かれたマーカーラインを示す。The camera arrangement and the marker line drawn on the floor in the setting stage are shown. 左右のカメラによる撮像画像及び処理画像を示す。The image captured by the left and right cameras and the processed image are shown. 設定時に行う処理を説明するためのフロー図である。It is a flowchart for demonstrating the process performed at the time of a setting. 図5Aは設定時にシフト量を取得する際に行うマーカーラインのエッジの走査範囲を示す図であり、図5Bは、設定時におけるシフト量を記録するプロセスを説明するフロー図である。FIG. 5A is a diagram illustrating the scanning range of the edge of the marker line that is performed when acquiring the shift amount at the time of setting, and FIG. 5B is a flowchart for explaining the process of recording the shift amount at the time of setting. 運用時における撮像画像及び処理画像を示すShows captured images and processed images during operation 背景画像差分により移動立体異物を抽出する工程を示すフロー図である。It is a flowchart which shows the process of extracting a movement solid foreign material by a background image difference. シフト量算出を近似式で求める手法を説明する図である。It is a figure explaining the method of calculating | requiring shift amount calculation by an approximate expression.

符号の説明Explanation of symbols

1・・・ステレオ画像処理システム、10・・・デジタルステレオカメラ、20・・・画像処理装置、22・・・制御部、24・・・入力部、26・・・表示部200・・・CPU202・・・ROM、204・・・RAM、206・・・NVRAM(画像メモリ)、ML・・・マーカーライン。 DESCRIPTION OF SYMBOLS 1 ... Stereo image processing system, 10 ... Digital stereo camera, 20 ... Image processing apparatus, 22 ... Control part, 24 ... Input part , 26 ... Display part , 200 ... CPU , 202 ... ROM, 204 ... RAM, 206 ... NVRAM (image memory) , ML.

Claims (4)

異物を検知するためのステレオ画像処理装置であって、
監視領域の床面に引いた基準線を撮像した左右画像のうち、一方の画像の基準線を他方の画像の基準線に一致させるために必要なシフト量を取得する手段と、
前記シフト量に従って前記一方の画像をシフト処理する第1のシフト処理手段と、
前記シフト処理した画像と前記他方の画像との差分画像を背景画像として保存する手段と、
取得したシフト量を記憶手段に記録する手段と、
監視領域の左右画像のうち、一方の画像を前記記憶手段に記録したシフト量に応じてシフト処理する第2のシフト処理手段と、
前記シフト処理した監視領域の画像と他方の監視領域の画像との監視領域差分画像を形成する手段と、
前記監視領域差分画像と前記背景画像との差分画像を形成する手段と、
差分画像から異物画像を抽出する手段と、
を有することを特徴とするステレオ画像処理装置。
A stereo image processing device for detecting foreign matter,
Means for acquiring a shift amount necessary to match the reference line of one image with the reference line of the other image among the left and right images obtained by imaging the reference line drawn on the floor surface of the monitoring area;
First shift processing means for shifting the one image according to the shift amount;
It means for storing the difference of image and the shift processed image and the other image as the background image,
Means for recording the acquired shift amount in a storage means;
A second shift processing means for performing a shift process on one of the left and right images of the monitoring area according to the shift amount recorded in the storage means;
Means for forming a monitoring area difference image between the shift-processed monitoring area image and the other monitoring area image;
Means for forming a difference image between the monitoring region difference image and the background image;
It means for extracting foreign image from the difference image,
A stereo image processing apparatus comprising:
請求項1に記載されたステレオ画像処理装置において、
前記必要なシフト量を取得する手段は、左右画像の基準線を一致させたときの、前記一方の画像における当該画像を横断する複数のライン毎のエッジ画像のシフト量を算出する手段、を有することを特徴とするステレオ画像処理装置。
The stereo image processing apparatus according to claim 1,
The means for acquiring the necessary shift amount includes means for calculating the shift amount of the edge image for each of a plurality of lines crossing the image in the one image when the reference lines of the left and right images are matched. A stereo image processing apparatus.
請求項1又は2に記載されたステレオ画像処理装置において、
前記異物画像を抽出する手段で得た異物抽出画像を2値化する手段を有することを特徴とするステレオ画像処理装置。
The stereo image processing apparatus according to claim 1 or 2,
Stereo image processing apparatus characterized by comprising means for binarizing the foreign object extraction image obtained by means for extracting the foreign image.
ステレオ画像処理装置のコンピュータを請求項1乃至3のいずれかのステレオ画像処理装置の上記各手段として機能させるためのステレオ画像処理用プログラム。
A stereo image processing program for causing a computer of a stereo image processing apparatus to function as each of the means of the stereo image processing apparatus according to claim 1.
JP2007254216A 2007-09-28 2007-09-28 Stereo image processing apparatus and image processing program Active JP5013319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007254216A JP5013319B2 (en) 2007-09-28 2007-09-28 Stereo image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007254216A JP5013319B2 (en) 2007-09-28 2007-09-28 Stereo image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2009088840A JP2009088840A (en) 2009-04-23
JP5013319B2 true JP5013319B2 (en) 2012-08-29

Family

ID=40661695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007254216A Active JP5013319B2 (en) 2007-09-28 2007-09-28 Stereo image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5013319B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431876A (en) * 2015-12-16 2018-08-21 日本电气株式会社 Intrusion detection device, setting ancillary equipment, intrusion detection method, setting householder method and program recorded medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917929B2 (en) * 2010-03-19 2014-12-23 Lapis Semiconductor Co., Ltd. Image processing apparatus, method, program, and recording medium
JP2014089548A (en) * 2012-10-30 2014-05-15 Sharp Corp Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3501841B2 (en) * 1994-05-11 2004-03-02 株式会社デンソー Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method
JP3050283B2 (en) * 1996-03-29 2000-06-12 日本電気株式会社 Moving object recognition device
JPH1096607A (en) * 1996-09-25 1998-04-14 Matsushita Electric Ind Co Ltd Object detector and plane estimation method
JP2004177295A (en) * 2002-11-27 2004-06-24 Toyota Central Res & Dev Lab Inc Distance information selection means and distance information selection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431876A (en) * 2015-12-16 2018-08-21 日本电气株式会社 Intrusion detection device, setting ancillary equipment, intrusion detection method, setting householder method and program recorded medium
US11468753B2 (en) 2015-12-16 2022-10-11 Nec Corporation Intrusion detection system, intrusion detection method, and computer-readable medium
US11783685B2 (en) 2015-12-16 2023-10-10 Nec Corporation Intrusion detection system, intrusion detection method, and computer-readable medium

Also Published As

Publication number Publication date
JP2009088840A (en) 2009-04-23

Similar Documents

Publication Publication Date Title
JP5954668B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6362442B2 (en) Lane boundary line extraction device, lane boundary line extraction method, and program
JP5752618B2 (en) Stereo parallax calculation device
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPS59182688A (en) Stereoscopic processor
EP2887313B1 (en) Image processing apparatus, system, image processing method, and computer-readable recording medium
JP4836086B2 (en) 3D shape detector
JP2019164136A (en) Information processing device, image capturing device, mobile body, image processing system, and information processing method
JP2021108193A (en) Image processing device, image processing method, and program
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP6956051B2 (en) Image processing equipment, driving support system, image processing method and program
JP5013319B2 (en) Stereo image processing apparatus and image processing program
JP4271378B2 (en) Imaging device
JP3540005B2 (en) Obstacle detection device
EP3309710A1 (en) Human body detection apparatus, control method for human body detection apparatus, and program
JP2019164018A (en) Imaging system, imaging method, mobile body with imaging system installed, imaging apparatus, and mobile body with imaging apparatus installed
WO2015128918A1 (en) Imaging apparatus
JP2008077489A (en) Image processor, method, program, and storage medium
JP6448457B2 (en) Imaging direction variation detection apparatus and imaging direction variation detection method
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JP5446516B2 (en) Image processing device
JP2007304743A (en) Parallax interpolation processing method and processor
JP6592881B2 (en) Surface detection method, surface detection device, and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120514

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150615

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5013319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120527