JP5013319B2 - Stereo image processing apparatus and image processing program - Google Patents
Stereo image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP5013319B2 JP5013319B2 JP2007254216A JP2007254216A JP5013319B2 JP 5013319 B2 JP5013319 B2 JP 5013319B2 JP 2007254216 A JP2007254216 A JP 2007254216A JP 2007254216 A JP2007254216 A JP 2007254216A JP 5013319 B2 JP5013319 B2 JP 5013319B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stereo
- image processing
- processing apparatus
- shift amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、光軸が平行なステレオカメラによる床面から高さのある異物を認識するためのステレオ画像処理装置及び同画像処理用プログラムに関する。 The present invention relates to a stereo image processing apparatus and a program for image processing for recognizing a foreign object having a height from a floor surface by a stereo camera having parallel optical axes.
ステレオ画像処理における立体異物の抽出方法として、例えば特許文献1に記載されたように、左右の画像の細かな各部分毎に対応付けを行い視差を求め、これによりカメラからの距離を演算し、3次元の距離データ画像を求めるものがある。このようにして得られた立体画像から、侵入者や障害物などの立体異物を抽出することができる。しかし、この処理は複雑で処理装置の処理負担が非常に重いという問題がある。また、特許文献に記載されたものではないが、光軸が平行でないステレオカメラで撮像した画像から射影変換した左右の画像の比較で立体異物を抽出する方法も知られている。
本発明は、従来技術の処理負担の問題を解決すべくなされたものであって、その目的は、光軸が平行なステレオカメラを用いた上記従来の装置のように写像変換のような複雑な処理を行うことなく、床に一本の線を引く(又は置く)だけで、侵入者や障害物などの立体異物を正確に抽出できるようにすることである。 The present invention has been made to solve the problem of the processing burden of the prior art, and its purpose is to perform a complicated process such as mapping conversion as in the conventional apparatus using a stereo camera with parallel optical axes. It is to be able to accurately extract three-dimensional foreign objects such as intruders and obstacles by simply drawing (or placing) a single line on the floor without processing.
請求項1の発明は、異物を検知するためのステレオ画像処理装置であって、監視領域の床面に引いた基準線を撮像した左右画像のうち、一方の画像の基準線を他方の画像の基準線に一致させるために必要なシフト量を取得する手段と、前記シフト量に従って前記一方の画像をシフト処理する第1のシフト処理手段と、前記シフト処理した画像と前記他方の画像との差分画像を背景画像として保存する手段と、取得したシフト量を記憶手段に記録する手段と、監視領域の左右画像のうち、一方の画像を前記記憶手段に記録したシフト量に応じてシフト処理する第2のシフト処理手段と、前記シフト処理した監視領域の画像と他方の監視領域の画像との監視領域差分画像を形成する手段と、前記監視領域差分画像と前記背景画像との差分画像を形成する手段と、該差分画像から異物画像を抽出する手段と、を有することを特徴とする。
請求項2の発明は、請求項1に記載されたステレオ画像処理装置において、前記必要なシフト量を取得する手段は、左右画像の基準線を一致させたときの、前記一方の画像における当該画像を横断する複数のライン毎のエッジ画像のシフト量を算出する手段、を有することを特徴とする。
請求項3の発明は、請求項1又は2に記載されたステレオ画像処理装置において、前記異物画像を抽出する手段で得た異物抽出画像を2値化する手段を有することを特徴とする。
請求項4の発明は、ステレオ画像処理装置のコンピュータを請求項1乃至3のいずれかのステレオ画像処理装置の上記各手段として機能させるためのステレオ画像処理用プログラムである。
The invention according to
According to a second aspect of the present invention, in the stereo image processing apparatus according to the first aspect, the means for obtaining the necessary shift amount is the image in the one image when the reference lines of the left and right images are matched. Means for calculating the shift amount of the edge image for each of a plurality of lines crossing the line.
A third aspect of the present invention, the stereo image processing apparatus according to
A fourth aspect of the present invention is a stereo image processing program for causing a computer of a stereo image processing apparatus to function as each means of the stereo image processing apparatus according to any one of the first to third aspects.
本発明によれば、比較的単純な処理により立体異物を容易に抽出することができる。つまり、光軸が平行なステレオカメラにおいて、床に一本の基準線を引くだけで射影変換を行わないで立体異物を抽出することができる。 According to the present invention, a three-dimensional foreign object can be easily extracted by a relatively simple process. That is, in a stereo camera with parallel optical axes, it is possible to extract a three-dimensional foreign object by simply drawing a single reference line on the floor without performing projective transformation.
本発明は、光軸が平行なステレオカメラによる床面から高さのある異物を認識するためのステレオ画像処理システムであって、従来のようにフレーム毎にラインの輝度変化のマッチングを演算して3次元データを求めるのではなく、地面は平面であることに着目して、その面上で左右の視差が消えるように機械的変換、つまり予め変換処理した一方の画像と他方の画像との差分画像を利用して地面から浮き上がっている異物のみを抽出するものである。 The present invention is a stereo image processing system for recognizing a foreign object having a height from the floor surface by a stereo camera having parallel optical axes, and calculates a matching of line luminance change for each frame as in the prior art. Focusing on the fact that the ground is a flat surface instead of obtaining three-dimensional data, mechanical conversion is performed so that the left and right parallax disappear on that surface, that is, the difference between one image and the other image that has been converted in advance. Only foreign matter floating from the ground is extracted using an image.
本発明の実施形態について図面を参照して説明する。
図1Aは、本発明の1実施形態に係るステレオ画像処理システムを概略的に示すブロック図であり、図1Bはステレオ画像処理装置を概略的に示すブロック図である。
本ステレオ画像処理システム1は、一対のデジタルステレオカメラ10と、画像処理装置20とから成っている。デジタルステレオカメラ10は市販のものでよく、デジタルステレオカメラ10で撮像した画像データは、例えばUSB(Universal Serial Buss)ケーブルなどの周知のインタフェース部30を介して画像処理装置20に送られる。
Embodiments of the present invention will be described with reference to the drawings.
FIG. 1A is a block diagram schematically illustrating a stereo image processing system according to an embodiment of the present invention, and FIG. 1B is a block diagram schematically illustrating a stereo image processing apparatus.
The stereo
画像処理装置20は、図1Bに示すようにその全体を制御するためのコンピュータである制御部22とデータや指令を入力するための入力部24,入力や出力を確認するため等に用いる表示部26とから成っている。
制御部22は、データの処理や演算などを行うCPU(Central Processing Unit)200と、CPU200を動作させるプログラムなどを記録したROM(Read Only Memory)202、CPU200のワークエリアとして処理データ等を一時的に保存するRAM(Random Access Memory)204と、NV(Non-Volatile)RAMからなる画像メモリ206とから成っている。
なお、本実施形態では画像処理のための負担が従来に比して大幅に低減できるので、上記CPU200として、FPGA(Field Programmable Gate Array)と低パーフォーマンスCPUを組み合わせたもの或いはCPU220の代わりに低コストDSP(Digital Signal Processor)を用いることができ、それによってコストを低減することができる。ここでは、これらのものを含めてCPUという。
As shown in FIG. 1B, the
The
In this embodiment, since the burden for image processing can be significantly reduced as compared with the conventional case, the
以上の構成において、まず、本ステレオ画像処理システムの設定段階における原理について概略的に説明する。
本ステレオ画像処理システムは、(1)異物がない状態で画面中央に基準線である1本のマーカーラインMLを置いてステレオ画像を取得する。なお、ここではマーカーライン(基準線)MLを画像中央部に配置しているが、基準線としては画像中央部でなくとも、左右のカメラ画像に写る位置であればどこの位置に配置してもよい。
(2)取得した左右画像のうち左画像を、画面中央部のみに着目して、画面全体に水平に写し込んだ複数(例えば30本程度でよい)各ライン毎に、上記マーカーラインMLが右画像のマーカーラインMLと合致するために必要なシフト量を演算し、そのシフト量のテーブルを作成する。
(3)上記テーブルを参照し、左画像をライン毎にシフトさせた左画像を作成する(つまり一種のアフィン変換を行う)。
(4)右画像とシフト変換した左画像との差分画像を作成する(ステレオ差分背景画像)。
In the above configuration, first, the principle in the setting stage of the stereo image processing system will be schematically described.
The stereo image processing system (1) obtains a stereo image by placing one marker line ML as a reference line at the center of the screen in the absence of foreign matter. Here, the marker line (reference line) ML is arranged at the center of the image. However, the reference line may be arranged at any position as long as it is reflected in the left and right camera images, not the center of the image. Also good.
(2) Of the acquired left and right images, paying attention only to the center of the screen, the marker line ML is placed on the right for each of a plurality of lines (for example, about 30) that are horizontally projected on the entire screen. A shift amount necessary to match the marker line ML of the image is calculated, and a table of the shift amount is created.
(3) Referring to the table, a left image is created by shifting the left image for each line (that is, a kind of affine transformation is performed).
(4) A difference image between the right image and the shift-converted left image is created (stereo difference background image).
以上が、ステレオ画像処理の概要であるが、次に、より詳細に説明する。
ステレオ画像処理は、立体画像から異物を抽出するに当たり、先ずその準備のための設定段階と、設定後の運用段階の2段階で構成される。
そこで、まず、設定段階から説明する。設定段階では、監視領域を撮像するための固定デジタルカメラ10を左右2台(一台のステレオカメラでもよい)設置し、図2に示すように、デジタルカメラの視野内で床に基準となる一本の縦のマーカーラインMLを引く、次に左側のカメラで写した画像(図3A参照)のマーカーラインMLと右側のカメラで写した画像(図3B参照)を画像処理装置20に送る。画像処理装置20では、その制御部22の処理により、映像内のマーカーラインMLが同一位置になるように、ここでは左画像を、後述するように、画像に付した上記複数のラインごとシフトを行う(図3C参照)。このシフト量を、NVRAM206に設けたテーブルに記録する処理を行う。この状態で左右の画像間の差分画像(図3D参照)を背景画像として上記NVRAM206に保存する。
最後にマーカーラインMLを外して設定を完了する。また、この設定は設置時に1度行うだけでよい。
The above is the outline of the stereo image processing. Next, it will be described in more detail.
The stereo image processing is composed of two stages, that is, a setting stage for preparation and an operation stage after setting when extracting a foreign object from a stereoscopic image.
First, the setting stage will be described. In the setting stage, two fixed
Finally, the marker line ML is removed to complete the setting. This setting only needs to be performed once at the time of installation.
図4は、設定時に行う処理を説明するためのフロー図である。
設置設定では、ライン毎のシフト量算出が行われる。まず、設置者は、カメラ2台(光軸が平行なステレオカメラを使用する:一台のステレオカメラでもよい)を床面と並行になるように設置して、床にマーカーラインMLを置く(又は引く)ことで設置の準備が整う。
次に、設置したステレオカメラでマーカーラインMLを撮像し、その左画像及び右画像を入力する(S101)。次に入力画像の歪みつまり歪曲補正を行う(S102)。入力画像の歪みを補正した後、左画像を各画素毎にその濃度を検出し、その検出値と予め定めた閾値とを比較して例えば閾値未満であれば白画像、閾値以上であれば黒画像のエッジを検出し、エッジの2値化画像を作成する(S103)。得られたエッジ画像について、当該画像を横方向に分断する複数のラインを定め、左画像と右画像のマーカーラインMLを一致させたときの左画像における各ライン毎のエッジ画像のシフト量を算出し(S104)、算出されたライン毎のシフト量をテーブルに記録して(S105)、背景左画像及び右画像を画像メモリに保存する(S106)。
FIG. 4 is a flowchart for explaining processing performed at the time of setting.
In the installation setting, the shift amount for each line is calculated. First, the installer installs two cameras (uses a stereo camera with parallel optical axes: a single stereo camera) so as to be parallel to the floor surface, and places a marker line ML on the floor ( (Or pull) to prepare for installation.
Next, the marker line ML is imaged with the installed stereo camera, and the left image and the right image are input (S101). Next, distortion of the input image, that is, distortion correction is performed (S102). After correcting the distortion of the input image, the density of the left image is detected for each pixel, and the detected value is compared with a predetermined threshold value. An edge of the image is detected, and a binarized image of the edge is created (S103). For the obtained edge image, a plurality of lines that divide the image in the horizontal direction are defined, and the shift amount of the edge image for each line in the left image when the left image and the marker line ML of the right image are matched is calculated. Then, the calculated shift amount for each line is recorded in a table (S105), and the background left image and the right image are stored in the image memory (S106).
ここで、上記設置時におけるCPU200が行うライン毎のシフト量の算出方法についてその一例を説明する。マーカーラインMLは画像の中心付近にあると仮定した場合、作成した左画像のエッジの2値化画像の中心位置の画素を左から右方向に走査していき、エッジの画像を探す。エッジが見つかれば、そのエッジの画素を中心とした左カメラ画像のブロック(例えば大きさ9×9画素のブロック)に相当する部分が、右カメラ画像では横に何ブロックずれているかを検出し、そのずれ量をそのラインのシフト量とする。
その評価方法としては、ブロック内の各画素について、輝度差の絶対値を合計したものがある探査範囲内で最小となるブロックを画素一致点とする方法を用いる。全てのラインについて同様の処理を行う。
Here, an example of a method for calculating the shift amount for each line performed by the
As the evaluation method, for each pixel in the block, a method is adopted in which the block that is the smallest in the search range in which the absolute values of the luminance differences are summed is used as a pixel coincidence point. The same processing is performed for all lines.
図5Aはシフト量を取得する際に行うマーカーラインのエッジの走査範囲を示す図であり、図5Bは、シフト量を記録するプロセスを説明するフロー図である。
まず、左画像のある走査範囲内(ここでは、マーカーラインMLを含む処置の幅内)でエッジ点を見つける(S201:図5A参照)。エッジ点をみつけたら、その点が右画像のどの点と一致するか、ライン上の右ブロックと上述のように、輝度差の絶対値を合計したものがある探査範囲内で最小となるブロックを探し出すことによって(S202)、それが何ブロックずれているかを計数する。そのブロックのずれ量(ブロック数)をシフト量として記録する。これを全てのラインについて行う、各ライン毎のシフト量をテーブルに記録する(S203)。
FIG. 5A is a diagram showing the scanning range of the edge of the marker line performed when acquiring the shift amount, and FIG. 5B is a flowchart for explaining the process of recording the shift amount.
First, an edge point is found within a certain scanning range of the left image (here, within the width of the treatment including the marker line ML) (S201: see FIG. 5A). Once the edge point is found, which point in the right image matches that point, the right block on the line and the block that is the smallest in the search range with the sum of the absolute values of the luminance differences as described above. By searching (S202), the number of blocks that are shifted is counted. The shift amount (number of blocks) of the block is recorded as a shift amount. This is performed for all lines, and the shift amount for each line is recorded in the table (S203).
次に、設定後の運用時の処理について説明する。
運用時には前記テーブルを参照し、左画像をシフト変形した画像と右画像の差分画像を、設定時に保存した背景画像との差分をとることで立体異物を抽出する。
Next, processing during operation after setting will be described.
In operation, the table is referred to, and a three-dimensional foreign object is extracted by taking a difference between an image obtained by shifting and deforming the left image and a right image and a background image stored at the time of setting.
運用時における処理を以下で概略的に説明する。なお、図6は運用時における撮像画像及び処理画像を示す。
(1)2台のステレオカメラによりステレオ画像を撮像する。
(2)左画像(図6A)を、設定時に作成したテーブルに基づきシフト変換した画像(図6B)を作成する。
(3)右画像とシフト変換した左画像の差分画像を作成する(図6C)。
(4)設置設定時のステレオ用背景左画像と上記差分画像との差分画像を作成する(図6D)。この差分画像で2値化処理すると地面より浮き上がっている物体が現れる。
(5)更に、ノイズ除去、ブロック化、ラベリング処理などで例えば40×30程度の画素にて異物を抽出する。
The processing at the time of operation will be schematically described below. FIG. 6 shows a captured image and a processed image during operation.
(1) A stereo image is taken by two stereo cameras.
(2) An image (FIG. 6B) obtained by shift-converting the left image (FIG. 6A) based on the table created at the time of setting is created.
(3) A difference image between the right image and the shift-converted left image is created (FIG. 6C).
(4) A difference image between the stereo background left image at the time of installation setting and the difference image is created (FIG. 6D). When binarization processing is performed on this difference image, an object floating above the ground appears.
(5) Further, foreign matter is extracted with, for example, about 40 × 30 pixels by noise removal, blocking, labeling processing, and the like.
次に、以上で説明した背景画像差分により移動立体異物を抽出する工程を図7のフロー図で説明する。
図中、まず、設定時と同様に、ステレオデジタルカメラで撮像した左画像と右画像を入力し(S301)、入力画像の歪曲補正を行い(S302)、続いて、背景左画像と現在左画像のシフト変換後画像、即ち背景画像と現在左画像を各ライン毎にテーブルから読み出したシフト量だけシフトさせたシフト変換後画像を作成する(S303:図6B参照)。
得られた背景シフト変換後画像から背景右画像を引いた、背景ステレオ差分画像を取得し(S304)、さらに現在左シフト変換後画像から現在右画像を引いた現在ステレオ差分画像を取得し(S305:図6C参照)、それぞれ取得した背景ステレオ差分画像から現在ステレオ差分画像を引くことで異物抽出画像を取得し(S306:図6D参照)、このようにして取得した異物抽出画像を上述の処理で2値化する(S307)。
ここで、得られた2値化画像から定法によりノイズを除去し、2値化した画素をブロック化し、ラベリング処理を行い、収縮更に膨張処理等を必要に応じて行い、異物画像を抽出して処理を終了する(S308)。
Next, the process of extracting a moving solid foreign object based on the background image difference described above will be described with reference to the flowchart of FIG.
In the figure, as in the setting, first, a left image and a right image captured by a stereo digital camera are input (S301), distortion correction of the input image is performed (S302), and then a background left image and a current left image A shift-converted image obtained by shifting the background image and the current left image by the shift amount read from the table for each line is created (S303: see FIG. 6B).
A background stereo difference image obtained by subtracting the background right image from the obtained background shift converted image is obtained (S304), and a current stereo difference image obtained by subtracting the current right image from the current left shift converted image is obtained (S305). : Refer to FIG. 6C), a foreign object extraction image is acquired by subtracting the current stereo difference image from each acquired background stereo difference image (S306: refer to FIG. 6D), and the acquired foreign object extraction image is obtained by the above-described processing. Binarization is performed (S307).
Here, noise is removed from the obtained binarized image by a normal method, binarized pixels are blocked, labeling processing is performed, contraction and expansion processing are performed as necessary, and a foreign object image is extracted. The process ends (S308).
以上の説明において、マーカーラインMLは全てのラインに必ず写っていなければならないわけではなく、写っている床が全て平面であったり、一定傾斜角度の坂である場合(図2)には、図8に示すように、マーカーラインMLが写っているラインのみのシフト量を算出後、そのシフト量の近似直線式又は近似曲線式を最小二乗法で求め、マーカーラインMLが写っていない部分のシフト量をその求めた近似式より推定して当てはめることもできる。但し、写っている床の傾斜角度が一定でない場合、例えば坂―平面―坂や階段等では推定することはできない。 In the above description, the marker line ML does not have to be shown on all lines. If all the floors shown are flat or have a certain inclination angle (FIG. 2), As shown in FIG. 8, after calculating the shift amount of only the line in which the marker line ML is shown, an approximate linear equation or approximate curve formula of the shift amount is obtained by the least square method, and the shift of the portion where the marker line ML is not shown The quantity can be estimated and applied from the obtained approximate expression. However, if the angle of inclination of the reflected floor is not constant, it cannot be estimated, for example, on a hill-plane-slope or stairs.
なお、以上の説明では左画像をシフトさせる場合を例に採って説明したが、逆に右画像を左画像に合わせてシフトするように処理するようにしてもよい。 In the above description, the case where the left image is shifted has been described as an example, but conversely, the right image may be processed so as to be shifted in accordance with the left image.
以上説明したように、本実施形態によれば、床面に引いた(又は置いた)一本のマーカーラインを基準に左右画像の視差を利用して床面上にある異物を、少ない画像処理で容易に抽出することができる。 As described above, according to the present embodiment, a small amount of image processing is performed on the floor surface using the parallax of the left and right images based on one marker line drawn (or placed) on the floor surface. Can be easily extracted.
1・・・ステレオ画像処理システム、10・・・デジタルステレオカメラ、20・・・画像処理装置、22・・・制御部、24・・・入力部、26・・・表示部、200・・・CPU、202・・・ROM、204・・・RAM、206・・・NVRAM(画像メモリ)、ML・・・マーカーライン。
DESCRIPTION OF
Claims (4)
監視領域の床面に引いた基準線を撮像した左右画像のうち、一方の画像の基準線を他方の画像の基準線に一致させるために必要なシフト量を取得する手段と、
前記シフト量に従って前記一方の画像をシフト処理する第1のシフト処理手段と、
前記シフト処理した画像と前記他方の画像との差分画像を背景画像として保存する手段と、
取得したシフト量を記憶手段に記録する手段と、
監視領域の左右画像のうち、一方の画像を前記記憶手段に記録したシフト量に応じてシフト処理する第2のシフト処理手段と、
前記シフト処理した監視領域の画像と他方の監視領域の画像との監視領域差分画像を形成する手段と、
前記監視領域差分画像と前記背景画像との差分画像を形成する手段と、
該差分画像から異物画像を抽出する手段と、
を有することを特徴とするステレオ画像処理装置。 A stereo image processing device for detecting foreign matter,
Means for acquiring a shift amount necessary to match the reference line of one image with the reference line of the other image among the left and right images obtained by imaging the reference line drawn on the floor surface of the monitoring area;
First shift processing means for shifting the one image according to the shift amount;
It means for storing the difference of image and the shift processed image and the other image as the background image,
Means for recording the acquired shift amount in a storage means;
A second shift processing means for performing a shift process on one of the left and right images of the monitoring area according to the shift amount recorded in the storage means;
Means for forming a monitoring area difference image between the shift-processed monitoring area image and the other monitoring area image;
Means for forming a difference image between the monitoring region difference image and the background image;
It means for extracting foreign image from the difference image,
A stereo image processing apparatus comprising:
前記必要なシフト量を取得する手段は、左右画像の基準線を一致させたときの、前記一方の画像における当該画像を横断する複数のライン毎のエッジ画像のシフト量を算出する手段、を有することを特徴とするステレオ画像処理装置。 The stereo image processing apparatus according to claim 1,
The means for acquiring the necessary shift amount includes means for calculating the shift amount of the edge image for each of a plurality of lines crossing the image in the one image when the reference lines of the left and right images are matched. A stereo image processing apparatus.
前記異物画像を抽出する手段で得た異物抽出画像を2値化する手段を有することを特徴とするステレオ画像処理装置。 The stereo image processing apparatus according to claim 1 or 2,
Stereo image processing apparatus characterized by comprising means for binarizing the foreign object extraction image obtained by means for extracting the foreign image.
A stereo image processing program for causing a computer of a stereo image processing apparatus to function as each of the means of the stereo image processing apparatus according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007254216A JP5013319B2 (en) | 2007-09-28 | 2007-09-28 | Stereo image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007254216A JP5013319B2 (en) | 2007-09-28 | 2007-09-28 | Stereo image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009088840A JP2009088840A (en) | 2009-04-23 |
JP5013319B2 true JP5013319B2 (en) | 2012-08-29 |
Family
ID=40661695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007254216A Active JP5013319B2 (en) | 2007-09-28 | 2007-09-28 | Stereo image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5013319B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108431876A (en) * | 2015-12-16 | 2018-08-21 | 日本电气株式会社 | Intrusion detection device, setting ancillary equipment, intrusion detection method, setting householder method and program recorded medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917929B2 (en) * | 2010-03-19 | 2014-12-23 | Lapis Semiconductor Co., Ltd. | Image processing apparatus, method, program, and recording medium |
JP2014089548A (en) * | 2012-10-30 | 2014-05-15 | Sharp Corp | Road surface level difference detection method, road surface level difference detection device and vehicle equipped with the road surface level difference detection device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3501841B2 (en) * | 1994-05-11 | 2004-03-02 | 株式会社デンソー | Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method |
JP3050283B2 (en) * | 1996-03-29 | 2000-06-12 | 日本電気株式会社 | Moving object recognition device |
JPH1096607A (en) * | 1996-09-25 | 1998-04-14 | Matsushita Electric Ind Co Ltd | Object detector and plane estimation method |
JP2004177295A (en) * | 2002-11-27 | 2004-06-24 | Toyota Central Res & Dev Lab Inc | Distance information selection means and distance information selection device |
-
2007
- 2007-09-28 JP JP2007254216A patent/JP5013319B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108431876A (en) * | 2015-12-16 | 2018-08-21 | 日本电气株式会社 | Intrusion detection device, setting ancillary equipment, intrusion detection method, setting householder method and program recorded medium |
US11468753B2 (en) | 2015-12-16 | 2022-10-11 | Nec Corporation | Intrusion detection system, intrusion detection method, and computer-readable medium |
US11783685B2 (en) | 2015-12-16 | 2023-10-10 | Nec Corporation | Intrusion detection system, intrusion detection method, and computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP2009088840A (en) | 2009-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5954668B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP6362442B2 (en) | Lane boundary line extraction device, lane boundary line extraction method, and program | |
JP5752618B2 (en) | Stereo parallax calculation device | |
JP4872769B2 (en) | Road surface discrimination device and road surface discrimination method | |
JPS59182688A (en) | Stereoscopic processor | |
EP2887313B1 (en) | Image processing apparatus, system, image processing method, and computer-readable recording medium | |
JP4836086B2 (en) | 3D shape detector | |
JP2019164136A (en) | Information processing device, image capturing device, mobile body, image processing system, and information processing method | |
JP2021108193A (en) | Image processing device, image processing method, and program | |
JPH11351862A (en) | Foregoing vehicle detecting method and equipment | |
JP6956051B2 (en) | Image processing equipment, driving support system, image processing method and program | |
JP5013319B2 (en) | Stereo image processing apparatus and image processing program | |
JP4271378B2 (en) | Imaging device | |
JP3540005B2 (en) | Obstacle detection device | |
EP3309710A1 (en) | Human body detection apparatus, control method for human body detection apparatus, and program | |
JP2019164018A (en) | Imaging system, imaging method, mobile body with imaging system installed, imaging apparatus, and mobile body with imaging apparatus installed | |
WO2015128918A1 (en) | Imaging apparatus | |
JP2008077489A (en) | Image processor, method, program, and storage medium | |
JP6448457B2 (en) | Imaging direction variation detection apparatus and imaging direction variation detection method | |
JP2013200840A (en) | Video processing device, video processing method, video processing program, and video display device | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
JP5891751B2 (en) | Inter-image difference device and inter-image difference method | |
JP5446516B2 (en) | Image processing device | |
JP2007304743A (en) | Parallax interpolation processing method and processor | |
JP6592881B2 (en) | Surface detection method, surface detection device, and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100611 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120210 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120514 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150615 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5013319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120527 |