JP2007334859A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2007334859A
JP2007334859A JP2007069488A JP2007069488A JP2007334859A JP 2007334859 A JP2007334859 A JP 2007334859A JP 2007069488 A JP2007069488 A JP 2007069488A JP 2007069488 A JP2007069488 A JP 2007069488A JP 2007334859 A JP2007334859 A JP 2007334859A
Authority
JP
Japan
Prior art keywords
flow
object detection
point
optical
imaging means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007069488A
Other languages
Japanese (ja)
Other versions
JP4958279B2 (en
Inventor
Atsushi Ogata
淳 緒方
Mutsumi Watanabe
睦 渡邊
Mamoru Sawada
護 沢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kagoshima University NUC
Denso IT Laboratory Inc
Original Assignee
Kagoshima University NUC
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kagoshima University NUC, Denso IT Laboratory Inc filed Critical Kagoshima University NUC
Priority to JP2007069488A priority Critical patent/JP4958279B2/en
Priority to PCT/JP2007/060077 priority patent/WO2007132902A1/en
Publication of JP2007334859A publication Critical patent/JP2007334859A/en
Application granted granted Critical
Publication of JP4958279B2 publication Critical patent/JP4958279B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object detector accurately detecting a stationary object. <P>SOLUTION: A canonical flow generating means 2 generates a canonical flow of an image imagined in a standard environment with no existing object, based on an installation state of an image pick-up means 3 installed in a vehicle and a travel condition of the vehicle, an observation flow generating means 4 generates an observation flow, based on an image picked up by the image pick-up means, and a comparison collating part 5 detects the object, based on a difference between the canonical flow generated by the canonical flow generating means and the observation flow generated by the observation flow generating means. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、車両、移動ロボット、人などの移動体に搭載された撮像手段により撮像された画像に基づいて物体を検出する物体検出装置に関する。   The present invention relates to an object detection apparatus that detects an object based on an image captured by an imaging unit mounted on a moving body such as a vehicle, a mobile robot, or a person.

移動体では、それ自体の安全確保のために認識するべき状況として移動基準面の状況が重要である。移動基準面の状況としては、面の形状、他の移動体の存在の有無、静止物体などの存在の有無が挙げられる。また、自動車などの車両は、それ自体の安全確保のために認識するべき状況として道路状況が重要である。道路状況としては、カーブなどの道路形状、他の移動車両や歩行者などの移動物体の存在の有無、停止車両などの静止物体などの存在の有無が挙げられる。   In the mobile body, the situation of the movement reference plane is important as a situation to be recognized for ensuring its own safety. The situation of the movement reference plane includes the shape of the plane, the presence / absence of another moving body, and the presence / absence of a stationary object. In addition, road conditions are important for vehicles such as automobiles as situations to be recognized for ensuring their own safety. Examples of the road situation include a road shape such as a curve, the presence or absence of a moving object such as another moving vehicle or a pedestrian, and the presence or absence of a stationary object such as a stopped vehicle.

物体検出の方法として、距離情報を用いるものと動き情報を用いるものが考えられる。距離情報を用いるものには、距離センサを利用する方法(下記の非特許文献1)や、ステレオ視を利用する方法(下記の非特許文献2)がある。動き情報を用いるものには、オプティカルフローとFOE(Focus of Expansion;消失点)を利用する方法(下記の非特許文献3)が従来研究されている。また、画面上の移動ベクトルであるオプティカルフローを求める従来例としては、下記の非特許文献4、5が公知である。なお、非特許文献5はKLT(Kanade-Lucas-Tomasi)法と呼ばれている。
荒蒔勲,佐生徳実,梅田和昇, ”小型距離画像センサを用いた移動ロボットの障害物回避手法の提案”, 日本機械学会ロボティクス・メカトロニクス講演会'01講演論文集,1P1-N4, 2001.6. 岡田慧,加賀美聡,稲葉雅幸,井上博允, ”色領域分割と両眼ステレオの統合による脚型ロボットの三次元障害物回避” 第16回ロボット学会学術講演会予稿集, pp 1505-1506, 1998. Mutsumi Watanabe, Nobuyuki Takeda, Kazunori Onoguchi, “Moving obstacle detection and recognition by optical flow patern analysis for mobilerobot”, Advanced Robotics, Vol.12, No.7,8, pp.791-816, 1999. tcts Jianbo Shi, Carlo Tomasi: ”Good Features to Tack”, 1994 IEEE Conference on Computer Vision and Pattern Recognition(CVPR’94), pp.593-600, 1994. ortelrt” Jean-Yves Bouguet:”Pyramidal Impementation of the Lucas Kanade Feature Tacker Descripion of the algorithm,OpenCV Documentation, Microprocessor Research Labs, Intel Corporation, 1999.
As an object detection method, a method using distance information and a method using motion information are conceivable. Examples of using distance information include a method using a distance sensor (the following non-patent document 1) and a method using stereo vision (the following non-patent document 2). As a method using motion information, a method using an optical flow and FOE (Focus of Expansion) (the following Non-Patent Document 3) has been studied. Non-patent documents 4 and 5 below are known as conventional examples for obtaining an optical flow that is a movement vector on the screen. Non-Patent Document 5 is called a KLT (Kanade-Lucas-Tomasi) method.
Isao Arata, Tokumi Sase, Kazunobu Umeda, “Proposal of Obstacle Avoidance Method for Mobile Robot Using Small Range Image Sensor”, Proc. Of the Japan Society of Mechanical Engineers Robotics and Mechatronics '01, 1P1-N4, 2001.6. Jun Okada, Misaki Kaga, Masayuki Inaba, Hiroki Inoue, “3D obstacle avoidance for legged robots by integrating color regions and binocular stereo” Proceedings of the 16th Annual Conference of the Robotics Society of Japan, pp 1505-1506, 1998 . Mutsumi Watanabe, Nobuyuki Takeda, Kazunori Onoguchi, “Moving obstacle detection and recognition by optical flow patern analysis for mobilerobot”, Advanced Robotics, Vol.12, No.7,8, pp.791-816, 1999.tcts Jianbo Shi, Carlo Tomasi: “Good Features to Tack”, 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), pp.593-600, 1994. ortelrt ” Jean-Yves Bouguet: “Pyramidal Impementation of the Lucas Kanade Feature Tacker Descripion of the algorithm, OpenCV Documentation, Microprocessor Research Labs, Intel Corporation, 1999.

距離センサを用いる方法では、センサから物体までの距離や位置などを知ることができ、対象物までの距離を高い精度で得ることができるため、衝突を警告するなどの実用化もなされている。しかし、走行中は対象物によって危険度や回避行動を判断する必要があり、検出した物体が何であるかまで認識できることが望ましい。   In the method using the distance sensor, the distance and position from the sensor to the object can be known, and the distance to the object can be obtained with high accuracy. Therefore, practical use such as warning of a collision has been made. However, it is necessary to determine the degree of danger and avoidance behavior according to the target object while traveling, and it is desirable that the detected object can be recognized.

映像から距離情報を求める方法にステレオ視を利用する方法は、風景中の物体認識などに用いられている。しかし、この方法はある程度の間隔で配置された2つのカメラ画像の重複部分でしか処理が行えず、視野が狭くなる。そのためカメラに近い部分は共通視野ができないため処理ができず、例えば移動ロボットに搭載した場合には、衝突する危険のある接近した物体に対して、1台のカメラで処理ができる方法が適切であると考えられる。   A method of using stereo vision as a method for obtaining distance information from an image is used for object recognition in a landscape. However, this method can perform processing only at an overlapping portion of two camera images arranged at a certain interval, and the field of view is narrowed. For this reason, a portion near the camera cannot be processed because it cannot have a common field of view. For example, when mounted on a mobile robot, a method that can handle a close object that may collide with a single camera is appropriate. It is believed that there is.

映像としての情報から動き情報を用いる方法に、オプティカルフローとFOEを利用するものがある。このFOEの違いを調べることによって背景と違う運動をする移動物体の検出に使われている。しかし、静止物体は背景と同じFOEを持つため、静止物体を正確に検出できないという問題点がある。   As a method of using motion information from information as a video, there is a method using optical flow and FOE. It is used to detect moving objects that move differently from the background by examining the difference in FOE. However, since the stationary object has the same FOE as the background, there is a problem that the stationary object cannot be accurately detected.

本発明は上記従来例の問題点を踏まえ、静止物体を正確に検出することができる物体検出装置を提供することを目的とする。   An object of the present invention is to provide an object detection device that can accurately detect a stationary object in light of the problems of the conventional example.

本発明は上記目的を達成するために、移動体に設置された撮像手段により撮像された画像に基づいて物体を検出する物体検出装置において、
前記移動体に設置された前記撮像手段の設置状態と前記移動体の移動状態に基づいて、物体が存在しない標準的な環境で想定される画面の第1のオプティカルフローを生成する第1のオプティカルフロー生成手段と、
前記撮像手段により撮像された画像に基づいて第2のオプティカルフローを生成する第2のオプティカルフロー生成手段と、
前記生成された第1及び第2のオプティカルフローの差異に基づいて物体を検出する物体検出手段とを、
備えたことを特徴とする。
この構成により、物体を含まない仮想画像の第1のオプティカルフローと、撮像された実画像の第2のオプティカルフローの差異に基づいて物体を検出するので、静止物体を正確に検出することができる。
In order to achieve the above object, the present invention provides an object detection apparatus for detecting an object based on an image captured by an imaging unit installed on a moving body.
A first optical for generating a first optical flow of a screen assumed in a standard environment where no object exists, based on an installation state of the imaging unit installed on the mobile body and a movement state of the mobile body Flow generation means;
Second optical flow generation means for generating a second optical flow based on an image captured by the imaging means;
Object detection means for detecting an object based on the difference between the generated first and second optical flows;
It is characterized by having.
With this configuration, since the object is detected based on the difference between the first optical flow of the virtual image not including the object and the second optical flow of the captured real image, the stationary object can be accurately detected. .

また、前記第1のオプティカルフロー生成手段は、
前記撮像手段の基準面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きとをパラメータとして設定することにより、仮想空間上の基準面に特徴点を配置し、
前記撮像手段の移動速度、回転角速度を所定間隔で取得して前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする。
また、前記移動体は車両であって、
前記第1のオプティカルフロー生成手段は、
前記撮像手段の路面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きと、前記車両の前輪と後輪の間隔と、前記車両の右の車輪と左の車輪の間隔の5つの固定パラメータを設定することにより仮想空間上の路面に特徴点を配置し、
前記車両の移動速度及び前輪の車体の長手方向に対する傾斜角を所定時間ごとに変数パラメータとして受け取って前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする。
この構成により、物体を含まない仮想画像の第1のオプティカルフローを正確に検出することができる。
The first optical flow generation means includes
By setting the height from the reference plane of the imaging means, the focal length of the imaging means, and the inclination of the imaging means with respect to the horizontal plane as parameters, the feature points are arranged on the reference plane in the virtual space,
Acquiring the moving speed and rotational angular velocity of the imaging means at predetermined intervals, changing the coordinates of the feature points, and generating the previous feature point and the current feature point as the start point and end point of the first optical flow, respectively; It is characterized by.
The moving body is a vehicle,
The first optical flow generation means includes:
The height of the imaging means from the road surface, the focal length of the imaging means, the inclination of the imaging means with respect to the horizontal plane, the distance between the front and rear wheels of the vehicle, and the distance between the right and left wheels of the vehicle. By setting the five fixed parameters, feature points are placed on the road surface in the virtual space,
The moving speed of the vehicle and the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body are received as variable parameters at predetermined time intervals, the coordinates of the feature points are changed, and the previous feature point and the current feature point are respectively changed to the first optical point. It is generated as a start point and an end point of a flow.
With this configuration, it is possible to accurately detect the first optical flow of a virtual image that does not include an object.

また、前記物体検出手段は、前記撮像手段により撮像された画面を領域ごとに分割して各領域ごとに前記第1のオプティカルフローの代表フローを設定し、前記生成した第2のオプティカルフローのうち、前記代表フローより大きいフローを物体と判定することを特徴とする。
また、前記物体検出手段は、前記撮像手段により撮像された画面と、前記第1のオプティカルフローの生成時に得られるオプティカルフローの始点と終点の情報を利用して前記分割領域を設定することを特徴とする。
この構成により、ノイズによる誤検出を防止することができる。
In addition, the object detection unit divides the screen imaged by the imaging unit into regions, sets a representative flow of the first optical flow for each region, and includes the generated second optical flow. A flow larger than the representative flow is determined as an object.
Further, the object detection means sets the divided areas by using the screen imaged by the imaging means and information on the start point and end point of the optical flow obtained when the first optical flow is generated. And
With this configuration, it is possible to prevent erroneous detection due to noise.

また、前記物体検出手段は、前記物体と判定したフローの数が閾値を超えるブロックを物体ブロックと判定することを特徴とする。
この構成により、ノイズによる誤検出を防止することができる。
Further, the object detection means determines that a block in which the number of flows determined to be the object exceeds a threshold is an object block.
With this configuration, it is possible to prevent erroneous detection due to noise.

本発明によれば、物体を含まない仮想画像の第1のオプティカルフローと、撮像された実画像の第2のオプティカルフローの差異に基づいて物体を検出するので、静止物体を正確に検出することができる。   According to the present invention, the object is detected based on the difference between the first optical flow of the virtual image that does not include the object and the second optical flow of the captured real image, so that the stationary object is accurately detected. Can do.

以下、図面を参照して本発明の実施の形態について説明する。図1は本発明に係る物体検出装置の一実施形態を示すブロック図、図2は図1の物体検出装置の処理を説明するためのフローチャートである。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of an object detection apparatus according to the present invention, and FIG. 2 is a flowchart for explaining processing of the object detection apparatus of FIG.

本発明では、移動状態で静止物体を検出するために、従来の方法に代わる方法として「規範フロー」という概念を提案する。すなわち、標準的な環境、標準的な移動状態から予測される、画像中の各場所におけるオプティカルフローを計算により求め、これを規範フロー(第1のオプティカルフロー)とする。そして、動画像処理により得られた実際の画像のオプティカルフロー(第2のオプティカルフロー、観測フロー)との差異を検出することにより、物体の検出を行う。   In the present invention, in order to detect a stationary object in a moving state, a concept of “normative flow” is proposed as an alternative method to the conventional method. That is, the optical flow at each location in the image predicted from the standard environment and the standard moving state is obtained by calculation, and this is used as the reference flow (first optical flow). Then, an object is detected by detecting a difference from an optical flow (second optical flow, observation flow) of an actual image obtained by moving image processing.

図1は、搭載する移動体の一例として車両に搭載する物体検出装置を示す。図1において、移動情報取得手段である車両情報取得手段1は、画像撮像手段3が設置された車両の走行情報を取得し、規範フロー生成手段(第1のオプティカルフロー生成手段)2は、画像撮像手段3の設置状態と車両情報取得手段1からの車両の走行情報に基づいて、物体が存在しない標準的な環境で想定される画面の規範フロー(第1のオプティカルフロー)を生成する。観測フロー生成手段(第2のオプティカルフロー生成手段)4は、画像撮像手段3からの画像に基づいて観測フロー(第2のオプティカルフロー)を生成し、比較照合部(物体検出手段)5は規範フローと観測フローの差異に基づいて物体を検出する。ここで、車両情報取得手段1から比較照合部5までのブロックが本発明に係る物体検出装置の一実施形態を構成している。周辺物体情報構成手段6は比較照合部5により物体として検出された表示領域をユーザが物体と認識できる画像処理を施し、画像撮像手段3からの画像と合成して表示部7に出力する。   FIG. 1 shows an object detection device mounted on a vehicle as an example of a moving body to be mounted. In FIG. 1, vehicle information acquisition means 1 that is movement information acquisition means acquires travel information of a vehicle in which an image imaging means 3 is installed, and normative flow generation means (first optical flow generation means) 2 Based on the installation state of the image pickup means 3 and the vehicle travel information from the vehicle information acquisition means 1, a reference flow (first optical flow) of a screen assumed in a standard environment where no object exists is generated. The observation flow generation means (second optical flow generation means) 4 generates an observation flow (second optical flow) based on the image from the image capturing means 3, and the comparison / collation unit (object detection means) 5 is a norm. An object is detected based on the difference between the flow and the observation flow. Here, the block from the vehicle information acquisition means 1 to the comparison collation part 5 comprises one Embodiment of the object detection apparatus which concerns on this invention. The peripheral object information construction unit 6 performs image processing that allows the user to recognize the display area detected as an object by the comparison / collation unit 5, and combines the image with the image from the image capturing unit 3 and outputs it to the display unit 7.

図2を参照して処理を詳しく説明する。
ステップS1:まず、画像撮像手段3の移動速度や回転角速度などの情報として、自動車の速度やハンドルの切り角などの情報を受け取り、仮想空間上の路面に配置した特徴点の座標を移動させて、その動きを画面に投影したオプティカルフローを生成する、規範フロー生成処理を行う。この規範フロー生成処理により生成されるオプティカルフローを規範フローとする。
ステップS2:次に非特許文献4、5などにおけるKLT法により実画像のフロー(観測フロー)を抽出する。
ステップS3:次に画面をブロックに分けて各ブロックに規範フローの長さや向きを設定し、実画像のフローの長さと向きを調べて、そのフローの入っているブロックにおいて規範フローとの差異がないかを照合する。
ステップS4:最後に差異があると判断したフローがブロックの中にあった場合、そのブロックに物体が存在するとして検出する。
以下各処理について、(1)規範フローの生成、(2)入力画像中の特徴点抽出とフロー検出、(3)規範フローと実フローの照合、(4)物体の検出、の順に具体的に説明する。
The process will be described in detail with reference to FIG.
Step S1: First, information such as the speed of the automobile and the turning angle of the steering wheel is received as information such as the moving speed and rotational angular speed of the image pickup means 3, and the coordinates of the feature points arranged on the road surface in the virtual space are moved. Then, a normative flow generation process is performed to generate an optical flow in which the movement is projected on the screen. The optical flow generated by this standard flow generation process is defined as a standard flow.
Step S2: Next, the flow (observation flow) of the real image is extracted by the KLT method in Non-Patent Documents 4, 5, etc.
Step S3: Next, the screen is divided into blocks, the length and direction of the reference flow are set for each block, the length and direction of the flow of the actual image are checked, and there is a difference from the reference flow in the block containing the flow. Check for any.
Step S4: If there is a flow in the block that is finally determined to have a difference, it is detected that an object exists in the block.
For each process, (1) generation of the normative flow, (2) feature point extraction and flow detection in the input image, (3) collation between the normative flow and the actual flow, and (4) object detection are specifically described in this order. explain.

(1)規範フローの生成
本発明の基本となる規範フロー生成処理について述べる。まず、規範フローを生成するための固定パラメータとして、画像撮像手段3のカメラの路面からの高さ、カメラの焦点距離、水平に対するカメラの傾き、車両の前輪と後輪の間隔、車両の右の車輪と左の車輪の間隔の5つのパラメータを設定することにより、仮想空間上の路面に特徴点を配置する。
次に規範フローを生成するための変数パラメータとして、車両の現在の移動速度、前輪の車体の長手方向に対する傾斜角を所定時間ごとに受け取り、車両の走行状態に合わせて特徴点の座標を変更する。特徴点の位置を、初めに設定した固定パラメータの情報から計算し、カメラ画像のどこに投影されるかを算出して、前状態と現状態をそれぞれ規範フローの始点と終点として出力する。
なお、搭載する移動体が車両でない場合には、画像撮像手段3のカメラの移動基準面からの高さと、カメラの焦点距離と、水平に対するカメラの傾きの3つのパラメータを設定することにより、仮想空間上の基準面に特徴点を配置する。次に規範フローを生成するための変数パラメータとして、撮像手段の現在の移動速度、回転角速度を所定時間ごとに受け取り、撮像手段の移動状態に合わせて特徴点の座標を変更する。特徴点の位置を、初めに設定した固定パラメータの情報から計算し、カメラ画像のどこに投影されるかを算出して、前状態と現状態をそれぞれ規範フローの始点と終点として出力する。
(1) Generation of normative flow The normative flow generation process that is the basis of the present invention will be described. First, as fixed parameters for generating the normative flow, the height of the image pickup means 3 from the road surface of the camera, the focal length of the camera, the tilt of the camera with respect to the horizontal, the distance between the front and rear wheels of the vehicle, the right side of the vehicle By setting five parameters of the distance between the wheel and the left wheel, feature points are arranged on the road surface in the virtual space.
Next, as the variable parameters for generating the normative flow, the current moving speed of the vehicle and the inclination angle of the front wheels with respect to the longitudinal direction of the vehicle body are received every predetermined time, and the coordinates of the feature points are changed according to the running state of the vehicle. . The position of the feature point is calculated from the information of the fixed parameter set at the beginning, and where it is projected on the camera image is calculated, and the previous state and the current state are output as the start point and end point of the reference flow, respectively.
If the moving body to be mounted is not a vehicle, the virtual image can be obtained by setting three parameters: the height of the image pickup means 3 from the camera movement reference plane, the focal length of the camera, and the tilt of the camera with respect to the horizontal. Feature points are placed on a reference plane in space. Next, as the variable parameters for generating the reference flow, the current moving speed and rotational angular velocity of the imaging unit are received every predetermined time, and the coordinates of the feature points are changed according to the moving state of the imaging unit. The position of the feature point is calculated from the information of the fixed parameter set at the beginning, and where it is projected on the camera image is calculated, and the previous state and the current state are output as the start point and end point of the reference flow, respectively.

<画面投影の計算について>
規範フロー生成処理の空間と画像撮像装置により得られた画面上の位置をピンホールカメラに近似させ、図3に示すように視点を原点とし、x軸を撮像面及び画面の幅方向、y軸を奥行きとした空間をx−y平面で考えたとき、カメラの焦点距離をfとすると、撮像面から画面までの距離は
y=f …(1)
となる直線である。また、画面の範囲は撮像面の中心をy軸とする撮像面の幅になる。画面に投影される点は、この直線と、特徴点の座標と原点を結ぶ直線の交点になる。
<Calculation of screen projection>
The space on the reference flow generation process and the position on the screen obtained by the image pickup device are approximated to a pinhole camera, the viewpoint is the origin as shown in FIG. 3, the x axis is the imaging plane and the width direction of the screen, and the y axis When the space with depth is considered on the xy plane, if the focal length of the camera is f, the distance from the imaging surface to the screen is y = f (1)
Is a straight line. The range of the screen is the width of the imaging surface with the center of the imaging surface as the y axis. The point projected on the screen is the intersection of this straight line and the straight line connecting the coordinates of the feature point and the origin.

また、図3において、実際の点である特徴点の座標を(Ox,Oy)、投影点の座標を (Dx,Dy)とすると、Dy=fより、Dxは次の式(2)で求めることができる。
Dx=(Ox/Oy)*f …(2)
またy−z平面で同じ計算をすることにより、投影点のz座標を求めることができる。この計算により画面の中心を原点としたz−x平面に投影点をあらわすことができる。その後、撮像面の大きさを、実際の入力画像の大きさに変換することにより入力画像に応じた規範フローを求めることができる。
Further, in FIG. 3, assuming that the coordinates of the feature points that are actual points are (Ox, Oy) and the coordinates of the projection points are (Dx, Dy), Dx is obtained by the following equation (2) from Dy = f. be able to.
Dx = (Ox / Oy) * f (2)
Further, by performing the same calculation on the yz plane, the z coordinate of the projection point can be obtained. By this calculation, a projection point can be represented on the zx plane with the center of the screen as the origin. Thereafter, the standard flow corresponding to the input image can be obtained by converting the size of the imaging surface into the size of the actual input image.

<カメラの傾きを考えない特徴点の配置と移動>
カメラの水平面に対する傾きが0度の場合、初めに設定したカメラの高さを反映して路面の高さに配置されたy軸と平行な直線上に特徴点を配置し、その点はy軸と平行に移動する。模式図を図4に示す。図4中の環境点と書かれた点がこのときの特徴点である。環境点については後に述べる。
<Arrangement and movement of feature points without considering camera tilt>
When the tilt of the camera with respect to the horizontal plane is 0 degree, the feature point is placed on a straight line parallel to the y-axis placed at the height of the road surface reflecting the height of the camera set at the beginning. Move in parallel. A schematic diagram is shown in FIG. A point written as an environmental point in FIG. 4 is a feature point at this time. The environmental point will be described later.

<カメラの傾きを考えた特徴点の配置>
カメラの水平面に対する傾きがφの場合、y軸に対しφだけ傾いた平面上に点を配置し、その平面に沿って移動する。模式図を図5に示す。図5中の投影点と書かれた点がこのときの特徴点である。投影点については後に述べる。しかし、傾けての移動は、カーブやカメラの傾きなどの状態変化の繰り返しによる誤差の蓄積が想定される。そこで、カメラの傾きが0度で直進状態にある、誤差の生じにくい基準となる環境に配置した特徴点を「環境点」と呼ぶことにする。また、そこからカーブやカメラの傾きによって座標位置を変換した特徴点を「投影点」と呼ぶことにする。
<Arrangement of feature points considering camera tilt>
When the tilt of the camera with respect to the horizontal plane is φ, a point is placed on a plane tilted by φ with respect to the y-axis and moved along the plane. A schematic diagram is shown in FIG. A point written as a projected point in FIG. 5 is a feature point at this time. The projection point will be described later. However, tilting movement is assumed to accumulate errors due to repeated state changes such as curves and camera tilt. Therefore, feature points arranged in a reference environment in which the camera tilt is 0 degrees and the vehicle is in a straight traveling state and is less likely to cause an error are referred to as “environment points”. A feature point obtained by converting a coordinate position by a curve or camera tilt is referred to as a “projection point”.

環境点は図5に示すように、z軸方向への変化が無く、カメラを傾けることによるz軸方向へ移動に関する誤差の蓄積を防ぐことができる。また、y軸方向への移動だけに依存するため、毎回の移動による誤差も防ぐことができる。投影点は環境点の位置から算出されて、環境点の座標は保持したまま投影点を画面上に投影する。カメラの傾きが与えられると、図5に示すように、環境点の位置はそのまま、カメラの傾きの分だけ斜めになった状態に配置される。   As shown in FIG. 5, the environmental point does not change in the z-axis direction, and accumulation of errors related to movement in the z-axis direction caused by tilting the camera can be prevented. Moreover, since it depends only on the movement in the y-axis direction, errors due to the movement every time can be prevented. The projection point is calculated from the position of the environment point, and the projection point is projected on the screen while maintaining the coordinates of the environment point. When the tilt of the camera is given, as shown in FIG. 5, the position of the environmental point is arranged in a state where it is inclined as much as the tilt of the camera.

<旋回時の投影点>
ハンドルを切ったときにカメラが回転するときも環境点はそのままの状態で動作する。ハンドル操作により車体の長手方向に対して前輪の角度が変化するときのように、カメラが回転すると、その角度に応じた回転半径、回転の中心位置が計算される。この値と環境点を基に、投影点はカーブの位置に配置される。投影点の配置の模式図を図6に示す。このときの点の配置の計算については後述する。
<回転半径の算出>
車両の回転半径は以下の式(3)で求めることができる。
r=Hcosθ+W/sinθ …(3)
なお、この式でrは回転半径、Hはトレッド(左右の車輪の間隔)、Wはホイールベース(
前輪と後輪の間隔)、そしてθは前輪の車体の長手方向に対する傾斜角とする。この式(
3)を示したものが図7である。
なお、搭載する移動体が車両でない場合には、カメラの回転半径は以下の式(3)’で求めることができる。
r=v/Δθ …(3)’
なお、この式でrは回転半径、vは移動速度、Δθは回転角速度とする。
<Projection point when turning>
Even when the camera rotates when the handle is turned off, the environmental point operates as it is. As the angle of the front wheel changes with respect to the longitudinal direction of the vehicle body by operating the steering wheel, when the camera rotates, the rotation radius and the center position of rotation corresponding to the angle are calculated. Based on this value and the environment point, the projection point is placed at the position of the curve. A schematic diagram of the arrangement of projection points is shown in FIG. The calculation of the arrangement of points at this time will be described later.
<Calculation of turning radius>
The turning radius of the vehicle can be obtained by the following equation (3).
r = Hcos θ + W / sin θ (3)
In this equation, r is the radius of rotation, H is the tread (the distance between the left and right wheels), W is the wheelbase (
The distance between the front wheel and the rear wheel), and θ is the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body. This formula (
FIG. 7 shows 3).
If the mobile body to be mounted is not a vehicle, the turning radius of the camera can be obtained by the following equation (3) ′.
r = v / Δθ (3) ′
In this equation, r is a rotation radius, v is a moving speed, and Δθ is a rotation angular speed.

<カーブ時の投影点の配置>
まずカメラから環境点までのy軸方向の距離を弧の長さに対応させて、中心角を計算する。回転の中心からカメラまでの距離を半径とする円において、カメラの位置から、計算で求めた中心角だけ移動した点が、環境点に対応する投影点の座標となる。これを図8に示す。図8中の記号で、sはカメラから環境点までの距離、rは回転半径、θは中心角、pは環境点の位置、p’は投影点の位置を表す。図8より中心角θの 値は次の式で求めることができる。
θ=(s/2πr)*2π
=s/r
<Placement of projection points during curve>
First, the center angle is calculated by making the distance in the y-axis direction from the camera to the environment point correspond to the length of the arc. In a circle whose radius is the distance from the center of rotation to the camera, the point moved from the camera position by the calculated central angle is the coordinate of the projection point corresponding to the environmental point. This is shown in FIG. In FIG. 8, s is a distance from the camera to the environment point, r is a radius of rotation, θ is a central angle, p is a position of the environment point, and p ′ is a position of the projection point. From FIG. 8, the value of the central angle θ can be obtained by the following equation.
θ = (s / 2πr) * 2π
= S / r

<規範フローの生成>
カメラ画像上の投影点の座標は前状態を保存してあり、前状態をフローの始点とし、現在の座標位置をフローの終点として描画することでベクトルを生成する。図9は生成した規範フローの例を示し、この例では、車両が直進している場合の規範フローOF1を示す。ここで、図9におけるFOEは規範フローOF1のFOEを示す。
<Generation of normative flow>
The coordinates of the projection points on the camera image store the previous state, and a vector is generated by drawing the previous state as the flow start point and the current coordinate position as the flow end point. FIG. 9 shows an example of the generated normative flow. In this example, the normative flow OF1 when the vehicle is traveling straight is shown. Here, FOE in FIG. 9 indicates the FOE of the normative flow OF1.

(2)入力画像中の特徴点抽出とフロー検出
オプティカルフローの検出は、連続する2枚の入力画像の対応点を見つけることにより行われる。まず、1枚目の画像に対して非特許文献4に基づき特徴点抽出を行う。そして2枚目の画像との対応点を見つけてオプティカルフローを検出する。この対応点の決定方法は、例えば非特許文献5を用いて検出を行う。図10は実画像から生成したフローの例を示し、この例では、規範フローOF1のほかに、物体から生成したフローOF2を含む。
(2) Feature Point Extraction and Flow Detection in Input Image Optical flow detection is performed by finding corresponding points between two consecutive input images. First, feature point extraction is performed on the first image based on Non-Patent Document 4. Then, a corresponding point with the second image is found to detect the optical flow. For example, Non-Patent Document 5 is used as the method for determining the corresponding points. FIG. 10 shows an example of a flow generated from an actual image. In this example, a flow OF2 generated from an object is included in addition to the reference flow OF1.

(3)規範フローと実フローの照合
<規範フロー場の位置補正>
規範フロー生成処理により生成された規範フローと実際の撮像手段により獲得された画像から検出されたオプティカルフローを照合する際に、その位置のズレを補正する必要がある。ズレの補正は例えば、実際の入力画像から検出したフローの情報からFOE(図9参照)を算出し、規範フローの情報からのFOEとの位置を合わせることによってズレを補正することが可能である。
<画面の分割と規範フローの設定>
本提案では各場所における規範フローと、撮像手段により獲得された画像のオプティカルフローを比較して物体の検出を行うため、場所と規範フローの関連付けを行う。フローの比較方法として、以下では画面をブロックに分割し、ブロックごとに代表となる規範フローを設定する方法について説明する。
(3) Verification of normative flow and actual flow <Position flow field position correction>
When the reference flow generated by the reference flow generation process is compared with the optical flow detected from the image acquired by the actual imaging means, it is necessary to correct the positional deviation. For example, the deviation can be corrected by calculating the FOE (see FIG. 9) from the flow information detected from the actual input image and aligning the position with the FOE from the reference flow information. .
<Screen division and normative flow settings>
In this proposal, in order to detect an object by comparing the normative flow at each location and the optical flow of the image acquired by the imaging means, the location is associated with the normative flow. As a flow comparison method, a method for dividing a screen into blocks and setting a representative normative flow for each block will be described below.

<代表となる規範フローの設定>
直進状態において、通常、路面などの移動基準面よりも高さのある静止物体は、車両などに設置されたカメラからの距離が、移動基準面に比べて近くなるため、画面内におけるフローは大きくなる。規範フローは移動基準面上に出るフローを計算により求めたものであるから、物体のフローは規範フローよりもフロー長が大きくなるはずである。よって規範フローよりも大きなフローを物体のフローであると考えることにする。このとき、各ブロック内で複数の規範フローが含まれる場合、一番大きなベクトルを持つ規範フローを代表とする。仮に小さいベクトルを選択した場合、それよりも大きな規範フローがブロック内に存在するということになり、物体のない移動基準面のフローでも、代表のベクトルを超えてしまうことがある。移動基準面上に現れる規範フローは、局所領域では、ほぼ同じベクトルになると考えられ、近隣領域では滑らかな変化をしていると考えられる。このことから、ブロック内に規範フローが含まれない場合、近傍のブロックからベクトルの値をとることにする。
<Representative normative flow settings>
In a straight-ahead state, a stationary object that is usually higher than the movement reference plane such as a road surface has a large flow in the screen because the distance from the camera installed on the vehicle is closer than the movement reference plane. Become. Since the normative flow is obtained by calculating the flow on the movement reference plane, the flow of the object should have a larger flow length than the normative flow. Therefore, the flow larger than the reference flow is considered as the flow of the object. At this time, when a plurality of normative flows are included in each block, the normative flow having the largest vector is represented. If a small vector is selected, a larger reference flow exists in the block, and even the flow of the moving reference plane without an object may exceed the representative vector. The normative flow appearing on the movement reference plane is considered to be almost the same vector in the local region, and is considered to be smoothly changing in the neighboring region. From this, when the reference flow is not included in the block, the vector value is taken from the neighboring block.

(4)物体の検出
<物体フローの判断>
撮像手段により獲得された画像中のオプティカルフロー全てについて、そのフローの存在するブロックの代表規範フローの値と比較する。比較は、例えば、規範フローと比べて、縦成分と横成分の向きが同じで、ベクトル長の長いものを物体のフローとして検出するとしてもよい。
<物体領域の検出>
ただし、このまま物体のフローを含むブロックを物体領域だと判断すると、ノイズも物体のフローだと判断してしまう場合が考えられるため、以下のような処理を行う。特徴点はテクスチャのある物体領域に集中して抽出される。すなわち物体を含むブロック内に多数の物体のフローが含まれると考えられる。これに対してノイズの場合は、ある領域に集中して出るわけではないため、ブロック内には物体のフローだと判断されたノイズが少数含まれると考えられる。このことからブロック内に含まれる物体のフローの数に対して閾値処理を施し、ブロック内の物体フローの数が閾値を超えた場合のみ、物体が含まれると判断する。物体が含まれると判断されたブロックは、図11に示すように例えば色を変えるなどして表示部7に表示してもよい。
(4) Object detection <Determination of object flow>
All the optical flows in the image acquired by the imaging means are compared with the value of the representative standard flow of the block in which the flow exists. The comparison may be, for example, detecting an object flow having the same direction of the vertical component and the horizontal component and a long vector length as compared to the reference flow.
<Detection of object area>
However, if it is determined that a block including an object flow is an object region as it is, it may be determined that noise is also an object flow. Therefore, the following processing is performed. The feature points are extracted in a concentrated manner in the textured object region. That is, it is considered that the flow of a large number of objects is included in the block including the objects. On the other hand, in the case of noise, since it does not concentrate in a certain area, it is considered that a small number of noises determined to be an object flow are included in the block. Therefore, threshold processing is performed on the number of flows of objects included in the block, and it is determined that an object is included only when the number of object flows in the block exceeds the threshold. The block determined to contain the object may be displayed on the display unit 7 by changing the color, for example, as shown in FIG.

<別の画面分割方法>
また、領域の分割にあたって、規範フローは撮像系のFOEより上部には生成されないことを利用する。また規範フローと物体フローの比較を行うことから、例えば規範フローが生成される場所にブロックを配置して、比較を行う。規範フローの生成される部分にブロックを配置するときに、規範フローを求める時に得られる始点・終点の位置がブロックの上端、下端となるように配置する。図12は均等な領域分割の例を示し、これに対し、図13では、規範フローの始点と終点がブロックの対角の位置になるように配置されている。ただし、撮像系が直進運動を行う場合には規範フローの水平方向成分の値が小さくなりブロックが小さくなってしまうことがある。これを防ぐために図14に示すように、水平方向の幅は固定幅(定数)とし、ブロックの重心が規範フローの中点と重なるように配置しても良い。
<Another screen division method>
Further, in dividing the area, it is used that the normative flow is not generated above the FOE of the imaging system. Further, since the normative flow and the object flow are compared, for example, a block is arranged at a place where the normative flow is generated and the comparison is performed. When a block is arranged in a part where the reference flow is generated, the start point and the end point obtained when the reference flow is obtained are arranged so as to be the upper end and the lower end of the block. FIG. 12 shows an example of equal area division. On the other hand, in FIG. 13, the reference flow is arranged so that the start point and the end point are diagonal positions of the block. However, when the imaging system performs a straight movement, the value of the horizontal component of the normative flow may be small and the block may be small. In order to prevent this, as shown in FIG. 14, the horizontal width may be a fixed width (constant), and the center of gravity of the block may be arranged so as to overlap the midpoint of the reference flow.

本発明は、静止物体を正確に検出することができるという効果を有し、車両のみならず、移動ロボット、人などの各種の移動体に搭載する場合に利用することができる。   The present invention has an effect that a stationary object can be accurately detected, and can be used when mounted not only on a vehicle but also on various moving bodies such as a mobile robot and a person.

本発明に係る物体検出装置の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of the object detection apparatus which concerns on this invention. 図1の物体検出装置の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process of the object detection apparatus of FIG. 規範フロー生成時における画面投影計算を示す説明図である。It is explanatory drawing which shows the screen projection calculation at the time of reference | standard flow production | generation. 規範フロー生成時における環境点設定を示す説明図である。It is explanatory drawing which shows the environmental point setting at the time of reference | standard flow production | generation. 規範フロー生成時においてカメラが傾いている場合の投影点配置を示す説明図である。It is explanatory drawing which shows projection point arrangement | positioning in case the camera inclines at the time of reference | standard flow production | generation. 規範フロー生成時においてカーブ時の投影点配置を示す説明図である。It is explanatory drawing which shows the projection point arrangement | positioning at the time of a curve at the time of reference | standard flow production | generation. 規範フロー生成時においてカーブ時の回転半径計算を示す説明図である。It is explanatory drawing which shows the turning radius calculation at the time of a curve at the time of reference | standard flow production | generation. 規範フロー生成時においてカーブ時の投影点移動のための中心角計算を示す説明図である。It is explanatory drawing which shows the center angle calculation for the projection point movement at the time of a curve at the time of reference | standard flow production | generation. 規範フローの一例を示す説明図である。It is explanatory drawing which shows an example of a normative flow. 実画像から生成されたフローの一例を示す説明図である。It is explanatory drawing which shows an example of the flow produced | generated from the real image. 物体の検出画像の表示例を示す説明図である。It is explanatory drawing which shows the example of a display of the detection image of an object. 均等な領域分割の例を示す説明図である。It is explanatory drawing which shows the example of equal area | region division. 規範フローの始点と終点がブロックの対角の位置になる領域分割の例を示す説明図である。It is explanatory drawing which shows the example of the area | region division | segmentation used as the diagonal position of a block with the starting point and end point of a reference | standard flow. 水平方向の幅は固定幅(定数)とし、ブロックの重心が規範フローの中点と重なる領域分割の例を示す説明図である。It is explanatory drawing which shows the example of the area | region division | segmentation which makes the horizontal width | variety fixed width | variety (constant) and the gravity center of a block overlaps the midpoint of a normative flow.

符号の説明Explanation of symbols

1 車両情報取得手段
2 規範フロー生成手段(第1のオプティカルフロー生成手段)
3 画像撮像手段
4 観測フロー生成手段(第2のオプティカルフロー生成手段)
5 比較照合部(物体検出手段)
6 周辺物体情報構成手段
7 表示部
DESCRIPTION OF SYMBOLS 1 Vehicle information acquisition means 2 Normative flow production | generation means (1st optical flow production | generation means)
3 Image capturing means 4 Observation flow generating means (second optical flow generating means)
5 comparison verification unit (object detection means)
6 Peripheral object information constituent means 7 Display section

Claims (6)

移動体に設置された撮像手段により撮像された画像に基づいて物体を検出する物体検出装置において、
前記移動体に設置された前記撮像手段の設置状態と前記移動体の移動状態に基づいて、物体が存在しない標準的な環境で想定される画面の第1のオプティカルフローを生成する第1のオプティカルフロー生成手段と、
前記撮像手段により撮像された画像に基づいて第2のオプティカルフローを生成する第2のオプティカルフロー生成手段と、
前記生成された第1及び第2のオプティカルフローの差異に基づいて物体を検出する物体検出手段とを、
備えたことを特徴とする物体検出装置。
In an object detection apparatus for detecting an object based on an image captured by an imaging means installed on a moving body,
A first optical for generating a first optical flow of a screen assumed in a standard environment where no object exists based on an installation state of the imaging unit installed on the mobile body and a movement state of the mobile body Flow generation means;
Second optical flow generation means for generating a second optical flow based on an image captured by the imaging means;
Object detection means for detecting an object based on the difference between the generated first and second optical flows;
An object detection apparatus characterized by comprising.
前記第1のオプティカルフロー生成手段は、
前記撮像手段の基準面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きとをパラメータとして設定することにより、仮想空間上の基準面に特徴点を配置し、
前記撮像手段の移動速度、回転角速度を所定間隔で取得して前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする請求項1に記載の物体検出装置。
The first optical flow generation means includes:
By setting the height from the reference plane of the imaging means, the focal length of the imaging means, and the inclination of the imaging means with respect to the horizontal plane as parameters, the feature points are arranged on the reference plane in the virtual space,
Acquiring the moving speed and rotational angular velocity of the imaging means at predetermined intervals, changing the coordinates of the feature points, and generating the previous feature point and the current feature point as the start point and end point of the first optical flow, respectively; The object detection apparatus according to claim 1.
前記移動体は車両であって、
前記第1のオプティカルフロー生成手段は、
前記撮像手段の路面からの高さと、前記撮像手段の焦点距離と、前記撮像手段の水平面に対する傾きと、前記車両の前輪と後輪の間隔と、前記車両の右の車輪と左の車輪の間隔の5つの固定パラメータを設定することにより仮想空間上の路面に特徴点を配置し、
前記車両の移動速度及び前輪の車体の長手方向に対する傾斜角を所定時間ごとに変数パラメータとして受け取って前記特徴点の座標を変更し、前回の特徴点と今回の特徴点をそれぞれ前記第1のオプティカルフローの始点と終点として生成することを特徴とする請求項1に記載の物体検出装置。
The moving body is a vehicle,
The first optical flow generation means includes:
The height of the imaging means from the road surface, the focal length of the imaging means, the inclination of the imaging means with respect to the horizontal plane, the distance between the front and rear wheels of the vehicle, and the distance between the right and left wheels of the vehicle. By setting the five fixed parameters, feature points are placed on the road surface in the virtual space,
The moving speed of the vehicle and the inclination angle of the front wheel with respect to the longitudinal direction of the vehicle body are received as variable parameters at predetermined time intervals, the coordinates of the feature points are changed, and the previous feature point and the current feature point are respectively changed to the first optical point. The object detection device according to claim 1, wherein the object detection device is generated as a start point and an end point of a flow.
前記物体検出手段は、前記撮像手段により撮像された画面を領域ごとに分割して各領域ごとに前記第1のオプティカルフローの代表フローを設定し、前記生成した第2のオプティカルフローのうち、前記代表フローより大きいフローを物体と判定することを特徴とする請求項1又は2に記載の物体検出装置。   The object detection unit divides the screen imaged by the imaging unit into regions, sets a representative flow of the first optical flow for each region, and among the generated second optical flows, The object detection apparatus according to claim 1, wherein a flow larger than the representative flow is determined as an object. 前記物体検出手段は、前記撮像手段により撮像された画面と、前記第1のオプティカルフローの生成時に得られるオプティカルフローの始点と終点の情報を利用して前記分割領域を設定することを特徴とする請求項4に記載の物体検出装置。   The object detection means sets the divided area using the screen imaged by the imaging means and the information of the start point and end point of the optical flow obtained when the first optical flow is generated. The object detection apparatus according to claim 4. 前記物体検出手段は、前記物体と判定したフローの数が閾値を超えるブロックを物体ブロックと判定することを特徴とする請求項3から5のいずれか1つに記載の物体検出装置。   6. The object detection device according to claim 3, wherein the object detection unit determines that a block whose number of flows determined to be the object exceeds a threshold value is an object block. 7.
JP2007069488A 2006-05-17 2007-03-16 Object detection device Expired - Fee Related JP4958279B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007069488A JP4958279B2 (en) 2006-05-17 2007-03-16 Object detection device
PCT/JP2007/060077 WO2007132902A1 (en) 2006-05-17 2007-05-16 Object detector

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006137894 2006-05-17
JP2006137894 2006-05-17
JP2007069488A JP4958279B2 (en) 2006-05-17 2007-03-16 Object detection device

Publications (2)

Publication Number Publication Date
JP2007334859A true JP2007334859A (en) 2007-12-27
JP4958279B2 JP4958279B2 (en) 2012-06-20

Family

ID=38693991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007069488A Expired - Fee Related JP4958279B2 (en) 2006-05-17 2007-03-16 Object detection device

Country Status (2)

Country Link
JP (1) JP4958279B2 (en)
WO (1) WO2007132902A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010132053A (en) * 2008-12-03 2010-06-17 Koito Mfg Co Ltd Headlight control device
JP2011233763A (en) * 2010-04-28 2011-11-17 Denso Corp On-vehicle imaging apparatus and in-vehicle image processing apparatus
JP2013201958A (en) * 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus
JP2014526104A (en) * 2011-08-05 2014-10-02 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Driving lane recognition method using a camera
JP2014194618A (en) * 2013-03-28 2014-10-09 Fuji Heavy Ind Ltd Outside environment recognition device and outside environment recognition method
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
DE112016007131T5 (en) 2016-09-15 2019-05-09 Mitsubishi Electric Corporation Object detection device and object determination method
WO2019135544A1 (en) * 2018-01-08 2019-07-11 삼성전자주식회사 Electronic device and method for providing image of surroundings of vehicle
JP2020034995A (en) * 2018-08-27 2020-03-05 株式会社デンソー Image recognition device
KR20220126963A (en) 2021-03-10 2022-09-19 현대자동차주식회사 Periphery monitoring system using event based sensor of vehicle
KR20220131682A (en) 2021-03-22 2022-09-29 현대자동차주식회사 Intelligent front lighting system using event based sensor of vehicle

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872943B2 (en) * 2008-02-20 2012-02-08 コニカミノルタホールディングス株式会社 Analysis device
JP4660569B2 (en) * 2008-03-21 2011-03-30 株式会社東芝 Object detection apparatus and object detection method
CN108108670B (en) 2017-12-04 2018-10-26 交通运输部规划研究院 A kind of method of the remote sensing images extraction Port Warehouses of stratification screening
JP7391117B2 (en) * 2022-01-07 2023-12-04 三菱電機株式会社 Vehicle image processing device and vehicle image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161071A (en) * 1995-12-12 1997-06-20 Sony Corp Device and method for making areas correspond to each other
JP2004056763A (en) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd Monitoring apparatus, monitoring method, and program for monitor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09161071A (en) * 1995-12-12 1997-06-20 Sony Corp Device and method for making areas correspond to each other
JP2004056763A (en) * 2002-05-09 2004-02-19 Matsushita Electric Ind Co Ltd Monitoring apparatus, monitoring method, and program for monitor

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8115394B2 (en) 2008-12-03 2012-02-14 Koito Manufacturing Co., Ltd. Headlamp controller
JP2010132053A (en) * 2008-12-03 2010-06-17 Koito Mfg Co Ltd Headlight control device
JP2011233763A (en) * 2010-04-28 2011-11-17 Denso Corp On-vehicle imaging apparatus and in-vehicle image processing apparatus
JP2014526104A (en) * 2011-08-05 2014-10-02 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Driving lane recognition method using a camera
JP2013201958A (en) * 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus
JP2014194618A (en) * 2013-03-28 2014-10-09 Fuji Heavy Ind Ltd Outside environment recognition device and outside environment recognition method
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
US10943141B2 (en) 2016-09-15 2021-03-09 Mitsubishi Electric Corporation Object detection device and object detection method
DE112016007131T5 (en) 2016-09-15 2019-05-09 Mitsubishi Electric Corporation Object detection device and object determination method
WO2019135544A1 (en) * 2018-01-08 2019-07-11 삼성전자주식회사 Electronic device and method for providing image of surroundings of vehicle
KR20190084463A (en) * 2018-01-08 2019-07-17 삼성전자주식회사 Electronic apparatus and method for providing image regarding surroundings of vehicle
US11245858B2 (en) 2018-01-08 2022-02-08 Samsung Electronics Co., Ltd Electronic device and method for providing image of surroundings of vehicle
KR102479492B1 (en) * 2018-01-08 2022-12-20 삼성전자주식회사 Electronic apparatus and method for providing image regarding surroundings of vehicle
JP2020034995A (en) * 2018-08-27 2020-03-05 株式会社デンソー Image recognition device
JP7067370B2 (en) 2018-08-27 2022-05-16 株式会社デンソー Image recognition device
KR20220126963A (en) 2021-03-10 2022-09-19 현대자동차주식회사 Periphery monitoring system using event based sensor of vehicle
KR20220131682A (en) 2021-03-22 2022-09-29 현대자동차주식회사 Intelligent front lighting system using event based sensor of vehicle

Also Published As

Publication number Publication date
WO2007132902A1 (en) 2007-11-22
JP4958279B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP4958279B2 (en) Object detection device
JP4676373B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP3719095B2 (en) Behavior detection apparatus and gradient detection method
WO2016117200A1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
JP4893212B2 (en) Perimeter monitoring device
JP2007129560A (en) Object detector
JP2005209019A (en) Apparatus, method and program for obstacle detection
JP6032034B2 (en) Object detection device
JP2010193428A (en) Roll angle correction method and device
JP2019511780A (en) Method for detecting an object near a road of a motor vehicle, computer device, driver assistance system, and motor vehicle
WO2019031137A1 (en) Roadside object detection device, roadside object detection method, and roadside object detection system
WO2017047282A1 (en) Image processing device, object recognition device, device control system, image processing method, and program
JP2004120661A (en) Moving object periphery monitoring apparatus
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2020056717A (en) Position detection device
JP2007280387A (en) Method and device for detecting object movement
JP6838225B2 (en) Stereo camera
JP7303064B2 (en) Image processing device and image processing method
WO2017188158A1 (en) Device for detecting road surface state
JP2005170290A (en) Obstacle detecting device
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP4106163B2 (en) Obstacle detection apparatus and method
JP6072508B2 (en) Road surface step detection method, road surface step detection device, and vehicle equipped with road surface step detection device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090406

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120316

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees