JP2013211005A - Image processing device and vehicle control system using the same - Google Patents

Image processing device and vehicle control system using the same Download PDF

Info

Publication number
JP2013211005A
JP2013211005A JP2013037715A JP2013037715A JP2013211005A JP 2013211005 A JP2013211005 A JP 2013211005A JP 2013037715 A JP2013037715 A JP 2013037715A JP 2013037715 A JP2013037715 A JP 2013037715A JP 2013211005 A JP2013211005 A JP 2013211005A
Authority
JP
Japan
Prior art keywords
area
image processing
score
region
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013037715A
Other languages
Japanese (ja)
Other versions
JP5780249B2 (en
Inventor
Ei Sakai
映 酒井
Takayuki Miyahara
孝行 宮原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013037715A priority Critical patent/JP5780249B2/en
Publication of JP2013211005A publication Critical patent/JP2013211005A/en
Application granted granted Critical
Publication of JP5780249B2 publication Critical patent/JP5780249B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device configured to properly detect an object in an image.SOLUTION: A plurality of part models are stored for detecting parts as portions showing characteristics of an object from an image. An image from an imaging apparatus is input (S110). The part models stored in a part model storing part are used to calculate a score map, and a high-score area is extracted (S120). A part group area is extracted, accordingly (S130). On the basis of the part group area, a part area for each part is extracted (S140). A score of the extracted part area is calculated (S150), to estimate an object area where the object exists (S160).

Description

本発明は、車載カメラの画像内から歩行者を検出する技術に関する。   The present invention relates to a technique for detecting a pedestrian from an image of a vehicle-mounted camera.

従来、車両走行の障害となる物体との衝突回避等を目的として、車載カメラの画像内から歩行者を検出する技術が提案されている。例えば、車載カメラの画像内から判別対象となる物体を検出し、その物体に対して歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法を適用し、歩行者を検出する技術が提案されている。   Conventionally, a technique for detecting a pedestrian from an image of a vehicle-mounted camera has been proposed for the purpose of avoiding a collision with an object that becomes an obstacle to vehicle travel. For example, a technique for detecting a pedestrian by detecting an object to be discriminated from an image of an in-vehicle camera and applying a neural network object discrimination method using a pedestrian's contour pattern to the object has been proposed. Yes.

ところが、歩行者の輪郭パターンを用いたニューラルネットワークの物体判別手法では、歩行者の輪郭パターンに類似した例えば樹木などの物体を歩行者として検出する虞があり、歩行者の検出精度が低下してしまうことがある。   However, in the neural network object discrimination method using the pedestrian contour pattern, an object such as a tree similar to the pedestrian contour pattern may be detected as a pedestrian, and the detection accuracy of the pedestrian decreases. May end up.

この課題を解決するための手法として、歩行者を構成する所定部位に関する判定を行い、各所定部位の判定出力値の総和が閾値を上回っているか否かで歩行者を判定する技術が提案されている(例えば、特許文献1参照)。例えば、頭、胴体、手、足という所定部位に関する判定を行い、各所定部位の判定出力値の総和を基に検出するという具合である。   As a technique for solving this problem, a technique has been proposed in which a determination regarding a predetermined part constituting a pedestrian is performed and a pedestrian is determined based on whether or not the sum of determination output values of each predetermined part exceeds a threshold value. (For example, refer to Patent Document 1). For example, a determination regarding a predetermined part such as a head, a torso, a hand, and a leg is performed, and detection is performed based on the sum of determination output values of each predetermined part.

特開2008−21034号公報JP 2008-21034 A

しかしながら、上記特許文献1に記載の技術には、歩行者の後ろにいる歩行者や、物陰に隠れた歩行者を精度よく検出できないという課題がある。すなわち、歩行者の頭、胴体、手、足などの所定部位のいくつかが画像内に写らない場合、その所定部位の判定出力値が小さくなることにより、判定出力値の総和が小さくなる。そのため、判定出力値の総和を基に歩行者を検出した場合、歩行者が検出されないことが懸念される。   However, the technique described in Patent Document 1 has a problem that a pedestrian behind a pedestrian or a pedestrian hidden behind a pedestrian cannot be accurately detected. That is, when some of the predetermined parts such as the pedestrian's head, torso, hand, and foot are not shown in the image, the determination output value of the predetermined part is reduced, so that the sum of the determination output values is reduced. Therefore, when a pedestrian is detected based on the sum of the determination output values, there is a concern that no pedestrian is detected.

なお、ここに挙げた課題は、歩行者に限られるものではなく、画像内の対象物を検出する場合にも同様に生じるものである。
本発明は、上述した課題を解決するためになされたものであり、その目的は、画像内の対象物を適切に検出することが可能な画像処理装置及び、当該画像処理装置を用いた車両制御システムを提供することにある。
Note that the problems listed here are not limited to pedestrians, but also occur when an object in an image is detected.
The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing apparatus capable of appropriately detecting an object in an image and vehicle control using the image processing apparatus. To provide a system.

上記目的を達成するためになされた請求項1に記載の画像処理装置(10)は、車両に搭載される撮像装置(32)からの画像に基づいて対象物を検出する。
この画像処理装置では、パーツモデル記憶手段(61)に、対象物の特徴を示す各部位であるパーツを画像内から検出可能な複数のパーツモデルが記憶されている。パーツモデルは、例えば対象物が歩行者であれば、頭部に対応する頭部パーツモデル、腕部に対応する腕部パーツモデル、腰部に対応する腰部パーツモデル、脚部に対応する脚部パーツモデルなどとして用意される。また例えば対象物が車両であれば、タイヤに対応するタイヤパーツモデル、テールライトに対応するテールライトパーツモデル、窓に対応する窓パーツモデルなどとして用意される。
The image processing device (10) according to claim 1 made to achieve the above object detects an object based on an image from an imaging device (32) mounted on a vehicle.
In this image processing apparatus, the part model storage means (61) stores a plurality of part models capable of detecting parts, which are parts indicating the characteristics of the object, from the image. For example, if the object is a pedestrian, the part model is a head part model corresponding to the head, an arm part model corresponding to the arm, a waist part model corresponding to the waist, and a leg part corresponding to the leg. Prepared as a model. For example, if the object is a vehicle, a tire part model corresponding to a tire, a taillight part model corresponding to a taillight, a window part model corresponding to a window, and the like are prepared.

このとき、パーツ領域抽出手段(51)が、パーツモデル記憶手段に記憶されたパーツモデルを用い、パーツ毎のパーツ領域を抽出する。そして、対象物領域推定手段(51)が、パーツ領域抽出手段にて抽出されたパーツ領域に基づき、対象物が存在する対象物領域を推定する。   At this time, the part area extraction means (51) extracts the part area for each part using the part model stored in the part model storage means. Then, the object area estimation means (51) estimates the object area where the object exists based on the parts area extracted by the parts area extraction means.

つまり、パーツモデルを用いてパーツ毎のパーツ領域を抽出し、パーツ領域に基づいて対象物領域を推定するのである。例えば、歩行者の脚部に対応するパーツ領域だけが抽出された場合でも、当該脚部に対応するパーツ領域から歩行者を対象物とする領域を推定するという具合である。したがって、画像内の対象物を適切に検出することができる。   That is, the part area for each part is extracted using the part model, and the object area is estimated based on the part area. For example, even when only a part area corresponding to the leg part of the pedestrian is extracted, an area in which the pedestrian is an object is estimated from the part area corresponding to the leg part. Therefore, the object in the image can be detected appropriately.

車両制御システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of a vehicle control system. 歩行者検出処理を示すフローチャートである。It is a flowchart which shows a pedestrian detection process. パーツモデルを用いた高スコアエリアの抽出を示す説明図である。It is explanatory drawing which shows extraction of the high score area using a parts model. スコアマップにおけるスコアに対する設定閾値の決定を示す説明図である。It is explanatory drawing which shows the determination of the setting threshold value with respect to the score in a score map. パーツグループ領域の抽出を示す説明図である。It is explanatory drawing which shows extraction of a part group area | region. パーツグループ領域に基づくパーツ領域の抽出及びパーツ領域のスコアの算出を示す説明図である。It is explanatory drawing which shows extraction of the part area | region based on a part group area | region, and calculation of the score of a part area | region. パーツ領域からの歩行者領域の抽出を示す説明図である。It is explanatory drawing which shows extraction of the pedestrian area | region from a parts area | region.

以下、本発明の一実施形態を図面に基づいて説明する。
本実施形態の車両制御システムは、画像処理装置10および車両制御装置20を中心に構成されている。画像処理装置10には、測距装置31および撮像装置32が接続されている。また、車両制御装置20には、スピーカ41、ブレーキ42およびステアリング43が接続されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
The vehicle control system of the present embodiment is configured with the image processing device 10 and the vehicle control device 20 as the center. A distance measuring device 31 and an imaging device 32 are connected to the image processing device 10. In addition, a speaker 41, a brake 42 and a steering 43 are connected to the vehicle control device 20.

画像処理装置10および車両制御装置20は、いわゆるコンピュータとして構成されている。これにより、画像処理装置10では、撮像装置32からの画像に基づき歩行者を検出し、測距装置31による距離情報に基づき、衝突危険度を判定する。これに対し、車両制御装置20は、画像処理装置10から出力される衝突危険度に応じて、スピーカ41による報知を行ったり、緊急度合が大きい場合には、ブレーキ42およびステアリング43による回避制御を行ったりする。   The image processing device 10 and the vehicle control device 20 are configured as a so-called computer. As a result, the image processing device 10 detects a pedestrian based on the image from the imaging device 32, and determines the collision risk based on the distance information from the distance measuring device 31. On the other hand, the vehicle control device 20 performs notification by the speaker 41 according to the collision risk output from the image processing device 10, or performs avoidance control by the brake 42 and the steering 43 when the degree of emergency is large. To go.

次に、各部の構成について具体的に説明する。
測距装置31は、レーザレーダなどとして具現化される。もちろん、ミリ波レーダなどの別の構成を用いてもよい。この測距装置31により、車両前方の物体までの距離を検知することが可能となる。
Next, the configuration of each unit will be specifically described.
The distance measuring device 31 is embodied as a laser radar or the like. Of course, another configuration such as a millimeter wave radar may be used. The distance measuring device 31 can detect the distance to the object in front of the vehicle.

撮像装置32は、単眼カメラなどとして具現化される。この撮像装置32により、車両前方が撮像される。画像処理装置10では、上述したように、この画像に基づいて歩行者を検出する。   The imaging device 32 is embodied as a monocular camera or the like. The imaging device 32 images the front of the vehicle. As described above, the image processing apparatus 10 detects a pedestrian based on this image.

スピーカ41は、音声出力のための構成である。歩行者との衝突危険度が大きくなると、このスピーカ41を介して「前方に歩行者がいます」や「注意してください」などの音声が出力される。   The speaker 41 is configured for audio output. When the risk of collision with a pedestrian increases, sounds such as “There is a pedestrian in front” and “Be careful” are output via the speaker 41.

ブレーキ42は、ブレーキの駆動装置を含み、車両制御装置20からの信号によって、車両を減速させる。また、ステアリング43は、EPS(Electric Power Steering )装置を含み、車両制御装置20からの信号によって運転者の操舵をアシストする。このような車両制御が行われるのは、歩行者との衝突危険度がさらに大きくなった場合であり、緊急性の大きい場合である。   The brake 42 includes a brake driving device, and decelerates the vehicle by a signal from the vehicle control device 20. The steering 43 includes an EPS (Electric Power Steering) device, and assists the driver's steering by a signal from the vehicle control device 20. Such vehicle control is performed when the risk of collision with a pedestrian is further increased, and when the urgency is high.

画像処理装置10は、制御部50および記憶部60を有している。制御部50は、いわゆるマイコン(マイクロコンピュータ)として具現化される。制御部50は、機能ブロックとして、歩行者検出部51および衝突危険度判定部52を具備する。また、記憶部60は、例えばROMなどとして具現化される。もちろん、ROM以外のフラッシュメモリやHDDなどを用いてもよい。記憶部60は、パーツモデル記憶部61および衝突危険度判定テーブル記憶部62を具備している。   The image processing apparatus 10 includes a control unit 50 and a storage unit 60. The control unit 50 is embodied as a so-called microcomputer. The control unit 50 includes a pedestrian detection unit 51 and a collision risk determination unit 52 as functional blocks. The storage unit 60 is embodied as a ROM, for example. Of course, a flash memory or HDD other than the ROM may be used. The storage unit 60 includes a parts model storage unit 61 and a collision risk determination table storage unit 62.

ここで歩行者検出部51は、撮像装置32から出力される画像内の歩行者を検出する。具体的には後述するが、画像をスキャンすることで、歩行者の各パーツを検出し、歩行者の存在とその位置を推定する。   Here, the pedestrian detection unit 51 detects a pedestrian in the image output from the imaging device 32. Although specifically described later, each part of the pedestrian is detected by scanning an image, and the presence and position of the pedestrian are estimated.

衝突危険度判定部52は、歩行者が検出された後、当該歩行者までの距離が測距装置31にて分かるため、当該歩行者との距離に応じて衝突危険度を判定する。この衝突危険度は、車両制御装置20へ出力される。   Since the distance to the pedestrian is known by the distance measuring device 31 after the pedestrian is detected, the collision risk level determination unit 52 determines the collision risk level according to the distance from the pedestrian. The collision risk is output to the vehicle control device 20.

パーツモデル記憶部61には、パーツモデルが記憶されている。パーツモデルは、歩行者の各パーツをモデル化したものであり、歩行者の各パーツの画像内における分布の検出に用いられる。本実施形態では、頭部、腕部、腰部、および、脚部をパーツとして用意する。以下では、これらのパーツに対応するパーツモデルを「頭部パーツモデル」、「腕部パーツモデル」、「腰部パーツモデル」および「脚部パーツモデル」として適宜区別する。なお、パーツモデルは、例えば、輪郭情報等の各パーツの特徴を表現する特徴ベクトルである。   The part model storage unit 61 stores a part model. The part model is a model of each part of the pedestrian, and is used to detect the distribution of each part of the pedestrian in the image. In the present embodiment, the head, arms, waist, and legs are prepared as parts. Hereinafter, the part models corresponding to these parts are appropriately distinguished as “head part model”, “arm part model”, “waist part model”, and “leg part model”. The part model is a feature vector that expresses the feature of each part such as contour information.

衝突危険度判定テーブル記憶部62には、衝突危険度判定テーブルが記憶されている。この衝突危険度判定テーブルは、歩行者までの距離と衝突危険度とを対応付けるテーブルである。衝突危険度判定部52は、この衝突危険度判定テーブルを参照することで、衝突危険度を判定する。   The collision risk determination table storage unit 62 stores a collision risk determination table. The collision risk determination table is a table that associates the distance to the pedestrian and the collision risk. The collision risk determination unit 52 determines the collision risk by referring to the collision risk determination table.

車両制御装置20は、報知制御部70および車両制御部80を有している。いずれもいわゆるマイコンとして具現化される。報知制御部70は、スピーカ41を介した報知を行うための構成であり、衝突危険度が大きくなると、まずはスピーカ41を介した報知が行われる。車両制御部80は、ブレーキ42およびステアリング43を介した車両制御を行うための構成であり、衝突危険度がさらに大きくなった場合に衝突回避制御が行われる。   The vehicle control device 20 includes a notification control unit 70 and a vehicle control unit 80. Both are embodied as so-called microcomputers. The notification control unit 70 is configured to perform notification via the speaker 41. When the collision risk level increases, first, notification via the speaker 41 is performed. The vehicle control unit 80 is configured to perform vehicle control via the brake 42 and the steering 43, and collision avoidance control is performed when the risk of collision further increases.

なお、本実施形態は、歩行者検出部51の機能としての歩行者検出処理に特徴を有する。そこで、以下では、この歩行者検出処理の詳細を説明する。歩行者検出処理は、所定時間間隔で繰り返し実行される。   In addition, this embodiment has the characteristic in the pedestrian detection process as a function of the pedestrian detection part 51. FIG. Therefore, the details of this pedestrian detection process will be described below. The pedestrian detection process is repeatedly executed at predetermined time intervals.

図2に示すように、最初のS110では、画像入力を行う。この処理は、撮像装置32から出力される画像を入力するものである。
続くS120では、スコアマップを作成し高スコアのエリア(以下「高スコアエリア」という)を抽出する。歩行者の各パーツをモデル化したパーツモデルがパーツモデル記憶部61に記憶されることは上述したが、当該パーツモデルによって画像をスキャンすることで、スコアマップを作成する。また、設定された閾値を上回るスコアを有する高スコアエリアを抽出する。
As shown in FIG. 2, image input is performed in the first S110. In this process, an image output from the imaging device 32 is input.
In subsequent S120, a score map is created and a high score area (hereinafter referred to as "high score area") is extracted. As described above, a part model obtained by modeling each part of a pedestrian is stored in the part model storage unit 61, but a score map is created by scanning an image using the part model. Further, a high score area having a score exceeding the set threshold is extracted.

具体的には、図3(a)に示すように、頭部パーツモデルTP1を、例えば画像の左上部分から順に、予め定められた間隔で右方向へ移動させていく。そして、画像の右端に到達したら、左端に戻し、予め定められた間隔で下方向へ移動させる。その後は、同様の移動を繰り返し、画像の右下部分まで順に移動させていく。このとき、頭部パーツモデルTP1の位置ごとに、頭部パーツモデルTP1と重なるエリアとの類似度をスコアとして記憶する。これによりパーツモデルの位置毎(エリア毎)にスコアを持つスコアマップ(不図示)が作成される。   Specifically, as shown in FIG. 3A, the head part model TP1 is moved rightward at predetermined intervals, for example, sequentially from the upper left part of the image. When the right end of the image is reached, the image is returned to the left end and moved downward at a predetermined interval. Thereafter, the same movement is repeated, and the image is moved in order to the lower right part of the image. At this time, for each position of the head part model TP1, the similarity with the area overlapping the head part model TP1 is stored as a score. As a result, a score map (not shown) having a score for each part model position (each area) is created.

また、相対的に遠い距離に存在する歩行者は、画像内では小さく写る。そこで、図3(b)に示すように、頭部パーツモデルTP1を縮小した頭部パーツモデルTP2を用いて同様のスコア化を行う。   In addition, a pedestrian present at a relatively far distance appears small in the image. Therefore, as shown in FIG. 3B, similar scoring is performed using a head part model TP2 obtained by reducing the head part model TP1.

なお、ここでは、歩行者が相対的に近くに存在する場合と、歩行者が相対的に遠くに存在する場合との2段階でのスキャンを説明したが、現実的には、3段階以上でスキャンすることが考えられる。また、段階的なスキャンに際し、パーツモデルを拡大/縮小するようにしてもよいし、パーツモデルの大きさはそのままで、スキャンの対象となる画像を拡大/縮小するようにしてもよい。   In addition, although the scanning in the two stages of the case where the pedestrian exists relatively near and the case where the pedestrian exists relatively far is described here, in reality, the scanning is performed in three or more stages. It is possible to scan. In the stepwise scanning, the part model may be enlarged / reduced, or the image to be scanned may be enlarged / reduced without changing the size of the part model.

このようなスコアマップを作成した後、設定された閾値を越えているスコアを有するパーツモデルの位置、すなわち高スコアエリアを抽出する。これにより、図3(c)に示すように、画像内に高スコアエリアTC、TTが抽出される。なお、高スコアエリアTCは、頭部パーツモデルTP1でスキャンした場合にスコアが高くなった領域であり、高スコアエリアTTは、頭部パーツモデルTP2でスキャンした場合にスコアが高くなった領域である。なお、頭部パーツモデルの他に、腕部パーツモデル、腰部パーツモデル、および、脚部パーツモデルがあるため、各パーツモデルでのスキャンに対応して、図3(c)と同様に高スコアエリアが抽出される。   After creating such a score map, the position of the part model having a score exceeding the set threshold, that is, the high score area is extracted. As a result, as shown in FIG. 3C, high score areas TC and TT are extracted from the image. The high score area TC is an area where the score is high when scanned with the head part model TP1, and the high score area TT is an area where the score is high when scanned with the head part model TP2. is there. Since there are an arm part model, a lumbar part model, and a leg part model in addition to the head part model, a high score is obtained in the same manner as in FIG. An area is extracted.

ここで、高スコアエリアを判定するための閾値の設定の一例を説明する。図4(a)では、二人の人物J1,J2が画像に写り込んでいるが、手前の人物J2の腕や脚で、奥の人物J1の腕や脚が隠れている。そこで、歩行者のパーツにも隠れやすいパーツが存在するということに着目し、図4(b)に示すように、頭部K、腕部L1,L2、腰部M、および、脚部N1,N2の各パーツにおいて、本実施形態では、隠れにくい頭部K及び腰部Mを抽出する際の閾値に比べ、腕部L1,L2及び脚部N1,N2を抽出する際の閾値を低めに設定している。   Here, an example of setting a threshold for determining a high score area will be described. In FIG. 4A, two persons J1 and J2 are shown in the image, but the arms and legs of the person J1 in the back are hidden by the arms and legs of the person J2 in the foreground. Therefore, paying attention to the fact that there are easily hidden parts in the pedestrian parts, as shown in FIG. 4 (b), the head K, the arms L1, L2, the waist M, and the legs N1, N2 In this embodiment, in the present embodiment, the threshold values for extracting the arm portions L1, L2 and the leg portions N1, N2 are set lower than the threshold values for extracting the hard-to-hide head K and waist M. Yes.

図2に戻り、S130では、パーツグループ領域を抽出する。この処理は、S120で抽出した高スコアエリアをグループ化するものである。
具体的には、図5(a)に示すように、高スコアエリアTC,TTの相互の距離及び、高スコアエリアTC,TTのサイズでグループ化する。サイズを用いて近くに存在する歩行者と遠くに存在する歩行者とを別に抽出することで、抽出精度を上げるのである。図5(a)では、高スコアエリアTCを包含するパーツグループ領域G1、及び、高スコアエリアTTを包含するパーツグループ領域G2が抽出された様子を示している。ここでいう距離とは、画像上の2D距離、又は、実空間の3D距離である(以下でも同様)。
Returning to FIG. 2, in S130, a part group region is extracted. This process groups the high score areas extracted in S120.
Specifically, as shown in FIG. 5A, the high score areas TC and TT are grouped according to the mutual distance and the high score areas TC and TT. By extracting the pedestrians that exist in the vicinity and the pedestrians that exist in the distance using the size, the extraction accuracy is increased. FIG. 5A shows a state where a part group region G1 including the high score area TC and a part group region G2 including the high score area TT are extracted. The distance here is a 2D distance on an image or a 3D distance in real space (the same applies hereinafter).

なお、図5(b)に示すように、高スコアエリアTC,TTの相互の距離だけでグループ領域を抽出するようにしてもよい。この場合は、比較的処理が簡単になるという点で有利である。   As shown in FIG. 5B, the group area may be extracted only by the mutual distance between the high score areas TC and TT. This is advantageous in that the processing becomes relatively simple.

また、高スコアエリアの密集度を考慮してパーツグループ領域を抽出するようにしてもよい。密集度が相対的に低い場合、誤検出であることが考えられるためである。具体的には、図5(c)に示すように、高スコアエリアTTの距離でグループ化し、高スコアエリアTTを包含するパーツグループ領域G4,G5を抽出する。そして、各パーツグループ領域G4,G5に含まれるエリアTTの数を当該パーツグループ領域G4,G5の面積で除して、密集度を計算する。そして、密集度が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外す。   Further, the part group region may be extracted in consideration of the density of the high score area. This is because when the density is relatively low, it may be a false detection. Specifically, as shown in FIG. 5C, grouping is performed by the distance of the high score area TT, and part group regions G4 and G5 including the high score area TT are extracted. Then, the density is calculated by dividing the number of areas TT included in each part group region G4, G5 by the area of the part group region G4, G5. When the density exceeds a certain threshold value, the part group region is selected. When the density is equal to or less than the certain threshold value, the part group region is excluded.

さらにまた、密集度に加えあるいは代えて、スコアの総和を考慮してパーツグループ領域を抽出するようにしてもよい。スコアの総和が相対的に低い場合、誤検出であることが考えられるためである。具体的には、図5(c)に示すように、高スコアエリアTTの距離でグループ化し、高スコアエリアTTを包含するパーツグループ領域G4,G5を抽出する。そして、各パーツグループ領域G4,G5に含まれる高スコアエリアTTのスコアの総和を求める。そして、スコアの総和が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外す。   Furthermore, the part group region may be extracted in consideration of the total score in addition to or instead of the density. This is because if the total score is relatively low, it may be a false detection. Specifically, as shown in FIG. 5C, grouping is performed by the distance of the high score area TT, and part group regions G4 and G5 including the high score area TT are extracted. And the sum total of the score of the high score area TT contained in each part group area | region G4, G5 is calculated | required. Then, when the total score exceeds a certain threshold value, the part group region is selected, and when it is equal to or smaller than the certain threshold value, it is removed from the part group region.

図2に戻り、S140では、パーツ領域を抽出する。この処理は、S130で抽出したパーツグループ領域を包含する外接矩形の領域を抽出するものである。このとき、距離の近いパーツグループ領域があれば、それらグループ領域を包含する外接矩形の領域を抽出する。パーツグループ領域同士の距離は、境界から境界までの最短距離としてもよいし、パーツグループ領域の中心位置の距離としてもよいし、各エリアのスコアに基づく重心位置の距離としてもよい。このような距離が一定の閾値を下回る場合に、距離が近いものと判定することが考えられる。図6は、2つのパーツグループ領域G6,G7を包含するパーツ領域Pの抽出を示している。   Returning to FIG. 2, in S140, a part region is extracted. In this process, a circumscribed rectangular area including the part group area extracted in S130 is extracted. At this time, if there is a part group area with a short distance, a circumscribed rectangular area including the group area is extracted. The distance between the part group regions may be the shortest distance from the boundary to the boundary, may be the distance of the center position of the part group region, or may be the distance of the center of gravity based on the score of each area. When such a distance is below a certain threshold, it can be considered that the distance is close. FIG. 6 shows extraction of a part region P that includes two part group regions G6 and G7.

続くS150では、パーツ領域のスコアを算出する。この処理は、S140で抽出されたパーツ領域のスコアを算出するものである。
具体的には、パーツ領域に含まれるパーツグループ領域のスコアの総和として算出する。パーツグループ領域のスコアは、当該パーツグループ領域に含まれる高スコアエリアのスコアの総和として算出する。例えば図6では、パーツグループ領域G1,G2に含まれる高スコアエリアTTのスコアの総和としてパーツグループ領域G1,G2のスコアを算出し、パーツグループ領域G1,G2のスコアの総和としてパーツ領域Pのスコアを算出するという具合である。この場合、比較的簡単に、パーツ領域のスコアを算出することができる。
In subsequent S150, the score of the part area is calculated. In this process, the score of the part area extracted in S140 is calculated.
Specifically, it is calculated as the sum of the scores of the part group areas included in the part area. The score of the part group area is calculated as the sum of the scores of the high score areas included in the part group area. For example, in FIG. 6, the scores of the part group regions G1 and G2 are calculated as the sum of the scores of the high score areas TT included in the part group regions G1 and G2, and the scores of the part region P are calculated as the sum of the scores of the part group regions G1 and G2. For example, the score is calculated. In this case, the score of the parts area can be calculated relatively easily.

また、グループ領域G1,G2のスコアを算出する場合、高スコアエリアの「位置の近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアの位置pの差分和の逆数として、高スコアエリアの「位置の近さ」を定義することが考えられる。   Further, when calculating the scores of the group regions G1 and G2, the scores may be calculated including the “positional proximity” of the high score area. Specifically, as shown in the lower part of FIG. 6, it is conceivable to define “closeness of position” of the high score area as the reciprocal of the difference sum of the positions p of the high score area.

さらにまた、高スコアエリアの「位置の近さ」に加え又は代え、パーツグループ領域にサイズの異なる高スコアエリアが含まれることを前提に、「サイズの近さ」を含め、パーツグループ領域のスコアを算出してもよい。具体的には、高スコアエリアのサイズsの差分和の逆数として、各エリアの「サイズの近さ」を定義することができる。   Furthermore, in addition to or instead of “closeness of position” of the high score area, the score of the part group area including “closeness of size” is assumed on the assumption that the high score area of different sizes is included in the part group area. May be calculated. Specifically, the “closeness of size” of each area can be defined as the reciprocal of the difference sum of the size s of the high score area.

また、これら「位置の近さ」や「サイズの近さ」に加え又は代え、パーツグループ領域の密集度を含めてパーツグループ領域のスコアを算出してもよい。この場合の密集度は、既に上述した。   Further, in addition to or instead of these “position proximity” and “size proximity”, the score of the part group area may be calculated including the density of the part group area. The density in this case has already been described above.

続くS160では、歩行者を検出する。この処理は、抽出したパーツ領域を基に、歩行者の存在する領域である歩行者領域を抽出するものである。パーツ領域を構成するパーツの種類及び、高スコアエリアのサイズが分かれば、歩行者領域を抽出することが可能となる。   In subsequent S160, a pedestrian is detected. In this process, a pedestrian area, which is an area where a pedestrian exists, is extracted based on the extracted parts area. If the types of parts constituting the part area and the size of the high score area are known, the pedestrian area can be extracted.

具体的に、図7(a)に示すように頭部パーツモデルを基に抽出されたパーツ領域Pがある場合、その下に胴体部分があると推測する。また、パーツ領域Pに含まれる高スコアエリアのサイズから、胴体部分のサイズを推測する。これにより、パーツ領域Pから歩行者領域Sを推定する。なお、歩行者領域Sに含まれるパーツ領域Pのスコアが一定の閾値以下である場合、その歩行者領域Sを抽出対象から外す。   Specifically, as shown in FIG. 7A, when there is a part region P extracted based on the head part model, it is assumed that there is a body part below. Further, the size of the body part is estimated from the size of the high score area included in the part region P. Thereby, the pedestrian area S is estimated from the parts area P. In addition, when the score of the parts area | region P contained in the pedestrian area | region S is below a fixed threshold value, the pedestrian area | region S is excluded from extraction object.

また具体的に、図7(b)に示すように、頭部パーツモデルを基に抽出された2つのパーツ領域P1,P3があり、脚部パーツモデルを基に抽出されたパーツ領域P2がある場合、その配置関係を基に、歩行者領域を検出する。例えば、パーツ領域P1,P2に含まれる高スコアエリアのサイズが同じである場合、2つのパーツ領域P1,P2は対応関係にあると考えられる。つまり、同じ歩行者集団の頭部と脚部と考えられるのである。これに対し、パーツ領域P3に含まれる高スコアエリアのサイズが他のパーツ領域P1,P2に含まれる高スコアエリアのサイズと異なっており、パーツ領域P3に対応するパーツ領域が存在しない場合、パーツ領域P3は誤検出であるとする。   Also, specifically, as shown in FIG. 7B, there are two part areas P1 and P3 extracted based on the head part model, and there is a parts area P2 extracted based on the leg part model. In this case, the pedestrian area is detected based on the arrangement relationship. For example, when the high score areas included in the part areas P1 and P2 have the same size, the two part areas P1 and P2 are considered to have a correspondence relationship. That is, it can be considered as the head and legs of the same pedestrian group. On the other hand, if the size of the high score area included in the part area P3 is different from the size of the high score area included in the other part areas P1 and P2, and there is no part area corresponding to the part area P3, It is assumed that the region P3 is erroneous detection.

そして、図7(c)に示すように、2つのパーツ領域P1,P2が対応関係にある場合、当該パーツ領域P1,P2から推定される歩行者領域S1,S2に対する外接矩形を歩行者領域S3として推定する。このとき、パーツ領域P1,P2のそれぞれのスコアの総和が一定の閾値を上回るときに、歩行者領域S3を推定する。一定の閾値以下である場合には、歩行者領域S3を抽出対象から外す。   And as shown in FIG.7 (c), when two part area | regions P1 and P2 have a correspondence, the circumscribed rectangle with respect to the pedestrian area | region S1, S2 estimated from the said part area | region P1, P2 is made into pedestrian area | region S3. Estimate as At this time, the pedestrian area S3 is estimated when the sum of the scores of the part areas P1 and P2 exceeds a certain threshold. When it is below a certain threshold value, the pedestrian area S3 is excluded from the extraction target.

以上、詳述したように本実施形態によれば、画像処理装置10のパーツモデル記憶部61に、歩行者の特徴を示す各部位であるパーツを画像内から検出可能な複数のパーツモデルが記憶されている。このとき、制御部50の歩行者検出部51は、撮像装置32からの画像を入力し(図2中のS110)、パーツモデル記憶部61に記憶されたパーツモデルを用い、スコアマップを作成して高スコアエリアを抽出する(S120)。これにより、パーツグループ領域を抽出し(S130)、パーツグループ領域を基に、パーツ毎のパーツ領域を抽出する(S140)。そして、抽出されたパーツ領域のスコアを算出して(S150)、歩行者が存在する歩行者領域を推定する(S160)。   As described above in detail, according to the present embodiment, the part model storage unit 61 of the image processing apparatus 10 stores a plurality of part models that can detect parts that are parts of the pedestrian from the image. Has been. At this time, the pedestrian detection unit 51 of the control unit 50 inputs an image from the imaging device 32 (S110 in FIG. 2), and creates a score map using the part model stored in the part model storage unit 61. Then, a high score area is extracted (S120). Thereby, a part group area is extracted (S130), and a part area for each part is extracted based on the part group area (S140). And the score of the extracted parts area | region is calculated (S150), and the pedestrian area | region where a pedestrian exists is estimated (S160).

つまり、パーツモデルを用いてパーツ毎のパーツ領域を抽出し、パーツ領域に基づいて歩行者領域を推定するのである。例えば、歩行者の脚部に対応するパーツ領域だけが抽出された場合でも、当該脚部に対応するパーツ領域から歩行者領域を推定するという具合である。したがって、画像内の歩行者を適切に検出することができる。   That is, a part area for each part is extracted using a part model, and a pedestrian area is estimated based on the part area. For example, even when only the parts area corresponding to the leg part of the pedestrian is extracted, the pedestrian area is estimated from the part area corresponding to the leg part. Therefore, a pedestrian in the image can be detected appropriately.

また、本実施形態では、図3(a)に示したように、画像内で頭部パーツモデルTP1を移動させ、当該頭部パーツモデルTP1と重なった領域であるエリアとの一致度をスコアとして算出してスコアマップを作成し、スコアが予め定められた設定閾値を上回る高スコアエリアを抽出する(図2中のS120)。すなわち、画像内でパーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、スコアが予め定められた設定閾値を上回る高スコアエリアに基づき、パーツ領域を抽出する。これにより、比較的簡単にパーツ領域を抽出することができる。   In the present embodiment, as shown in FIG. 3A, the head part model TP1 is moved in the image, and the degree of coincidence with the area that is an area overlapping the head part model TP1 is used as a score. A score map is created by calculation, and a high score area in which the score exceeds a preset threshold value is extracted (S120 in FIG. 2). That is, the part model is moved in the image, the degree of coincidence with the area that is an area overlapping with the part model is calculated as a score, and the part area is determined based on the high score area where the score exceeds a predetermined setting threshold. Extract. As a result, the parts region can be extracted relatively easily.

このとき、本実施形態では、歩行者のパーツにも隠れやすいパーツが存在するということに着目し、図4(b)に示したように、頭部K、腕部L1,L2、腰部M、および、脚部N1,N2の各パーツにおいて、隠れにくい頭部K及び腰部Mを抽出する際の閾値に比べ、腕部L1,L2及び脚部N1,N2を抽出する際の閾値を低めに設定している。すなわち、設定閾値をパーツ毎に定めている。これにより、各パーツを適切に検出することができる。   At this time, in this embodiment, paying attention to the fact that there are parts that are also easily hidden in the pedestrian parts, as shown in FIG. 4B, the head K, arms L1, L2, waist M, Also, in each part of the leg parts N1 and N2, the threshold values for extracting the arm parts L1, L2 and the leg parts N1, N2 are set lower than the threshold values for extracting the head K and the waist part M which are difficult to hide. doing. That is, the setting threshold is determined for each part. Thereby, each part can be detected appropriately.

また、本実施形態では、高スコアエリアをグループ化してパーツグループ領域を抽出すし(図2中のS130)、パーツグループ領域に基づきパーツ領域を抽出する(S140)。これにより、より適切なパーツ領域を抽出することができる。   In the present embodiment, the high score areas are grouped to extract a part group area (S130 in FIG. 2), and a parts area is extracted based on the parts group area (S140). As a result, a more appropriate part region can be extracted.

具体的には、図5(a)に示したように、高スコアエリアTC,TTの距離及び、高スコアエリアTC,TTのサイズでグループ化する。すなわち、相互の距離が一定閾値以下である高スコアエリアであって、相互に同様のサイズを有する高スコアエリアを包含するようにパーツグループ領域を抽出する。このように、サイズを用いて近くに存在する歩行者と遠くに存在する歩行者とを別に抽出するため、抽出精度を上げることができる。   Specifically, as shown in FIG. 5A, grouping is performed according to the distance between the high score areas TC and TT and the size of the high score areas TC and TT. That is, part group regions are extracted so as to include high score areas whose mutual distances are equal to or smaller than a certain threshold and have the same size. As described above, since the pedestrians present in the vicinity and the pedestrians present in the distance are separately extracted using the size, the extraction accuracy can be increased.

さらにまた、本実施形態では、パーツグループ領域を包含する外接矩形領域としてパーツ領域を抽出する(図2中のS140)。外接矩形領域としてパーツ領域を抽出することにより、その後の処理が比較的簡単になるという点で有利である。   Furthermore, in this embodiment, a part area is extracted as a circumscribed rectangular area that includes a part group area (S140 in FIG. 2). Extracting the part area as the circumscribed rectangular area is advantageous in that the subsequent processing becomes relatively simple.

このとき、距離の近いパーツグループ領域があれば、それらグループ領域を包含する外接矩形の領域を抽出する。例えば、図6の例では、2つのパーツグループ領域G6,G7を包含するパーツ領域Pを抽出した。すなわち、相互の距離が一定閾値以下であるパーツグループ領域を包含する外接矩形領域としてパーツ領域を抽出する。これにより、歩行者が集団を形成している場合のパーツ領域を適切に抽出することができる。   At this time, if there is a part group area with a short distance, a circumscribed rectangular area including the group area is extracted. For example, in the example of FIG. 6, a part region P that includes two part group regions G6 and G7 is extracted. That is, a part area is extracted as a circumscribed rectangular area including a part group area whose mutual distance is equal to or less than a certain threshold. Thereby, the part area | region when a pedestrian forms the group can be extracted appropriately.

また、本実施形態では、高スコアエリアのスコアの総和としてパーツグループ領域のスコアを算出し、パーツグループ領域のスコアの総和としてパーツ領域のスコアを算出する(図2中のS150)。例えば図6では、パーツグループ領域G1,G2に含まれる高スコアエリアTTのスコアの総和としてパーツグループ領域G1,G2のスコアを算出し、パーツグループ領域G1,G2のスコアの総和としてパーツ領域Pのスコアを算出する。これにより、比較的簡単に、パーツ領域のスコアを算出することができる。   In the present embodiment, the score of the part group area is calculated as the sum of the scores of the high score area, and the score of the parts area is calculated as the sum of the scores of the part group area (S150 in FIG. 2). For example, in FIG. 6, the scores of the part group regions G1 and G2 are calculated as the sum of the scores of the high score areas TT included in the part group regions G1 and G2, and the sum of the scores of the part group regions G1 and G2 is calculated. Calculate the score. Thereby, the score of a parts area can be calculated comparatively easily.

さらにまた、本実施形態では、図7(a)に示したように頭部パーツモデルを基に抽出されたパーツ領域Pがある場合はその下に胴体部分があると推測し、パーツ領域Pに含まれる高スコアエリアのサイズから胴体部分のサイズを推測して、歩行者領域Sを推定する。すなわち、パーツ領域に包含される高スコアエリアのサイズに基づき対象物が存在する対象物領域(実施形態でいう歩行者領域、以下も同様)を推定する。これにより、各パーツ領域から歩行者領域を推定することができる。   Furthermore, in this embodiment, when there is a part region P extracted based on the head part model as shown in FIG. The size of the body part is estimated from the size of the included high score area, and the pedestrian area S is estimated. That is, an object area where a target object exists (a pedestrian area referred to in the embodiment, and so on) is estimated based on the size of the high score area included in the part area. Thereby, a pedestrian area can be estimated from each part area.

しかも、図7(b)に示したように、頭部パーツモデルを基に抽出された2つのパーツ領域P1,P3があり、脚部パーツモデルを基に抽出されたパーツ領域P2がある場合、その配置関係を基に、歩行者領域を推定する。すなわち、パーツ領域同士の位置関係に基づき対象物が存在する対象物領域を推定する。これにより、より適切な歩行者領域を推定することができる。   In addition, as shown in FIG. 7B, when there are two part areas P1 and P3 extracted based on the head part model, and there is a part area P2 extracted based on the leg part model, A pedestrian area is estimated based on the arrangement relationship. That is, the object area where the object exists is estimated based on the positional relationship between the part areas. Thereby, a more suitable pedestrian area can be estimated.

このとき、図7(c)に示したように、2つのパーツ領域P1,P2が対応関係にある場合、当該パーツ領域P1,P2から推定される歩行者領域S1,S2に対する外接矩形を歩行者領域S3として推定する。すなわち、パーツ領域を包含する外接矩形として対象物領域を推定する。これにより、より適切な歩行者領域を推定することができる。   At this time, as shown in FIG. 7C, when the two parts areas P1 and P2 are in a correspondence relationship, a circumscribed rectangle for the pedestrian areas S1 and S2 estimated from the parts areas P1 and P2 is set as a pedestrian. Estimated as region S3. That is, the object area is estimated as a circumscribed rectangle including the part area. Thereby, a more suitable pedestrian area can be estimated.

そして、歩行者領域の推定にあっては、歩行者領域に包含されるパーツ領域のスコアの総和が一定閾値以下である場合には、当該歩行者領域を抽出対象から外す。すなわち、パーツ領域に基づく対象物領域のスコアを算出し、当該スコアが一定閾値以下の対象物領域を抽出対象から外す。これにより、より確かな歩行者領域を推定することができる。   And in estimation of a pedestrian area, when the sum total of the score of the parts area included in a pedestrian area is below a fixed threshold value, the said pedestrian area is excluded from extraction object. That is, the score of the object region based on the part region is calculated, and the object region whose score is equal to or less than a certain threshold is excluded from the extraction target. Thereby, a more reliable pedestrian area can be estimated.

また、本実施形態では、歩行者領域が推定されると、衝突危険度判定部52が、測距装置31から出力される歩行者までの距離に基づき、衝突危険度を判定する。そして、この衝突危険度に基づき、車両制御装置20の報知制御部70によるスピーカ41を介した運転者への報知、および、車両制御部80によるブレーキ42、ステアリング43を介した衝突回避制御が行われる。これにより、より安全性の高い運転支援が実現される。   In this embodiment, when the pedestrian area is estimated, the collision risk determination unit 52 determines the collision risk based on the distance to the pedestrian output from the distance measuring device 31. Based on the degree of collision risk, notification to the driver via the speaker 41 by the notification control unit 70 of the vehicle control device 20 and collision avoidance control via the brake 42 and the steering 43 by the vehicle control unit 80 are performed. Is called. Thereby, driving assistance with higher safety is realized.

以上、本発明は、上述した実施形態に何ら限定されるものではなく、その技術的範囲を逸脱しない限り、種々なる形態で実施可能である。
(イ)上記実施形態では、図5(a)に示したように、高スコアエリアTC,TTの距離及び、高スコアエリアTC,TTのサイズでグループ化していた。
As described above, the present invention is not limited to the embodiment described above, and can be implemented in various forms without departing from the technical scope thereof.
(A) In the above embodiment, as shown in FIG. 5A, the high score areas TC and TT are grouped according to the distance and the high score areas TC and TT.

(イ−1)これに対し、図5(b)に示したように、高スコアエリアTC,TTの距離だけでパーツグループ領域を抽出するようにしてもよい。すなわち、相互の距離が一定閾値以下である高スコアエリアを包含するようにパーツグループ領域を抽出するようにしてもよい。このようにすれば、比較的簡単な処理でパーツグループ領域が抽出できる。   (A-1) On the other hand, as shown in FIG. 5B, the part group region may be extracted only by the distance between the high score areas TC and TT. That is, the part group region may be extracted so as to include a high score area whose mutual distance is equal to or less than a certain threshold. In this way, the part group area can be extracted by a relatively simple process.

(イ−2)また、図5(c)に示したように、パーツグループ領域G4,G5に含まれるエリアTTの数を当該パーツグループ領域G4,G5の面積で除して密集度を計算し、密集度が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外すこととしてもよい。すなわち、パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すようにしてもよい。このようにすれば、誤検出の虞が小さくなり、より精度よくパーツグループ領域を抽出することができる。   (A-2) Further, as shown in FIG. 5C, the density is calculated by dividing the number of areas TT included in the part group regions G4 and G5 by the area of the part group regions G4 and G5. When the density exceeds a certain threshold, the part group region may be used, and when the density is less than the certain threshold, the part group region may be excluded. That is, when the density of the high score area in the part group area is equal to or less than a certain threshold value, the part group area may be excluded from the extraction target. In this way, the possibility of erroneous detection is reduced, and the part group region can be extracted more accurately.

(イ−3)さらにまた、図5(c)に示した例で、パーツグループ領域G4,G5に含まれる高スコアエリアTTのスコアの総和を求め、スコアの総和が一定の閾値を越えている場合にパーツグループ領域とし、一定の閾値以下である場合には、パーツグループ領域から外すようにしてもよい。すなわち、パーツグループ領域における高スコアエリアのスコアの総和が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すようにしてもよい。このようにしても、誤検出の虞が小さくなり、より精度よくパーツグループ領域を抽出することができる。   (A-3) Furthermore, in the example shown in FIG. 5C, the sum of the scores of the high score area TT included in the part group regions G4 and G5 is obtained, and the sum of the scores exceeds a certain threshold value. In some cases, a part group region may be used, and if it is below a certain threshold, it may be removed from the part group region. That is, when the sum of the scores of the high score area in the part group area is equal to or less than a certain threshold value, the part group area may be excluded from the extraction target. Even in this case, the possibility of erroneous detection is reduced, and the part group region can be extracted more accurately.

(ロ)上記実施形態では、パーツ領域に含まれるパーツグループ領域のスコアの総和を、パーツ領域のスコアとしていた(図2中のS150)。
(ロ−1)ここでパーツグループ領域のスコアを算出するにあたり、高スコアエリアの「位置の近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアの位置pの差分和の逆数として、高スコアエリアの「位置の近さ」を定義することが考えられる。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる高スコアエリア同士の距離を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。
(B) In the above embodiment, the sum of the scores of the part group regions included in the part region is used as the score of the part region (S150 in FIG. 2).
(B-1) Here, in calculating the score of the part group region, the score may be calculated including the “positional proximity” of the high score area. Specifically, as shown in the lower part of FIG. 6, it is conceivable to define “closeness of position” of the high score area as the reciprocal of the difference sum of the positions p of the high score area. That is, when calculating the score of the part group region, the score may be calculated in consideration of the distance between the high score areas included in the part group region. In this way, the score of the parts area becomes more reliable.

(ロ−2)また、パーツグループ領域のスコアを算出するにあたり、高スコアエリアの「位置の近さ」に加え又は代え、パーツグループ領域にサイズの異なる高スコアエリアが含まれることを前提に「サイズの近さ」を含めてスコアを算出してもよい。具体的には、図6の下部に示すように、高スコアエリアのサイズsの差分和の逆数として、各エリアの「サイズの近さ」を定義することができる。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる高スコアエリアのサイズの差分を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。   (B-2) Further, in calculating the score of the part group area, in addition to or instead of “closeness of position” of the high score area, it is assumed that the part group area includes high score areas of different sizes. The score may be calculated including “closeness of size”. Specifically, as shown in the lower part of FIG. 6, the “closeness of size” of each area can be defined as the reciprocal of the difference sum of the size s of the high score area. That is, when calculating the score of the part group region, the score may be calculated in consideration of the size difference of the high score area included in the part group region. In this way, the score of the parts area becomes more reliable.

(ロ−3)さらにまた、「位置の近さ」や「サイズの近さ」に加え又は代え、パーツグループ領域における高スコアエリアの密集度を含め、パーツグループ領域のスコアを算出してもよい。すなわち、パーツグループ領域のスコアを算出する際、当該パーツグループ領域における高スコアエリアの密集度を加味してスコアを算出してもよい。このようにすれば、パーツ領域のスコアがより信頼性の大きなものとなる。   (B-3) Furthermore, in addition to or in place of “closeness of position” and “closeness of size”, the score of the part group area may be calculated including the density of the high score area in the part group area. . That is, when calculating the score of the part group region, the score may be calculated in consideration of the density of the high score area in the part group region. In this way, the score of the parts area becomes more reliable.

(ハ)上記実施形態では、歩行者領域(対象物領域)に含まれるパーツ領域のスコアの総和が一定閾値以下である場合、当該歩行者領域を抽出対象から外すようにしていた。これに対し、パーツ領域のスコアを算出した時点で、当該スコアが一定閾値以下である場合、当該パーツ領域を抽出対象から外すようにしてもよい。このようにすれば、信頼性が相対的に小さなパーツ領域に基づく歩行者領域の推定が行われず、より適切に歩行者領域を推定することができる。   (C) In the above embodiment, when the sum of the scores of the parts areas included in the pedestrian area (object area) is equal to or less than a predetermined threshold, the pedestrian area is excluded from the extraction target. On the other hand, when the score of the part area is calculated, if the score is equal to or less than a certain threshold value, the part area may be excluded from the extraction target. In this way, the pedestrian area is not estimated based on the part area having relatively small reliability, and the pedestrian area can be estimated more appropriately.

(ニ)上記実施形態では、測距装置31から出力される歩行者までの距離に基づき、衝突危険性を判定していた。これに対し、歩行者までの距離に加え又は代え、歩行者領域(対象物領域)の位置、サイズ、および、スコアの少なくとも一つを用いて、衝突危険性を判定するようにしてもよい。   (D) In the above embodiment, the collision risk is determined based on the distance to the pedestrian output from the distance measuring device 31. On the other hand, in addition to or instead of the distance to the pedestrian, the risk of collision may be determined using at least one of the position, size, and score of the pedestrian area (object area).

(ホ)上記実施形態では、歩行者までの距離を測距装置31にて測定していたが、測距装置31に代え、撮像装置32からの画像情報を基に距離を測定してもよい。すなわち、測距装置31を省略した構成としてもよい。もちろん、測距装置31を備えることで、精度の高い測定が可能となる。   (E) In the above embodiment, the distance to the pedestrian is measured by the distance measuring device 31, but the distance may be measured based on the image information from the imaging device 32 instead of the distance measuring device 31. . That is, the distance measuring device 31 may be omitted. Of course, by providing the distance measuring device 31, highly accurate measurement is possible.

10…画像処理装置、20…車両制御装置、31…測距装置、32…撮像装置、41…スピーカ、42…ブレーキ、43…ステアリング、50…制御部、51…歩行者検出部、52…衝突危険度判定部、60…記憶部、61…パーツモデル記憶部、62…衝突危険度判定テーブル記憶部、70…報知制御部、80…車両制御部   DESCRIPTION OF SYMBOLS 10 ... Image processing device, 20 ... Vehicle control device, 31 ... Distance measuring device, 32 ... Imaging device, 41 ... Speaker, 42 ... Brake, 43 ... Steering, 50 ... Control part, 51 ... Pedestrian detection part, 52 ... Collision Risk level determination unit, 60 ... storage unit, 61 ... parts model storage unit, 62 ... collision risk level determination table storage unit, 70 ... notification control unit, 80 ... vehicle control unit

Claims (23)

車両に搭載される撮像装置(32)からの画像に基づいて対象物を検出する画像処理装置(10)であって、
該対象物の各部位であるパーツを画像内から検出可能な複数のパーツモデルを記憶するパーツモデル記憶手段(61)と、
前記パーツモデル記憶手段に記憶された前記パーツモデルを用い、前記パーツ毎のパーツ領域を抽出するパーツ領域抽出手段(51)と、
前記パーツ領域抽出手段にて抽出された前記パーツ領域に基づき、該対象物が存在する対象物領域を推定する対象物領域推定手段(51)と、
を備えていることを特徴とする画像処理装置。
An image processing device (10) for detecting an object based on an image from an imaging device (32) mounted on a vehicle,
A part model storage means (61) for storing a plurality of part models capable of detecting parts as parts of the object from the image;
Using the part model stored in the part model storage means, a part area extracting means (51) for extracting a part area for each part;
Object area estimation means (51) for estimating an object area where the object exists based on the parts area extracted by the parts area extraction means;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記対象物は、歩行者であること
を特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the object is a pedestrian.
請求項1又は2に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記画像内で前記パーツモデルを移動させ、当該パーツモデルと重なった領域であるエリアとの一致度をスコアとして算出し、前記スコアが予め定められた設定閾値を上回る高スコアエリアに基づき(S120)、前記パーツ領域を抽出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The part region extraction means moves the part model in the image, calculates a degree of coincidence with an area that is an area overlapping with the part model as a score, and the score exceeds a predetermined set threshold. An image processing apparatus, wherein the part region is extracted based on a score area (S120).
請求項3に記載の画像処理装置において、
前記設定閾値は、前記パーツ毎に定められていること
を特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The image processing apparatus, wherein the setting threshold is determined for each part.
請求項3又は4に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記高スコアエリアを包含するパーツグループ領域を抽出した後(S130)、前記パーツグループ領域に基づいて、前記パーツ領域を抽出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4,
The part region extracting means extracts a part group region including the high score area (S130), and then extracts the part region based on the part group region.
請求項5に記載の画像処理装置において、
前記パーツ領域抽出手段は、相互の距離が一定閾値以下である前記高スコアエリアを包含するように前記パーツグループ領域を抽出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The image processing apparatus, wherein the part region extraction unit extracts the part group region so as to include the high score area whose mutual distance is equal to or less than a predetermined threshold.
請求項6に記載の画像処理装置において、
前記パーツ領域抽出手段は、相互に同様のサイズを有する前記高スコアエリアを包含するように前記パーツグループ領域を抽出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 6.
The image processing apparatus, wherein the part area extraction unit extracts the part group area so as to include the high score areas having the same size.
請求項6又は7に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域における高スコアエリアの密集度が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこと
を特徴とする画像処理装置。
The image processing apparatus according to claim 6 or 7,
The image processing apparatus according to claim 1, wherein the part region extraction unit excludes the part group region from extraction targets when the density of the high score area in the part group region is equal to or less than a predetermined threshold.
請求項6〜8の何れか一項に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域における高スコアエリアのスコアの総和が一定閾値以下である場合、当該パーツグループ領域を抽出対象から外すこと
を特徴とする画像処理装置。
In the image processing device according to any one of claims 6 to 8,
The image processing apparatus according to claim 1, wherein the part region extraction unit excludes the part group region from the extraction target when the total score of the high score areas in the part group region is equal to or less than a predetermined threshold value.
請求項5〜9の何れか一項に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域を包含する外接矩形領域として前記パーツ領域を抽出すること(S140)
を特徴とする画像処理装置。
In the image processing device according to any one of claims 5 to 9,
The parts area extracting means extracts the parts area as a circumscribed rectangular area including the parts group area (S140).
An image processing apparatus.
請求項10に記載の画像処理装置において、
前記パーツ領域抽出手段は、相互の距離が一定閾値以下である前記パーツグループ領域を包含する外接矩形領域として前記パーツ領域を抽出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 10.
The image processing apparatus according to claim 1, wherein the part region extraction unit extracts the part region as a circumscribed rectangular region including the part group region whose mutual distance is equal to or less than a predetermined threshold.
請求項10又は11に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記外接矩形領域に包含される前記パーツグループ領域のスコアを当該パーツグループ領域に含まれる前記高スコアエリアのスコアの総和として算出し、前記パーツグループ領域のスコアの総和として前記パーツ領域のスコアであるパーツ領域スコアを算出すること(S150)
を特徴とする画像処理装置。
The image processing apparatus according to claim 10 or 11,
The part area extraction means calculates a score of the part group area included in the circumscribed rectangular area as a sum of scores of the high score area included in the part group area, and calculates a sum of scores of the part group areas. Calculating a part area score which is a score of the part area (S150);
An image processing apparatus.
請求項12に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる前記高スコアエリア同士の距離を加味してスコアを算出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 12.
The said part area | region extraction means calculates a score in consideration of the distance of the said high score area contained in the said part group area | region, when calculating the score of the said part group area | region.
請求項12又は13に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域に含まれる前記高スコアエリアのサイズの差分を加味してスコアを算出すること
を特徴とする画像処理装置。
The image processing apparatus according to claim 12 or 13,
The said part area | region extraction means calculates a score in consideration of the difference of the size of the said high score area contained in the said part group area | region, when calculating the score of the said part group area | region.
請求項12〜14の何れか一項に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツグループ領域のスコアを算出する際、当該パーツグループ領域における前記高スコアエリアの密集度を加味してスコアを算出すること
を特徴とする画像処理装置。
In the image processing device according to any one of claims 12 to 14,
The image processing apparatus according to claim 1, wherein when calculating the score of the part group area, the part area extraction unit calculates the score in consideration of the density of the high score area in the part group area.
請求項12〜15の何れか一項に記載の画像処理装置において、
前記パーツ領域抽出手段は、前記パーツ領域の前記パーツ領域スコアが一定閾値以下である場合、当該パーツ領域を抽出対象から外すこと
を特徴とする画像処理装置。
In the image processing device according to any one of claims 12 to 15,
The image processing apparatus according to claim 1, wherein the part area extraction unit excludes the part area from an extraction target when the part area score of the part area is equal to or less than a predetermined threshold.
請求項3〜16の何れか一項に記載の画像処理装置において、
前記対象物領域推定手段は、前記パーツ領域に包含される前記高スコアエリアのサイズに基づき対象物が存在する対象物領域を推定すること(S160)
を特徴とする画像処理装置。
In the image processing device according to any one of claims 3 to 16,
The object area estimation means estimates an object area where the object exists based on the size of the high score area included in the parts area (S160).
An image processing apparatus.
請求項3〜17の何れか一項に記載の画像処理装置において、
前記対象物領域推定手段は、前記パーツ領域同士の位置関係に基づき対象物が存在する対象物領域を推定すること(S160)
を特徴とする画像処理装置。
In the image processing device according to any one of claims 3 to 17,
The object area estimation means estimates an object area where the object exists based on a positional relationship between the part areas (S160).
An image processing apparatus.
請求項18に記載の画像処理装置において、
前記対象物領域推定手段は、前記パーツ領域を包含する外接矩形として前記対象物領域を推定すること(S160)
を特徴とする画像処理装置。
The image processing apparatus according to claim 18.
The object area estimation means estimates the object area as a circumscribed rectangle including the part area (S160).
An image processing apparatus.
請求項1〜19の何れか一項に記載の画像処理装置において、
前記対象物領域推定手段は、前記パーツ領域に基づく前記対象物領域のスコアを算出し、当該スコアが一定閾値以下の対象物領域を抽出対象から外すこと
を特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 19,
The object region estimation unit calculates a score of the object region based on the part region, and excludes an object region whose score is equal to or less than a predetermined threshold from an extraction target.
請求項1〜20の何れか一項に記載の画像処理装置において、
前記対象物領域推定手段にて推定された前記対象物領域の位置、サイズ、スコア、及び、対象物までの距離の少なくとも一つに基づき、衝突危険度を判定する衝突危険度判定手段(52)をさらに備えていること
を特徴とする画像処理装置。
In the image processing device according to any one of claims 1 to 20,
Collision risk determination means (52) for determining the collision risk based on at least one of the position, size, score, and distance to the object estimated by the object region estimation means An image processing apparatus, further comprising:
請求項21に記載の画像処理装置と、
前記衝突危険度判定手段にて判定された前記衝突危険度に基づき、運転者への報知を行う報知制御手段(70)を有する車両制御装置(20)と、
を備えていることを特徴とする車両制御システム。
An image processing device according to claim 21;
A vehicle control device (20) having notification control means (70) for notifying the driver based on the collision risk determined by the collision risk determination means;
A vehicle control system comprising:
請求項21に記載の画像処理装置と、
前記衝突危険度判定手段にて判定された前記衝突危険度に基づき、衝突回避制御を行う車両制御手段(80)を有する車両制御装置(20)と、
を備えていることを特徴とする車両制御システム。
An image processing device according to claim 21;
A vehicle control device (20) having vehicle control means (80) for performing collision avoidance control based on the collision risk determined by the collision risk determination means;
A vehicle control system comprising:
JP2013037715A 2012-02-27 2013-02-27 Image processing apparatus and vehicle control system using the image processing apparatus Expired - Fee Related JP5780249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013037715A JP5780249B2 (en) 2012-02-27 2013-02-27 Image processing apparatus and vehicle control system using the image processing apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012040516 2012-02-27
JP2012040516 2012-02-27
JP2013037715A JP5780249B2 (en) 2012-02-27 2013-02-27 Image processing apparatus and vehicle control system using the image processing apparatus

Publications (2)

Publication Number Publication Date
JP2013211005A true JP2013211005A (en) 2013-10-10
JP5780249B2 JP5780249B2 (en) 2015-09-16

Family

ID=48951029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037715A Expired - Fee Related JP5780249B2 (en) 2012-02-27 2013-02-27 Image processing apparatus and vehicle control system using the image processing apparatus

Country Status (2)

Country Link
JP (1) JP5780249B2 (en)
DE (1) DE102013203300A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152319A (en) * 2014-02-10 2015-08-24 株式会社デンソー Object identification method and object identification device
JP2016206026A (en) * 2015-04-23 2016-12-08 株式会社デンソー Object recognition device
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
CN110239531A (en) * 2018-03-08 2019-09-17 株式会社万都 Device and method for controlling collision prevention of vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251441A (en) * 1996-03-15 1997-09-22 Toshiba Corp Cooperative work control device and method therefor
WO2007020789A1 (en) * 2005-08-12 2007-02-22 Sony Computer Entertainment Inc. Face image display, face image display method, and face image display program
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021034A (en) 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251441A (en) * 1996-03-15 1997-09-22 Toshiba Corp Cooperative work control device and method therefor
WO2007020789A1 (en) * 2005-08-12 2007-02-22 Sony Computer Entertainment Inc. Face image display, face image display method, and face image display program
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015152319A (en) * 2014-02-10 2015-08-24 株式会社デンソー Object identification method and object identification device
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
US10970561B2 (en) 2015-03-12 2021-04-06 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
JP2016206026A (en) * 2015-04-23 2016-12-08 株式会社デンソー Object recognition device
CN110239531A (en) * 2018-03-08 2019-09-17 株式会社万都 Device and method for controlling collision prevention of vehicle

Also Published As

Publication number Publication date
DE102013203300A1 (en) 2013-08-29
JP5780249B2 (en) 2015-09-16

Similar Documents

Publication Publication Date Title
JP6741022B2 (en) Parking assistance method and device
JP5780249B2 (en) Image processing apparatus and vehicle control system using the image processing apparatus
US9121717B1 (en) Collision avoidance for vehicle control
KR20180060784A (en) Method and apparatus for determining abnormal object
JP6720715B2 (en) Parking assistance method and device
CN105128836A (en) Autonomous emergency braking system and method for recognizing pedestrian therein
JP5971341B2 (en) Object detection device and driving support device
JP2007148835A (en) Object distinction device, notification controller, object distinction method and object distinction program
JPWO2018221453A1 (en) Output device, control method, program, and storage medium
JP2008021035A (en) Image recognition device, image recognition method, and vehicle control device
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
CN108473131A (en) Parking assistance method and device
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
JP6520740B2 (en) Object detection method, object detection device, and program
JPWO2017187592A1 (en) Parking support method and apparatus
JP6597352B2 (en) Object recognition device
JP5838940B2 (en) Image processing apparatus and vehicle control system
JP2010218246A (en) Object identification device
CN111497741B (en) Collision early warning method and device
JP2015225546A (en) Object detection device, drive support apparatus, object detection method, and object detection program
JP2017162178A (en) Determination device, determination method and determination program
JP2012220377A (en) Object identification apparatus and object identification program
US20170213094A1 (en) Image processing apparatus
JP6815963B2 (en) External recognition device for vehicles
JP2016012304A (en) Target article recognition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150629

R151 Written notification of patent or utility model registration

Ref document number: 5780249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees